Ce concours est ouvert à tous les étudiants et professionnels africains capables de résoudre des problèmes de machine learning et deep learning.
L’objectif du challenge est de développer un modèle d’apprentissage automatique capable de prédire le taux d'alphabétisation des populations en Afrique et dans le monde pour l'année 2010 à partir de données historiques de sondages.
Équipes et collaboration
Vous pouvez participer à ce concours à titre individuel ou en équipe de quatre personnes maximum. Lors de la création d'une équipe, l'équipe doit avoir un nombre total de soumissions inférieur ou égal au nombre maximal de soumissions autorisé à la date de formation de l'équipe. Une équipe aura un nombre maximum de soumissions pour la compétition, moins le plus grand nombre de soumissions fait par un membre de l'équipe lors de la formation de cette dernière. Les prix sont transférés uniquement aux compétiteurs individuels ou au chef d'équipe.
Plusieurs comptes par utilisateur ne sont pas autorisés, pas plus que la collaboration ou l'appartenance à plusieurs équipes. Les individus et leurs soumissions provenant de plusieurs comptes seront disqualifiés.
Aucun code ne doit être partagé en privé en dehors d'une équipe. Tout code partagé doit être mis à la disposition de tous les participants au challenge via la plateforme. (c'est-à-dire sur le forum de discussion).
Jeu de données et packages
La solution doit utiliser uniquement des packages open source accessibles au public.
Vous ne pouvez utiliser que les jeux de données fournis pour ce challenge. Les outils d'apprentissage automatique tels que automl ne sont pas autorisés.
Vous pouvez utiliser des modèles pré-entraînés tant qu'ils sont accessibles à tous.
Les données utilisées dans ce challenge sont la propriété exclusive de Zindi et de l'hôte du challenge. Vous ne pouvez pas transmettre, dupliquer, publier, redistribuer, fournir ou rendre disponible les données du concours à toute partie ne participant pas au concours (cela inclut le téléversement des données sur un site public tel que Kaggle ou GitHub). Vous pouvez télécharger, stocker et travailler avec les données sur toute plate-forme cloud telle que Google Colab, AWS ou d’autres fournisseurs cloud, tant que :
1) les données restent privées et
2) cela n’est pas contradictoire aux règles d'utilisation de Zindi.
Vous devez informer Zindi immédiatement dès qu'il a lieu, connaissance de toute transmission non autorisée ou accès non autorisé aux données du concours, et travailler avec Zindi pour rectifier toute transmission ou accès non autorisé.
Votre solution ne doit pas enfreindre les droits d'un tiers et vous devez être légalement autorisé à céder la propriété de tous les droits d'auteur sur le code de la solution gagnante à Zindi.
Soumissions et gagnants
Vous pouvez faire un maximum de 50 soumissions par jour.
Vous pouvez faire un maximum de 150 soumissions pour ce concours.
Zindi maintient un classement public et un classement privé pour chaque compétition. Le tableau de classement public comprend environ 20% de l'ensemble de données de test. Pendant que le concours est ouvert, le classement public classera les solutions soumises en fonction du score qu'elles obtiennent. À l'issue de la compétition, le classement privé, qui couvre les 80% restants du jeu de données de test, sera rendu public et représentera le classement final de la compétition.
Si votre solution se classe 1er, 2e ou 3e dans le classement final, vous devrez nous soumettre le code de votre solution gagnante pour vérification et vous acceptez ainsi de partager tous les droits mondiaux de copyright sur une solution gagnante avec Zindi.
Vous reconnaissez et acceptez que Zindi peut, sans aucune obligation de le faire, retirer ou disqualifier un individu, une équipe ou un compte si Zindi pense que cet individu, cette équipe ou ce compte enfreint ces règles. La participation à ce challenge constitue votre acceptation du présent règlement officiel du challenge.
Veuillez consulter la FAQ et les conditions d'utilisation pour les règles supplémentaires qui peuvent s'appliquer à ce challenge. Nous nous réservons le droit de mettre à jour ces règles à tout moment.
La métrique d'évaluation pour ce challenge est l’Erreur Absolue Moyenne (Mean Absolute Error).
Votre soumission devrait ressembler à:
ID Target
ID_00ILO0W 68.92
ID_00KPO3Y 41.67
ID_00MLY2L 98.12
1e prix: $500 USD
2e prix: $200 USD
Chronologie
Join the largest network for
data scientists and AI builders