Certificat de spécialisation Analyste de données massives
27 crédits Certificat de spécialisation (Sans niveau spécifique) N'deye NIANG EPN06 - Mathématique et statistique
Publié Du 01-09-2014 au 31-08-9999
Prérequis :
Informaticiens, mathématiciens, ou statisticiens ayant un niveau ingénieur ou master et exerçant en entreprise.
Formation supérieure en mathématique (algèbre linéaire, analyse). Connaissances en bases de données, en programmation, en statistique et analyse des données.
Pour obtenir le certificat, il faut valider l'ensemble des unités d'enseignement le composant et l'UA. Il n'y a pas une inscription spécifique au certificat. Pour s'inscrire aux UE consulter les sites associés. La durée conseilleé pour réaliser le certificat est de 1 à 2 ans.
L'inscription à l'UA de projet est uniquement possible pour les élèves ayant validé toutes les UE ou qui ont validé NFE204 et STA211 et sont en cours de validation de RCP216.
Attention à l’ordre des inscriptions aux UE : Il n’est pas possible de s’inscrire à l’UE RCP216 avant d’avoir suivi les UE NFE204 et STA211.
Les inscriptions ont lieu en septembre pour le semestre 1 et en février pour le semestre 2.
Ce certificat offre la possibilité à des informaticiens, mathématiciens, statisticiens de suivre une formation professionnelle pluridisciplinaire pour acquérir les compétences propres à l'exercice du métier émergent de data scientist également appelé "analyste big data".
Alliant des compétences en mathématiques, statistique, informatique, visualisation de données ; il est capable de stocker, rechercher, capter, partager, interroger et donner du sens à d'énormes volumes de données structurées et non structurées, produites en temps réel et provenant de sources diverses.
Le certificat de spécialisation s'acquiert en obtenant une note supérieure ou égale à 10 à toutes les UE proposées ainsi qu'au projet professionnel (UA).
Donner du sens à d'énormes volumes de données structurées et non structurées, produites en temps réel et provenant de sources diverses.
Maitriser les technologies Hadoop et Map Reduce, de passage à l'échelle et le traitement de données d'un nouveau type (textes, images, vidéos, etc...) à l'aide de méthodes de data mining et d'apprentissage.