Canon Research Centre France S.A.S.

Offres de stage

Les stages de CRF sont proposés dans le cadre de sa Responsabilité Sociétale des Entreprises (RSE). Le seul objectif des stages de CRF est de contribuer à l'éducation des stagiaires qui bénéficient de l'expertise des chercheurs de CRF. CRF propose plusieurs stages chaque année, donc n'hésitez pas à revenir régulièrement sur cette page.

Merci de remplir les champs suivants pour être contacté

:

:

5G AIML

Durée du stage : 5/6 mois / Date souhaitée : février 2024

Sujet du stage

L’organisme de normalisation 3GPP développe activement de nouvelles spécifications incluant les techniques de l'intelligence artificielle pour améliorer les performances 5G, en particulier au niveau de la couche physique. Les améliorations sont étudiées pour la prédiction de l'état des canaux (CSI), la détermination précise de la position mobile (UE) et la gestion du faisceau radio.

Mission

La mission principale du stage sera de développer un modèle d'apprentissage automatique pour gérer différents objectifs comme par exemple la compression CSI ou la prédiction CSI.
Le premier objectif sera de mettre en place un environnement de simulation (ex. Matlab) modélisant une simulation au niveau de la liaison montrant les performances du module CSI existant dans 3GPP 5G.
Le deuxième objectif sera d’implémenter un modèle CNN (p. ex. à l'aide de Resnet) mettant en œuvre la compression CSI basée sur AIML de la même manière que dans un rapport d'étude 3GPP. Les résultats seront analysés à la lumière des simulations de performances héritées et des performances rapportées de l'AIML dans le rapport 3GPP.
Le dernier objectif dépendra des résultats obtenus. Une première piste sera de tester la possibilité d'utiliser des transformateurs au lieu du modèle CNN. Une autre possibilité sera d'étudier et implémenter une simulation au niveau du système dans Matlab ciblant le module CSI.

Formation requise

Vous êtes candidat(e) à un diplôme de Master 2 ou une école d’ingénieur, filière informatique ou télécommunications. Vous êtes curieux(se), ouvert(e) d’esprit, passionné(e) par les nouvelles technologies et avez de réelles qualités relationnelles pour vous intégrer dans un environnement innovant et multiculturel.

Haut

Application du modèle RAG (Génération Augmentée de Récupération) dans le cadre de documentation interne

Durée du stage : 5/6 mois / Date souhaitée : février 2024

Sujet du stage

ChatGPT a révolutionné la manière d’interagir avec la documentation, car il n’est plus nécessaire de parcourir un grand nombre de documents pour trouver une réponse à une question donnée, il suffit juste d’enchainer des questions successives pour avoir rapidement une réponse.
Mais ChatGPT et ses équivalents comportent des limites, les réponses ne sont pas toujours parfaites et peuvent parfois être erronées. L’entrainement de ces modèles est basé sur une base de documents limitée au domaine public, et ne prend pas en compte des documents de nature privée ou confidentielle, ce qui réduit considérablement l’intérêt du modèle dans le monde de l’entreprise.
Par exemple, une compagnie d’assurance pourrait vouloir mettre en place un système qui permettrait à ses clients de savoir s’ils sont couverts pour un risque précis par leur police. Une police d’assurance est spécifique à un client donné et évolue généralement dans le temps ; elle ne peut donc faire partie de la base d’apprentissage de ChatGPT, sauf à réentrainer ChatGPT pour chaque nouveau client et à chaque changement de police, ce qui serait coûteux.

Mission

Le but du stage sera de créer un moteur de recherche, basé sur un Grand Modèle de Langage (LLM : Large Language Model) de type GPT ou équivalent, qui prendra en compte des informations provenant de documents internes, sans réapprentissage à travers 3 grandes étapes :

Formation requise

Vous êtes candidat(e) à un diplôme de Master 2 ou une école d’ingénieur, filière informatique ou télécommunications. Vous êtes curieux(se), ouvert(e) d’esprit, passionné(e) par les nouvelles technologies et avez de réelles qualités relationnelles pour vous intégrer dans un environnement innovant et multiculturel.

Connaissances spécifiques

Large Language Models (GPT4All, llama.cpp, …)
Python (PrivateGPT, LangChain, SentenceTransformers, Faiss, …)

Haut

Radiocommunication et détection conjointes en 6G

Durée du stage : 5/6 mois / Date souhaitée : février 2024

Sujet du stage

Depuis quelques années, Canon diversifie ses activités pour adresser de nouveaux marchés professionnels tels que la vidéo surveillance, l’industrie 4.0 ou le médical. L’évolution de la 5G et la 6G à venir vont permettre d’offrir de nouvelles opportunités d’applications pour les équipements vidéo de haute qualité de Canon. Ce stage vise à participer à l'évolution du monde connecté à travers la technologie mobile 6G.
Au cours des dernières années, la norme 3GPP (Third Generation Partnership Project) a publié la dernière génération de communications mobiles référencée à la 5G-New Radio Access Technology en 2019 avec la version 15 d’un ensemble de spécifications. Ensuite, 3GPP a livré de nouveaux ensembles de spécifications, les versions 16 et 17, afin d'ajouter des fonctionnalités améliorées et des performances accrues pour prendre en charge les cas d'utilisation avancée.
La normalisation 5G-Advanced en cours de développement est la dernière étape avant la normalisation 6G d'ici 2028. Par conséquent, la course vers la 6G est maintenant en cours avec de nombreux défis de Recherche & Développement à surmonter tels que la radiocommunication et la détection conjointes pour répondre aux attentes.
L'objectif du stage sera d'évaluer les capacités des opérations de détection dans un futur système 6G ainsi que leur impact sur les performances des radiocommunications 6G.

Mission

Au sein d’une équipe projet, vous aurez les missions suivantes :

Formation requise

Vous êtes candidat(e) à un diplôme de Master 2 ou une école d’ingénieur, filière informatique ou télécommunications. Vous êtes curieux(se), ouvert(e) d’esprit, passionné(e) par les nouvelles technologies et avez de réelles qualités relationnelles pour vous intégrer dans un environnement innovant et multiculturel.

Connaissances spécifiques

Haut

Modèles d'Intelligences Artificielles Génératives pour l'imagerie médicale

Durée du stage : 5/6 mois / Date souhaitée : février 2024

Sujet du stage

L'utilisation de l'intelligence artificielle générative (IAG) est en expansion dans de nombreux domaines, y compris l'imagerie médicale. Le principal avantage des modèles d'IAG est leur capacité à créer de nouveaux contenus qui ne se limitent pas aux ensembles de données de formation sur lesquels ils ont été formés. Les principales applications de l'imagerie médicale comprennent la génération de données synthétiques (augmentation des données pour les datasets d'images médicales), la traduction d'images en images (transfert de style) et l'amélioration des images. Récemment, une plateforme open source pour le développement de modèles génératifs, les "MONAI Generative Models", a été lancée par un consortium de chercheurs [1] [2]. La plate-forme met en œuvre des architectures de modèles à la fine pointe de la technologie telles que des modèles de diffusion, des transformateurs autorégressifs et des réseaux génératifs d'annonces (RGA). La capacité de la plate-forme a été démontrée pour certaines applications ci-dessus et certaines modalités d'imagerie, y compris la tomodensitométrie (CT), l'imagerie par résonance magnétique (IRM) et les rayons X. Cependant, d'une part, aucun des projets ne concerne les données d'UltraSound Imaging (USI) et, d'autre part, la génération d'images plus contrôlables devrait être développée davantage, en particulier en tenant compte des entrées de texte supplémentaires.
Le sujet du stage est de mener des expériences pour les données USI à l'aide du paquet MONAI Generative Models et éventuellement d'étudier comment l'intégration basée sur le texte pourrait être incluse dans le processus de génération d'images.

Mission

Dans une première phase (revue et expérimentations), l'objectif du stage sera d'étudier en détail les capacités du package MONAI Generative Models (à partir de documents scientifiques, de [1], et de logiciels, l'installation et l'exécution de certains des projets / expériences du package [2] sur une perspective de cluster GPU). Plus précisément, l'objectif sera de concevoir de nouvelles expériences pour la génération de données 2D USI et la traduction image par image en comparant un ensemble de modèles sélectionnés mis en oeuvre sur la plate-forme tels que Latent Diffusion Model et ControlNet.
Dans une deuxième phase (plus axée sur la recherche), l'objectif sera d'étudier la génération d'images intégrantes textuelles en permettant aux utilisateurs de contrôler le contenu de l'image générée (comme décrit dans les articles scientifiques de [3]), en reliant la synthèse texte-image au domaine de la traduction/amélioration image-à-image (ultrasons) dans le cadre de tâches de traduction d'images guidées par texte, où une image d'entrée guide la mise en page et le texte guide la sémantique perçue et l'apparence de l'image ultrasonore. L'objectif sera de proposer un premier cadre pour l'évaluation future d'un modèle génératif d'images à ultrasons guidées par texte.
À la fin de la période de formation, le/la stagiaire devrait avoir acquis de bonnes connaissances dans le domaine de l'IA générative, son application à l'imagerie médicale ainsi que l'utilisation pratique du cadre d'apprentissage Python Deep Learning (Pytorch).

Formation requise

Vous êtes candidat(e) à un diplôme de Master 2 ou une école d’ingénieur, filière informatique ou télécommunications. Vous êtes curieux(se), ouvert(e) d’esprit, passionné(e) par les nouvelles technologies et avez de réelles qualités relationnelles pour vous intégrer dans un environnement innovant et multiculturel.

Connaissances spécifiques

IA, informatique et/ou traitement d'images
Python

Haut

Compression 3D basée sur l'IA

Durée du stage : 5/6 mois / Date souhaitée : février 2024

Sujet du stage

MPEG (Moving Picture Expert Group) développe actuellement une nouvelle norme de compression (VDMC : Video Dynamic 3D Mesh Compression) proposant des performances de compression élevées pour la compression dynamique de maillage 3D. Cette approche de compression progressive est basée sur les technologies de compression "conventionnelles" (non-AI). En parallèle, MPEG a réussi à prouver l'efficacité de l'IA (à l'aide d'architectures génératives Deep Learning) pour la compression 3D de nuage de points.
Le stage a pour objet l'étude (révision et premières implémentations) de certains outils algorithmiques d'IA pour la compression 3D, que ce soit pour les données de maillage ou de nuage de points. En particulier, 2 études possibles peuvent être envisagées :

Mission

Selon l'étude à traiter (à discuter avec le stagiaire), les objectifs sont les suivants :

Quant à Deep Octree Coding :


En ce qui concerne les approches/architectures génératives utilisées pour la compression de maillage entre le cloud et le 3D : À la fin de la période de formation, le/la stagiaire devrait avoir acquis de bonnes connaissances ainsi qu'une expérience pratique dans le domaine de l'IA pour la compression de données.

[1] Neural Progressive Meshes, https://arxiv.org/pdf/2308.05741.pdf (à paraître dans SIGGRAPH’23)
[2] Compression de la géométrie du nuage de points à l'aide d'une représentation multiéchelle basée sur un capteur dispersé, ISO/IEC JTC 1/SC 29/WG 7 m59035, janvier 2022

Formation requise

Vous êtes candidat(e) à un diplôme de Master 2 ou une école d’ingénieur, filière informatique ou télécommunications. Vous êtes curieux(se), ouvert(e) d’esprit, passionné(e) par les nouvelles technologies et avez de réelles qualités relationnelles pour vous intégrer dans un environnement innovant et multiculturel.

Connaissances spécifiques

IA, informatique, compression de données
Python, C++

Haut

Conversion de modèle d'inférence d'IA pour application embarquée de caméra

Durée du stage : 5/6 mois / Date souhaitée : février 2024

Sujet du stage

Au cours des dernières années, les capacités de traitement intégrées des caméras réseau conçues par Canon (marque Axis) n'ont cessé d'augmenter ouvrant la porte à de nouvelles analyses exploitant l'inférence d'intelligence artificielle intégrée dans la caméra.
Les utilisateurs finaux peuvent désormais personnaliser leurs caméras en développant et déployant leur propre application, via un kit de développement logiciel (SDK) ACAP (Axis Camera Application Platform).
L'application ACAP Embedded peut surveiller et contrôler plusieurs fonctionnalités de la caméra, mais également effectuer un traitement d'image assisté par le deep learning. Certains modèles de traitement d'images de flux principaux sont disponibles pour une utilisation directe sur la caméra, mais la documentation du SDK ACAP fournit également des informations sur le processus à appliquer pour convertir un modèle d'IA développé sur TensorFlow afin de pouvoir l'exécuter sur un TPU Edge.
Ce traitement d'images intégré est appliqué, par exemple, dans les domaines du système de transport intelligent (STI), ou de la surveillance de l'environnement (détection précoce des incendies de forêt).

Mission

Un premier objectif du stage sera de se familiariser avec le SDK ACAP Axis et de tester des exemples pour convertir un modèle d'inférence AI pour l'inférence embarquée sur la caméra.
Une deuxième étape consistera à adapter ce processus à plusieurs autres modèles d'inférence d'IA préformés, et à évaluer les caractéristiques (architecture du modèle, taille d'entrée, ...) requises pour qu'un modèle préentraîné soit adapté avec succès à l'inférence incorporée dans la caméra. Une courte étude des différents matériels d'accélération de l'inférence embarquée (Edge_tpu vs DLPU par exemple) pourrait également être incluse dans les tâches.

Formation requise

Vous êtes candidat(e) à un diplôme de Master 2 ou une école d’ingénieur, filière informatique ou télécommunications. Vous êtes curieux(se), ouvert(e) d’esprit, passionné(e) par les nouvelles technologies et avez de réelles qualités relationnelles pour vous intégrer dans un environnement innovant et multiculturel.

Connaissances spécifiques

Outils : TensorFlow, TensorFlow Lite, Axis ACAP SDK, Docker
Langages de programmation : python, C/C++
Environnement : Linux, Git

Haut