Canon Research Centre France S.A.S.

Internship proposals

To apply, please fill in the following fields.

:

:

(please indicate the internship for which you apply):

5G Integrated Access and Backhaul at mmWaves

Internship: 5 months / Preferable date: March 2019

Mission:

Since mid 2000 years, the development of 60GHz standards IEEE802.15.3c and IEEE802.11ad has led to the emergence of 60GHz consumer products (a.k.a. WirelessHD, WiGig).
With this increased maturity of millimeter wave (mmWave) communications the third generation partnership project (3GPP) is specifying an integrated access and backhaul (IAB) architecture for 5G cellular networks in which the access and backhaul network share the same standard wireless technology to allow flexible resource allocation.
The goal of this internship is to investigate the performance of a multi-hop IAB network at mmWave for video surveillance application.

Main tasks:

Reference:

M. Mezzavilla, M. Zhang, M. Polese, R. Ford, S. Dutta, S. Rangan, M. Zorzi, "End-to-End Simulation of 5G mmWave Networks," in IEEE Communications Surveys & Tutorials, vol. 20, no. 3, pp. 2237-2263

Skills:

Millimeter-wave transmission, network modelling and simulation, NS3, python C/C++ language.

School profile:

Electronics and Telecommunication Engineering school, Master 2

Back to top

Indoor people tracking using FMCW radar and Image fusion

Internship: 5 months / Preferable date: early 2019

Mission:

Today automotive radars chipset are available to determine a list of targets (vehicules, pedestrian…) their range, velocity and localization (direction). Sensor fusion brings the information flows of both radar and a camera together to detect and track people.
The goal of the internship will be to develop a people tracking system based on a radar and a network camera for sensor data fusion and visualization on PC using video overlay.
The intern will have to use the tools for programing on a RADAR microprocessor, to develop a radar tracking application (RADAR SDK includes applications demos), to develop a sensor fusion application using multimedia framework (e.g. GStreamer) for visualization and finally to conduct experiments.

Skills:

RADAR, Signal processing, Matlab/Simulink, C/C++ language, GStreamer multimedia framework, Linux

School profile:

Master 2, Signal Processing Engineering school

Back to top

Time Sensitive Network (TSN) – Industry 4.0

Internship: 5 months / Preferable date: early 2019

Mission:

Time Sensitive Networking is gaining more and more attention especially in Industry 4.0 the current trend in the industry automation also called “smart factory”. Time sensitive network is a set of standard specification under development within IEEE 802.1 working group. Nevertheless, first equipment (e.g. PCIe adapters, TSN switches…) satisfying a sub-set of these specifications (e.g. IEEE802.1as, Qbv, Qcc…) are now available on the market.
The goal of the internship will be to set up a TSN testbed and evaluate the performance of a PC equipped with a PCIe TSN adapter.

Main tasks:

Skills:

Linux, RTOS, python, C/C++, Ethernet, IEEE1588/PTP

School profile:

Master 2, Engineering school

Back to top

Une « Blockchain » pour l’édition d’images

Internship: 6 months

Les « blockchains » ont été popularisées par les crypto-monnaies comme le « bitcoin ». Cependant leur domaine d’application est beaucoup plus vaste, une blockchain pouvant être vue comme une base de données distribuée dont les enregistrements sont protégés contre la falsification.
En particulier, une blockchain utilise des techniques de chaînes de blocs sécurisées développées initialement pour des systèmes de documents horodatés ne pouvant être falsifiés.
Blockchain
Le but du stage sera de développer un outil d’édition d’image utilisant une blockchain pour stocker de manière infalsifiable les différentes opérations réalisées sur une image.

Skills:

Computer science, signal processing, Programmation, Cryptographie

School profile:

Engineer school, Master

Back to top

Contrôle Web de caméras industrielles

Internship: 6 months

Il existe 2 types de caméras IP très différentes. Les cameras industrielles permettent le contrôle précis d’objets dans une chaine de production : typiquement elles permettent la capture d’images de haute qualité à des instants précis. Les caméras de surveillance IP permettent d’avoir une vue large d’un environnement : évolution dans le temps avec un large champ de vue. Ces deux types de caméras même si elles se branchent sur le même type de réseau IP, ont des protocoles de contrôle différents : GigE Vision d’une part et ONVIF d’autre part.
L’objectif du stage sera d’étudier la convergence entre ces deux types de caméras et de permettre leur contrôle à partir d’une même application accessible à partir d’un browser web : paramétrage, enregistrement et visualisation des images, contrôle des analyses d’image et génération d’alertes. L’application Web permettra de contrôler et monitorer à la fois les caméras de surveillance réseau et les caméras industrielles.

Skills:

Computer science, Développement logiciel, C++, Javascript, Environnement Linux, Versionning System : git

School profile:

Engineer school, Master, DEA

Back to top

Détection d’objets pour un système d’aide à la conduite

Internship: 6 months

L’intégration des nouvelles technologies dans le monde du transport a créé deux grands axes d’évolution pour l’automobile : la voiture autonome et la voiture connectée. Alors que la voiture autonome cherche à remplacer le conducteur humain par une intelligence artificielle, la voiture connectée vise à intégrer le véhicule dans son environnement.
Parmi sa gamme de produits autour de l’image, Canon propose des produits liés au trafic routier. Les caméras permettent à un opérateur de visualiser en direct un réseau routier et de déclencher une réponse appropriée en cas d’accident par exemple. Certaines caméras disposent d’outils d’analyse de scène et peuvent par exemple aider à la gestion d’un carrefour à feux.
Le contexte du stage est l’utilisation de caméras pour fournir de l’information à un véhicule connecté. Des fonctions d’analyse d’image basées sur du deep learning permettent de détecter et suivre des objets (voitures, piétons…) dans les images capturées par les caméras. Ces objets sont alors filtrés et transmis aux véhicules concernés.
Road
L’objectif du stage sera de développer un prototype pour valider et démontrer les algorithmes. En particulier pourront être étudiés la détection et le suivi des objets, le filtrage et la transmission des informations récoltées au véhicule connecté. Une partie du stage portera sur l’expérimentation du prototype en milieu réel contrôlé.

Skills:

Python, algorithmes d’apprentissage

School profile:

Engineer school, Master

Back to top

Manipulation of immersive videos

Internship: 6 months

Dans le cadre du programme MPEG Immersive, il existe des méthodes de transmission de vidéos omnidirectionnelles (videos 360°) très haute résolution (supérieures à 8k4k) dynamiquement adaptables au point de vue de l’utilisateur. Certaines méthodes, appelées « viewport-dependent » reposent sur un découpage spatial des vidéos 360° en plusieurs vidéos (ou tuiles) compressées de taille HD par exemple. Il est possible de disposer pour chacune de ces vidéos HD de plusieurs résolutions ou de plusieurs qualités. Ainsi, dynamiquement, une vue immersive adaptée au point de vue de l’utilisateur peut être construite et transmise en assemblant par exemple une vidéo compressée HD haute qualité ou haute résolution correspondant au point de vue de l’utilisateur avec des vidéos compressées HD de moindre résolution ou qualité autour de ce point de vue.
L’objectif du stage consistera à développer un outil d’assemblage de vidéos compressées selon le standard HEVC en un fichier de type mp4. Ce travail s’appuiera sur du logiciel open source (par exemple GPAC) qui permet déjà de décrire des flux vidéos compressés HEVC en fichier mp4. L’outil développé devra permettre la sélection parmi les versions des vidéos HD, la spécification d’une grille d’assemblage et l’assemblage effectif de ces vidéos en un flux compatible HEVC de très haute résolution. Selon la progression du stage, une étape supplémentaire pourra consister à tester le streaming de ces flux assemblés depuis un browser Web.
A l’issue du stage, le stagiaire aura une bonne connaissance du format d’encapsulation MP4 pour des séquences HEVC/H.265 ainsi que des nouveaux standards de streaming video (MPEG ISOBMFF et DASH).

Skills:

School profile:

Engineer school, Master

Back to top
Back to Home