SysMilan  News  N°3 -  Juin  2006
sécurité - alarmes - détections - géolocalisation
vidéo surveillance - biométrie - accès
Edito

La rapide démocratisation de l'électronique et de l'informatique a permis d'accéder à des technologies jusqu'alors l' apanage des militaires : téléphones port- ables, caméras, ordinateurs, cartes bancaires, géolo- calisation, .

Si nous voyons dans ces objets des « espions miniaturisés », on ne peut pas négliger l'aspect commercial ou sécuritaire. En Angleterre les utilisateurs du système ZAGME reçoivent sur leur portable une information automatique et personnalisée des offres proposées par les boutiques environnantes.

Bientôt on pourra disposer de « peluches télépho- niques » pour localiser, via satellite, un enfant en danger, de la même façon de la « balise » utilisé e par les services de police de Prague et de Nice pour limiter le rayon d'action des manifestants antiglobalisation.

Comme des Webcams permettent aujourd'hui d'observer les lieux touris- tiques, il sera possible d' associer la technique vidéo à la géolocalisation pour se connecter aux caméras du réseau autoroutier et se rendre compte du trafic , aux caméras des lieux publiques pour « mesurer » le temps d'attente dans les lieux publics (banques, musées, cinémas, . ).

Tout cela est possible grâce au numérique qui permet aussi d'interagir avec les images (positionner les caméras à un endroit précis), de détecter des comportements «qui s'écartent de la norme » (objets en mouvement ou immobiles alors qu'ils ne devraient pas l'être) ou, associé aux techniques biométriques, d'identifier les visages des personnes recherchées.

Avant de voir comment le traitement numérique du signal rend possibles toutes ces prouesses, il faut comprendre comment l'image se forme sur le CCD.

 

 

Marco Tirelli
Directeur technique

 

Nous contacter :
info@sysmilan.com
06 82 22 60 90


Sysmilan sur le web :
www.sysmilan.com

 

Nos anciennes news :
News N°1 - Avril 2006
News N°2 - Mai 2006

 

Si vous ne désirez plus recevoir cette newsletter, cliquez ici



Quel objectif
pour une caméra de vidéosurveillance ?

Une caméra de vidéosurveillance sert à :

•  Détecter simplement une présence (détection),

• Détecter et reconnaître une personne à priori connue (reconnaissance),

•  Détecter et identifier une personne à priori inconnue (identification).

L'objectif est le dispositif optique qui permet d'avoir une «bonne définition» de l'image et de mieux discriminer les détails : sans un «objectif adapté» il y aura des difficultés, voire une impossibilité, à visualiser les «détails».

Si la caméra suit les lois de la physique et de l'électronique, l'objectif suit les lois de «l'optique géométrique» : l'objectif et le positionnement de la caméra sont extrêmement importants pour la détection, la reconnaissance ou l'identification.

Un simple schéma permet de mieux comprendre ces lois :

La fonction de l'objectif est de concentrer la lumière qui vient de l'extérieur sur le CCD et de reproduire l'image sur celui-ci (image renversée). L'objectif joue le rôle du cristallin dans l'oil : sans cristallin (objectif), l'oil (caméra) ne voit aucune image. Avec un objectif mal défini (cristallin défectueux), l'image reprise par la caméra (oeil) ne sera pas exploitable.

Le cristallin est une lentille biconvexe qui a un rôle accommodatif pour les rayons qui arrivent sur la rétine et qui corrige les défauts optiques comme l'astigmatisme et les aberrations chromatiques : quand l'oil fixe un objet lointain au repos, l'image de cet objet est «au point» sur la rétine. Quand l'objet s'approche, la mise au point cesse et pour la rétablir, l'oeil utilise l'effet accommodatif du cristallin. C'est la même chose pour une caméra.

La focale (ou «point focal») est le point sur l'axe optique où l'objectif est en mesure de reconstruire une image avec une parfaite mise au point. Le CCD (rétine) se trouve ici.
La focale est le principal paramètre pour classer les objectifs.
La notion de « point focal » fixe est une notion théorique, valable si les rayons arrivaient sur l'objectif tous parallèles. La lumière des objets arrive avec des angles d'incidence différents : le «point focal» varie et il faut « mettre au point » l'objectif.

Même avec la plus grande attention, nous n'aurons jamais une «mise au point» parfaite de tout ce qui se trouve devant l'objectif.
La distance limitée devant et derrière l'objet à reprendre sur laquelle l'objet est «au point» est définie profondeur du champ .

La focale doit donc être choisie en fonction de la scène que l'on veut reprendre. Cette scène n'est pas le champ total, mais la région où se produisent les événements que l'on veut contrôler. Cette région est définie par sa dimension et sa distance de l'objectif (positionnement de la caméra).

C'est cette région de l'espace (surface et distance) qui doit être représentée le mieux possible sur le CCD.
Sans entrer dans les détails de l'optique géométrique, on démontre que :

f/d = w/W = h/H

où :

 

Région à contrôler

CCD

Largeur

W

w

Hauteur

H

h

Distance

d

f ( focale )

Il y a donc une relation étroite entre la focale, la dimension du CCD et la région à contrôler.

Nous verrons prochainement comment choisir la bonne focale en fonction de la taille du CCD et de la région à surveiller, c'est-à-dire au but que nous sommes fixés : détecter, reconnaître, identifier un objet.

 

La formation de l'image

Le CCD, cour de toutes les caméras et placé dans le point focal de l'objectif comme dans l'oeil l'image de la scène est reproduite renversée ), est composé de millions d'unités microscopiques (pixels) repérées par une coordonnée horizontale et une verticale.

Chaque pixel réagit à la lumière reçue et se charge ( phénomène photoélectrique ). Cette charge est « lue » (mesurée) par un circuit électronique avec une périodicité temporelle gérée par un obturateur électronique (shutter).

Cet obturateur est l'application électronique de l'obturateur « mécanique » des appareils argentiques : plus il y a de lumière, moins il reste ouvert pour éviter la surexposition de la pellicule.

En conditions de luminosité moyenne, l'obturateur électronique décharge les pixels 50 fois par seconde. En conditions de forte luminosité, pour éviter que les pixels se chargent au delà de la saturation (surexposition), la lecture des pixels est beaucoup plus rapide (jusqu'à 100 000 fois) mais en sortie il y a toujours le même nombre d'images par second.

Le signal vidéo est une tension proportionnelle à la charge électrique de chaque pixel : dans une caméra Noir et Blanc ( N&B - signal monochromatique ) le blanc correspond à 1 Volt et le noir à 0,3 Volt. Sans entrer dans les détails, ce signal doit être synchronisé en vertical et en horizontal pour éviter qu'avec plusieurs caméras les images «sautent»sur le moniteur.

Une résolution de 600 LTV (lignes) signifie que le signal relatif à la charge du pixel doit varier 600 fois entre le blanc (1 Volt) et le noir (0,3 Volt).

Mais il y a aussi des caméras couleur et des caméras J&N (jour et nuit ou Day and Night).

Dans le cas d'une caméra couleur il faut connaître non seulement la quantité de lumière totale qui frappe il pixel, mais aussi la quantité de lumière de chaque composante chromatique. Pour cela on pose sur le CCD une grille filtrante qui laisse passer seulement les composantes rouges (R), vertes (G de Green) et blues (B), car toutes les couleurs du spectre visible sont des combinaison de ces 3 composantes.

Chaque «pixel» du CCD est couvert par un « quadrant » de la grille composé de 4 «petits filtres», 1 rouge, 1 bleu et 2 verts (l'oeil humain est plus sensible à cette composante). Les 3 couleurs sont capturées comme différents niveaux de tension par le CCD et un algorithme mathématique permet de reconstruire le signal en couleur.

Par le fait qu'un pixel «N&B» a une surface plus grande d'un pixel «couleur», sa charge électrique est plus importante et sa sensibilité meilleure. D'autre part, le filtre supprime une partie de la lumière (infrarouge) à laquelle le CCD est sensible. Ces 2 points expliquent pourquoi la résolution d'une caméra en N&B est plus élevée que celle d'une caméra couleur.

Pour avoir une caméra couleur le jour et N&B la nuit (sensibilité à l'infrarouge), on pourrait prévoir un dispositif électromécanique qui retire le filtre la nuit et le remet le jour. Mais cela revient cher et on préfère donc le supprimer et contrôler électroniquement le signal «chromatique».

Une caméra de ce type est donc un bon compromis pour le jour et la nuit mais elle sera moins bonne qu'une caméra couleur car la quantité d'infrarouge varie en permanence et n'est pas constante.

Les signaux électriques du CCD arrivent au moniteur où des circuits électriques séparent la composante du synchronisme du vrai signal vidéo. Le synchronisme vient utilisé pour définir la cadence du signal et le signal vidéo vient amplifié de façon à être exploité par le tube cathodique exactement comme dans un téléviseur.