Sensor: se refiere a un sensor de imagen, cuya superficie contiene varios millones de decenas de millones de fotodiodos. Es un chip semiconductor que convierte imágenes ópticas en se?ales eléctricas.
Pixel: un píxel es la unidad básica de un sensor. Una imagen se compone de píxeles, y el número de píxeles indica la cantidad de elementos fotosensibles contenidos en la cámara.
Resolución: se refiere al número máximo de píxeles que una imagen puede acomodar en las direcciones horizontales y verticales.
Tama?o del píxel: se refiere al tama?o real representado por un píxel en las direcciones de longitud y ancho.
Representado vívidamente por la figura anterior, los píxeles representan el número total de cuadrículas negras en esta imagen, que es de 91 píxeles, mientras que la resolución se refiere al número de cuadrículas negras en la longitud y el ancho respectivamente. La figura que se muestra arriba es 13*7. El tama?o del píxel es el tama?o representado por cada cuadrícula negra en esta imagen, y la unidad generalmente es micrómetros. Cuando el tama?o de la imagen es constante, cuanto mayor sea el tama?o del píxel, menor es la resolución y menor es la claridad.

Antecedentes: después de que las personas tenían sensores que podían sentir la intensidad de la luz, solo podían tomar negras y - fotos blancas (imágenes en escala de grises) porque los sensores en ese momento solo podían sentir la intensidad de la luz pero no el color. Si uno quería obtener una imagen en color, el método más directo era agregar filtros de diferentes colores. Por lo tanto, se desarrolló la matriz Bayer. Se compone de filtros rojos, verdes y azules organizados alternativamente en un patrón regular. Se coloca un filtro de uno de los colores RGB en cada píxel, lo que permite que pasen solo la luz de un color específico.
Formación Bayer: por Eastman. La matriz Bayer, inventada por Bryce Bayer, un científico de Kodak, en 1976, todavía se usa ampliamente en el campo del procesamiento de imágenes digitales hasta el día de hoy.



Células oculares humanos
En el ojo humano, hay dos tipos de células visuales: cono - en forma y varilla - en forma.
Las células de cono se clasifican además en tres tipos: células fotorreceptoras rojas, células fotorreceptores verdes (las más sensibles) y células fotorreceptoras azules. No son sensibles cuando la iluminancia es baja. Solo cuando la intensidad de la luz alcanza una determinada condición puede funcionar las células del cono.
Las células de la varilla son altamente sensibles a la luz y pueden formar imágenes de objetos en condiciones de iluminación muy tenue, pero no pueden detectar colores.
Esto también explica por qué las personas pueden ver objetos por la noche, pero no pueden distinguir efectivamente sus colores.

La diferencia entre CCD y CMOS
CCD (dispositivo de pareja de carga): Charge - dispositivo acoplado, integrado en materiales de cristal único semiconductores.
CMOS (semiconductor de óxido metálico complementario): semiconductor de óxido metálico complementario, integrado en materiales semiconductores de óxidos metálicos.
En la actualidad, en el mercado de seguridad, los sensores de imagen de las cámaras son CCD o CMOS. En la era de la vigilancia de definición estándar, las cámaras analógicas y las cámaras de red de definición estándar generalmente usan sensores CCD. Sin embargo, en los últimos a?os, CMOS ha estado tragando el mercado CCD. En la era de la vigilancia de alta definición, CMOS ha reemplazado gradualmente los sensores CCD.
1. Velocidad de lectura de información
La información de carga almacenada en el dispositivo CCD Charge - acoplado debe transferirse bit por bit hacia abajo bajo el control de la se?al sincrónica, y luego amplificada de manera uniforme para la conversión ADC. La salida de transferencia y lectura de la información de carga requiere un circuito de control de reloj, y el circuito general es relativamente complejo. Los sensores de CMOS realizan directamente la ganancia de amplificación y el analógico - a - conversión digital dentro de la unidad de luz - Unidad sensible, haciendo que la lectura de se?al sea muy simple. También pueden procesar la información de la imagen de cada unidad simultáneamente. Por lo tanto, la velocidad de lectura del CMOS es más rápida que la de CCD.
2. Sensibilidad
Debido a que cada píxel de un sensor CMOS contiene circuitos adicionales (amplificadores y circuitos de conversión A/D), el área de luz - Sensible de cada píxel solo ocupa una peque?a parte del área del píxel. Por lo tanto, cuando el tama?o del píxel es el mismo, la sensibilidad de un sensor CMOS es menor que la de un sensor CCD.
3. Ruido
Dado que cada fotodiodo en CMOS requiere un amplificador, si se mide en megapíxeles, se necesitan millones de amplificadores. Como los amplificadores son circuitos analógicos, es difícil mantener la ganancia de amplificación de cada píxel consistente. Por lo tanto, en comparación con los sensores CCD que tienen solo un amplificador, el ruido de los sensores CMOS aumentará significativamente, afectando la calidad de la imagen.
4. Consumo de energía
El método de adquisición de imágenes de los sensores CMOS está activo. La carga generada por el fotodiodo se amplifica directamente y se convierte por el circuito adyacente. Sin embargo, los sensores CCD son pasivos en la adquisición. Se debe aplicar un voltaje aplicado para hacer que la carga en cada píxel se mueva hacia abajo, y el voltaje aplicado generalmente requiere 12 a 18V. Por lo tanto, CCD también requiere un dise?o preciso de la línea de la fuente de alimentación y resistencia de voltaje. El alto voltaje de conducción hace que el consumo de energía de CCD sea mucho más alto que el de CMOS.
5. Costo
Debido a que los sensores CMOS adoptan el proceso MOS, que es el más utilizado en los circuitos de semiconductores generales, los circuitos periféricos (como el control de tiempo, CDS, ISP, etc.) se pueden integrar fácilmente en el chip del sensor, ahorrando así el costo de los chips periféricos. CCD transmite datos a través de la transferencia de carga. Si solo un píxel no funciona, no se puede transmitir toda la fila de datos. Por lo tanto, el rendimiento de CCD es relativamente bajo. Además, su proceso de fabricación es complejo, y solo unos pocos fabricantes pueden dominarlo. Esta es también la razón del alto costo.
Velocidad de obturación
El obturador es un dispositivo utilizado para controlar el tiempo de exposición y es un componente importante de una cámara. Su estructura, forma y función son factores importantes para medir el grado de una cámara. Los sensores de imagen CCD y CMOS utilizan persianas electrónicas, incluidas persianas globales y persianas rodantes.
Obturador global: todos los píxeles del sensor recolectan luz simultáneamente y exponen simultáneamente. Es decir, al comienzo de la exposición, el sensor comienza a recolectar luz. Al final de la exposición, el circuito de recolección de luz se corta y luego el valor del sensor se lee como un marco.
Todos los píxeles están expuestos en el mismo momento, similar a la congelación de un objeto en movimiento, por lo que es adecuado para disparar rápido - Objetos en movimiento.
Obturador rodante: el sensor logra esto a través de la exposición progresiva. Al comienzo de la exposición, el sensor escanea la línea por línea y expone la línea por línea hasta que todos los píxeles estén expuestos. Por supuesto, todas las acciones se completan en un tiempo extremadamente corto, y el tiempo de exposición para diferentes píxeles de fila varía.
Es una línea de exposición secuencial de línea - por línea, por lo que no es adecuado para disparar objetos en movimiento. Si el objeto o la cámara está en un estado de movimiento rápido durante el disparo, es muy probable que el resultado del tiro muestre fenómenos como "inclinación", "balanceándose" o "exposición parcial".
La tendencia de desarrollo de CMOs
1. Baja - Efecto ligero
El desarrollo desde el frente tradicional de FSI (iluminación del lado delantero) - Sensor CMOS iluminado al BSI (iluminación de la parte posterior) Sensor CMOS iluminado es un gran salto tecnológico. La mayor optimización del sensor CMOS de espalda - iluminado radica en el cambio de la estructura interna del componente. Atrás - CMOS iluminado invierte la orientación de la luz - Componentes de capa sensible, lo que permite que la luz ingrese directamente desde la parte posterior. Esto evita la influencia del circuito entre las microlenses y el fotodiodo y el transistor en la estructura tradicional del sensor CMOS, mejorando significativamente la eficiencia de la luz y mejorando en gran medida el efecto de disparo en condiciones de baja luz. Atrás - Los sensores de CMOS iluminados han dado un salto cualitativo en sensibilidad en comparación con los sensores CMOS tradicionales. Como resultado, su capacidad de enfoque y su calidad de imagen se han mejorado considerablemente bajo baja iluminación.

2. Supresión de ruido
Por un lado, el algoritmo de detección de ruido especializado se integra directamente en la lógica de control del sensor de imagen CMOS. A través de esta tecnología, el ruido fijo se puede eliminar con éxito. Por otro lado, se adoptan varias innovaciones tecnológicas en el ISP, como la tecnología de renovación, para mejorar el problema de ruido de los CMO.
3. Alta integración
Una de las principales ventajas de los sensores CMOS. Es un circuito con otras funciones integradas en su sensor. Por ejemplo, el OV10633 lanzado es un sensor de rango dinámico HD de 720p HD. El modelo OV10633 integra las funciones de procesamiento de la se?al de imagen WDR Wide Breen Range y ISP en el mismo chip que el sensor de imagen.