Hanwha explica cómo utilizar la IA en aplicaciones de videovigilancia
La IA ofrece grandes beneficios en el mercado de la seguridad, siempre que sea utilizada de forma adecuada. Hanwha analiza cómo se debe aplicar de forma responsable sin que sea un menoscabo para la privacidad o las libertades civiles.
Para Hanwha Techwin la tecnología de videovigilancia debe utilizarse de forma responsable. Es importante tener una reglamentación para la tecnología, como el reconocimiento facial en directo. Pero al evaluar estas tecnologías, hay que tener cuidado para no desechar la inteligencia artificial (IA) y sus beneficios debido a la reglamentación.
A lo largo de la historia, la tecnología se ha utilizado para el bien y para el mal. No hay mejor ejemplo de esto que los ordenadores personales. Conectado a Internet, un humilde PC abrió el mundo a sus usuarios, haciendo que las comunicaciones con amigos y familiares al otro lado del mundo fueran fáciles y económicas.
Sin embargo, en las manos equivocadas, el mismo ordenador personal permitió a los piratas informáticos acceder a redes corporativas y gubernamentales con seguridad insuficiente, y así robar información confidencial y venderla al mejor postor.
Lo que hacemos es valorar continuamente la tecnología disponible y analizamos detenidamente el valor que aporta, así como su potencial de utilización indebida.
Hoy en día existe una preocupación específica en toda la sociedad por las tecnologías que, utilizadas de forma irresponsable, infringirán nuestra privacidad y socavarán las libertades civiles. Esto incluye una serie de tecnologías que utilizan la inteligencia artificial (IA), en particular el reconocimiento facial en directo (LFR). Varios cuerpos policiales en toda Europa utilizan LFR, pero han surgido una serie de desafíos legales en torno a su utilización.
Se logra el equilibrio
LFR es uno de los muchos ejemplos de inteligencia artificial operativa en tecnología de vídeo. Empleada en sistemas de vídeo, puede mejorar la calidad de la imagen, reducir el ruido de la imágen y eliminar las falsas alarmas, asegurando que los operadores solo se concentren en los incidentes y eventos que interesan. Utilizada de esta manera, permite ahorrar tiempo, reducir los costes, aumentar la eficiencia y mejorar la seguridad.
Al mismo tiempo, la Comisión Europea propone el primer marco legal sobre inteligencia artificial para dar a los desarrolladores, instaladores y usuarios de sistemas con inteligencia artificial requisitos y obligaciones claros con respecto a los usos específicos. Para esto, es fundamental la identificación de diferentes niveles de riesgo asociados a una aplicación particular de inteligencia artificial.
Es importante destacar que la Cmisión también espera que la regulación “fortalezca la aceptación, la inversión y la innovación en inteligencia artificial en toda la UE». Se requiere un equilibrio entre la regulación del uso de la tecnología, para garantizar que no viole los derechos individuales, y fomentar la innovación que da lugar a más y más aplicaciones en las que la inteligencia artificial pueda ofrecer beneficios reales.
Los fabricantes responsables como Hanwha Techwin están acostumbrados a lograr estos equilibrios. No ofrece una solución de reconocimiento facial en directo en Europa. Y, como fabricante coreano, que cumple con NDAA, que tiene un control total sobre su cadena de suministro y una sólida experiencia en ciberseguridad, defienden la utilización responsable de la tecnología de videovigilancia.
El lugar apropiado para la inteligencia artificial
Apoyamos una correcta regulación y un debate público sobre la utilización responsable de tecnologías como la inteligencia artificial. Pero al mismo tiempo es importante que se reconozca y fomente el papel que desempeña la inteligencia artificial en la tecnología de vídeo para ayudar a mantener los espacios públicos operativos, seguros y eficientes.
Hanwha es pionera en el uso de la inteligencia artificial integrada en las cámaras de vídeo para acometer los desafíos a los que se enfrentan las fuerzas policiales cuando investigan delitos. Fundamentalmente, esto se logra sin afectar las libertades civiles.
La inteligencia artificial puede ayudar a los agentes de policía a localizar a una persona desaparecida mediante el examen de muchas imágenes de vídeo y la clasificación rápida de las imágenes para extraer solo aquellas que incluyan determinados atributos, como el color de la ropa que lleva puesta la persona, si tenía un sombrero o un bolso, o incluso si se desplazaba en una dirección determinada.
Lo que antes le llevaba varios días a la policía, ahora se puede hacer en cuestión de unas horas, liberando a los agentes para que realicen un trabajo de investigación más detallado en lugar de explorar manualmente las secuencias de vídeo. La inteligencia artificial lo hace posible.
Cómo hacer lo correcto
De manera crucial, esta utilización de la inteligencia artificial no tiene implicaciones para la privacidad, ya que estos sistemas están preparados para centrarse en objetos y atributos en lugar de identificar a las personas a través de los rasgos faciales.
Incluso se pide a la inteligencia artificial que proteja la identidad de la gente capturada en el vídeo, eliminando los rostros de cualquier persona excepto la desaparecida y haciéndolos irreconocibles. Solo la policía y los tribunales, y aquellos que tengan permiso para acceder a las secuencias de vídeo no editadas, podrán hacerlo.
A la luz de todo lo asombroso que ahora se puede hacer con la inteligencia artificial, sería una pena que, en la evaluación bastante apropiada de las formas de tecnología que pueden representar una amenaza para la privacidad, la inteligencia artificial y sus beneficios se desecharan por culpa de la reglamentación.
Te gustó este artículo?
Suscríbete a nuestro RSS feed y no te perderás nada.