domingo, 25 de noviembre de 2018

Algoritmos con fallas que nos complican la vida

Los humanos podemos distinguir patrones, y gracias a esto podemos ver los en las nubes, en una mancha, en el café, etc, una persona reconoce el contexto de esa imagen, conoce que parece un rostro pero sabe que es una nube. Para las maquinas y sus algoritmos y software de reconocimiento se limita a bases de datos con millones de imágenes, y para resolver temas concretos pero no para saber que pasa a su alrededor podría llamar de maquinas autistas, ya que la compresión de un entorno es un tema muy complicado aun para los humanos.


fuente: hispantv

Existe un estudio que si los autos autómatas tendrían que revisar las señales de pare y si estas tuvieran una pegatina que dijera adelante, no las podrían reconocer, claro este tema podria ser resuelto con el GPS pero en caso de que no existiera la señal de transito que estaba hace unos minutos, existiera una accidente. 



El sistema COMPAS de inteligencia artificial que usan los jueces en Estados Unidos tiene un sesgo y tiende a desaconsejar la libertad a las personas de raza negra más a menudo que a los de raza blanca. El algoritmo analiza 173 variables —ninguna de ellas es la raza— y da una probabilidad de reincidencia de 0 al 10. “La causa de estos problemas es que las bases de datos  de la policía y en ellas hay importantes sesgos racistas”. El problema no es el sistema, sino el riesgo de que el juez delegue en esta la decisión, afectando la vida de las personas.


Referencia de la noticia: EL pais

No hay comentarios:

Publicar un comentario

Ganadores Educaempleo marzo