¿Quiénes les enseñan a las herramientas tecnológicas que actualmente se diseñan, lo que es bueno o malo? y ¿para quiénes trabajarán?

¿Cómo saber si las decisiones que tomarán los robots están bien o mal?, ¿Quiénes les enseñan a las herramientas tecnológicas (que actualmente se diseñan) lo que es bueno o malo?, ¿Para quiénes trabajarán? Estos y otros cuestionamientos son los que las compañías, gobiernos y sociedad se están enfrentando ante la inminente llegada de herramientas como la Inteligencia Artificial. En un mercado global de Inteligencia Artificial (IA) en donde se calcula que para 2030 se moverán cerca de 15,000 millones de dólares, es importante saber a quiénes les servirán estas tecnologías. No necesariamente en un marco laboral, sino en una medición moral y ética en donde tanto desarrolladores como usuarios aprendan a lidiar con decisiones tomadas por algoritmos que a final de cuenta son creados por seres humanos.

 El análisis de Government, Artificial Intelligence, Readiness Index 2019, realizado por Oxford Insights, da cuenta de los riesgos y las oportunidades que se están presentando ante los desarrollos tecnológicos. Dice que al ser elaborados o diseñados por seres humanos corren el riesgo de estar manipulados con decisiones de sus creadores, bajo el esquema de lo que les parece bien o mal a ellos. “La llamada cuarta revolución industrial, no solo no cosecharán los beneficios potenciales de la IA, sino que también existe el peligro de que la implementación desigual ensancha las desigualdades globales”, señala. En esto coinciden algunos especialistas y catedráticos como Rafael Ramírez de Alba López, profesor del IPADE Business School, quien dice que los riesgos de este tipo de implementaciones deben ser ordenados y balanceados ara que no existan sesgos de inequidad y hasta de desigualdad social. “Un reto muy importante es que a veces confiamos ciegamente en estos algoritmos y en estas tecnologías, me refiero a la discriminación.

Por ejemplo, cuando utilizas un sistema de Inteligencia Artificial (para predecir qué tan exitosa será una persona que estás considerando para contratar, si tu alimentas este sistema, si lo entrenas con esta información histórica donde haya habido discriminación por ejemplo hacia las mujeres, ese sistema lo que va a hacer es captar lo que se hacía en el pasado y lo que va a hacer será justo eso”, detalló para Forbes México. Para el catedrático de la institución uno de los grandes problemas que se enfrentan actualmente las compañías que desarrollan tecnología, es que se requiere que quienes diseñen los algoritmos con los que se trabaja por ejemplo en la Inteligencia Artificial.