[email protected]     Campus Brain

¿Son los algoritmos racistas?

La semana pasada hablábamos en nuestra Newsletter de Chat GPT, un sistema de chat basado en el modelo de lenguaje por Inteligencia Artificial GPT-3, desarrollado por la empresa OpenAI. La llegada de esta nueva herramienta ha reactivado un viejo debate sobre la IA y su posible racismo, machismo o sexismo. 

La Inteligencia Artificial ha venido para quedarse y su impacto en nuestras historias puede que no tenga precedentes, por lo que debemos ir planteando este tipo de debates antes de que sea demasiado tarde.


La política del gobierno está siendo cada vez más ineficaz a la hora de desarrollar soluciones a gran escala que aborden los problemas de sesgo y discriminación racial en los algoritmos.” Según el Public Citizen


Esta afirmación puede suponer un problema cuando sabemos que las empresas y los gobiernos han aumentado su dependencia de los algoritmos para tomar decisiones. Su utilización está cada vez más excedida entre las naciones para identificar perfiles potencialmente criminales o para guiar decisiones médicas que afectan a millones de personas.

Tenemos la idea de que hay pocas cosas en este mundo más confiables, más neutrales y menos “sesgadas” que un buen algoritmo. Pero esta afirmación puede ser errónea. Un estudio de Harvard y Georgetown demuestra que los algoritmos que utilizamos pueden resultar discriminatorios ante una raza, género o grupo social. Los grupos históricamente desfavorecidos, como las mujeres y las personas de raza negra, sufren más los efectos de los sesgos algorítmicos.

Los investigadores indagaron en el verdadero motivo de este fenómeno, hasta percatarse de que los algoritmos aprendían de las desigualdades que existían en nuestro entorno y se adaptaban a ellas. Los algoritmos pueden reflejar y perpetuar la discriminación y el prejuicio existentes en la sociedad y en los datos que se usan para entrenarlos. Si los datos empleados para entrenar a un algoritmo están sesgados o tienen prejuicios, es posible que el algoritmo también tenga sesgos o prejuicios incorporados.

Opinion | The Legislation That Targets the Racist Impacts of Tech - The New  York Times

Entonces, ¿el problema está en los algoritmos o en los datos que nutren al algoritmo?, te dejamos esta inquietud para que lo reflexiones y lo compartas en los comentarios de este post.

Deja un comentario

TÉRMINOS Y CONDICIONES

Terminos-y-condiciones-beneficios-Brainandcode

Brain Ambassador
En primera instancia, el referido no obtiene descuento, pero puede referir a más personas, en este caso recibirá el descuento correspondiente. (5% por cada referido matriculado).

Brain Member
La persona matriculada tendrá los 365 días siguientes a la terminación del Bootcamp para juristas para seleccionar y hacer el proceso de matrícula del Bootcamp.

Grupos Brain
Para acceder a este descuento se debe aportar documentación para la verificación de la pertenencia a una misma institución

Flexi Brain
Si te acoges a este incentivo ten en cuenta que no tienes derecho a los descuentos comerciales en matrícula descritos en los planes Brain Ambassador, Brain Member y Grupos Brain.

Más información: [email protected]