La primera temporada de Cuidado con las macros ocultas se despide poniendo el foco en la ética y el sesgo algorítmico. El primer caso discriminatorio se detectó en los años 80 en la Escuela de Medicina del Hospital St. George de Londres. El investigador en justicia algorítmica y ética de datos, Manuel Portela, nos acerca a este caso para saber qué hemos aprendido 40 años después. ¿Las organizaciones evalúan suficientemente los riesgos que puede provocar la automatización de decisiones con sistemas de aprendizaje automático? La CEO de Eticas, Gemma Galdón, nos ayuda a entender qué es una auditoría de algoritmos y por qué se deberían realizar. Y la presidenta de OdiseIA, Idoia Salazar, nos explica cómo las empresas pueden anticiparse y ajustarse a la legislación que está por venir en ética e inteligencia artificial.
Para más información visita www.cuidadoconlasmacrosocultas.com