El magnate ha dicho que la inteligencia artificial con posiciones muy “wok” podría contribuir al declive de la humanidad.Según xAI, dependencia de X encargada del chatbot, Grok no debe privarse de hacer afirmaciones que sean políticamente incorrectas, siempre que estén bien fundamentadas.Sin embargo, al parecer esa directriz fue eliminada el martes en la noche, tras horas de no contestar a sus usuarios por el reporte de las respuestas antisemitas.Grok no tiene una moderación tan fuerteEl chatbot va en línea con lo que Musk pretende que sea X: un espacio para la libre expresión, pero con poca censura y moderación limitada.La forma en que el chat responde a los usuarios le da un condimento particular, y también lo es su forma de analizar lo que se le pide.Medios en Estados Unidos y expertos han puesto en tela de juicio el sesgo que tiene dicha inteligencia artificial; sobre todo, cuestionan su tendencia a proliferar discursos que pueden catalogarse como de odio.New York Post recopila que Elon Musk ya había sido acusado de antisemitismo en 2023, cuando enfrentó una reacción violenta después de darle cabida a una conspiración que involucra judíos.Así que, por eso se preguntan si la IA ha sido programada en vía a al tipo de opinión que emite el multimillonario estadounidense.Si bien el magnate menciona que la IA incluso puede aportar bastante al campo de la ingeniería y matemáticas por su eficiencia, sus funciones son más conocidas por responder a peticiones de usuarios en X.El debate ético de los chatbots de las IAAunque se presentan como herramientas objetivas, su diseño y funcionamiento están inevitablemente influenciados por los sesgos humanos, ya sea en la recolección de datos, en los algoritmos o en los objetivos para los que fueron programadas. Según expertos de Harvard, los modelos de lenguaje están entrenados con textos provenientes de internet, libros y artículos, que contienen visiones dominantes, prejuicios históricos y desigualdades estructurales.Si la mayoría de los datos reflejan una cosmovisión occidental, capitalista o patriarcal, la IA reproducirá esos patrones, invisibilizando otras voces. Además, las empresas que desarrollan estas tecnologías suelen estar sujetas a intereses comerciales o políticos, lo que puede llevar a una moderación sesgada o a la priorización de ciertos discursos.¿Puede una IA ser verdaderamente imparcial si los humanos no lo somos? Quizá se está lejos de esa premisa. Por eso, es crucial que el desarrollo de la inteligencia artificial incluya diversidad de perspectivas, auditorías éticas y transparencia en sus procesos.
Section
Medio
Escrito por