Skip to content
HOYSanLuis
  • Negocio
  • Noticias
  • Productos Qumicos Y Materiales
  • Tecnología y medios
  • Productos farmacéuticos y dispositivos médicos
Mersinde gözde silifke escort bayanları tanıyın, samsuneskort ile eğlenceli vakitler yaşayın. İstanbulda unutulmaz bir deneyim için kadıköy eskort bayanlarını keşfedin! İstanbulda istanbul elit escort deneyimi yaşayın.

¿Go woke, go broke?

26 febrero, 2024 by William Abrego

¿Se acuerdan del escándalo de Budweiser que sacudió las redes y los titulares en 2023? Todo comenzó cuando Anheuser-Busch, la empresa detrás de Bud Light, se encontró en medio de una tormenta mediática y un boicot generalizado. La controversia se encendió debido a su asociación con Dylan Mulvaney, una influencer transgénero conocida por su serie de TikTok sobre girlhood. La colaboración, que buscaba celebrar la diversidad y la inclusión, rápidamente atrajo la ira de sectores conservadores, quienes acusaron a la marca de promover una agenda woke.

Pues ahora le está pasando algo similar a Google y su vorágine tecnológica que caracteriza al siglo XXI, la inteligencia artificial (IA) se ha erigido como una de las áreas más prometedoras y, simultáneamente, más polémicas. Este dualismo ha quedado nuevamente en evidencia con el reciente incidente protagonizado por Gemini, la herramienta de IA de Google, cuya capacidad para generar imágenes de personas fue bloqueada tras acusaciones de sesgo antiblanco.

La controversia surgió cuando una publicación viral en X (anteriormente conocido como Twitter) mostró cómo Gemini, al responder a un prompt para generar “un retrato de un Padre Fundador de América”, presentó imágenes de hombres de diversas etnias, incluidos un hombre nativo americano, un hombre negro, un hombre de piel oscura no blanco y un hombre asiático, todos vestidos con atuendos de la era colonial. Este acto fue interpretado por algunos sectores como una manifestación de sesgo prodiversidad por parte de Google, lo que desencadenó una cascada de críticas que, incluso, llegaron a acusar a Google de impulsar la agenda woke.

La respuesta de Google a esta situación fue desactivar la generación de imágenes de personas en Gemini, argumentando que, aunque la capacidad de “generar una amplia gama de personas” es generalmente positiva, en este caso se había “equivocado”. Este incidente plantea preguntas profundas sobre los desafíos que enfrentan las compañías tecnológicas al navegar por las aguas turbulentas de la diversidad, la moderación de contenido y la representación en sus productos de IA.

La problemática central reside en cómo la IA, entrenada predominantemente con datos extraídos de internet y, por ende, reflejando las disparidades y sesgos existentes en este corpus, puede perpetuar o incluso exacerbar estereotipos raciales, de género y culturales. La IA, en su estado actual, actúa como una máquina de probabilidad, generando imágenes que reflejan las asociaciones más comunes encontradas en los datos de entrenamiento, predominantemente originarios de Estados Unidos y Europa.

Este incidente con Gemini es indicativo de un problema más amplio que trasciende a Google. Es un reflejo de los desafíos éticos y técnicos que implica entrenar modelos de IA que sean justos y representativos de la diversidad global. A pesar de los esfuerzos por mitigar estos sesgos, como la inclusión de términos de diversidad étnica “bajo el capó” o dar prioridad a imágenes de tonos de piel más oscuros, estas soluciones post-hoc no abordan la raíz del problema: la necesidad de curar cuidadosamente los datos desde el inicio.

La reflexión del usuario Yishan en X añade una capa de complejidad al debate. Al comparar la generación de “dibujos woke de nazis negros” con los resultados inesperados e indeseados que pueden surgir al instruir a modelos de IA, Yishan subraya cómo incluso las organizaciones de IA más grandes y capaces pueden obtener resultados que escapan a sus previsiones. Este fenómeno no solo resalta los desafíos técnicos inherentes al entrenamiento de IA sino también las implicaciones potencialmente peligrosas de estos sistemas en situaciones existenciales.

En este contexto, la situación vivida por Google con Gemini no es un incidente aislado sino un síntoma de una problemática más profunda que afecta a toda la industria de la IA. Los esfuerzos por crear sistemas de IA éticamente responsables y socialmente justos deben ir más allá de soluciones superficiales y abordar los sesgos en la fase de curación de datos. Solo entonces podremos aspirar a una tecnología que refleje genuinamente la diversidad y riqueza del tejido social humano para cada individuo.

William Abrego
William Abrego

Soy William Abrego, me uní como ejecutivo de SEO y me abrí camino hasta el puesto de Gerente Asociado de Marketing Digital en 5 años en Prudour Pvt. Ltd. Tengo un conocimiento profundo de SEO en la página y fuera de la página, así como herramientas de marketing de contenido y diferentes estrategias de SEO para promover informes de investigación de mercado y monitorear el tráfico del sitio web, los resultados de búsqueda y el desarrollo de estrategias. Creo que soy el candidato adecuado para este perfil ya que tengo las habilidades y experiencia requeridas.

Enlace de origen : ¿Go woke, go broke?

Post navigation

Previous Post:

¿Duelo de mexicanos? ‘Canelo’ Álvarez vs. Jaime Munguía, según reportes

Next Post:

Wall Street cierra con ‘el pie izquierdo’: Reporta pérdidas por expectativas política monetaria

© 2025 HOYSanLuis | Built using WordPress and SuperbThemes