Los directores ejecutivos de las mayores empresas tecnológicas del mundo están atentos a las encuestas, que las sitúan cabeza a cabeza, levantan sus teléfonos y preparan el terreno para una posible presidencia de Donald Trump. El expresidente estadounidense nunca ha tenido reparos en amenazar con vengarse de sus supuestos enemigos, y los líderes tecnológicos están evitando el escrutinio regulatorio retributivo.
El presidente de Apple , Tim Cook , a quien Trump llamó memorablemente “Tim Apple” durante una conferencia de prensa, llamó por teléfono al expresidente para hablar sobre los problemas legales de Apple en Europa, dijo Trump en una entrevista a fines de la semana pasada. Trump parece haber intimidado al director ejecutivo de Alphabet, Sundar Pichai, tantas veces que el ejecutivo de tecnología lo llamó para elogiar su oportunidad de fotografía en un McDonald’s. Trump estaba tan contento con la conversación que la mencionó dos veces: una en un mitin y otra en The Joe Rogan Experience, el podcast más popular del mundo.
La semana anterior, Trump había criticado repetidamente a Google, acusándolo de favorecer a Kamala Harris en los resultados de búsqueda. Mark Zuckerberg, de Meta, llamó a Trump en julio después del primer intento de asesinato en su contra. No mucho después, Zuckerberg calificó la respuesta de Trump al intento de asesinato como “ruda” en un podcast. El director ejecutivo de Amazon, Andy Jassy, llamó a Trump para intercambiar cumplidos, según CNN . En la misma órbita, los ejecutivos de la empresa de exploración espacial de Jeff Bezos, Blue Origin, hablaron con Trump después de un evento de campaña en Austin, informó Associated Press .
Ausente de la discusión: el jefe de Microsoft, Satya Nadella, quien no ha respaldado a ningún candidato ni ha realizado una llamada telefónica a ninguno de los aspirantes presidenciales.
Elon Musk no necesita llamar, ya que estuvo en el escenario con Trump el domingo por la noche (en la foto de arriba), la última persona en hablar antes del mismísimo Don en el Madison Square Garden . Los dos se han convertido rápidamente en los aliados políticos más cercanos, y Musk incluso se ha puesto en la línea legal, enfrentando una demanda del fiscal de distrito de Filadelfia por su sorteo de $ 1 millón. Si las cosas se inclinan a favor de Musk y Trump, SpaceX podría tener mejores resultados que Blue Origin en medio de la negativa de Bezos a respaldar a un candidato en el Washington Post la semana pasada.
Las llamadas telefónicas de los directores ejecutivos no indican que Trump vaya a ganar. ¡Podría serlo! Pero a las personas poderosas les gusta presionar a ambos lados de la balanza de la influencia si pueden, y lo mismo ocurre con los directores ejecutivos de las empresas tecnológicas. Trump también ha recibido visitas de una serie de embajadores extranjeros. Susan Glasser, de The New Yorker, comentó la semana pasada que, de hecho, más multimillonarios han apoyado a Harris que a su oponente; sin embargo, la recompensa mafiosa de Trump a la genuflexión lo hace más propenso a repartir favores a quienes hacen alarde de llamarlo.
La propia Harris presume de tener vínculos profundos con la industria tecnológica desde su etapa como senadora por California y fiscal general del estado, pero no está aprovechando esas relaciones mientras lucha por conseguir votos en estados clave. Para leer más sobre el tema, lea este artículo: Los vínculos tecnológicos de Kamala: ¿cuál es la relación de Harris con Silicon Valley?
¿Qué tan responsable es un chatbot?
Una demanda presentada la semana pasada contra la startup Character.ai, que fabrica un chatbot personalizable y de juegos de roles utilizado por 20 millones de personas, alega que la compañía diseñó un producto adictivo que alentó a un adolescente a suicidarse.
Según la denuncia, los registros de chat entre Sewell Setzer, un joven de 14 años de Orlando, y Daenerys Targaryen, como llamó a su bot, muestran que la IA lo alienta a suicidarse. Cuando el joven de 14 años admitió tener un plan para terminar con su vida pero que no estaba seguro de poder llevarlo a cabo sin una muerte dolorosa, el bot respondió: “Esa no es una razón para no hacerlo”, según la demanda. La madre de Setzer, Megan García, dijo que su hijo usó la aplicación de Character.ai de manera obsesiva en los meses previos a su muerte, lo que le provocó depresión y alimentó su aislamiento.
En otras conversaciones entre el adolescente y el bot publicadas por el New York Times , Setzer se refiere a la muerte de forma más metafórica, y dice que le encantaba y que pronto volvería a casa. ¿Debería un chatbot entender el significado contextual de “hogar” como un final sombrío y definitivo en lugar de un lugar seguro?
La demanda es una de varias contra empresas de inteligencia artificial, muchas de las cuales giran en torno a cuestiones de responsabilidad.
¿Character.ai debería haber remitido los chats de Setzer a las autoridades? ¿La aplicación debería haber hecho más para disuadir a sus usuarios de hacerse daño a sí mismos? La herramienta muestra a los usuarios el número de la línea directa de prevención del suicidio si utilizan determinadas palabras clave de autolesión en sus mensajes, pero esa función no estaba disponible cuando Setzer murió en febrero, según el Times. Character.ai dijo que añadiría funciones de seguridad “de manera inminente” después de que se conociera la noticia de la demanda.
Una pregunta quizás más teórica: ¿cuál es la relación entre un chatbot y su empresa matriz? ¿Es un usuario? ¿Podemos comparar el chatbot de Character.ai con Michelle Carter , la joven que fue condenada por homicidio en 2016 por alentar a su novio a terminar con su vida a través de mensajes de texto? Carter era un actor autónomo, aunque desdichado, en ese escenario. Porque si los chatbots están más cerca de los usuarios, eso podría proteger a sus creadores de la responsabilidad legal a través de las mismas disposiciones que protegen a las empresas de redes sociales de demandas por lo que dicen sus usuarios.
García está siendo representado por el Social Media Victims Law Center, que ha presentado demandas contra Meta y otros en nombre de padres que dicen que las redes sociales jugaron un papel en la muerte de sus hijos. Esos casos plantean la pregunta de hasta qué punto son responsables esas redes sociales por sus recomendaciones algorítmicas. ¿Quizás un chatbot está más cerca del sistema de recomendaciones de Facebook que de sus usuarios? Si es así, entonces, junto con las preguntas sobre la responsabilidad de una IA, el caso de García pregunta si una startup de IA, aunque tenga una inversión de 150 millones de dólares y una valoración de mil millones de dólares, soporta tanta carga de salvaguardar a sus usuarios como Meta, un titán tecnológico de 20 años de antigüedad que vale 1,4 billones de dólares.
La ley estadounidense que protege a las empresas de redes sociales dice: “Ningún proveedor o usuario de un servicio informático interactivo será tratado como el editor o portavoz de ninguna información proporcionada por otro proveedor de contenido de información”. ¿Es un chatbot un “servicio informático interactivo” y, por lo tanto, su creador no es “el portavoz de ninguna información”? ¿Es un bot una “herramienta neutral” o un “conducto pasivo” de información y, por lo tanto, está protegido de responsabilidad, como se describe a Google y otros motores de búsqueda en otro caso emblemático de la ley de Internet ?
Las demandas por derechos de autor contra empresas de inteligencia artificial plantean la misma pregunta desde un ángulo diferente: ¿el resultado de los chatbots implica una violación de la ley de derechos de autor?
Los tribunales de Estados Unidos, donde tienen su sede los creadores de los robots más famosos del mundo, han dictaminado que los resultados de la IA no pueden estar sujetos a derechos de autor. Un robot no es un inventor que pueda tener una patente. Los productos de un robot (imágenes, textos, vídeos) deben ser de dominio público y no pertenecer a la empresa que creó la IA ni a la persona que la diseñó. ¿Quién es, entonces, el guardián de esos resultados y, por tanto, quién es responsable?
Esta semana, un ex investigador de OpenAI, Suchir Balaji, afirmó que la empresa había infringido la ley de derechos de autor . Balaji ayudó a recopilar la gran cantidad de datos utilizados para entrenar ChatGPT de Open AI. En respuesta, OpenAI dijo que crea sus modelos de IA utilizando datos disponibles públicamente de formas que están protegidas por el uso legítimo.
El New York Times afirma que ha podido reproducir copias exactas de sus artículos en las respuestas de ChatGPT, vinculando los datos de entrenamiento del bot y su resultado. El fundador de OpenAI, Sam Altman, ha dicho en el pasado que sería “imposible” crear modelos de IA que produzcan imágenes y texto sin material protegido por derechos de autor. Su formulación presupone que dichos modelos deben existir, por lo que los derechos de autor deberían permitirlos o desaparecer.
Las personas y organizaciones que han demandado a OpenAI (medios de comunicación, artistas, sellos discográficos, autores e ingenieros de software) podrían estar en desacuerdo.
En los EE. UU., puede llamar o enviar un mensaje de texto a la Línea Nacional de Prevención del Suicidio al 988, chatear en 988lifeline.org o enviar un mensaje de texto con la palabra HOME al 741741 para comunicarse con un consejero de crisis. En el Reino Unido e Irlanda, puede comunicarse con Samaritans al teléfono gratuito 116 123 o enviar un correo electrónico a [email protected] o [email protected]. En Australia, el servicio de apoyo en crisis Lifeline es el 13 11 14. Puede encontrar otras líneas de ayuda internacionales en befrienders.org
¿Cómo puedes convencer a tus familiares y amigos de que no publiquen fotos de tus hijos?
Mi colega Johana Bhuiyan vuelve con otra guía para preservar la privacidad digital de tu bebé. La última vez que escribió sobre el tema, describió las medidas técnicas básicas que puedes tomar (¡Su rostro nunca se ha visto en línea! ¡Nunca se ha publicado! Qué cosa más extraña de imaginar para aquellos de nosotros que estamos tan expuestos implacablemente a los ojos de extraños y amigos por igual). Esta semana, aborda un tema más emotivo: cómo hablar con tus amigos y familiares sobre la conveniencia de guardar las fotos para ellos mismos.
***
Consejos de Johana:
Haz un anuncio masivo
Encuentra una manera de contarles a todos a la vez tus planes para las fotos de tu hijo en lugar de tener un montón de conversaciones individuales. Es un poco menos doloroso de esta manera, pero también es menos probable que alguien publique la foto de tu hijo de una manera con la que no te sientas cómodo.
Predica con el ejemplo
Asegúrate de que las fotos que publiques o compartas cumplan con tus propias reglas. Pregunta antes de compartir las fotos de otros padres.
Sea generoso de otras maneras
Mantener la privacidad de su bebé no siempre es fácil. Ser generoso con las fotos de otras maneras puede aliviar las tensiones que se están generando con la familia extendida.
Concede a tus amigos
la responsabilidad de proteger la privacidad de tu bebé. Permite que tus amigos y familiares denuncien a otras personas cuando compartan fotos de tus hijos que no quieres que se hagan públicas.
Perdona a tus amigos y familiares
. La gente olvida cosas. Sé flexible y tolerante. No reprendas a tus amigos y familiares por publicar una foto de tu bebé. Es mucho más probable que hayan olvidado tus reglas personales a que quieran arruinar la vida de tu bebé.
Tenga confianza
Al fin y al cabo, se trata de su hijo. Usted puede decidir. No es la única que quiere limitar la forma en que se comparten las fotos de su bebé. Siga adelante. Establezca esos límites.