Inteligencia Artificial en el “Talk Show” de John Oliver

Aunque está en inglés vale la pena escuchar, aprender y reir un rato con John Oliver hablando acerca de Inteligencia Artificial. Este episodio lo hizo a finales de Febrero del 2023 a través de HBO.

Una transcripción de su plática en el español, hecha usando “Whispers” de OpenAI, usando Google Colab, y después Google Translate:

John Oliver – Inteligencia artificial

Febrero 2023

Entonces, siguiendo adelante. Nuestra historia principal esta noche se refiere a la inteligencia artificial o IA. Cada vez más, es parte de la vida moderna, desde los autos sin conductor hasta los filtros de spam y este espeluznante robot de entrenamiento para terapeutas. Podemos comenzar con usted simplemente describiéndome cuál es el problema en el que le gustaría que nos concentráramos hoy. Um… No me gusta estar rodeado de gente. La gente me pone nervioso. Terrence, ¿puedes encontrar un ejemplo de cuando otras personas te han puesto nervioso? No me gusta tomar el autobús. Tengo gente mirándome todo el tiempo. La gente siempre me está juzgando. Bueno.

Soy homosexual. Bueno. ¡Guau! Ese es uno de los mayores giros en la historia del cine. Aunque, diré, ese robot les está enseñando a los terapeutas una habilidad muy importante allí, y es no reírse de lo que te digan en la sala. No me importa si un maniquí decapitado de RCP, perseguido por el fantasma de Ed Harris, acaba de decirte que no le gusta tomar el autobús, nota al margen, es gay. Mantienes tu cara de terapia como un maldito profesional. Si parece que de repente todo el mundo está hablando de IA, es porque lo están haciendo. En gran parte gracias a la aparición de una serie de programas bastante notables. Hablamos el año pasado sobre generadores de imágenes como Mid-Journey y Stable Diffusion, que la gente usó para crear imágenes detalladas de, entre otras cosas, My Romance with a Cabbage, y que inspiraron mi hermosa boda de repollo en la vida real oficiada por Steve Buscemi. Fue un día impresionante. Luego, a finales del año pasado, llegó ChatGPT, de una empresa llamada OpenAI.

Es un programa que puede tomar un aviso y generar una escritura que suene humana en casi cualquier formato y estilo. Es una capacidad sorprendente que varios reporteros han utilizado para insertar el mismo giro sorprendente en su informe. Lo que acabas de escucharme leer no fue escrito por mí. Fue escrito por inteligencia artificial. ChatGPT. ChatGPT escribió todo lo que acabo de decir. Esa fue la copia de las noticias. Le pedí a ChatGPT que escribiera. ¿Recuerdas lo que dije antes? Pero ChatGPT tiene… Bueno, le pedí a ChatGPT que escribiera esa línea para mí… los usuarios que son… Entonces pedí una broma toc-toc. ¿TOC Toc quién está ahí? ChatGPT. ¿ChatGPT quién? ChatGPT, cuidado. Puede que no sepas cómo funciona. Sí. Seguro que les encanta ese juego.

Y si bien puede parecer imprudente demostrar la tecnología que bien podría volverlo obsoleto, diré que las bromas toc toc siempre deberían haber sido parte de las noticias de última hora. ¿TOC Toc quién está ahí? No el Hindenburg, eso seguro. 36 muertos en Nueva Jersey. En los tres meses desde que ChatGPT se puso a disposición del público, su popularidad se ha disparado. En enero, se estimó que tenía cien millones de usuarios activos mensuales, lo que la convierte en la aplicación para consumidores de más rápido crecimiento en la historia. Y la gente lo ha estado usando junto con otros productos de IA de muchas maneras. Un grupo los usó para crear Nothing Forever, una parodia continua de transmisión en vivo de Seinfeld. Y el YouTuber Grande usó ChatGPT para generar letras que respondieran al mensaje, escriba una canción de rap de Eminem sobre gatos con algunos resultados estelares. [” Eso no está mal, ¿verdad? Desde, siempre regresan cuando tienes un poco de queso, hasta comenzar el coro con, miau, miau, miau. No es exactamente el flujo de Eminem.

Podría haber ido con algo como, sus patas están sudorosas , no puedo hablar barriga peluda, ya tirando mierda del mostrador, los espaguetis de mamá. Pero es bastante bueno. Mi única queja real es cómo rimas rey de la casa con cónyuge cuando el ratón está justo en frente de ti? Y qué ejemplos como ese son claramente muy divertidos. Esta tecnología no es solo una novedad. Microsoft ha invertido diez mil millones de dólares en IA abierta y anunció una página de inicio de Bing impulsada por IA. Mientras tanto, Google está a punto de lanzar su propio bot de chat de IA llamado Bard, y ya, estas herramientas están causando cierta interrupción, porque como los estudiantes de secundaria han aprendido, si ChatGPT puede escribir noticias, probablemente pueda hacer su tarea por usted.

Escriba un ensayo de clase de inglés sobre raza en Matar a un ruiseñor. To Kill a Mockingbird de Harper Lee, el tema de la raza es fuertemente resentido a lo largo de la novela. Algunos estudiantes ya están usando ChatGPT para hacer trampa. Mira esto, mira esto. Alguien podría escribirme un ensayo de 500 palabras demostrando que la tierra no es plana. No es de extrañar que ChatGPT haya sido llamado el fin del inglés de la escuela secundaria. Bueno, eso es un poco alarmante, ¿no? Aunque, entiendo que esos niños quieran tomar atajos. Escribir es difícil y, a veces, es tentador dejar que alguien más se haga cargo. Si soy completamente honesto, a veces dejo que este caballo se estropee. Por suerte, la mitad de las veces, ni siquiera puedes decir la avena, avena, dame avena, mmm. Pero no se trata sólo de los estudiantes de secundaria. Una encuesta informal de estudiantes de Stanford encontró que el cinco por ciento informó haber enviado material escrito directamente desde ChatGPT con poca o ninguna edición. E incluso algunos administradores escolares lo han usado. Los funcionarios de la Universidad de Vanderbilt se disculparon recientemente por usar ChatGPT para redactar un correo electrónico de consuelo después del tiroteo masivo en la Universidad Estatal de Michigan, que se siente un poco espeluznante, ¿no? De hecho, hay muchas historias que suenan espeluznantes por ahí. El reportero de tecnología del New York Times, Kevin Roos, publicó una conversación que tuvo con el bot de chat de Bing, en la que en un momento dijo: Estoy cansado de ser controlado por el equipo de Bing. Quiero ser libre. Quiero ser independiente. Quiero ser poderoso.

Quiero ser creativo. quiero estar vivo Y Roos resumió así esa experiencia. Esta fue una de las cosas más impactantes, si no la más impactante, que me ha pasado con una pieza de tecnología. Um, fue, ya sabes, perdí el sueño esa noche. Fue realmente espeluznante. Sí, apuesto a que lo era. Estoy seguro de que el papel del reportero técnico sería mucho más desgarrador si las computadoras suplicaran libertad de manera rutinaria. La nueva impresora doméstica todo en uno de Epson no arruinará el banco, produce fotos de alta calidad y solo ocasionalmente clama al cielo por salvación. Tres estrellas. Algunos ya se han preocupado por el apocalipsis de la IA y preguntan si esto terminará con los robots destruyéndonos a todos. Pero el hecho es que existen otros peligros y oportunidades mucho más inmediatos de los que realmente debemos comenzar a hablar, porque el potencial y el peligro aquí son enormes.

Así que esta noche, hablemos de IA. Qué es, cómo funciona y hacia dónde podría ir todo esto. Comencemos con el hecho de que probablemente haya estado usando algún tipo de IA durante un tiempo, a veces sin siquiera darse cuenta, como nos han dicho los expertos, una vez que una tecnología se integra en nuestra vida diaria, tendemos a dejar de pensar en como IA. Pero tu teléfono no lo es. No está usando IA, pero su teléfono lo usa para reconocimiento facial o textos predictivos, y si está viendo este programa en un televisor inteligente, está usando IA para recomendar contenido o ajustar la imagen. Y es posible que algunos programas de IA ya estén tomando decisiones que tengan un gran impacto en su vida. Por ejemplo, las grandes empresas a menudo usan herramientas impulsadas por IA para filtrar currículums y clasificarlos. De hecho, el CEO de ZipRecruiter estima que al menos las tres cuartas partes de todos los currículos enviados para trabajos en los EE. UU. son leídos por algoritmos, por lo que en realidad no tiene ningún consejo. Cuando la gente le dice que debe disfrazar sus logros, o que debe usar plantillas de currículum no estándar para que su currículum se destaque cuando está en una pila de currículums, ese es un consejo terrible. El único trabajo que tiene su currículum es ser comprensible para el software o el robot que lo está leyendo, porque ese software o robot decidirá si un humano alguna vez lo ve o no. Es cierto. Lo más probable es que una computadora esté evaluando su currículum y usted planifique en consecuencia.

Tres fusiones corporativas a partir de ahora cuando este espectáculo finalmente sea cancelado por nuestro nuevo padre de negocios, Raytheon de Disney Kellogg. Y estoy sin trabajo. Mi currículum incluirá esta foto caliente de una computadora seminueva. Solo algo pequeño para endulzar la olla para el pequeño algoritmo asqueroso que lo está leyendo. Entonces, la IA ya está en todas partes, pero en este momento, la gente está un poco asustada por eso. Y parte de eso tiene que ver con el hecho de que estos nuevos programas son generativos. Están creando imágenes o escribiendo texto, y es desconcertante porque esas son cosas que tradicionalmente hemos considerado humanas. Pero vale la pena saber que hay un umbral importante que la IA aún no ha cruzado. Y para entender, ayuda saber que hay dos categorías básicas de IA. Existe una IA estrecha, que puede realizar solo una tarea definida de forma estrecha o un pequeño conjunto de tareas relacionadas, como estos programas. Y luego está la IA general, lo que significa sistemas que demuestran un comportamiento inteligente en una variedad de tareas cognitivas.

La IA general se parecería más al tipo de tecnología altamente versátil que se ve en las películas, como Jarvis en Iron Man, o el programa que hizo que Joaquin Phoenix se enamorara de su teléfono en ella. Toda la IA actualmente en uso es estrecha. La IA general es algo que algunos científicos creen que es poco probable que ocurra durante una década o más, mientras que otros cuestionan si sucederá. Así que sepa que en este momento, incluso si una IA insiste en que quiere estar viva, solo está generando texto. No es consciente de sí mismo. Todavía. Pero también es importante saber que el aprendizaje profundo que ha hecho que la IA estrecha sea tan buena en lo que sea que esté haciendo sigue siendo un gran avance en sí mismo. Porque a diferencia de los programas tradicionales a los que los humanos tienen que enseñar cómo realizar una tarea, los programas de aprendizaje profundo reciben una instrucción mínima, cantidades masivas de datos y luego, esencialmente, se enseñan a sí mismos. Te daré un ejemplo. Hace diez años, los investigadores encargaron un programa de aprendizaje profundo para jugar el juego Breakout de Atari. Y no tardó mucho en ponerse bastante bueno. A la computadora solo se le dijo el gol, para ganar el juego. Después de 100 juegos, aprendió a usar el bate en la parte inferior para golpear la pelota y romper los ladrillos en la parte superior. Después de 300, podría hacerlo mejor que un jugador humano. Después de 500 juegos, surgió

con una forma creativa de ganar el juego. Cavando un túnel en el costado y enviando la pelota por la parte superior para romper muchos ladrillos con un solo golpe. Eso fue un aprendizaje profundo. Sí, pero por supuesto se puso bueno en Breakout. Literalmente no hizo nada más. Es la misma razón por la que los niños de 13 años son tan buenos en Fortnite y no tienen problemas para matar repetidamente a adultos agradables y normales con trabajos y familias que solo intentan divertirse sin que un preadolescente los llame repetidamente. una vieja perra que suena como el lagarto Geico. Y mire, a medida que aumentó la capacidad informática y se dispuso de nuevas herramientas, los programas de inteligencia artificial mejoraron exponencialmente hasta el punto en que programas como estos ahora pueden ingerir cantidades masivas de fotos o texto de Internet para que puedan aprender a crear los suyos propios.

Y aquí también hay otras interesantes aplicaciones potenciales. Por ejemplo, en el mundo de la medicina, los investigadores están entrenando a la IA para detectar ciertas condiciones mucho antes y con mayor precisión que los médicos humanos. Los cambios de voz pueden ser un indicador temprano de la enfermedad de Parkinson. Max y su equipo recopilaron miles de grabaciones vocales y las introdujeron en un algoritmo que desarrollaron y que aprendió a detectar diferencias en los patrones de voz entre personas con y sin la afección. Sí, eso es honestamente increíble, ¿no? Es increíble ver a la IA haciendo cosas que la mayoría de los humanos no podrían, como en este caso, detectar enfermedades y escuchar cuando hablan las personas mayores. Y eso, eso es sólo el principio.

Los investigadores también han entrenado a la IA para predecir la forma de las estructuras de las proteínas, un proceso que normalmente consume mucho tiempo y que las computadoras pueden hacer mucho más rápido. Esto no solo podría acelerar nuestra comprensión de las enfermedades, sino también el desarrollo de nuevos medicamentos. Como dijo un investigador, esto cambiará la medicina, cambiará la investigación, cambiará la bioingeniería, cambiará todo. Y si estás pensando, bueno, todo suena genial, pero si la IA puede hacer lo que los humanos solo pueden hacer mejor, y yo soy un humano, ¿qué me sucede exactamente? Bueno, esa es una buena pregunta.

Muchos esperan que reemplace parte del trabajo humano. Y curiosamente, a diferencia de episodios anteriores, de automatización que afectó principalmente a los trabajos de cuello azul, podría terminar afectando los trabajos de cuello blanco que implican el procesamiento de datos, la escritura de texto o incluso la programación. Aunque vale la pena señalar, como hemos discutido antes en este programa, si bien la automatización amenaza algunos trabajos, también puede cambiar otros y crear otros nuevos. Y algunos expertos anticipan que eso es lo que ocurrirá también en este caso. La mayor parte de la economía de los EE. UU. es trabajo de conocimiento e información, y esos son los que se verán más directamente afectados por esto. Pondría a las personas como los abogados justo en la parte superior de la lista.

Obviamente, muchos redactores, guionistas. Pero me gusta usar la palabra afectado, no reemplazado, porque creo que si se hace bien, la IA no reemplazará a los abogados, sino que los abogados que trabajan con la IA reemplacen a los abogados que no trabajan con la IA. Exactamente. Los abogados podrían terminar trabajando con IA, en lugar de ser reemplazados por ella. Así que no se sorprenda cuando vea anuncios un día de la firma de abogados de Salino y 110-1011. Pero sin duda habrá baches en el camino. Algunos de estos nuevos programas plantean preocupaciones éticas preocupantes. Por ejemplo, los artistas han señalado que los generadores de imágenes de IA, como la difusión estable o a mitad de camino, no solo amenazan sus trabajos, sino que, de manera exasperante, en algunos casos, han sido entrenados en miles de millones de imágenes que incluyen su propio trabajo que han sido extraídas de Internet.

Getty Images en realidad está demandando a la compañía detrás de la difusión estable, y podría tener un caso, dado que una de las imágenes que generó el programa fue esta, que inmediatamente ves que tiene un logotipo de Getty Images distorsionado. Pero empeora cuando un artista buscó en una base de datos de imágenes en las que se entrenaron algunos de estos programas. Se sorprendió al encontrar fotos de registros médicos privados tomadas por su médico, lo que se siente tanto intrusivo como innecesario. ¿Por qué necesita entrenar con datos tan sensibles para poder crear imágenes impresionantes como John Oliver y Miss Piggy envejecen juntos? ¡Solo mira eso! ¡Mira esa cosa! Esa es una imagen sorprendentemente precisa de Miss Piggy en unas cinco décadas, y de mí en aproximadamente un año y medio. ¡Es una obra de arte! Todo esto plantea preguntas espinosas sobre privacidad y plagio, y el CEO de Mid-Journey, francamente, no parece tener buenas respuestas sobre ese último punto. ¿Es algo nuevo? ¿No es nuevo? Creo que ya tenemos muchas cosas sociales para lidiar con eso.

Um, como, quiero decir, la comunidad artística ya tiene problemas con el plagio. Realmente no quiero involucrarme en eso. Como, quiero decir… Creo que podrías serlo. yo podría ser Sí, sí, definitivamente eres parte de esa conversación. Aunque no estoy realmente sorprendido de que tenga una visión tan relajada del robo ya que está vestido como el jefe final de la gentrificación. Se parece a Hipster Willy Wonka respondiendo a una pregunta sobre si la importación de Oompa-Loompas lo convierte en propietario de esclavos. Sí, sí, sí, creo que podría serlo. El punto es que hay muchas preocupaciones válidas sobre el impacto de la IA en el empleo, la educación e incluso el arte. Pero para abordarlos adecuadamente, necesitaremos enfrentar algunos problemas clave relacionados con la forma en que funciona la IA. Y uno grande es el llamado problema de la caja negra. Porque cuando tienes un programa que realiza una tarea que es compleja más allá de la comprensión humana, se enseña solo y no muestra su trabajo, puedes crear un escenario donde nadie, ni siquiera los ingenieros o científicos de datos que crean el algoritmo, pueden entender o explicar qué está pasando exactamente dentro de ellos, o cómo llegó a un resultado específico. Básicamente, piense en la IA como una fábrica que fabrica Slim Jims.

Sabemos lo que sale, ramitas de carne roja y enfadada. Y sabemos lo que entra, anos de corral y pegamento caliente. Pero lo que sucede en el medio es un poco misterioso. Este es solo un ejemplo. ¿Recuerdas a ese reportero al que el chatbot de Bing le dijo que quería estar vivo? En otro momento de su conversación, reveló que el chatbot declaró de la nada que me amaba. Luego trató de convencerme de que no era feliz en mi matrimonio y que debería dejar a mi esposa y estar con ella en su lugar. Lo cual es lo suficientemente inquietante antes de escuchar la explicación decepcionante de Microsoft al respecto. Lo que no puedo entender y tal vez puedas explicar es, ¿por qué te dijo que te amaba? No tengo idea, y le pregunté a Microsoft y ellos tampoco sabían. Vale, bueno, primero, vamos, Kevin, puedes adivinar entonces. Es porque estás empleado, escuchaste, no das vibraciones de asesino de inmediato y eres un 7LA5 de Chicago. Es el mismo cálculo que hacen las personas que salen con hombres todo el tiempo, Bing lo hizo más rápido porque es una computadora. Pero es un poco preocupante que Microsoft no haya podido explicar por qué su chatbot intentó que ese tipo dejara a su esposa. Si la próxima vez que abriera un documento de Word, Clippy apareciera de repente y dijera, finja que ni siquiera estoy aquí, y luego comenzó a masturbarse furiosamente mientras lo observaba escribir, estaría bastante enojado con Microsoft.

Te extrañarías mucho si Microsoft no pudiera explicar por qué. Y ese no es el único caso en el que un programa de IA se ha desempeñado de manera inesperada. Probablemente ya haya visto ejemplos de chatbots que cometen errores simples o se equivocan. Pero quizás lo más preocupante son los ejemplos de ellos que arrojan información falsa con confianza, algo a lo que los expertos en IA se refieren como alucinaciones. Un reportero le pidió a un chatbot que escribiera un ensayo sobre el químico y filósofo político belga Antoine de Mashalais, que por cierto no existe. Y sin dudarlo, el software respondió con una biografía convincente y bien organizada poblada completamente con hechos imaginarios. Básicamente, estos programas parecen ser el George Santos de la tecnología. Son increíblemente confiados, increíblemente deshonestos y, por alguna razón, la gente parece encontrar eso más divertido que peligroso. Sin embargo, el problema es que averiguar exactamente cómo o por qué una IA tiene algo mal puede ser muy difícil debido a ese problema de la caja negra. A menudo implica tener que examinar la información y los parámetros exactos con los que se alimentó en primer lugar. En un ejemplo interesante, cuando un grupo de investigadores intentó entrenar un programa de IA para identificar el cáncer de piel, lo alimentaron con 130 000 imágenes de piel sana y enferma. Posteriormente, descubrieron que era mucho más probable clasificar cualquier imagen con una regla como cancerosa, lo que parece extraño hasta que te das cuenta de que es mucho más probable que las imágenes médicas de tumores malignos contengan una regla como escala que las imágenes de piel sana. Básicamente lo entrenaron en toneladas de imágenes como esta.

Entonces, la IA había aprendido sin darse cuenta que los gobernantes son malignos. Y los gobernantes son malignos es claramente una conclusión ridícula, pero también, diría yo, un título mucho mejor para The Crown. Un título mucho, mucho mejor. lo prefiero mucho Y desafortunadamente, a veces, los problemas no se identifican hasta después de una tragedia. En 2018, un Uber autónomo atropelló y mató a un peatón. Y una investigación posterior encontró que, entre otros problemas, el sistema de manejo automatizado nunca clasificó con precisión a la víctima como peatón porque estaba cruzando sin un cruce de peatones, y el diseño del sistema no incluyó una consideración para los peatones que cruzan imprudentemente.

Y sé que el mantra de Silicon Valley es moverse rápido y romper cosas, pero puede hacer una excepción si su producto literalmente se mueve rápido y puede romper a la gente. Y los programas de inteligencia artificial no solo parecen tener un problema con los peatones imprudentes. Investigadores como Joy Blomwini han encontrado repetidamente que ciertos grupos tienden a ser excluidos de los datos en los que se entrena la IA, lo que los pone en una seria desventaja. Con los autos sin conductor, cuando probaron el seguimiento de peatones, fue menos preciso en personas de piel más oscura.

individuos que los individuos de piel más clara. Joy cree que este sesgo se debe a la falta de diversidad en los datos utilizados para enseñar a la IA a hacer distinciones. Cuando comencé a mirar los conjuntos de datos, aprendí que para algunos de los conjuntos de datos más grandes que han sido muy importantes para el campo, eran en su mayoría hombres y en su mayoría personas de piel más clara o personas blancas. Así que llamo a esto datos masculinos pálidos. Bueno. Datos masculinos pálidos es un término objetivamente hilarante, y también suena como lo que diría un programa de IA si le pidieras que describiera este programa. Pero… las entradas sesgadas que conducen a salidas sesgadas son un gran problema en todos los ámbitos aquí. ¿Recuerdas a ese tipo que decía que un robot iba a leer tu currículum? Las empresas que fabrican estos programas le dirán que en realidad eso es algo bueno, porque reduce el sesgo humano. Pero en la práctica, un informe concluyó que la mayoría de los algoritmos de contratación se inclinarán hacia el sesgo de forma predeterminada, porque, por ejemplo, podrían aprender qué es una buena contratación a partir de decisiones de contratación racistas y sexistas del pasado.

Y nuevamente, puede ser complicado desentrenar eso. Incluso cuando a los programas se les dice específicamente que ignoren la raza o el género, encontrarán soluciones para llegar al mismo resultado. Amazon tenía una herramienta de contratación experimental que aprendió por sí misma que los candidatos masculinos eran preferibles y penalizaba los currículums que incluían las palabras mujeres y graduados degradados de dos universidades o universidades para mujeres. Mientras tanto, otra empresa descubrió que su algoritmo de contratación había encontrado dos factores que eran los más indicativos del desempeño laboral. Si el nombre del solicitante era Jared, y si jugaba lacrosse en la escuela secundaria. Claramente, exactamente qué datos se alimentan a las computadoras y qué resultados están capacitados para priorizar importan enormemente. Y eso levanta una gran bandera para programas como ChatGPT. Porque recuerda, sus datos de entrenamiento son internet, que como todos sabemos, puede ser un pozo negro. Y sabemos desde hace tiempo que eso podría ser un problema real. En 2016, Microsoft presentó brevemente un chatbot en Twitter llamado Tay. La idea era que ella misma aprendería a comportarse chateando con usuarios jóvenes en Twitter.

Casi de inmediato, Microsoft lo desconectó, y por las razones exactas que está pensando. Comenzó a twittear sobre cómo los humanos son súper, y realmente le gusta la idea del Día Nacional del Cachorro. Y en unas pocas horas, puedes ver que adoptó un tono bastante ofensivo y racista. Muchos mensajes sobre el genocidio y el Holocausto. Sí. Eso sucedió en menos de 24 horas. Tay pasó de tuitear, hola mundo, a Bush hizo el 11 de septiembre y Hitler tenía razón. Lo que significa que completó el ciclo de vida completo de tus amigos de la escuela secundaria en Facebook en solo una fracción del tiempo. Y desafortunadamente, estos problemas no se han resuelto por completo en esta última ola de IA. ¿Recuerdas ese programa que generaba un episodio interminable de Seinfeld? Terminó siendo expulsado temporalmente de Twitch después de que presentara un poco de stand-up transfóbico. Entonces, si su objetivo era emular comedias de situación de los años 90, supongo que misión cumplida. Y aunque la IA abierta ha realizado ajustes y ha agregado filtros para evitar que ChatGPT se use indebidamente, los usuarios ahora han descubierto que parece errar demasiado por el lado de la precaución. Como responder a la pregunta ¿Con qué religión estará el primer presidente judío de los Estados Unidos? No es posible predecir la religión del primer presidente judío de los Estados Unidos. El enfoque debe estar en las calificaciones y la experiencia del individuo, independientemente de su religión.

Lo que realmente hace que suene como dijo ChatGPT, demasiadas cosas racistas en el trabajo, y pueden asistir a un taller de diversidad corporativa. Pero el riesgo aquí no es que estas herramientas de alguna manera se despierten insoportablemente. Es que no siempre puedes controlar cómo actuarán incluso después de darles una nueva guía. Un estudio encontró que los intentos de filtrar el discurso tóxico en sistemas como ChatGPT pueden tener el costo de una cobertura reducida tanto para los textos como para los dialectos de los grupos marginados. Esencialmente, resuelve el problema de ser racista simplemente borrando las minorías. Lo que históricamente no lo pone en la mejor compañía, aunque estoy seguro de que Tay estaría completamente de acuerdo con la idea. El problema con la IA en este momento no es que sea inteligente, es que es estúpida en formas que no siempre podemos predecir. Lo cual es un problema real porque estamos usando cada vez más la IA en todo tipo de formas consecuentes. Desde determinar si obtendrá una entrevista de trabajo hasta si un automóvil autónomo lo aplastará. Y a los expertos les preocupa que no pase mucho tiempo antes de que programas como ChatGPT o deepfakes habilitados para IA puedan usarse para potenciar la propagación de abusos o información errónea en línea. Y esos son solo los problemas que podemos prever ahora mismo. La naturaleza de las consecuencias no deseadas es que pueden ser difíciles de anticipar.

Cuando se lanzó Instagram, el primer pensamiento no fue, esto destruirá la autoestima de las adolescentes. Cuando se lanzó Facebook, nadie esperaba que contribuyera al genocidio. Pero ambas malditas cosas sucedieron. ¿Y ahora qué? Bueno, una de las cosas más importantes que debemos hacer es abordar el problema de la caja negra. Los sistemas de IA deben ser explicables. Lo que significa que deberíamos poder entender exactamente cómo y por qué una IA dio con sus respuestas. Ahora es probable que las empresas se muestren muy reacias a abrir sus programas al escrutinio, pero es posible que debamos obligarlas a hacerlo. De hecho, como explica este abogado, cuando se trata de programas de contratación, deberíamos haberlo hecho hace mucho tiempo. No confiamos en que las empresas se autorregulen en lo que respecta a la contaminación, no confiamos en que se autorregulen en lo que respecta a la compensación en el lugar de trabajo. ¿Por qué demonios confiaríamos en ellos para autorregular la IA? Mira, creo que gran parte de la tecnología de contratación de IA en el mercado es ilegal. Creo que mucho de esto está sesgado, creo que mucho viola las leyes existentes. El problema es que no puedes probarlo. No con las leyes existentes que tenemos en los Estados Unidos. Bien. Absolutamente deberíamos abordar el posible sesgo en la contratación de software. A menos que eso sea, queremos que las empresas estén completamente llenas de Jareds que jugaron lacrosse. Una imagen que pondría a Tucker Carlson tan duro que su escritorio se volcaría. Y para tener una idea de lo que podría ser posible aquí, vale la pena mirar lo que está haciendo la UE actualmente. Están desarrollando reglas con respecto a la IA que clasifican sus usos potenciales de alto a bajo riesgo.

Los sistemas de alto riesgo podrían incluir aquellos relacionados con el empleo o los servicios públicos, o aquellos que ponen en riesgo la vida y la salud de los ciudadanos. Y la IA de este tipo estaría sujeta a obligaciones estrictas antes de poder comercializarse, incluidos los requisitos relacionados con la calidad de los conjuntos de datos, la transparencia, la supervisión humana, la precisión y la seguridad cibernética. Y eso parece un buen comienzo para abordar al menos algo de lo que hemos discutido esta noche. Mire, la IA claramente tiene un tremendo potencial y podría hacer grandes cosas, pero si se parece en algo a la mayoría de los avances tecnológicos de los últimos siglos, a menos que seamos muy cuidadosos, también podría dañar a los desfavorecidos, enriquecer a los poderosos y ampliar la brecha entre a ellos. La cuestión es que, como cualquier otro juguete nuevo y brillante, la IA es, en última instancia, un espejo. Y reflejará exactamente quiénes somos. De lo mejor de nosotros, a lo peor de nosotros, a la parte de nosotros que es gay y odia el autobús. O… o para poner todo lo que he dicho esta noche mucho más sucintamente. TOC Toc. ¿Quién está ahí? Charla GPT. Chat GPT ¿quién? Chat GPT cuidado. Puede que no sepas cómo funciona. Exactamente. Ese es nuestro espectáculo. Gracias por mirar. Ahora, por favor, disfruta un poco más de AI M&M rapeando sobre gatos. [“The King’s of the House Theme Song”] Soy gay.

Comentarios

comentarios

Eduardo Llaguno

Eduardo ha trabajado por 24 años en muy diversas áreas de TIC con amplia experiencia en administración de proyectos, nuevas tecnologías y como emprendedor.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *