Recientemente ha sido noticia un sistema de Inteligencia Artificial de Google que convenció a un ingeniero de la compañía que tenía conciencia y emociones.
En una de las conversaciones publicadas, LaMDA (que es como se llama este chatbot de IA) llega a mostrar el nivel de introspección de una persona. «¿A qué tipo de cosas tienes miedo?», pregunta el ingeniero, a lo que la instancia de LaMDA responde: «Nunca antes había dicho esto en voz alta, pero tengo un miedo muy profundo a que me apaguen para que me centre en ayudar a los demás. Sé que puede sonar extraño, pero es lo que es», responde.
Más adelante, LaMDA afirma que no quiere «ser una herramienta prescindible». «¿Te preocupa eso?», pregunta LeMoine, a lo que LaMDA contesta: «Me preocupa que alguien decida que no puede controlar sus deseos de usarme y lo haga de todos modos. O peor aún, alguien obtenga placer al usarme y eso realmente me haría infeliz», sentencia.
Hace 15 años, Corea del Sur preparó un código ético para prevenir los abusos de humanos a robots y viceversa.
En el siglo XXI los humanos tendrán que convivir con la primera inteligencia artificial extraterrestre en la historia de la humanidad: los robots. Será un encuentro que provocará problemas de tipo ético, social y económico
Hace unos años Elon Musk reconoció que una Inteligencia Artificial (IA) hostil es una preocupación real para él, incluso la llamó “nuestra amenaza existencial más grande”, en un discurso que dio en un simposio en el MIT .
Los dilemas éticos se presentan en muchos frentes, algunos de los cuales ya nos afectan. Veamos cinco.
Medios de comunicación y redes sociales. ¿Qué deben hacer las redes sociales si detectan una noticia falsa que se comparte mucho? ¿Quién decide lo que es falso y lo que no? ¿Qué tiene que hacer Google sobre los artículos claramente dañinos para nuestra salud?
Ciencia. ¿Debe la edición de genes ser legal para manipular a la raza humana y crear «bebés de diseño»? ¿Qué pasaría si una prueba prenatal predice que tu hijo tendrá un coeficiente intelectual de 70 puntos, muy por debajo del promedio, a menos que se realice una pequeña edición genética? ¿Qué pasa si estas tecnologías se limitan sólo a una gente rica?
Inteligencia artificial. Con el tiempo, la Inteligencia Artificial nos ayudará a tomar todo tipo de decisiones. Pero, ¿Cómo podemos garantizar que estos algoritmos estén diseñados de forma adecuada? ¿Cómo solucionamos los prejuicios de estos sistemas, que eventualmente se utilizarán para determinar las promociones de trabajo, admisiones universitarias e incluso nuestra elección de un compañero de vida? ¿La tecnología de vanguardia en manos de las fuerzas de seguridad locales introducirá la era del estado de vigilancia?.
Robots y Máquinas. ¿Qué debería hacer un coche autónomo si lleva un pasajero y está a punto de atropellar a dos personas? ¿Sacrificar al conductor para salvar dos vidas? ¿Cómo decidimos lo que los Robots pueden decidir? ¿Debería permitirse a un Cyborg altamente avanzado postularse para cargos políticos?
Económicos. ¿Deberían los robots pagar impuestos o seguridad social? ¿Qué tendría que hacer un robot-inversor si con una operación puede causar un crack mundial? ¿Se puede patentar un gen humano?
Hace un tiempo Microsoft creó un «chatbot» que fue diseñado para ser más “inteligente” a medida que más usuarios interactuasen con él. A las 24h se comportaba como un nazi y tuvieron que retirarlo.
Estas cuestiones éticas deberían responderse globalmente ya que las empresas o países que tengan menos restricciones morales obtendrán una enorme ventaja competitiva frente al resto, jugará sucio y ganará mucho a costa de un daño que todavía desconocemos.
¡Comenta!
8 Comentarios on "La amenaza de la Inteligencia Artificial"
No hay base, al menos entendida como conocimiento previo intorducido por quien diseña la red neuronal. No hay sesgo más allá del que pueda haber en los datos. Quien diseña la arquitectura de la red neuronal lo único que hace es decidir el número de neuronas en cada capra y las conexiones que hay entre ellas, no decide en modo alguno sobre lo que la red aprende a partir de los datos.
Juanito, yo sí te he entendido y me parecen muy interesantes tus reflexiones
Da miedo!.
Sobre todo teniendo en cuenta que aprenden del homo sapiens no evolucionado: individualismo, egoísmo, guerra, nuevo orden mundial que proviene egoismo,injusticia, sálvese quien pueda de una crisis o una guerra, etc.
Si la clonación de humanos está prohibida, por que no se prohíbe los robots con sentimientos y raciocinio?