Excientífico de Google advierte sobre los peligros de la inteligencia artificial

Un destacado investigador de inteligencia artificial (IA), al que algunos llaman el “padrino” de la IA, hace notar que esta tecnología se está desarrollando a un ritmo “aterrador” y advierte que no debería expandirse más allá de nuestra capacidad para controlarla.

Geoffrey Hinton, un investigador de larga data en Google, recientemente jubilado a los 75 años, se sumó a los que apuntan, entre ellos el Papa Francisco, que los peligros potenciales de la nueva tecnología merecen un examen profundo.

En declaraciones a BBC News, Hinton indicó que un software como el sistema de chatbot GPT-4, desarrollado por la empresa OpenAI de San Francisco, “eclipsa a una persona en la cantidad de conocimiento general que posee, y la eclipsa por mucho”.

“En términos de razonamiento, no es tan bueno, pero ya realiza un razonamiento simple. Y dada la tasa de progreso, esperamos que las cosas mejoren bastante rápido. Así que tenemos que preocuparnos por ello”, señaló.

GPT-4 es un modelo de aprendizaje entrenado con enormes cantidades de datos y textos históricos y contemporáneos escritos por humanos. Puede producir textos por sí mismo y generar publicaciones de blogs, poemas y programas de computadora. También puede entablar conversaciones similares a las humanas y responder preguntas, como informa el New York Times.

Sin embargo, estos sistemas aún se encuentran en las primeras etapas de desarrollo y muestran varios defectos: a pesar de hablar con confianza, GPT-4 presenta información incorrecta como un hecho e inventa información en incidentes que los investigadores llaman “alucinaciones”.

En la actualidad, estas primeras versiones de inteligencia artificial carecen de autoconciencia. Existe un debate sobre si la autoconciencia es incluso posible para una creación digital.

Hinton, que ahora vive en Canadá, fue pionero en la creación y diseño de “redes neuronales”, el tipo de infraestructura de programación que ayuda a las computadoras a aprender nuevas habilidades y formas de análisis. Se utiliza en muchos sistemas de IA. Él y dos colaboradores ganaron el máximo galardón de la computación, el Premio Turing, en 2018.

En el análisis de Hinton, estos sistemas de IA en desarrollo son muy diferentes del software que la gente está acostumbrada a usar.

“Llegué a la conclusión de que el tipo de inteligencia que estamos desarrollando es muy diferente de la inteligencia que tenemos” los humanos. “Es como si tuvieras 10.000 personas, y cada vez que una persona aprendiera algo, todos lo supieran automáticamente. Y así es como estos chatbots pueden saber mucho más que cualquier persona”, sostuvo.

Para Hinton, un escenario de “pesadilla” sería el desarrollo de un robot al que se le dé la capacidad de crear sus propios objetivos secundarios, y entonces decida que su objetivo sea la maximización de su propio poder.

Vía aciprensa

Redacción

Digital independiente de derechas

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba