spot_img
29.8 C
Santo Domingo
jueves 23, abril, 2026

Inteligencia Artificial Vs Inteligencia Natural: ¿Dónde está el peligro?

El exponencial desarrollo de la Inteligencia Artificial (IA), considerado como el fenómeno más paradigmático de la denominada 4ta Revolución Industrial, genera opiniones y sentimientos encontrados: temores y esperanzas, escepticismo y optimismo. Es un hecho que el mundo asiste hoy, desbordado, a los vertiginosos avances que la IA está produciendo en todos los campos del saber y del quehacer humano.

Dentro de la marejada de dudas que enfrenta la sociedad actual frente a la irrupción distópica de la IA, existe una preocupación central que ocupa el centro de acaloradas discusiones entre ciudadanos comunes y expertos: ¿Es posible que la IA llegue a desarrollarse al punto de pensar y actuar de manera autónoma, sin intervención humana, alcanzando algo semejante al «libre albedrío»?

La discusión no es trivial. Pensadores de talla global, como el autor israelí Yuval Noah Harari, advierten sobre los riesgos potenciales. En su libro 21 lecciones para el siglo XXI (pág. 68), Harari señala: “De la misma manera que la autoridad divina estaba legitimada por mitologías religiosas y la autoridad humana por el relato liberal, la revolución tecnológica podría establecer la autoridad de los macrodatos, al tiempo que socavaría la idea misma de la libertad individual”.

Los avances más recientes en neurociencia sugieren que los sentimientos y reacciones humanas son el resultado de procesos de cálculo, es decir, de algoritmos bioquímicos que ocurren en las zonas más profundas del cerebro, por debajo del umbral de la consciencia. “Los sentimientos no están basados en la intuición, la inspiración o la libertad; están basados en el cálculo” (ibid, pág. 68).

Concuerdo con Harari en que la combinación de biotecnología e infotecnología podría producir algoritmos tan poderosos que la autoridad sobre sentimientos o el libre albedrío podría pasar de los humanos a las máquinas. En otras palabras, estaríamos a las puertas de lo que Harari llama “dictaduras digitales”.

¿Una amenaza para la humanidad?

¿Significa esto un peligro para la existencia humana tal como la conocemos? Sí y no. Aunque su desarrollo ha crecido exponencialmente en la última década, la IA no es un fenómeno reciente. Sus orígenes se remontan a 1936, cuando el matemático inglés Alan Turing publicó en la revista Proceedings of the London Mathematical Society su teoría sobre una máquina automática capaz de computar información. En 1948, retomó estas ideas en su ensayo “Máquinas inteligentes” y, en 1950, presentó su famosa “prueba de Turing”, que permite determinar si una máquina puede imitar la inteligencia humana.

Desde entonces, la computación ha evolucionado de manera impresionante, penetrando todos los ámbitos del quehacer humano, con aplicaciones que van desde dispositivos cotidianos como teléfonos y computadoras, hasta sistemas altamente sofisticados en sectores como salud, transporte, educación, comunicación, seguridad y, especialmente, la guerra. Es en este último campo donde radican los mayores temores frente al explosivo avance de la IA.

Como recordó el ingeniero Andrés Rodríguez Conde, experto en transformación digital e inteligencia artificial, durante su conferencia inaugural en el Diplomado Internacional en Inteligencia Artificial Aplicada a la Investigación auspiciado por la Facultad de Ciencias de la Universidad Autónoma de Santo Domingo, “La tecnología está al servicio de la humanidad, no al revés”. Rodríguez también afirmó que la IA nunca llegará a suplantar a la inteligencia natural del hombre.

La Inteligencia Natural más peligrosa que la IA

El problema radica en que casi todas las tecnologías inventadas por el hombre tienen múltiples usos, dependiendo de quién las controle. Por ejemplo, un machete puede servir para despejar maleza o como arma letal. Tecnologías complejas como la energía atómica tienen aplicaciones beneficiosas en medicina y generación de energía, pero también se utilizan para fabricar armas de destrucción masiva. En todos estos casos, es la inteligencia natural del hombre la que decide cómo usar estas herramientas.

Harari subraya que el peor escenario no sería que la IA adquiera conciencia y decida esclavizar o aniquilar a la humanidad. “Inteligencia y conciencia son dos cosas distintas. La inteligencia es la capacidad de resolver problemas. La conciencia es la capacidad de sentir” (ibid, pág. 92). Sin embargo, advierte sobre el riesgo de “dictaduras digitales” en las que los algoritmos, controlados por humanos, dictarían decisiones desde tratamientos médicos hasta políticas gubernamentales.

El peor escenario imaginable sería aquel en el que una pequeña élite poderosa se vuelva autosuficiente gracias a la IA, desplazando a los humanos de múltiples tareas. Esta superélite, compuesta por las grandes corporaciones que lideran el desarrollo de la IA, podría crear una civilización amurallada y protegida por enjambres de drones y armas controladas por algoritmos. Mientras tanto, cientos de millones de seres humanos vivirían en condiciones subhumanas. Este sería el fin de la civilización humana tal como la conocemos, causado no por la IA, sino por la propia inteligencia natural del hombre.

spot_img

Últimas noticias

- Advertisement -spot_img

Relacionado

- Advertisement -spot_img