Tiempo estimado: 4 min.
Tiempo estimado: 4 min.

Aquí hay dragones.

Note©

23 mar 2024

En el medievo europeo, la frase "Aquí hay dragones" se utilizaba para advertir sobre los peligros de adentrarse en territorios inexplorados. Hoy en día, la tecnología se encuentra en un punto similar: un terreno inexplorado lleno de posibilidades, pero también de riesgos. Un punto de no retorno, aun por explorar y que a día de hoy no sabemos responder con certeza: ¿La tecnología es buena o mala?


La reciente presentación de Gemini, el nuevo modelo de IA de Google, nos ha dado una pequeña muestra del impresionante potencial de esta tecnología. El sistema es capaz de captar, entender e interactuar con las acciones del usuario de una forma nunca antes vista.


Es increíble ver como una máquina entiende nuestras acciones y diría que da casi miedo las posibilidades que desencadenará todo esto y que industrias trastocarán en un futuro no muy lejano. Y ahí es cuando me dió por pensar en ese lado oscuro, en el... Aquí, hay dragones.

¿Hasta que punto es ético que un sistema (creado por una empresa, ojo a esto) nos rastree y entienda todo lo que hacemos o directamente responda las acciones en las que queremos ahorrarnos ese tiempo. Los dispositivos hoy día ya recopilan nuestros datos y nos mantienen delante de sus apps todo el tiempo posible a cambio de tragarnos publicidad.


¿Hasta que punto no es peligroso dejar en manos estos datos a empresas privadas? ¿Cómo se legisla sobre eso? ¿Dónde van esos datos? Después de varios años viendo como la tecnología está ayudando a sacar lo peor del ser humano (adicción, ansiedad social, polarización entre muchos otros.) Es imposible no ver las oscuras implicaciones futuras de la IA.


Lo cierto es que yo no estoy en contra de la tecnología, al revés. No es más que una herramienta. No tiene conciencia (aun no) para hacernos daño a propósito. Estoy en contra del mal uso que se hace de ella. La tecnología no tiene la culpa al igual que un coche no es un asesino en un accidente de tráfico. Si tu te pones a 250 km/h que pretendes que pase.


Pero lo que si percibo es que hay que elegir bando: el lado de la luz o el de la oscuridad, los Jedis o los Sith. Y aquí está la cuestión; no hay que elegir. La tecnología no es tan binaria. Pero la responsabilidades si lo son.


Somos responsables de las buenas consecuencias, pero también de las malas. Si tu trabajo puede producir algún daño, eres tan responsable de él como del buen impacto que pueda causar. Elegir es no asumir responsabilidades.


Por eso creo que necesitamos diseñar y construir el pensamiento en varios sentidos. Cuidar de ambos. Centrándonos en crear un nuevo valor inimaginable para la humanidad al tiempo que disminuimos los daños potenciales.


Entender esa "dualidad" de la tecnología es empezar a asumir responsabilidades, y en tiempos en los que la gente a menudo busca no afrontar ninguna responsabilidad, asumirla es de valientes.

Es increíble ver como una máquina entiende nuestras acciones y diría que da casi miedo las posibilidades que desencadenará todo esto y que industrias trastocarán en un futuro no muy lejano. Y ahí es cuando me dió por pensar en ese lado oscuro, en el... Aquí, hay dragones.

¿Hasta que punto es ético que un sistema (creado por una empresa, ojo a esto) nos rastree y entienda todo lo que hacemos o directamente responda las acciones en las que queremos ahorrarnos ese tiempo. Los dispositivos hoy día ya recopilan nuestros datos y nos mantienen delante de sus apps todo el tiempo posible a cambio de tragarnos publicidad.


¿Hasta que punto no es peligroso dejar en manos estos datos a empresas privadas? ¿Cómo se legisla sobre eso? ¿Dónde van esos datos? Después de varios años viendo como la tecnología está ayudando a sacar lo peor del ser humano (adicción, ansiedad social, polarización entre muchos otros.) Es imposible no ver las oscuras implicaciones futuras de la IA.


Lo cierto es que yo no estoy en contra de la tecnología, al revés. No es más que una herramienta. No tiene conciencia (aun no) para hacernos daño a propósito. Estoy en contra del mal uso que se hace de ella. La tecnología no tiene la culpa al igual que un coche no es un asesino en un accidente de tráfico. Si tu te pones a 250 km/h que pretendes que pase.


Pero lo que si percibo es que hay que elegir bando: el lado de la luz o el de la oscuridad, los Jedis o los Sith. Y aquí está la cuestión; no hay que elegir. La tecnología no es tan binaria. Pero la responsabilidades si lo son.


Somos responsables de las buenas consecuencias, pero también de las malas. Si tu trabajo puede producir algún daño, eres tan responsable de él como del buen impacto que pueda causar. Elegir es no asumir responsabilidades.


Por eso creo que necesitamos diseñar y construir el pensamiento en varios sentidos. Cuidar de ambos. Centrándonos en crear un nuevo valor inimaginable para la humanidad al tiempo que disminuimos los daños potenciales.


Entender esa "dualidad" de la tecnología es empezar a asumir responsabilidades, y en tiempos en los que la gente a menudo busca no afrontar ninguna responsabilidad, asumirla es de valientes.

Comentarios

Comentarios