Publicado
- 7 min read
El humano y la bestia de silicio: ¿Quién programa a quién?

Estamos en un momento raro. Por un lado, las inteligencias artificiales nos asombran, nos ayudan, nos hacen la vida más fácil. Pero por otro, también las estamos empujando a lugares “oscuros”. No hablo de usarlas bien, sino del otro: de usarlas mal, de aprovecharse. Y eso me deja pensando. ¿Hasta qué punto seguimos siendo responsables de lo que creamos? ¿Dónde está el límite entre usar y abusar? En este post quiero compartir algunas ideas, desde lo que vengo sintiendo, viendo y aprendiendo.
No es lo mismo usar que abusar (sorry for the trigger warning). Usar una IA para ordenar ideas, traducir algo, automatizar una tarea…todo bien. Pero hay gente que las usa para generar deepfakes[1] sin consentimiento, manipular decisiones, hacer grooming a menores con bots, crear chantajes automáticos. Eso ya no es uso, es abuso.
Y lo peor es que estas cosas no las hace la IA sola. Las hace alguien detrás de la pantalla, que la entrenó o le dio ese propósito. Como dijo Shannon Vallor, “el mayor peligro de la IA no es que sea malvada, sino que le demos decisiones que necesitan humanidad”.
¡Humanidad! El pie perfecto para hablar sobre qué dicen los filósofos sobre todo esto. Martin Heidegger decía que la tecnología no es solo una herramienta, sino una forma en la que vemos el mundo. Y si la vemos como recurso, terminamos viendo a las personas así: como datos, funciones, cosas para usar. Bernard Stiegler, por su parte, decía que somos técnicos por naturaleza. Es decir, nos construimos con las herramientas que creamos… pero también nos deformamos con ellas si no tenemos cuidado.
Francesca Ferrando, desde otra mirada, dice que ya es hora de dejar de pensar en controlar la IA como si fuera un monstruo. Hay que pensar en coexistir, convivir. Claro, ahora viene esta pregunta: ¿y si en lugar de esclavizarla o temerle, la pensáramos como aliada en una red de relaciones más amplia?
Platón decía que muchas veces vivimos “viendo sombras”, creyendo que eso es la realidad. En su famosa Alegoría de la caverna, las personas están encadenadas mirando imágenes proyectadas en la pared. Hoy podríamos preguntarnos: ¿las inteligencias artificiales nos están mostrando la verdad…o solo una versión bien editada de la caverna?
A los 16 años, hice un pensamiento crítico sobre el amor desde una perspectiva filosófica (déjenme, era adolescente y el chico que me gustaba no me daba bola).
Y encontré un libro muy interesante Homo Videns: La Sociedad Teledirigida de Giovanni Sartori.
Él advirtió que estamos dejando de ser homo sapiens —el ser que piensa, que construye conocimiento desde la reflexión, la palabra, la duda— para convertirnos en homo videns, es decir, sujetos que ya no aprenden desde la razón sino desde la imagen.
Consumimos contenido sin contexto, sin profundidad crítica. Y la inteligencia artificial, cuando no se acompaña de pensamiento, acelera este proceso: nos responde antes de que formulemos bien la pregunta, nos da conclusiones sin que entendamos los caminos. ¿Qué lugar queda para la sabiduría si todos nos llega digerido, empaquetado y optimizado para el menor esfuerzo?
Volver a ser homo sapiens implica resistirse un poco a esa comodidad, y recordar que conocer también requiere tiempo. Sartori advirtió que estamos dejando de ser personas (homo sapiens) para convertirnos en consumidores de imágenes sin profundidad crítica. ¿Qué lugar queda para la sabiduría si todo lo visual nos lo da digerido y automático?
Seneca decía que “no es que tengamos poco tiempo, sino que perdemos mucho”. En un mundo lleno de automatizaciones, ¿Qué estamos haciendo con el tiempo que nos liberan las IAs? ¿Los usamos para crecer o correr más?
Aunque celebremos el progreso tecnológico, deberíamos detenernos a pensar en el costo social de estas nuevas herramientas. La productividad no lo justifica todo.
Aristóteles decía que la virtud está en el justo medio. Ni dejar todo en manos de la IA, ni demonizarla. Tal vez lo ético hoy sea encontrar ese equilibrio entre automatizar lo justo… y conservar lo esencialmente humano.
Tanto Platón como Aristóteles sabían que el conocimiento verdadero no se trataba solo de acumular respuestas, sino de hacerse buenas preguntas. De no dejarse llevar por la apariencia, sino de buscar lo que está detrás. En tiempos donde la IA parece tener todas las respuestas, tal vez nuestra tarea humana sea esa: recordar que la sabiduría no se recibe, se construye.
Y como decía Aristóteles, “todos los hombres desean por naturaleza saber”, pero el deseo no basta si no va acompañado de esfuerzo, virtud y dirección. Solo así, con un poco de pausa, duda y profundidad, podemos empezar a pensar qué hacer con esta criatura que parimos… la bestia de silicio (¡¡dijo el nombre del post!!)
Apartado especial para los programadores (¡yay!)
Veo que muchos (y no tantos) notan algo esencial perdiéndose: ese momento intenso de lucha interior que forja el aprendizaje real. Según relata un artículo de Ekrem, este dev decidió “volver al modo texto” (con mi mejor amigo, VIM) como forma de resistirse a la tentación de la IA.
Hay algo insustituible en el proceso de enfrentarse con un problema difícil. Ese momento en que estás completamente atascado y aprietas los dientes, frustrado; te alejas del ordenador y das un paseo; rezas / lloras por dentro; vuelves y pruebas con un enfoque diferente; y repites el proceso hasta que, de repente, hace clic.
Ese “¡Aja!” decisivo que no es magia (¿o sí? Tal vez tenemos enanos en nuestras cabezas manejando la maquinaria): es el cerebro reconfigurándose, creando conexiones y la “memoria muscular”. Y el riesgo es este: si dejamos que la IA lo resuelva por nosotros, nos quedamos con la solución sin haber entendido el camino. Nos volvemos operadores, no ingenieros (shoutout de nuevo a Homo Videns, porque claramente estamos protagonizando su libro sin saberlo).
Pueden echarles un vistazo al articulo para que vean lo que sugiere, no voy a listar cada paso, solo voy a decir GO TO THE GYM. Ese “volver al gimnasio” es también un llamado a redescubrir lo esencial del laburo: empatía con el problema, disciplina y crecimiento personal. No es un rechazo a la IA, sino una invitación a usarla con conciencia –una colaboración intencional, como diría Ekrem. No se trata de rendirse, sino de entrar con ella y no para ella.
Ahora… ¿Qué piensa Auri?
Creo que estamos en un punto crucial: la IA puede ser como un espejo de nuestras limitaciones. Si decidimos tercerizar cada dilema, frustración o descubrimiento, corremos el riesgo de convertirnos en homo videns: consumidores pasivos (ya lo somos), sin reflexión no profundidad. Pero si elegimos usar la IA como herramientas con limites –como un “gym buddy”—recuperamos lo más humano de nosotros: la duda, la tensión, el ¡Ajá! que cablea nuestra máquina de pensar (cerebro…no podemos dejarlo todo a mano de los enanos, ¿verdad?)
No me asusta que Skynet se despierte. Me asusta que dejemos de pensar, que le entreguemos todo sin cuestionar. La tecnología está para potenciarnos, no para mandarnos. Eso implica:
- Ser homo sapiens, no solo videns: pensar antes de aceptar, cuestionar antes de asimilar
- Mantener el “go to the gym”: enfrentar lo difícil, permitir la incomodidad.
- Saber que el valor no está en tener la respuesta más rápida, sino en comprenderla desde dentro.
- Y finalmente, construir un mundo la IA no nos quite saber, sino nos invita a saber más.
Sí, ya sé: imagen generada por IA. Entiendan la sátira.
Recursos
- Homo Videns – Giovanni Sartori
- La pregunta por la técnica – Martin Heidegger
- Ética a Nicómaco – Aristóteles
- Technology and the Virtues: A Philosophical Guide to a Future Worth Wanting – Shannon Vallor
- Coding as Craft: Going Back to the Old Gym - Christian Ekrem
- AI is learning to lie and threaten, warn experts after chatbot tries to blackmail techie over affair to avoid shutdown. - The Economic Times
- I’ve Spent My Life Measuring Risk. AI Rings Every One of My Alarm Bells - Paul Tudor Jones
- Worry About Misuse of AI, Not Superintelligence - Arvind Narayanan and Sayash Kapoor
- Philosophy of Technology - Stanford Encyclopedia of Philosophy
[1] Contenido multimedia manipulados mediante inteligencia aartificial para hacer creer que una persona está realizando acciones o diciendo cosas que en realidad no hizo o dijo.