Estamos inmersos en un periodo de enorme incertidumbre. Los modelos socioeconómicos vigentes hasta hoy hacen aguas y las múltiples crisis se van solapando sin solución de continuidad. Decía Antonio Gramsci: «El viejo mundo se muere. El nuevo tarda en aparecer. Y en ese claroscuro surgen los monstruos». Discursos e ideas que hace poco nos resultarían grotescas por anacrónicas y contrarias a los derechos humanos, como el racismo explícito, el sexismo institucional, la exclusión social, el autoritarismo político se presentan como rebeldes o libertarias.
La ventana de Overton, ese marco de lo que se considera aceptable en la conversación pública, se ha desplazado. No lo ha hecho de forma casual, hay quien lleva años trabajando para generar esa deriva retrógrada. Curiosamente, el sector de la innovación y la tecnología, históricamente cercano a planteamientos progresistas está justo en el centro de esa deriva. Tanto es así que se habla de tecnofeudalismo. Silicon Valley, que durante años pareció un espacio de avance, modernidad y soluciones, es hoy un foco de presión para desdemocratizar la sociedad. La tecnología no es neutral. Los sistemas que diseñamos, desde algoritmos hasta plataformas, reflejan los deseos y anhelos de las empresas y las personas que los crean y en este momento están atravesadas por la desigualdad, el sesgo y la violencia simbólica. Peter Thiel y Curtis Yarvin encarnan esa nueva/vieja filosofía a caballo de la tecnología más avanzada, el desprecio por lo público y el estado del bienestar y la puesta en duda de la democracia como sistema organizativo, en pos de un capitalismo muy agresivo.
Cuando la tecnología aumenta nuestros prejuicios
La idea generalizada de que la innovación es intrínsecamente buena y de que todo avance técnico es un paso hacia adelante, ha comenzado a resquebrajarse. La creciente evidencia sobre discriminación algorítmica, exclusión digital y modelos tecnológicos diseñados desde una lógica extractiva ha puesto en entredicho esa visión ingenua del progreso. No hay algoritmos inocentes. Los sistemas de reconocimiento facial fallan más con pieles oscuras. Las recomendaciones automáticas refuerzan estereotipos. Esto no quiere decir que debamos rechazar la tecnología, sino que debemos revisarla críticamente. Preguntarnos cómo se construye, con qué datos, con qué marcos ideológicos, y sobre todo: al servicio de quién.
La innovación no puede ser ciega al contexto
Cuando leemos noticias sobre tecnología, ya sea un nuevo software, una app rompedora, un videojuego con ventas millonarias o un nuevo dispositivo de seguridad digital, lo hacemos como si esos productos ocurrieran en el vacío. Como si, las empresas que los crean, comercializan y explotan, fueran ajenas a las tensiones sociales, a los retrocesos democráticos, a las luchas por la igualdad. Pero innovar en un mundo desigual sin atender a esa desigualdad es, en el mejor de los casos, una ingenuidad. Y en el peor, una forma de reforzar el statu quo.
La innovación nunca es únicamente técnica. Necesita una lectura ética, política y social. Necesita incorporar voces diversas, estar sujeta a escrutinio público, ser evaluada no solo por su rendimiento, sino por su impacto. Pongamos un caso muy evidente: los programas de reconocimiento facial dotados de cámaras y gestores con IA para analizar las imágenes. Es posible que funcione perfectamente, pero si reproduce la exclusión, no es una buena tecnología. Porque una herramienta eficiente que refuerza la vigilancia y el control, no es innovación: es regresión.
En este sentido, es urgente repensar las bases sobre las que construimos y creamos. Asumir que innovar es también cuestionar. Cuando trabajamos con y para la tecnología, como cuando lo hacemos para cualquier otra industria hemos de valorar que implicaciones tiene el uso y la creación de según que productos. La ciencia ficción está plagada de relatos en que supuestos visionarios hacen peligrar nuestra sociedad con nuevos avances que conllevan perdidas de libertades. Y la realidad parece que, últimamente, está empeñada en copiar a la ficción. Solo como ejemplo, Elon Musk, parece imitar a los supervillanos de cualquier película de James Bond. No se trata solo de crear nuevos productos se trata de hacerlo con más conciencia de sus efectos, con más justicia en su funcionamiento interno, en definitiva, con más humanidad.
Innovar como resistencia
Este panorama podría llevarnos a pensar que hay que huir de la tecnología. Hay quien ha tomado esa opción. Sin embargo, también podemos utilizar la innovación como una forma de resistencia. Porque innovar es sobre todo imaginar escenarios futuros. Si conseguimos imaginar futuros más justos y poner la creatividad y la tecnología al servicio del bien común, estaremos generando resistencia ante esos autoritarismos tecno-distópicos. Para hacerlo debemos salir de la lógica individualista del «emprendedor visionario», un esquema muy hetero-normativo, como el arquetipo de criptobro y apostar por enfoques colaborativos. Escuchar a las comunidades afectadas, Pensar en usuarios y no en consumidores. Diseñar desde lo local. Pensar desde lo común.
Es obvio que hay que reconocer que no todos los problemas tienen solución tecnológica. El tecno-optimismo que floreció en los años cincuenta del siglo pasado aún concibe esa idea de que la tecnología contiene todas las soluciones y no es así. Hay preguntas que no se resuelven con una app, sino con diálogo, regulación, redistribución y justicia social. La tecnología puede ser una herramienta poderosa, pero no sustituye la política, no reemplaza los derechos. Y sobre todo necesita regulación (para no transgredir los derechos básicos) y trazabilidad (para poder hacer un seguimiento).
Una nueva ética de la innovación
Ahora que ya sabemos que muchos de los gurús tecnológicos no trabajan para un futuro mejor, sino únicamente para generar escenarios que les sean beneficiosos, necesitamos construir una ética de la innovación. Una que se base en principios claros:
- Diversidad como punto de partida, no como adorno. Equipos plurales, voces no hegemónicas, experiencias históricamente marginadas en el centro del diseño.
- Transparencia en los procesos. Que los sistemas puedan ser entendidos, auditados, corregidos, trazables.
- Código abierto como paradigma. Trabajar desde la idea de la inteligencia colectiva a través de la abertura de las estructuras internas que hacen funcionar nuestras herramientas tecnológicas.
- Responsabilidad colectiva. La innovación no puede ser solo tarea de tecnólogos o empresas. Debe involucrar a la sociedad civil, a las instituciones públicas, a los movimientos sociales.
- Evaluación crítica del impacto. No solo mirar qué tan novedosa es una idea, sino qué consecuencias tiene a largo plazo.
- Compromiso con los derechos humanos. La tecnología debe expandir libertades, no restringirlas. Debe crear oportunidades, no cerrar caminos.
Hay que preguntarse qué mundo estamos ayudando a construir
Si crear es construir el futuro, dependiendo de hacia dónde innovemos estaremos construyendo un escenario u otro. Por supuesto la realidad es muy compleja y al mismo tiempo multicapa. Pero como dice la frase «toda piedra hace pared». Es decir, podemos innovar para crear herramientas emancipadoras o para reforzar sistemas opresivos. No es lo mismo crear una app para informar sobre el origen de los alimentos o los tejidos de nuestra ropa que una IA que potencia el consumismo a través de arquetipos estéticos. La innovación no puede limitarse a ser «disruptiva». Tiene que ser justa, consciente y transformadora. Tiene que preguntarse, cada vez, «¿a quién sirve esta tecnología?», «¿qué estructuras refuerza?». Necesitamos una innovación que cree espacios de inclusión y cuidado, que se atreva a imaginar futuros distintos.

