Motores de búsqueda, agentes personales e inteligencia artificial: la nueva frontera descentralizada de la información

Actualidad17/09/2025
AI-search-engines-Dall·E

Desde hace algún tiempo, varios informes, artículos y estudios vienen confirmando lo que ya intuíamos: estamos entrando en una fase en la que la inteligencia artificial ya no solo puede mejorar los motores de búsqueda existentes, sino que posibilita nuevas arquitecturas, modelos de gobernanza y experiencias radicalmente distintas.

Integrar estos desarrollos recientes aporta matices que fortalecen el análisis de ejemplos de motores de búsqueda «artesanales» o «pequeños» como Searcha Page, Seek Ninja (esos dos «viven» aún en el cuarto de la lavadora de su autor) o Marginalia, y nos permiten ver mejor hacia dónde se dirige la búsqueda web. En los orígenes de la web, montar un motor de búsqueda era un esfuerzo enorme: requería infraestructura (muchos servidores), algoritmos de ranking sofisticados, equipos para rastrear constantemente la web y, sobre todo, una capacidad de indexar y organizar datos a escala. Hoy, gracias al avance de la inteligencia artificial y al abaratamiento de recursos computacionales e información abierta, vemos ejemplos reales de cómo estas barreras se desvanecen.

Searcha Page y Seek Ninja son iniciativas de Ryan Pearce, quien ha montado estos motores literalmente desde su cuarto de lavandería. No solo alberga los servidores («hardware reciclado», con CPUs potentes pero asequibles, ventilación casera, etc.), sino que usa la inteligencia artificial como herramienta clave para hacer viable lo que hace sólo unos años habría sido imposible para alguien sin cientos de millones de dólares: expansión de palabras clave, entender contextos de búsqueda, generar resúmenes de páginas, ayudar con la relevancia de resultados, etc. Pearce combina técnicas tradicionales de motores de búsqueda (crawler, índice, ranking estilo clásico) con componentes de IA que enriquecen la experiencia.

Uno de los informes más relevantes es el Tow Center Report 2025 sobre herramientas de búsqueda impulsadas por inteligencia artificial, de la Columbia Journalism School, que muestra cómo casi uno de cada cuatro estadounidenses ya utiliza herramientas de búsqueda generativa en lugar de motores de búsqueda tradicionales, con implicaciones muy fuertes para el tráfico web, los medios de comunicación y la autoridad informativa.

En el ámbito de la investigación académica, un estudio reciente titulado «AI-SearchPlanner: Modular Agentic Search via Pareto-Optimal Multi-Objective Reinforcement Learning« propone separar la parte de planificación de búsqueda (qué fuentes consultar, en qué orden, etc.) de la generación de respuestas, de modo de optimizar tanto utilidad como coste. Esa arquitectura se alinea muy bien con lo que hacen esos proyectos independientes como Searcha Page o Seek Ninja: quien opera un motor pequeño tiene que optimizar no solo la precisión, sino también los costes operativos, la latencia y la relevancia.

Otro trabajo, «SwarmSearch: decentralized search engine with self-funding economy«, plantea la idea de motores de búsqueda descentralizados con un modelo económico auto-sostenible, apoyados en inteligencia artificial para llevar a cabo el ranking y la recuperación, y operados de manera distribuida. Aunque aún en fase temprana, muestra un camino para escapar de la dependencia de infraestructuras centralizadas gigantes.

A esto se suma «NExT-Search: Rebuilding User Feedback Ecosystem for Generative AI Search«, que aborda un problema crítico de los motores generativos que ya comenté en su momento: la pérdida del bucle de retroalimentación fino. Cuando el usuario solo ve una respuesta final, se pierde la posibilidad de mejorar cada parte del sistema, lo que limita la calidad de la personalización. Básicamente, el algoritmo pasa a «pensar por ti», con todo lo que ello potencialmente conlleva.

Mientras tanto, los grandes actores se van moviendo en paralelo. Google ha presentado Deep Research dentro de Gemini, un sistema que permite delegar búsquedas complejas y recibir informes sintetizados con enlaces, e incluso exportarlos a documentos. Y en su evento I/O de este año, la compañía introdujo el «AI Mode» en Search, donde un agente recorre páginas web, resume, filtra según preferencias y ayuda en tareas como compras, confirmando que los grandes también evolucionan hacia lógicas agénticas personalizadas.

Por otro lado, proyectos como Marginalia continúan reforzando su propuesta de indexar contenidos menos visibles y no comerciales, expandiendo su índice, ajustando algoritmos y aplicando PageRank a nichos de la web que tienden a quedar invisibilizados. Algún medio especializado la ha destacado como una alternativa real para escapar del dominio comercial de los grandes buscadores, lógicamente con sus limitaciones.

Esta convergencia entre proyectos independientes, investigación académica y grandes plataformas comerciales dibuja un futuro claro: la personalización, los agentes que el usuario puede ir afinando y la diversidad de modelos ya no son una opción, sino un destino que parece inevitable. No bastará con buscar: el futuro consistirá en pedirle a un agente que busque por nosotros, filtrando lo que no queremos, resumiendo lo que sí, usando únicamente fuentes en las que confiamos. Y por supuesto, manteniendo el control y la vigilancia para evitar una editorialización creciente o la construcción de una cámara de eco excesivamente marcada. ¿Para todo el mundo? Obviamente, no. La gran mayoría de los usuarios seguirán creyendo que la barra de Google es el navegador, y sin plantearse nada más allá que «si lo dice Google, es la verdad», y todo eso de la personalización les sonará rarísimo y completamente innecesario.

Los retos, por supuesto, son considerables: sesgos de los modelos, transparencia en lo que generan, posibles derivaciones de los derechos de autor en los resúmenes de inteligencia artificial, fiabilidad de la información, actualización de los índices, y el riesgo de que lo comercial vuelva a infiltrarse y a arruinar estos espacios. Existe también el desafío de la interoperabilidad: si cada usuario dispone de su propio agente, ¿cómo compartimos y verificamos colectivamente lo que aparece en sus resultados?

En definitiva, Searcha Page, Seek Ninja, Marginalia y otros ya no pueden considerarse curiosidades tecnológicas, sino piezas visibles de una transformación mucho más profunda. La inteligencia artificial está derribando los muros que antes hacían inaccesible la construcción de motores de búsqueda, y con ello abre la posibilidad de una búsqueda más descentralizada, diversa y personal. Cuando cada persona pueda disponer de un agente ajustado a sus valores, privacidad y fuentes de confianza, la búsqueda dejará de ser uniforme para convertirse en un instrumento personalísimo, tan único como cada usuario.

Nota:https://www.enriquedans.com/

Te puede interesar
Lo más visto

Suscríbete al newsletter para recibir periódicamente las novedades en tu email