El primer bot tardó millones de años en aparecer, pero sus congéneres han tardado menos de un siglo en superar en número a sus creadores humanos. Te invitamos a un viaje por la historia reciente para descubrir sus humildes comienzos y el poder que ejercen hoy en día. Hay cientos de momentos en la cronología de los bots que merecen mención, pero hemos resaltado unos pocos en cada década para darte una idea de su evolución.
Cuando no existía internet, los bots residían en máquinas locales o intranets con el fin de automatizar tareas, como el filtrado de mensajes o la simulación de conversaciones muy básicas.
ELIZA salió a la luz a mediados de los años 60 y se convirtió en uno de los primeros chatbots destacados, al poder simular conversaciones con las primeras técnicas de procesamiento de lenguaje natural. El principal cometido de ELIZA no era entender ni aportar respuestas de gran valor, sino conversar con los usuarios siguiendo sencillas técnicas de coincidencia de patrones. Analizaba las entradas del usuario y las transformaba en consultas o mensajes adecuados según plantillas y patrones predefinidos. Acto seguido, ELIZA respondía con esos mismos mensajes al usuario, lo cual creaba la ilusión de una conversación.
USENET es un panel de discusión online que surgió a finales de los años 70. Muchos de sus servicios solo funcionaban por intervención humana, pero USENET desarrolló secuencias de comandos para automatizar tareas administrativas, como el bloqueo de mensajes o contenido no deseado, el mantenimiento y la gestión de grupos de discusión. USENET no usaba bots, pero de la automatización de tareas que llevaba a cabo surgieron casos de uso que son la base de los bots de nuestros días.
En ese momento no había bots maliciosos desplegados porque internet aún no existía, y nadie en su sano juicio iba a atacarse a sí mismo.
El 1 de enero de 1983 se lanzó internet, y tras esos pasos iniciales no tardaron en surgir los primeros bots.
En 1988 vieron la luz los bots de Internet Relay Chat (IRC), que automatizaban funciones varias dentro de los canales de IRC, como la gestión de las listas de usuarios, búsquedas y servicios como pronósticos meteorológicos o resultados deportivos.
Los bots maliciosos siguieron sin aparecer en esa época, pero ya hubo los primeros ejemplos de programas que causaron estragos en la web, como el gusano Morris (1988).
Al surgir la web 1.0, también se desarrollaron rastreadores web para indexar y atender el flujo continuo de contenido que se cargaba, así como la sofisticación progresiva de los nuevos chatbots que ya podían residir en internet. Por otro lado, las primeras botnets anunciaban el futuro turbulento de internet con bots maliciosos.
WebCrawler, lanzado en abril de 1994, fue uno de los primeros buscadores que utilizó bots para indexar no solo páginas web, sino también sus textos al completo. Esto, añadido a sus capacidades de búsqueda, hizo que ganase adeptos con gran rapidez. WebCrawler tuvo un papel destacado en los albores del desarrollo de la búsqueda web al sentar las bases de buscadores futuros: se servía de un bot rastreador para recopilar información de páginas web y crear un índice para consultas.
Por su parte, ALICE fue un chatbot popular que se publicó en 1995 y ya daba muestras de los avances en la simulación de conversaciones similares a las humanas. Dos décadas después de predecesores como ELIZA, ALICE (también llamado Alicebot o bot AIML, por «Artificial Intelligence Markup Language») cubría numerosos temas y posibilidades de conversación para simular interacciones humanas. Para ello, contaba con una extensa base de datos de patrones de AIML y sus correspondientes respuestas para encajar con las entradas de los usuarios, y daba respuestas siguiendo plantillas o declaraciones predefinidas. Las capacidades de ALICE quedaron reconocidas en 2000 y 2001, cuando ganó el premio Loebner, una competición anual de inteligencia de chatbots.
En 1996, Google introdujo su bot rastreador web, Googlebot, que cambió el rumbo de la indexación y las búsquedas web. Googlebot, en un principio llamado Backrub, recopila datos de páginas web, analiza el contenido y lo envía de vuelta a los servidores de Google, donde se procesa e indexa para que el algoritmo de búsqueda de Google optimice los resultados de búsqueda de los usuarios. Con el paso de los años, Googlebot ha evolucionado para lidiar con el desarrollo imparable de la web y la complejidad creciente de sus tecnologías: sigue políticas específicas y respeta tanto las normas web como las instrucciones de los propietarios web, expresadas por medio de mecanismos como los archivos robots.txt.
PrettyPark y Sub7, creadas en 1999, son de las primeras botnets conocidas. PrettyPark fue un gusano que se propagaba por archivos adjuntos de correos y robaba información del ordenador anfitrión, como nombres de usuarios de mensajería instantánea, contraseñas y números de teléfono. Por su parte, Sub7 es un troyano que sustraía información registrando las teclas pulsadas en los ordenadores infectados, además de recabar audio y vídeo si el anfitrión contaba con micrófono o hardware de grabación de vídeo.
Los chatbots hicieron su aparición en plena eclosión de la mensajería instantánea en la web y, al mismo tiempo, ciberdelincuentes de todas las edades empezaron a lanzar ataques de bots volumétricos a una escala nunca vista.
ActiveBuddy (más tarde adquirida por Microsoft) publicó en 2001 SmarterChild, un chatbot con IA para AOL Instant Messenger (AIM) que luego también se usó en otros productos de mensajería instantánea, como MSN Messenger y Yahoo Messenger. Los usuarios podían entablar conversaciones en tiempo real con el bot, hacerle preguntas, pedirle información e incluso jugar con él. El bot se servía de técnicas de procesamiento del lenguaje natural (NLP) para entender las entradas de los usuarios y generar las respuestas adecuadas.
En el año 2000, Mafiaboy, un hacker de 15 años, hizo caer los sitios de la CNN, Dell, E-Trade, eBay y Yahoo! (el buscador más popular por aquel entonces) tras lanzar ataques de DDoS desde una botnet compuesta por redes vulnerables de ordenadores de universidades. El FBI y la policía canadiense dieron con el joven pirata informático y lo acusaron de 66 delitos con unas pérdidas resultantes de 1100 millones de dólares.
Más tarde, en 2007, la botnet Storm se hizo con el protagonismo al integrar una de las redes de bots más grandes de la historia (unos 2 millones de ordenadores) que, según estimaciones, fue responsable de casi el 20 % de todo el contenido no deseado de internet en su momento de mayor actividad.
El desarrollo y la integración de las tecnologías de IA permitieron el desarrollo de bots conversacionales más sofisticados en redes sociales como Facebook (ahora Meta). En este contexto, llegaron al mercado herramientas de control de bots para poner freno a los ataques que recibían organizaciones desde botnets como Mirai y 3ve.
Siri, un chatbot conversacional con IA, fue introducido por Apple en 2011 y logró poner en el candelero a los asistentes virtuales activados por voz. Gracias al uso de técnicas de aprendizaje automático y procesamiento del lenguaje natural (NLP), Siri puede entender y responder a los usuarios cuando necesitan ayuda para obtener información, navegar, controlar dispositivos multimedia y mucho más.
Por su parte, en abril de 2016, Facebook (ahora Meta) abrió su plataforma Messenger a los desarrolladores para que pudieran crear chatbots y los integrasen en la experiencia de mensajería. Herramientas, recursos y API dieron pie a nuevas funcionalidades de los chatbots, como respuestas rápidas, menús persistentes, reseñas y la capacidad de gestionar pagos, entre otras. Así, la plataforma dio un paso agigantado para ampliar las capacidades de Messenger más allá de la simple comunicación interpersonal.
En 2012, la botnet Carna realizó lo que se conoce como el «censo de internet de 2012». Normalmente vemos a las botnets como agentes del mal. Sin embargo, en este caso, estamos ante una botnet maliciosa que hizo algo ilegal por el bien de la sociedad. Como si de tu antihéroe favorito se tratase, la botnet Carna quebrantó la ley para el bien común; concretamente, para aportar información al público sobre el estado general de internet. Al crearse la botnet, se detectó que había cientos de miles de enrutadores sin contar ni siquiera con seguridad básica y que, de 3400 millones de direcciones IP disponibles, tan solo 1300 millones parecían estar en uso en ese momento. Los datos que reveló la botnet Carna aumentaron la concienciación sobre la seguridad, mejoraron las prácticas en este ámbito y, seguramente, llevaron a revisar vulnerabilidades.
**Visualización del uso de IPv4 en 2012 de Carna, siguiendo el ciclo diurno-nocturno**
A finales de 2016, la botnet Mirai causó verdaderos estragos. Esta botnet, conocida como autora de algunos de los principales ataques de denegación de servicio distribuido (DDoS), lanzó ataques volumétricos de más de un terabyte por segundo para hacer caer potentes infraestructuras y proveedores de servicios de internet, como OVH y Dyn. Durante casi un día, empresas que dependían de sus servicios, como Reddit, Spotify y Github, estuvieron fuera de servicio mientras expertos de seguridad intentaban repeler los ataques.
Por otro lado, durante casi un lustro de la década, la botnet de clics fraudulentos 3ve imitó clics en sitios web de todo el mundo. Se calcula que los ciberdelincuentes ingresaron 30 millones de dólares entre 2013 y 2018, cuando el trabajo conjunto del FBI, Google, Amazon, ESET, Adobe y Malwarebytes desmanteló la botnet y llevó a la detención de ocho personas, a las que se acusó de 13 delitos.
Los bots nunca habían tenido una presencia tan importante. Los chatbots conversacionales se hicieron virales con el lanzamiento de GPT-3, y se han creado varias plataformas de bots de redes sociales para ayudar a los usuarios a desarrollar bots y generar una experiencia personalizada. Los ataques de bots maliciosos se producen a un ritmo nunca visto y todo parece indicar que no van a detenerse.
En 2020, OpenAI sacó a la luz GPT-3, que representaba un gran hito en los modelos de lenguaje de la IA conversacional por su capacidad de generar textos prácticamente humanos. Para mucha gente de fuera del ámbito tecnológico, la enorme viralidad que alcanzó daba legitimidad a las capacidades de los bots conversacionales. Además de poder responder preguntas como un humano, sabe lidiar con dilemas éticos en sus respuestas, entre otros logros.
Por su parte, Discord y Twitter han introducido plataformas de desarrollo de bots, los cuales pueden facilitar las interacciones automatizadas y mejorar la experiencia de uso en las respectivas plataformas. Los bots se han convertido en parte esencial de estas plataformas al ofrecer funcionalidades adicionales y permitir que los usuarios personalicen sus propias experiencias como deseen.
En junio de 2022, Google anunciaba que había mitigado el ataque de DDoS de mayor envergadura de la historia: los atacantes usaron más de 5000 IP de 132 países para lanzar ataques durante más de una hora. El ataque, que registró 46 millones de peticiones por segundo en su punto álgido, equivalió a «recibir todas las peticiones diarias de Wikipedia (uno de los diez sitios de más tráfico del mundo) en tan solo 10 segundos», según comentó el equipo de Google.
En los últimos 50 años, los bots han pasado de concepto a realidad para convertirse, en nuestros días, en un software optimizado. Sus avances tecnológicos han aportado beneficios a nuestras vidas, pero también están detrás de ciberamenazas muy peligrosas. El tiempo dirá qué dirección toman los bots, pero es de esperar que la inteligencia artificial y el aprendizaje automático den vía libre al lanzamiento de nuevas variantes. Si necesitas ayuda para lidiar con bots de cualquier década, cuenta con Fastly.