Oscar Martínez Martínez


No nos confundamos con el componente WebBot. Los componentes WebBot son aplicaciones que se instalan en el servidor Web, junto a las Extensiones de FrontPage, y que nos permiten recibir y hacer procesos primarios de datos. En nuestro caso, estamos hablando del Proyecto Web-Bot, una herramienta para ver las más insospechadas predicciones futuras. “La nueva arma del dominio de masas”

El proyecto Web Bot inició en los 90s como un sistema de predicción de fluctuaciones futuras en el mercado bursátil. El web bot no es sólo un programa. Según sus fundadores está hecho de 340 programas ejecutables, escritos en script PERL y C+. Uno de sus fundadores, George Ure, dice «Cada vez que alguien hace una inversión está haciendo una predicción del futuro». (El conjunto de esas predicciones individuales  generalmente acaba creando el futuro). «Es una ventana al inconsciente colectivo del planeta». Su programa genera informes denominados “Análisis de Tendencias a través de Lenguaje Asimétrico” (Asymmetric Language Trend Analysis).  Sus predicciones fueron tan acertadas que el ejército y Wall Street lo estaban buscando y algunas de las corporaciones más grandes le estaban consultando.

Según sus creadores:

“Nosotros empleamos una técnica basada en la lingüística radical para reducir extractos de lecturas de artículos dinámicos de Internet en una base de datos arquetípica. Con esa base de datos de lenguaje arquetípico, calculamos la tasa de cambio del lenguaje. Los pronósticos del futuro se originan de estos cálculos. Nuestros cálculos están basados en un sistema de asociaciones entre palabras y valores numéricos de las respuestas emocionales a esas palabras. Estos ‘indicadores de impacto emocional’ también son parte de nuestra propia creación. Estos están conectados a una base de datos de más de 300/300,000 palabras. Esta base de datos de palabras/frases y emociones conectadas, es nuestro léxico del cual el pronóstico del futuro se origina”.

El web bot  puede realizar predicciones con semanas – incluso con años – de antelación. Y en vez de ser una vaga advertencia de algo malo que sucede, el programa es muy específico y utiliza palabras y frases para definir lo que sucederá e incluso cómo afectará a la población. Primero tienen que imaginar que Internet es como una gran mente, calificada con millones y millones de diferentes pensamientos. Estos pensamientos son los verdaderos textos de los sitios web, blogs y conversaciones que se producen las 24 horas del día sin parar. El programa web bot caza la Internet en búsqueda de ciertas “palabras semillas” — sustantivos – y luego intenta evaluar las palabras emocionales utilizadas para describir estas “semillas”. Sobre todo busca jerga, ya que la jerga es un término que se origina de una experiencia personal y comúnmente es utilizada para agregar algún contenido emocional.

Utilicemos un ejemplo. Un adolescente puede llamar a su novia “nena” o “cariño” o incluso “mi rata”. Estas son palabras emocionalmente cargadas que están asociadas con una semilla: “novia”. Pero el programa también compara estas palabras con palabras previas utilizadas en el pasado, y busca cambios. Con el transcurso del tiempo, si uno se refiere a su novia como “mi cariño” y esto cambia a “mi doña” entonces hay un cambio notable y el programa tomará nota de esto en su informe. Por supuesto, el web bot no se fija en la visión de un hombre acerca de su pareja — toma muestras de tendencias que afectan a grandes secciones de la población mundial. Algo tiene que ser muy importante como para que el web bot tome nota. El web bot registra cada rincón. Los sitios web y blogs que hablan de cómo hacer pan o dan consejos de reparación de coches son mejores que los sitios web de conspiración o noticias debido a que los cambios sutiles en la lingüística son más representativos en la persona promedio. Ellos no están manipulados por la censura o por preocupaciones acerca de molestar a auspiciadores o de crear conmoción o entretención.

Web Bot funciona utilizando la “sabiduría de las masas” una teoría que dice que la información generada en grupos es con frecuencia más útil para tomar decisiones que la información generada por un solo individuo, esta teoría esta basada en un libro escrito por James Surowieckie. Web Bot rastrea en Internet no menos de 300,000 palabras clave conteniendo contexto emocional y registra las palabras que preceden y siguen a estas palabras clave, y de esta manera obtiene según sus creadores acceso al “subconsciente colectivo” de Jung.

El Web Bot funciona como las arañas, gracias a una tecnología llamada “sistema de araña” (Web crawling o bots de los motores de búsqueda que recorren el Internet indexando páginas), pero  se especializa en las páginas y foros donde el texto es dominante y se fija palabras claves, que se repiten significativamente. Una vez que encuentra estas palabras o algo léxicamente similar toma muestras de 2048 bits del texto alrededor. Los datos recavados son filtrados usando por lo menos 7 capas de procesamiento lingüístico en Prolog, luego son reducidos a números y una serie resultante de puntos distribuidos en una gráfica de Intellicad. Visto a lo largo del tiempo los puntos en la gráfica se concentran en ciertas áreas (cada punto equivale a una palabra clave).

No fue sino hasta el 2001 cuando este programa tuvo un cambio radical en su uso.  Fue en ese año cuando los operadores del Bot notaron que el programa no sólo predecía cuestiones relacionadas a la bolsa o al mercado bursátil, sino que además notaron que habían ciertas cosas que eran lanzadas por el programa, que coincidían en gran medida con hechos que ocurrían en el mundo. Una de las primeras predicciones de este programa ocurrió en junio del 2001, cuando el programa predijo que un gran evento ocurriría entre los próximos 60 y 90 días. Un evento que tendría tales proporciones que podría cambiar la historia del mundo.  Lo que los analistas dedujeron de esta advertencia fue que el programa estaba prediciendo el terrible atentado terrorista a las Torres Gemelas el 11 de septiembre de ese mismo año. A partir de aquel hecho los programadores comenzaron a prestarle más atención a esta capacidad del programa y fue así cuando comenzaron a predecir diversos eventos mundiales, entre fenómenos climatológicos y sociales tales como los desastres ocurridos por el Huracán Katrina y Rita y el tsunami de Sumatra en el 2004.

Goeorge Ure de urbansurvival.com dice que los mensajes que emite  Web Bot son similares  a los oráculos del I-Ching, el Libro de las Mutaciones, lo cual es interesante ya que Terence Mckenna descubrió a principio de los 70s que en el 2012 (originalmente la predicción de Mckenna apuntaba a noviembre, luego la ajustó al 21 de diciembre) el tiempo llegaría a una Singularidad de infinita complejidad, donde todo lo imaginable ocurriría instantáneamente. Mckenna llegó a su predicción con un modelo de tiempo fractal llamado Timewave Zero, el modelo está basado en  la secuencia King Wen del I-Ching y en los principios de novedad y concrescencia de Alfred North Whitehead. Según esta matematización fractal de estos principios, cada evento en el tiempo está interconectado y es un eco de otro evento. La interconexión y la generación de novedad llega a un máximo en el 2012, especie de agujero negro o tiempo cero, en el cual ya no es posible analizar lo que le sigue. Este sería un extraño atractor o punto Omega que inmanentiza la historia creando las olas o ecos de tiempo en la superficie que percibimos como la realidad presente. ¿Sería éste el punto en el que despertamos de la pesadilla? («History is the nightmare we are trying to awake from«, James Joyce).

Lo más interesante del Web Bot es que parece indicar que el futuro es creado por el pensamiento colectivo de la humanidad.  Sus mediciones del «web chatter»  son evidentes reflejos de la actividad mental, preocupación y proyección de nuestra civilización que, al parecer, acaba manifestándose en la realidad. El Global Consciousness Project de la Universidad de Princeton ha demostrado que la conciencia colectiva del planeta puede medirse y afecta la materia y posiblemente el resultado de acontecimientos futuros. El trabajo de Dan Radin (Time-reversed human experience: Experimental evidence and implications) parece demostrar que las personas somos capces de percibir físicamente  hasta 6 segundos en el futuro.

Estos son temas fascinantes, uno de los enigmas centrales de nuestra existencia actual.  Como dice la famosa frase: «La mejor forma de predecir el futuro es creándolo».  Posiblemente esto es lo que sucede. Como en la mecánica cuántica donde el acto de medir afecta el resultado de lo que se mide, de alguna forma la información generada por la conciencia afecta la matriz cúantica de la realidad y  retroalimenta la información genética del planeta y sus habitantes, una especie de diálogo creativo en el que el código que se manifiesta, como el A.D.N. que programa nuestro cuerpo,  determina el futuro. El texto o Logos, que formamos entre todos los habitantes de este Internet holográfico, es lo que crea al mundo.

Se puede descargar Web Bot? Web Bot es un programa celosamente guardado, y en cierto momento sus creadores lo han ofertado junto con todo el proyecto, ellos aducen que estaban perdiendo dinero debido a la piratería de sus reportes y predicciones y que sus gastos operativos ascienden a 20,000 dólares al mes, por lo que intuimos que si se vendiera su proyecto debería estar avaluado en cientos de miles de dólares o quizás millones.

Aquí  es donde entra en juego el gobierno norteamericano (llámese CIA, Pentágono, NSA, etc.); compran el programa, reclutan a sus programadores y se lanzan al desarrollo e implementación del arma actual mas eficaz en el dominio de las masas. Se crea la compañía Recorded Future, la cual  es financiada por Google y la CIA para analizar información y predecir el futuro con base en algoritmos de probabilidades y dedicada al monitoreo exhaustivo de miles de sitios, blogs, y cuentas de Messenger, Twitter, Facebook, etc., para definir redes de relaciones entre personas, organizaciones, acciones, e incidentes, tanto que están ocurriendo como podrían ocurrir en un futuro cercano.

La compañía, creada con fondos aliados de la mayor compañía de Internet, Google, y la más poderosa agencia de inteligencia en el mundo, la CIA, se define a sí misma como algo “que va más allá de la búsqueda al rastrear enlaces invisibles creados entre documentos que hablan de los mismos, o relacionados, eventos y entidades”. Lo alarmante de este caso son básicamente dos aspectos. El primero es que bajo pretexto de buscar predecir eventos futuros de acuerdo a algoritmos que enlazan bits de información personal y editorial que fluye en la red, tanto el buscador de Mountain View como la CIA están aprovechando la información que a fin de cuentas nos define como personas, organizaciones, sociedades e incluso como bloques culturales, para alimentar agendas inciertas. Seguramente sus argumentos rondarán los discursos tradicionales propios de estas dos entidades, por un lado el mejorar el acceso a la información, en el caso de Google, y por otro en prevenir ataques terroristas o contrarrestar la inteligencia del crimen organizado, diría la CIA.

De acuerdo a lo anterior no es difícil entender por que los brazos de organizaciones dedicados a financiar proyectos piloto a manera de venture capital, como Google Venture, han fijado sus ojos y su dinero en esta empresa. Sin embargo no es esta la primera vez que Google establece alianzas con agencias de espionajes o inteligencia. Anteriormente la empresa californiana había ya vendido equipo de rastreo y localización al órgano que engloba todas las agrupaciones de este rubro en Estados Unidos, la National Security Agency, tecnologías que fueron vendidas en 2004 y que eventualmente servirían para fundar el servicio de Google Earth.

Pero esto no es todo, a partir de Web Bot , el Pentágono está trabajando en programas de ordenador capaces de modelar las situaciones corrientes de la vida y de predecir por tanto “el futuro plausible”, en el marco del polémico programa de defensa avanzado conocido como TIA (Total Information Awareness). Dentro de este programa se destaca el proyecto Genoa II, el Genoa II, como se denomina a este proyecto de ordenador que recuerda a Tom Cruise en Memority Report, está integrado en este programa de defensa avanzado que pretende implantar tecnologías que controlen los flujos de información que se producen cada segundo en el mundo con la finalidad de combatir eventuales ataques terroristas. Tal como se explica en Computerworld, los ordenadores que sirven de soporte a esta tecnología se basan en algoritmos inspirados en la biología, de un lado, así como en la estadística bayesiana y en la teoría de Shannon.  Eso quiere decir que los algoritmos, que son modos de resolución de problemas aplicables tanto a la actividad intelectual como a las actividades cotidianas, se han construido en estos ordenadores siguiendo las leyes de la vida, imitando los procesos biológicos. Combinación de ideas: Son algoritmos genéticos inspirados en la evolución y capaces por tanto de resolver problemas de la misma forma que lo hace el cuerpo humano, lo que permite por ejemplo idear un sistema de seguridad que reproduce el sofisticado sistema inmunológico de nuestra especie. Combinando estos algoritmos genéticos con la estadística bayesiana, que pretende generar las explicaciones o configuraciones más probables para una evidencia observada, y con la Teoría de Claude Shannon, según la cual la información puede ser tratada como una cantidad física mensurable aunque exista un grado de incertidumbre respecto a que un mensaje pueda llegar completo a su destino, es posible alumbrar un ordenador de nueva generación como el que pretende Genoa II.  Con estos soportes, resulta posible por ejemplo construir un ordenador que separe los elementos esenciales de una información de todo un conjunto de datos, de la misma forma que nuestro cerebro es capaz de concentrarse en un instrumento mientras escucha un concierto sinfónico. De esta forma ya ha sido posible producir algoritmos que permiten a los ordenadores discriminar, escoger cosas utilizando criterios y gustos humanos e incluso aprender.

Pero Genoa II va más allá porque esta tecnología se propone producir un algoritmo que es capaz de identificar un modelo, observar su funcionamiento y de establecer sus relaciones asociativas para detectar anomalías peligrosas.  
Conseguido esto, también es posible modelar el comportamiento de las personas en un aeropuerto, detectar un comportamiento sospechoso como el abandono de un bolso en un asiento y alertar a la seguridad instantáneamente, lo que anticipa el posible daño de un atentado y permite desactivarlo antes de que ocurra.  Todo el supuesto se basa en las probabilidades matemáticas y en la posibilidad teórica de que la incertidumbre que existe sobre los hechos cotidianos puede ser modelada si se combina el sentido común con las observaciones del mundo real. El Genoa II pretende así conseguir que los ordenadores emulen aún más profundamente al cerebro humano y que aprendan a reducir la complejidad de la vida cotidiana, con la finalidad de utilizar esta tecnología como instrumento inmunológico de la civilización.  

Proyecto Darpa: El Genoa II es uno de los programas de la Defense Advanced Research Projects Agency (DARPA, dotada con 200 millones de dólares por el Pentágono. El Genoa II está integrado dentro del sistema Information Awareness Office (IAO) que, junto al Information Exploitation Office (IEO), estructuran Darpa. Mientras la IEO se encarga de determinar los posibles objetivos de las fuerzas armadas y de desarrollar armas y municiones inteligentes que puedan destruirlos, la IAO es un organismo de investigación destinado a descubrir mediante soportes informáticos avanzados potenciales comportamientos terroristas.

Genoa II es uno de los programas de la IAO, junto al Génesis (que se encarga de compatibilizar todas las informaciones recogidas de diferentes bases de datos de todo el mundo) y Tides, que tiene el cometido de traducir automáticamente al inglés todas las lenguas en las que figuren los documentos recogidos.  

El objetivo final del TIA es hacer converger todos los bancos de datos del planeta en uno solo, convertido así en un gigantesco archivo electrónico capaz de guardar las reservas de pasajes aéreos, los talones de la caja del supermercado, las llamadas telefónicas realizadas por teléfonos móviles o fijos, los artículos de los diarios, los itinerarios en las autopistas, las recetas médicas, todas las transacciones privadas o de trabajo, etc. Prevenir comportamientos terroristas con los modelos que puedan fabricarse con toda esta información es la vocación de Genoa II, que permitirá a los técnicos y computadoras «pensar juntos» durante las investigaciones como hasta ahora nunca se ha conseguido. Y por supuesto el dominio de las masas.

 

oscarmartinez63@hotmail.com