El Hecho Científico y la Computación: e-Science como agente de transformación en lo científico y lo social 1

Ing. Santiago Nuñez Corrales 2

Abstract

Scientific discovery is a complex process in the contemporary world as proposed by Karl Popper in his general notion of science. The appearance of Information and Communication Technology for the general public, as well as of its advanced versions in the realm of research, has modified the traditional dynamics in the genesis of scientific facts, accelerating it and forcing a close and heterogeneous disciplinary integration. This article discusses the nature of the scientific fact on the light of the concept of e-Science or Computational Science: the application of the most advanced technologies at disposal of academia and industry to the resolution of the most relevant problems in Society. The development process of the e-Science research program at the Costa Rica Institute of Technology is described in detail as well as perspectives of its pertinence to institutional and national research scientists.

Resumen

El descubrimiento científico es un proceso complejo en la contemporaneidad, tal como lo propone Karl Popper en una noción general de la ciencia. El advenimiento de las Tecnologías de la Información y Comunicación para el público general, así como sus versiones avanzadas para el ámbito de la investigación han modificado la dinámica tradicional de la gestación de los hechos científicos, acelerándolos y forzando a una integración disciplinaria cercana y heterogénea. Este artículo discute la naturaleza del hecho científico a la luz del concepto de e-Science o Ciencia Computacional: la aplicación de las tecnologías más avanzadas a disposición de la academia y la industria para la resolución de los problemas más relevantes para la Sociedad. Se describe en detalle el proceso de desarrollo del programa de investigación e-Science en el Instituto Tecnológico de Costa Rica y las perspectivas de impacto sobre la pertinencia del trabajo de los investigadores institucionales y nacionales.

 

Introducción

El hecho científico es el objeto del quehacer de la Ciencia. El proceso de descubrimiento, análisis y verificación se ha fundamentado en la interrelación entre lo teórico y lo experimental: la realidad se contrasta contra las mejores explicaciones disponibles para los datos que se observan, datos producidos a su vez por artefactos tecnológicos producto de descubrimientos anteriores. Como proceso, la dinámica científica presenta dos momentos complementarios y recurrentes a lo largo de la historia: uno de homeostasis (presión por mantener un estado estable) y uno de transistasis (presión por cambiar de estado ante nuevas condiciones). La distancia relativa entre ambos eventos, si bien no puede delimitarse con claridad absoluta, es lo que define la rapidez en el avance del conocimiento humano.

Históricamente, dos factores han sido limitantes a la rapidez con que ocurre el descubrimiento científico. El primero es de origen antrópico, enraizado en las limitaciones humanas de llevar a cabo los cálculos que permitan determinar el resultado predicho por una teoría. El segundo es de comunicación: la socialización del descubrimiento científico previo a la Internet y las tecnologías digitales dependía de medios analógicos y de canales de distribución lentos. La tecnología ha cambiado el panorama contemporáneo en ambos aspectos, pues tanto la capacidad de efectuar un alto número de operaciones aritméticas por unidad de tiempo y la velocidad de las comunicaciones electrónicas se han encargado de disminuir el tiempo necesario para diseminar y obtener resultados concluyentes.

Un importante reto de la brecha digital es brindar a la comunidad académica las herramientas que le permitan subsanar las limitaciones materiales en los países en vías de desarrollo (Warschauer, 2003). Si bien la necesidad suele ser madre de la invención, también lo es frecuentemente de la desigualdad. Como país, Costa Rica se encuentra en un punto medio de capacidades y recursos, uno que debe superar si desea mantener un equilibrio social y económico. Las barreras económicas a su vez se convierten en barreras de entrada para que investigadores en países en vías de desarrollo contribuyan sustantivamente al desarrollo científico y tecnológico. La retroalimentación en el sistema también se filtra en el proceso educativo, uno que dista más y más de la realidad que los educandos deberán enfrentar, en especial en la educación superior. Sin una formación integral de profesionales y acceso a oportunidades que produzcan inspiración y sentido de propósito –los dos productos más importantes de largo plazo del aprendizaje- la innovación no es factible.

El argumento central de este artículo es que las tecnologías digitales permiten recontextualizar el hecho científico como uno de carácter computacional, habilitando a los investigadores por medio de nuevas herramientas y nuevos usos de las existentes a ser competitivos internacionalmente en sus actividades. En el Instituto Tecnológico de Costa Rica (TEC), el programa de investigación e-Science es una propuesta institucional de mejoramiento de las capacidades de investigación por medio de la  aplicación de simulación, supercómputo, redes avanzadas y visualización. A sus 40 años de existencia, es imperativo definir rumbos claros de investigación que con un enfoque tanto científico como tecnológico permita a la institución un crecimiento sustantivo en su impacto social, local y globalmente.

Este artículo intenta recopilar el contexto científico, histórico y tecnológico detrás del uso de la computación como vehículo de descubrimiento. Se hace un análisis del hecho científico como un hecho computacional y sus implicaciones desde teoría de la computación. Posteriormente se hace una visita al concepto de simulación y modelado como formas de representación del mundo. Luego, se describe la relación entre la aleatoriedad de los procesos involucrados en los hechos científicos y su repercusión en la computabilidad de las teorías científicas. El supercómputo, las redes avanzadas y la visualización científica se describen y proponen como los nuevos catalizadores del proceso de aceleración de la Ciencia. Se describen los esfuerzos institucionales del programa de investigación e-Science desde la perspectiva tanto institucional como histórica, debido a que el desarrollo de la Ciencia es sin lugar a dudas un proceso eminentemente humano. La sección de conclusiones y agradecimientos converge en los siguientes pasos en esta iniciativa.

 

Los hechos científicos como hechos computacionales

Al hablar de lo computable, deben examinarse de manera fenomenológica las dos vertientes que conforman su origen, sus dos tradiciones tecnológico-científicas (Ifrah, 2002). Una parte de la historia la conforma el origen de la automatización de procesos desde Jaquard hasta Babbage, donde el cómputo se consideraba de forma general como una transformación de un estado físico en otro mediante mecanismos de diversa índole, con una expresión directa en los artefactos tecnológicos (e.g. tela, manómetros, etc.). Era fundamentalmente mecánico, limitado por la complejidad física (limitaciones impuestas por leyes físicas relacionadas a materia y energía) y la capacidad de distinguir con una medida del error los valores finales obtenidas en la transformación. Otra alternativa distinta -pero bajo el mismo esquema transformacional- lo fue el cómputo analógico: un sistema físico que, sujeto a una operación (frecuentemente) unitaria, es capaz de aproximar una función con un grado conocido de error estadístico.

Esta línea de trabajo fue de corte netamente ingenieril: aparatos de dificultad incremental de integración de sus partes y alta falibilidad, uso de sistemas numéricos decimales, un fuerte enraizamiento en la implementación directa de métodos numéricos. Si bien es cierto que una parte significativa de los sistemas electrónicos de potencia y procesamiento analógico le deben su origen, esta versión del cómputo no fue eficiente en su momento histórico en términos de construcción: la implementación de sistemas de cómputo era un arte oscuro, desprovisto de una teoría de lo computable que fácilmente proveyera eficiencia, escalabilidad y tolerancia a errores.

Paralelamente al desarrollo de artefactos de cómputo mecánico-analógicos de propósito específico, otra comunidad distinta inició su proceso de automatización en la línea que conforma la segunda vertiente histórica. El siglo diecinueve vio el nacimiento y fortalecimiento de una rama nueva de la matemática, una que más que buscar aplicación directa de axiomas y teoremas busca establecer su veracidad o falsedad a partir de un conjunto de principios y reglas mínimo, semejante a la reducción pre-socrática de Leucipo y Demócrito al átomo (Taylor, 2010): la meta-matemática busca construir, a partir de fundamentos simples y elegantes, todo el edificio de la matemática de manera consistente y sólida. Estos fundamentos son conocidos como axiomas y reglas de inferencia. Los únicos valores significativos en este mundo meta-matemático son los de verdadero y falso: un teorema, que es una expresión que describe un hecho en un universo posible, es sometida a validación para determinar su veracidad o falsedad (Tarski, 1983).

El interés en el desarrollo de la meta-matemática y en la construcción de lógicas adquirió importancia bajo la suposición de que la matemática, para cumplir con los criterios de ser auto-contenida y por tanto elegante -un criterio estético- debía justificarse a sí misma. George Boole en su obra An Investigation of the Laws of Though (Boole, 2010) definió de manera clara y sucinta un álgebra capaz de reducir a un procedimiento mecánico gran parte de los procesos de demostración de teoremas. El problema número 10 dentro de los 23 problemas de Hilbert constituye el pináculo de las intenciones detrás de un ambicioso programa: el tratar de construir la matemática a partir de un sistema deductivo autoconsistente y sólido. Gödel (Gödel, 1931), y posteriormente Church (Church, 1936) y Turing (Turing, 1936), se encargaron de destruir las esperanzas de determinar si todas las proposiciones acerca de un sistema formal son decidibles con sus trabajos, indudablemente lapidarios.

De éste periodo turbulento, la computabilidad tuvo su nacimiento para la comunidad matemática como una rama especializada: lo calculable es equivalente a lo expresable y demostrable en un sistema formal, o la pertenencia de un par ordenado representado como una cadena de símbolos en un lenguaje formal. Así, la tesis central de la computación es la tesis Church-Turing: todo lo recursivo-computable (i.e. calculable bajo una lógica sujeta a automatización de manera discreta utilizando funciones recursivas) puede ser resuelto por una Máquina Universal de Turing (MUT); de forma complementaria, todo lo calculable por una MUT se considera recursivo-computable (Davis, 1994). La conveniencia del formalismo de Turing radicó desde el punto de vista tecnológico en ser puramente constructiva: una máquina de operación discreta cuyas partes son sencillas y representables mediante sistemas físicos variados en la forma de circuitos digitales. A ésto se le debe la extensiva apropiación del concepto en las formas modernas del cómputo.

Como uno de los efectos poco visibles hasta la contemporaneidad, la formalización del cómputo como un proceso lógico en vez de uno mecánico invisibilizó su carácter netamente físico como se explicará más abajo. El desarrollo de hardware ha demostrado una serie de dificultades provenientes de la relación del cómputo con la materia y la energía. Para efectuar cómputo, se requiere de un sistema físico que efectúe transformaciones así como de energía para el establecimiento inicial de los estados que, bajo un etiquetado conveniente, son manipulados para obtener información. Los estudios de Shannon acerca de la entropía (Shannon, 1951), así como la formalización de la información como un fenómeno perteneciente al dominio de la física cuántica (von Neumann, 1955), llevaron a considerar la información como una propiedad de la Naturaleza. Más aún, Rolf Landauer en 1961 encontró que el borrar información es un proceso irreversible, por tanto, disipado en forma de calor (Landauer, 1961).

Si la información es entonces un fenómeno de la realidad física, ¿cuál realidad física? Una interpretación netamente newtoniana es incompatible con la naturaleza de la MUT debido a la contradicción entre la continuidad inherente de la materia, la energía, el tiempo y el espacio de dicha interpretación y el carácter discreto de una computadora. Esto implica inmediatamente que, bajo esta representación del mundo, suponer que lo efectivamente computable (lógica) es equivalente a lo universalmente computable (física) es erróneo. Si la Naturaleza fuese efectivamente continua, las computadoras modernas estarían imposibilitados de manera permanente de dar más que una aproximación dependiente del grado de avance tecnológico del momento; más aún, las teorías científicas estarían sujetas a los abismos de lo infinito y del retorno sin fin. La habilidad de calcular resultados de predicciones y contrastarlos contra la realidad física constituye un hecho científico per se.

El siglo XX, además del revuelo en la comunidad matemática, trajo consigo una redefinición de la física a través del desarrollo de la mecánica cuántica. Sucintamente, la naturaleza no aparenta ser continua en sus escalas más fundamentales, sino discreta. A pesar de lo contraintuitivo de las interpretaciones que surgen de las descripciones cuánticas de la realidad, David Deutsch en 1985 (Deutsch, 1985) hizo una afirmación que revivió de una forma inesperada afirmaciones de Richard Feynman efectuadas en 1969 y 1980 (Feynman-Hay, 2000) la evolución de un sistema físico puede abstraerse como un cambio en la superposición de estados de un sistema descrito mediante una transformación unitaria donde, si se abstrae el tiempo, tiene un paralelo notable con la operación de una máquina de Turing no determinista probabilística, únicamente que en vez de probabilidades se tiene amplitudes de onda complejas. Así, un sistema cuántico es capaz de efectuar cómputos y los observables del sistema pueden hacerse corresponder a etiquetas convenientes 3. Esta es la base moderna de la computación cuántica.

Hay una ventaja inmediata con respecto a la visión newtoniana. Un universo cuyos elementos constituyentes son discretos es calculable de forma exacta independiente de la cantidad de objetos y la complejidad de las relaciones entre ellos; la tratabilidad del problema no es la preocupación central en este caso. La tesis fuerte Church-Turing –llamada de esta forma al extender la noción de aquello lógicamente computable a lo que las leyes de la física permiten calcular mediante un artefacto en este universo- tiene cabida en el seno de la física cuántica, aun cuando ésta sea dependiente de las probabilidades de sus observables durante el proceso de medición. Lo efectivamente computable se convierte en universalmente computable, redefiniendo además una cota superior a la cantidad de información adquirible del mismo que depende tanto de la interacción entre el sistema de interés y otros sistemas, como de la distribución de probabilidad. Existe una alta probabilidad de que a las escalas más pequeñas de la Naturaleza, inferiores a la escala de Planck, el espacio-tiempo sea cuantizado (Greene, 2000).

A partir de lo anterior, el cómputo es fundamentalmente un hecho científico de carácter físico. Otra conclusión aún más sorprendente acecha tras la esquina. Si todo sistema físico efectúa cómputo, y todo hecho científico referente a la naturaleza puede reducirse de alguna forma a la Física, entonces para cada proceso físico existe un programa computacional. Todo programa computacional es una descripción de un cómputo. Todo hecho científico acerca de la realidad física es a su vez un hecho computacional.

 

La simulación como representación del mundo

La existencia de diferentes disciplinas científicas evidencia la necesidad de crear ontologías de los objetos para hacer la realidad cognoscible. Cuando dos disciplinas convergen en un punto que cambia transcendentalmente la comprensión de la realidad, ésta se simplifica y permite formular cuestionamientos más profundos. Cada ontología a su vez genera un conjunto de modelos que permiten clasificar y generar conocimiento por medio de reglas y procesos de decisión (Pearl, 2009). ¡Cómputo otra vez! Un modelo es una representación que contiene información suficiente para decidir sobre categorías de objetos, o de sus estados pasados, presentes o futuros. Todo modelo es una aproximación del comportamiento de variables medibles que exhibe un fenómeno particular, y por tanto, es distinto de él (Bender, 2000; Conee-Sider, 2007).

Un hecho salta a la vista inmediatamente. Si los modelos deben aproximar el comportamiento de variables, éstos deben describir reglas de transformación que sean efectivamente calculables. Por tanto, los modelos son especificaciones matemáticas, formalismos cuantitativos y no cualitativos. Como aproximaciones también, están sujetos a comparación con datos experimentales y entonces a métricas de error. Los modelos asimismo pueden variar en la calidad de la aproximación. Un modelo de un fenómeno natural de interés es mejor que (o más refinado que) otro si es capaz de minimizar el error relativo entre resultados calculados y mediciones experimentales. Ambos aspectos, el de aproximación y el transformacional corresponden al mecanismo de evolución de la Ciencia: una dinámica de construcción de representaciones de precisión creciente cuyo objetivo es hacer el mundo comprensible.

Los modelos suponen condiciones iniciales para generar resultados, así como condiciones de frontera. Representar toda la realidad es impráctico, por lo tanto una demarcación correcta del problema de interés es esencial. Las condiciones iniciales y las condiciones de frontera son la delimitación del trozo del mundo del cual es de interés conocer su dinámica. Para ello, cada una de las fórmulas (i.e. reglas) que indican la transición de un estado hacia otro a través del tiempo deben seguirse de forma exacta, de acuerdo a la especificación rigurosa obtenida por el proceso de abstracción a partir de los hechos. El proceso de calcular resultados de un modelo se conoce como simulación, y puede verse como el espacio de valores que toma cada variable, generado a partir de las condiciones iniciales y de frontera a lo largo del tiempo. Al ser una aproximación, existirán casos en donde los resultados de una simulación son matemáticamente correctos, pero la divergencia entre estos y la naturaleza es tan abismal que deben considerarse como extraños, y sin valor para el descubrimiento científico.

Si la labor de la ciencia es obtener una comprensión lo más completa posible de la realidad, ¿por qué sacrificar precisión (es decir, aproximar) si la mecánica cuántica garantiza que es posible tener simulaciones fidedignas, al menos en lo referente a lo discreto? La respuesta es material: representar de manera exacta el comportamiento de la realidad requiere un sistema físico al menos tan complejo como el original, y más extenso aun considerando que adicionalmente debe almacenarse el conocimiento (información con estructura y un contexto de interpretación) acerca de este (Shasha-Lazere, 2010). ¿Puede deducirse de lo anterior que cualquier sistema arbitrario no es por tanto representable en términos de reglas y condiciones iniciales más simples que una enumeración de todos sus elementos? Ciertamente para muchas configuraciones de un sistema físico, la complejidad de su descripción aparente es mucho mayor que la complejidad de las reglas que lo pueden generar; esto implica que su representación puede ser sujeta a expresarse por medio de reglas de manera más compacta. Nótese sin embargo que se está efectuando un intercambio de espacio por tiempo: en vez de que las posiciones de todos los elementos constituyentes sean una descripción enumerativa (por extensión), su descripción generativa (por comprensión) requiere tiempo para calcular de manera procedimental (i.e. algorítmica) cada una de las posiciones originales. El mismo argumento puede aplicarse exitosamente para el caso de las transformaciones entre estados: por extensión o comprensión, la representación en reglas de menor complejidad que una enumeración total del sistema físico es posible. Hay un vacío en el argumento que se debe atacar.

¿Qué limita entonces a los modelos en su capacidad para describir el mundo? Tres factores son responsables de diluir el conocimiento más preciso acerca de la Naturaleza. Primero, en general para todo sistema físico se desconoce el conjunto de condiciones iniciales de manera exacta. Aun cuando se tome un singular cuidado en garantizar que las condiciones previas a un experimento son controladas, es imposible aislar un segundo factor: las simplificaciones de los modelos relacionadas a la demarcación de interés del problema producirán errores al tomar en cuenta las interacciones entre lo que se dará en llamar el sistema y lo que se considerará como su ambiente. La complejidad de las relaciones sistema-ambiente suele ser alta debido a que precisamente la Naturaleza no presenta una estructura modular per se: toda traza de modularidad es un artefacto de la necesidad de representación humana. Aun construyendo un gedanken-experiment 4 en donde la relación sistema-ambiente pueda modelarse sin ambigüedades ni errores, las variaciones aleatorias producto de los diferentes efectos de escala garantizan que existirá un sesgo aleatorio inevitable. La aleatoriedad es el origen de la irreductibilidad de una representación de un sistema a reglas compactas (Chaitin, 2006).

Desde el punto de vista de la ciencia, existen cuatro propósitos para desarrollar modelos de simulación: predicción de comportamientos futuros, reconstrucción de eventos pasados, selección entre teorías candidatas y análisis de fenómenos (Sokolowski-Banks, 2009). El enfoque popperiano

de la ciencia moderna requiere los cuatro componentes para garantizar un proceso semejante a la evolución por selección natural: teorías incapaces de tomar cada uno de los roles anteriormente mencionados a lo largo de su gestación, desarrollo y transformación no son candidatas exitosas para explicar la realidad (Popper, 1934).

Es de interés simular un comportamiento futuro cuando existe una validación experimental de un modelo para preparación hacia un acontecimiento significativo. Un caso particular es la predicción de desastres naturales, en donde, una vez que se comprenden las limitaciones de los modelos y sus simulaciones y se ha calibrado el modelo con datos que representan condiciones realistas, los resultados pueden utilizarse para cuantificar amenaza y riesgo (Barrantes et al., 2007). Otra aplicación directa es en economía y predicción de comportamiento de mercados, uno en donde la simulación es un componente central de la predicción en transacciones cuyos periodos de interés van desde días hasta microsegundos (Hellström-Holmström, 1998).

La reconstrucción de eventos pasados también es un propósito de interés en modelos de simulación. Un ejemplo claro lo constituye el reto de cambio climático en la contemporaneidad, en el cual es indispensable contar con modelos que puedan reproducir los comportamientos observados en los registros históricos de las concentraciones de carbono y azufre por ejemplo (Houghton, 2001). Matemáticamente, el problema corresponde a uno de inversión: dado un modelo paramétrico y un conjunto de eventos previos, debe encontrarse el valor de los parámetros que mejor aproxime el comportamiento observado con anterioridad.

La labor de la Ciencia de elegir la mejor de las explicaciones entre un conjunto de teorías candidatas se ejemplifica en uno de los fundamentos de programación lógica: resolución por refutación (Doets, 1994). Las teorías, construidas a partir de un conjunto de datos observados, se someten posteriormente a ataques en sus puntos más débiles. La mejor teoría es la que sobrevive la mayor cantidad de cuestionamientos dependiendo de la calidad de los datos experimentales existentes en el momento. Datos experimentales posteriores pueden constituir un nuevo ataque a la teoría que fuerce a repensarla en el mejor caso, o abandonarla en el más extremo. Los modelos son el corazón del proceso de validación, pues son la representación del mundo en las teorías. La simulación es lo que permite el proceso de refutación, pues el resultado de aplicar el modelo en escenarios conocidos es lo que provee información acerca de su validez.

Finalmente, el análisis fenomenológico de la naturaleza 5 es una de las tareas donde los modelos son más efectivos. Existen situaciones en donde las limitaciones impuestas por la escala, el riesgo o la observabilidad de los fenómenos hacen prohibitivo el efectuar experimentos fácilmente o con suficiente pertinencia con respecto a prioridades humanas. Una simulación es entonces una ventana privilegiada en donde todas las condiciones están bajo control del científico experimental, sea en Ciencias Naturales o Sociales.

 

De lo científico hacia lo computacional

La limitación más importante para desarrollar modelos perfectos de un sistema físico estaba constituida por la necesidad de tener un sistema similar al menos con la misma cantidad de materia y energía. Aun siendo esto posible, el desconocimiento de las condiciones iniciales y los posibles efectos aleatorios sobre el estado de un sistema hacen que incremente su complejidad de descripción. Este hecho en sí es un hecho científico, debido a que en diferentes escalas de la Naturaleza se observa el mismo comportamiento: los fenómenos en una escala producen comportamiento emergente cualitativamente distinto en otra.

Albert Einstein en su artículo de 1905 acerca del movimiento browniano (Einstein, 1905) comentó que las partículas dentro del conjunto podían modelarse como un caminante aleatorio con sesgo (biased random walker). Una distribución de probabilidad particular era la responsable de influir en el comportamiento aparentemente aleatorio, en el cual las reglas de transición producen efectos claramente identificables, pero cuya probabilidad es difícil de calcular. De esta forma, los observables de un nivel de interés, o nivel de teoría, son resultado de un comportamiento de un nivel fenomenológico inferior en términos de escala y donde ocurre alguna forma de difusión y fricción (Núñez-Jakobsson, 2011).

Lo anterior apunta a que es indispensable considerar modelos de tipo estocástico: las entradas y salidas son bien conocidas, lo que se aleatoriza son las reglas de transición que se aplican a lo largo del tiempo. Como resultado inmediato de estas consideraciones, el área de sistemas complejos dedicada al estudio del caos pierde un soporte importante: el caos en sistemas complejos determinísticos se debe a la sensibilidad de condiciones iniciales; si para cada punto en la trayectoria del espacio de fase del sistema existe probabilidad de una variación aleatoria (sesgada), no existen puntos privilegiados que generen caos en forma exacta (William, 1997). Más aún, el caos supone continuidad. Si la naturaleza en sus niveles más fundamentales aparenta ser particulada y discreta, el efecto mariposa es un artefacto del formalismo continuo y por tanto no constitutivo de su esencia (Núñez-Jakobsson, 2011).

Aparte de las implicaciones referentes a una posible visión integrada de la realidad física, existe un impacto sobre los requerimientos de precisión aritmética impuestos sobre las simulaciones. La precisión aritmética es uno de los puntos más sensibles del desarrollo científico, pues influye cuantitativamente en la medida de calidad de los modelos (Hamming, 1987). Históricamente, a finales del siglo XIX varios miembros de la Royal Society consideraban que el rol de la ciencia sería el de agregar una cifra significativa más a las constantes cada cierto tiempo (Sprat, 2010). El avance de las teorías científicas ha demostrado lo contrario, sin restar mérito a la importancia de mediciones precisas e instrumentación correspondiente. Sin embargo, la presencia de estocasticidad 6 relaja de manera significativa la precisión requerida, siempre y cuando el modelo esté construido apropiadamente.

Como un corolario interesante, la estocasticidad provee una nueva ventana de oportunidad para el diseño de hardware orientado a cómputo científico. Un menor requerimiento de precisión implica menos cantidad de compuertas y probablemente mecanismos novedosos que requieran menos potencia eléctrica de operación. El reto más reciente en el desarrollo de arquitecturas computacionales se encuentra en ser compatibles con políticas de reducción de emisiones de carbono, en particular en infraestructuras de grandes volúmenes de procesamiento de datos (Argawal et al., 2009). Así, la ciencia por medio del rol de la probabilidad tiene un impacto en la computación del mañana.

Incidentalmente, es indispensable que los modelos educativos consideren lo antes posible el estudio de la probabilidad, vinculada al desarrollo del cálculo. Las definiciones de probabilidad pueden ser reescritas en términos de cálculo diferencial para posteriormente identificar el sentido de la definición de límite en cada escala natural. La probabilidad y estadística son las herramientas más cercanas a la estructura de la realidad en lo referente a las relaciones entre materia y energía en distintas escalas. ¿Cuál es entonces el rol de los modelos continuos? Como todo modelo, son aproximaciones con validez dependiente del nivel de detalle necesario. Además, cumplen con un propósito didáctico: son ficciones que al refinarse se aproximan a una representación precisa del mundo.


Supercomputadoras, redes avanzadas y visualización

Mientas el desarrollo de computadoras estocásticas 7 u otra tecnología similar no ocurra, las arquitecturas disponibles deben cumplir con el propósito de ser el instrumental apto para procesos de simulación. La gran mayoría de problemas que deben atacarse ocurren en la intersección de múltiples disciplinas y por ende en múltiples niveles de teoría. Los modelos resultantes serán algorítmica y estructuralmente complejos. El desarrollo de aplicaciones científicas desde la perspectiva de software debe seguir lineamientos estrictos, pero para efectos de esta discusión, no será el foco central de interés.

La tratabilidad algorítmica 8 de los problemas es el reto más importante a atacar en computación científica. Un problema se considera intratable en general si su tiempo de ejecución es proporcional a una función exponencial de variable N. Para adquirir una noción de la diferencia entre un algoritmo polinomial y uno exponencial se tiene el siguiente caso hipotético. Un proceso de simulación A toma tiempo estrictamente lineal. Un proceso de simulación B toma tiempo cúbico. Un proceso  de simulación C toma tiempo exponencial. Una computadora hipotética puede procesar cualquier operación aritmética en un tiempo estándar de un microsegundo. Se desean procesar N = 100 datos. El tiempo de ejecución para cada problema varía de manera violenta: 0.001 segundos para A, 1 segundo para B y 4 millones de veces la edad estimada del Universo para C. Definitivamente una diferencia sustancial.

La Naturaleza no es bondadosa en este aspecto. La mayor parte de fenómenos de interés al ser modelados tienden a resultar en algoritmos intratables o poco eficientes, una reafirmación de la relación entre los modelos y la realidad. Por tanto, se deben buscar mecanismos de aproximación. Complejidad en este sentido –es decir, en la semántica asociada a los dominios científicos- puede definirse como la resistencia de un sistema de interés a ser abstraído de manera eficiente. Afortunadamente, el ritmo de avance de las tecnologías digitales se ha mantenido creciente, y sigue una tendencia conocida como la Ley de Moore: cada 18 meses la cantidad de transistores y la velocidad de un microprocesador se duplica (Moore, 1965). Además, existen esfuerzos por construir arquitecturas computacionales especializadas que facilitan la codificación de ciertos tipos de algoritmos numéricos.

El desarrollo de infraestructuras computacionales capaces de resolver los problemas científicos más complejos es el área de la supercomputación. Una supercomputadora es un sistema computacional cuya capacidad excede en al menos dos órdenes de magnitud la capacidad en términos de memoria y espacio las capacidades de una computadora de escritorio; una supercomputadora está compuesta por un gran número de elementos de procesamiento organizados en conglomerados o clusters (Dongarra et al., 2002). Un cluster a su vez es un sistema de alto rendimiento computacional destinado al procesamiento de datos fuertemente acoplado desde el punto de vista de la infraestructura de red y las aplicaciones que en él se ejecutan. La cantidad de datos que puede procesarse en una arquitectura de supercómputo también excede las capacidades de una computadora tradicional.

Una vez que un modelo se ha ejecutado y se han obtenido datos, los resultados corresponden a tablas numéricas de difícil interpretación. El rol de una simulación es proveer una ayuda a la intuición, no ahogarla en un mar de datos.  La visualización científica tiene la labor de convertir los datos de simulaciones en información y conocimiento (Steele-Iliinsky, 2010). Información en el sentido de una estructura lógica de los datos. Conocimiento en términos de la semántica relacionada al dominio científico particular. El área de visualización es también multidisciplinaria, en donde las áreas de Diseño, Psicología, Matemática y Ciencias Cognoscitivas tienen un aporte vital. Se puede considerar que una visualización exitosa es aquella que hace que la tecnología subyacente al conocimiento presentado de manera gráfica sea transparente y minimiza el tiempo que un experto de dominio requiere para comprender el significado de la representación.

La Ciencia, al ser una empresa humana, depende la habilidad de comunicar los resultados y compartir el esfuerzo (Shrum et al., 2007). El volumen de la información científica es distinto de otras aplicaciones, pues incluye datos experimentales, anotaciones, resultados de la visualización, aplicaciones computacionales y datos detallados de simulaciones. Las redes avanzadas son el mecanismo desarrollado por la comunidad científica para transmitir eficientemente cantidades masivas de datos de forma segura en el entorno de investigación. Estas redes se han difundido a través del globo y proveen acceso a un instrumental cuya magnitud es superior a las capacidades de equipamiento de cualquier institución o país por separado (Internet2, 2011). La naturaleza de esta tecnología habla de lo inherente de la colaboración y la interdisciplinariedad de los proyectos en esta área.

 

e-Science y RedCONARE: esfuerzos en el TEC

La ciencia y la tecnología se han visto transformadas en el siglo veintiuno a través del rol de la computación como un vehículo fundamental del descubrimiento, y a la vez como un instrumento científico equivalente al telescopio de Galileo y al microscopio de van Leewenhoek. Mundialmente, las universidades e institutos de investigación se han apropiado de los muchos aspectos de la supercomputación y de la ciencia computacional como valores esenciales para el proceso de redescubrir una ecología humana del conocimiento. En este escenario, las instituciones académicas se ven en la necesidad de proveer un ambiente en donde los esfuerzos multi, trans e interdisciplinarios se integren mediante el factor común del descubrimiento basado en cómputo y datos.

La National Science Foundation a través del reporte Atkins de Cyberinfrastructure (Atkins, 2003), el reporte Towards 2020 Science de Microsoft Research (Emmot, 2005) y el mundo en general reconocen que en la actualidad ningún científico puede ser productivo o eficiente en términos de los estándares de investigación globales si no es capaz de integrar en sus procesos descubrimiento el cómputo como un factor aglutinante. Además, los tipos de problemas que la humanidad enfrenta requieren de una gran cantidad de herramientas, desde sensores remotos hasta registro de microtransacciones en redes sociales para generar una visión integral, y más aún, útil.

e-Science, ciencia computacional o cyberinfrastructure se define como el estudio y aplicación de la computación a problemas de interés científico, utilizando para ello supercómputo, visualización avanzada, redes de sensores y redes avanzadas de comunicación. El trabajo generalmente interdisciplinario resulta en un proceso de transferencia de conocimiento. Bajo una interpretación Lacaniana, esta transferencia es lo que converge en definir un lenguaje común entre disciplinas y es el valor más alto en iniciativas de e-Science: unificación de conocimientos especializados en un todo más general, más simple.

La ciencia computacional hace referencia así al proceso de aplicar métodos, técnicas y conocimientos del área de la computación a las necesidades del descubrimiento científico. Esto implica directamente modelos matemáticos complejos, requerimientos de software y hardware de alto rendimiento y en particular colaboración científica donde el acceso eficiente a datos es esencial. Los tipos de datos pueden variar en cantidad y tipos desde datos de sensores de actualización frecuente hasta datos de simulaciones de decenas de terabytes. Como una respuesta dentro de cómputo de alto rendimiento a las necesidades de federación, acceso y análisis de volúmenes de datos potencialmente masivos, el concepto de grid computing convierte múltiples recursos computacionales en una sola infraestructura integrada, transparente y conveniente.

Como ejemplo particular, el Large Hadron Collider es el mayor instrumento científico construido hasta el momento (Ananthaswamy, 2011). Está constituido de 29Kms de túneles donde 109 sensores generan datos a alta frecuencia. Cada experimento efectuado genera semanalmente 10PB de datos crudos 9

que deben ser replicados, analizados y transmitidos a otros laboratorios computacionales alrededor del mundo. Las velocidades disponibles de Internet comercial hacen prohibitivo el transporte pertinente de datos experimentales, por lo cual un conjunto de enlaces de alta velocidad han sido planificados detalladamente con el fin de proveer comunicaciones eficientes.

El ejemplo anterior no solamente coloca requerimientos de datos propiamente del objeto de estudio, sino de colaboraciones. El uso extensivo e incremental de videconferencias en formato de alta definición, el envío de imágenes tomadas por sensores e instrumentos científicos de alta definición y las capacidades de simulación y control interactivos remotos son esenciales en la carrera tecnológica que el siglo 21 impone sobre los sistemas de construcción de conocimiento. Invertir en Cómputo de Alto Rendimiento, Redes Avanzadas y Sistemas Colaborativos es un pre-requisito para toda institución que desee estar activa dentro del proceso de Ciencia y Tecnología. El contar con estas herramientas no implica estar a la vanguardia, pero sí aspirar a lograr una posición de realce al combinar estos recursos con una estrategia apropiada.

El Instituto Tecnológico de Costa Rica (TEC) ha desarrollado fuertes capacidades en la región referentes a Ciencia Computacional y supercómputo. En 2007 mediante el proyecto FEES Cluster Interuniversitario, dirigido por el Dr. José Castro Mora desde el Centro de Investigaciones en Computación, logró durante tres años crear una infraestructura compartida por las cuatro universidades del sistema estatal. La experiencia en este proceso permitió identificar los puntos fuertes y débiles en el camino hacia una madurez en el desarrollo de proyectos de e-Science. Durante este periodo, el TEC se ha encargado de crear lazos de colaboración internacionales con diversas instituciones alrededor del mundo y representa el país en el Pacific Rim Applications and Grid Middleware Assembly que reúne a los centros de investigación en e-Science y computación científica más importantes del Pacífico y Estados Unidos (PRAGMA, 2011).

Como un siguiente paso, en 2010 un equipo de profesores de distintos programas académicos a lo interno del TEC (Computación, Diseño, Electrónica, Matemática, Forestal, Construcción) conformaron el grupo e-Science. La premisa de trabajo fue simple: integrar un equipo interdisciplinario capaz de proponer proyectos de alto impacto para el país donde las diferentes áreas tuviesen su punto de convergencia en la computación como vehículo de descubrimiento. Dos propuestas de la ronda VIE 2011 y una propuesta a Fondos Especiales para la Educación Superior, junto a experiencia previa de investigadores en la Escuela de Matemática dieron origen a la consolidación como programa.

La misión de e-Science en el TEC es integrar la ciencia computacional en el TEC y en Costa Rica con el fin de mejorar las capacidades científicas existentes y generar nuevas sinergias que permitan a los investigadores locales ser efectivos y competitivos a escala mundial. Desde la creación del programa, se han integrado cerca de 20 investigadores de distintas escuelas a lo interno, con temas de investigación desde aplicaciones de razonamiento basado en casos para detección de fallas en motores de inducción, identificación de especies de árboles por medio de dispositivos móviles hasta preservación de la herencia cultural costarricense precolombina. La dinámica interna es de apertura a ideas novedosas, de discusión desde todos los ángulos posibles y de integrar nuevos miembros que fortalezcan la investigación en toda la institución. Se ha dado apoyo asimismo al proyecto de investigación en Plasmas y se efectúa investigación conjunta con otras universidades nacionales.

Adicionalmente a las Ciencias Naturales e Ingenierías, es de alto interés para el programa el integrar a profesionales de las Ciencias Sociales con ideas novedosas en investigación. Parte de estos esfuerzos se han concretado en actividades como el taller desarrollado con Marcelí Antúnez, un destacado artista digital español con el que se puso en escena MitóTica en el Teatro de la Aduana en conjunto con el Ministerio de Cultura y Juventud y la Embajada de España. La gama de posibilidades de investigación en e-Social science es amplia, y apenas se está desarrollando a nivel global. El TEC está en posición y capacidad de liderar propuestas de clase internacional, y para ello el programa de investigación se encuentra en una fuerte fase de equipamiento y reforzamiento de sus capacidades de investigación, desarrollo e innovación.

La visión de e-Science es convertirse en un programa de referencia en ciencias computacionales a nivel regional y una institución de referencia mundial en Supercómputo Verde, o e-Science compatible con el ambiente.

El TEC busca estar a la vanguardia en Ciencia y Tecnología en Costa Rica y la Región en redes avanzadas también. En el contexto nacional, la Estrategia Siglo XXI describe cuatro grandes áreas de conocimiento claves para posicionar al país en condiciones similares a las de Dinamarca, Finlandia y Noruega (Estrategia, 2006). Estas áreas son:

  1. biotecnología, que permite alcanzar productividad agrícola de alta calidad y estándares de exportación, así como abrir fronteras en medicina e investigación en biodiversidad y biología en general.

  2. nanotecnología, esencial en la producciones y servicios con un alto valor agregado donde la aplicación de tecnologías a escala nanométrica permiten mejorar sustancialmente la relación costo beneficio de procesos y artefactos tecnológicos;

  3. infotecnología, un componente dominante en la sociedad de la información del presente en la cual el activo más importante está dada en términos de datos, que si bien son intangibles, se han convertido en fuente de riqueza y oportunidades sociales;

  4. cognotecnología, que a partir de la riqueza de los sistemas de información permiten convertir datos en información (indicadores) y posteriormente en conocimiento (decisiones a partir de indicadores), y así obtener mayor precisión y pertinencia en la construcción colectiva de la sociedad.

 

Todas las áreas previamente mencionadas se encuentran vinculadas de manera directa con el concepto de información, que se puede medir en términos de su producción, consumo y transmisión. Como información se entenderá todo aquel conjunto de datos que bajo una codificación computacional apropiada para procesamiento eficiente, es una representación de objetos, procesos o fenómenos en la realidad que son de interés y cuyos costos totales de producción, consumo y transmisión son inferiores a la ganancia que directa o indirectamente puede derivarse de ellos. Es decir, la información tiene una utilidad intrínseca y cuantificable que guarda una relación exacta con el desarrollo de la sociedad en donde se circunscribe su existencia, siendo un indicador fuerte del impacto de una nación dentro de un mundo globalizado.

El interés en la oferta y demanda de información necesariamente requiere canales de comunicación eficientes. El ancho de banda, entendido como la cantidad de datos que codifican información transmitidos por unidad de tiempo es una métrica que indica cuál es el requerimiento esperado para transferencias de información para un periodo definido. El cambio en las tasas de transferencia máxima y el tiempo establecido para incremento de las mismas es una medida de la cantidad de información (Newman, 2010). Internet comercial ha sido por un largo tiempo la medida con que se compara el crecimiento económico con respecto a los aspectos demográficos, sociales y productivos de una nación.

Las tasas de transferencia, medidas en bits por segundo (bps) han variado significativamente en la conexión del usuario promedio desde la incursión de Internet en Costa Rica. De 1998 (56Kbps) a la actualidad (4Mbps), el país evidencia un aumento aproximado del 6400% en transmisión de datos con respecto a la máxima conexión comercialmente disponible. Sin embargo, en comparación con países tales como Estados Unidos donde existen planes para el desarrollo de ciudades totalmente integradas, de 1998 (128Kbps) a la actualidad (100Mbps) ha ocurrido un aumento aproximado del 10000% en transmisión de datos con respecto a la máxima conexión comercialmente disponible (DATA360, 2011).

Los sistemas de Investigación, Desarrollo e Innovación (I+D+I), al ser productores y consumidores de conocimiento, también se encuentran sujetos a evaluación por medio de métricas de éste tipo. Sin embargo, el tipo de conocimiento generado es de naturaleza distinta al contenido más general que la Internet comercial por sí misma supone. Dentro de los tipos de contenido en el flujo de información de un sistema de I+D+I se encuentran datos experimentales, streams de video y audio para sesiones de trabajo colaborativo, secuencias de instrucciones remotas para control de experimentos, código fuente en formato texto o binario de aplicaciones de interés científico, entre otros. En el caso de métricas tales como cantidad de archivos por unidad de tiempo, tiempo de respuesta y similares, no son aplicables directamente debido a la naturaleza del contenido en tales organizaciones. Un solo archivo de datos de simulación puede alcanzar tamaños desde decenas de megabytes (MB) hasta decenas de terabytes (TB), mientras que un stream de video para colaboración remota puede llegar hasta 949.21Mbps por segundo utilizando el formato 1080p codificación YUV con 30 frames por segundo (fps).

La presión que la investigación científica ejerce sobre las redes de comunicaciones se ha traducido en implementaciones especializadas orientadas a altos volúmenes de datos. Internet2 fue un primer esfuerzo de integración de redes de alta velocidad. Posteriormente, la implementación de redes de fibra óptica de alta velocidad ha permitido aumentar al menos veinte a cien veces la capacidad de tráfico de información, base para la implementación de la red europea GEANT2 (GEANT2, 2011). Más adelante, las redes Lambda se han convertido en la mejor infraestructura de redes para (GLIF, 2011).

El crecimiento de las redes de alta velocidad para uso académico es una métrica relevante y precisa del grado de madurez de un país en Ciencia y Tecnología, pues evidencia la cantidad de trabajo con colaboración de alto nivel, así como los tipos y cantidad de datos transmitidos. Con respecto al tipo de enlace, éste se convierte en indicador del grado de actualidad tecnológica así como de los presupuestos dedicados a investigación y sus objetivos. De esta manera, las Redes Avanzadas y sus implementaciones se convierten en un elemento primordial y su promoción y organización en tarea obligatoria dentro de las comunidades científicas y tecnológicas.

Costa Rica ha tenido en su historia dos eventos de conexión a redes avanzadas. El primero, impulsado a través de CONARE y con éste, el Instituto Costarricense de Electricidad (ICE) y la Caja Costarricense del Seguro Social (CCSS) como socios contribuyentes fue llamado CR2NET y consistió en un enlace de 45Mbps a la Red CLARA. A partir de nuevos esfuerzos realizados entre 2007 y 2008, Costa Rica estuvo en capacidad de negociar un nuevo enlace, ésta vez de 155Mbps, con la Red CLARA y apoyo de la Florida International University. Esta  fue finalmente instalada en esta segunda etapa en Noviembre de 2008 bajo el nombre de RedCONARE. Es un recurso de valor importante a disposición de los académicos del país, uno que requiere de fortalecimiento y difusión.

El TEC bajo su misión institucional de estar a la vanguardia tecnológica, máxime en la era de las Tecnologías de Información y Comunicación, está llamado a ser un usuario fundamental de esta arquitectura. Los programas de Bachillerato, Licenciatura y Maestría se encuentran en una posición ventajosa desde la perspectiva de casos de uso, máxime con la disponibilidad de materiales acopiados por diferentes instituciones universitarias a lo largo de CLARA y redes Asociadas (e.g. Internet2, GEANT2) para los procesos de actualización docente, renovación de programas de estudio y colaboración para proyectos inter, trans y multidisciplinarios. En la actualidad, el TEC se encuentra conectado a la infraestructura de RedCONARE. Desde la red interna del TEC es posible acceder a cualquier dirección en CLARA mediante redirección interna a través de políticas de ruteo.

Como parte de la estrategia se busca conectar a los centros de investigación internos, escuelas e investigadores capaces de proveer tráfico desde el TEC hacia puntos en RedCONARE. En este momento, los programas y proyectos activos en la institución son la prioridad central en el plan de conexión a redes avanzadas, y posteriormente la institución completa. Un reto queda por resolver para iniciar el proceso: es necesario repavimentar digitalmente el TEC con el fin de aprovechar al máximo las capacidades de la red académica. Como institución que busca ser líder en investigación, desarrollo e innovación en tecnologías, el TEC debe avanzar en materia de infraestructura de forma estratégica para ser pertinente con respecto a las necesidades de sus estudiantes e investigadores.


Conclusiones

La transformación de la Ciencia a partir del advenimiento de la computación y de la supercomputación es un hecho incontrovertible. Si se desea participar en la construcción colectiva del conocimiento se debe tener acceso a los recursos que maximicen el impacto de las investigaciones en la Sociedad. En particular, Costa Rica y otras naciones en vías de desarrollo se encuentran en un punto crítico en donde la limitación de recursos financieros ha evitado un crecimiento efectivo en Investigación, Desarrollo e Innovación.

No obstante, e-Science representa una alternativa para las Ciencias Naturales y Sociales que permite mitigar los efectos de las carencias materiales. Si bien deben hacerse inversiones de alguna cuantía, son menores a aquellas que serían necesarias en casos de equipamiento completo. El requerimiento de fondo más importante fuera de lo material es en lo humano: apertura intelectual y emocional de quienes se dispongan a participar en estas iniciativas para explorar en conjunto terreno desconocido, para definir ése lenguaje común que será el distintivo de este siglo en las Ciencias.

Se requiere a veces la valentía del capitán de navíos del pasado: se navega a través de las pocas islas de conocimiento en un creciente mar de ignorancia, pero si se navega bien, se completa la ruta  en menos tiempo de lo imaginado.

 

Referencias

Ananthaswamy, A. (2011). The Edge of Physics: A Journey to Earth's Extremes to Unlock the Secrets of the Universe. Mariner Books.

Argawal, Y., Weng, T., Gupta, R. (2009). The Energy Dashboard: Improving the Visibility of Energy Consumption at a Campus-Wide Scale. Proceedings of the ACM Workshop on Embedded Sensing Systems For Energy-Efficiency In Buildings.

Atkins, D. E. (2003). Report of the National Science Foundation Blue-Ribbon Advisory Panel on Cyberinfrastructure. National Science Foundation.

Barrantes, G.,  Garita, C., Núñez, S., Castro, J. (2007).  Aplicación de Sistemas de Información Geográfica en la Creación de Escenarios de Riesgo por Caída de Tefra. Ponencia presentada en la Conferencia Latinoamericana de Informática. 9-12 octubre. San José, Costa Rica.

Bender, E. A. (2000). An Introduction to Mathematical Modeling. Dover Publications.

Boole, G. (1854). An Investigation of the Laws of Thought. Watchmaker Publishing.

Chaitin, G. (2006). Meta Math!: The Quest for Omega. Vintage Books.

Church, A. (1936). An unsolvable problem of elementary number theory. American Journal of Mathematics, 58, pp. 345–363.

Conee, E., Sider, T. (2007). Riddles of Existence: A Guided Tour of Metaphysics. Oxford University Press.

DATA 360. (2011). Internet Usage Growth Rate by Region. Website: http://www.data360.org/dsg.aspx?Data_Set_Group_Id=645

Davis M., Sigal, R., Weyuker. E. J. (1994). Computability, Complexity, and Languages, Second Edition: Fundamentals of Theoretical Computer Science. Morgan Kaufmann.

David, D. (1985). Quantum theory, the Church-Turing principle and the universal quantum computer. Proceedings of the Royal Society of London; Series A, Mathematical and Physical Sciences 400 (1818): pp. 97–117.

Doets, K. (1994). From Logic to Logic Programming. The MIT Press.

Dongarra, J., Foster, I., Fox, G., Gropp, W. (2002). The Sourcebook of Parallel Computing. Morgan Kaufmann.

Einstein, A. (1905). Über die von der molekularkinetischen Theorie der Wärme geforderte Bewegung von in ruhenden Flüssigkeiten suspendierten Teilchen. Annalen der Physik 17: 549–560.

Emmot, S. et al. (2005). Towards 2020 Science Report. Microsoft Research.

Estrategia Siglo XXI. (2006). Visión de la ciencia y tecnología en Costa Rica: una construcción colectiva. Vol II. Estrategia Siglo XXI.

Feynman, R., Hay, A. (2000). Feyman Lectures on Computation. Westview Press.

GEANT2. (2011). Página de inicio. Website: http://www.geant2.net/

GLIF. (2011). Global Lambda Integrated Facility. Página de inicio. Website: http://www.glif.is/

Greene, B. (2000). The Elegant Universe: Superstrings, Hidden Dimensions, and the Quest for the Ultimate Theory. Vintage Series, Random House Inc.

Gödel, K. (1931). On Formally Undecidable Propositions of Principia Mathematica and Related Systems. Dover Publications.

Hamming, R. (1987). Numerical Methods for Scientists and Engineers. Dover.

Hellström, T., Holmström, K. (1998). Predicting the Stock Market. Technical Report Series IMA- TOM-1997-07.

Houghton, J.T. (2001). Appendix I – Glossary. Climate change 2001: the scientific basis: contribution of Working Group I to the Third Assessment Report of the Intergovernmental Panel on Climate Change. Cambridge, UK: Cambridge University Press.

Ifrah, G. (2002). The Universal History of Computing: From the Abacus to the Quantum Computer. Wiley.

Internet2. (2011). About. Website: http://www.internet2.edu/.

Landauer, R. (1961). Irreversibility and heat generation in the computing process. IBM Journal of Research and Development, vol. 5, pp. 183-191.

MINAET. (2009). Plan Nacional de Desarrollo de Telecomunicaciones. Viceministerio de Telecomunicaciones, Ministerio de Ambiente, Energía y Telecomunicaciones. Website: http://www.telecom.go.cr/

Moore, G.E. (1965). Cramming more components onto integrated circuits. Electronics.

Newman, M.E.J. (2010). Networks: An Introduction. Oxford University Press.

Núñez, S., Jakobsson, E. (2011). Hierarchical Modularity: The Description of Multi-Level Complex Systems as Nested Coupled Fokker-Planck Equations. Proceedings of the International Conference on Complex Systems. June 26 - July 1, Quincy Ma, USA. Springer.

PRAGMA (2011). Pacific Rim Applications and Grid Middleware Assembly Website. URL: http://www.pragma-grid.net/

Pearl, J. (2009). Causality: Models, Reasoning and Inference. Cambridge University Press.

Popper, K. (1934). Logik der Forschung, Springer. Vienna.

Risken, H., Frank, T. (1996). The Fokker-Planck Equation: Methods of Solutions and Applications. Springer.

Shasha, D., Lazere, C. (2010). Natural Computing: DNA, Quantum Bits, and the Future of Smart Machines. W. W. Norton & Company.

Shannon, C. E. (1951). Prediction and entropy of printed English. The Bell System Technical Journal, 30:50-64.

Shrum, W., Genuth, J., Chompalov, I. (2007). Structures of Scientific Collaboration. The MIT Press.

Sokoloswski, J.A., Banks, C.M. (2009). Principles of Modeling and Simulation: A Multidisciplinary Approach. Wiley.

Sprat, T. (2010). The history of the Royal Society of London, for the improving of natural knowledge. Gale ECCO, Print Editions.

Steele, J., Iliinsky, N. (2010). Beautiful Visualization: Looking at Data through the Eyes of Experts. O'Reilly Media.

Tarski, A. (1983). Logic, Semantics, Metamathematics: Papers from 1923 to 1938. Hackett Pub Co Inc.

Taylor, C.C.W. (2010). The Atomists: Leucippus and Democritus: Fragments. University of Toronto Press, Scholarly Publishing Division.

Turing, A. (1936), On Computable Numbers, With an Application to the Entscheidungsproblem, Proceedings of the London Mathematical Society 42 (2)

Von Neumann, J. (1955). Mathematische Grundlagen der Quantenmechanik (Mathematical Foundations of Quantum Mechanics). Berlin: Springer. ISBN 3540592075.

Warschauer, M. (2003). Technology and Social Inclusion: Rethinking the Digital Divide. The MIT Press.

William, G.P. (1997). Chaos Theory Tamed. Joseph Henry Press.



--------------------------------------------------------------------------------------------------------

1

El autor desea agradecer a la M.A. Roxana Reyes Rivas por su invitación a escribir en TRAMA, a los investigadores y estudiantes asistentes del programa de investigación e-Science, a la Vicerrectoría de Investigación y Extensión por el financiamiento para el programa de investigación e-Science y al Ministerio de Ciencia y Tecnología en la figura del Ministro M.Sc. Alejandro Cruz Molina por su anuencia a continuar con este esfuerzo y el respaldo personal e institucional para con el programa.


2

Coordinador, Programa de Investigación e-Science, Instituto Tecnológico de Costa Rica. Director, Tecnologías Digitales, Ministerio de Ciencia y Tecnología.

3

A diferencia de la concepción continua del tiempo en la física, para la máquina de Turing el tiempo transcurre de manera discreta o cuantizada. Esto es, el proceso de leer o escribir un símbolo y moverse en la cinta se considera atómico, y el tiempo es una medida del cambio de la cinta en el tiempo por estas operaciones. Si, para cada posible resultado final que la MUT produce al interpretar un programa se le asocia un referente en otro contexto, el número binario es una etiqueta para un objeto particular. La mecánica cuántica formaliza el estado de un sistema físico por medio de operadores que, análogamente a la MUT, transforman los estados de manera discreta.

4

Un gendaken-experiment es una técnica para definir experimentos hipotéticos cuyo fin es llevar teorías científicas al límite, más allá de lo que el régimen experimental permite en un momento particular. Se idea un escenario realista y a este se le aplican metódicamente todas las restricciones y reglas que se deducen a partir de un marco teórico. El ejemplo más notable lo constituye el gedanken-experiment de Albert Einstein de imaginar la realidad mientras se viaja en un rayo de luz.

5

En este contexto, se hace referencia a la fenomenología en tanto la naturaleza se presenta tal cual a los sentidos para ser interpretada por el entendimiento humano, no percibida directamente por este. De esta forma, una ironía sutil en la ciencia es que a pesar de que su fin es conocer la realidad última, siempre lucha por romper el velo de los sentidos. Un hecho científico entonces es que una parte de la realidad física (i.e. la cognición humana) sea capaz de crear modelos de sí misma que se refinan de forma incremental.

6

Un sistema se considera estocástico cuando sus estados y las reglas de transición entre sus estados son bien conocidas, pero la elección de cuál regla se aplica para el cambio de estado se rige por una distribución de probabilidad. El mercado bursátil es un ejemplo de un sistema estocástico.

7

De forma similar, una computadora se considera estocástica si se construye de tal forma que las reglas de procesamiento de datos incluyan aleatoriedad como uno de los elementos principales. Por ejemplo, la simulación de la dinámica molecular de proteínas requiere agregar la aleatoriedad inducida por los movimientos térmicos de la colectividad de los átomos en el sistema que se estudia.

8

En términos técnicos, un problema es tratable si la cantidad de operaciones a ejecutar por la computadora para obtener una respuesta puede expresarse como un polinomio de grado arbitrario en función de la cantidad de datos (N) que debe procesar. Así, un algoritmo de complejidad lineal tendrá un tiempo de ejecución proporcional a N. Un algoritmo de complejidad cúbica tendrá un tiempo de cúbico en N, y así sucesivamente. Muchos de los algoritmos más útiles conocidos son polinomiales, precisamente por su eficiencia.

9

La unidad de almacenamiento de memoria más pequeña en una computadora es un bit (binary digit) y es equivalente a responder una pregunta de verdadero o falso. Un byte corresponde a una secuencia de 8 bits, donde el orden posicional es importante. Un petabyte (PB) es igual a 1,000,000,000,000,000 bytes. Para tener una idea de la cantidad de información que se puede almacenar en 1PB se puede hacer esta comparación: para codificar todo el genoma humano (cerca de 3,500 millones de nucleótidos) se requiere cerca de 1GB (1,000,000,000 de bytes). En 1PB se puede almacenar un millón de copias del genoma.