Noviembre de 2009 | INICIO
Física UltraModerna

 

GCP - El Proyecto de Conciencia Global
¿Existe una Noosfera?
Por Roger D. Nelson
Adaptado de un artículo aparecido en el International Journal of Parapsychology
(Parte IV de una serie preparada por The Golden Thread)
Global Consciousness Project del sitio web del GCP



Cuando pones las cosas en orden y les asignas un nombre, y tú estás de acuerdo con ello, entonces las cosas llegan a ser"
.
Navajo, Masked Gods, Waters. 1950

Descripción General
El Proyecto de Conciencia Global está formado por investigadores que colaboran en el estudio de la posibilidad de que sea posible detectar tenues destellos de inteligencia emanados de una capa de la Tierra, capa que Theilard de Chardin denominó "Noósfera" [1].

Nosotros mantenemos una red de detectores dispersos por todo el mundo en más de 50 sitios, desde Alaska hasta Nueva Zelanda. Estos dispositivos generan números aleatorios de un modo continuo, los que son enviados para su almacenamiento en un servidor dedicado ubicado en Princeton, Nueva Jersey. Los datos son analizados para determinar si las secuencias de impredecibles números aleatorios contienen periodos donde se manifiesta alguna estructura, los que pueden ser correlacionados con los grandes sucesos ocurridos en el mundo.

De acuerdo con la Teoría Física convencional, los datos aleatorios no deberían presentar estructura. Sin embargo, nosotros encontramos que muchos de los eventos mundiales se pueden asociar con patrones especiales. Eventos como la celebración del Año Nuevo y tragedias como los ataques del 11 de septiembre de 2001, muestran cambios en los datos que son correlacionados con periodos de sentimientos compartidos o con un tipo de reacción emocional generalizada.

Nuestro análisis establece que los patrones (o rasgos no aleatorios) no pueden ser atribuidos a fuentes convencionales como variaciones de la red eléctrica, actividad de teléfonos móviles o campos electromagnéticos ordinarios. La evidencia sugiere que la estructura anómala de los datos proviene de la atención humana enfocada de un modo coherente inusual, lo que es gatillado por acontecimientos extraordinarios.

Experimentos de Laboratorio han demostrado que las intenciones pueden afectar procesos aleatorios y los ensayos de campo realizados con distintos grupos muestran que las conexiones emocionales fuertes y resonantes parecen afectar físicamente a los Generadores de Eventos Aleatorios (REGs). Por lo tanto, el siguiente paso es muy relevante.

¿Cómo se puede llegar a deducir las señales de una "Conciencia Global" a partir de los datos generados por la red?

¿Por qué aparecen patrones especiales en los REGs dispersos por todo el mundo durante la celebración del Año Nuevo, al comenzar una Guerra o cuando mil millones de personas están siguiendo una ceremonia fúnebre? Esto puede ser explicado en parte si recurrimos a la metáfora del "Campo de Conciencia".

Imagine un sutil resplandor de información que se extiende indefinidamente a partir de cada mente individual y que tiene características ondulatorias capaces de crear tenues patrones de interferencia y cuyas diferencias provienen de nuestras intenciones y de nuestro grado de interconexión. Recuerde que esto es sólo una metáfora, dado que no existe verdaderamente un tipo de energía física de la conciencia que pueda ser medido directamente.

A pesar de ser una metáfora, los hechos parecen indicar que existe algo así como un campo transportador de información que puede ser responsable de los efectos estudiados con los REGs. Nuestra red ha sido diseñada para capturar los sutiles efectos de tal campo y que pueden ser una manifestación o interacción de los campos de pensamiento y emoción dispersos en todo el mundo. Nosotros podemos detectar ciertas características de estos campos cada vez que un gran número de personas se sintoniza por medio de sentimientos e intereses comunes.

Nosotros recolectamos los datos ininterrumpidamente, día y noche, mes a mes, obteniendo así un registro de datos sincronizados y dispersos por todo el mundo, correspondiendo con cada instante y abarcando naturalmente cualquier situación mundial trascendental. Nuestro archivo central resulta ser una gran base de datos que puede registrar las ocasiones cuando eventos mundiales relevantes inducen una inusual coordinación de pensamiento y emoción en la población mundial.

Amigos y colegas interesados en el Proyecto de Conciencia Global han configurado sus computadores para acoger un "huevo", es decir, uno de nuestros detectores basados en REG.

El siguiente mapa muestra la red mundial de 50 sitios de acogida ("host sites") a principios del año 2003.

Representación de los Resultados
Disponiendo de los datos, nos preguntamos sobre la aparición de patrones durante un evento mundial relevante. Las mediciones que realizamos han sido diseñadas para identificar pequeñas señales en lo que es típicamente estructura ruidosa compuesta de números aleatorios.
Incluso pequeños cambios experimentados respecto de los valores esperados pueden llegar a ser "estadísticamente significativos" e indicadores de un efecto real cuando éstos permanecen de una forma coherente. Nosotros interpretamos las desviaciones estadísticas como una medida de algo relacionado con la conciencia, debido a que los resultados de décadas de investigaciones de laboratorio nos indican que las intenciones humanas - y en especial ciertos estados especiales de conciencia - pueden afectar la aleatoriedad de nuestros dispositivos.

A continuación veremos un par de casos que ilustrarán con inusual claridad como nuestros análisis pueden revelar la presencia de una estructura dentro de datos aparentemente aleatorios. Los siguientes gráficos mostrarán cómo se representan las correlaciones que nos interesa estudiar y cómo estas estadísticas puras pueden tener un gran significado.

Existe una gran variedad de casos donde las desviaciones estadísticas cobran sentido cuando las interpretamos como efectos derivados de una conciencia colectiva en expansión. Sin embargo, es importante reconocer que otras explicaciones también son válidas , como considerar el efecto de las intensas expectativas de los experimentadores. Pero sea cual fuese la explicación, no hay posibilidad de error al afirmar que siempre estaremos frente a una verdadera anomalía. Para tener una idea de la naturaleza y la escala de los efectos, a continuación veremos algunos ejemplos.

En primer lugar estudiaremos el bombardeo de Kosovo por parte de la OTAN, el cual se realizó porque según las naciones del oeste, y en particular USA, juzgaron como la única alternativa posible para detener la guerra étnica en Yugoslavia. Este hecho impresiónó al mundo a pesar de ser un evento esperado.

En este caso, los datos del GCP mostraron una estructura claramente diferente antes y después del bombardeo. Tres horas antes del bombardeo, los datos manifestaban la típica estructura del "Caminante Aleatorio", es decir, los datos no presentaban tendencia. A continuación y de un modo abrupto, las trazas cambiaron y las siguientes tres horas dejaron de lucir aleatoriamente. Esto por supuesto, es sólo una de las correlaciones que capaces de explicar el aspecto de los datos y como único ejemplo no sirve para justificar nuestra interpretación. Sin embargo, 2/3 de nuestras pruebas formales muestran una correlación positiva que apoya nuestras hipótesis y casi el 20% de éstas son estadísticamente significativas frente a una explicación basada en el azar puro con un 5% de probabilidad.

Tales resultados comienzan a convertir en convincentes nuestras hipótesis, a pesar de la sutileza de los efectos medidos.

 

La intuición nos dice que debe haber una profunda e intensa transferencia de emociones durante los grandes eventos mundiales. Por ello es válido investigar si tal estado de conciencia compartida puede manifestarse en nuestros datos.

Un evento que atrajo el interés de los medios y que fue seguido con positivo interés por la gente, fue el peregrinaje de una semana realizado por el Papa Juan Pablo II al Medio Oriente a los sitios que son considerados sagrados por las tres principales religiones del mundo.

Los datos muestran una tendencia persistente durante seis días consecutivos, tendencia que claramente no tiene aspecto aleatorio. Los datos se "dispararon" tanto que me vi obligado a extraer y procesar un conjunto "Control" para así asegurarme que no había posibilidad de error.

El Grupo Control es un espléndido ejemplo de una Camino Aleatorio, subiendo y bajando sin tendencia alguna.

 

A comienzos de 2003, la posibilidad de una Guerra en Iraq fue el tema central de las noticias mundiales, razón por la cual era lógico esperar un gran efecto sobre la hipotética conciencia global.

El 15 de febrero existió una manifestación mundial donde la gente se reunió para mostrar su deseo de solucionar pacíficamente el problema de Iraq y del Medio Oriente.

La red EGG pareció responder a este suceso. Los datos partieron mostrando la clásica estructura aleatoria, pero a las 11:00 GMT, cuando la gente había acordado reunirse en Berlín, Roma y Londres, el índice compuesto se apartó de la media y comenzó a manifestar una tendencia sostenida durante el resto del día.

El tomar una postura científica cuidadosa exige reconocer que esta desviación podría deberse al mero azar, pero la simultaneidad de los hechos y la fuerza del efecto son sorprendentes.

 

Tragedias y Celebraciones
Hemos analizado muchos otros casos de violentas perturbaciones en la estructura social
y la mayoría de ellos, aunque no todos, muestran efectos sustanciales.

El más claro de estos casos fue el ataque terrorista del 11 de septiembre de 2001, donde se observó que los datos se dispararon fuera de la media, del mismo modo como el evento afectó a la conciencia mundial. Este ataque terrorista ha sido examinado desde todos los ángulos posibles, debido a que corresponde a un caso extremo de lo que llamamos "Evento Mundial". El análisis está incluído en diversas publicaciones. La ilustración adjunta da una idea del tipo de desviaciones observadas tal terrible día.

La figura principal muestra las oscilaciones manifestadas por 37 REGs durante los días 10, 11 y 12. Temprano en la mañana del día 11, los eggs comenzaron a mostrar una consistente varianza ascendente, la que continuó hasta un poco más allá de las 11:00. A continuación la varianza se comprimió y permaneció debajo de su valor medio hasta la tarde. Este gráfico es notable por muchas razones.

El peak de la anomalía del 9-11 muestra una probabilidad menor que uno en mil y es esencialmente único: ningún otro día en cuatro años muestra tal desviación. Lo más sorprendente de todo es que si leemos directamente los datos del gráfico, descubriremos que la red EGG comenzó a comportarse anómalamente antes de que el primer avión colisionara en el WTC.

Existen muchas explicaciones mundanas para esta situación (fluctuaciones normales aleatorias, causalidad, etc.), pero los datos lucen como si de alguna forma la conciencia global hubiera experimentado una "precognición" o un presentimiento del terrible evento que se avecinaba.

 

 

Seguramente el más obvio evento de participación e interés general simultáneo en casi todo el mundo y que puede ser periódicamente pronosticado sea la Celebración del Año Nuevo

Uno de los primeros eventos ingresados al registro de predicciones del GCP correspondió a la estructura no aleatoria de datos recolectados durante un periodo de 10 minutos en la medianoche de la transición desde el año 1998 al 1999.

 

Nosotros predijimos que aparecerían desviaciones alrededor de la medianoche en cada huso horario, lo que nos llevaría a realizar un análisis completo al totalizar las 24 horas. Cada año a partir de entonces hemos realizado dos principales predicciones y cada año una o ambas han sido validadas estadísticamente. Los datos no son aleatorios. En su lugar ellos muestran un patrón centrado en la medianoche.

Los gráficos no sólo son visualmente atractivos, sino que también son estadísticamente impresionantes, especialmente porque podemos ver la misma estructura no aleatoria que se repite año tras año.

 

Evaluación de Fondo
En los primeros cuatro años y medio del GCP hemos encontrados dos o tres grandes eventos cada mes, lo que es ideal para testear la noción de que somos capaces de detectar la presencia de un campo de consciencia compartido.

Algunos resultados son tan sorprendentes como las imágenes mostradas por el 9-11 o por la celebración del Año Nuevo, mientras que otras no muestran desviaciones respecto de la media. Durante ese periodo, nosotros hemos realizado más de 130 predicciones formales que nos permiten realizar una evaluación de fondo de la hipótesis básica del proyecto que dice que debe aparecer una correlación especial entre los patrones entregados por los REGs durante los eventos especiales que significan un estado de participación a gran escala de la conciencia colectiva.

Nosotros podríamos ignorar los datos obtenidos durante algunos de esos eventos, o podríamos decir que, después de todo, si nos damos el trabajo de buscar lo suficiente podríamos encontrar de vez en cuando un patrón notable dentro de datos puramente aleatorios. Pero tales patrones están apareciendo dentro de datos aleatorios con una frecuencia anormalmente alta y cuando esto ocurre existe una alta correlación con eventos mundialmente significativos. Ciertamente queda mucho trabajo por hacer, pero estos datos parecen ser el material que nos permitirá ponderar las capacidades de largo alcance de la conciencia.

La siguiente figura muestra el resultado compuesto de los datos y presenta la confirmación reiterada de nuestra hipótesis, donde las fluctuaciones claramente no pueden deberse al puro azar.

La probabilidad de que esta desviación acumulada ocurra sólo por azar es del orden de un millón a uno. Si bien, la definición de "Eventos de Interés Mundial" es necesariamente arbitraria, existen casos donde la mayoría de la gente puede coincidir y existen métodos generales para evaluar la presencia o no de una estructura inesperada dentro de los datos.

 

 

Los resultados primarios están basados en la correlación con momentos especialmente escogidos, normalmente deducidos a partir de los titulares de los medios, mientras que los datos son recogidos desde la red EGG. Al evaluar las correlaciones cuidadosamente, encontramos una tendencia para los datos que difiere de la aleatoriedad, lo que deja pocas hipótesis para explicar tal situación.

Una de las hipótesis válidas puede ser el "Efecto del Experimentador", donde pudiera ser que los intereses y deseos del personal del Proyecto GCP fueran registrados por nuestros detectores. También puede ser que la naturaleza de la pregunta condicione los resultados y que se generen sutiles aportes de otras fuentes no relacionadas con la Noósfera.

En cualquier caso, los resultados son relevantes. Por mi parte, creo que es justo asegurar que los patrones de correlaciones muestran una influencia primaria relacionada con los eventos en sí mismos. Si bien no podemos en este punto afirmar que una "Conciencia Global" sea la responsable de las anomalías, mi detallada experiencia con la base de datos completa me lleva a creer que la conciencia global es el principal candidato.

En otras palabras, yo creo que las desviaciones están intensa y claramente relacionadas con los eventos más importantes y con las fuertes emociones humanas. Por ejemplo, nosotros encontramos que las correlaciones entre los "eggs" eran más fuertes cuando una medida completamente independiente de la "intensidad de las noticias" era alta [en mi país a esto le llaman "termómetro noticioso"]. Esto significa que los experimentadores no necesitan identificar eventos específicos ni conocerlos, porque en cualquier caso siempre aparecerá la correlación.

Como sea, la hipótesis más sencilla consiste en interpretar las tendencias anómalas como la evidencia de que algo relacionado con la supuesta conciencia global existe de un modo sutil pero detectable. Pero falta mucho trabajo por hacer antes de erigir esta hipótesis como el modelo interpretativo final.

Nosotros podemos asegurar que los resultados muestran anomalías genuinas, pero no es posible llegar a ofrecer una explicación definitiva. Hay sugerencias especulativas que permitirían explicar el fenómeno. Uno de los más prometedores modelos físicos es la Teoría de David Bohm de la Información Activa . Según este modelo, la información (y su significado concomitante) puede ser no local y extenderse indefinidamente a través del espacio y del tiempo.

La información activa puede ser imaginada como un campo de potencial participando en el desarrollo de la manifestación del mundo físico [se modela con la función de onda cuántica correspondiente]. Así, la infomación activa es virtual, pero cuando la necesidad lo requiere, esa necesidad actualiza la información y crea un repositorio para ésta [lo que ocurre al realizar una medida que provoca el colapso de la función de onda y la "aparición" de un sistema clásico o repositorio físico]. De acuerdo con este modelo, la red del GCP crea la pregunta en la forma de una necesidad de información, lo que hace posible prever a través de los datos la ocurrencia de un evento importante de gran resonancia en la conciencia mundial, lo que se manifiesta como sutiles cambios en los comportamientos de nuestros detectores.


Las sugerencias realizadas en muchas tradiciones culturales e intelectuales y que afirman que la Tierra tiene una conciencia, parece tener un leve respaldo con los resultados del GCP. Similarmente, la idea de una conciencia grupal a gran escala y que puede englobar a toda la población del mundo, consigue también ganar cierto nivel de credibilidad. Estos resultados son consistentes con la idea de que puede existir un sutil vínculo entre personas separadas por grandes distancias y que ellas pueden estar conectadas a gran escala por medio de campos de conciencia.

Una secuencia de sucesos no aleatorios experimentados por el GCP nos ha llevado a examinar tópicos como buscar distorsiones de la misma aleatoriedad, aparentemente causadas por una conciencia que conecta nuestras mentes y que toca el mundo material


Agradecimientos
El Proyecto de Conciencia Global no podría existir sin los grandes aportes de Greg Nelson y John Walker, quienes crearon la arquitectura y el sofisticado software de la red. Dick Bierman y otros en el grupo de planeación han aportado sus ideas y experiencias. Rick Berger ayudó a crear un sitio web integral que permitió poner el proyecto a disposición del público. El proyecto no existiría sin el aporte de todos los "eggs hosts".

El apoyo financiero proviene de personas como Charles Overby, Tony Cohen, Reinhilde Nelson, Michael Heany, Alexander Imich, Richard Adams, Richard Wallace, Anna Capasso, Michael Breland, Joseph Giove y de un auspiciador anónimo. El Institute of Noetic Sciences proporciona apoyo logístico bajo el marco de un proyecto propio sin fines de lucro, y la Lifebridge Foundation ha proporcionado un apoyo generoso para documentar el GCP.

Finalmente, existen muchos amigos del proyecto GCP, cuya buena voluntad, interés y empatía, abren un nicho que es necesario en el espacio de conciencia.

Referencias
1. Teilhard de Chardin, P. (1959). The Phenomenon of Man. New York: Harper & Row, Publishers.
2. Nelson, R. D., Radin, D. I., Shoup, R. y Bancel, P. A. (2002). Correlations of Continuous Random Data with Major World Events. Foundations of Physics Letters, 15, 6, 537-550.


ANEXOS
Effect Size y Stouffer Z
Fuentes:
http://www.uccs.edu/~faculty/lbecker/es.htm#III
http://www.tcm.phy.cam.ac.uk/~bdj10/psi/delanoy/node1.html

1) Efecto del Tamaño
En el punto III del primer link se explica estadísticamente el "Effect Size", que corresponde a cómo calular los efectos del tamaño cuando los dos grupos muestreados son dependientes, obteniéndose lo que se denomina "correlated designs". Así, el Test de Significancia será igual al producto entre el Efecto del Tamaño (Effect Size) y el Tamaño del Estudio (Study Size).

El link dice:

I. Panorámica
El Efecto del Tamaño (Effect Size o ES) es el nombre dado a una familia de índices que miden la magnitud del efecto de cierto tratamiento o modo de actuar. A diferencia de los tests de significancia, estos índices son independientes del tamaño de la muestra. La utilización del ES es común en los estudios de meta-análisis que resumen los descubrimientos de una específica área del conocimiento. Vea por ejemplo, la influencia del meta-análisis de la sicología educacional y los tratamientos de los estereotipos por Lipsey y Wilson (1993).
Existen muchas fórmulas para medir el ES. Para los investigadores ocasionales de los estudios de meta-análisis, como yo, esta diversidad puede inducir a la confusión. Uno de mis objetivos en este trabajo es organizar toda esa información y resumirla.
En general, el ES puede ser medido de dos formas:
a) Como la diferencia estandarizada entre dos promedios, o
b) Como la correlación entre la clasificación de la variable independiente y los puntajes conseguidos por la variable dependiente. Esta correlación es llamada "Efecto del tamaño de la correlación" (Rosnow & Rosenthal, 1996).
Estas notas comienzan con la presentación de las medidas básicas del ES para estudios con dos grupos independientes. A continuación se describen los asuntos relacionados con la evaluación del ES para dos grupos dependientes.
(…)
III. Medidas del Efecto del Tamaño para dos grupos dependientes.
Existe cierta controversia sobre cómo calcular el ES cuando los dos grupos son dependientes, por ejemplo cuando tú tienes grupos igualados o mediciones repetidas. Esos diseños se conocen como "Diseños Correlacionados". Veamos un típico diseño de medidas repetidas:

Un Diseño Correlacionado o Medidas Repetidas

OC1 OC2O

E1 X OE2

Los participantes son asignados aleatoriamente a una de las dos condiciones: Experimental (E) o Control (C). A los participantes se les proporciona un pre-test en el instante 1 (O_1). El tratamiento es administrado en "X". Las mediciones en el instante 2 (OE2) corresponden a un post-tratamiento del grupo experimental. El grupo de control es medido en una segunda ocasión (OC2) sin la aplicación del tratamiento. El periodo de tiempo entre O_1 y O_2 es el mismo en ambos grupos.

Este diseño investigativo puede ser analizado de distintas formas, incluyendo ganancia de puntajes, un 2x2 ANOVA con tiempos de medición a medida que se repite la medida, o ANCOVA utilizando puntajes de pre-test como covariación. En los tres casos se asume que los puntajes del pre-test están correlacionados con los puntajes del post-test, lo que implica que los test de significancia son más sensibles a cualquier diferencia que pueda ocurrir respecto de los análisis que no utilizan la correlación entre los puntajes del pre-test y el post-test. Un análisis del ES compara el promedio del grupo experimental con el promedio del grupo control. El promedio del grupo control se calculará con los puntajes del post-tratamiento, OE2. Sin embargo, cualquiera de los otros tres promedios podría ser utilizado como el promedio del grupo control. Se podría contar con el ES al comparar OE2 con su propio puntaje de post-tratamiento OE1, o con el puntaje del pre-tratamiento del grupo control OC1, o con el segundo testeo del grupo no tratado OC2. Wilson, Becker, and Tinker (1995) calcularon estimaciones del ES, d de Cohen, al comparar los puntajes del grupo de post-test OE2 con el segundo test del grupo control no tratado OC2. Nosotros escogemos OC2 porque las medidas tomadas al mismo tiempo deberían depender poco de la historia de los artefactos, y porque cualquier regresión del promedio desde el tiempo 1 al tiempo 2 tendería a hacer ese test más conservativo.

Supongamos que tú decides calcular la d de Cohen por medio de la comparación entre los puntajes del post-test de los grupos experimentales OE2 con sus propios puntajes del pre-test OE1. En tal caso, ¿Cómo debería calcularse la desviación estándar combinada? Existen dos posibilidades: se podría utilizar las desviaciones estándar originales para los dos promedios, o tú podrías utilizar los pares de valores del test-t para calcular la d de Cohen. Dado que los pares de valores del test-t consideran la correlación entre los dos puntajes, los pares del test-t serán mayores que los test-t entre los grupos. Así, el ES calculado utilizando los pares de valores del test-t serán siempre mayores que el ES calculado utilizando los valores del test-t entre los grupos, o serán mayores que las desviaciones estándar originales de los puntajes. Rosenthal (1991) recomendó utilizar los pares de valores del test-t al calcular el ES. Un conjunto de programas computacionales de meta-análisis de Mullen y Rosenthal (1985) utilizan los pares de valores del test-t en sus cálculos. Sin embargo, Dunlop, Cortina, Vaslow y Burke (1996) argumentaron de un modo convincente que las desviaciones estándar originales (o el valor del test-t entre los grupos de prueba) debería ser utilizado para calcular el ES entre diesños correlacionados. Ellos argumentaron que si se corrige la desviación estándar del grupo en una cantidad dada por la correlación entre las medidas, luego el ES así obtenido será una sobre-estimación del verdadero valor. Como muestra la tabla n° 2 de Dunlop et al., la sobre-estimación depende de la magnitud de la correlación entre los dos puntajes. Por ejemplo, cuando la correlación entre los puntajes es de al menos 0.8, el ES así calculado es igual a más del doble de la magnitud del ES calculado mediante las desviaciones estándar originales de las mediciones. El mismo problema ocurre si se utiliza el valor F de un grado de libertad y que está basado en medidas repetidas para calcular el valor del ES.

En resumen, cuando tienes diseños correlacionados deberías utilizar las desviaciones estándar originales para calcular el ES en lugar del valor del par del test-t o el valor F del sujeto.

2) Stouffer Z
El Test de Significancia se centra en el "Problema Mente-Cuerpo", es decir, se estudia si la mente puede persistir sin el cuerpo, o bien si la mente es un epifenómeno de la función cerebral. Dentro de toda esta teoría es donde se utiliza el Test de Significancia a partir del Effect Size y del Study Size. El Stouffer de Z proporciona "una medida de cuántas desviaciones estándar permiten explicar todo por medio de la casualidad. Usando el Stouffer Z (SZ) nosotros podemos calcular un valor p que nos da la probabilidad de observar tales resultados extremos si la única explicación es el azar. Como pronto veremos, los valores p obtenidos en el meta-análisis de la parapsicología son extremadamente bajos, lo que de hecho excluye el azar como una explicación válida del set de datos obtenido. "

El segundo link dice lo siguiente:

1. Introducción
El así llamado "Problema Mente-Cuerpo" es probablemente el problema más duradero que ha enfrentado la humanidad. El quid del problema es poder responder si la mente puede existir independientemente del cuerpo. O equivalentemente, ¿Es la mente un epifenómeno del funcionamiento cerebral o es, en algún grado, independiente de las propiedades mecánicas de nuestro cerebro físico? Según los registros históricos, los más grandes pensadores filosóficos han estudiado este tema. Sin embargo, fuera del campo de la parapsicología ha habido poca investigación experimental explorando si la consciencia puede interactuar con su ambiente en forma independiente del cuerpo físico. Este paper abordará estos temas mediante el estudio de los patrones encontrados en la investigación parapsicológica experimental y que sugieren que la mente o consciencia puede interactuar directamente con su ambiente sin mediación conocida de mecanismos físicos, a saber, los sentidos, la actividad motora o algún output fisiológico. Si los patrones emergentes de este trabajo experimental son correctos, podrán permitirnos arrojar luz sobre la capacidad que tiene la conciencia para actuar independientemente del cuerpo físico.

La investigación parapsicológica puede ser categorizada en dos grandes áreas. La primera es el estudio de la ESP (Percepción ExtraSensorial) y se refiere a la aparente obtención de información por parte de la mente sin la utilización de medios sensoriales. La segunda área es la PK (PsicoKinesis) y corresponde a cambios en sistemas físicos y que aparentemente son provocados por un acto de intención consciente sin la mediación de los medios que normalmente se entiende que son capaces de efectuar tales cambios. Ambas áreas, ESP y PK, pueden ser conceptualizadas como interacciones anómalas entre la mente y su ambiente y que son mediadas por medios que actualmente se denominan no sensoriales. Psi es un término usado para referirse tanto los fenómenos ESP como a los PK. Este paper presentará siete grandes meta-análisis llevados a cabo con varias bases de datos parapsicológicas. Estos siete meta-análisis fueron escogidos para apoyar la investigación ESP y PK, junto con iluminar la experimentación que ha sido realizada durante los últimos 60 años. El término "Meta-análisis" se utiliza para referirse a un grupo de procedimientos estadísticos que permiten resumir grandes grupos de investigación. Estos procedimientos proporcionan medios sistemáticos para combinar los resultados de grupos o estudios individuales relacionados con el propósito de evaluar la coherencia global y a la vez poder identificar variables en la base de datos que parecen afectar a los resultados, las que se conocen como "variables moderadoras". Las técnicas meta-analíticas proporcionan revisiones cuantitativas a los grandes grupos de investigación, como oposición a las revisiones cualitativas. El término "meta-análisis" fue acuñado por Glass en 1976[1], a pesar de que sus procedimientos han sido conocidos desde hace muchas décadas antes (Snedecor[2]; Mosteller y Bush [3]). Más recientemente, muchos libros han sido publicados detallando los métodos, los procedimientos y las consideraciones teóricas para realizar meta-análisis (ej: Glass, McGaw y Smith [4]; Hedges y Olkin [5]; Wolf [6]; Hunter y Schmidt [7]; y Rosenthal [8]); Estas referencias nos proporcionarán detalles de los procedimientos y formulaciones estadísticas descritas a continuación.
Para los lectores no familiarizados con las técnicas del meta-análisis, se proporcionará un breve resumen de sus componentes. Después de identificar el dominio del estudio, se deben reunir todos los estudios relevantes. Las características de interés (variables y constantes del procedimiento, calidad del estudio, etc.) deben ser codificadas a continuación. Idealmente, esta codificación debería ser desarrollada por uno o más individuos que no estén relacionados con el tema de investigación para evitar subjetividades en las decisiones de codificación. Las medidas estadísticas generadas por cada estudio (comúnmente referidas como "test estadísticos", como z, t, chi-cuadrado, etc.) deben ser convertidos a Efectos de Tamaño. Un ES es una medida del grado en el cual el fenómeno está presente en la población (ie, un valor que indica cuan grande es el efecto). Como notó Rosenthal [8], los parámetros estadísticos convencionales suelen corresponder a un producto de cuan grande es el efecto y alguna función del tamaño del estudio, frecuentemente la raíz cuadrada del número de ensayos o individuos. Rosenthal expresa esto (pág 20) como:

Test de significancia = Tamaño del Efecto x Tamaño del Estudio

La mayoría de las mediciones del ES se definen de modo que valgan cero cuando la hipótesis nula es verdadera. A diferencia de las mediciones de test estadísticas, el ES no aumenta en magnitud al aumentar el tamaño de la muestra. Por lo tanto, estos parámetros proporcionan una reseña más confiable para la replicación de estos estudios respecto de las técnicas estadísticas convencionales. Este hecho puede ser especialmente importante cuando se estudia pequeños efectos y con baja potencia, como aquellos encontrados en la investigación parapsicológica. El ES permite que los estudios sean evaluados con una medida continua, en lugar de hacerlo con parámetros dicotómicos en los cuales los test estadísticos son frecuentemente reducidos (ie, estadísticamente significativo o no).

La replicación obtenida a través de distintos estudios es medida en términos de la coherencia u "homogeneidad" de la magnitud de los ES observados. Nuevamente observamos que esta explicación difiere del enfoque tradicional donde se utilizan test estadísticos donde la replicación es definida a partir del rechazo o verificación de la hipótesis nula . Obviamente, cuando se estudia la replicación en un conjunto de estudios, la confiabilidad de cualquier estimación global se incrementará a medida que se incremente la cantidad de datos confirmados. Mediante el uso de test estadísticos es posible combinar los resultados de un conjunto de estudios y/o resumirlos para dar un resultado global de la base de datos, ponderando cada estudio según su tamaño. En los siguientes meta-análisis realizados con estudios parapsicológicos, el riesgo global de observar los resultados suponiendo que la hipótesis nula es siempre verdadera se puede evaluar mediante la obtención de un "puntaje-z" (z-score) para todos los estudios. Esto es simplemente un promedio ponderado del número de desviaciones estándar del alejamiento de los resultados respecto de la aleatoriedad y la probabilidad de que esto ocurra puede ser evaluada mediante la utilización de tablas estadísticas normalizadas. Una forma de calcular esta característica es mediante el "Stouffer Z" [3, 6, 9], de modo que el hecho de que la hipótesis nula sea siempre verdadera la estadística será la de una curva normal estándar. El Stouffer Z proporciona una medida de cuan alejados está la combinación de los resultados de todos los estudios respecto de la aleatoriedad pura. Mediante el Stouffer Z nosotros podemos calcular el "valor-p" que nos proporciona la probabilidad de observar tal resultado extremo si la única explicación es el azar. Como pronto veremos, los valores p de los meta-análisis realizados en parapsicología son extremadamente bajos, por lo cual se justifica excluir el azar como una explicación de los resultados. Mediante la utilización de técnicas de meta-análisis es posible evaluar cuantitativamente el impacto de los errores y de las variables moderadoras en los resultados de los estudios, lo que genera mejoras en el diseño de los estudios junto con la identificación de factores asociados a la obtención de resultados óptimos. Así mismo, las posibles relaciones entre las variables podrán ser reconocidas y puestas a prueba en futuros experimentos.

 

Un problema que abunda en la literatura especializada es la tendencia a informar o publicar sólo descubrimientos significativos, lo que comúnmente se denomina "El Problema del Archivador". Sin emabargo, existe una variedad de métodos disponibles para estimar el tamaño del efecto del Archivador (es decir, el número de estudios no significativos que deben ser acumulados para anular los resultados del meta-análisis). Por ejemplo, Rosenthal [8] proporciona un parámetro estadístico, denominado "N Falso-Seguro", para determinar cuántos estudios nulos no publicados son necesarios para refutar un efecto observado en cierta escala de la base de datos. La regla general de Rosenthal es que la razón 5:1 de estudios nulos no publicados por cada estudio publicado debería ser obtenida antes de aventurarse a eliminar con seguridad la negación del efecto del Archivador.

En las siguientes secciones se presentarán los hallazgos obtenidos por los meta-análisis seleccionados. En la sección final de Discusiones se encontrarán las consideraciones de las posibles interpretaciones, sus explicaciones y las implicaciones de éstas (...)


HOME: www.geofisica.cl