De décembre 1993 à janvier 2001, nous avons réalisé 240 séances de télépathie en groupe, comportant 27.845 essais collectifs (soit plus de 250.000 essais individuels) ! Dans la population de participants considérée, constituée de volontaires recrutés sans méthode particulière (amis, connaissances, presse), on a 274 individus de sexe féminin et 145 individus de sexe masculin pour un total de 418 personnes. Soit environ 2/3 de femmes pour 1/3 d'hommes. La taille du groupe émetteur a varié de zéro à 15 personnes et la taille du groupe récepteur de 1 à 16 personnes. Nous avons fait varier un certain nombre de paramètres, notamment la nature des cibles (images, mots) et le nombre des cibles possibles (2, 3, 5).
|
Le nombre de succès individuels comme le nombre de succès collectifs (résultat du vote majoritaire) s'est révélé compatible avec l'hypothèse du hasard :
Nous avons testé pour le protocole à deux images (respectivement trois mots et cinq mots) si le pourcentage « » de bonnes réponses était égal à p0=1/2 (respectivement à 1/3 et 1/5), c’est à dire égal au hasard.
Les hypothèses de ce test sont :
H0 : p = p0 contre H1 : p ¹ p0
La statistique utilisée est : où n est le nombre d’essais associés à chaque protocole. Elle suit asymptotiquement une loi normale centrée réduite. (Cf. Etude Auriol et coll.)
Nombre d’essais individuels |
Pourcentage de bonnes réponses |
P-value |
|
2 images |
27 081 |
49,94 % |
0.8316 |
3 mots |
102 634 |
33,34 % |
0.9472 |
5 mots |
120 347 |
20,13 % |
0.2683 |
Nombre de cibles possibles |
2 |
3 |
5 |
Moyenne attendue |
0.500 |
0.333 |
0.200 |
Moyenne observée |
0.498 |
0.329 |
0.202 |
On pourrait supposer que les forts pourcentages, c’est à dire ceux supérieurs à l’espérance (psi-hitting), et les trop faibles (psi-missing) se compensaient. C'est sous cette hypothèse de fluctuations entre attitudes de psi-hitting et de psi-missing, qu'il parait intéressant, de tester la variance du succès.
Nb d'essais par salve |
cible |
Nb_salves |
var |
var_esp |
15 |
2 |
196 |
3.08* |
3.75 |
3 |
713 |
3.37 |
3.33 |
|
5 |
268 |
2.39 |
2.40 |
|
30 |
2 |
98 |
5.26* |
7.50 |
3 |
356 |
6.32 |
6.67 |
|
5 |
134 |
4.72 |
4.80 |
|
60 |
2 |
49 |
11.92* |
15.00 |
3 |
178 |
12.39 |
13.33 |
|
5 |
67 |
9.03 |
9.60 |
Nombre de cibles possibles |
2 |
3 |
5 |
Variance attendue |
0.5 |
0.4714 |
0.4 |
Variance observée |
0.499997 |
0.469996 |
0.401440 |
cible |
nombre de succès (N écarts +1) |
variance observée |
variance espérée |
2 |
1463 |
1.93* |
2 |
3 |
3512 |
6.42* |
6 |
5 |
777 |
20.05 |
20 |
Frédérick Garcia précise “dans l'etude que j'ai menee par simulation je n'ai pas regarde la "variance des écarts". J'ai regardé la variance par groupe. J'ai regardé des choses similaires a la distance entre deux hits (chaine de markov, marche aléatoire) mais pas exactement cette variable. Dire que je n'ai pas retrouvé l'effet variance, ne veut pas dire que l'analyse statistique faite sur les variances par Myriam Campardon est "non valide", mais que simplement dans l'analyse différente, que j'ai menée, je ne retrouve pas un tel effet ”. |
On peut faire l'hypothèse que, si certaines des réponses ne sont pas dues au hasard mais à l'intervention de l'ESP, elles devraient contribuer à faire varier la majorité, de sorte que les fortes majorités seraient plus liées au succès que les faibles majorités. En fait, le calcul mené sur l'ensemble des sessions nous conduit à réfuter cette hypothèse : contrairement à notre attente, les fortes majorités n'ont pas donné de meilleurs résultats que les majorités faibles. (Cf. étude Campardon et coll. 1)
Les résultats ont déçu nos attentes, notamment quant à une amélioration éventuelle du rapport Signal/Bruit (signal to noise) par l'appel à la redondance obtenue grâce au vote majoritaire. Cette procédure, non seulement n'a pas accru fortement le psi-hitting comme nous l'attendions, mais elle semble au contraire avoir eu pour effet de rendre tous les résultats aléatoires :
On a observé notamment que contrairement à notre attente :
L'étude de la variance sur les résultats du vote se présente comme non homogène. La variance du succès au cours du temps, évaluée par la méthode des salves d'essais collectifs (15, 30 ou 60 essais successifs) , est anormale pour le protocole à deux cibles possibles et non significative dans les deux autres protocoles. <l’étude de Garcia n’a obtenu aucune signification statistique.
La variance évaluée par la méthode des écarts entre succès consécutifs du vote a été significativement différente du hasard pour deux des trois protocoles; mais ce résultat est d'interprétation très difficile (variance normale, significativement faible, ou significativement forte par rapport à la variance attendue, selon le protocole).
Au cas où l'apparence aléatoire de nos données appartiendrait à l'erreur de deuxième espèce, à titre heuristique, et sous l'hypothèse que l'ESP serait dans le cadre de notre protocole un phénomène rare, d'impact faible et de signe indéterminé (tantôt vers le Psi-Hitting, tantôt vers le Psi-Missing) nous avons entrepris une analyse de covariance sur les essais collectifs qui s'écartent de l'espérance de manière significative (p < .05). Nous sommes conscients du fait qu'on peut s'attendre à ce qu'environ 5 % des essais s'écartent de l'espérance au seuil de p < .05 mais nous ne prévoyons pas qu'une régression sur ces essais aboutisse à dégager des paramètres qui augmenteraient ou diminueraient l'écart au hasard (Ho).
Un « stacking effect » peut intervenir ici (non indépendance des réponses des récepteurs). En effet chaque membre du groupe des récepteurs se prononce à chaque coup collectif par rapport à un « set » commun de cibles-possibles : si telle cible-possible a des caractéristiques attractives ou répulsives, un excès de votes se portera sur cette cible-possible ou s’en détournera, indépendamment d’un quelconque phénomène télépathique. S’il se trouve que la cible réelle coïncide avec une « cible-possible attractive » on aura un faux « hit », réciproquement, si la cible réelle coïncide avec la « cible-possible répulsive » on aura un faux « miss ». La méthode de Greville permettrait de contrôler ce phénomène, mais notre démarche est purement heuristique et ne vise pas à être démonstrative. D'autre part nos résultats sont difficilement réductibles à un « stacking effect ».
Afin de pouvoir tester l’effet de chaque modalité des variables, nous avons eu recours à une transformation du « pourcentage de succès » pour rendre comparable les protocoles à deux images, trois mots ou cinq mots.
où :
- est le pourcentage de bonnes réponses de l’essai ;
- p est le pourcentage attendu sous l’hypothèse de choix au hasard, (0.50 pour deux images, 0.33 pour trois mots et 0.20 pour cinq mots).
Si on s’intéresse à la « qualité » des essais, on peut tester si le pourcentage de succès obtenu pour chaque essai est significativement moins bon que le hasard, significativement meilleur que le hasard ou égal au hasard à un seuil de 5% grâce à un test du Khi2.
La statistique de ce test, calculée pour chaque essai, est : ~Khi2 à un degré de liberté avec les notations définies précédemment.
On obtient les résultats suivants à un seuil de 5% :
Nombre d’essais |
Pourcentage d’essais |
|
Supérieurs au hasard |
1079 |
3.87% |
Inférieurs au hasard |
413 |
1.48% |
Egaux au hasard |
26 353 |
94.64% |
On se concentre donc sur une étude des essais, soit significativement supérieurs au hasard, soit significativement moins bons que le hasard.
Les effets des différentes variables « protocole » sur la réponse seront mis en évidence par une analyse de covariance. Les variables significatives seront sélectionnées grâce à une procédure pas-à-pas et gardées pour un seuil de 5%. Nous avons considéré aussi bien les essais significativement inférieurs au hasard que les essais supérieurs car on peut penser que les premiers sont la manifestation d’un phénomène de « psi-missing » et on pouvait espérer dégager des facteurs qui joueraient pour favoriser le succès distincts d’autres facteurs qui joueraient pour favoriser l’échec.
On se place dans le cas où la variable réponse (pourcentage transformé h) est significativement supérieure à la valeur attendue sous hypothèse de réponse au hasard. Les variables obtenues sont significatives avec une p-value proche de 0.0001.
Variable |
Estimation |
||
Coups collectifs |
Supérieurs au hasard |
Inférieurs au hasard |
|
Constante |
+1.0589 |
-1.1201 |
|
Variables qualitatives |
Les émetteurs ont eu une consigne |
+0.0958 |
… |
Les participants ont choisi la liste des cibles |
-0.3394 |
+0.2594 |
|
Il y a eu une forme de récompense groupale |
-0.1326 |
… |
|
Le temps restant après que la moitié des récepteurs ait répondu équivaut au temps écoulé |
+0.2736 |
-0.0212 |
|
Le temps restant après que la moitié des récepteurs ait répondu équivaut à deux fois le temps écoulé |
+0.2958 |
-0.1169 |
|
Variables quantitatives |
Temps de réponse |
-0.0061 |
+0.0080 |
Rapport nombre d’émetteurs / effectif total |
-1.4547 |
… |
|
Rapport nombre d’émetteurs / nombre de récepteurs |
+0.9572 |
… |
Paramètres liés à un rapprochement du hasard :
· les participants ont eu la possibilité de choisir la liste des cibles potentielles (-0.34)(+0.26)
· la séance comprenait une forme de récompense groupale (-0.13)(…)
· temps maximum possible accru pour la réponse. (– 0.01) (+0.01).
Paramètres liés à un éloignement du hasard :
· Application d’un protocole faisant dépendre le temps de réponse maximum du temps utilisé par la moitié des récepteurs (+ 0.27 & +0.30)(-0.02 & -0.12). (Ce n’est pas un phénomène très stable selon le seuil de sélection des essais).
· Protocole où les émetteurs ont reçu une consigne (soit de se centrer sur les récepteurs, soit de se centrer sur la cible) (+ 0.10)(…).
· Nombre des émetteurs et des récepteurs : l’interprétation des deux ratios « nombre d’émetteurs / effectif total » [(k*NbE)/(NbE+NbR)](-1.46)(…) {rapprochement du hasard} et « nombre d’émetteurs / nombre de récepteurs » [(g*NbE)/NbR] (+0.96)(…) {éloignement du hasard} doit se faire conjointement car ils impliquent les mêmes variables brutes. Pour comparer ces deux ratios, on peut faire une réduction au même dénominateur. On vérifie alors que le rapprochement du hasard dépend de {(k-g)*NbE*NbR} alors que l’éloignement du hasard dépend de {g*[(NbE*NbR) + NbE²]}. Trivialement, il n’y a aucun effet de la répartition des rôles (récepteurs vs. émetteurs) sur le hasard si k*(NbE*NbR) = g*[(NbE*NbR) + NbE²], c’est à dire si le nombre d’émetteurs était égal à zéro. L’équilibre serait également atteint [1] quand (NbE/NbR) = (k-g)/g.
Avant un grand nombre de séances, les récepteurs ont donné à chaque participant une note allant de 0 à 5 en répondant à la question :
- Connaissez-vous telle personne ? (de « pas du tout » à « très bien »)
Nous avons crée deux ratios :
Score Récepteurs |
Score Emetteurs |
|||
ResGr = |
------------------------------ |
EmetsGr = |
---------------------------- |
|
Score Groupe |
Score Groupe |
Où « Score Récepteurs » représente la moyenne des notes que les récepteurs ont attribués aux autres récepteurs et « Score Emetteurs » représente la moyenne des notes que les récepteurs ont attribués aux émetteurs. Le score du groupe représente la moyenne de toutes les notes attribuées.
Pour les essais significatifs à 5% et supérieurs au hasard (psi-hitting), la table comptait 1 079 observations, 438 observations n’étaient pas renseignées, l’étude de régression simple a été réalisée sur 641 observations. Le R² ajusté est de 10,8%, (effet "petit" selon la convention de Cohen).
Variable |
Estimation |
Succès |
Écart du hasard |
P-value |
ResGr |
-1,54 |
- |
- |
<0.0001 |
EmesGr |
+0,58 |
+ |
+ |
0.0003 |
Lorsque les récepteurs se connaissent mieux entre eux qu’ils ne connaissent les émetteurs, les résultats se rapprochent du hasard (succès diminué). Lorsque les récepteurs connaissent mieux les émetteurs qu’ils ne se connaissent entre eux, on s’écarte du hasard (succès augmenté) [2] .
La même tendance se retrouve, quoique moins clairement [3] , sur les coups significatifs dans le sens du PsiMissing (dans ce cas, lorsque les récepteurs se connaissent bien entre eux, l’échec est atténué, s’ils connaissent bien les émetteurs, l’échec est renforcé).
Variable |
Estimation |
Succès |
Écart du hasard |
P-value |
ResGr |
+ a |
+ |
- |
<0.0001 |
EmesGr |
- b |
- |
+ |
<0.0001 |
Les paramètres qui semblent favoriser le hasard concernent l’ensemble des participants : choix préalable de cibles possibles en nombre limité, existence d’une récompense groupale, temps prolongé pour répondre. Si on alloue aux récepteurs un temps de réponse dépendant du temps de la moitié la plus rapide d'entre eux (phénomène compétitif, source de tensions intra groupe), on observe un éloignement du hasard.
Les paramètres qui semblent engendrer un éloignement du hasard concernent surtout les émetteurs : émetteurs ayant reçu une consigne de concentration définie, nombre des émetteurs. Connaissance des émetteurs par les récepteurs plus grande que la connaissance des récepteurs entre eux.
Les paramètres que nous dégageons peuvent difficilement être tous rattachés à une forme de stacking effect : notamment la consigne donnée aux émetteurs de se concentrer d’une certaine façon, l’effet du nombre des émetteurs, la non familiarité des récepteurs entre eux par rapport à leur familiarité à l'égard des émetteurs. Ces paramètres semblent favoriser le Psi non spécifié (unspecified Psi, PsiSomething) par rapport à une absence de Psi (PsiNothing).
Le fait que le score sociométrique des émetteurs (EmesGr) écarte du hasard par opposition au score sociométrique des récepteurs (ResGr) peut être expliqué par le fait que lorsqu’il y a une bonne connaissance réciproque au sein du groupe des récepteurs, ces derniers ont tendance à être concentrés sur les partenaires de leur propre sous-groupe au lieu d’être concentrés sur le message émis par les émetteurs. Au contraire, lorsque les émetteurs sont biens connus des récepteurs, cela a pour conséquence d’améliorer l’écart au hasard, car les récepteurs portent un plus grand intérêt au groupe des émetteurs et aux messages qu’ils émettent.
Autrement dit, la vie de groupe tend à produire une fusion entre les membres de chacun des deux sous-groupes (agents et percipients) ce qui écarte les membres d'un sous-groupe de "se brancher" sur les membres de l'autre sous groupe (affaiblissement de la transmissioon). Ce phénomène est d’autant plus net que la connaissance préalable des récepteurs entre eux est forte et qu'ils ne vivent pas de tensions particulières entre eux.
Si ce n’est pas le cas, et qu’il y a des liens forts entre récepteurs et émetteurs, il peut y avoir une meilleure transmission. Il serait opportun de modifier très fréquemment la fonction (E ou R) de chaque participant pour éviter la « coagulation » des sous groupes. Il nous reste aussi à explorer si les essais succédant immédiatement à une « réunion de tous les participants » (après les ‘pauses’), s’écartent plus du hasard que les autres.
Si nous admettons qu’il existe du Psi dans notre expérience, force nous est de constater que nous ne mettons en évidence aucun paramètre qui favoriserait le PsiHitting au détriment du PsiMissing. L’existence du PsiMissing en quantité équivalente au PsiHitting fait penser qu’il existe – au moins dans la situation de groupe – une puissante tendance à refuser la bonne réponse en provenance du sous-groupe des émetteurs, comme s’il s’agissait de s’en protéger comme d’une agression en provenance des émetteurs. Dans le protocole à deux cibles possibles, tout se passe comme si le groupe corrigeait tout succès par un échec et réciproquement, d'ou une variance des écarts anormalement diminuée; dans le protocole à trois cibles possibles le changement d'attitude (hitting => missing) ou (missing => hitting) ne survient qu'après la manifestation d'une série de succès ou d'échecs (augmentation de la variance). La très grande variété de cibles utilisées rend improbable qu’il s’agisse d’un refoulement perceptif de type freudien, même si le phénomène est parfaitement non conscient. Ne pourrait-il s’agir de la nécessité pour tout sujet d’éviter sa propre dissolution pour exister comme individu avec une frontière psychique. Ce phénomène pourrait s’accentuer en situation de groupe dans la mesure où celle-ci favorise la fusion ! Certains sujets, ayant obtenu des succès notables dans des protocoles par paire, n'ont donné que des résultats proches du hasard dans le cadre collectif d'Agape !
Contrairement au bon sens, et sous réserve de confirmations expérimentales reproductibles, nous proposons de considérer quatre catégories de résultat au lieu de deux : psi-hitting, psi-missing, dont le mélange donnerait du psi-something et psi-nothing (pas de psi décelable d'aucune façon). Le phénomène psi se répartirait sur un plan défini par deux axes : un premier axe allant de "pas de psi" à "il y a du psi" (opposition nothing/something); un deuxième axe opposerait psi-hitting à psi-missing.
La démarche heuristique tentée par les statisticiens du laboratoire du Pr Aragon ne constitue pas une preuve et ne peut masquer notre déconvenue par rapport à l'hypothèse de départ. Elle permet cependant une démarche ultérieure : on peut concevoir un protocole qui teste l'hypothèse selon laquelle on ne peut espérer de succès en groupe qu'à la condition de construire les sous-groupes agents et percipients de sorte qu'il y ait plus d'affinités entre chaque percipient et au moins un agent qu'il n'y a d'affinités entre les percipients. Le test sociométrique simple utilisé pour Agape pourrait suffire à cela, à condition que son résultat à chaque séance serve à distribuer les rôles. C'est ce qui est prévu dans le protocole SYBIL.
Documents "in extenso" => http://auriol.free.fr/parapsychologie/Agape/
Résumé De décembre 1993 à janvier 2001, nous avons réalisé 240 séances de groupe d'ESP avec vote majoritaire (27.845 essais collectifs, soit plus de 250.000 essais individuels; 418 participants différents, sans aucune sélection quant à leurs capacités psi antérieures; 2/3 de femmes pour un tiers d'hommes). La taille du groupe émetteur a varié de zéro à 15 personnes et la taille du groupe récepteur de 1 à 16 personnes. Nous avons fait varier un certain nombre de paramètres, notamment la nature des cibles (images, mots) et le nombre des cibles possibles (2, 3, 5).
Deux études conduites respectivement par M. Campardon et F. Garcia sur la variance des résultats du vote sont discordantes. La variance du succès au
cours du temps, évaluée par la méthode des salves d'essais collectifs
(15, 30 ou 60 essais successifs), est anormale pour le protocole à deux
cibles possibles et non significative dans les deux autres protocoles. La variance évaluée par la méthode des écarts entre succès consécutifs du vote a été significativement différente du hasard pour deux des trois protocoles; mais ce résultat est d'interprétation très difficile (variance normale, significativement faible, ou significativement forte par rapport à la variance attendue, selon le protocole). Au cas où l'apparence aléatoire de nos données appartiendrait à l'erreur de deuxième espèce, nous avons procédé à une analyse de covariance, menée à titre heuristique, afin de dégager les paramètres qui auraient pu influer sur les résultats. Nous travaillons au niveau de l’essai. Un essai est composé du vote de chacun des participants pour une image ou un mot et pour une émission donnée d’un message de la part des émetteurs. On se limite à une étude des essais, soit significativement supérieurs au hasard, soit significativement moins bons que le hasard. Afin de pouvoir tester l’effet de chaque modalité des variables, nous avons eu recours à une transformation de la variable d’intérêt « pourcentage de succès » qui permet de rendre comparable des pourcentages de succès obtenus avec deux images, trois ou cinq mots. On construit pour chaque essai le pourcentage de bonnes réponses des récepteurs qui sera la variable à expliquer. Les variables significatives ont été sélectionnées grâce à une procédure pas-à-pas et gardées pour un seuil de 5%. Tout ceci conduit à un résultat assez intrigant puisque, même si les succès des coups significatifs sont plus nombreux que les échecs (deux fois et demi plus nombreux), il apparaît que ce sont pratiquement les mêmes paramètres du protocole qui éloignent du hasard dans les deux cas. Ces paramètres sont notamment : un nombre accru des émetteurs par rapport au nombre des récepteurs, l'implication active des émetteurs dans la transmission et leurs liens sociaux (évalués par questionnaire sociométrique) avec les récepteurs. Par contre un trop grand nombre de récepteurs (plus du double des émetteurs) ou des liens sociaux très forts entre eux ont pour effet de rapprocher les résultats du hasard. Une recherche ultérieure (SYBIL) explorera l’hypothèse qu’on ne peut espérer de succès en groupe qu'à la condition de construire les sous-groupes de sorte qu'il y ait plus d'affinités entre percipients et agents qu'il n'y a d'affinités entre les percipients. |
13 Janvier 2004
[1] k*(NbE*NbR) = g*(NbE*NbR) + g*NbE² ; (k-g)*(NbE*NbR)=g*NbE² ; (k-g)/g=NbE²/(NbE*NbR) = NbE/NbR. En tenant compte d’un impact proportionnel à 1.5p de [NbE/(NbE+NbR) ] pour un rapprochement du hasard et d’un impact proportionnel à 1p de (NbE*NbR), on donne à k la valeur 1.5p et à g la valeur p ; on obtient alors {(k-g)/g = ½}. D’autant le rapport NbE/NbR est inférieur à ½ d’autant le résultat amoindrit son écart au hasard, d’autant NbE/NbR est supérieur à ½ et d’autant le résultat accroît son écart au hasard, au moins dans le cadre des essais significativement réussis.
[2] En fait, quel que soit le niveau de sélection des échantillons (seuil à 10% et 20%) les estimations des paramètres associés aux deux variables gardent les mêmes signes.
[3] Elle est moins stable : se manifestant ou non selon que la sélection se fait aux seuils de 5%, 10% ou 20%.