Débats de forums.
Pédagogie, connexionisme et ethnométhodologie
 
achives des forums de usenet

De :Alain Rieunier
Objet :Re: la pédagogie de la pédagogie.. :-))
Groupes de discussion :fr.education.divers
Date :1999/05/17
 

A Charlie

Merci d'avoir relancé le débat, mais je me serais passé d'une "bataille"
avec André Michaud qui défend comme nous ce qu'il croit être vrai après
semble-t-il un sérieux investissement personnel dans ses recherches, donc
faisons confiance à priori à son honnêteté.

Manifestement vous avez des références philosophiques qui ne sont pas les
miennes d'où l'intérêt des  forums.
Je ne connais pas Husserl et je n'ai que de vagues souvenirs de la
phénoménologie, je ne connais pas non plus l'ethnométhodologie (par contre
je peux lire un livre de plus pour essayer de savoir de quoi il retourne si
vous m'en conseillez un). J'ignore en outre tout du concept
"d'indexabilité", qui me paraît intéressant, si vous pouvez me le situer
rapidement ça m'aiderait à vous comprendre.

Manifestement vous êtes très intéressé par la méthodologie ce qui me paraît
normal d'après ce que je comprends de vos recherches et l'un des débats que
vous avez soulevé porte sur le statut à donner au raisonnement inductif.
Vous vous élevez avec véhémence contre la prétention de vouloir tirer des
conclusions générales à partir de cas particuliers, ce en quoi vous avez
parfaitement raison si vous vous situez dans le domaine du raisonnement
scientifique, vous reprenez d'ailleurs les thèses de Popper qui utilise
l'exemple : "ce n'est pas parce que l'on a toujours rencontré des cygnes
blancs que l'on est fondé à conclure que tous les cygnes sont blancs",
exemple à partir duquel il affirme que le raisonnement inductif n'a aucune
valeur pour asseoir une théorie scientifique, et je ne me vois pas remettre
en question cette affirmation.

Je pense tout de même qu'il faut commencer (comme d'habitude) par définir
les concepts.
Dans notre discussion il me paraît important de différencier le concept de
"pédagogie" de celui de  "sciences de l'éducation".
La définition la plus couramment admise du concept de pédagogie est "la
pédagogie est une action qui vise à produire des effets d'apprentissage". ce
qui situe le pédagogue dans le domaine de l'action et pas dans celui de la
science.
Le pédagogue a besoin de connaissances lui permettant de conduire son action
efficacement c'est certain mais c'est d'abord un pragamatique, pour lui "est
bon ce qui réussit". Que le statut de la proposition à partir de laquelle il
agit soit discutable sur le plan épistémologique ne lui importe guère, ce
qui est important c'est que la loi de l'effet : "tout comportemenr renforcé
positivement a tendance a se reproduire dans la même situation" par exemple,
lui permette d'agir avec de bonnes chances de succès.
Que dans un certain nombre de situations (rares), ce principe ne fonctionne
pas, le laisse indifférent puisque ce principe lui permet d'agir
efficacement dans la plupart des cas.

Le chercheur en "sciences de l'éducation" par contre se propose de nous dire
toute la vérité sur la loi de l'effet, d'identifier tous les cas dans
lesquels cette loi est  mise en échec afin de nous proposer une théorie
explicative exempte de contradictions, son domaine est le domaine
scientifique, que l'on peut définir comme Popper à partir du concept de
falsifiabilité. (Accessoirement Popper dénie à la psychanalyse le statut de
science car c'est une théorie comme le marxisme (dixit Popper) non
fasifiable). Le chercheur en sciences de l'éducation se préoccupe donc de
créer des théories scientifiques exemptes de contradiction et falsifiables
en conséquence il n'a pas le droit d'utiliser le raisonnement inductif,
c'est indiscutable.

Par contre, pour moi qui suis un pédagogue, donc quelqu'un qui ne se pique
pas de dire la vérité des choses mais qui tente de chercher des solutions
concrètes à des problèmes concrets (un bricoleur en quelque sorte), le
raisonnement inductif est tout à fait valide et lorsque je décris une
situation particulière comme celle de l'examen de fin d'année de nos
étudiants et que je dis que nous avions trouvé une solution à un problème
particulier (une recette) et que nous avons toujours été incapables de
généraliser cette solution à la catégorie de problèmes alors que Nunziatti
l'a fait et a créé le concept d'évaluation formatrice, la généralisation à
partir de cas particuliers est tout à fait licite puisque le critère de
validité de la proposition est un critère d'efficacité et que l'on peut
vérifier cette efficacité empiriquement.

Mon problème est un problème de praticien de l'enseignement, je forme des
enseignants et j'ai besoin d'outils efficaces à leur proposer. J'ai besoin
également de lire les théoriciens, pour comprendre et asseoir ma pratique
sur des théories, mais je cherche surtout à étudier les théories pour
proposer des solutions à des problèmes concrets.
Que le raisonnement inductif n'ait aucune valeur pour asseoir une théorie
scientifique, me paraît indiscutable, par contre ce même raisonnement
inductif a un bon niveau pragmatique de validité.
Ce n'est pas parce que le soleil se lève tous les matins que je peux
conclure qu'il se lèvera encore demain, je ne peux pas être sûr à 100% de
cette prévision, mais avouez que j'ai de bonnes chances de voir cette
prévision confirmée demain encore. Et ce degré de certitude me suffit
amplement en pédagogie, discipline dans laquelle je travaille avec
infiniment moins de chances de succès lorsque j'imagine une stratégie
pédagogique visant à provoquer tel ou tel apprentissage.

Revenons maintenant à l'évaluation formatrice. Ce type d'évaluation consiste
à faire construire par l'apprenant en amont de l'action, les critères de
performance attendus par l'enseignant, de telle sorte que celui qui doit
faire le devoir, l'élève, sachant parfaitement ce que l'enseignant attend de
lui, travaille exactement dans le sens attendu. Je trouve que cette idée de
Georgette Nunziatti est géniale, parce qu'applicable dans des tas de
situations d'enseignement / apprentissage pour améliorer la qualité de la
production de l'apprenant donc l'apprentissage. Ce que je voulais dire avec
l'exemple de l'examen et de nos étudiants, c'est que nous n'avons pas été
capables de généraliser la solution que nous avions trouvée à un problème
particulier à la classe de problèmes, alors que Nunziatti l'a fait. Et pour
la pédagogie elle a raison, même si le raisonnement inductif qu'elle suit
est discutable sur le plan de la logique pure.
Qu'une conclusion tirée d'un raisonnement inductif ne soit pas valable sur
le plan logique  c'est certain, mais la vie, l'amour, la mort, les
sentiments, les émotions, tout ce qui est important pour un homme, ne
fonctionne pas selon  les règles de la logique formelle (heureusement), en
conséquence le raisonnement inductif me paraît tout à fait utilisable dans
les disciplines telles que la pédagogie même si je sais qu'en bonne logique
ce raisonnement n'a qu'une validité relative..
 

Vous écrivez :
>Je suis donc, bien sûr, pour toute théorisation qui se donne comme
>précaution la critique du raisonnement par induction. Cela implique que
>si l'on développe des intuitions, on se doit de les relater telles
>quelles, sans chercher à les occulter ; et ce,  afin de permettre de
>valider ses raisonnements comme ayant été produits dans une localité.

C'est la position phénoménologique si je me souviens bien de mes classiques
et là je suis tout à fait prêt à vous suivre, je ne prétendrai jamais que
quoi que ce soit soit vrai à 100% en pédagogie, quant on travaille à 80%
dans ce domaine c'est Bizance.
 

Vous écrivez aussi, par rapport au thème des niveaux d'interventions de
l'enseignant :
"Il me semble que vous occultez la critique de la pédagogie qui
constituerait déjà un bon cadre de référence."
Indiscutable, sur le plan d'une approche philosophique, mais ça ne me
fournit pas...  et surtout ça ne fournit pas à l'enseignant débutant un
outil opérationnel pour mieux faire son métier. Je préfère installer d'abord
des comportements classiques (traditionnels : "apprendre à poser des
questions pour obtenir des réponses, apprendre à encourager, à utiliser un
rétroprojecteur, etc) qui permettent à l'enseignant débutant de se sécuriser
et de faire raisonnablement son métier, puis lorsqu'il commence à se sentir
à l'aise, lui annoncer que tout cela n'a pas beaucoup d'intérêt parce que
l'on pourrait critiquer tout cela de telle et telle manière. Je le mets en
déséquilibre dirait Piaget en lui montrant que les schèmes que j'ai tenté de
lui enseigner ne sont pas suffisants pour résoudre tous les problèmes que
peut rencontrer un enseignant. Ce déséquilibre me sert à obtenir qu'il se
pose des questions et qu'il entende peut-être les réponses que je vais lui
apporter ou mieux qu'il commence à chercher les siennes.

Vous écrivez ensuite, ailleurs :
"Piaget, c'est pas le mec qui n'a pas pu finir sa psychanalyse et en resté à
des théories des stades ?"
Je ne sais pas si Piaget n'a pas pu finir sa psychanalyse, je n'ai jamais
rien lu de tel dans ses biographies (après tout c'est possible, et même dans
ce cas qu'est ce que ça prouverait, puisque la psychanalyse d'après Popper
est une idéologie?...),
En dehors de la théorie des stades, Piaget à imaginé les concepts de  :
schème, assimilation, accomodation, équilibration, qui fournissent un
remarquable cadre de référence pour analyser un apprentissage, il a inventé
le constructivisme qui n'est toujours pas remis question sauf si j'ai manqué
un épisode, il a ouvert la voie à la psychologie sociale génétique
(Inhelder, Célérier, Perret Clermont, Doise, Mugny, etc.) ce qui nous a
donné le concept de conflit socio cognitif. Il a créé le concept
d'abstraction réfléchissante qui est un concept remarquable, c'est par
ailleurs un spécialiste de logique voir "Essai de logique opératoire"  et le
réduire à la théorie des stades me paraît  un peu dur. Je n'ai lu qu'une
quinzaine de ses ouvrages sur 80 parus et plus de 700 publications, mais
c'est pour moi un très très grand  bonhomme.

Vous écrivez également :
"Je n'arrive pas à comprendre comment on peut dichotomiser ce que vous
appelez "l'affectif" du cognitif. Il me semble que l'éthnométhodologie soit,
sur ce point, bien plus en avance que la psychologie."

Il est impossible bien évidemment de dissocier l'affectif du cognitif dans
le comportement humain, par contre, lorsque l'on conçoit un plan de
formation d'une année par exemple, on est forcé de dissocier les objectifs
affectifs et les objectifs cognitifs pour y voir clair et pour imaginer des
stratégies de formation  cohérentes avec les intentions de formation.
Si je fais un audit d'une structure de formation et si je trouve dans un
plan de formation " A l'issue de la formation les apprenants seront devenus
plus autonomes et plus responsables (objectifs du domaine affectif que l'on
rencontre assez souvent) je demanderai immédiatement comment on a prévu de
s'y prendre pour développer ces attitudes et je m'attends à trouver par
exemple un système d'évaluation basé sur des "crédits" ou quelque chose
d'approchant,  des périodes de temps réservées à du travail individuel, un
système de formation faisant une place importante à l'auto formation et à la
formation individualisée, etc. Il faut qu'il y ait cohérence entre les
objectifs de formation, le système d'évaluation mis en place, et les
stratégies de formation développées pour atteindre les dits objectifs. Je ne
connais pas d'autres moyens de concevoir les actions de formations, sauf si
on s'appelle Neil, Rogers, Freinet, etc. mais il s'agit là de génies de la
pédagogie, ce qui ne me concerne pas.
 

"Au risque de passer pour un provocateur, il me semble que l'informatique,
en tant que branche des sciences cognitives, est plus
fiable que la psychologie si l'objectif c'est de construire un modèle
universel, qu'il soit cognitif ou affectif. Vous semblez oublier dans
votre bibliographie les travaux d'Husserl qui avait, en son temps, démontré
les limites de la psychologie."

Il est certain que l'informatique et tous les travaux de Weiner, Turing, Von
Neumann, etc. me passionnent, ce sont ces travaux qui ont donné naissance
aux Sciences cognitives donc à la psychologie cognitive (théories du
traitement de l'information) et au connexionnisme, mais je ne cherche
surtout pas à construire un modèle universel, je ne crois pas que quelque
théorie que ce soit puisse décrire l'homme dans sa complexité, chaque
branche des sciences explique certaines facettes et la théorie unitaire est
sûrement une utopie en l'état actuel de la connaissance.
Je vous rappelle que l'ordinateur est né de la certitude qu'avaient les
scientifiques de la décennie 1945-1955 que s'ils parvenaient à mettre en
commun toutes leurs connnaissances en mathématiques, physique, chimie,
biologie, psychologie, médecine, psychanalyse, linguistique, etc. ils
parviendraient à créer un cerveau artificiel, Turing cet esprit génial,
était persuadé que cela serait fait à la fin du siècle, nous sommes loin du
compte.

Par contre l'informatique par la décomposition en opérations extrêmement
fines et par son travail sur les algorithmes fournit effectivement des
réponses intéressantes à la question comment enseigner, et Landa, un
américain, à même créé une théorie : la théorie algorithmico-heuristique,
particulièrement intéressante cette théorie résoud un certain nombre de
problèmes que ne résolvent pas les autres théories, mais ce  n'est pas une
théorie qui permet de résoudre tous les problèmes.

Vous écrivez enfin :
"L'enjeu d'un savoir n 'est pas réductible à la somme de ses objectifs s'il
ne permet pas de devenir membre d'une communauté. La séparation entre la
tâche et l'égo n'a, pour moi, strictement aucun sens."
Là je ne suis pas certain de vous comprendre, si vous voulez dire qu'un
savoir n'est jamais neutre, qu'il est toujours incarné dans des individus,
dans une histoire, dans une société, qu'il faut l'appréhender avec cette
dimension, vous rejoignez Vigotky, et je suis encore une fois d'accord, sauf
que je me demande ce que je vais bien pouvoir faire de cela sur le plan
pragmatique lorsque j'enseigne à quelqu'un à enseigner.
Vos mails sont beaucoup plus riches, mais pour aujourd'hui je vais m'arrêter
là.
Cordialement à vous, merci d'être entré dans le débat.
Alain


De :charlie nestel
Objet :Re: la pédagogie de la pédagogie.. :-))
Groupes de discussion :fr.education.divers
Date :1999/05/25
 

Je n'ai pu répondre plus tôt à ton article et je te prie de m'excuser.
J'ai ton texte en tête. Il pose la question de la formation des
enseignants débutants. Je comprends, dans ce contexte, qu'il est légitime de
considérer, du point de vue de ta localité -celle d'un formateur confronté à des
responsabilités pratiques-, que ma position est philosophique.

Je ne fais pas que donner un cours dans une fac. Ma fonction principale,
c'est celle d'un prof de techno dans un collège de banlieue. Je suis
donc sur le terrain. Ce qui m'autorise à revendiquer le droit pour chaque
enseignant la liberté d'entreprendre, d'innover, sans être constamment considéré
comme un simple fonctionnaire interchangeable aux ordres d'une
technostructure.

Je souffre trop, dans ma pratique quotidienne d'enseignant, pour
m'interdire la liberté de penser, de contester, de m'exprimer comme je le fais
actuellement sur Usenet. C'est pourquoi j'ai plaisir à dialoguer avec vous, même si
j'ai tendance à considérer, pour des raisons qui tiennent à ma conception de
la démocratie basée sur la séparation des pouvoirs, qu'il serait
souhaitable de confier la formation des profs aux universités et non pas aux IUFM.

C'est la raison pour laquelle je me méfie tant de la pédagogie, surtout
lorsqu'elle s'inscrit dans le rapport de forces d'un dogme d'Etat. Mais
là, ne sommes-nous pas sur Usenet en train de nouer un dialogue ?
Et votre post est bien là, comme une ouverture à une réflexion
collective. Je souhaite donc continuer ce dialogue, hors de toute polémique, et en
prenant le temps. Je ne vais donc répondre, aujourd'hui, qu'au premier
paragraphe.
 

XXX wrote :

> Manifestement vous avez des références philosophiques qui ne sont pas les
> miennes d'où l'intérêt des  forums.

De la même manière que ce thread m'a entraîné vers des réflexions que je
n'aurais pas, tout seul, suscitées.
 

> Je ne connais pas Husserl et je n'ai que de vagues souvenirs de la
> phénoménologie, je ne connais pas non plus l'ethnométhodologie (par contre
> je peux lire un livre de plus pour essayer de savoir de quoi il retourne si
> vous m'en conseillez un). J'ignore en outre tout du concept
> "d'indexabilité", qui me paraît intéressant, si vous pouvez me le situer
> rapidement ça m'aiderait à vous comprendre.

Husserl, passons. On aura tout le temps d'y revenir.
La phénoménologie n'est pas limitée à Husserl, elle fut marquée en
France par Merleau-Ponty, dans les années 60 par l'anti-psychiatrie qui marqua les limites des
classifications nosologiques, par les féministes américaines qui démontrèrent, par la
théorie du gender, que l'identité sexuée n'est pas réductible à une identification
sexuelle, remettant en cause par là-même le structuralisme, sa théorie des invariants sociaux et
l'impérialisme du signe. Ce dont avait déjà pré-conscience Jacques Derrida qui, dans
l'introduction à "l'origine de la géométrie de Husserl" s'interrogeant sur ce qui fait
perdurer énonçait que si l'extériorité corporelle ne constitue pas le signe comme tel, en
un sens qu'il faut éclaircir, elle lui est indispensable : "c'est dans la mesure où
les signes peuvent être immédiatement perceptibles par tout le monde dans leur corporéité
qu'on peut y consigner le sens et le mettre en communauté.".

L'ethnométhodologie serait une sorte de phénoménologie localiste ayant
intégré la critique du raisonnement par induction, à l'opposé des théories fondées sur la
seule observation.

La plupart des ouvrages sont en anglais et hormis quelques livres en
français, l'essentiel du corpus est constitué par des centaines de mémoires d'étudiants.
J'avais commencé une base textuelle pour en rendre certains disponibles sur le net. Pour
l'instant le projet est en jachères, babelweb provisoirement fermé à la suite des menaces
qui pesaient sur Altern-B. Quant aux autres ouvrages et revues spécialisées, je ne sais s'ils sont
facilement accessibles.

Reste le Que sais-je d'Alain Coulon. Je le trouve moins bon qu'un autre
qu'il a écrit sur "l'école de Chicago" qui est excellent. Alain Coulon,
Rémy Hess qui furent les étudiants de Georges Lapassade,
viennent des sciences de l'éducation.

Dans un tout autre registre, sur les états modifiés de la conscience,
l'indifférence, le vu mais non remarqué etc... tu as tous les écrits de Carlos Castaneda. L'herbe
du diable et la petite fumée fut une thèse de doctorat sous le regard de Garfinkel qui fut
membre du jury. Se cache donc en filigrane, derrière l'imposture des ouvrages de Castaneda, un second
degré de lecture sous la forme d'un manuel d'ethnométhodologie.
 

Amicalement, Charlie


De :charlie nestel
Objet :Re: la pédagogie de la pédagogie.. :-))
Groupes de discussion :fr.education.divers
Date :1999/05/19

srp wrote:

>
> À mon avis, les sciences cognitive, connexionnisme, etc. ont été élaborées sans
> tenir pleinement compte de ses découvertes, qui sont fondamentales pour
> toute tentative de compréhension du fonctionnement du néocortex humain.

Ce que l'on appelle le connexionisme en informatique (grosso modo
l'informatique neuronale) n'est qu'un "bidouillage" (dans le sens noble
du terme) et n'a aucune prétention à rendre compte de la totalité du
fonctionnement du néocortex humain.

La notion même d'Intelligence Artificielle est contestée ; certains
comme Yvan Lavallée (qui a en charge le dossier des logiciels libres au
ministère de l'Education) préfèrant le concept de "vie artificielle" qui
leur semblent plus approprié. Quant aux informaticiens qui acceptent
l'étiquette d'IA, sans trop se prendre la tête sur des querelles de
définitions (la notion d'intelligence étant elle-même complexe et
relative), ils limitent leur prétention à la conception de systèmes
capables de résoudre des problèmes dans des domaines restreints et bien
limités. Il n'y a pas de modèle cognitif universel.
En ce sens, tous les chercheurs que je connais personnellement et qui
travaillent dans ce domaine, sont très proches de l'ethnométhodologie et
développent, au minimum,  une approche localiste.
Les domaines traditionnels de l'application de l'IA sont : la robotique,
les systèmes experts, la démonstration automatique de théorèmes, le
traitement du langage naturel écrit, le traitement automatique de la
parole, la vision et interprétation d'images, les jeux, etc...
L'approche dite connexioniste peut être considérée comme une branche de
l'IA, bien que certains préfèrent lui préfèrent les algorithmes dits
génétiques.
Mais là aussi, il faut prendre en compte l'indexicalité : si les réseaux
de neurones artificiels sont inspirés des neurones réels, leur
fonctionnement et leurs connexions sont concretement différents. Un
couplage de variables n'est qu'une représentation d'un synapse.

Cela dit, les réseaux dans l'approche connexioniste, possèdent une
"aptitude" à l'apprentissage. Ils permettent de tester des modèles
cognitifs très circonscrits à certains types de problèmes. Il s'agit
juste *d'imiter* certaines fonctions du cerveau biologique en
reproduisant certaines structures de base. Même si, par ailleurs, il n'y
a pas de certitudes. L'histoire du connexionisme est polémique. Cf.
Minsky et Papert qui démontrèrent en 1969 les limites du perceptron de
Rosenblatt (qui décrivit le premier modèle opérationnel de réseaux de
neurones inspiré du système visuel) en opposant une approche dite
symbolique qui permit de dégager les concepts des systèmes experts qui
se révélèrent, à leur tour limités, redonnant une crédibilité à
l'informatique neuronale vers 1985, etc...

L'intérêt, pour des enseignants qui s'intéresseraient à la didactique de
leurs disciplines, me semble néanmoins certain. Contrairement à la
psychologie expérimentale qui n'est pas en mesure de valider ses
hypothèses, autrement que par l'induction, l'informatique permet de
tester des modèles cognitifs, circonscrits à des contextes limités.
 

>
> > Par contre l'informatique par la décomposition en opérations extrêmement
> > fines et par son travail sur les algorithmes fournit effectivement des
> > réponses intéressantes à la question comment enseigner, et Landa, un
> > américain, à même créé une théorie : la théorie algorithmico-heuristique,
> > particulièrement intéressante cette théorie résoud un certain nombre de
> > problèmes que ne résolvent pas les autres théories, mais ce  n'est pas une
> > théorie qui permet de résoudre tous les problèmes.
>
> Tout à fait. Il faut considérer aussi qu'il est en pratique impossible de
> réellement
> simuler dans tous ses aspects le fonctionnement d'un réseau de neurone
> multicouche comme le néocortex humain sur des ordinateurs à traitement
> linéaire, aussi puissants soient-ils. Aucun ordinateur conventionnel ne peut
> simuler complètement le processus de corrélation automatique que Hebb à
> découvert comme étant une propriété fondamentale des réseaux de neurones.

Si Hebb permit de dégager la propriété fondamentale des réseaux
neuronaux en soulignant l'importance du couplage synaptique dans les
processus d'apprentissage, sa perspective était psychophysiologique. Les
réseaux de neurones s'en inspirent, mais n'ont pas le même centre
d'intérêt.
Il me semble qu'on utilise de mêmes mots pour décrire des réalités qui
sont localement disjointes, même si des liens existent. A Paris 8, les
réseaux neuronaux semblent davantage intéresser les étudiants du
département hypermedia que ceux du département informatique. les
premiers ne sont pas forcément des codeurs - donc des informaticiens du
point de vue de la hiérarchie des hackers.
Il me semble que dès qu'on sort d'un contexte disciplinaire pour
s'inspirer de certains principes ou de certains concepts pour les
importer dans un autre, on ne peut faire l'économie d'une certaine
naiveté -néanmoins indispensable pour avancer.
Je suppose que le dégré de complexité de la génétique ou de la
psychophysiologie est bien plus grand que des applicatifs informatiques
dénommés algorithmes génétiques ou informatique neuronale. Sur ce point
c'est indiscutable.

Ce qui n'empêche d'échanger des idées.
 

Charlie
 

Amicalement Charlie


De :charlie nestel
Objet :Re: la pédagogie de la pédagogie.. :-))
Groupes de discussion :fr.education.divers
Date :1999/05/27
 

VINCBRETON wrote:

>
> Bonjour,
>
> Loin de moi l'idée de mettre en doute cette cohérence mais comment dire ?
> Plutôt perplexe face à l'inflation de ce  débat.

Parce qu'il y a plusieurs débats à l'intérieur du débat avec des
questions de type : l'hypothèse neuronale est-elle un modèle
d'apprentissage ? Lorsqu'on parle d'un réseau de neurones en
informatique, de quoi parle-t-on ?
S'agit-il des mêmes pratiques ?
Ce qui introduit, à propos des agents qualifiés d'autonomes par Eric, la
question de l'intentionalité.
Et si après avoir situé le centre de la connaissance sur le coeur, puis
récemment sur le cerveau, elle était chimie non localisable, dans
l'entre deux d'interstices en interactions ?
Les mystiques juifs ne nous ouvrent-ils pas les portes de la sagesse, en
reliant par des tifilines : le coeur, le front et le bras, lors de la
prière ?
 
 

> Ca me rappelle les vieilles discussions philosophiques des années
> soixante-dix... au début j'étais vachement impressionné, puis quand je
> découvrais que je pouvais faire pareil .... !          :-)   !
>
> Cordialement

Pas tout à fait. Le début des années soixante-dix était principalement
dominé, dans mon entourage aux Beaux Arts, par le structuralisme, la
sémiologie, sans oublier la psychanalyse. Entre la théorie de
l'intertexte d'une Julia Kristeva à celle des hypertextes d'un Ted
Nelson, il y a le cybermonde. Hormis les thèses de l'Internationale
Situationniste qui était déjà dissoute, La comparaison avec les babas de
ces années là ne tient pas.
L'enjeu, aujourd'hui, n'est pas d'impressionner mais de forger des
fragments d'intelligibilité.

Je ne doute pas un seul instant que tu puisses faire pareil.

J'aime lire tes contributions, car tu es capable de te remettre en cause
sans te renier.

Je me souviens encore de l'un de tes articles sur les réformes où tu
avais intégré comme une blessure, citant Jean-Claude Milner, les
attaques sur le forum contre la *pédagogie*, tout en rappelant combien
t'avait semblé positif le projet de réforme Legrand/Savary. Tes écrits
s'inspirent souvent du terrain, de ta pratique, de tes intuitions et je
les respecte.

Je rappelle, pour mémoire, que Jean-Claude Milner écrivait : "C'est
pourquoi la pédagogie déteste si fort la classe. On sait que la réforme
Legrand la supprime... ", dans une note au bas de la page 77 de De
l'école, qui renvoyait à un texte où il énonçait :

"Il faudra bien un jour se demander : l'enfance existe-t-elle ? Freud,
en tous cas ne le pensait pas (note perso : pas tout à fait, Freud
pensait que l'enfant était un pervers polymorphe). L'enfance, eût-il
volontiers soutenu, a été inventée par les adultes pour mieux se
supporter eux-mêmes : un fantasme de grandes personnes. Quoiqu'il en
soit, tout enseignant aura grand intérêt à se rendre à l'évidence : il
n'a pas affaire à l'enfance, il a affaire à des élèves, c'est-à-dire des
sujets. La classe où ces sujets-élèves sont mis ensemble n'a aucune
homogénéité prédéterminée - pas de psychologie générale des enfants, pas
de caractères raciaux, pas de religion, etc. ; il est, lui, le maître,
en tant qu'agent du savoir à transmettre, le seul principe
constitutif.".

Loin d'être le plus intégriste contre la pédagogie dans ce forum, je
considère comme toi que le ministère Savary avait des côtés positifs. De
par ma pratique d'architecte (à une époque où j'aspirais encore faire de
l'architecture et pas de l'enseignement), j'étais bien obligé de
constater que dans un contexte excessivement hétérogène, la relation
métonymique entre le groupe et la salle -c'est-à-dire *la classe*- avait
implosé. De ce point de vue, Legrand et le ministre Alain Savary, ont eu
le mérite d'anticiper des problématiques qui se posent aujourd'hui dans
grand nombre d'établissements de banlieue. Ce qui n'est pas sans poser
un sérieux problème d'architecture scolaire inadaptée aux activités, à
l'ère des réseaux ; la question de l'espace scolaire n'étant soulevée
nulle part.

Aussi, je trouve Milner bien excessif dans sa confusion entre élève et
espace frontal. Je ne lui en tiens pas grief car il s'inscrit dans une
tradition française inspirée du cloïtre avec la cellule -qui deviendra
la salle de classe du lycée napoléonien comme unité d'organisation.
Heureusement, existent d'autres modèles comme les écoles à aires
ouvertes qui n'ont pas de salles de classe mais comptent de nombreux
élèves. Je reste persuadé que c'est dans ce type d'école que la
pédagogie par objectifs, avec ses bugs, peut être localement opératoire.
Ce qui a d'ailleurs été le cas.

Notre différend ne porte donc pas sur ce type de question, mais sur le
statut de l'élève, sous l'égide du ministère de Ségolène Royal/Claude
Allègre.

Je ne suis partisan pas de "placer l'enfant au coeur du dispositif
éducatif". J'y vois là un danger totalitaire et médiatique.

J'en veux pour preuve le livre de Ségolène Royal -Le ras-le-bol des
bébés zappeurs- qui ne porte pas sur l'école, mais sur la télévision, à
partir de sa propre perception des enfants. Comme obsessions polymorphes
on ne fait pas mieux : "ils ont vu (les enfants) des vampires violer une
femme, des robots tueurs, des Spielvan, Captain Power, Bioman, des
policiers, des assassins, des suicidés, des fous, des nains flirter avec
des femmes obèses... etc... ".

Je l'avais interviewée, à Niort, lors de la sortie de son bouquin...
Elle était totalement ancrée dans un paradigme éducatif qui ne laisse
aucune place aux disruptions du sens, à l'indexicalité, aux
interprétations multiples, totalement focalisée sur le monde de l'image,
persuadée qu'il était possible d'éduquer des millions de
télespectateurs.
L'entretien fut très agressif, surtout lors de mes tentatives d'évoquer
le théatron et la catharsis chez Aristote, la Bible, l'odyssée, les
écrits de Bruno Bettelheim, pour relativiser ses propos sur les effets
de la télé. Elle devint de plus en plus violente pour terminer dans un
discours totalement décousu que j'ai publié tel quel dans Le Télémateur
Illustré, un fanzine distribué par les NMPP.

A la même époque, j'avais monté un PAE consacré à la perception de la
télévision par une classe d'élèves du collège, en interaction avec le
cours de philosophie de Jean-Emile Genvrin et le labo d'ethno-vidéo de
Christian Lemeunier de l'université populaire Vincennes à Saint-Denis.
Nous étions, chaque semaine, réunis dans une grande salle. Devant, les
élèves de sixième, en train de commenter des montages de séquences
télévisuelles. Les mômes étaient totalement starisés. Ils pouvaient
transmettre leurs connaissances aux adultes tout en étant filmés. Les
étudiants, situés en arrière plan, devaient décrire comment, localement,
les enfants percevaient la télévision en utilisant leurs propres
catégories.

Dans les premiers comptes rendus de terrain les étudiants avaient
reproduit leurs propres patterns anciens, leurs propres inductions,
leurs propres catégories, sans tenir compte du dis-cours des élèves qui
nous enseignaient comment ils construisaient, eux, leurs propres
(ethno)méthodes d'interprétation.
Personne ne releva que les élèves considérés les plus en marge par
l'institution ne regardaient pas la télé, préférant gambader dans les
cités. Personne ne s'étonna que les élèves considérés comme les
meilleurs par l'institution étaient, en même temps, ceux qui
connaissaient le mieux la télévision ; développant des aptitudes à
structurer parfaitement l'espace/temps ; étant capables instantatément
de citer le titre d'une émission, sa chaîne, son emplacement dans la
grille des programmes, l'épisode, à la simple vue d'un zapping d'images
samplées par Christian Lemeunier.
Les théories de Ségolène Royal sur la violence induite par la
télévision, la marginalité, la destructuration, n'étaient pas localement
validées. Ils s'avérait même que certains élèves qui étaient capables
d'une construction narrative avec force détails sur les décors, les
unités de lieu (sitcoms),  etc... étaient jugés faibles scolairement.
Visiblement, on ne pouvait pas assurer que la télé était responsable de
leur échec à l'écrit.

La seule chose qui était partageable avec le livre de Ségolène Royal,
c'est que nous avions affaire à un modèle social fondé principalement
sur le mode de vie américain (ce n'est pas par hasard qu'on parle de
"plans américains") et une domination du rapport marchand. Mais ça,
c'était notre interprétation d'adultes.

Christian Lemeunier qui rédigeait, à l'époque, un DESS
d'ethnométhodologie sur "La mise en scène de l'action sociale", en
s'appuyant sur sa pratique d'ethno-vidéaste au sein des différentes
communautés HIP-HOP, repassait à la fac les séquences d'élèves du cours
précédent, afin de mettre en lumière le concept ethnométhodologique de
*post-analyse* pour que les étudiants revisitent leur jugement et
prennent conscience de leurs présupposés sous-jacents.
Même des étudiants qui devaient respecter la règle d'écrire un compte
rendu en partant des catégories des enfants sur leur perception de la
télévision n'ont pu échapper à projeter, sur l'enfance, leurs propres
catégories. Dans ces conditions, je considère avec Jean-Claude Milner
que "mettre l'enfant au coeur du dispositif éducatif" est un leurre.

Cela dit, l'école primaire est l'héritière des précepteurs de l'espace
domestique. C'est la raison pour laquelle elle a reçu une double mission
: une mission d'instruction publique et une mission d'éducation. Car
bien sûr, jusqu'à un certain âge, l'élève reste aussi un enfant.
Eduquer n'est pas sans danger s'il s'agit de substituer, à l'instar de
certaines dérives de la troisième république, les images pieuses par de
"bons points républicains". La directrice d'école primaire virée pour
une chanson d'un autre guerre en subit encore les conséquences.

Quel modèle de pureté de l'enfance, sous-jacent, se met en place dans le
discours médiatique ministériel ?
N'est-il pas légitime de craindre le pire quand ce modèle s'étend à
l'ensemble du *dispositif éducatif*, bien au-delà de l'école primaire
avec de la socialisation et de l'éducation à la citoyenneté à toutes les
sauces ?
Que devient le statut de l'élève, de l'apprenant, du citoyen  ?

Or, si la problématique de l'enfant s'inscrit dans la psychologie, la
pédogogie ; le statut de l'élève relève de la didactique des
disciplines. C'est-à-dire, entre autres, de procédures dialectiques de
raisonnement et d'énonciation... Ce qui implique un champ théorique qui
n'a pas pour objet l'enfant, mais les procédures de connaissance de sens
commun, incarnées, dans un instant t donné, par des sujets apprenants
qui peuvent, bien sûr, se révéler être des adultes en devenir,
c'est-à-dire des enfants...

Ce qui est tout de même différent.

Charlie


De :Eric Wurbel
Objet :Re: la pédagogie de la pédagogie.. :-))
Groupes de discussion :fr.education.divers
Date :1999/05/20
 

charlie wrote:
>
>
> La notion même d'Intelligence Artificielle est contestée ; certains
> comme Yvan Lavallée (qui a en charge le dossier des logiciels libres au
> ministère de l'Education) préfèrant le concept de "vie artificielle" qui
> leur semblent plus approprié.

Mmmmmouais... un peu douteux à mon avis. La notion de "vie" soustend
(pour moi)
une notion d'autonomie (au sens d'agent autonome) qui n'est pas une
thématique commune à tout l'IA.

> Quant aux informaticiens qui acceptent
> l'étiquette d'IA, sans trop se prendre la tête sur des querelles de
> définitions (la notion d'intelligence étant elle-même complexe et
> relative), ils limitent leur prétention à la conception de systèmes
> capables de résoudre des problèmes dans des domaines restreints et bien
> limités. Il n'y a pas de modèle cognitif universel.

Approuvé. Je me place plutot dans cette optique. La question à la con
dans ce cas la c'est : En se focalisant sur des problèmes particuliers,
le chercheur y met beaucoup d'intelligence. En conséquence le fruit de
ses cogitation est très orienté vers un problème donné et donc pas si
si intelligent que ca. Contraposée foireuse mais néanmoins amusante :
Plus le chercheur est con, plus le programme est intelligent ?

> En ce sens, tous les chercheurs que je connais personnellement et qui
> travaillent dans ce domaine, sont très proches de l'ethnométhodologie et
> développent, au minimum,  une approche localiste.

De toute façons les problèmes en IA tombe quasiment tous dans la classe
des problèmes dit "NP-complets", i.e. schématiquement, grossièrement
et très rapidement les problème dont la complexité en temps et/ou en
espace mémoire ne sont pas linéaire en la taille des données du
problème.
De ce fait, on planche beaucoup sur les heuristiques (surtout quand il
s'agit de d'appliquer à des instances de problèmes concretes), ce qui
nécessite une approche localiste.

> Les domaines traditionnels de l'application de l'IA sont : la robotique,
> les systèmes experts,

Ouille charlie ! Les systèmes experts c'est complètement dépassé. Ils
ont largement prouvé leur innefficacité. Le terme lui meme est galvaudé.
En essayant de batir un système capable d'expertise tout en déclarant
que la chose "raisonne", on se fourre (à mon avis) le doigt dans l'oeil
jusqu'à l'omoplate. Si on examine en détail le problème, on se rend
compte qu'un "expert" raisonne peu : il utilise BEAUCOUP son expérience et
assez peu le raisonnement. Il y a eu des expériences faites en psycho
cognitives assez rigolotes la dessus.

Et puis il n'y a qu'à voir à quoi aujourd'hui sont appliqués les
quelques systèmes experts "commerciaux" : évaluation de pret pour les banques
par exemple (pratique ca, quand on refuse un pret au client, il suffit
de dire audit client que c'est la machine qui a décidé !).

C'est en autre pour ca qu'aujourd'hui on préfère parler
de système "à base de connaissance".

> la démonstration automatique de théorèmes, le
> traitement du langage naturel écrit, le traitement automatique de la
> parole, la vision et interprétation d'images, les jeux, etc...

Pour ca ok.

> L'approche dite connexioniste peut être considérée comme une branche de
> l'IA, bien que certains préfèrent lui préfèrent les algorithmes dits
> génétiques.

Oulah ! Encore une fois, gaffe ! Les algo génétiques et l'approche
connexionniste ne traitent pas des mêmes problèmes. (mais je ne m'étendrai pas plus
n'étant spécialiste ni du connexionisme ni des algos génétiques).

> Mais là aussi, il faut prendre en compte l'indexicalité : si les réseaux
> de neurones artificiels sont inspirés des neurones réels, leur
> fonctionnement et leurs connexions sont concretement différents. Un
> couplage de variables n'est qu'une représentation d'un synapse.
>
> Cela dit, les réseaux dans l'approche connexioniste, possèdent une
> "aptitude" à l'apprentissage. Ils permettent de tester des modèles
> cognitifs très circonscrits à certains types de problèmes. Il s'agit
> juste *d'imiter* certaines fonctions du cerveau biologique en
> reproduisant certaines structures de base.

Les applications les plus probantes du connexionnisme sont dans le
dommaine de la reconnaissance (de caractères, d'images, ...)

> Même si, par ailleurs, il n'y
> a pas de certitudes. L'histoire du connexionisme est polémique. Cf.
> Minsky et Papert qui démontrèrent en 1969 les limites du perceptron de
> Rosenblatt (qui décrivit le premier modèle opérationnel de réseaux de
> neurones inspiré du système visuel) en opposant une approche dite
> symbolique qui permit de dégager les concepts des systèmes experts qui
> se révélèrent, à leur tour limités, redonnant une crédibilité à
> l'informatique neuronale vers 1985, etc...
>
> L'intérêt, pour des enseignants qui s'intéresseraient à la didactique de
> leurs disciplines, me semble néanmoins certain. Contrairement à la
> psychologie expérimentale qui n'est pas en mesure de valider ses
> hypothèses, autrement que par l'induction, l'informatique permet de
> tester des modèles cognitifs, circonscrits à des contextes limités.

Oui, mais tout dépend de ce qu'on veut démontrer ... La correction d'un
algorithme (par rapport à un modèle théorique) c'est bien joli, mais ca ne prouvera
jamais que le modèle de départ est bon.

> > > américain, à même créé une théorie : la théorie algorithmico-heuristique,

Ca fait un peu fourre tout ca comme expression non ?

> Il me semble qu'on utilise de mêmes mots pour décrire des réalités qui
> sont localement disjointes, même si des liens existent. A Paris 8, les
> réseaux neuronaux semblent davantage intéresser les étudiants du
> département hypermedia que ceux du département informatique. les
> premiers ne sont pas forcément des codeurs - donc des informaticiens du
> point de vue de la hiérarchie des hackers.

Pffff... encore les hiérarchies ...

amicalement

Eric
--


De :charlie nestel
Objet :Re: la pédagogie de la pédagogie.. :-))
Groupes de discussion :fr.education.divers
Date :1999/05/23
 

Eric Wurbel wrote:
>
> charlie wrote:
> >
> >
> > La notion même d'Intelligence Artificielle est contestée ; certains
> > comme Yvan Lavallée (qui a en charge le dossier des logiciels libres au
> > ministère de l'Education) préfèrant le concept de "vie artificielle" qui
> > leur semblent plus approprié.
>
> Mmmmmouais... un peu douteux à mon avis. La notion de "vie" soustend
> (pour moi)
> une notion d'autonomie (au sens d'agent autonome) qui n'est pas une
> thématique commune à tout l'IA.
                     ^^^^^^^^^^^

Qu'est-ce qui te semble douteux Eric, que certains contestent la notion
d'intelligence artificielle, lui préférant celle de vie artificielle, ou
qu'un tel raisonnement puisse se faire ?
Mon propos n'était pas d'entrer dans cette querelle. En citant les
travaux d'Yvan Lavallée, j'ai juste posé un garde-fou pour signifier que
l'IA n'était pas une notion stable. La preuve ? Ce que tu écris plus bas
sur les systèmes experts.

En marge du débat sur la pédagogie, les agents dits "intelligents", tu
les ranges où ?
Comment procèdes-tu pour décider ce qui fait, ou pas, partie de l'IA ?
Etre doté d'une thématique commune à la totalité.. tiens donc ! Est-ce
vraiment là ton critère ?
Le mien consisterait, en la matière, de suspendre tout jugement,
laissant le soin aux membres des différentes communautés de l'IA de
décider eux-mêmes ce qui suscite ou pas leur intérêt et relève de leur
champ.

Cela dit, avec cette *notion d'autonomie*, tu mets le doigt sur une
contradiction fondamentale. Actuellement on évoque "l'intelligence
collective" à propos de tout et de n'importe quoi : fourmis, sociétés de
robots, voire pour certains "société de cellules du foie". Ca pose le
problème de l'intentionalité. C'est l'une des raisons pour laquelle Yvan
Lavallée dénie l'existence d'une intelligence réduite à des fonctions
autonomes et disjointe des rapports sociaux.
Quant à moi, je renonce pour le moment, à rentrer dans ce débat. Je
constate simplement que les "agents dynamiques" sont issus des
problématiques soulevées par une branche de l'IA intitulée "intelligence
artificielle distribuée". Les agents font donc partie de l'IA.
 
 

> Approuvé. Je me place plutot dans cette optique. La question à la con
> dans ce cas la c'est : En se focalisant sur des problèmes particuliers,
> le chercheur y met beaucoup d'intelligence. En conséquence le fruit de
> ses cogitation est très orienté vers un problème donné et donc pas si
> si intelligent que ca.

Tu sembles en définitive rejoindre le point de vue d'Yvan Lavallée. Moi
je sais pas ce que c'est l'intelligence. Est-ce dans la capacité à
focaliser méthodologiquement sur des problèmes particuliers sans
prétendre rendre compte de la totalité ou bien l'inverse ?
En ce moment, dans certains cours du département Hypermedia de Paris 8,
la grande mode c'est Howard Gardner, un psychologue cognitiviste
américain qui prétend recouvrir toutes les nuances des capacités
humaines dans sept formes d'intelligence : l'intelligence verbale,
logico mathématique, spatiale, musicale, corporelle et kinesthésique,
interpersonnelle (intelligence des autres) et intrapersonnelle
(intelligence de soi).
Mardi dernier, j'suis passé à une réunion informelle où étaient présents
des étudiants en hypermedia avec leur prof qui se référait précisément à
Gardner.  Y'avait aussi Jean Meha qui dirigea la maîtrise de Fred Cirera
sur Mygale. Il s'est cassé en disant que la seule chose qu'il savait
faire c'était de monter et remonter des objets. Dans le premier cas : un
plasticien qui s'appuyait sur une théorie cognitive, de l'autre un
informaticien du département d'IA prétendant ne pas savoir faire autre
chose que de résoudre des problèmes particuliers de type
monter/démonter...
 

> Contraposée foireuse mais néanmoins amusante :
> Plus le chercheur est con, plus le programme est intelligent ?

Autre contreposée foireuse, Les agents autonomes sont-ils soumis au
déterminisime vital de leurs programmes ?
On peut craindre d'autres dégats co-latéraux liés à un mauvais usage de
l'informatique embarquée.
 

> De toute façons les problèmes en IA tombe quasiment tous dans la classe
> des problèmes dit "NP-complets", i.e. schématiquement, grossièrement
> et très rapidement les problème dont la complexité en temps et/ou en
> espace mémoire ne sont pas linéaire en la taille des données du
> problème.

D'où la contradiction soulevée par Yvan Lavallée (dont j'ai l'un des
articles sous les yeux) qui démontre qu'un système distribué ne
possédant pas d'horloge globale (i.e. un système asynchrone) et où les
processus ne communiquent que par messages, n'est pas réductible à une
machine de Turing qui est intrinséquement séquentielle... Il pose la
question : que devient le temps dans un système distribué asynchrone ?
 

> De ce fait, on planche beaucoup sur les heuristiques (surtout quand il
> s'agit de d'appliquer à des instances de problèmes concretes), ce qui
> nécessite une approche localiste.

Cela est également vrai des algorithmes dits génétiques (qui n'ont de
génétiques que le nom).

PS, pour plus bas : je ne confonds pas algos génétiques avec réseaux
neuronaux ; je les ai introduits parce que certains abordent le problème
de la convergence statistique des algos génétiques en appelant cela
aussi *heuristique* par exemple...
Comme ici ça parlait d'heuristique, je me suis dit : "tiens, si j'allais
provoquer un breaching, en introduisant les algos génétiques, juste pour
voir comment les experts de "l'intelligence en éducation" se
débrouillent avec un modèle d'IA qui n'a pas comme référentiel le
cerveau". Il se trouve que c'est toi qui a répondu, en mettant le doigt
sur "l'autonomie des agents". Ce qui n'est pas sans poser quelques
problèmes...

Quant à moi, je n'ai pas encore trouvé mieux sur le marché des théories
que celle de Marx qui opposait la force sociale du travail socialement
vivant au travail socialement mort. Ce qui n'empêche pas de construire
des outils de plus en plus complexes. De là à confondre ces outils avec
de l'intelligence, il n'y a qu'un pas que d'aucuns franchissent. Ce qui
nous ramène à la contrepoisée foireuse du chercheur con que tu as
soulevée. On fait quoi dans le cas où le chercheur est ministre de
l'éducation ?

Répondre à cette question, serait se situer du côté de l'intelligence et
commettre un certain nombre d'erreurs de jugement. C'est la raison pour
laquelle, contrairement à ce qu'affirmait Durkheim, l'ethnométhodologie
considère qu'il n'y a pas d'idiot culturel. Moi ce qui dérange c'est pas
les cons - bien au contraire-, mais ceux qui voudraient m'imposer un
modèle universel de con (cf. théories des féministes américaines des
années 70 sur le "gender"). Penser qu'il puisse exister une thématique
commune à la totalité est totalement foireux. L'imposer est totalitaire.

C'est ce qu'Yves Lecerf enseignait :

"C'est une tentation assez commune à la plupart des théories cognitives
brillantes que de vouloir trop facilement affirmer qu'elles accèdent à
l'universel; Suite à quoi vient la tentation d'enseigner la vérité à
autrui; puis la tentation d'imposer la vérité à autrui. Et Lacan expose
à ce propos fort bien que par sa nature même, la connaissance humaine
est " paranoiaque ".
Pour contourner cet écueil, et proposer une théorie antitotalitaire des
fondements de la connaissance, le sociologue Harold Garfinkel utilise
dans les années 60 un détour à première vue étrange : il crée une
sociologie des 'ethnométhodes' et donne à cette nouvelle discipline le
nom d'ethnométhodologie.
Les "ethnométhodes" sont en fait purement et simplement les
connaissances qu'ont les gens, liées à la manière dont elles ont été
acquises et à la manière dont on s'en sert. Théoriser les ethnométhodes,
c'est théoriser en fait d'une manière nouvelle, la connaissance tout
court.".
 

> > Les domaines traditionnels de l'application de l'IA sont : la robotique,
> > les systèmes experts,
>
> Ouille charlie ! Les systèmes experts c'est complètement dépassé.

Je te trouve dur avec toi-même ! Il est d'usage, par tradition, de
rattacher les "systèmes experts" à l'Intelligence Artificielle. Ton avis
n'y changera rien. On ne peut pas, comme ça, virer de la mémoire sous
prétexte que c'est dépassé, par une procédure de raisonnement
linéaire... On ne peut pas, dans notre culture, annihiler l'histoire.
Juste construire le présent avec des bugs en héritage.
 

> Ils ont largement prouvé leur innefficacité. Le terme lui meme est galvaudé.
> En essayant de batir un système capable d'expertise tout en déclarant
> que la chose "raisonne", on se fourre (à mon avis) le doigt dans l'oeil
> jusqu'à l'omoplate. Si on examine en détail le problème, on se rend
> compte qu'un "expert" raisonne peu : il utilise BEAUCOUP son expérience et
> assez peu le raisonnement. Il y a eu des expériences faites en psycho
> cognitives assez rigolotes la dessus.

N'avais-je pas écrit moi-même dans le même article qu'ils s'étaient
trouvés révélés limités  ?

: L'histoire du connexionisme est polémique. Cf.
: Minsky et Papert qui démontrèrent en 1969 les limites du perceptron de
: Rosenblatt (qui décrivit le premier modèle opérationnel de réseaux de
: neurones inspiré du système visuel) en opposant une approche dite
: symbolique qui permit de dégager les concepts des systèmes experts qui
: se révélèrent, à leur tour limités, redonnant une crédibilité à
: l'informatique neuronale vers 1985, etc...

Alors, quand tu dis qu'un système expert raisonne peu et utilise
BEAUCOUP
son expérience, n'as-tu pas l'impression de "prêcher un converti" ?
Un système expert, c'est pas bâti sur un moteur d'inférences ?
Et jusqu'à preuve du contraire, l'inférence, n'est-ce pas précisément
du raisonnement par induction ?
Est-ce une raison pour les rayer de l'histoire de l'informatique ?
Les systèmes experts ont permis à certains de mettre en lumière la
connaissance de sens commun et les limites du raisonnement par
induction.

Pour en revenir à Hebb et à l'informatique neuronale, quand un réseau
fournit en sortie un résultat érroné, il y a lieu de modifier ses
pondérations en fonction de l'erreur (d'où finalement le lien avec le
débat du départ sur la "pédagogie"), c'est-à-dire de l'écart entre observé
entre sortie effective et sortie espérée.

Or, pour utiliser la modification des poids de connexions comme principe
même de l'apprentissage, les règles utilisées pour y arriver sont
variées.

La première correspond à la règle de Hebb (j'écris ça histoire de
retourner dans le débat... :-)) ) qui propose un modèle fonctionnel des systèmes
visuels animaux, la seconde, d'inspiration mathématique. Inutile de dire que les
mecs qui codent des petits réseaux de neurones procèdent par un calcul couche par
couche limitent leur prétention à des algorithmes. On est loin d'un
modèle cognitif universel, dans leur pratique.
 

> Et puis il n'y a qu'à voir à quoi aujourd'hui sont appliqués les
> quelques
> systèmes experts "commerciaux" : évaluation de pret pour les banques
> par exemple (pratique ca, quand on refuse un pret au client, il suffit
> de
> dire audit client que c'est la machine qui a décidé !).
>
> C'est en autre pour ca qu'aujourd'hui on préfère parler
> de système "à base de connaissance".

Une fois de plus, tu introduis en filigrane la question de
l'intentionalité. C'est une question cruciale.

A propos des machines cognitives et de l'indexicalité, Yves Lecerf
écrivait :

"Même lorsqu'une machine est supposée pouvoir remplir une fonction
cognitive (c'est-à-dire même lorsqu'une machine a pu être construite et
fonctionne "convenablement" au sens commun du terme, par exemple comme
un système expert), il n'en reste pas moins qu'il y aura indexicalité
dans l'interprétation des messages que cette machine envoie ; ce qui
fera apparaître l'équivalent d'une dimension divinatoire de fait au
niveau de son utilisation.".

(...)
 

> Oulah ! Encore une fois, gaffe ! Les algo génétiques et l'approche
> connexionniste
> ne traitent pas des mêmes problèmes. (mais je ne m'étendrai pas plus
> n'étant spécialiste ni du connexionisme ni des algos génétiques).

Tout dépend ce que tu appelles "traiter des mêmes problèmes" (cf. plus
haut).
Il me semble bien au contraire qu'ils traitent des mêmes problèmes avec
des démarches différentes. Mais ce serait une connerie de croire que les
algos dits génétiques sont génétiques, et l'informatique neuronale : du
neuronal. Magritte nous l'avait bien dit, pourtant !
 
 

(...)
>
> Les applications les plus probantes du connexionnisme sont dans le
> dommaine
> de la reconnaissance (de caractères, d'images, ...)

Dans l'industrie, il me semble bien qu'en informatique de vision le
choix est avant tout déterminé par des règles de productivité. L'usage
de l'informatique neuronale, pour la reconnaissance de formes, bloque
sur la rapidité du traitement.
 

>
> Oui, mais tout dépend de ce qu'on veut démontrer ... La correction d'un
> algorithme
> (par rapport à un modèle théorique) c'est bien joli, mais ca ne prouvera
> jamais que le modèle de départ est bon.

C'est exactement ce qu'a dû se dire Christophe Colomb. Ce qui ne
m'empêche pas de penser qu'il est possible de tester, très localement, des modèles
cognitifs; en tous cas, de manière bien plus démontrable qu'en pédagogie.
 
 

[...]

> > Il me semble qu'on utilise de mêmes mots pour décrire des réalités qui
> > sont localement disjointes, même si des liens existent. A Paris 8, les
> > réseaux neuronaux semblent davantage intéresser les étudiants du
> > département hypermedia que ceux du département informatique. les
> > premiers ne sont pas forcément des codeurs - donc des informaticiens du
> > point de vue de la hiérarchie des hackers.
>
> Pffff... encore les hiérarchies ...

Lorsqu'on veut les combattre il vaut mieux les reconnaître, distinguer
l'ordre formel de l'ordre social. Mais t'as raison de te méfier.
 

> amicalement
>
> Eric

amicalement

Charlie
 



 

De :charlie nestel
Objet :Re: la pédagogie de la pédagogie.. :-))
Groupes de discussion :fr.education.divers
Date :1999/05/25
 

Palmitruff wrote:

> Et le concept d'indexicalité, c'est quoi pour finir?
> merci à tous
> anne

En deux mots, puisque je n'ai pas beaucoup de temps, c'est un concept
mis en lumière en 1954, je crois, par le logicien-mathématicien
Bar-Hillel qui pourrait se résumer par : "la langue qu'on parle n'est
pas celle des dictionnaires".

Ce truc tout con a eu pour effet de provoquer une immense polémique dans
les années 60 entre Bar-Hillel et Noam Chomsky, fondateur de la
grammaire générative.

Le concept d'indexicalité fut repris par Harold Garfinkel -une
expression indexicale renvoyant au contexte de son énonciation- qu'il
relia au concept phénoménologique de réflexivité. Certains
ethnométhodologues appellent "réflexivité" le lien tout court qui met en
correspondance une expression indexicale et son contexte. Les
significations des mots et expressions des langues naturelles ne pouvant
pas faire l'objet de définitions universelles.

Cette attitude radicale, déjà en germes dans l'ethnographie, la
sociologie interactionniste de l'école de Chicago, la phénoménologie
sociale de Schütz, le courant de l'analyse institutionnelle des sciences
de l'éducation, a comme principe méthodologique, pour décrire un fait
social, d'utiliser les catégories mêmes employées par le groupe. Ainsi,
une étude portant sur la tribu des sociologues, psychologues etc...
devra utiliser les catégories mêmes des sociologues, psychologues,
etc.... Par contre, une étude portant sur une classe devra éviter les
catégorisations des sciences de l'éducation et ne s'attacher, dans la
mesure du possible, qu'aux catégories meêms  employées par les enfants
pour décrire le monde qui les environne. Elles pourront être considérées
comme jouant un rôle miroir vis-à-vis de tel ou tel enfant ; elles
seront le miroir d'une certaine mentalité enfantine, dans un instant t
donné, d'un contexte localisé et incarné.
 

Amicalement, Charlie
 


  • vulgarisation et synthèse