Psicologia Cognitiva: síntese e interpretação

Por enquanto é mera especulação tentar estabelecer se o ser humano é predominantemente racional, conseqüentemen­te lógico e cognitivo, dentro do velho refrão aristotélico e da atual perspectiva de Piaget(1) ou essencialmente emocional, de acordo com a concepção de Freud, Nietzsche e Foucault(2).
Por enquanto é mera especulação tentar estabelecer se o ser humano é predominantemente racional, conseqüentemen­te lógico e cognitivo, dentro do velho refrão aristotélico e da atual perspectiva de Piaget(1) ou essencialmente emocional, de acordo com a concepção de Freud, Nietzsche e Foucault(2).

É evidente que no primeiro caso, a evolução e principal­mente a marcha da história apontariam no sentido de uma crescente racionalidade, marcada pelo avanço de um contí­nuo progresso cognitivo. No segundo, as bases irracionais da natureza humana – incluindo a destrutividade – seriam sem­pre mais poderosas que qualquer controle da cognição, cuja emergência estaria sempre subordinada à dinâmica das emo­ções. Racionalizações consecutivas em vez de um genuíno progredir da racional idade.

É obvio que esta polêmica prossegue, por enquanto, ao nível ideológico, se não político, pelo menos em termos de ideologia científica. Suas conseqüências estendem-se ao prognóstico histórico da civilização, percebido com certo otimismo pelo racionalista e – parafraseando Freud – como um autêntico porvir de uma ilusão, na concepção do irracio­nalista.

Talvez uma tendência nítida no processo evolutivo nos permita visualizar a longo prazo uma perspectiva: é eviden­te, no mapeamento cerebral, a localização telencefálica das coordenações correspondentes aos processos cognitivos e diencefálica quanto aos processos emocionais.

O avanço do prosencefálico e a crescente corticalização dos animais superiores apontaria, pelo menos, para uma racionalidade em marcha. Mesmo supondo que esta ainda seja atualmente frágil no ser humano, face às muitas evidên­cias históricas que corroboram a tese irracionalista, é possí­vel entrever um rumo evolutivo direcionado para uma prová­vel crescente racionalidade.

À luz das diferentes teorias psicológicas voltadas para o estudo da cognição, esse problema não escapa ao envolvi­mento que acabamos de definir como "ideologia científica". O otimismo racionalista está basicamente subentendido nas mais diversas posturas da psicologia cognitiva, pelo menos em termos de prospecção, quanto ao desenvolvimento de cada indivíduo e potencialmente da sociedade.

À medida que, em psicologia, o acervo de verdades empí­ricas estabelecidas e comprovadas ainda é exíguo – e segun­do alguns, como Foucault(3), inexistente e até inatingível – torna-se mais adequado seguir as diversas hipóteses que se sucederam e vêm se sucedendo à explicação dos processos levantados pela psicologia cognitiva.

Obviamente teremos que delimitar e restringir esta rese­nha a algumas correntes principais e à discussão de seus fun­damentos sem a pretensão de averiguar detalhes históricos de cada escola e de seus expoentes.

Embora o marco histórico que se impôs – quase como estereótipo – para assinalar o advento da psicologia científi­ca seja a criação do laboratório de Wundt, em Leipzig, em 1879, parece-nos que esse evento, fundamental para a sis­tematização da psicologia experimental, seja pouco expressi­vo para assinalar o início da psicologia cognitiva. Mais importante, como ponto de partida, é a obra de Brentano(4) que ao diferenciar ato e conteúdo nos processos mentais, abriu as portas da Fenomenologia – um segmento da Filosofia que por si já representa um campo promissor da Psicologia Cognitiva, inicialmente entendida como Psicologia da Consciência. Seu principal discípulo, E. Husserl(5) consolidou as bases dessa perspectiva, buscando inicialmente ultrapassar as limitações do Positivismo, que se vinha escudando nos fatos. Pela fenomenologia, não nos cabe afirmar a realidade dos fatos e sim apenas a percepção e a consciência que deles temos. Isto sim, seria um "positi­vismo absoluto". Por este caminho foi possível a outro discí­pulo de Brentano, Christian von Ehrenfels, lançar as bases do movimento Gestaltista(6). Contrariando o suposto "princí­pio da constância" que asseguraria igual sensação perante o mesmo estímulo, mostrou, exemplificando pela música, onde através do transporte, todos os estímulos podem ser mudados, mantendo inalterada a percepção da melodia, que a configuração (Gestalt) pode, fenomenologicamente, sobre­por-se à percepção de estímulos isolados. Começava assim um estudo empírico e experimental sobre os princípios pos­tulados filosoficamente pela Fenomenologia(7).

Dando continuidade à perspectiva e os trabalhos de Ch. von Ehrenfels, a Escola de Graz (Alexis von Meinong e Vittorio Benussi, principalmente) buscou uma explicação dualista para esse processamento, admitindo que as sensa­ções elementares, isoladas, captadas inicialmente, eram inte­gradas numa forma global (Gestalt) na percepção por um "princípio de produção". Coube à escola de Berlim (Max Wertheimer, Kurt Koffka, Wolfgang Köhler e sucessiva­mente, Kurt Lewin), o grande salto para a posição "monis­ta"(8). A percepção é sempre uma integração imediata e dire­ta dos estímulos, não sendo precedida por qualquer suposta sensação. As mesmas leis que regem à estruturação da nossa percepção estendem-se a todos os domínios mentais: pensa­mento, memória, linguagem, aprendizagem e até a domínios extra-cognitivos como ocorreu na teorização dos valores pela Escola de Leipzig (F. Krüger(9)). Entre essas leis, destaca-se a organização figura-fundo e sua dinamização, que permite entender a criatividade no indivíduo e na história da humani­dade através das reestruturações do campo cognitivo. O papel do cientista é captar novos componentes figurais desde sempre insinuados, mas apenas por ele reestruturados. Um exemplo histórico de transposição figura-fundo poderia ter sido a percepção de Copérnico, que foi capaz de se situar como fundo e não mais como figura, frente ao movimento solar.

Concomitantemente ao desenvolvimento das investiga­ções gestaltísticas, dois outros campos vinham sendo explora­dos experimentalmente.

"Em primeiro lugar, o do pensamento, através da Escola de Würzburg (O. Kulpe, Marbe, Watt, N. Ach, Messer, K. Buhler e Otto Selz), que tentou, através do método intros­pectivo, identificar os modos e as formas (com e sem ima­gem) de pensamento. Suas investigações foram veemente­mente criticadas por W. Wundt ("a tentativa de pular sobre a própria sombra") e retomadas em bases mais precisas por um gestaltista: Max Wertheimer (10)".

Em segundo lugar, a tentativa de mensurar objetivamente a inteligência e por extensão as diversas aptidões cognitivas. A base metodológica havia sido estabelecida nas últimas

décadas do século XIX por Galton, que ao fixar os fundamentos do método diferencial, oferecia para a mensuração psicológica um novo tipo de medida, não mais centrada na tendência central a qual caberia assinalar o ponto exato do processo mental. O que os experimentalistas vinham buscan­do até então, através do método psicofísico (tal como na focalização visual), era estabelecer um ponto exato, mesmo que os seres humanos apresentassem desvios: assim também em psicologia, esperava-se localizar, matematicamente, o ponto exato de manifestação de qualquer processo, como uma tendência central (média real) a partir da qual poderiam se avaliar os graus de anomalia. O método de Galton desloca para o outro parâmetro básico da estatística sua avaliação: a dispersão. É, portanto, sobre a variabilidade que se podem e devem buscar as diferenças mais importantes, principalmen­te quando estiver em jogo a avaliação de processos sujeitos a crescimento, através de qualquer tipo de aprendizagem ou treinamento. É um método que o próprio Galton utilizou para comparações, não apenas psicológicas, mas também biológicas.

Diferenças inter-individuais devidas a exercícios físicos e mentais não permitem estabelecer um ponto exato de funcio­namento do processo, mas admitem a formulação de escalas comparativas para acompanhar seu crescimento, sua varia­ção. Isto tornou-se mais pregnante nas avaliações de cunho pedagógico e de habilidades sociais. Duas áreas cuja frontei­ra com o desenvolvimento da inteligência nunca conseguiu ser claramente delineada, quanto à influência real no desen­volvimento da inteligência.

O primeiro passo significativo para proceder a este tipo de avaliação deve-se a Binet. Uma portaria ministerial do governo francês de 1904 o havia encarregado de estudar as razões pelas quais, certo número de crianças não logra­vam ser alfabetizadas. Já anteriormente, Binet havia-se nota­bilizado por sua oposição à psicologia experimental de Leipzig, centrada na pesquisa psicofísica e psicofisiológica das sensações. Costumava afirmar que os seres humanos diferenciavam-se bem mais por seu nível intelectual que por seus limiares olfatórios. Investido dessa incumbência criou sucessivamente três escalas métricas sobre inteligência (1905,1908 e 1911) dando início a um campo de investigação e aplicações que posteriormente passou a ser denominado como psicotécnica e durante meio século, teve alta credibili­dade, parecendo ter satisfeito as condições básicas da psico­logia científica aplicada. O instrumental consistiu num acer­vo de testes que com o tempo tornou-se sempre mais sofisti­cado, acompanhado por uma verdadeira explosão de técnicas estatístico-matemáticas correspondentes ao vasto domínio da psicometria.

No entanto, inicialmente a base teórica de Binet era frágil. Havia criado o constructo de idade mental obtido a partir dos acertos nos testes de acordo com uma ingênua escala correlacional: levantada empiricamente para cada idade, na infância. Pouco após seu falecimento, Stern, em 1912, propôs um cálculo adicional: o quociente de inteligência (Q.I.). Precisava dividir a idade mental pela idade cronológi­ca, o que permitiria estabelecer o adiantamento ou atraso da criança. Este tipo de avaliação teve enorme sucesso e uma popularidade generalizada nos Estados Unidos, onde os tes­tes de Binet foram adaptados e atualizados através de autên­ticas escolas "binetianas" cabendo um destaque à Univer­sidade de Stanford onde Tennan promoveu duas importan­tes revisões e padronizações em 1916 e 1937. Esta última representa um dos mais cuidadosos trabalhos de padroniza­ção de um teste num país inteiro.

As críticas ao modelo matemático do Q.I. e a impossibili­dade de seu uso em adultos iria promovendo o desenvolvi­mento de novas formas de avaliação destacando-se o traba­lho de Wechsler, no hospital Bellevue de Nova York que, em 1939, publicou um tipo de cálculo bem mais racional fun­dado nas conhecidas notas-padrão (ou notas Z de Fisher). A partir desse momento, começa o declínio do cálculo do Q.I. que na sua modalidade original, isto é, como quociente entre idade mental e idade cronológica, deixou de ser usado, até pela Universidade de Stanford em 1961. O nome, todavia do Q.I. já arraigado na percepção popular continuou – e ainda continua – a ser usado para indicar as variações a partir da média das notas-padrão.

Entretanto, na Inglaterra, desde o começo do século, o sobrinho de Galton, Speannan(11), insatisfeito com a inconsistência teórica de Binet e seus seguidores, vinha pro­movendo uma pesquisa para definir a estrutura da inteligên­cia. Utilizando 30.000 sujeitos e métodos de intercorrelação estatística – o método tetrádico, que comparava quatro apti­dões simples de cada vez – concluiu existir um fator G (geral) genérico e inato, identificado com a potência cerebral – e inúmeros fatores s – cada um específico para cada habili­dade, em que dispositivos psicofisiológicos diversificados apresentavam um desenvolvimento variável conforme a aprendizagem. Este modelo foi definido como teoria bifato­rial (G/s). O potencial do fator G seria sempre crucial para permitir um uso eficaz dos fatores s mais desenvolvidos em cada indivíduo.

A escola inglesa de Spearman, por sua vez, evoluiu atra­vés de C. Burt(l2) e Vernon, para uma "teoria hierárquica" mais sofisticada: entre fator G e os fatores s, interpunham-se dois grandes fatores diretamente subordinados ao G: Ved. ou competência verbo-educacional e K-m cinestésico-motor. Abaixo destes fatores, ainda inatos em seu potencial, iri-se-am­ constituir fatores mais definidos nos dois troncos, dos quais derivariam os fatores realmente específicos representa­dos pelas inúmeras habilidades de cada um.

As limitações do cálculo tetrádico chamaram à atenção de Thurstone(l3), engenheiro e matemático, que criou novo método de análise fatorial capaz de comparar simultanea­mente grande número de habilidades. Acreditava que ao comparar só quatro de cada vez, não seria possível obter mais de um fator comum ou geral. Através do método "cen­troite" conseguiu detectar 13 fatores gerais dos quais, oito mais significativos: W fluência verbal, V raciocínio verbal, R raciocínio abstrato, N fator numérico, S fator espacial, P precisão de percepção (concentração), M memória e Mo controle motor. Esta nova versão da escola dita "Americana" passou a ser conhecida como teoria multifatorial que visava definir as habilidades primárias (teste PMA = Primary Mental Abilities) e teve (e ainda tem) inúmeras aplicações e usos nos diagnósticos da orientação e seleção profissional.

Outra versão bem mais empirista da escola americana deveu-se a Thorndike, que partindo do conceito lockea­no (e behaviorista) de "Tabula rasa" admitiu que o ser huma­no incorpora o que a sociedade estruturou e lhe oferece pela aprendizagem. Os fatores encontrados não são naturais e sim sociais – como competências verbais, matemáticas, artísticas e até para o galanteio, se a sociedade desenvolver esse hábito – e podem, portanto, ser encontrados nessa amostra viva do social, que é o indivíduo (daqui o nome atribuído a essa con­cepção como "sampling Theory"). Neste quadro os testes aplicáveis serão sempre os de desempenho e não de suposta aptidão subjacente. Só cabe avaliar o que o indivíduo pode realizar no momento.

Guilford(l4) criticou o método multifatorial de Thurs­tone. Entendia que pela análise fatorial – procedimento esta­tístico cego – as correlações poderiam agrupar elementos heterogêneos. Assim o fator verbal, espacial e numérico representariam conteúdos da atividade mental, enquanto o raciocínio seria um processo. Deliberou seguir uma linha inversa: primeiro definir a teoria e só depois submetê-Ia à verificação. Enumerou cinco operações (cognição ou recebi­mento de informação, memória, avaliação, produção conver­gente e produção divergente), quatro conteúdos (figural, simbólico, semântico e comportamental) e seis conteúdos (unidades, classes, relações, sistemas, implicações e trans­formações). Pelas confluências destas três dimensões elabo­rou uma representação tridimensional de 120 fatores (5x4x6) que na prática nunca logrou verificações satisfatórias. O único mérito de Guilford foi de abrir um campo de investi­gações empíricas sobre criatividade a partir da noção de pro­dução divergente. As operações mentais envolvem esses dois modos de produzir resultados: convergente, se houver uma única solução, como nos cálculos aritméticos e diver­gentes, sempre que o problema permita um número indefini­do de soluções. É importante notar que esta colocação coin­cide com o princípio gestaltista de reestruturação do campo perceptual.

Paralelamente, a partir da década de 20, um importante conjunto de investigações vinha sendo levado a cabo por uma das mais significativas figuras da Psicologia de nossos tempos: Piaget (1896-1982).

Inicialmente seu trabalho foi eminentemente voltado para o estudo do desenvolvimento infantil e gradativamente foi se dirigindo para a área de seu maior interesse: a epistemolo­gia(l5). Sua teoria é hoje definida como "Epistemologia Genética". Na realidade o seu trabalho foi, principalmente, uma psicologia da epistemologia, ou seja do desenvolvimento da cognição. Como ele eliminou as distin­ções, em termos de processo entre conhecimento natural (tal como se desenvolve na criança e no adolescente) e conheci­mento científico (que prolonga sem saltos esse desenvolvi­mento), há reversibilidade plena entre o estudo psicológico da epistemologia (Teoria do Conhecimento) e vice-versa.

Na realidade sua preocupação fundamental foi a de preen­cher uma lacuna. Por um lado, as ciências formais (matemá­tica, lógica, gramáticas) evidenciavam um desenvolvimento e um acabamento acuradíssimo em nossos tempos; por outro lado, as ciências empíricas da natureza, física e biológica mostravam um avanço progressivo e acelerado. O que falta­va entre esses dois conjuntos para explicar uma gênese do segundo a partir do primeiro?

É essa lacuna que Piaget se preocupou em preencher, como desafio central de suas investigações.

Assim, partindo do estudo da psicologia infantil, buscou identificar a constituição de regras lógicas nesse desenvolvi­mento, como uma construção interna (daqui o nome de construtivismo atribuído à sua perspectiva). Não há necessi­dade de supor programas (em biologia) ou inatismo (em psi­cologia) e muito menos qualquer variação aleatória. Desde as moléculas que contém regras em sua estrutura para se transformarem, até à cognição da criança, o que ocorre é que a estrutura presente, em qualquer momento, tem em si as regras para se reequilibrar numa estrutura mais equilibrada. É graças a este processo evolutivo que qualquer organismo, ou sujeito, consegue transformar o seu meio, assimilando-o (inicialmente em termos físicos, sucessivamente em termos comportamentais e finalmente incorporando-o através da representação) e transformar-se reequilibrando as estruturas de que dispõe para assimilar (acomodação). Através desta dupla transformação (assimilação-acomodação) Piaget defi­ne o processo de adaptação bem como a evolução das espé­cies e todo progresso do ser humano.

As mesmas regras lógicas que permitem ir dominando o meio inicialmente de modo ativo e consumatório, entre O e 2 anos, no período sensório-motor passam gradativamente a ser representadas. Há inicialmente um período de organiza­ção preliminar da atividade representativa (período pré-ope­ratório entre 2 e 6-7 anos), seguido do período das operações concretas em que ocorre a estruturação dos oito (mais um) "agrupamentos" – quatro de classes e quatro de relações que possibilitam à criança nesta fase (6-7 a 11-13 anos) a elabora­ção dos primeiros conhecimentos lógicos e matemáticos. Trata-se de estruturas híbridas (entre "rede" e o "grupo") que foram sendo construídas gradativamente através da represen­tação mental de ações e de suas relações coordenadas em sis­temas. É como uma sintaxe de regras que se instala no inconsciente cognitivo de cada criança e dirige seus raciocí­nios. Finalmente na puberdade ocorre um segundo salto na representação: não são mais apenas as ações que passam a ser dubladas, mas principalmente as coordenações dessas ações – dublagem da dublagem – permitindo raciocinar alge­bricamente por hipóteses, independentemente da referência a objetos concretos (período das operações formais ou propo­sicionais ).

O pensamento do lógico, do matemático, do cientista é o prosseguimento deste caminho: essas regras passam a ser não apenas usadas, mas também tematizadas, podendo se deduzir progressivamente inúmeras combinações.

Assim, da física se chega à biologia, desta à psicologia e daqui às ciências formais. "A lógica é a axiomática da razão da qual a psicologia da inteligência é a ciência experimental"(16).

Uma contribuição muito significativa para o desenvolvi­mento da psicologia cognitiva deve-se a Bruner(17). Este pesquisador passou por quatro fases de elaboração de sua teoria. Inicialmente participou do movimento "New Look in Perception" (década de 40) que buscava encontrar uma explicação psicanalítica frente às variações subjetivas de estruturação cognitiva postuladas pelo Gestaltismo. Na déca­da seguinte, voltou-se para aspectos objetivos do estudo do pensamento, em termos de estratégias e decisões; já na déca­da de 60, sua preocupação volta-se para a evolução (inclusi­ve com considerações relativas aos seres infra-humanos) e os processos de crescimento e respectivas implicações peda­gógicas. Aparece aqui a tese dos três níveis que caracterizam o desenvolvimento da cognição: ativo (execução inteligen­te), icônico (representação analógica, tal como no mapea­mento) e simbólico ou formalizado na atividade verbal, e ainda a ênfase atribuída ao valor da metacognição no contro­le e desenvolvimento das condutas cognitivas. Estudos mais recentes o levaram a avaliar mais de perto os processos envolvidos na linguagem.

A psicologia soviética apresentou um marcante desenvol­vimento em dois tipos de relação: linguagem e neurologia por um lado, onde se distinguiu, principalmente, Lúria, bem conhecido por suas investigações cuidadosas num hos­pital dos Montes Urais, na segunda guerra mundial onde eram abrigados soldados atingidos no cérebro(I8). Na outra vertente, a psicologia soviética investigou a incorporação do social pelo indivíduo. Destaca-se aqui a importância de Vigotsky, que, inclusive, se opôs a Piaget, na década de 30 com seu conceito de egocentrismo. Enquanto para Piaget este representaria a fase mais remota no desenvolvimento infantil – a criança marcharia do egocentrismo para a sociali­zação – entendia Vigotsky ocorrer o caminho inverso: a criança se desenvolveria mentalmente por um processo de socialização através de uma incorporação irrefletida do que lhe é oferecido e só mais tarde conseguiria uma elaboração – egocêntrica – desses materiais adquiridos. Ocorreria desse modo a "Formação Social da Mente"(19).

Etapas mais recentes do desenvolvimento científico da psicologia apontam sempre para uma crescente valorização da cognição sob o ângulo social. Desde a década de 30 e 40 a Psicologia Social vinha evidenciando indícios de uma con­vergência com Psicologia Cognitiva.

O peso do Gestaltismo havia-se revelado essencial nesse desenvolvimento. Em Lewin e em Heider caracteriza­-se pela ênfase nos princípios de equilíbrio e boa forma. Nessa direção a busca do equilíbrio gerou diversas concep­ções, cabendo destacar além da de Heider(20) – teoria do "balance" – e conseqüente perspectiva da "atribuição de cau­salidade" – como um princípio de consistência -, a de Festinger(21), como esforço de resolução da "dissonância cognitiva", na década de 50, e a de Asch(22) envolvendo a pesquisa sobre a formação de impressões e a conseqüente tentativa de integrar e compatibilizar, em qualquer sujeito, as informações oriundas do campo social com a organização das convicções pessoais na busca de uma boa forma interio­rizada.

Outro segmento fundamental da cognição social vem se desenvolvendo a partir de 1961, pelo trabalho inicial de Moscovici(23).

Trata-se de estudo das "Representações Sociais", uma reavaliação do conceito de representações coletivas de Durkheim que havia formulado uma primeira generaliza­ção do conceito marxista de superestrutura. Dentro desta perspectiva torna-se possível reenquadrar a tese de Althusser(24) quando definiu a ideologia como uma visão imaginária do real.

Um segmento importante da psicologia cognitiva, na con­fluência desta ciência com a lingüística e a psicologia social, é o da Psicolingüística. Embora as primeiras abordagens já remontem à década de 40 (não se excluindo estudos antropo­lógicos como os de Levy Straus e as contribuições lingüísti­cas de Brown e Whorf), foi em 1950 que o "Social Science Research" nos Estados Unidos resolveu formar um "Comitê de Lingüística e Psicologia" e promover, em 1953, o "seminário de verão" da Universidade de Indiana, que resultou numa importante reunião de pesquisadores das duas vertentes (lingüística e psicologia) e na publicação da signi­ficativa monografia "Psycholinguistics: a survey of theory and research problems" que definiu o papel deste campo específico da psicologia.

Entre as inúmeras figuras de destaque realço aqui em primeiro lugar a de C. Osgood(23) que tentou ampliar o modelo mecânico de Behaviorismo (S-R) para um modelo expressamente mediacional, definindo as atividades interme­diárias entre estímulos (S) e respostas (R) como processa­mento de significações através de instâncias sucessivas; e, em segundo lugar, a de Chomsky, a quem se deve uma teoria inatista da linguagem: admite um estágio inicial (So) presente em todo o ser humano como um conjunto de regras da "gramática gerativa" capazes de permitir a aprendizagem e sucessiva elaboração de qualquer língua. As regras sintáti­cas iniciais universais e comuns são "conhecidas" inatamen­te. Chomsky forjou o neologismo "cognized" para esse fim, enquanto os conteúdos, signos e palavras (lexemas) e inclu­sive flexões (morfemas) são fornecidos pelas diferentes cul­turas. Ainda neste campo é essencial realçar a teoria pouco anterior de E.G. Lenneberg para o qual o "homem está equi­pado com propensões inatas… que modelam o desenvolvi­mento da linguagem… arraigadas em nossa constituição bio­lógica tal como nossa propensão a usar as mãos"(25).

Ainda na década de 60, emerge mais um campo ou movi­mento entendido como "Cognitivismo" que se beneficia das derivações da teoria da informação e das tecnologias decor­rentes, notadamente das simulações que essas tecnologias vêm permitindo, quer para fins de pesquisa e compreensão dos processos básicos, quer para desenvolvimento de novas técnicas e recursos pedagógicos.

Dois momentos são significativos, segundo Vignaux(26): o ano de 1956, em que se realiza o "Symposium on Information Theory" do MIT e o "Encontro de Dormouth" no qual se declara oficialmente o nascimento da Inteligência Artificial e a fundação em Harvard do "Center for Cognitive Studies" por parte de Bruner e Miller (1960).

Entre os aspectos mais importantes desta vertente, cabe­-nos destacar aqui, basicamente dois. Em primeiro lugar, a discussão entre a Inteligência Artificial "forte e fraca". Uma disputa teórica nas quais se alinhariam figuras de relevo, tal como Johnson Laird, na primeira posição, Searle e Fodor, entre outros, na segunda. Trata-se de admitir que os progra­mas de Inteligência Artificial possam – no presente ou no futuro – promover uma réplica por simulação integral por dispositivos cognitivos humanos ou não. Os adeptos da "Inteligência Artificial fraca" negam que a intencionalidade possa ser transferida do operador humano para qualquer tipo de equipamento. J. Fodor(27) chega a discutir a diferença entre o comportamento animal – mesmo inferior – em que a intencionalidade estaria sempre presente e a de artefatos tec­nológicos por mais sofisticados que se possam tomar.

A segunda característica desta linha representa a busca de um campo de integração: Gardner(28) evidencia as signifi­cativas relações entre filosofia, psicologia, inteligência artifi­cial, lingüística, neurologia e antropologia, o que justifica o estabelecimento de um campo unificado.

Paralelamente H. Gadner(28) desenvolveu, para fins prá­ticos, um desdobramento da cognição em " inteligências múltiplas" que envolveriam: a inteligência lingüística, matemática, musical, espacial, a cinestésica, interpessoal e intrapessoal.

Embora se trate de uma tese filosófica, não é possível omitir nesta breve resenha a "Ação Comunicativa" de Habermas(29), da Escola de Frankfurt, que entende deva-se ultrapassar a ação instru­mental voltada para a tecnologia rumo a uma forma de inte­gração cognitiva e social, capaz de nos levar através do pro­gressivo consenso rumo a uma ética superior e universal capaz de assegurar a real emancipação dos seres humanos.

Finalmente, nas etapas mais próximas cabe ainda assina­lar a recente contribuição de Levy, com sua tese de inteli­gência coletiva, entendendo esse processo como uma intera­ção decorrente dos grupos intersubjetivos em que cada um vai se inserindo. Esta última concepção vê no Cyberespaço o autêntico futuro do desenvolvimento cognitivo amplo, coerente e integrado de toda a espécie humana.

Notas

1. A postura racionalista de Piaget transparece praticamente de todas as obras e do programa por ele desenvolvido ao longo de 60 anos. No entanto, onde essa posição pode ser entendida de modo mais abrangente é na última obra escrita em co-autoria com Garcia e publicada pouco após seu falecimento em 1982, no México, pela Editora Siglo XXI "Psicogénesis e histo­ria de Ia Ciencia."

2. O irracionalismo envolve duas facetas: o irracionalismo psico­lógico, pelo qual a conduta é dirigida por determinismos irra­cionais, e o epistemológico, que nega a possibilidade de se construir racionalmente qualquer saber. No primeiro caso, Freud é irracionalista psicológico, mas racionalista epistemológico (a ciência permite construção e validação racional). No segundo, Nietzsche e Foucault são irracionalistas em ambas as vertentes.

3. A impossibilidade de construir uma ciência psicológica é uma afirmação recorrente: procede de Kant (Estética Transcendental da Crítica da Razão Pura) e reafirmada por Comte, em novas bases e ampliada a todas as Ciências Humanas por Foucault (Les Mots et les Choses – capo X- Paris: Gallimard, 1969).

4. As buscas preliminares desta perspectiva aparecem na "Psicologia do ponto de vista empírico".

5. Husserl foi discípulo de Brentano e levou a concepção da Fenomenologia à posição extrema: em primeiro lugar, a essên­cia não está na materialidade ou na gênese e sim na significação essencial de cada coisa. Em segundo lugar, não se trata de inda­gar a existência de um "sujeito" voltado para um "objeto" atra­vés de atos de consciência: esta é pura "intencionalidade", ou seja, ela é a própria relação entre um pólo sujeito e o pólo objeto, presentes no campo. Não cabe admiti-Ia como uma entidade e sim como pura referência.

6. Assim como Husserl, também Christian von Ehrenfels foi discípulo de Brentano, daqui a afinidade entre a linha filosó­fica (Fenomenologia) e a linha de investigações empíricas (Psicologia Gestáltica).

7. Ainda que a origem da Fenomenologia e da Gestalt fosse comum, a postura metodológica separou as duas escolas. A pri­meira permaneceu no domínio da especulação pura, enquanto a segunda voltou-se para verificações experimentais. É importan­te notar, todavia, que mesmo nesta postura, a Gestalttheorie investigou as relações fenomenológicas do percebedor frente aos seus perceptos. Apesar disto, Husserl criticou essa escola, que na realidade levou para o cadinho da experimentação alguns processos básicos da Fenomenologia.

8. A literatura originária do movimento gestaltista é bastante extensa. Entre os textos fundamentais, dois merecem destaque: a "Gestaltpsychology" de W. Kohler, de 1929 e os "Principles of Gestalt" de Koffka, de 1935. Ambas as obras foram publi­cadas nos Estados Unidos.

9. F. Krüger Zur Einfürung, Neue Ps. Stud, I, 1926.

10. M. Wertheimer. Productive Thinking, 1945.

11. Após um artigo publicado em 1904 ("General Intelligence, objectively determined and measured, Amer Jour of Psych. 15:201-293) C. Spearman levou a cabo um extenso conjunto de experimentos, a fim de comprovar sua teoria (exposta, princi­palmente, no livro "The Abilities of Man", de 1927).

12. Sobre o trabalho de Burt pesam dúvidas – nunca efetivamen­te desmentidas – pela possibilidade de terem sido forçados – e até forjados – dados experimentais aptos a comprovar a heredi­tariedade da inteligência. Entre suas publicações, destacamos aqui: "The factors of the Mind" (Univ. of London Press, 1940.).

13.Thurstone, a fim de correlacionar simultaneamente resulta­dos de um grande número de aptidões, elaborou um método de análise fatorial, no qual cada fator pode ser entendido em sua referência com um centro comum. As projeções das intercorre­lações podem, descritivamente, figurar num espaço esférico e formar autênticas "constelações" nesse simulacro de firma­mento aptas a serem interpretadas como aptidões primárias ("Primary Mental Abilities". Psychometr. Monog, 1938. Cf. tb. Multiple Factor Analysis" 1947 ).

14. Guilford elaborou um modelo de disposição modular das aptidões humanas – "The Nature of Human Intelligence" – Nova Iorque: Mc Graw & Hill, 1967.

15. A produção de Piaget é vastíssima. Para se ter uma idéia do cerne epistemológico (e psicológico) de seu programa, podería­mos citar aqui os primeiros volumes da célebre coleção "Études d'Epistémologie Génétique" e, precisamente: "Épistémologie Génétique et Recherche Psychologique."

16. Piaget. J. (1947) Psychologie de l'Intelligence – Paris – Ed. Colin.

17. Do trabalho muito extenso de Bruner, podemos destacar duas coletâneas: "Beyond The Information Given ", editada por IM. Anglin, em 1973, e mais recentemente – em língua france­sa: "Le développement de I'enfant, Savoir faire, Savoir dire" ­Paris: P.U.F. 3ªed.1991.

18. Lúria publicou um trabalho específico decorrente dessas investigações. A tradução para o espanhol intitula-se "EI cére­bro en acción". Barcelona: Ed. Fontanella, 1969.

19. Vigotsky escreveu uma série de artigos. Uma coletânea coe­rente acha-se traduzida para o português sob o título "A forma­ção Social da Mente" – Ed. Martins Fontes -1989.

20. Dois trabalhos de Heider merecem destaque: o artigo "Attitudes and Coghitive Organization" – Jour of Psychol, 1946,21: 107-112, e o livro: "The Psychology of Interpersonal Relations", Nova iorque: Wiley, 1958.

21. Festinger, L. (1957) A Theory of Cognitive Dissonance. ­Evanton Raw, Peterson & Co.

22. Asch, S.E. (1946) Forming Impression of Personality. Jour. of Abnormal and Social Psychology, 41: 258-290.

23. O trabalho inicial, que constitui o ponto de partida do autor é: Moscovici, S (1961) – La Psychanalise, son image et son public. – Paris: P.U.F. Entre os demais trabalhos destacamos ainda: L'ere des representations sociales – In. W. Doise, A. Palmonari (Eds.): L 'étude des réprésentations sociales – Neuchâtel­Delachaux e Niestlé.

24. Esta tese que custou ao autor uma posterior "retratação", por contradizer a doutrina "oficial" da ideologia, é de grande importância para a psicologia cognitiva e resulta de uma exten­são da teoria do imaginário de Lacan (não mais como decor­rência do imaginário materno, mas em função do imaginário imposto pelas estruturas do poder). Encontra-se na obra "Pour Marx", em português "A favor de Marx" – Rio de Janeiro: ­Zahar – 2 (2ª ed.) 1979.

25. C. Osgood & T.A. Sebeok- Eds. (1945) – Psycholinguistics: a Survey of Theory and Research Problems – Indiana Univ. Publications in Anthropology and Linguistics. Mem 10 ­Baltimore.

26. C.E. Osgood (1963) "Psycholinguistics: a study of a science". S.Koch (ed) – Nova Iorque: vol. 6 st 2:244-316.

27. A tese do inatismo da linguagem aparece em diversas obras de Chomsky. A explicitação mais clara e sistematizada, em linhas gerais, parece-nos ocorrer em: "Regras e Representa­ções". (trad) Rio de Janeiro: Zahar, 1980, e ainda, de modo polê­mico, no debate com Piaget, ocorrido em 1975 e publicado pelo Centre Rayaumont pour une Science de l'Homme em 1979: Théories du Language et Théories de I' Apprentissage" – Paris: Ed. du Seuil.

28. Language, Evolution and Purposive Behavior In: S. Diamond ­ed Culture in History: Essay in honor of Paul Radin. Nova Iorque, 1960.

29. G. Vignaux (1992) Les Sciences Cognitives: une Introduction. ­Paris- Ed. La Découverte.

30. Fodor. I (1983) The modularity of Mind – An Essay on Faculty. Psychology – Cambridge: Mass – MIT Press.

31. ____. (1987) Psychosemantics – The Problem of Mea­ning in The Philosophy of Mind – Cambridge, Mass – M.I. T. Press- Searle J.(1983) Intentionality: an Essay in The Philosophy of Mind – Cambridge- Univ. Press.

32. H.Gardner, The Mind's new science, A history of the cognitive revolution – N.Y Basic Books (1995) (trad) Inteligências Múltiplas – P. Alegre:­ Ed. Artes Médicas.

33. Habermas J. (1987) Trad. Théorie de I'Agir Communicationel (Tomo I) – Paris: Ed. Fayard.

About Adalberto Tripicchio

Psiquiatra - Pós-doc em Filosofia Membro do Viktor Frankl Institute Vienna Docente da BI Foundation FGV/Berkeley
Comments are closed.