RÁDIO WEB INESPEC - BLOG 41/2011

ATUALIZAÇÃO NESTA DATA: 24.01.2012 RÁDIO WEB INESPEC - 04 DE ABRIL DE 2010. 2012 - ANO II
CENTRO DE ATENDIMENTO EDUCACIONAL ESPECIALIZADO -INSTITUTO INESPEC. NÚCLEO DE EDUCAÇÃO CONTINUADA - Inscrições no site CAEE2012 - Rua Dr. Fernando Augusto, 873 - Santo Amaro. Informações pelos Telefones: (85) 3245-8928 e 3245 8822 e 88 HORA DE FORTALEZA-BOM JARDIM-CEARء-BRASIL
relojes web gratis
INSTITUTO INESPEC. Instituto de Ensino Pesquisa, Extensمo e Cultura. Rua Dr. Fernando Augusto, 873 – Santo Amaro. CEP 60543375. Telefones: DDI 55 OPERADORA XXXX DDD 85 3245.88.22 e 3497.0459 – 88 23 82 49 e 86440168 CENTRO DE ATENDIMENTOEDUCACIONAL ESPECIALIZADO. CAEE-INESPEC - CNPJ: 08.928.223/0001-25
BLOG GERENCIADO PELA REDE VIRTUAL INESPEC EAD NEC CAEE RWI INESPEC http://rwi5102.blogspot.com/ CAEE NEC EAD CURSOS http://caee2012.blogspot.com/ LETREIRO ELETRÔNICO
CENTRO DE ATENDIMENTO EDUCACIONAL ESPECIALIZADO -INSTITUTO INESPEC. NÚCLEO DE EDUCAÇÃO CONTINUADA - Inscrições no site CAEE2012 - Rua Dr. Fernando Augusto, 873 - Santo Amaro. Informações pelos Telefones: (85) 3245-8928 e 3245 8822 e 88 A PROGRAMAÇÃO DA RÁDIO WEB INESPEC É TRANSCONTINENTAL E O SOM É DE ALTA QUALIDADE. PORÉM, DIFICULDADES NO SEU SISTEMA DE BANDA LARGA PODE DESQUALIFICAR A QUALIDADE DA TRANSMISSÃO. VEJA COMO ESTÁ A SUA RECEPÇÃO/TRANSMISSÃO: Velocimetro RJNET COORDENAÇÃO DESTE BLOG: caeeinespec@gmail.com

quinta-feira, 12 de março de 2009

PSICODINÂMICA: Inteligência.

Escola de Educação Especial - INESPEC - ESEDE
PSICODINÂMICA: Inteligência.
César Augusto Venâncio da Silva















PSICODINÂMICA: Inteligência.
Professor César Venâncio.
Psicanalista e Pós-Graduando em Psicopedagogia.














Janeiro – 2009
Fortaleza – Ceará


Escola de Educação Especial - INESPEC - ESEDE
PSICODINÂMICA: Inteligência.
César Augusto Venâncio da Silva












PSICODINÂMICA: Inteligência.
César Augusto Venâncio da Silva


















Escola de Educação Especial - INESPEC - ESEDE
PSICODINÂMICA: Inteligência.
César Augusto Venâncio da Silva







Trabalho monográfico: PSICODINÂMICA: INTELIGÊNCIA, apresentado junto ao Curso de Formação de Educador Especial, na Escola de Educação Especial – INESPEC/ESEDE – Bom Jardim, como contribuição didática.










Orientador: Prof. César Augusto Venâncio da Silva.
















Escola de Educação Especial - INESPEC - ESEDE
PSICODINÂMICA: Inteligência.
César Augusto Venâncio da Silva





Depositado na Biblioteca da Escola em ____/____/____

-----------------------------------------------
Bibliotecária

-----------------------------------------------
Supervisão Pedagógica


-----------------------------------------------------------------------------------------------
Orientador: Prof. César Augusto Venâncio da Silva.
















Introdução.



“Ensinar não é transferir conhecimento, mas criar possibilidades para a sua produção ou a sua construção. Quem ensina, aprende ao ensinar e quem aprende ensina ao aprender.” (Paulo Freire)

Introdução. Ensinar bem é saber planejar. O planejamento deve estar presente em todas as atividades escolares. É a etapa mais importante do projeto pedagógico, porque é nesta etapa que as metas são articuladas como estratégia e ambas são ajustadas às possibilidades reais.
Existem 3 tipos de planejamento escolar:

1.Plano da escola;
2.Plano de ensino;
3.Plano de aula.

O plano da escola traz orientações gerais que vinculam os objetivos da escola ao sistema educacional. O plano de ensino se divide em tópicos que definem metas, conteúdos e estratégias metodológicas de um período letivo. O plano de aula é a previsão de conteúdo de uma aula ou conjunto de aulas. Assim, planejar requer:

1.Pesquisar sempre;
2.Ser criativo na elaboração da aula;
3.Estabelecer prioridades e limites;
4.Estar aberto para acolher o aluno e sua realidade;
5.Ser flexível para replanejar sempre que necessário.

Ao planejar devemos sempre levar em conta:

1.As características e necessidades de aprendizagem dos alunos;
2.Os objetivos educacionais da escola e seu projeto pedagógico;
3.O conteúdo de cada série;
4.Os objetivos e seu compromisso pessoal com o ensino;
5.As condições objetivas de trabalho.

Planejando devemos definir:

1.O que vamos ensinar;
2.Como vamos ensinar;
3.Quando vamos ensinar;
4.O que, quando e como avaliar;
5.Planejamento de Ensino.

Apresentação. A construção da prática pedagógica está ligada à concepção do homem e do conhecimento que fundamenta as relações cotidianas. É necessário portanto, compreender a função social da escola para propiciar ao aluno a compreensão da realidade como produto das relações sociais que o homem produziu a partir de suas necessidades. Assim como o homem produz tecnologia, ( aparelhos, instrumentos, máquinas) e símbolos, ( idéias, valores, crenças), ele produz a linguagem e ao produzi-la, cria a possibilidade de abstrair o mundo exterior, torna possível operar na ausência do objeto. Essa capacidade de representar faz com que o homem constitua a consciência racional. A consciência e a criatividade precisam ser consideradas como algo a ser desenvolvido e formado pela escola. Embora a escola divida a tarefa de educar com a família, a comunidade e os meios de comunicação, a escola ainda é o foco principal de transmissão de conhecimentos e tanto o aluno quanto o educador são os principais agentes neste processo. Conhecimento gera conhecimento porém não é o objeto do ensino. A escola deixou de ser a detentora e transmissora do conhecimento produzido e passou a ensinar a “aprender a aprender”, possibilitando também ao aluno um papel dinâmico na busca pelo conhecimento. A evolução do conhecimento se dá progressivamente e interativamente, através do confronto com a realidade. A aquisição de todo conhecimento parte da ação e é nela que deverá estar baseado o ensino escolar. Ao invés de memorizar os conhecimentos expostos pelo professor, o aluno deverá aprender a sentir, perceber, compreender, raciocinar, discutir, criar e transformar. O processo de aprendizagem é socializador e assim sendo deve ser visto como fruto de um trabalho coletivo pois como na vida prática, também na escola é preciso saber trabalhar em equipe. Na escola moderna, ensinar e aprender são funções tanto do professor quanto do aluno e quanto mais prazerosa for essa troca, mais rápida e eficiente será a aprendizagem.


Professor César Venâncio
Autor.



OBSERVAÇÃO:

CAPÍTULOS EM DISCUSSÃO E FUTURA PUBLICAÇÃO.

19/03/2009

Escola de Educação Especial - INESPEC - ESEDE
PSICODINÂMICA: Inteligência.
Professor César Venâncio.
Psicanalista e Pós-Graduando em Psicopedagogia.


Capítulo I.
Inteligência Humana.

1 - Inteligência.
A inteligência pode ser definida como a capacidade mental de raciocinar, planejar, resolver problemas, abstrair idéias, compreender idéias e linguagens e aprender.
Embora pessoas leigas geralmente percebam o conceito de inteligência sob um escopo muito maior, na Psicologia, o estudo da inteligência geralmente entende que este conceito não compreende a criatividade, a personalidade, o caráter ou a sabedoria.
1.1.Inteligência e Sabedoria.
Capacidade mental de raciocinar e sabedoria. Sabedoria (em grego Σοφία, "sofía") é o que detém o "sábio" (em grego σοφός, "sofós"). Desta palavra derivam várias outras, como por exemplo, φιλοσοφία -"amor à sabedoria" (filos/sofia). Há também o termo "Phronesis" - usado por Aristóteles na obra Ética a Nicômaco para descrever a "sabedoria prática", ou a habilidade para agir de maneira acertada". É um conceito diferente de "inteligência" ou de "esperteza". Mesmo para "sophia" há conceitos diferentes: muitos fazem distinção entre a "sabedoria humana" e a "sabedoria divina" (teosofia). Sabedoria humana seria a capacidade que ajuda o homem a identificar seus erros e os da sociedade e corrigi-los. Sabedoria divina será provavelmente a capacidade de aprofundar os conhecimentos humanos e elaborar as versões do Divino e questões semelhantes. Na Bíblia Sagrada (versão revista da tradução de João Ferreira de Almeida) pode-se encontrar, dentre muitos outros, os seguintes versículos referentes à sabedoria:
"Ora, se algum de vós tem falta de sabedoria, peça-a a Deus, que a todos dá liberalmente e não censura, e ser-lhe-á dada." (Tiago 1:5). "Feliz é o homem que acha sabedoria, e o homem que adquire entendimento; pois melhor é o lucro que ela dá do que o lucro da prata, e a sua renda do que o ouro". (Prov. 3:13-14).
2 - Definições.
Existem dois "consensos" de definição de inteligência. O primeiro, de "Intelligence: Knowns and Unknowns", um relatório de uma equipe congregada pela Associação Americana de Psicologia em 1995: 
"Os indivíduos diferem na habilidade de entender idéias complexas, de se adaptar com eficácia ao ambiente, de aprender com a experiência, de se engajar nas várias formas de raciocínio, de superar obstáculos mediante pensamento. Embora tais diferenças individuais possam ser substanciais, nunca são completamente consistentes: o desempenho intelectual de uma dada pessoa vai variar em ocasiões distintas, em domínios distintos, a se julgar por critérios distintos. Os conceitos de 'inteligência' são tentativas de aclarar e organizar este conjunto complexo de fenômenos."

Uma segunda definição de inteligência vem de "Mainstream Science on Intelligence", que foi assinada por 52 pesquisadores em inteligência, em 1994: 
"uma capacidade mental bastante geral que, entre outras coisas, envolve a habilidade de raciocinar, planejar, resolver problemas, pensar de forma abstrata, compreender idéias complexas, aprender rápido e aprender com a experiência. Não é uma mera aprendizagem literária, uma habilidade estritamente acadêmica ou um talento para sair-se bem em provas. Ao contrário disso, o conceito refere-se a uma capacidade mais ampla e mais profunda de compreensão do mundo à sua volta - 'pegar no ar', 'pegar' o sentido das coisas ou 'perceber'" - Herrnstein and Murray: "...habilidade cognitiva." Sternberg and Salter: "...comportamento adaptativo orientado a metas." Saulo Vallory: "...habilidade de intencionalmente reorganizar informações para inferir novos conhecimentos."  
3 - Inteligência psicométrica.
Testes de QI (em inglês IQ) dão resultados que aproximadamente se distribuem em torno de uma curva normal caracterizando a distribuição dos níveis de inteligência em uma populaçãoA despeito das várias definições para a inteligência, a abordagem mais importante para o entendimento desse conceito (ou melhor, a que mais gerou estudos sistemáticos) é baseada em testes psicométricos. 
O fator genérico medido por cada teste de inteligência é conhecido como g (ver Teoria g). É importante deixar claro que o fator g, criado por Charles Spearman, é determinado pela comparação múltipla dos itens que constituem um teste ou pela comparação dos escores em diferentes testes; portanto, trata-se de uma grandeza definida relativamente a outros testes ou em relação aos itens que constituem um mesmo teste. Isso significa que, se um teste for comparado a determinado conjunto de outros testes, pode-se mostrar mais (ou menos) saturado em g do que se fosse comparado a um conjunto diferente de outros testes. Um exemplo: um teste como G36, que é um teste de matrizes, se comparado a testes como Raven, Cattell, G38 e similares, ficará mais saturado em g do que se for comparado a testes como WAIS, Binet, DAT, SAT, GRE, ACT, que incluem mais conteúdo verbal e aritmético. Com relação ao g interno do teste, um caso como o Raven Standard Progressive Matrices, em que os itens apresentam pouca variabilidade de conteúdo, tende a apresentar um fator g mais alto do que um teste como o WAIS-III, que é constituído por 14 subtestes com conteúdos bastante distintos. Portanto, o fator g não tem um sentido absoluto.

3.1. Método Psicométrico.
Além da análise genética, o método psicométrico e a correlação estatística utilizados inicialmente por Galton ocasionarão a consolidação de uma abordagem matemática da psicologia. Gustavo Gauer. Psicometria (do grego psyké, alma e metron, medida, medição) é uma área da Psicologia que faz a ponte entre as ciências exatas, principalmente a matemática aplicada - a Estatística e a Psicologia. Sua definição consite no conjunto de técnicas utilizadas para mensurar, de forma adequada e comprovada experimentalmente, um conjunto ou uma gama de comportamentos que se deseja conhecer melhor. O Psicólogo psicometrista possui, em seu espectro atuacional, características para levar a cabo a definição desta área, bem como para manusear os testes psicológicos de acordo com alguns critérios básicos. Estes são: Validade, Fidedignidade e Padronização. Qualquer teste que se preste à validação e, posteriormente ao uso, deve ser fruto de pesquisas nessa área.
3.1.1 - Método Psicométrico. TEORIAS E PRÁTICAS DE AVALIAÇÃO:
ENTRE O PASSADO E O PRESENTE, QUE PERSPECTIVAS PARA O FUTURO
3.1.1 - 1. Quadros teóricos de referência.
A avaliação que nós hoje conhecemos é uma "invenção" dos sistemas educativos modernos, isto é, implementados na maior parte dos casos durante este século, tendo como base e motivo uma escolaridade obrigatória para todos os cidadãos. Ao longo do tempo, tal como em outros domínios, as concepções de avaliação foram mudando e por vezes também as suas práticas. Todavia, cada nova concepção não substituía a anterior, coexistia com a anterior, assim como as mudanças nas práticas ocorriam mais numa perspectiva de maior humanização da avaliação e das suas condições de realização, do que numa ruptura com práticas anteriores. A ausência de uma formação nesta área aliada às duas razões anteriormente avançadas contribuiu para a instalação da ideia de que "as coisas são como são, porque não podem ser de outra maneira ". Uma análise reflectida das práticas pode ajudar a encontrar novas soluções para este velho problema. Tal é objectivo teste pequeno texto.
3.1.1 - 1.1- A avaliação apenas como uma nota
No início do funcionamento dos sistemas educativos "modernos", a avaliação não se distinguia da própria nota. Esta concepção confundia todas as funções da avaliação, tais como: como seleccionar os melhores alunos, orientar as aprendizagens, certificar as aquisições, cursos ou ciclos de estudos. Esta mistura de finalidades, muitas vezes contraditórias entre si, tinha (e tem sempre), como resultado, retirar todo o valor métrico a escala de notas, já que elas só tinham sentido quando referenciadas a uma classe específica.
3.1.1 - 1.2 -A avaliação como uma medida psicométrica
Piérron propõe, então, a utilização do método psicométrico para melhorar a fidelidade do processo de atribuição de notas. Este facto conduziu a uma identificação dos métodos de avaliação com os de selecção, originando assim uma contradição entre a avaliação e os seus métodos e as finalidades educativas da escola. A ênfase é assim posta na medida e nos processos que a produzem, tais como os exames, testes, etc. (…)
3.1.1 - 1.3. A avaliação como uma medida de congruência
No decorrer dos anos 50, os psicólogos e outros investigadores e professores americanos propõem uma nova concepção de avaliação assente na comparação dos desempenhos (observáveis) com os desempenhos esperados e já não sobre a simples classificação dos alunos. Esta concepção, que podemos qualificar de sistémica, centrava a avaliação numa finalidade clara: atingir os objectivos educativos fixados previamente. A observação do comportamento dos alunos permitia assim introduzir procedimentos correctivos. Todavia a construção e adequação destes procedimentos exigia a existência de uma teoria psicológica válida sobre a aprendizagem humana, de modo a permitir interpretar os resultados e guiar a acção pedagógica, exigências estas a que o "behaviorismo" não conseguiu responder. Deste modo, a falta de uma teoria com estas potencialidades, levou a uma natureza fluida e a pouca consistência destes processos de remediação.
3.1.1 - 1.4. A avaliação como reveladora das dificuldades
No decorrer dos anos 60 e 70, graças aos trabalhos de Piaget, a abordagem cognitivista vem a revelar-se com maiores potencialidades em relação à abordagem anterior (Behaviorista) para descrever e permitir perceber as etapas sucessivas de aquisição dos conhecimentos. É o conflito de representações contraditórias (conflito cognitivo) que motiva, naquele que aprende, a procura de sínteses mais globalizantes. Uma consequência desta concepção de aprendizagem consiste em evidenciar o papel do aluno na construção das suas aprendizagens e que estas nunca partem do vazio, mas antes de concepções já existentes (e a transformar) ainda que incorrectas ou imperfeitas. Assim, a tarefa do professor consiste sobretudo em criar situações que permitam ao aluno confrontar e/ou pôr em causa as suas concepções iniciais, habitualmente pouco diferenciadas. A avaliação cognitivista deve, portanto, fazer emergir as representações dos alunos, de modo a que elas sejam contrariadas. Esta visão vem permitir entender pedagogicamente o erro de um outro modo: não como algo de incoerente e a erradicar, revelador de que não se sabe, mas como algo inerente ao processo de aprendizagem, coerente com uma representação e, deste modo, revelador do tipo de dificuldade do aluno.
3.1.1 - 1.5. A avaliação como uma interacção social complexa
No início dos anos 80, Anne Nelly Perret-Clermont, põe em evidência que as interacções no interior dos grupos são um meio privilegiado para estudar as concepções dos alunos. Ela apercebe-se igualmente que as discussões em grupo são um contexto de aprendizagem muito eficaz (conflito Sócio-Cognitivo), a tal ponto que a avaliação e a formação se confundem. O aluno não constitui uma entidade estática. O modo como é interrogado permite variações significativas das suas respostas. As questões que se lhe colocam conduzem-no por vezes a reflectir e a evoluir durante a própria avaliação. Num teste escrito, a formulação da questão pode igualmente induzir interpretações diversas muito diferentes do problema, levando, segundo os casos, ao sucesso ou insucesso.
Assim não podemos dizer em rigor que um aluno sabe ou não responder, que ele se situa em tal ou tal nível de aquisição: o seu desempenho pode ser devido tanto às características da situação e instrumento de avaliação como ao próprio aluno.
De resto, já Piéron 40 anos antes tinha chegado a uma conclusão semelhante, ainda que invocando outras razões. Ao fazer corrigir uma mesma prova por diversos avaliadores, ou pelo mesmo em momentos diferentes, obtinha várias notas, o que evidenciava o pouco rigor dos processos de avaliação e consequentemente a pouca fiabilidade das notações como medida ou indicador do saber.
3.1.1 - 1.6. A avaliação como um processo comunicativo.
Este tipo de constatações científicas põe em causa as bases dos processos de avaliação tradicionais quer sejam ou não de tipo psicométrico. Para uma avaliação formativa, pelo contrário, a evidência do efeito formador do contexto relacional é uma descoberta particularmente encorajadora da psicologia social da educação, uma vez que abre as portas a outras perspectivas e procedimentos centrados num diálogo entre professor e alunos ou entre alunos em redor da identificação das dificuldades, análise dos erros e nas pistas para os superar. Deste modo, pode conceber-se a avaliação formativa como um meio de comunicação e, através desta, como um instrumento de formação essencial à aprendizagem dos alunos. Esta concepção permite tomar a avaliação, não como algo para medir uma aprendizagem já realizada, como se acreditava, mas como um instrumento orientador e guia da progressão para os objectivos, que o aluno não podia perceber à partida de uma forma clara.
Um campo científico novo, a psicologia social cognitiva, parece assim fundamentar novas práticas de avaliação que constituem um quarto modelo e que poderíamos qualificar de comunicativo de modo a distingui-lo do modelo cognitivista precedente.
3.1.1 - 2. Perspectivas de Aplicação
Todos os esforços realizados até aqui para racionalizar a avaliação escolar parecem esbarrar num muro de inércia. Os testes de conhecimentos propostos por Piéron afastam-se bastante das práticas escolares. A pedagogia de mestria, da qual Bloom foi o apóstolo, exigia um grande trabalho de preparação e elaboração de provas. As representações cognitivas, bem analisadas por Piaget, ao nível dos grupos revelaram-se inacessíveis já que isso exigia estudar cada aluno individualmente. Qualquer destes três modelos, que poderiam ser tomados como suporte e orientadores de práticas, afiguram-se como materialmente impossíveis de utilização de modo a permitir seguir dia a dia a aprendizagem de cada aluno. O quarto modelo (a avaliação como um processo de comunicação) parece ser aquele que oferece bastantes possibilidades de vir a ser implementado, sem exigir ao professor um excessivo trabalho suplementar. É certo que implica algumas transformações, mas estas centram-se sobretudo no papel do professor e numa outra gestão do tempo, quer de um ponto de vista qualitativo, quer quantitativo. Para utilizar esta abordagem formativa o professor não deve ser aquele que "debita" matéria e controla as suas aprendizagens através de uma forma clássica, mas que faz desta tarefa um diálogo permanente com os alunos transformando assim os momentos de avaliação em momentos de aprendizagem. Este diálogo deve ocorrer antes e após a realização das tarefas de avaliação. Deve ocorrer, antes, de modo a assegurar-se a explicitação dos objetivos e compreensão dos mesmos e após, na análise da correção das tarefas (sobre os pontos fortes e fracos) quer de uma forma colectiva quer individual. Na medida em que os alunos compreendem "o que têm que fazer" e “o que têm que saber para fazer" tomam-se mais autónomos nesta tarefa de aprender. Assim, o professor não necessita nem de intervir passo a passo nem constantemente, ficando com mais tempo para (inter) agir sobre os problemas revelados e/ou trabalhar com os alunos com mais dificuldades.
Se este método de intervenção se revelar eficaz, sem pesar mais na tarefa do professor (uma vez que está centrado naquilo que determina verdadeiramente o domínio dos objectivos visados, a saber, a compreensão dos critérios para a realização correcta dos objectivos), podemos estar à beira de encontrar novos caminhos e novas práticas em avaliação. Podemos dizer que o que esta metodologia permite é tornar em regra a excepção, uma vez que todos os professores de uma forma mais ou menos excepcional têm este tipo de procedimentos com alguns alunos.
3.1.1 - 3. Serão mesmo necessárias as notas? Algumas questões para reflexão.
Utilizando e desenvolvendo esta perspectiva de avaliação podemos colocar a questão, do porquê e para que atribuir notas? De facto, embora possam parecer descabidas estas preocupações, uma vez que a legislação as impõem, podemos sublinhar que de um ponto de vista pedagógico elas têm pouco interesse. Podemos mesmo constatar que a imposição de atribuição de notas tem contribuído para ocultar todo um conjunto de informações pertinentes acerca dos alunos, já que estas têm que ser resumidas numa nota. Para além disso, o que fazer e para que serve esta informação quantitativa, se em rigor não as podemos comparar entre si e se a nota pouco diz acerca do que o aluno é ou não capaz?
Pode argumentar-se em defesa das "notas" que elas cumprem um papel social, uma vez que através delas se legitimam, reconhecem e certificam estudos. Todavia, podemos apontar para estas finalidades, metodologias porventura mais proveitosas e úteis a um conhecimento mais detalhado e profundo não só sobre se o aluno adquiriu um determinado saber ou competência, mas também como aprendeu e do que é capaz. A recolha de uma colecção das produções mais representativas da trajectória de aprendizagem do aluno (Portefólio) disponibiliza uma informação muito mais interessante e rica que uma nota. Um perfil terminal de competências é, igualmente, mais revelador das potencialidades do aluno do que a atribuição de uma nota. Assim, podemos concluir que a necessidade das notas se deve hoje mais a práticas sociais instituídas do que a razões de natureza pedagógica.
Numa óptica pedagógica o que é importante é possuir informações pertinentes acerca do aluno e a nota é em si uma informação pobre mas com um elevado valor social.
3.1.1 - 4. Uma perspectiva realista
Assumindo uma visão porventura mais realista acerca da obrigatoriedade das notas e da sua utilização pode-se, apesar de tudo, perspectivar uma prática que minimize os efeitos de um sistema baseado nas notas e que caminhe no desenvolvimento de uma atitude formativa face à avaliação. Para tal será necessária a transformação de situações de avaliação que apenas se reportam a um quadro de análise em termos de sucesso / insucesso.
Não é legítimo que todo o trabalho de um aluno ao longo de um ano fique comprometido a uma situação, ainda por cima de fidelidade aleatória, assim como, também não será legítimo a construção da nota final a partir das notas de provas anteriores. Se o aluno, no final do ano, evidencia que sabe aquilo que não soube, por exemplo, no primeiro período, porque penalizá-lo por isso?
Assim, é necessário poder dispor de informações sobre os saberes dos jovens (e dos adultos), das suas dificuldades ou pontos fortes, mesmo que eles não tenham porventura atingido os objectivos pretendidos. Teremos que concordar que ter tal ou tal nota não nos diz grande coisa acerca dos pontos fortes e fracos dos alunos. É apenas revelador de que o aluno "sabia o que devia saber" num dado momento, o que em termos de informação é escasso.
A construção de processos de ensino eficazes, em termos de orientação no trabalho escolar, apoios as dificuldades e/ou encaminhamentos dependem fortemente da qualidade da informação disponível acerca dos alunos.
3.1.1 - 5. A construção de processos dialogantes de avaliação.
Mesmo utilizando os instrumentos clássicos de avaliação, é possível, útil e necessário, dialogar antes e após a realização das tarefas de avaliação. Antes é importante dialogar a propósito dos objectivos das tarefas a realizar de modo a que os alunos as percebam e possam, de uma forma mais explícita, identificar as competências necessárias para a sua execução. Após a realização das tarefas é também possível e desejável o envolvimento dos alunos em tarefas de auto e co-avaliação, facilitando assim a identificação de uma forma clara dos seus erros ou incorrecções, bem como, a indicação de pistas para a solução das dificuldades. Mais do que comentários “mais ou menos moralistas" acerca das produções, são precisos comentários que orientem os alunos a superar os seus pontos fracos. Como diz a sabedoria popular é através do diálogo que as pessoas se entendem. Este diálogo é pois uma chave importante para o sucesso.
3.1.1 - 5.1. Conceber a avaliação como um momento importante da aprendizagem por parte do aluno e por parte do professor.
Como já foi evidenciado anteriormente, a avaliação é um momento revelador do estado do aluno. Todavia, este estado não deve ser visto como algo de absoluto (bom/mau) mas como algo integrado num processo de formação. Quanto mais o aluno perceber (de uma forma interiorizada) o seu estado, mais fácil será envolver-se na sua superação. Mas por outro lado, quanto mais o professor perceber os seus alunos e perceber-se no seu funcionamento pedagógico melhor conseguirá construir situações pedagógicas adequadas aos seus alunos. A regulação pedagógica só é efectiva, se o contexto pedagógico for entendido como uma verdadeira relação. Nesta perspectiva, é cada vez mais decisivo passar de uma avaliação na 3ª pessoa (ele tem 10, ele é bom) para uma avaliação na 1ª e 2ª pessoa (eu fiz…, tu foste capaz de…, a prova foi…, tu tiveste dificuldades em…) mesmo que os instrumentos se mantenham os tradicionais.
3.2. Método Psicométrico: A Clínica Psicopedagógica.
3.2. . 1.   Introdução.
A compreensão da teoria piagetiana exige a realização paralela de exames de sujeitos; Reflexão sobre as respostas dadas pelos sujeitos; O método clínico piagetiano constitui uma técnica complexa que repousa sobre uma base teórica bem estabelecida; Há uma certa incredulidade quanto às respostas dadas pelos sujeitos avaliados por Piaget; Falta de entendimento do método; Ausência de consideração cuidadosa das respostas transcritas.
3.2..2. Contraste entre o método psicométrico e o método clínico-piagetiano no estudo da inteligência. Existem diferenças nos pressupostos usados: a- controle: NO MÉTODO PSICOMÉTRICO - condições de avaliação padronizadas rigidamente a fim de evitar a influência diferencial das variáveis(variáveis ambientais, rapport com o examinador, forma da pergunta utilizada, etc.); o controle feito reside mais na forma das instruções do que da compreensão do sujeito; controle pela padronização de situações externas. NO MÉTODO CLÍNICO-PIAGETIANO: controle do entendimento das perguntas e instruções; tal controle é muito mais complexo; podem ocorrer falhas, porém menos graves; busca as respostas mais características do pensamento do sujeito; respostas com maior convicção e não maior rapidez; voltada para a situação psicológica do sujeito(condições internas). b- objetivos do exame: NO MÉTODO PSICOMÉTRICO: o objeto de interesse são as respostas do sujeito; certas ou erradas; condições particulares podem influenciar a performance do sujeito(experiência anterior); ênfase no produto; NO MÉTODO CLÍNICO-PIAGETIANO: ênfase no processo que leva o sujeito a dar esta ou aquela resposta; ênfase no processo; c-    os pressupostos do exame: NO MÉTODO PSICOMÉTRICO; todos os indivíduos são dotados com diferentes formas ou quantidades de habilidades e são tais diferenças que se quer pôr em relevo; o interesse pelas diferenças individuais; concepção de habilidades mentais como “dons” que variam de pessoa para pessoa; elaboração de vários testes para medir as diversas habilidades; discriminação dos examinandos; avaliação quantitativa das habilidades, em busca de um escore final; NO MÉTODO CLÍNICO-PIAGETIANO: ênfase nas estruturas da inteligência, que são comuns a todos os indivíduo; estudo dos aspectos universais e não características individuais; todas as respostas, certas ou erradas, são interpretadas; entendimento do processo que as gerou; diferenças no resultados são interpretadas como características de estágios diferentes do desenvolvimento; processos mais sofisticados podem originar erros; a soma de acertos nada esclarece sobre o raciocínio do sujeito; reconhecimento das diferenças individuais; surgem como conseqüência da adaptação ao meio.

3.2. .  3- Direções para o uso do método clínico no estudo da inteligência - sugestões sobre o uso do método clínico-piagetiano: A-   Preparação para o exame: O exame não é feito de modo totalmente livre; Deve ser orientado pelo conhecimento da solução do problema e dos estágios no desenvolvimento da inteligência; Escolha prévia das situações-problema; As situações-problema incluem dois tipos de questão: Verificação da compreensão do sujeito quanto a sua tarefa: Questões críticas na determinação do estágio de desenvolvimento: Um roteiro não deve ser visto como regras a serem seguidas cegamente; Utilizar linguagem mais próxima da compreensão do sujeito; Considerar formas alternativas de apresentação do problema.  B-   Metodologia - Utilização de técnicas de natureza verbal(entrevistas) ou de problemas concretos; O examinador deve acompanhar o raciocínio do sujeito, sem corrigir automaticamente ou completar o que ele diz; O interesse principal é no processo pelo qual o sujeito chega à sua resposta; É importante obter justificativas para as respostas dadas; Verificar a certeza com que o sujeito responde; É importante não deixar ambiguidades permanecerem como tal; Eliminar hipóteses alternativas quanto ao nível em que o sujeito examinado se encontra. C-  Avaliação das respostas: Não se faz por uma contagem de acertos e erros; “para que este sujeito respondesse desta forma, ele só poderia pensar assim”; partir da questão da existência de coerência entre as respostas; considerar a reação do sujeito diante de contradições: percebe e procura eliminá-la; não percebe a contradição; buscar a relação entre os elementos cruciais na resolução do problema e o raciocínio do sujeito; finalmente, o sujeito pode não ter consciência de seu raciocínio.


4 - Inteligência, QI e g.
Inteligência, QI e g são conceitos distintos. A inteligência é o termo usado no discurso comum para se referir à habilidade cognitiva. Porém, é uma definição geralmente vista como muito imprecisa para ser útil em um tratamento científico do assunto.
O quociente de inteligência QI é um índice calculado a partir da pontuação obtida em testes nos quais especialistas incluem as habilidades que julgam compreender as habilidades conhecidas pelo termo inteligência. É uma quantidade multidimensional - um amálgama de diferentes tipos de habilidades, sendo que a proporção de cada uma delas muda de acordo com o teste aplicado. A dimensionalidade dos escores de QI pode ser estudada pela análise fatorial, que revela um fator dominante único no qual se baseia os escores em todos os possíveis testes de QI. Este fator, que é uma construção hipotética, é chamado g ou, algumas vezes, chamado de habilidade cognitiva geral ou inteligência geral. Existem algumas teorias sobre a origem da inteligência citadas num estudo recente do pesquisador Alirio Freire, que foi um pouco além das teorias convencionais, propondo que a origem da inteligência estaria vinculada ao início do bipedalismo. ´Dados parciais de seu trabalho encontram-se disponíveis para consulta on-line sobre Alirio Freire ou Origem da inteligência. 
5 - Teoria das múltiplas inteligências.
Nas propostas de alguns investigadores, a inteligência não é uma, mas consiste num conjunto de capacidades relativamente independentes. O psicólogo Howard Gardner desenvolveu a Teoria das múltiplas inteligências dividindo a inteligência em sete componentes diferentes: lógico-matemática, linguística, espacial, musical, cinemática, intra-pessoal e inter-pessoal. Mais recentemente Gardner expandiu seu conceito acrescentando à lista a inteligência naturalista e a inteligência existencial.Daniel Goleman e outros investigadores desenvolveram o conceito de Inteligência emocional e afirmam que esta inteligência é pelo menos tão importante como a perspectiva mais tradicional de inteligência. A inteligência emocional proposta por Goleman pode ser vizualizada nas inteligências intra-pessoal e inter-pessoal, propostas por Gardner.
Os proponentes das teorias de múltiplas inteligências afirmam que a Teoria g é no máximo uma medida de capacidades académicas. Os outros tipos de inteligência podem ser tão importantes como a g fora do ambiente de escola. Conforme foi dito acima, qualquer que seja o nível de abrangência de um teste ou de vários testes, haverá um fator principal g que explica grande parte da variância total observada na totalidade de itens ou na totalidade de testes.
Se forem elaborados 7 a 9 testes para aferir as 7 a 9 inteligências, ficará patente que desse conjunto também emerge um fator geral que representa, talvez, mais de 50% da variância total. Se fossem considerados os 120 tipos de inteligência propostos por Guilford, também haveria um fator comum g que poderia explicar grande parte (talvez 50% ou mais) da variância total de todas estas habilidades (ou inteligências). Outro detalhe a ser considerado é que se g é o fator principal, por definição significa que é neste fator que mais estão saturados os itens ou os testes considerados, logo os demais fatores h, i, j ... respondem por uma quantidade menor da variância total, ou seja, os demais fatores não podem ser, individualmente, tão importantes quanto g, mas podem, em conjunto, ser mais importantes (explicar maior parte da variância total) do que g.
Também é importante destacar que isso tudo é quantificável mediante o uso de um método estatístico multivariado chamado "Análise Fatorial".
5 – 1 - A Teoria das Inteligências Múltiplas e suas implicações para Educação
No início do século XX, as autoridades francesas solicitaram a Alfredo Binet que criasse um instrumento pelo qual se pudesse prever quais as crianças que teriam sucesso nos liceus parisenses. O instrumento criado por Binet testava a habilidade das crianças nas áreas verbal e lógica, já que os currículos acadêmicos dos liceus enfatizavam, sobretudo o desenvolvimento da linguagem e da matemática. Este instrumento deu origem ao primeiro teste de inteligência, desenvolvido por Terman, na Universidade de Standford, na Califórnia: o Standford-Binet Intelligence Scale.
Subseqüentes testes de inteligência e a comunidade de psicometria tiveram enorme influência, durante este século, sobre a idéia que se tem de inteligência, embora o próprio Binet (Binet & Simon, 1905 Apud Kornhaber & Gardner, 1989) tenha declarado que um único número, derivado da performance de uma criança em um teste, não poderia retratar uma questão tão complexa quanto a inteligência humana. Neste artigo, pretendo apresentar uma visão de inteligência que aprecia os processos mentais e o potencial humano a partir do desempenho das pessoas em diferentes campos do saber.
As pesquisas mais recentes em desenvolvimento cognitivo e neuropsicologia sugerem que as habilidades cognitivas são bem mais diferenciadas e mais espcíficas do que se acreditava (Gardner, I985). Neurologistas têm documentado que o sistema nervoso humano não é um órgão com propósito único nem tão pouco é infinitamente plástico. Acredita-se, hoje, que o sistema nervoso seja altamente diferenciado e que diferentes centros neurais processem diferentes tipos de informação ( Gardner, 1987).
Howard Gardner, psicólogo da Universidade de Hervard, baseou-se nestas pesquisas para questionar a tradicional visão da inteligência, uma visão que enfatiza as habilidades lingüística e lógico-matemética. Segundo Gardner, todos os indivíduos normais são capazes de uma atuação em pelo menos sete diferentes e, até certo ponto, independentes áreas intelectuais. Ele sugere que não existem habilidades gerais, duvida da possibilidade de se medir a inteligência através de testes de papel e lápis e dá grande importância a diferentes atuações valorizadas em culturas diversas. Finalmente, ele define inteligência como a habilidade para resolver problemas ou criar produtos que sejam significativos em um ou mais ambientes culturais.
5 – 1 - 1 - A teoria.
A Teoria das Inteligências Múltiplas, de Howard Gardner (1985) é uma alternativa para o conceito de inteligência como uma capacidade inata, geral e única, que permite aos indivíduos uma performance, maior ou menor, em qualquer área de atuação. Sua insatisfação com a idéia de QI e com visões unitárias de inteligência, que focalizam sobretudo as habilidades importantes para o sucesso escolar, levou Gardner a redefinir inteligência à luz das origens biológicas da habilidade para resolver problemas. Através da avaliação das atuações de diferentes profissionais em diversas culturas, e do repertório de habilidades dos seres humanos na busca de soluções, culturalmente apropriadas, para os seus problemas, Gardner trabalhou no sentido inverso ao desenvolvimento, retroagindo para eventualmente chegar às inteligências que deram origem a tais realizações. Na sua pesquisa, Gardner estudou também:
( a) o desenvolvimento de diferentes habilidades em crianças normais e crianças superdotadas; (b) adultos com lesões cerebrais e como estes não perdem a intensidade de sua produção intelectual, mas sim uma ou algumas habilidades, sem que outras habilidades sejam sequer atingidas; (c ) populações ditas excepcionais, tais como idiot-savants e autistas, e como os primeiros podem dispor de apenas uma competência, sendo bastante incapazes nas demais funções cerebrais, enquanto as crianças autistas apresentam ausências nas suas habilidades intelectuais; (d) como se deu o desenvolvimento cognitivo através dos milênios.
Psicólogo construtivista muito influenciado por Piaget, Gardner distingue-se de seu colega de Genebra na medida em que Piaget acreditava que todos os aspectos da simbolização partem de uma mesma função semiótica, enquanto que ele acredita que processos psicológicos independentes são empregados quando o indivíduo lida com símbolos lingüisticos, numéricos gestuais ou outros. Segundo Gardner uma criança pode ter um desempenho precoce em uma área (o que Piaget chamaria de pensamento formal) e estar na média ou mesmo abaixo da média em outra (o equivalente, por exemplo, ao estágio sensório-motor). Gardner descreve o desenvolvimento cognitivo como uma capacidade cada vez maior de entender e expressar significado em vários sistemas simbólicos utilizados num contexto cultural, e sugere que não há uma ligação necessária entre a capacidade ou estágio de desenvolvimento em uma área de desempenho e capacidades ou estágios em outras áreas ou domínios (Malkus e col., 1988). Num plano de análise psicológico, afirma Gardner (1982), cada área ou domínio tem seu sistema simbólico próprio; num plano sociológico de estudo, cada domínio se caracteriza pelo desenvolvimento de competências valorizadas em culturas específicas.
Gardner sugere, ainda, que as habilidades humanas não são organizadas de forma horizontal; ele propõe que se pense nessas habilidades como organizadas verticalmente, e que, ao invés de haver uma faculdade mental geral, como a memória, talvez existam formas independentes de percepção, memória e aprendizado, em cada área ou domínio, com possíveis semelhanças entre as áreas, mas não necessariamente uma relação direta.
5 – 1 - 2 - As inteligências múltiplas.
Gardner identificou as inteligências lingúística, lógico-matemática, espacial, musical, cinestésica, interpessoal e intrapessoal. Postula que essas competências intelectuais são relativamente independentes, têm sua origem e limites genéticos próprios e substratos neuroanatômicos específicos e dispõem de processos cognitivos próprios. Segundo ele, os seres humanos dispõem de graus variados de cada uma das inteligências e maneiras diferentes com que elas se combinam e organizam e se utilizam dessas capacidades intelectuais para resolver problemas e criar produtos. Gardner ressalta que, embora estas inteligências sejam, até certo ponto, independentes uma das outras, elas raramente funcionam isoladamente. Embora algumas ocupações exemplifiquem uma inteligência, na maioria dos casos as ocupações ilustram bem a necessidade de uma combinação de inteligências. Por exemplo, um cirurgião necessita da acuidade da inteligência espacial combinada com a destreza da cinestésica.
Inteligência lingüística - Os componentes centrais da inteligência lingüistica são uma sensibilidade para os sons, ritmos e significados das palavras, além de uma especial percepção das diferentes funções da linguagem. É a habilidade para usar a linguagem para convencer, agradar, estimular ou transmitir idéias. Gardner indica que é a habilidade exibida na sua maior intensidade pelos poetas. Em crianças, esta habilidade se manifesta através da capacidade para contar histórias originais ou para relatar, com precisão, experiências vividas.
Inteligência musical - Esta inteligência se manifesta através de uma habilidade para apreciar, compor ou reproduzir uma peça musical. Inclui discriminação de sons, habilidade para perceber temas musicais, sensibilidade para ritmos, texturas e timbre, e habilidade para produzir e/ou reproduzir música. A criança pequena com habilidade musical especial percebe desde cedo diferentes sons no seu ambiente e, freqüentemente, canta para si mesma.
Inteligência lógico-matemática - Os componentes centrais desta inteligência são descritos por Gardner como uma sensibilidade para padrões, ordem e sistematização. É a habilidade para explorar relações, categorias e padrões, através da manipulação de objetos ou símbolos, e para experimentar de forma controlada; é a habilidade para lidar com séries de raciocínios, para reconhecer problemas e resolvê-los. É a inteligência característica de matemáticos e cientistas Gardner, porém, explica que, embora o talento cientifico e o talento matemático possam estar presentes num mesmo indivíduo, os motivos que movem as ações dos cientistas e dos matemáticos não são os mesmos. Enquanto os matemáticos desejam criar um mundo abstrato consistente, os cientistas pretendem explicar a natureza. A criança com especial aptidão nesta inteligência demonstra facilidade para contar e fazer cálculos matemáticos e para criar notações práticas de seu raciocínio.
Inteligência espacial - Gardner descreve a inteligência espacial como a capacidade para perceber o mundo visual e espacial de forma precisa. É a habilidade para manipular formas ou objetos mentalmente e, a partir das percepções iniciais, criar tensão, equilíbrio e composição, numa representação visual ou espacial. É a inteligência dos artistas plásticos, dos engenheiros e dos arquitetos. Em crianças pequenas, o potencial especial nessa inteligência é percebido através da habilidade para quebra-cabeças e outros jogos espaciais e a atenção a detalhes visuais.
Inteligência cinestésica - Esta inteligência se refere à habilidade para resolver problemas ou criar produtos através do uso de parte ou de todo o corpo. É a habilidade para usar a coordenação grossa ou fina em esportes, artes cênicas ou plásticas no controle dos movimentos do corpo e na manipulação de objetos com destreza. A criança especialmente dotada na inteligência cinestésica se move com graça e expressão a partir de estímulos musicais ou verbais demonstra uma grande habilidade atlética ou uma coordenação fina apurada.

Inteligência interpessoal - Esta inteligência pode ser descrita como uma habilidade pare entender e responder adequadamente a humores, temperamentos motivações e desejos de outras pessoas. Ela é melhor apreciada na observação de psicoterapeutas, professores, políticos e vendedores bem sucedidos. Na sua forma mais primitiva, a inteligência interpessoal se manifesta em crianças pequenas como a habilidade para distinguir pessoas, e na sua forma mais avançada, como a habilidade para perceber intenções e desejos de outras pessoas e para reagir apropriadamente a partir dessa percepção. Crianças especialmente dotadas demonstram muito cedo uma habilidade para liderar outras crianças, uma vez que são extremamente sensíveis às necessidades e sentimentos de outros.
Inteligência intrapessoal - Esta inteligência é o correlativo interno da inteligência interpessoal, isto é, a habilidade para ter acesso aos próprios sentimentos, sonhos e idéias, para discriminá-los e lançar mão deles na solução de problemas pessoais. É o reconhecimento de habilidades, necessidades, desejos e inteligências próprios, a capacidade para formular uma imagem precisa de si próprio e a habilidade para usar essa imagem para funcionar de forma efetiva. Como esta inteligência é a mais pessoal de todas, ela só é observável através dos sistemas simbólicos das outras inteligências, ou seja, através de manifestações lingüisticas, musicais ou cinestésicas.
5 – 1 - 3 - O desenvolvimento das inteligências
Na sua teoria, Gardner propõe que todos os indivíduos, em princípio, têm a habilidade de questionar e procurar respostas usando todas as inteligências. Todos os indivíduos possuem, como parte de sua bagagem genética, certas habilidades básicas em todas as inteligências. A linha de desenvolvimento de cada inteligência, no entanto, será determinada tanto por fatores genéticos e neurobiológicos quanto por condições ambientais. Ele propõe, ainda, que cada uma destas inteligências tem sua forma própria de pensamento, ou de processamento de informações, além de seu sitema simbólico. Estes sistemas simbólicos estabelecem o contato entre os aspectos básicos da cognição e a variedade de papéis e funções culturais.
A noção de cultura é básica para a Teoria das Inteligências Múltiplas. Com a sua definição de inteligência como a habilidade para resolver problemas ou criar produtos que são significativos em um ou mais ambientes culturais, Gardner sugere que alguns talentos só se desenvolvem porque são valorizados pelo ambiente. Ele afirma que cada cultura valoriza certos talentos, que devem ser dominados por uma quantidade de indivíduos e, depois, passados para a geração seguinte.
Segundo Gardner, cada domínio, ou inteligência, pode ser visto em termos de uma seqüência de estágios: enquanto todos os indivíduos normais possuem os estágios mais básicos em todas as inteligências, os estágios mais sofisticados dependem de maior trabalho ou aprendizado.
A seqüência de estágios se inicia com o que Gardner chama de habilidade de padrão cru. O aparecimento da competência simbólica é visto em bebês quando eles começam a perceber o mundo ao seu redor. Nesta fase, os bebês apresentam capacidade de processar diferentes informações. Eles já possuem, no entanto, o potencial para desenvolver sistemas de símbolos, ou simbólicos.
O segundo estágio, de simbolizações básicas, ocorre aproximadamente dos dois aos cinco anos de idade. Neste estágio as inteligências se revelam através dos sistemas simbólicos. Aqui, a criança demonstra sua habilidade em cada inteligência através da compreensão e uso de símbolos: a música através de sons, a linguagem através de conversas ou histórias, a inteligência espacial através de desenhos etc.
No estágio seguinte, a criança, depois de ter adquirido alguma competência no uso das simbolizacões básicas, prossegue para adquirir níveis mais altos de destreza em domínios valorizados em sua cultura. À medida que as crianças progridem na sua compreensão dos sistemas simbólicos, elas aprendem os sistemas que Gardner chama de sistemas de segunda ordem, ou seja, a grafia dos sistemas (a escrita, os símbolos matemáticos, a música escrita etc.). Nesta fase, os vários aspectos da cultura têm impacto considerável sobre o desenvolvimento da criança, uma vez que ela aprimorará os sistemas simbólicos que demonstrem ter maior eficácia no desempenho de atividades valorizadas pelo grupo cultural. Assim, uma cultura que valoriza a música terá um maior número de pessoas que atingirão uma produção musical de alto nível.
Finalmente, durante a adolescência e a idade adulta, as inteligências se revelam através de ocupações vocacionais ou não-vocacionais. Nesta fase, o indivíduo adota um campo específico e focalizado, e se realiza em papéis que são significativos em sua cultura.
5 – 1 - 4 - Teoria das inteligências múltiplas e a educação.
As implicações da teoria de Gardner para a educação são claras quando se analisa a importância dada às diversas formas de pensamento, aos estágios de desenvolvimento das várias inteligências e à relação existente entre estes estágios, a aquisição de conhecimento e a cultura.
A teoria de Gardner apresenta alternativas para algumas práticas educacionais atuais, oferecendo uma base para:
( a) o desenvolvimento de avaliações que sejam adequadas às diversas habilidades humanas (Gardner & Hatch, 1989; Blythe Gardner, 1 990) (b) uma educação centrada na criança c com currículos específicos para cada área do saber (Konhaber & Gardner, 1989); Blythe & Gardner, 1390) (c) um ambiente educacional mais amplo e variado, e que dependa menos do desenvolvimento exclusivo da linguagem e da lógica (Walters & Gardner, 1985; Blythe & Gardner, 1990)
Quanto à avaliação, Gardner faz uma distinção entre avaliação e testagem. A avaliação, segundo ele, favorece métodos de levantamento de informações durante atividades do dia-a-dia, enquanto que testagens geralmente acontecem fora do ambiente conhecido do indivíduo sendo testado. Segundo Gardner, é importante que se tire o maior proveito das habilidades individuais, auxiliando os estudantes a desenvolver suas capacidades intelectuais, e, para tanto, ao invés de usar a avaliação apenas como uma maneira de classificar, aprovar ou reprovar os alunos, esta deve ser usada para informar o aluno sobre a sua capacidade e informar o professor sobre o quanto está sendo aprendido.
Gardner sugere que a avaliação deve fazer jus à inteligência, isto é, deve dar crédito ao conteúdo da inteligência em teste. Se cada inteligência tem um certo número de processos específicos, esses processos têm que ser medidos com instrumento que permitam ver a inteligência em questão em funcionamento. Para Gardner, a avaliação deve ser ainda ecologicamente válida, isto é, ela deve ser feita em ambientes conhecidos e deve utilizar materiais conhecidos das crianças sendo avaliadas. Este autor também enfatiza a necessidade de avaliar as diferentes inteligências em termos de suas manifestações culturais e ocupações adultas específicas. Assim, a habilidade verbal, mesmo na pré-escola, ao invés de ser medida através de testes de vocabulário, definições ou semelhanças, deve ser avaliada em manifestações tais como a habilidade para contar histórias ou relatar acontecimentos. Ao invés de tentar avaliar a habilidade espacial isoladamente, deve-se observar as crianças durante uma atividade de desenho ou enquanto montam ou desmontam objetos. Finalmente, ele propõe a avaliação, ao invés de ser um produto do processo educativo, seja parte do processo educativo, e do currículo, informando a todo momento de que maneira o currículo deve se desenvolver.
No que se refere à educação centrada na criança, Gardner levanta dois pontos importantes que sugerem a necessidade da individualização. O primeiro diz respeito ao fato de que, se os indivíduos têm perfis cognitivos tão diferentes uns dos outros, as escolas deveriam, ao invés de oferecer uma educação padronizada, tentar garantir que cada um recebesse a educação que favorecesse o seu potencial individual. O segundo ponto levantado por Gardner é igualmente importante: enquanto na Idade Média um indivíduo podia pretender tomar posse de todo o saber universal, hoje em dia essa tarefa é totalmente impossível, sendo mesmo bastante difícil o domínio de um só campo do saber.
Assim, se há a necessidade de se limitar a ênfase e a variedade de conteúdos, que essa limitação seja da escolha de cada um, favorecendo o perfil intelectual individual.
Quanto ao ambiente educacional, Gardner chama a atenção pare o fato de que, embora as escolas declarem que preparam seus alunos pare a vida, a vida certamente não se limita apenas a raciocínios verbais e lógicos. Ele propõe que as escolas favoreçam o conhecimento de diversas disciplinas básicas; que encoragem seus alunos a utilizar esse conhecimento para resolver problemas e efetuar tarefas que estejam relacionadas com a vida na comunidade a que pertencem; e que favoreçam o desenvolvimento de combinações intelectuais individuais, a partir da avaliação regular do potencial de cada um.
6 - Teoria da IInteligência artificial.
A inteligência artificial (IA) é uma área de pesquisa da ciência da computação dedicada a buscar métodos ou dispositivos computacionais que possuam ou simulem a capacidade humana de resolver problemas, pensar ou, de forma ampla, ser inteligente.
O desenvolvimento da área começou logo após a Segunda Guerra Mundial, com o artigo "Computing Machinery and Intelligence" do matemático inglês Alan Turing, e o próprio nome foi cunhado em 1956.[2][3] Seus principais idealizadores foram os cientistas Herbert Simon, Allen Newell, John McCarthy, Warren MuCulloch, Walter Pitts e Marvin Minsky, entre outros.
A construção de máquinas inteligentes interessam a humanidade há muito tempo, havendo na história um registro significante de autômatos mecânicos (reais) e personagens míticos, como Frankenstein, que demonstram um sentimento ambíguo do homem, composto de fascínio e de medo, em relação à Inteligência Artificial.
Apenas recentemente, com o surgimento do computador moderno, é que a inteligência artificial ganhou meios e massa crítica para se estabelecer como ciência integral, com problemáticas e metodologias próprias. Desde então, seu desenvolvimento tem extrapolado os clássicos programas de xadrez ou de conversão e envolvido áreas como visão computacional, análise e síntese da voz, lógica difusa, redes neurais artificiais e muitas outras.
Inicialmente a IA visava reproduzir o pensamento humano. A Inteligência Artificial abraçou a idéia de reproduzir faculdades humanas como criatividade, auto-aperfeiçoamento e uso da linguagem. Porém, o conceito de inteligência artificial é bastante difícil de se definir. Por essa razão, Inteligência Artificial foi (e continua sendo) uma noção que dispõe de múltiplas interpretações, não raro conflitantes ou circulares.

6.2. No contexto geral
A questão sobre o que é "inteligência artificial", mesmo como definida anteriormente, pode ser separada em duas partes: "qual a natureza do artificial" e "o que é inteligência". A primeira questão é de resolução relativamente fácil, apontando no entanto para a questão de o que poderá o homem construir.
A segunda questão é consideravelmente mais difícil, levantando a questão da consciência, identidade e mente (incluindo a mente inconsciente) juntamente com a questão de que componentes estão envolvidos no único tipo de inteligência que universalmente se aceita como estando ao alcance do nosso estudo: a inteligência do ser humano. O estudo de animais e de sistemas artificiais que não são modelos triviais, começam a ser considerados como matéria de estudo na área da inteligência.
6.3 IA forte e IA fraca
Entre os teóricos que estudam o que é possível fazer com a IA existe uma discussão onde se consideram duas propostas básicas: uma conhecida como "forte" e outra conhecida como "fraca". Basicamente, a hipótese da IA forte considera ser possível criar uma máquina consciente.
Uma popular e inicial definição de inteligência artificial, introduzida por John McCarty na famosa conferência de Dartmouth em 1955 é "fazer a máquina comportar-se de tal forma que seja chamada inteligente caso fosse este o comportamento de um ser humano." No entanto, esta definição parece ignorar a possibilidade de existir a IA forte.
Outra definição de Inteligência Artificial é a inteligência que surge de um "dispositivo artificial". A maior parte das definições podem ser categorizadas em sistemas que: "pensam como um humano; agem como um humano; pensam racionalmente ou agem racionalmente".
6.3.1 - Inteligência artificial forte
A investigação em Inteligência Artificial Forte aborda a criação da forma de inteligência baseada em computador que consiga raciocinar e resolver problemas; uma forma de IA forte é classificada como auto-consciente.
A IA forte é tema bastante controverso, pois envolve temas como consciência e fortes problemas éticos ligados ao que fazer com uma entidade que seja cognitivamente indiferenciável de seres humanos.
A ficção científica tratou de muitos problemas desse tipo. Isaac Asimov, por exemplo, escreveu O Homem Bicentenário, onde um robô consciente e inteligente luta para possuir um status semelhante ao de um humano na sociedade. E Steven Spielberg escreveu A.I Inteligência Artificial onde um garoto-robô procura conquistar o amor de sua "mãe", procurando uma maneira de se tornar real. Por outro lado, o mesmo Asimov reduz os robôs a servos dos seres humanos ao propor as três leis da robótica.
6.3.2 - Inteligência artificial fraca
Trata-se da noção de como lidar com problemas não determinísticos.
Uma contribuição prática de Alan Turing foi o que se chamou depois de Teste de Turing (TT), de 1950: em lugar de responder à pergunta "podem-se ter computadores inteligentes?" ele formulou seu teste, que se tornou praticamente o ponto de partida da pesquisa em "Inteligência Artificial". [1]
O teste consiste em se fazer perguntas a uma pessoa e um computador escondidos. Um computador e seus programas passam no TT se, pelas respostas, for impossível a alguém distinguir qual interlocutor é a máquina e qual é a pessoa.
No seu artigo original ele fez a previsão de que até 2000 os computadores passariam seu teste. Pois bem, há um concurso anual de programas para o TT, e o resultado dos sistemas ganhadores é tão fraco (o último tem o nome "Ella") que com poucas perguntas logo percebe-se as limitações das respostas da máquina. É interessante notar que tanto a Máquina de Turing quanto o Teste de Turing talvez derivem da visão que Turing tinha de que o ser humano é uma máquina.
Há quem diga que essa visão está absolutamente errada, do ponto de vista lingüístico, já que associamos à "máquina" um artefato inventado e eventualmente construído. Dizem eles: "Nenhum ser humano foi inventado ou construído". Afirma-se ainda que a comparação, feita por Turing, entre o homem e a máquina é sinônimo de sua "ingenuidade social", pois as máquinas são infinitamente mais simples do que o homem, apesar de, paradoxalmente, se afirmar que a vida é complexa. No entanto, esta linha de raciocínio é questionável, afinal de contas, os computadores modernos podem ser considerados "complexos" quando comparados ao COLOSSUS (computador cujo o desenvolvimento foi liderado por Turing, em 1943), ou a qualquer máquina do início do século XX.
A inteligência artificial fraca centra a sua investigação na criação de inteligência artificial que não é capaz de verdadeiramente raciocinar e resolver problemas. Uma tal máquina com esta característica de inteligência agiria como se fosse inteligente, mas não tem autoconsciência ou noção de si. O teste clássico para aferição da inteligência em máquinas é o Teste de Turing.
Há diversos campos dentro da IA fraca, e um deles é o Processamento de linguagem natural, que trata de estudar e tentar reproduzir os processos de desenvolvimento que resultaram no funcionamento normal da língua. Muitos destes campos utilizam softwares específicos e linguagens de programação criadas para suas finalidades. Um exemplo bastante conhecido é o programa A.L.I.C.E. (Artificial Linguistic Internet Computer Entity, ou Entidade Computadorizada de Linguagem Artificial para Internet), um software que simula uma conversa humana. Programado em Java e desenvolvido com regras heurísticas para os caracteres de conversação, seu desenvolvimento resultou na AIML (Artificial Intelligence Markup Language), uma linguagem específica para tais programas e seus vários clones, chamados de Alicebots.
Muito do trabalho neste campo tem sido feito com simulações em computador de inteligência baseado num conjunto predefinido de regras. Poucos têm sido os progressos na IA forte. Mas dependendo da definição de IA utilizada, pode-se dizer que avanços consideráveis na IA fraca já foram alcançados.
6.3.3 - Críticas filosóficas e a argumentação de uma IA forte
Muitos filósofos, sobretudo John Searle e Hubert Dreyfus, inseriram no debate questões de ordem filosófica e epistemológica, questionando qualquer possibilidade efetiva da IA forte. Seriam falsos, assim, os próprios pressupostos da construção de uma inteligência ou consciência semelhante à humana em uma máquina.
Searle é bastante conhecido por seu contra-argumento sobre o Quarto Chinês (ou Sala Chinesa), que inverte a questão colocada por Minsky a respeito do Teste de Turing. Seu argumento diz que ainda que uma máquina possa parecer falar chinês por meio de recursos de exame comparativo com mostras e tabelas de referência, binárias, isso não implica que tal máquina fale e entenda efetivamente a língua. Ou seja, demonstrar que uma máquina possa passar no Teste de Turing não necessariamente implica em um ser consciente, tal como entendido em seu sentido humano. Dreyfus, em seu livro O que os computadores ainda não conseguem fazer: Uma crítica ao raciocínio artificial, argumenta que a consciência não pode ser adquirida por sistemas baseados em regras ou lógica; tampouco por sistemas que não façam parte de um corpo físico. No entanto, este último autor deixa aberta a possibilidade de um sistema robótico baseado em Redes Neuronais, ou em mecanismos semelhantes, alcançar a inteligência artificial.
Mas já não seria a referida IA forte, mas sim um correlato bem mais próximo do que se entende por IA fraca. Os revezes que a acepção primeira de Inteligência Artificial vem levando nos últimos tempos contribuíram para a imediata relativização de todo seu legado. O papel de Marvin Minsky, figura proeminente do MIT e autor de Sociedade da Mente, fora central para a acepção de uma IA linear que imitaria com perfeição a mente humana, mas seu principal feito foi construir o primeiro computador baseado em redes neurais, conhecido como Snark, tendo simplesmente fracassado pois nunca executou qualquer função interessante, apenas consumiu recursos de outras pesquisas mais promissoras. O primeiro neuro computador a obter sucesso (Mark I Perceptron) surgiu em 1957 e 1958, criado por Frank Rosenblatt, Charles Wightman e outros.Atualmente, no entanto, as vertentes que trabalham com os pressupostos da emergência e com elementos da IA fraca parecem ter ganhado proeminência do campo.
As críticas sobre a impossibilidade de criar uma inteligência em um composto artificial podem ser encontradas em Jean-François Lyotard (O Pós-humano) e Lucien Sfez (Crítica da Comunicação); uma contextualização didática do debate encontra-se em Sherry Turkle (O segundo Eu: os computadores e o espírito humano). Pode-se resumir o argumento central no fato de que a própria concepção de inteligência é humana é, nesse sentido, animal e biológica. A possibilidade de transportá-la para uma base plástica, artificial, encontra um limite claro e preciso: se uma inteligência puder ser gerada a partir destes elementos, deverá ser necessariamente diferente da humana, na medida em que o seu resultado provém da emergência de elementos totalmente diferentes dos encontrados nos humanos. A inteligência, tal como a entendemos, é essencialmente o fruto do cruzamento da uma base biológica com um complexo simbólico e cultural, impossível de ser reproduzido artificialmente.
Outros filósofos sustentam visões diferentes. Ainda que não vejam problemas com a IA fraca, entendem que há elementos suficientes para se crer na IA forte também. Daniel Dennett argumenta em Consciência Explicada que se não há uma centelha mágica ou alma nos seres humanos, então o Homem é apenas uma outra máquina. Dennett questiona por que razão o Homem-máquina deve ter uma posição privilegiada sobre todas as outras possíveis máquinas quando provido de inteligência.
Alguns autores sustentam que se a IA fraca é possível, então também o é a forte. O argumento da IA fraca, de uma inteligência imitada mas não real, desvelaria assim uma suposta validação da IA forte. Isso se daria porque, tal como entende Simon Blackburn em seu livro Think, dentre outros, não existe a possibilidade de checar se uma inteligência é verdadeira ou não. Estes autores argumentam que toda inteligência apenas parece inteligência, sem necessariamente o ser. Parte-se do princípio que é impossível separar o que é inteligência de fato do que é apenas simulação: apenas acredita-se ser.
Estes autores rebatem os argumentos contra a IA forte dizendo que seus críticos reduzem-se a arrogantes que não podem entender a origem da vida sem uma centelha mágica, um Deus ou uma posição superior qualquer. Eles entenderiam, em última instância, máquina como algo essencialmente incapaz e sequer conseguem supô-la como capaz de inteligência. Nos termos de Minsky, a crítica contra a IA forte erra ao supor que toda inteligência derive de um sujeito - tal como indicado por Searle - e assim desconsidera a possibilidade de uma maquinaria complexa que pudesse pensar. Mas Minsky desconsidera o simples fato de que os maiores avanços na área foram conseguidos com "maquinaria complexa", também chamada por pesquisadores mais importantes de Inteligência Artificial Conexista. Se a crítica de Minsky fosse válida a maquina criada por Rosenblatt e Bernard Widrow não estaria em uso ainda hoje, e o Mark I Perceptron não seria o fundador da neuro-computação. Alguns pesquisadores importantes afirmam que um dos motivos das críticas de Minsky foi o fato de ter falhado com Snark. A partir daí começou a criticar essa área por não compreende-la completamente, prejudicando desde então pesquisas importantes sobre o assunto.
O debate sobre a IA reflete, em última instância, a própria dificuldade da ciência contemporânea em lidar efetivamente com a ausência de um primado superior. Os argumentos pró-IA forte são esclarecedores dessa questão, pois são os próprios cientistas, que durante décadas tentaram e falharam ao criar uma IA forte, que ainda procuram a existência de uma ordem superior. Ainda que a IA forte busque uma ordem dentro da própria conjugação dos elementos internos, trata-se ainda da suposição de que existe na inteligência humana uma qualidade superior que deve ser buscada, emulada e recriada. Reflete, assim, a difícil digestão do legado radical da Teoria da Evolução, onde não existe positividade alguma em ser humano e ser inteligente; trata-se apenas de um complexo de relações que propiciaram um estado particular, produto de um cruzamento temporal entre o extrato biológico e uma complexidade simbólica.
6.3.4 - História
Os primeiros anos da IA foram repletos de sucessos – mas de uma forma limitada. Considerando-se os primeiros computadores, as ferramentas de programação da época e o fato de que apenas alguns anos antes os computadores eram vistos como objetos capazes de efetuar operações aritméticas e nada mais, causava surpresa o fato de um computador realizar qualquer atividade remotamente inteligente.
O sucesso inicial prosseguiu com o General Problem Solver (Solucionador de problemas gerais) ou GPS, desenvolvido por Newell e Simon. Esse programa foi projetado para imitar protocolos humanos de resolução de problemas. Dentro da classe limitada de quebra-cabeças com a qual podia lidar, verificou-se que a ordem em que os seres humanos abordavam os mesmos problemas. Desse modo, o GPS talvez tenha sido o primeiro programa a incorporar a abordagem de “pensar de forma humana”.
Desde o início os fundamentos da inteligência artificial tiveram o suporte de várias disciplinas que contribuíram com idéias, pontos de vista e técnicas para a IA. Os filósofos (desde 400 a.C.) tornaram a IA concebível, considerando as idéias de que a mente é, em alguns aspectos, semelhante a uma máquina, de que ela opera sobre o conhecimento codificado em alguma linguagem interna e que o pensamento pode ser usado para escolher as ações que deverão ser executadas. Por sua vez, os matemáticos forneceram as ferramentas para manipular declarações de certeza lógica, bem como declarações incertas e probabilísticas. Eles também definiram a base para a compreensão da computação e do raciocínio sobre algoritmos.
Os economistas formalizaram o problema de tomar decisões que maximizam o resultado esperado para o tomador de decisões. Os psicólogos adotaram a idéia de que os seres humanos e os animais podem ser considerados máquinas de processamento de informações. Os lingüistas mostraram que o uso da linguagem se ajusta a esse modelo. Os engenheiros de computação fornecem os artefatos que tornam possíveis as aplicações de IA. Os programas de IA tendem a serem extensos e não poderiam funcionar sem os grandes avanços em velocidade e memória que a indústria de informática tem proporcionado.
Atualmente, a IA abrange uma enorme variedade de subcampos. Dentre esses subcampos está o estudo de modelos conexionistas ou redes neurais. Uma rede neural pode ser vista como um modelo matemático simplificado do funcionamento do cérebro humano. Este consiste de um número muito grande de unidades elementares de processamento, ou neurônios, que recebem e enviam estímulos elétricos uns aos outros, formando uma rede altamente interconectada.
No processamento, são compostos os estímulos recebidos conforme a intensidade de cada ligação, produzindo um único estímulo de saída. È o arranjo das interconexões entre os neurônios e as respectivas intensidades que define as principais propriedades e o funcionamento de uma RN. O estudo das redes neurais ou o conexionismo se relaciona com a capacidade dos computadores aprenderem e reconhecerem padrões. Podemos destacar também o estudo da biologia molecular na tentativa de construir vida artificial e a área da robótica, ligada à biologia e procurando construir máquinas que alojem vida artificial. Outro subcampo de estudo é a ligação da IA com a Psicologia, na tentativa de representar na máquina os mecanismos de raciocínio e de procura.
Nos últimos anos, houve uma revolução no trabalho em inteligência artificial, tanto no conteúdo quanto na metodologia. Agora, é mais comum usar as teorias existentes como bases, em vez de propor teorias inteiramente novas, fundamentar as informações em teoremas rigorosos ou na evidência experimental rígida, em vez de utilizar como base a intuição e destacar a relevância de aplicações reais em vez de exemplos de brinquedos.
A utilização da IA permite obter não somente ganhos significativos de performance, mas também possibilita o desenvolvimento de aplicações inovadoras, capazes de expandir de forma extraordinária nossos sentidos e habilidades intelectuais. Cada vez mais presente, a inteligência artificial simula o pensamento humano e se alastra por nosso cotidiano.
6.3.5 - Investigação na IA experimental
A inteligência artificial começou como um campo experimental nos anos 50 com pioneiros como Allen Newell e Herbert Simon, que fundaram o primeiro laboratório de inteligência artificial na Universidade Carnegie Mellon, e McCarty que juntamente com Marvin Minsky, que fundaram o MIT AI Lab em 1959. Foram eles alguns dos participantes na famosa conferência de verão de 1956 em Darthmouth College. Historicamente, existem dois grandes estilos de investigação em IA: IA "neats" e IA "scruffies". A IA "neats", limpa, clássica ou simbólica. Envolve a manipulação de símbolos e de conceitos abstractos, e é a metodologia utilizada na maior parte dos sistemas periciais. Paralelamente a esta abordagem existe a abordagem IA "scruffies", ou "coneccionista", da qual as redes neuronais são o melhor exemplo. Esta abordagem cria sistemas que tentam gerar inteligência pela aprendizagem e adaptação em vez da criação de sistemas desenhados com o objectivo especifico de resolver um problema. Ambas as abordagems apareceram num estágio inicial da história de IA. Nos anos 60s e 70s os coneccionistas foram retirados do primeiro plano da investigação em IA, mas o interesse por esta vertente da IA foi retomada nos anos 80s, quando as limitações da IA "limpa" começaram a ser percebidas. Pesquisas sobre inteligência artificial foram intensamente custeadas na década de 1980 pela Agência de Projetos de Pesquisas Avançadas sobre Defesa (“Defense Advanced Research Projects Agency”), nos Estados Unidos, e pelo Projeto da Quinta Geração (“Fifth Generation Project”), no Japão. O trabalho subsidiado fracassou no sentido de produzir resultados imediatos, a despeito das promessas grandiosas de alguns praticantes de IA, o que levou proporcionalmente a grandes cortes de verbas de agências governamentais no final dos anos 80, e em conseqüência a um arrefecimento da atividade no setor, fase conhecida como O inverno da IA. No decorrer da década seguinte, muitos pesquisadores de IA mudaram para áreas relacionadas com metas mais modestas, tais como aprendizado de máquinas, robótica e visão computacional, muito embora pesquisas sobre IA pura continuaram em níveis reduzidos.
6.4. Aplicações Práticas de Técnicas de IA
Enquanto que o progresso direcionado ao objetivo final de uma inteligência similar à humana tem sido lento, muitas derivações surgiram no processo. Exemplos notáveis incluem as linguagens LISP e Prolog, as quais foram desenvolvidas para pesquisa em IA, mas agora possuem funções não-IA. A cultura Hacker surgiu primeiramente em laboratórios de IA, em particular no MIT AI Lab, lar várias vezes de celebridades tais como McCarthy, Minsky, Seymour Papert (que desenvolveu a linguagem Logo), Terry Winograd (que abandonou IA depois de desenvolver SHRDLU). Muitos outros sistemas úteis têm sido construídos usando tecnologias que ao menos uma vez eram áreas ativas em pesquisa de IA. Alguns exemplos incluem:
Planejamento automatizado e escalonamento: a uma centena de milhões de quilômetros da Terra, o programa Remote Agent da NASA se tornou o primeiro programa de planejamento automatizado (autônomo) de bordo a controlar o escalonamento de operações de uma nave espacial. O Remote Agent gerou planos de metas de alto nível especificadas a partir do solo e monitorou a operação da nave espacial à medida que os planos eram executados – efetuando a detecção, o diagnóstico e a recuperação de problemas conforme eles ocorriam.
Jogos: O Deep Blue da IBM se tornou o primeiro programa de computador a derrotar o campeão mundial em uma partida de xadrez, ao vencer Garry Kasparov por um placar de 3,5 a 2,5 em uma partida de exibição. Kasparov disse que sentiu “uma nova espécie de inteligência” do outro lado do tabuleiro. O valor das ações da IBM teve um aumento de 18 bilhões de dólares. Ainda hoje há indícios que o jogo foi armado, pois a IBM negou-se a entregar os logs sobre o jogo, especialistas afirmam que na verdade o jogo foi uma farsa, pois não era a maquina que estava jogando e sim uma equipe de especialistas em xadrez.
Controle autônomo: O sistema de visão de computador ALVINN foi treinado para dirigir um automóvel, mantendo-o na pista. Ele foi colocado na minivan controlada por computador NAVLAB da CMU e foi utilizado para percorrer os Estados Unidos – ao longo de quase 4.600 km o ALVINN manteve o controle da direção do veículo durante 98% do tempo. Um ser humano assumiu o comando nos outros 2%, principalmente na saída de declives. A NAVLAB tem câmeras e vídeo que transmitem imagens da estrada para ALVINN, que então calcula a melhor forma de guiar, baseado na experiência obtida em sessões de treinamento anteriores.
Diagnóstico: Programas de diagnóstico medico baseados na analise probabilística foram capazes de executar tarefas no nível de um medico especialista em diversas áreas da medicina. Heckerman (1991) descreve um caso em que um importante especialista em patologia de gânglios linfáticos ridiculariza o diagnóstico de um programa em um caso especialmente difícil. Os criadores do programa sugeriram que ele pedisse ao computador uma explicação do diagnóstico. A máquina destacou os principais fatores que influenciaram sua decisão e explicou a interação sutil de vários sintomas nesse caso. Mais tarde, o especialista concordou com o programa.
Planejamento logístico: Durante a crise do Golfo Pérsico em 1991, as forças armadas dos Estados Unidos distribuíram uma ferramenta denominada Dynamic Analysis and Replanning Tool, ou DART, a fim de realizar o planejamento logístico automatizado e a programação de execução do transporte. Isso envolveu até 50.000 veículos, transporte de carga aérea e de pessoal ao mesmo tempo, e teve de levar em conta os pontos de partida, destinos, rotas e resolução de conflitos entre todos os parâmetros. As técnicas de planejamento da IA permitiram a geração em algumas horas de um plano que exigiria semanas com outros métodos. A Defense Advanced Research Project Agency (DARPA) declarou que essa única aplicação compensou com folga os 30 anos de investimentos da DARPA em IA.
Robótica: Muitos cirurgiões agora utilizam robôs assistentes em microcirurgias. O HipNav é um sistema emprega técnicas de visão computacional para criar um modelo tridimensional da anatomia interna de um paciente, e depois utiliza controle robótico para orientar a inserção de uma prótese de substituição do quadril.
Reconhecimento de linguagem e resolução de problemas: O PROVERB é um programa computador que resolve quebra-cabeças de palavras cruzadas melhor que a maioria dos seres humanos, utilizando restrições sobre possíveis preenchimentos de palavras, um grande banco de dados de quebra-cabeças anteriores e uma variedade fonte de informações que incluem dicionários e bancos de dados on-line, como uma lista de filmes e dos atores que participam deles. Por exemplo, ele descobre que a pista “Nice Story” pode ser resolvido por “ETAGE”, porque seu banco de dados inclui o par pista/solução ”Story in France/ETAGE” e porque reconhece que os padrões “Nice X” e “X in France” com freqüência tem mesma solução. O programa não sabe que Nice é uma cidade da França, mas consegue resolver o quebra-cabeça.
Chinook foi declarado o campeão Homem-Máquina em Damas em 1994.
Deep Blue, um computador jogador de xadrez, derrotou Garry Kasparov em uma famosa disputa em 1997.
Lógica incerta, uma técnica para raciocinar dentro de incertezas, tem sido amplamento usada em sistemas de controles industriais.
Sistemas especialistas vêm sendo usados a uma certa escala industrial.
Sistemas tradutores, tais como SYSTRAN, têm sido largamente usados (no entanto, os resultados não são ainda comparáveis com tradutores humanos).
Redes Neurais vêm sendo usadas em uma larga variedade de tarefas, de sistemas de detecção de intrusos a jogos de computadores.
Sistemas de reconhecimento óptico de caracteres (OCR) podem traduzir letra escrita de forma arbitrária em texto.
Reconhecimento de escrita a mão é usada em milhões de Assistentes Pessoais Digitais.
Reconhecimento de voz está disponível comercialmente e é amplamente usado.
Sistemas de álgebra computacional, tais como Mathematica e Macsyma, são bons exemplos de aplicações de IA na solução de problemas algébricos.
Sistemas com Visão computacional são usados em muitas aplicações industriais.
Aplicações utilizando Vida Artificial são utilizados na indústria de entretenimento e no desenvolvimento da Computação Gráfica.
Sistemas baseados na idéia de agentes artificiais, denominados Sistemas Multiagentes, têm se tornado comuns para a resolução de problemas complexos.
Chatterbots (robôs de software para conversação), personagens virtuais que conversam em linguagem natural como se fossem humanos de verdade, são cada vez mais comuns na internet.
A visão da Inteligência Artificial substituindo julgamento humano profissional tem surgido muitas vezes na história do campo, em Ficção Científica e, hoje em dia, em algumas áreas especializadas onde "Sistemas Especialistas" são usados para melhorar ou para substituir julgamento profissional em engenharia e medicina, por exemplo.
6.6. Conseqüências hipotéticas da IA
Nenhum observador dos desenvolvimentos da IA antecipam o desenvolvimento de sistema que excederão largamente a inteligência e a complexidade de qualquer coisa atualmente conhecida. Um nome dado a estes sistemas hipotéticos é a de artilectos. Com a introdução de sistemas de inteligência artificial não determinísticos, muitas questões éticas serão levantadas. Muitas destas questões nunca foram abordadas na história da humanidade. Com o passar do tempo, os debates tenderam a focalizar cada vez menos em “possibilidade” e mais em “desejabilidade”, segundo enfatizado nos debates cosmistas (inglês “Cosmist”, defensor de idéias sobre o cosmo) versus terráqueos (inglês “Terran”), iniciados entre Hugo de Garis e Kevin Warwick. Um cosmista, de acordo com de Garis, na verdade procura construir mais sucessores inteligentes à espécie humana. O surgimento desse debate sugere que questões de desejabilidade podem também ter influenciado alguns dos primeiros pensadores contra a idéia.
Algumas questões que ocasionam perguntas éticas interessantes são:
Determinação da sensitividade de um sistema que criamos;
Teste de Turing;
Cognição;
Por que afinal sentimos a necessidade de categorizar esses sistemas?
Pode a IA ser definida em um sentido graduado?
Liberdades e direitos para esses sistemas;
Pode IAs ser “mais inteligentes” que os humanos, da mesma forma que somos “mais inteligentes” que outros animais?
Desenhos de sistemas que são muito mais inteligentes que qualquer humano;
Decisão do nível de salvaguardas a ser desenhadas nesses sistemas;
Visão do nível de capacidade de aprendizado que um sistema necessita para replicar o pensamento humano, ou até que ponto satisfatoriamente ele pode realizar tarefas sem essa replicação. (e.g., sistema de perícia);
A Singularidade;
Conscientização subjetiva de emoções em relação a carreiras e empregos. Os problemas podem assemelhar-se a problemas detectados no âmbito do livre comércio.
6.7 - Máquinas que demonstram algum nível de "inteligência"
Existem muitos exemplos de programas que demonstram algum nível de inteligência. Eis alguns exemplos:
The Start Project - Um sistema baseado em internet que responde a perguntas em inglês.
Cyc, uma base de conhecimento com coleção vasta dos fatos sobre o mundo real e a habilidade lógica do raciocínio.
A.L.I.C.E., um chatterbot.
Alan, Outro chatterbot.
ELIZA, Um programa que simula um psicoterapeuta, desenvolvido na década de 1960.
PAM (Plan Applier Mechanism) - Um entendedor de histórias desenvolvido em 1978 por John Wilenksy.
SAM (Script applier mechanism) - Um entendedor de histórias desenvolvido em 1975..
SHRDLU - HRDLU era um programa de computador adiantado da compreensão de língua natural, desenvolvido em 1968-1970
Creatures, um jogo de computador com produção que envolvia criatura codificada de um código genético superior utilizando um sofisticado biochemistry e cérebros de rede neural.
BBC news story A ultima criação do criador de Creatures . Steve Grand's Lucy.
EURISKO - uma linguagem para resolver problema que concistam em heuristics, incluindo a descrição do heuristics explicando como usa-lo e modifica-lo. Desenvolvido em 1978 por Douglas Lenat.
X-Ray Vision for Surgeons - grupo no MIT que investigou visão médica.
Neural networks-based progams for backgammon and go.
Cortex - Programa aprende ao ler textos, Jornal Público.PT
6.9 - Pesquisas em IA
São muitos milhares de pesquisadores de IA ao redor do mundo em centenas de instituições e de companhias de pesquisa. Entre os muitos que fizeram contribuições significativas estão:
Wolfgang Wahlster
John McCarthy
Doug Lenat
Roger Schank
Alan Turing
Raj Reddy
Terry Winograd
Marvin Minsky
Para alguns cientistas da computação, a frase inteligência artificial adquiriu um mau nome devido à discrepância existente entre aquilo que foi conseguido na área, e as outras noções de 'inteligência'. Por esta razão, alguns pesquisadores que trabalham em tópicos relacionaram-se à inteligência artificial dizem que trabalham dentro da ciência cognitiva.
7.10 - Raciocino vinculado  a temática.
7.10.1. Sub-ramos da pesquisa de IA.
Busca combinatória
Visão computacional
Sistemas especialistas
Raciocínio Baseado em Casos
Programação genética
Algoritmo genético
Representação de conhecimento
Aprendizagem de máquina
Machine planning
Rede neural
Processamento de linguagem natural
Program synthesis
Robótica
Planejamento Automatizado
Vida artificial
Artificial being
Inteligencia Artificial Distribuída
Swarm Intelligence
Inteligência artificial e angelologia
A Lógica de programação algumas vezes é considerada como um ramo da inteligência artificial, mas isto não é mais o caso
7.10.2. Filosofia
Funcionalismo
Consciência simulada
Searle's Chinese room
Consciência
7.10.3. Lógica
Semântica
7.10.4. Ciência
Ciência cognitiva
Ciência da computação
Cibernética
Psicologia
7.10.5. Aplicações
Projetos de Inteligência Artificial
Agentes Inteligentes Artificiais
Computação bio-inspirada

7 - Teoria da Inteligência emocional.
7. 1 - Inteligência emocional.
Inteligência emocional é um conjunto específico de aptidões utilizadas no processamento e conhecimento das informações relacionadas à emoção. Na história da psicologia moderna o termo “inteligência emocional” expressa um estágio na evolução do pensamento humano: a capacidade de sentir, entender, controlar e modificar o estado emocional próprio ou de outra pessoa de forma organizada. Na década de 30, o psicometrista Robert Thorndike, mencionou a possibilidade de que as pessoas pudessem ter "inteligência social" - uma habilidade de perceber estados internos, motivações e comportamentos de si próprio e dos outros e de agir de acordo com essa percepção. Em 1983, o professor Howard Gardner, da Universidade Harvard, em linhas gerais, traçou as sete formas de inteligência, no livro Estruturas da mente: Gardner propôs uma "inteligência intrapessoal" semelhante à atual conceituação de inteligência emocional. 
7. 2 - Conceitos.
Os cientistas Peter Salovey e John D. Mayer dividiram a inteligência emocional em quatro domínios:
1-percepção das emoções - inclui habilidades envolvidas na identificação de sentimentos por estímulos: através da voz ou expressão facial, por exemplo, a pessoa que sobressai nessa habilidade percebe a variação e mudança no estado emocional de outra; a segunda ramificação da inteligência emocional;
2-uso das emoções – implica a capacidade de empregar as informações emocionais para facilitar o pensamento e o raciocínio;
3-entender emoções, é a habilidade de captar variações emocionais nem sempre evidentes;
4-controle (e transformação) da emoção, o aspecto mais habitualmente identificado da inteligência emocional – aptidão para lidar com esse sentimento.
7. 3 - Testes.
Cientistas têm se empenhado em mensurar essas habilidades. Foram validados testes como o MEIS - Multi-factor Emotional Intelligence Scale (Escala Multifatorial de Inteligência Emocional, 1998) e o MSCEIT - Mayer-Salovery-Caruso Emotional Intelligence Test (Teste de Inteligência Emocional de Mayer-Salovey-Caruso, 2002). Os testes tradicionais medem a capacidade cognitiva da pessoa. Já os de inteligência emocional baseada na habilidade, são vulneráveis à interpretações subjetivas do comportamento. O maior problema enfrentado quando se trata de medição de inteligência emocional é como avaliar as respostas “emocionalmente mais inteligentes”: uma pessoa pode resolver situações que envolvem componentes emocionais de diversas maneiras.
7. 4 - Sentimento e razão.
A relação entre pensamento e emoção é discutida há pelo menos dois milênios. Os filósofos, os estóicos da Grécia e Roma antigas, acreditavam que a emoção podia ser demasiado imprevisível para ter alguma serventia para o pensamento racional. A expressão dos sentimentos estava fortemente associada à natureza feminina e era representativa de aspectos frágeis e inferiores da humanidade: o estereótipo relativo ao gênero, como o de mulheres são “mais emotivas”, persiste. Muitas noções foram derrubadas durante o desenvolvimento da psicologia moderna. Uma nova maneira de pensar as emoções e o pensamento surgiu quando os psicólogos articularam definições mais amplas de inteligência e também novas perspectivas sobre a relação entre sentimento e pensamento. Na década de 90, o termo “inteligência emocional”, tornou-se tema de vários livros (e até best-seller) e de uma infinidade de discussões em programas de TV, escolas e empresas. O interesse da mídia foi despertado pelo livro Inteligência emocional, de Daniel Goleman, redator de ciência do New York Times, em 1995. No mesmo ano, na capa da edição de outubro, a revista Time pergunta ao leitor: “Qual é o seu QE?” A publicação de “A curva em sino” lançou controvérsias em torno do QI. Segundo os autores, a tendência era que a sociedade moderna se estratificasse pela definição de inteligência, não pelo poder aquisitivo ou por classes. O que causou maior polêmica e indignação de inúmeros setores da sociedade foi a afirmação dos autores de que, no que diz respeito à inteligência haveria diferenças entre as etnias.
8 - Controvérsia.
Alguns temas controversos no estudo da inteligência são: A relevância da inteligência psicométrica com o senso comum de inteligência. A importância da inteligência no dia-a-dia e o diagnóstico da deficiência mental. O impacto dos genes e do ambiente na inteligência humana.

Nenhum comentário:

Postar um comentário