Inteligência artificial (por vezes mencionada pela sigla em inglês AI - artificial intelligence) é a inteligência similar à humana exibida por mecanismos ou software. Também é um campo de estudo acadêmico. Os principais pesquisadores e livros didáticos definem o campo como "o estudo e projeto de agentes inteligentes", onde um agente inteligente é um sistema que percebe seu ambiente e toma atitudes que maximizam suas chances de sucesso. John McCarthy, quem cunhou o termo em 1956 ("numa conferência de especialistas celebrada em Darmouth Colege" Gubern, Román: O Eros Eletrónico), a define como "a ciência e engenharia de produzir máquinas inteligentes". É uma área de pesquisa da computação dedicada a buscar métodos ou dispositivos computacionais que possuam ou multipliquem a capacidade racional do ser humano de resolver problemas, pensar ou, de forma ampla, ser inteligente. Também pode ser definida como o ramo da ciência da computação que se ocupa do comportamento inteligente[1] ou ainda, o estudo de como fazer os computadores realizarem coisas que, atualmente, os humanos fazem melhor.[2]
O principal objetivo dos sistemas de IA, é executar funções que, caso um ser humano fosse executar, seriam consideradas inteligentes. É um conceito amplo, e que recebe tantas definições quanto damos significados diferentes à palavra Inteligência.[3] Podemos pensar em algumas características básicas desses sistemas, como a capacidade de raciocínio (aplicar regras lógicas a um conjunto de dados disponíveis para chegar a uma conclusão), aprendizagem (aprender com os erros e acertos de forma a no futuro agir de maneira mais eficaz), reconhecer padrões (tanto padrões visuais e sensoriais, como também padrões de comportamento) e inferência (capacidade de conseguir aplicar o raciocínio nas situações do nosso cotidiano).[3]
O desenvolvimento da área começou logo após a Segunda Guerra Mundial, com o artigo "Computing Machinery and Intelligence" do matemático inglês Alan Turing[4], e o próprio nome foi cunhado em 1956.[5][6] Seus principais idealizadores foram os cientistas Herbert Simon, Allen Newell, John McCarthy, Warren McCulloch, Walter Pitts e Marvin Minsky, entre outros. A construção de máquinas inteligentes interessam à humanidade há muito tempo, havendo na história tanto um registro significante de autômatos mecânicos (reais) quanto de personagens místicos (fictícios) construídos pelo homem com inteligência própria, tais como o Golem e o Frankenstein. Tais relatos, lendas e ficções demonstram expectativas contrastantes do homem, de fascínio e de medo, em relação à Inteligência Artificial.[7][8]
Apenas recentemente, com o surgimento do computador moderno, é que a inteligência artificial ganhou meios e massa crítica para se estabelecer como ciência integral, com problemáticas e metodologias próprias. Desde então, seu desenvolvimento tem extrapolado os clássicos programas de xadrez ou de conversão e envolvido áreas como visão computacional, análise e síntese da voz, lógica difusa, redes neurais artificiais e muitas outras. Inicialmente a IA visava reproduzir o pensamento humano. A Inteligência Artificial abraçou a ideia de reproduzir faculdades humanas como criatividade, auto-aperfeiçoamento e uso da linguagem. Porém, o conceito de inteligência artificial é bastante difícil de se definir. Por essa razão, Inteligência Artificial foi (e continua sendo) uma noção que dispõe de múltiplas interpretações, não raro conflitantes ou circulares.[2]
A aprendizagem automática ou aprendizado de máquina (em inglês: "machine learning") é um sub-campo da ciência da computação[1] que evoluiu do estudo de reconhecimento de padrões e da teoria da aprendizagem computacional em inteligência artificial[1]. Em 1959, Arthur Samuel definiu aprendizado de máquina como o "campo de estudo que dá aos computadores a habilidade de aprender sem serem explicitamente programados"[2](livre tradução). A aprendizagem automática explora o estudo e construção de algoritmos que podem aprender de seus erros e fazer previsões sobre dados[3]. Tais algoritmos operam construindo um modelo a partir de inputs amostrais a fim de fazer previsões ou decisões guiadas pelos dados ao invés de simplesmente seguindo inflexíveis e estáticas instruções programadas. Enquanto que na inteligência artificial existem dois tipos de raciocínio - o indutivo, que extrai regras e padrões de grandes conjuntos de dados, e o dedutivo - o aprendizado de máquina só se preocupa com o indutivo.
Algumas partes da aprendizagem automática estão intimamente ligadas (e muitas vezes sobrepostas) à estatística computacional; uma disciplina que foca em como fazer previsões através do uso de computadores, com pesquisas focando nas propriedades dos métodos estatísticos e sua complexidade computacional. Ela tem fortes laços com a otimização matemática, que produz métodos, teoria e domínios de aplicação para este campo. A aprendizagem automática é usada em uma variedade de tarefas computacionais onde criar e programar algoritmos explícitos é impraticável. Exemplos de aplicações incluem filtragem de spam, reconhecimento ótico de caracteres (OCR)[4], processamento de linguagem natural, motores de busca, diagnósticos médicos, bioinformática, reconhecimento de fala, reconhecimento de escrita, visão computacional e locomoção de robôs. O aprendizado de máquinas é às vezes confundido com mineração de dados[5], que é um sub-campo que foca mais em análise exploratória de dados e é conhecido como aprendizado não supervisionado[6]. No campo da análise de dados, o aprendizado de máquinas é um método usado para planejar modelos complexos e algoritmos que prestam-se para fazer predições- no uso comercial, isso é conhecido como análise preditiva. Esses modelos analíticos permitem que pesquisadores, cientistas de dados, engenheiros, e analistas possam "produzir decisões e resultados confiáveis e repetíveis" e descobrir os "insights escondidos" através do aprendizado das relações e tendências históricas nos dados.[7]
Sistemas que requerem pouco treinamento podem capturar continuamente a fala com um amplo vocabulário, em ritmo normal, com precisão de cerca de 98% (duas palavras erradas em cem) enquanto sistemas que não requerem treinamento podem reconhecer um número pequeno de palavras como, por exemplo, os dez dígitos do sistema decimal. Tais sistemas são populares por direcionar chamadas telefônicas recebidas, em grandes organizações, aos seus destinos.
Sistemas comerciais para reconhecimento da fala têm estado disponíveis desde os anos 90, porém é interessante notar que, apesar do aparente sucesso dessa tecnologia, poucas pessoas os usam.
Parece que a maioria dos usuários de computador pode criar e editar documentos mais rapidamente com um teclado convencional, apesar do fato de que muitas pessoas são capazes de falar consideravelmente mais rápido do que podem digitar. Além disso, o uso intenso dos órgãos da fala pode resultar em sobrecarga vocal.
Alguns dos problemas técnicos chaves do reconhecimento da fala são:
-
Diferenças entre os interlocutores são freqüentemente grandes e dificultam. Não está claro quais características da fala são independentes do falante.
-
A interpretação de vários fonemas, palavras e frases é sensível ao contexto. Por exemplo: os fonemas são geralmente mais curtos em palavras longas do que em palavras pequenas. As palavras têm significados diferentes em frases diferentes. Por exemplo: "Philip lies" [1] pode ser interpretado como Philip sendo um mentiroso ou como Philip deitando-se na cama.
-
A entonação e o timbre da fala podem mudar completamente a interpretação de uma palavra ou frase. Por exemplo: "Vai!", "Vai?" e "Vai." podem ser claramente reconhecidos por um humano, mas não tão facilmente por um computador.
-
Palavras e frases podem ter várias interpretações válidas de modo que o falante deixe a escolha da correta para o ouvinte.
-
A
linguagem escrita precisa de pontuação de acordo com regras
estritas que não estão fortemente presentes na fala e são
difíceis de inferir sem conhecer o significado (vírgulas, fim de
frase, citações).
Uma solução geral para muitos dos problemas acima requer efetivamente conhecimento humano, experiência e uma avançada tecnologia em inteligência artificial. Especificamente, modelos estatísticos de linguagem são freqüentemente empregados para desambiguação e melhoramento da precisão do reconhecimento.
Pesquisa heurística
Em Ciência da Computação, normalmente existem duas propriedades principais na criação e elaboração de algoritmos:
-
fazer o algoritmo ter um tempo de execução sempre aceitável e
-
ser
a solução ótima ou provavelmente boa para o problema em todos os
casos.
A pesquisa por heurísticas é uma pesquisa realizada por meio da quantificação de proximidade a um determinado objectivo. Diz-se que se tem uma boa (ou alta) heurística se o objecto de avaliação está muito próximo do objectivo; diz-se de má (ou baixa) heurística se o objecto avaliado estiver muito longe do objectivo. Etimologicamente a palavra heurística vem da palavra grega Heuriskein, que significa descobrir (e que deu origem também ao termo Eureca).
Um algoritmo aproximativo (ou algoritmo de aproximação) é heurístico, ou seja, utiliza informação e intuição a respeito da instância do problema e da sua estrutura para resolvê-lo de forma rápida.
Entretanto, nem todo algoritmo heurístico é aproximativo, ou seja, nem toda heurística tem uma razão de qualidade comprovada matematicamente ou prova formal de convergência. Por este motivo, em várias referências bibliográficas distingue-se os termos algoritmo aproximativo e heurística:
-
aproximativo é a denominação do algoritmo que fornece soluções dentro de um limite de qualidade absoluto ou assintótico, assim como um limite assintótico polinomial de complexidade (pior caso) comprovado matematicamente;
-
heurística
e método heurístico são denominações para o algoritmo
que fornece soluções sem um limite formal de qualidade,
tipicamente avaliado empiricamente em termos de complexidade (média)
e qualidade das soluções.
Classificação das heurísticas
Métodos heurísticos geralmente se enquadram dentro dos seguintes grupos:-
heurísticas de construção, tais como o método guloso, que são aquelas onde uma ou mais soluções são construídas elemento a elemento, seguindo algum critério heurístico de otimização, até que se tenha uma solução viável;
-
heurísticas de busca em vizinhança, como a busca local, as quais necessariamente partem de uma solução inicial viável (em alguns casos podendo ser somente uma solução possível qualquer), tentando melhorar esta solução através de operações de troca, remoção ou inserção, até que não seja mais possível a melhoria ou algum outro critério de parada seja satisfeito;
-
heurísticas sistemáticas, tais como a Busca com Discrepância Limitada ou Backtracking Controlado, onde a árvore de espaço de soluções é percorrida utilizando critérios de ramificação e corte da árvore;
-
heurísticas híbridas, resultantes da combinação de duas ou mais heurísticas com estratégias diferentes;
-
metaheurísticas,
que são heurísticas genéricas mais sofisticadas, onde uma
heurística mais simples é gerenciada por um procedimento que visa
explorar inteligentemente a instância do problema e o seu espaço
de soluções.
redes neurais artificiais (RNAs)
Por exemplo, uma rede neural para o reconhecimento de escrita manual é definida por um conjunto de neurônios de entrada que podem ser ativados pelos pixels de uma imagem de entrada. As ativações desses neurônios são então repassadas, ponderadas e transformadas por uma função determinada pelo designer da rede, a outros neurônios. Este processo é repetido até que, finalmente, um neurônio de saída é ativado. Isso determina que caractere foi lido.
Assim como outros métodos de aprendizado de máquina, sistemas que aprendem a partir dos dados, redes neurais têm sido usadas para resolver uma grande variedade de tarefas que são difíceis de resolver utilizando programação baseada em regras comuns, incluindo visão computacional e reconhecimento de voz.
Inferência
Em Lógica, inferência ou ilação é operação intelectual mediante a qual se afirma a verdade de uma proposição em decorrência de sua ligação com outras proposições já reconhecidas como verdadeiras. Consiste, portanto, em derivar conclusões a partir de premissas conhecidas ou decididamente verdadeiras. A conclusão também é chamada de idiomática.
Índice
Definição
O processo pelo qual uma conclusão é inferida a partir de múltiplas observações é chamado processo dedutivo ou indutivo, dependendo do contexto. A conclusão pode ser correta, incorreta, correta dentro de um certo grau de precisão ou correta em certas situações. Conclusões inferidas a partir de observações múltiplas podem ser testadas por observações adicionais.Exemplos de Inferência
Aristóteles definiu uma série de silogismos, que podem ser usados como blocos de construção para o raciocínio mais complexo. Começamos com o mais famoso de todos eles:-
Todos os homens são mortais
-
Sócrates é um homem
-
Portanto,
Sócrates é mortal.
As premissas e a conclusão são verdadeiras, mas a lógica segue junto com inferência. Mas a verdade da conclusão nem sempre se segue da verdade das premissas. A validade de uma inferência depende da forma da inferência. Isto é, a palavra "válido" não se refere à verdade das premissas ou da conclusão, mas sim a forma da inferência. Uma inferência pode ser válida, mesmo se as partes são falsas, e pode ser falsa, mesmo se as partes são verdadeiras. Mas uma forma válida e com premissas verdadeiras sempre terá uma conclusão verdadeira.
Considere o seguinte exemplo:
A - Todos os frutos são doces.
B - A banana é uma fruta.
C - Portanto, a banana é doce.
Agora voltamos a uma forma inválida:
-
Todo A é B.
-
C é um B.
-
Portanto,
C é um A.
-
Todas as maçãs são frutas. (Correto)
-
Bananas são frutas. (Correto)
-
Portanto,
as bananas são maçãs. (Errado)
-
Todas as pessoas gordas são gregas.
-
John Lennon era gordo.
-
Portanto,
John Lennon era grego.
Um argumento válido pode também ser usado para derivar uma conclusão verdadeira a partir de premissas falsas:
-
Todas as pessoas gordas são músicos
-
John Lennon era gordo
-
Portanto,
John Lennon
era um músico
Inferência incorreta
Uma inferência incorreta é conhecida como uma falácia. Os filósofos que estudam lógica informal compilaram grandes listas deles, e os psicólogos cognitivos têm documentado muitas vezes de raciocínio humano que favorecem o raciocínio incorreto.Inferência logica automática
Os sistemas de IA primeiro providenciaram "inferência logica automática". Uma vez que estes já foram temas de investigação extremamente popular, levaram a aplicações industriais sob a forma de sistemas especialistas e depois "business rule engines".O trabalho de um sistema de inferência é o de estender uma base de conhecimento automaticamente. A base de conhecimento (KB) é um conjunto de proposições que representam o que o sistema sabe sobre o mundo. Várias técnicas podem ser utilizadas pelo sistema para estender KB por meio de inferências válidas.
Referencia completa(historia,pesquisadores,projetos,livros).
https://pt.wikipedia.org/wiki/Intelig%C3%AAncia_artificial
Nenhum comentário:
Postar um comentário