Neste blog você encontra documentação de software tutoriais e passo a passos que ajudam no processo do desenvolvimento e aprendizado e ,em pesquisa e desenvolvimento e gestão.

terça-feira, 13 de dezembro de 2016

Inteligencia artificial (Tipos e características,historia,livros,tutoriais,pesquisas).





Inteligência artificial (por vezes mencionada pela sigla em inglês AI - artificial intelligence) é a inteligência similar à humana exibida por mecanismos ou software. Também é um campo de estudo acadêmico. Os principais pesquisadores e livros didáticos definem o campo como "o estudo e projeto de agentes inteligentes", onde um agente inteligente é um sistema que percebe seu ambiente e toma atitudes que maximizam suas chances de sucesso. John McCarthy, quem cunhou o termo em 1956 ("numa conferência de especialistas celebrada em Darmouth Colege" Gubern, Román: O Eros Eletrónico), a define como "a ciência e engenharia de produzir máquinas inteligentes". É uma área de pesquisa da computação dedicada a buscar métodos ou dispositivos computacionais que possuam ou multipliquem a capacidade racional do ser humano de resolver problemas, pensar ou, de forma ampla, ser inteligente. Também pode ser definida como o ramo da ciência da computação que se ocupa do comportamento inteligente[1] ou ainda, o estudo de como fazer os computadores realizarem coisas que, atualmente, os humanos fazem melhor.[2]
O principal objetivo dos sistemas de IA, é executar funções que, caso um ser humano fosse executar, seriam consideradas inteligentes. É um conceito amplo, e que recebe tantas definições quanto damos significados diferentes à palavra Inteligência.[3] Podemos pensar em algumas características básicas desses sistemas, como a capacidade de raciocínio (aplicar regras lógicas a um conjunto de dados disponíveis para chegar a uma conclusão), aprendizagem (aprender com os erros e acertos de forma a no futuro agir de maneira mais eficaz), reconhecer padrões (tanto padrões visuais e sensoriais, como também padrões de comportamento) e inferência (capacidade de conseguir aplicar o raciocínio nas situações do nosso cotidiano).[3]
O desenvolvimento da área começou logo após a Segunda Guerra Mundial, com o artigo "Computing Machinery and Intelligence" do matemático inglês Alan Turing[4], e o próprio nome foi cunhado em 1956.[5][6] Seus principais idealizadores foram os cientistas Herbert Simon, Allen Newell, John McCarthy, Warren McCulloch, Walter Pitts e Marvin Minsky, entre outros. A construção de máquinas inteligentes interessam à humanidade há muito tempo, havendo na história tanto um registro significante de autômatos mecânicos (reais) quanto de personagens místicos (fictícios) construídos pelo homem com inteligência própria, tais como o Golem e o Frankenstein. Tais relatos, lendas e ficções demonstram expectativas contrastantes do homem, de fascínio e de medo, em relação à Inteligência Artificial.[7][8]
Apenas recentemente, com o surgimento do computador moderno, é que a inteligência artificial ganhou meios e massa crítica para se estabelecer como ciência integral, com problemáticas e metodologias próprias. Desde então, seu desenvolvimento tem extrapolado os clássicos programas de xadrez ou de conversão e envolvido áreas como visão computacional, análise e síntese da voz, lógica difusa, redes neurais artificiais e muitas outras. Inicialmente a IA visava reproduzir o pensamento humano. A Inteligência Artificial abraçou a ideia de reproduzir faculdades humanas como criatividade, auto-aperfeiçoamento e uso da linguagem. Porém, o conceito de inteligência artificial é bastante difícil de se definir. Por essa razão, Inteligência Artificial foi (e continua sendo) uma noção que dispõe de múltiplas interpretações, não raro conflitantes ou circulares.[2]






A aprendizagem automática ou aprendizado de máquina (em inglês: "machine learning") é um sub-campo da ciência da computação[1] que evoluiu do estudo de reconhecimento de padrões e da teoria da aprendizagem computacional em inteligência artificial[1]. Em 1959, Arthur Samuel definiu aprendizado de máquina como o "campo de estudo que dá aos computadores a habilidade de aprender sem serem explicitamente programados"[2](livre tradução). A aprendizagem automática explora o estudo e construção de algoritmos que podem aprender de seus erros e fazer previsões sobre dados[3]. Tais algoritmos operam construindo um modelo a partir de inputs amostrais a fim de fazer previsões ou decisões guiadas pelos dados ao invés de simplesmente seguindo inflexíveis e estáticas instruções programadas. Enquanto que na inteligência artificial existem dois tipos de raciocínio - o indutivo, que extrai regras e padrões de grandes conjuntos de dados, e o dedutivo - o aprendizado de máquina só se preocupa com o indutivo.
Algumas partes da aprendizagem automática estão intimamente ligadas (e muitas vezes sobrepostas) à estatística computacional; uma disciplina que foca em como fazer previsões através do uso de computadores, com pesquisas focando nas propriedades dos métodos estatísticos e sua complexidade computacional. Ela tem fortes laços com a otimização matemática, que produz métodos, teoria e domínios de aplicação para este campo. A aprendizagem automática é usada em uma variedade de tarefas computacionais onde criar e programar algoritmos explícitos é impraticável. Exemplos de aplicações incluem filtragem de spam, reconhecimento ótico de caracteres (OCR)[4], processamento de linguagem naturalmotores de buscadiagnósticos médicosbioinformáticareconhecimento de falareconhecimento de escritavisão computacional e locomoção de robôs. O aprendizado de máquinas é às vezes confundido com mineração de dados[5], que é um sub-campo que foca mais em análise exploratória de dados e é conhecido como aprendizado não supervisionado[6]. No campo da análise de dados, o aprendizado de máquinas é um método usado para planejar modelos complexos e algoritmos que prestam-se para fazer predições- no uso comercial, isso é conhecido como análise preditiva. Esses modelos analíticos permitem que pesquisadores, cientistas de dados, engenheiros, e analistas possam "produzir decisões e resultados confiáveis e repetíveis" e descobrir os "insights escondidos" através do aprendizado das relações e tendências históricas nos dados.[7]


Tecnologias de reconhecimento da fala (também denominado em alguns aparelhos como reconhecimento de voz) permitem que computadores equipados com microfones interpretem a fala humana, por exemplo, para transcrição ou como método de comando por voz. Tais sistemas podem ser classificados por requererem, ou não, que o usuário treine o sistema a reconhecer seus padrões particulares de fala, por ter a habilidade de reconhecer fala contínua ou por requerer que o usuário fale pausadamente, e pelo tamanho do vocabulário que é capaz de reconhecer (pequeno, da ordem de dezenas a centenas de palavras, ou grande, com milhares de palavras).
Sistemas que requerem pouco treinamento podem capturar continuamente a fala com um amplo vocabulário, em ritmo normal, com precisão de cerca de 98% (duas palavras erradas em cem) enquanto sistemas que não requerem treinamento podem reconhecer um número pequeno de palavras como, por exemplo, os dez dígitos do sistema decimal. Tais sistemas são populares por direcionar chamadas telefônicas recebidas, em grandes organizações, aos seus destinos.
Sistemas comerciais para reconhecimento da fala têm estado disponíveis desde os anos 90, porém é interessante notar que, apesar do aparente sucesso dessa tecnologia, poucas pessoas os usam.
Parece que a maioria dos usuários de computador pode criar e editar documentos mais rapidamente com um teclado convencional, apesar do fato de que muitas pessoas são capazes de falar consideravelmente mais rápido do que podem digitar. Além disso, o uso intenso dos órgãos da fala pode resultar em sobrecarga vocal.
Alguns dos problemas técnicos chaves do reconhecimento da fala são:
  • Diferenças entre os interlocutores são freqüentemente grandes e dificultam. Não está claro quais características da fala são independentes do falante.
  • A interpretação de vários fonemas, palavras e frases é sensível ao contexto. Por exemplo: os fonemas são geralmente mais curtos em palavras longas do que em palavras pequenas. As palavras têm significados diferentes em frases diferentes. Por exemplo: "Philip lies" [1] pode ser interpretado como Philip sendo um mentiroso ou como Philip deitando-se na cama.
  • A entonação e o timbre da fala podem mudar completamente a interpretação de uma palavra ou frase. Por exemplo: "Vai!", "Vai?" e "Vai." podem ser claramente reconhecidos por um humano, mas não tão facilmente por um computador.
  • Palavras e frases podem ter várias interpretações válidas de modo que o falante deixe a escolha da correta para o ouvinte.
  • A linguagem escrita precisa de pontuação de acordo com regras estritas que não estão fortemente presentes na fala e são difíceis de inferir sem conhecer o significado (vírgulas, fim de frase, citações).
O entendimento do significado das palavras ditas é pensado como um campo separado do entendimento natural da linguagem. Há vários exemplos de frases que soam iguais e só podem ser desambiguadas pela aparição do contexto: uma famosa camisa vestida por pesquisadores da Apple Inc. dizia "I helped Apple wreck a nice beach" [Eu ajudei a Apple a destruir uma bela praia], o que, quando pronunciado, soa como "I helped Apple recognize speech" [Eu ajudei a Apple a reconhecer a fala].
Uma solução geral para muitos dos problemas acima requer efetivamente conhecimento humano, experiência e uma avançada tecnologia em inteligência artificial. Especificamente, modelos estatísticos de linguagem são freqüentemente empregados para desambiguação e melhoramento da precisão do reconhecimento.






Pesquisa heurística
Em Ciência da Computação, normalmente existem duas propriedades principais na criação e elaboração de algoritmos:
  1. fazer o algoritmo ter um tempo de execução sempre aceitável e
  2. ser a solução ótima ou provavelmente boa para o problema em todos os casos.
No entanto, um algoritmo heurístico não cumpre uma dessas propriedades, podendo ser ou um algoritmo que encontra boas soluções a maioria das vezes, mas não tem garantias de que sempre encontrará ou um algoritmo que tem processamento rápido, mas não tem provas de que será rápido para todas as situações.
A pesquisa por heurísticas é uma pesquisa realizada por meio da quantificação de proximidade a um determinado objectivo. Diz-se que se tem uma boa (ou alta) heurística se o objecto de avaliação está muito próximo do objectivo; diz-se de (ou baixa) heurística se o objecto avaliado estiver muito longe do objectivo. Etimologicamente a palavra heurística vem da palavra grega Heuriskein, que significa descobrir (e que deu origem também ao termo Eureca).
Um algoritmo aproximativo (ou algoritmo de aproximação) é heurístico, ou seja, utiliza informação e intuição a respeito da instância do problema e da sua estrutura para resolvê-lo de forma rápida.
Entretanto, nem todo algoritmo heurístico é aproximativo, ou seja, nem toda heurística tem uma razão de qualidade comprovada matematicamente ou prova formal de convergência. Por este motivo, em várias referências bibliográficas distingue-se os termos algoritmo aproximativo e heurística:
  • aproximativo é a denominação do algoritmo que fornece soluções dentro de um limite de qualidade absoluto ou assintótico, assim como um limite assintótico polinomial de complexidade (pior caso) comprovado matematicamente;
  • heurística e método heurístico são denominações para o algoritmo que fornece soluções sem um limite formal de qualidade, tipicamente avaliado empiricamente em termos de complexidade (média) e qualidade das soluções.
A heurística é um conjunto de regras e métodos que conduzem à descoberta, à invenção e à resolução de problemas. Também é uma ciência auxiliar da História que estuda a pesquisa das fontes.

Classificação das heurísticas

Métodos heurísticos geralmente se enquadram dentro dos seguintes grupos:
  • heurísticas de construção, tais como o método guloso, que são aquelas onde uma ou mais soluções são construídas elemento a elemento, seguindo algum critério heurístico de otimização, até que se tenha uma solução viável;
  • heurísticas de busca em vizinhança, como a busca local, as quais necessariamente partem de uma solução inicial viável (em alguns casos podendo ser somente uma solução possível qualquer), tentando melhorar esta solução através de operações de troca, remoção ou inserção, até que não seja mais possível a melhoria ou algum outro critério de parada seja satisfeito;
  • heurísticas sistemáticas, tais como a Busca com Discrepância Limitada ou Backtracking Controlado, onde a árvore de espaço de soluções é percorrida utilizando critérios de ramificação e corte da árvore;
  • heurísticas híbridas, resultantes da combinação de duas ou mais heurísticas com estratégias diferentes;
  • metaheurísticas, que são heurísticas genéricas mais sofisticadas, onde uma heurística mais simples é gerenciada por um procedimento que visa explorar inteligentemente a instância do problema e o seu espaço de soluções.
Ainda existem outros tipos de heurística, tais como as técnicas de relaxação por exemplo. Entretanto, tais técnicas são específicas para problemas formulados como problemas de programação inteira ou constraint problems, os quais pertencem a um tipo particular de problema de otimização combinatorial.



redes neurais artificiais (RNAs)

Em ciência da computação e campos relacionados, redes neurais artificiais (RNAs) são modelos computacionais inspirados pelo sistema nervoso central de um animal (em particular o cérebro) que são capazes de realizar o aprendizado de máquina bem como o reconhecimento de padrões. Redes neurais artificias geralmente são apresentadas como sistemas de "neurônios interconectados que podem computar valores de entradas".
Por exemplo, uma rede neural para o reconhecimento de escrita manual é definida por um conjunto de neurônios de entrada que podem ser ativados pelos pixels de uma imagem de entrada. As ativações desses neurônios são então repassadas​​, ponderadas e transformadas por uma função determinada pelo designer da rede, a outros neurônios. Este processo é repetido até que, finalmente, um neurônio de saída é ativado. Isso determina que caractere foi lido.
Assim como outros métodos de aprendizado de máquina, sistemas que aprendem a partir dos dados, redes neurais têm sido usadas para resolver uma grande variedade de tarefas que são difíceis de resolver utilizando programação baseada em regras comuns, incluindo visão computacional e reconhecimento de voz.



Inferência
Em Lógica, inferência ou ilação é operação intelectual mediante a qual se afirma a verdade de uma proposição em decorrência de sua ligação com outras proposições já reconhecidas como verdadeiras. Consiste, portanto, em derivar conclusões a partir de premissas conhecidas ou decididamente verdadeiras. A conclusão também é chamada de idiomática.



Índice

Definição

O processo pelo qual uma conclusão é inferida a partir de múltiplas observações é chamado processo dedutivo ou indutivo, dependendo do contexto. A conclusão pode ser correta, incorreta, correta dentro de um certo grau de precisão ou correta em certas situações. Conclusões inferidas a partir de observações múltiplas podem ser testadas por observações adicionais.

Exemplos de Inferência

Aristóteles definiu uma série de silogismos, que podem ser usados ​​como blocos de construção para o raciocínio mais complexo. Começamos com o mais famoso de todos eles:
  • Todos os homens são mortais
  • Sócrates é um homem
  • Portanto, Sócrates é mortal.
O processo acima é chamado de dedutivo.
As premissas e a conclusão são verdadeiras, mas a lógica segue junto com inferência. Mas a verdade da conclusão nem sempre se segue da verdade das premissas. A validade de uma inferência depende da forma da inferência. Isto é, a palavra "válido" não se refere à verdade das premissas ou da conclusão, mas sim a forma da inferência. Uma inferência pode ser válida, mesmo se as partes são falsas, e pode ser falsa, mesmo se as partes são verdadeiras. Mas uma forma válida e com premissas verdadeiras sempre terá uma conclusão verdadeira.
Considere o seguinte exemplo:
A - Todos os frutos são doces.
B - A banana é uma fruta.
C - Portanto, a banana é doce.

Agora voltamos a uma forma inválida:
  • Todo A é B.
  • C é um B.
  • Portanto, C é um A.
Para mostrar que esta forma é inválida, buscamos demonstrar como ela pode levar a partir de premissas verdadeiras para uma conclusão falsa.
  • Todas as maçãs são frutas. (Correto)
  • Bananas são frutas. (Correto)
  • Portanto, as bananas são maçãs. (Errado)
Um argumento válido com premissas falsas podem levar a uma falsa conclusão:
  • Todas as pessoas gordas são gregas.
  • John Lennon era gordo.
  • Portanto, John Lennon era grego.
Quando um argumento válido é usado para derivar uma conclusão falsa de premissas falsas, a inferência é válida, pois segue a forma de uma inferência correta.
Um argumento válido pode também ser usado para derivar uma conclusão verdadeira a partir de premissas falsas:
  • Todas as pessoas gordas são músicos
  • John Lennon era gordo
  • Portanto, John Lennon era um músico
Neste caso, temos duas falsas premissas que implicam uma conclusão verdadeira.

Inferência incorreta

Uma inferência incorreta é conhecida como uma falácia. Os filósofos que estudam lógica informal compilaram grandes listas deles, e os psicólogos cognitivos têm documentado muitas vezes de raciocínio humano que favorecem o raciocínio incorreto.

Inferência logica automática

Os sistemas de IA primeiro providenciaram "inferência logica automática". Uma vez que estes já foram temas de investigação extremamente popular, levaram a aplicações industriais sob a forma de sistemas especialistas e depois "business rule engines".
O trabalho de um sistema de inferência é o de estender uma base de conhecimento automaticamente. A base de conhecimento (KB) é um conjunto de proposições que representam o que o sistema sabe sobre o mundo. Várias técnicas podem ser utilizadas pelo sistema para estender KB por meio de inferências válidas.


Referencia completa(historia,pesquisadores,projetos,livros).



https://pt.wikipedia.org/wiki/Intelig%C3%AAncia_artificial



Nenhum comentário:

Postar um comentário