[Book] - Artificial Intelligence: A Modern approach - Cap 1.

Chapter 1 - Introdução

O que é IA?

Agir como humano -> Teste de Turing

Uma máquina pode pensar?

Basicamente esse teste é para saber se um ser humano não consegue distinguir se a resposta de suas perguntas é feita por outro ser humano ou por uma máquina.

O teste de Turing original não precisava de uma simulação física de um humano, mas alguns pesquisadores proporam o teste de Turing Total, que precisava de interação com objetos e pessoas no mundo real.

Pensar como humano

Ciência cognitiva

Um programa pode pensar como um ser humano?

Se o comportamento de entrada e saída de um programa é compatível com o comportamento humano, é uma evidência que alguns mecanismos do programa pode "pensar" como humanos.

Newell e Simon, criaram o GPS (General problem solver). Começaram a comparar o tempo que a máquina resolvia os problemas com o tempo utilizado pelos humanos. Não só o tempo mas também os passos e comportamento dos humanos ao resolver esses problemas.

ciência cognitiva <> IA;

Pensamento racional

Sócrates é um homem e todos os homens são mortais

Logo, Sócrates é mortal.

Lógica

Notação lógica.

Em 1965 os programas poderiam resolver qualquer problema que é solucionável, caso descrito em notação lógica.

Teoria da probabilidade.

Entendimento de como o mundo funciona, fazer predições sobre o futuro.

O pensamento racional não gera um comportamento inteligente.

Agir racionalmente

Agente é algo que age. Os programas agentes fazem mais do que os programas ditos comuns;

são autônomos, entendem o ambiente, se adapta a mudanças, cria e conquista objetivos...

O modelo proposto no teste de Turing já usava muito a questão do agir racionalmente.

O pensamento racional é somente uma parte do agir racionalmente.

Ter somente a inferência não é o suficiente, o interessante do agir racionalmente é saber a melhor opção para agir sobre determinada questão.

Essa abordagem é a mais usada atualmente. (preciso confirmar isso)

é cientificamente mais aceita. É matematicamente bem definida e generalista.

IA focou no estudo e construção de agentes que fazem a coisa certa.


É difícil a IA agir quando o problema a ser resolvido é complexo, o exemplo dado foi do carro autônomo.

Qual o objetivo do carro? Levar as pessoas em segurança? O que isso significa?

Essa união entre nossas preferências e o objetivo que colocamos na máquina é chamado de Problema do alinhamento de valor

O alinhamento de valor tem que ser compatível com o de um humano.

É difícil alcançar isto!

Queremos que as máquinas alcancem nossos objetivos. Saber agir com incertezas e ainda estar no controle de um humano. Nada de exterminador do futuro aqui!


O algoritmo de Aristoteles foi implementado por Newell e Simon, no programa GPS.

O GPS é um greedy regression planning system

faster machines just give you the wrong answer faster

“It is desirable to guard against the possibility of exaggerated ideas that might arise as

to the powers of the Analytical Engine.” (Ada Lovelace)


Primórdios da IA - 1943 → 1956

→ Alan Turing ( Teste de Turing)

→ Outros estudiosos propondo teorias e formas de IA.

→ Criação LT

Grande expectativa com IA - 1952 → 1969

Focaram nas atividades que os humanos faziam que indicavam inteligência, para que as máquinas resolvessem. Puzzles, quiz, jogos...etc

→ Criação GPS

→ Aprendizagem por reforço (máquina aprendendo a jogar Go e Gamão)

Dose de realidade - 1966 → 1973

Alta confiança no que foi desenvolvido até o momento pois conseguiam resolver problemas, mas não eram problemas complexos. Conforme aumentou a complexidade dos problemas não se conseguiu obter resultados satisfatórios.

Sistemas especialistas - 1969 → 1986

Dendral → primeiro sistema especialista que foi bem sucedido (1969)

Na área de linguagem natural o conhecimento do domínio foi importante.

→ Linguagem Prolog

→ Boom de dinheiro em 1988;

→ Inverno da IA, várias empresas não conseguiram entregar o que prometiam. Se tornou difícil manter sistemas especialistas para domínios complexos.

→ Sistemas não aprendiam com a experiência (aprendizagem de máquina)

O retorno das redes neurais - 1986 → hoje

→ Modelos conexionistas - evolução dos modelos anteriores → baseado no que foi desenvolvido no início dos anos 60.

→ Aprendizagem por exemplos ( comparação do valor esperado, com o real valor de um problema a ser solucionado) → modifica os parâmetros para diminuir a diferença, fazendo com que o algoritmo performe melhor no futuro.

Raciocínio probabilístico e aprendizagem de máquina - 1987 → hoje

→ Por conta da fragilidade do modelo de sistemas especialistas, surgiu um modelo mais cientifico, incorporando a probabilidade ao invés da lógica booleana.

Big data - 2001 → hoje

Por conta da internet, temos a disposição cada vez mais um enorme dataset. Tudo é trackeado, tudo vira dado.

Por conta deste enorme dataset algoritmos baseados em aprendizagem tem uma grande vantagem. Aqueles que com um dataset menor tinha um desempenho aquém, agora conseguem ter um desempenho impressionante.

Deep learning - 2011 → hoje

→ Destaque em 2011 no reconhecimento de voz e reconhecimento de objetos

→ Aprendizado profundo - aprendizagem de máquina → múltiplas camadas → elementos computacionais simples. Tenta imitar o cérebro humano. Essas múltiplas camadas são chamadas de neurônios em referência ao neurônios do cérebro humano.

→ Precisa de um poder computacional gigantesco, além de um número gigantesco de dados treinados;


You'll only receive email when they publish something new.

More from jess
All posts