“Os últimos 10 anos foram sobre a construção de um mundo que é móvel em primeiro lugar. Nos próximos 10 anos vamos mudar para um mundo que vai ser movida por Inteligência Artificial . “(Sundar Pichai, CEO do Google, em outubro de 2016)

Da Amazon ao Facebook, do Google para a Microsoft, líderes das empresas de tecnologia mais influentes do mundo estão destacando seu entusiasmo pela Inteligência Artificial (IA). Mas o que é IA? Por que isso é importante? E por que agora? Embora haja um crescente interesse pela IA, o campo é entendido principalmente por especialistas. Nosso objetivo para este primário é tornar este importante campo acessível a um público mais amplo.

Começaremos explicando o significado de ‘AI’ e termos-chave, incluindo ‘Machine Learning’. Vamos ilustrar como funciona uma das áreas mais produtivas da IA, chamada de “Deep Learning“. Exploraremos os problemas que a AI resolve e por que elas são importantes. E nós vamos ficar atrás das manchetes para ver por que a AI, que foi inventada na década de 1950, está mais próxima hoje.

Como investidores de capital de risco (Venture Capitalists), procuramos as tendências emergentes que criarão valor para os consumidores e as empresas. Acreditamos que a IA é uma evolução na computação tão ou mais importante do que as mudanças mobile ou em nuvem. “É difícil exagerar”, disse o CEO da Amazon Jeff Bezos, “o quão grande vai ser o impacto que a IA vai ter na sociedade nos próximos 20 anos”. Esperamos que este guia reduza o hype e explique por que — se você é um consumidor ou executivo, empresário ou investidor — esta tendência emergente será importante para todos nós.

Interessado em mais insights de investidores? Cadastre-se para os nossos posts. Para acessar um mapa com 226 startups de AI na Inglaterra e as tendências que estão transformando o mercado, entre neste post. Se você é um empreendedor de AI, Entre em contato.

O que é IA?

Inteligência Artificial: A ciência de programas inteligentes

Nomeado em 1956 pelo Professor John McCarthy, a ‘Artificial Inteligence’ (AI) é um termo geral que se refere a hardware ou software que exibe um comportamento que parece inteligente. Nas palavras do professor McCarthy, é “a ciência e a engenharia de fazer máquinas inteligentes, especialmente programas de computador inteligentes.”

A “AI” básica existe há décadas através de programas baseados em regras de exibições rudimentares de “inteligência” em contextos específicos. O progresso, entretanto, tem sido limitado pois os algoritmos necessários para enfrentar os problemas de hoje são ainda muito complexos para serem programas à mão por desenvolvedores.

Atividades complicadas como diagnósticos médicos, prever quando as máquinas vão falhar ou avaliar o valor de mercado de certos ativos envolvem milhares de conjuntos de dados e relações não-lineares entre as variáveis. Nestes casos é difícil usar da melhor forma os dados disponíveis para “otimizar” as nossas previsões. Em outros casos, incluindo reconhecimento de objetos em imagens e a tradução de idiomas, ainda não é possível desenvolver regras para descrever as características que estamos procurando. Como podemos escrever um conjunto de regras que trabalhe em todas as situações e que descrevem a aparência de um cão?

E se pudéssemos transferir do programador para o programa a dificuldade de fazer previsões complexas, otimizar dados e a especificação de recursos? Esta é a promessa da inteligência artificial moderna.

Machine Learning: otimizando a delegação de tarefas

Machine Learning (ML) é um sub-conjunto da AI. Toda a Machine Learning é Inteligência artificial mas nem toda Inteligência artificial é Machine Learning (Figura 1, acima). O interesse atual em ‘IA’ reflete o entusiasmo pela ML onde os avanços são rápidos e significativos.

O Machine Learning permite resolver problemas complicados descolando o trabalho para os algoritmos. Como escreveu Arthur Samuel, pioneiro da AI em 1959, o Machine Learning é o “campo de estudo que dá aos computadores a capacidade de aprender sem ser explicitamente por programação”.

O objetivo da maioria dos “Machine Learning's” é desenvolver um mecanismo de previsão para um caso de uso específico. Um algoritmo recebe informações sobre um domínio (digamos, os filmes que uma pessoa assistiu no passado) e pesa os dados para fazer uma previsão útil (a probabilidade da pessoa gostar de um filme diferente no futuro). Ao disponibilizar aos computadores a "capacidade de aprender”, queremos dizer, passando a tarefa de otimização — de pesar as variáveis nos dados disponíveis para fazer previsões precisas sobre o futuro — para o algoritmo.

Às vezes podemos ir mais longe e deixar a cargo do programa a tarefa de especificar os recursos que precisam ser considerados em primeiro lugar.

Algoritmos de Machine Learning aprendem através de treinamento. Um algoritmo recebe inicialmente exemplos cujos resultados são conhecidos, nota a diferença entre suas previsões e os resultados corretos e ajusta as ponderações das entradas para melhorar a precisão de suas previsões até que sejam otimizadas. A característica definidora dos algoritmos de ML, portanto, é que a qualidade de suas previsões melhora com a experiência. Quanto mais dados fornecemos (geralmente até um ponto), melhores são os mecanismos de previsão que podemos criar (figuras 2 e 3.) Observe que o tamanho dos conjuntos de dados necessários depende altamente do contexto — não podemos generalizar a partir dos exemplos abaixo.)

Existem mais de 15 abordagens para o Machine Learning, cada uma das quais utiliza uma estrutura algorítmica diferente para otimizar as previsões com base nos dados recebidos.

A “Deep Learning (DL) ” entrega resultados inovadores em novos campos de estudo e vamos explorá-la abaixo. Há muitos outros que, embora recebam menos atenção, são valiosos por causa da sua aplicabilidade e ampla gama de utilidade. Alguns dos algoritmos de ML mais eficazes além do Deep Learning incluem:

  • ‘Random Forests’ que criam uma multidão de árvores de decisão para otimizar uma previsão;
  • Bayesian networks’ que usam uma abordagem probabilística para analisar variáveis e as relações entre elas;
  • ‘Vector Machines’ que são alimentados por exemplos categorizados e criam modelos para atribuir novas entradas (Inputs) para uma das categorias.

Cada abordagem tem suas vantagens, desvantagens e combinações (uma abordagem em conjunto). Os algoritmos selecionados para resolver um problema específico dependerá de fatores incluindo a natureza do conjunto de dados disponível. Na prática, os desenvolvedores tendem a experimentar para ver o que funciona.

As aplicações de ML variam de acordo com nossas necessidades e imaginação. Com os dados certos nós podemos construir algoritmos para uma miríade de propósitos, incluindo: sugestão de produtos que uma pessoa vai gostar com base em suas compras anteriores, antecipar quando um robô em uma linha de montagem de carro vai falhar, prever se um e-mail foi mal endereçado, estimar a probabilidade de uma transação com cartão de crédito ser fraudulenta ou saber quando uma pessoa vai cometer um suicídio. (https://t.co/7aYciR9bLT)

Deep Learning: especificação de recursos para a delegação de tarefas

Mesmo com os algoritmos de ML — ‘Random Forests’, ‘Bayesian networks’e ‘Vector Machines’ — é difícil escrever programas que executem bem certas tarefas, seja a compreensão da fala até o reconhecimento de objetos em imagens. Por quê? Porque não podemos especificar os recursos para otimizar estas tarefas de maneira prática e confiável. Se queremos escrever um programa de computador que identifique imagens de carros, por exemplo, não conseguimos especificar ao algoritmo as características de um carro para a identificação correta em todas as circunstâncias. Os carros tem vários formatos, cores e especificações. Sua posição, orientação e pose podem diferir. Fundo, iluminação e inúmeros outros fatores afetam a aparência do objeto. Existem muitas variações para escrever um conjunto de regras. Mesmo se pudéssemos não seria uma solução escalável. Seria necessário escrever um programa para identificar cada tipo de objeto.

Conheça a Deep Learning (DL) que revolucionou o mundo da inteligência artificial. Deep Learning é um subconjunto de Machine Learning — uma das mais de 15 abordagens. Toda Deep Learning é Machine Learning, mas nem todo Machine Learning é Deep Learning (Figura 4, abaixo).

A Deep Learning é útil porque evita que o programador tenha que realizar as tarefas de especificação de recursos (a definição das características para análise a partir dos dados) ou otimização (como pesar os dados para fornecer uma previsão precisa). O algoritmo faz as duas coisas.

Como isso é possível? O avanço da Deep Learning é o de modelar o cérebro, não o mundo. Nossos próprios cérebros aprendem a fazer coisas difíceis — incluindo a compreensão da fala e o reconhecimento de objetos — não através do processamento de regras exaustivas mas através da prática e feedback. Quando criança, experimentamos o mundo (vemos, por exemplo, uma imagem de um carro), fazemos previsões (“carro!”) e recebemos feedback (“sim!”). Dá para perceber que não recebemos um conjunto exaustivo de regras e aprendemos através do treinamento?

A Deep Learning usa a mesma abordagem. São calculadoras artificiais baseadas em software que se aproximam da função dos neurônios de um cérebro e que estão conectadas entre si. Elas formam uma “rede neural”que recebe uma entrada ou input (para continuar nosso exemplo, uma imagem de um carro), analisa-o, faz uma determinação sobre ele e é informado se a sua determinação está correta. Se a saída ou output é errada, as conexões entre os neurônios são ajustadas pelo algoritmo, o que mudará as previsões futuras. Inicialmente, a rede estará errada muitas vezes mas à medida que alimentamos o algoritmo com milhões de exemplos, as conexões entre os neurônios serão ajustadas para que a rede neural faça determinações corretas em quase todas as ocasiões. A prática faz (quase) a perfeição.

Usando este processo com eficácia crescente agora podemos:

  • Reconhecer elementos em imagens;
  • Traduzir idiomas em tempo real;
  • Usar a voz para controlar dispositivos (via Siri da Apple, Google Now, Amazon Alexa e Microsoft Cortana);
  • Prever como a variação genética afetará a transcrição do DNA;
  • Analisar o sentimento nos comentários dos clientes (Sentiment Analysis);
  • Detectar tumores em imagens médicas; e mais.

Contudo, a Deep Learning não é adequada para todos os problemas. Normalmente requer grandes conjuntos de dados para treinamento. É preciso poder de processamento extenso para treinar e executar uma rede neural e existe um problema de “explicabilidade” pois pode ser difícil saber como uma rede neural desenvolveu suas previsões. Apesar disso, ao liberar programadores da tarefa de especificar recursos complexos, a Deep Learning forneceu mecanismos de previsão bem-sucedidos para uma série de problemas, e como resultado, tornou-se um 'must-have' no conjunto de ferramentas de desenvolvedores de inteligência artificial.

2. Como funciona a Deep Learning ?

Dada a sua importância, é de grande valia compreender os conceitos básicos de como a Deep Learning funciona. A Deep Learning envolve o uso de uma “rede neural” artificial — uma coleção de “neurônios” (calculadoras baseadas em software) ligados entre si.

Um neurônio artificial tem uma ou mais entradas. Ele realiza um cálculo matemático com base nestes dados para fornecer uma saída. A saída vai depender tanto dos pesos de cada entrada e a configuração das funções de entrada-saída (Input-Output) no neurônio (Figura 5, abaixo). A função de entrada-saída pode variar. Um neurônio pode ser:

  • Uma unidade linear (Linear Unit) — a saída é proporcional à entrada total ponderada;
  • Uma unidade de limiar (threshold unit) — a saída é definida como um de dois níveis, dependendo se o total de inputs estiver acima de um valor especificado);
  • Ou uma unidade sigmóide (sigmoid unit) — a saída varia continuamente, mas não de forma linear como as mudanças de inputs).

Uma rede neural é criada quando os neurônios estão conectados uns aos outros. O output de um neurônio torna-se uma entrada para outro (Figura 6, abaixo).

As redes neurais são organizadas em várias camadas de neurônios (daí o nome Deep Learning). A ‘camada de entrada’ recebe informações que a rede processará, por exemplo, um conjunto de imagens. A ‘camada de saída’ fornece os resultados. Entre as camadas de entrada e saída estão as “camadas ocultas” onde ocorre a maior parte da atividade. Tipicamente, as saídas de cada neurônio em um nível da rede neural servem como uma das entradas para cada um dos neurônios na camada seguinte (Figura 7, abaixo).

Vamos considerar o exemplo de um algoritmo de reconhecimento de imagens, para ser mais preciso, o de reconhecer rostos humanos em imagens. Quando os dados são alimentados na rede neural, as primeiras camadas identificam padrões de contraste local — características de ‘baixo nível’, como arestas. À medida que a imagem percorre a rede, são extraídas características progressivamente de “nível superior” — das bordas aos narizes, dos narizes às faces (Fig. 8, abaixo)

Na sua camada de saída, com base no seu treinamento, a rede neural fornecerá uma probabilidade de que a imagem seja do tipo especificado (face humana: 97%, balão 2%, folha 1%).

Tipicamente, as redes neurais são treinadas expondo-as a um grande número de exemplos marcados. Os erros são detectados e os pesos das conexões entre os neurônios são sintonizados pelo algoritmo para melhorar os resultados. O processo de otimização é amplamente repetido até que o sistema seja implantado e as imagens não marcadas sejam avaliadas.

O exemplo acima é uma simples rede neural mas sua estrutura pode variar e a maioria delas são mais complexas. As variações podem incluir conexões entre neurônios na mesma camada, números diferentes de neurônios por camada e a conexão das saídas dos neurônios nos níveis anteriores da rede (redes neurais recursivas - recursive neural networks)

Projetar e melhorar uma rede neural requer habilidade considerável. As etapas incluem estruturar a rede para uma aplicação particular, fornecendo um conjunto adequado de dados de treinamento, ajustando a estrutura da rede de acordo com o progresso e a combinação de múltiplas abordagens.

3. Por que a AI é importante?

A AI é importante porque aborda problemas profundamente difíceis e as soluções para esses problemas podem ser aplicadas a setores importantes para o bem-estar humano — desde saúde, educação e comércio até transporte, serviços públicos e entretenimento. Desde a década de 1950, a pesquisa da AI se concentrou em cinco campos de investigação:

  • Raciocínio: a capacidade de resolver problemas através de dedução lógica
  • Conhecimento: a capacidade de representar conhecimento sobre o mundo(o entendimento de que existem certas entidades, eventos e situações no mundo, de que esses elementos têm propriedades e que os elementos podem ser categorizados.)
  • Planejamento: a capacidade de definir e atingir metas (há um estado específico no futuro do mundo que é desejável e sequências de ações podem ser realizadas para conseguir progressos neste sentido.)
  • Comunicação: a capacidade de entender a linguagem escrita e falada.
  • Percepção: a capacidade de deduzir coisas sobre o mundo a partir de imagens, sons e outros estímulos sensoriais.

A IA é valiosa porque, em muitos contextos, o progresso nessas capacidades oferece capacidades revolucionárias e não evolutivas. Exemplo de aplicações de IA incluem o seguinte (e existem muitos mais) nas areas de:

  • Raciocínio: Apreciação jurídica; Gestão de ativos financeiros; Processamento de aplicações financeiras; Jogos; Sistemas de armas autônomas.
  • Conhecimento: Diagnóstico médico; Criação de drogas/remédios; Recomendação de mídias; Previsão de compra; Negociação no mercado financeiro; Prevenção de fraude.
  • Planejamento: Logística; Agendamento; Navegação; Otimização de redes físicas e digitais; Manutenção preditiva; Previsão de demanda; Gestão de inventário.
  • Comunicação: Controle de voz; Agentes inteligentes, assistentes e suporte ao cliente; Tradução em tempo real de línguas escritas e faladas; Transcrição em tempo real.
  • Percepção: Veículos autônomos; Diagnóstico médico; Vigilância.

Nos próximos anos, a capacidade do Machine Learning será empregada em quase todos os setores em uma ampla variedade de processos.Considerando a função corporativa, por exemplo, a atividade de recursos humanos (RH) dentro de uma empresa, ilustra-se abaixo a gama de processos aos quais o Machine Learning será aplicado:

  • O recrutamento pode ser melhorado pela segmentação e matchmaking inteligente de vagas de trabalho e avaliação e entrevistas parcialmente automatizadas;
  • A gestão da força de trabalho pode ser melhorada quando existe planejamento preditivo das necessidades de pessoal e prováveis ausências;
  • O treinamento da força de trabalho pode ser mais eficaz quando o conteúdo mais adequado para o empregado é recomendado;
  • A taxa de turn-over pode ser reduzida prevendo que funcionários podem estar prestes a sair.

Com o tempo esperamos que a adoção do Machine Learning torne-se tão normal quanto os smartphones são hoje. O Machine Learning passará a fazer parte do kit de ferramentas padrão de um desenvolvedor, inicialmente melhorando os processos existentes e reinventando-os.

As conseqüências de segunda ordem do Machine Learning irá exceder o seu impacto imediato. A Deep Learning melhorou a visão dos computadores, por exemplo, até o ponto em que veículos autônomos (carros e caminhões) são viáveis. Mas qual será o seu impacto? Hoje, 90% das pessoas e 80% da carga são transportadas via estradas no Reino Unido. Os veículos autônomos, sozinhos, vão trazer os seguintes impactos:

  • Segurança (90% dos acidentes são causados por falta de atenção do condutor)
  • Emprego (2,2 milhões de pessoas trabalham no setor de transporte e logística no Reino Unido, recebendo um salário anual estimado em 57 bilhões libras esterlinas)
  • Seguros (Pesquisas prevêem no Reino Unido uma queda de 63% nos prêmios de seguro de automóvel ao longo do tempo)
  • Setores da Economia (Os consumidores preferem usar serviços sob demanda de transporte do que ter um veículo próprio);
  • Produção de veículos; planejamento urbano; regulação e muito mais.

4. Por que a AI está se tornando popular hoje?

A pesquisa da AI começou na década de 1950 depois de repetidas falsas alvoradas. E por que agora é o ponto de inflexão? A eficácia da AI tem se transformado nos últimos anos devido ao desenvolvimento de novos algoritmos, maior disponibilidade de dados para informá-los, melhor hardware para treiná-los e serviços baseados na nuvem para catalisar sua adoção entre os desenvolvedores. Vamos descrever cada um destes tópicos abaixo.

1. Algoritmos melhorados

Embora a Deep Learning não seja nova , as especificações para a primeira rede neural eficaz e multi-camada foram publicadas em 1965, as evoluções nos algoritmos de Deep Learning durante a última década transformaram os resultados.

A nossa capacidade para reconhecer objetos dentro de imagens foi transformada (Figura 9, a seguir) através do desenvolvimento de redes neurais convolucionais (convolutional neural networks — CNN). Em um projeto inspirado nos córtices visuais dos animais, cada camada na rede neural atua como um filtro para a presença de um padrão específico. Em 2015, o sistema de visão por computador baseado na CNN da Microsoft identificou objetos em imagens com mais eficiência (95,1% de precisão) do que os humanos (94,9% de precisão). “Nosso resultado é o primeiro a superar o nível de desempenho humano”, comentaram executivos. Aplicações mais amplas de CNNs incluem vídeo e reconhecimento de fala.

O progresso na fala e reconhecimento da escrita, por sua vez, está melhorando rapidamente (Figura 10, abaixo) na sequência da criação de redes neurais recorrentes (recurrent neural networks — RNNs). RNNs têm conexões de feedback que permitem que os dados fluam em um loop, ao contrário das redes neurais convencionais. Um novo e poderoso tipo de RNN é o modelo de ‘Long Short-Term Memory’ (LSTM). Com conexões adicionais e células de memória, os RNNs ‘lembram’ os dados vistos a milhares de passos atrás e usam isso para interpretar os próximos passos — valioso para reconhecimento de fala onde a interpretação da próxima palavra será informada pelas palavras que a precederam. A partir de 2012, o Google usou LSTMs para alimentar o sistema de reconhecimento de fala no Android. Seis semanas atrás, engenheiros da Microsoft informaram que seu sistema atingiu uma taxa de erro de palavras de 5,9% — pela primeira vez na história um valor aproximadamente igual ao das habilidades humanas.

2. Hardware especializado

Unidades de Processamento Gráfico (Graphical Processing Units — GPUs) são circuitos eletrônicos especializados que estão reduzindo o tempo necessário para treinar redes neurais utilizadas na Deep Learning.

As GPUs modernas foram originalmente desenvolvidas no final da década de 1990 para acelerar os jogos 3D e as aplicações de desenvolvimento 3D. Panning ou zoom de câmeras em ambientes 3D também fazem uso repetido de um processo matemático chamado computação matricial. Microprocessadores com arquiteturas seriais, incluindo os CPUs que alimentam os computadores de hoje, são inadequados para a tarefa. As GPUs foram desenvolvidas com arquiteturas massivamente paralelas (a Nvidia M40 possui 3.072 núcleos) para realizar cálculos de matriz de forma eficiente.

O treinamento de uma rede neural faz uso extensivo de computações matriciais. Com os sistemas estressados para máxima performance, as GPU’s para jogos 3D eram bem servidas para acelerar a Deep Learning. Uma GPU simples pode oferecer uma melhoria de 5x no tempo de treinamento para uma rede neural enquanto ganhos de 10x ou muito mais são possíveis em problemas maiores. É por isso que vemos empresas como Nvidia, pioneira nessa tecnologia, entrar no mercado de veículos autônomos. Quando combinados com kits de desenvolvimento de software ajustados para frameworks de Deep Learning amplamente utilizados, as melhorias na velocidade de treinamento podem ser ainda maiores (Figura 11, abaixo).

3. Dados extensivos

As redes neurais usadas para a Deep Learning requerem tipicamente grandes conjuntos de dados para treinamento, de alguns milhares de exemplos a muitos milhões. Felizmente, a criação e disponibilidade de dados cresceu exponencialmente. Hoje enquanto entramos na “terceira onda” de dados, a humanidade produz 2,2 exabytes (2.300 milhões de gigabytes) de dados todos os dias; 90% dos dados do mundo foram criados nos últimos 24 meses.

A “primeira onda” de criação de dados, que começou na década de 1980 e envolveu a criação de documentos e dados transacionais, foi catalisada pela proliferação de PCs desktops conectados à Internet. Para isso, seguiu-se uma “segunda onda” de dados — uma explosão de mídia não estruturada (e-mails, fotos, músicas e vídeos), dados da web e meta-dados resultantes de smartphones. Hoje estamos entrando na “terceira idade” de dados, em que os sensores de máquinas implantados na indústria e em casa criam monitoramento adicional, analítico e de meta-dados.

Muitos dados criados hoje são transmitidos através da Internet para o nosso próprio uso, o tráfego exponencial da internet serve como um proxy para o enorme aumento na produção de dados da humanidade. Enquanto em 1992 transferimos 100GB de dados por dia, até 2020 vamos transferir 61.000GB por segundo (Figura 12, abaixo — observe a escala logarítmica).

Além dos aumentos na disponibilidade de dados em geral, recursos em dados especializados catalisaram o progresso do Machine Learning. A ImageNet, por exemplo, é um banco de dados disponível com mais de 10 milhões de imagens rotuladas manualmente. Sua presença tem apoiado o rápido desenvolvimento de algoritmos de Deep Learning na classificação de objetos.

4. Serviços em nuvem (Cloud Services)

O uso de Machine Learning por parte dos desenvolvedores está sendo catalisado pela provisão de infra-estrutura baseada em nuvem e serviços de provedores de nuvem líderes da indústria.

Google, Amazon, Microsoft e IBM oferecem infra-estrutura na nuvem(ambientes para a construção de modelos e iteração, ‘GPUs-as-a-service escaláveis” e serviços relacionados) para reduzir o custo e a dificuldade de desenvolver aplicações de Machine Learning.

Além disso, eles oferecem uma gama crescente de serviços de Machine Learning baseados em nuvem (de reconhecimento de imagem até para a tradução de línguas) que os programadores podem utilizar diretamente em suas próprias aplicações. O Google Machine Learning oferece serviços de fácil acesso para: visão (identificação de objetos, detecção de conteúdo explícito, detecção de rosto e análise de sentimento de imagem), fala (reconhecimento de fala e fala para texto), análise de texto (reconhecimento de entidade, análise de sentimento, detecção de linguagem e tradução) e pesquisa de empregos (aperfeiçoamento das vagas de emprego e matchmaking por senioridade). A Microsoft tem mais de 21 serviços em seu portfólio de serviços cognitivos nos campos da visão, fala, linguagem, conhecimento e pesquisa.

5. Interesse e empreendedorismo

O interesse do público em AI aumentou seis vezes nos últimos cinco anos (Figura 13, abaixo), com um aumento ainda maior no número de investimentos em empresas de IA por empresas de capital de risco (Figura 14, abaixo). Nós entramos em um círculo virtuoso, em que o progresso em Machine Learning está atraindo o investimento, o empreendimento e a consciência. Estes últimos, por sua vez, estão catalisando novos progressos.

5. O que acontece depois?

Os benefícios do Machine Learning serão numerosos e significativos. Muitos serão visíveis, de veículos autônomos a novos métodos de interação homem-computador. Muitos serão menos aparentes, mas permitirão processos empresariais e serviços ao consumidor mais eficientes.

Como acontece com qualquer mudança de paradigma, às vezes as expectativas inflacionadas excederão o potencial de curto prazo. Esperamos um período de desilusão em relação à IA em algum momento no futuro, a ser seguido por um reconhecimento mais longo e duradouro do seu valor à medida que o Machine Learning é utilizado para melhorar e depois re-imaginar os sistemas existentes.

Historicamente, as revoluções industriais transformaram a produção e a comunicação através de novas fontes de poder e transmissão. A primeira revolução industrial usou a força do vapor para mecanizar a produção na década de 1780. O segundo usou a eletricidade para dirigir a produção em massa em 1870. O terceiro usou a eletrônica e o software para automatizar a produção e a comunicação dos anos 70. Hoje, como o software está dominando o mundo, a nossa principal fonte de criação de valor é o processamento da informação. Ao permitir-nos fazê-lo de forma mais inteligente, o Machine Learning produzirá benefícios tanto humildes como históricos.

Estaremos publicando mais informações sobre capital de risco e inteligência artificial. Para não perder, Inscreva-se no nosso blog.

Para acessar um mapa com 226 startups de AI na Inglaterra e as tendências que estão transformando o mercado, entre neste post.

Se você é um empreendedor de AI, Entre em contato.

A autoria deste Medium é de David Kelnar:

Foi traduzido do inglês para o português por mim. Caso encontrem algum erro, fico grato se puderem colaborar.

A quarta revolução industrial: uma cartilha sobre Inteligência Artificial (IA)