    <link href="/wiki/assets/css/bootstrap.min.css" rel="stylesheet">
    <!-- Style -->
    <link rel="stylesheet" href="/wiki/assets/css/css_navbar_footer_extern.css" />
    <!-- Fonte -->
    <link rel="stylesheet" href="https://cdnjs.cloudflare.com/ajax/libs/font-awesome/4.7.0/css/font-awesome.min.css">

<!--Start of Zopim Live Chat Script-->
<script type="text/javascript">
window.$zopim||(function(d,s){var z=$zopim=function(c){z._.push(c)},$=z.s=
d.createElement(s),e=d.getElementsByTagName(s)[0];z.set=function(o){z.set.
_.push(o)};z._=[];z.set._=[];$.async=!0;$.setAttribute('charset','utf-8');
$.src='//v2.zopim.com/?2p0OXSMn0fVErlZdfgxoQRvoF0rpzzPi';z.t=+new Date;$.
type='text/javascript';e.parentNode.insertBefore($,e)})(document,'script');
</script>
<!--End of Zopim Live Chat Script-->

<!--<link rel="stylesheet" href="/wiki/popup/popup-style.min.css">
<script src="/wiki/popup/popup.min.js"></script>-->

<script type="text/javascript" src="https://cdnjs.cloudflare.com/ajax/libs/mathjax/2.7.1/MathJax.js?config=TeX-AMS-MML_HTMLorMML"></script>

<!-- Global site tag (gtag.js) - Google Analytics -->
<script async src="https://www.googletagmanager.com/gtag/js?id=G-G40D34JRZX"></script>
<script>
  window.dataLayer = window.dataLayer || [];
  function gtag(){dataLayer.push(arguments);}
  gtag('js', new Date());

  gtag('config', 'G-G40D34JRZX');
</script>

<script src="https://cdn.onesignal.com/sdks/OneSignalSDK.js" defer></script>
<script>
  window.OneSignal = window.OneSignal || [];
  OneSignal.push(function() {
    OneSignal.init({
      appId: "1c48ff12-b33d-431a-93ed-1ef3e7455555",
    });
  });
</script>

﻿<?xml version="1.0"?>
<?xml-stylesheet type="text/css" href="https://wikiciencias.casadasciencias.org/wiki/skins/common/feed.css?303"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="pt">
		<id>https://wikiciencias.casadasciencias.org/wiki/index.php?action=history&amp;feed=atom&amp;title=Intelig%C3%AAncia_Artificial</id>
		<title>Inteligência Artificial - História de revisão</title>
		<link rel="self" type="application/atom+xml" href="https://wikiciencias.casadasciencias.org/wiki/index.php?action=history&amp;feed=atom&amp;title=Intelig%C3%AAncia_Artificial"/>
		<link rel="alternate" type="text/html" href="https://wikiciencias.casadasciencias.org/wiki/index.php?title=Intelig%C3%AAncia_Artificial&amp;action=history"/>
		<updated>2026-05-02T07:06:54Z</updated>
		<subtitle>Histórico de edições para esta página nesta wiki</subtitle>
		<generator>MediaWiki 1.21.1</generator>

	<entry>
		<id>https://wikiciencias.casadasciencias.org/wiki/index.php?title=Intelig%C3%AAncia_Artificial&amp;diff=29446&amp;oldid=prev</id>
		<title>Admin: Criou nova página com '&lt;span style=&quot;font-size:8pt&quot;&gt;&lt;b&gt;Referência : &lt;/b&gt; Vinagre, J., Moniz, N., (2020) ''Inteligência Artificial'', [https://rce.casadasciencias.org Rev. Ciência Elem.], V8(4...'</title>
		<link rel="alternate" type="text/html" href="https://wikiciencias.casadasciencias.org/wiki/index.php?title=Intelig%C3%AAncia_Artificial&amp;diff=29446&amp;oldid=prev"/>
				<updated>2020-12-18T15:44:39Z</updated>
		
		<summary type="html">&lt;p&gt;Criou nova página com &amp;#039;&amp;lt;span style=&amp;quot;font-size:8pt&amp;quot;&amp;gt;&amp;lt;b&amp;gt;Referência : &amp;lt;/b&amp;gt; Vinagre, J., Moniz, N., (2020) &amp;#039;&amp;#039;Inteligência Artificial&amp;#039;&amp;#039;, [https://rce.casadasciencias.org Rev. Ciência Elem.], V8(4...&amp;#039;&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Nova página&lt;/b&gt;&lt;/p&gt;&lt;div&gt;&amp;lt;span style=&amp;quot;font-size:8pt&amp;quot;&amp;gt;&amp;lt;b&amp;gt;Referência : &amp;lt;/b&amp;gt; Vinagre, J., Moniz, N., (2020) ''Inteligência Artificial'', [https://rce.casadasciencias.org Rev. Ciência Elem.], V8(4):052&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;span style=&amp;quot;font-size:8pt&amp;quot;&amp;gt;&amp;lt;b&amp;gt;Autor&amp;lt;/b&amp;gt;: &amp;lt;i&amp;gt;João Vinagre e Nuno Moniz&amp;lt;/i&amp;gt;&amp;lt;/span&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;span style=&amp;quot;font-size:8pt&amp;quot;&amp;gt;&amp;lt;span style=&amp;quot;font-size:8pt&amp;quot;&amp;gt;&amp;lt;b&amp;gt;Editor&amp;lt;/b&amp;gt;: &amp;lt;i&amp;gt;[[Usu&amp;amp;aacute;rio:Jfgomes47|José Ferreira Gomes]]&amp;lt;/i&amp;gt;&amp;lt;/span&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;span style=&amp;quot;font-size:8pt&amp;quot;&amp;gt;&amp;lt;b&amp;gt;DOI&amp;lt;/b&amp;gt;: &amp;lt;i&amp;gt;[[https://doi.org/10.24927/rce2020.052 https://doi.org/10.24927/rce2020.052]]&amp;lt;/i&amp;gt;&amp;lt;/span&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;html&amp;gt;&amp;lt;a href=&amp;quot;https://rce.casadasciencias.org/rceapp/static/docs/artigos/2020-052.pdf&amp;quot; target=&amp;quot;_blank&amp;quot;&amp;gt;&lt;br /&gt;
                &amp;lt;img src=&amp;quot;https://rce.casadasciencias.org/static/images/layout/pdf.png&amp;quot; alt=&amp;quot;PDF Download&amp;quot;&amp;gt;&amp;lt;/a&amp;gt;&amp;lt;/html&amp;gt;&lt;br /&gt;
----&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
A “revolução tecnológica” da Inteligência Artificial está em curso e, nos últimos anos, técnicos especialistas, decisores políticos, comunicação social e opinião pública têm acalentado o debate sobre onde nos poderá levar. No entanto, esse debate peca por, recorrentemente, partir de premissas falsas, ou, pelo menos, de pressupostos improváveis. O problema no entendimento e discussão do que é a Inteligência Artificial, o seu estado atual e a perspetiva de futuro tem várias origens, para o qual concorre o imaginário de obras de ficção e do marketing, exercícios de futurismo e aproveitamento comercial ou político, assim como da falta de informação geral sobre o tema. Frequentemente, são apresentados cenários altamente improváveis, e até mesmo fantasiosos, sobre a evolução da Inteligência Artificial que, percecionados como verdadeiros ou prováveis, constroem uma narrativa e entendimento do tema falaciosos. Pretendemos, com este artigo, abordar o tema da Inteligência Artificial, contribuindo para uma discussão profícua em torno do seu potencial, da sua atualidade e do seu futuro, assim como dos seus riscos.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;html&amp;gt;&lt;br /&gt;
&amp;lt;p class='mainText'&amp;gt;&amp;lt;strong&amp;gt;O problema da definição&amp;lt;/strong&amp;gt;&amp;lt;/p&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;p class='mainText'&amp;gt;Em 1950, Alan Turing, o criador do modelo matemático em que assentam todos os dispositivos&lt;br /&gt;
computacionais atuais, publicou um artigo&amp;lt;/html&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;html&amp;gt;TURING, ALAN M.&lt;br /&gt;
&amp;lt;em&amp;gt;&amp;lt;a class=&amp;quot;a-link&amp;quot; target=&amp;quot;_blank&amp;quot;&lt;br /&gt;
                href=&amp;quot;https://www.csee.umbc.edu/courses/471/papers/turing.pdf&amp;quot;&amp;gt;Computing machinery and intelligence&amp;lt;/a&amp;gt;&amp;lt;/em&amp;gt;, &amp;lt;em&amp;gt;Mind&amp;lt;/em&amp;gt;, 59, 433-60. 1950.&amp;lt;/html&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;html&amp;gt; que partia da seguinte questão: “&amp;lt;em&amp;gt;Podem&lt;br /&gt;
as máquinas pensar?&amp;lt;/em&amp;gt;”. Logo no primeiro parágrafo, Turing coloca o problema: para podermos&lt;br /&gt;
responder à questão sobre se as máquinas pensam, temos primeiro que definir os&lt;br /&gt;
conceitos de “máquina” e de “pensar”, o que não é fácil. Assim, e de forma a contornar o&lt;br /&gt;
problema da definição conceptual, Turing substitui a sua questão por um jogo, o “Jogo da&lt;br /&gt;
Imitação”. O objetivo é o de uma máquina tornar-se indistinguível de um ser humano numa&lt;br /&gt;
sequência de perguntas e respostas (por escrito). Caso o avaliador humano não seja capaz&lt;br /&gt;
de afirmar se está a conversar com uma máquina, poder-se-ia deduzir que a máquina é&lt;br /&gt;
uma entidade inteligente.&amp;lt;/p&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;p class='mainText'&amp;gt;O problema na definição do que é Inteligência Artificial (IA) é precisamente o mesmo,&lt;br /&gt;
vindo, desde logo, da definição individual dos dois conceitos que a compõem: “inteligência”&lt;br /&gt;
e “artificial”. Estas definições não são consensuais, e variam razoavelmente conforme&lt;br /&gt;
a área de estudo, e mesmo dentro da mesma área de estudo. Por exemplo, Stephen&lt;br /&gt;
Hawking definiu inteligência como “&amp;lt;em&amp;gt;a capacidade de adaptação à mudança&amp;lt;/em&amp;gt;”. Mas sem uma contextualização mais rigorosa, havendo plantas e microorganismos que se adaptam com&lt;br /&gt;
sucesso a mudanças nunca experienciadas por eles, será que os podemos considerar inteligentes?&lt;br /&gt;
O mesmo acontece com o conceito de “artificial”. Tipicamente, pensamos que&lt;br /&gt;
algo é artificial se é fabricado pelo ser humano e não pode ser produzido exclusivamente&lt;br /&gt;
por processos naturais, sem intervenção humana. Ainda assim, é debatível se a ovelha&lt;br /&gt;
Dolly foi natural ou artificial, uma vez que, por um lado, foi clonada por humanos a partir&lt;br /&gt;
de uma ovelha “natural”, por outro, não apresenta quaisquer diferenças intrínsecas relativamente&lt;br /&gt;
a ovelhas “naturais”. Com isto queremos deixar claro que, logo à partida, no que&lt;br /&gt;
diz respeito à própria definição do significado de IA, existe uma grande discussão sobre&lt;br /&gt;
como definir inteligência e artificialidade; mais importante para este artigo, existem múltiplas&lt;br /&gt;
zonas cinzentas, o que torna extremamente complicado uma definição popular (no&lt;br /&gt;
sentido do público em geral). Para ilustrar esta questão, mencionamos o trabalho da &amp;lt;em&amp;gt;AGI&lt;br /&gt;
Sentinel Initiative&amp;lt;/em&amp;gt;, que fez um levantamento&amp;lt;/html&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;html&amp;gt;MONETT, D., &amp;amp; LEWIS, C. W.&lt;br /&gt;
&amp;lt;em&amp;gt;&amp;lt;a class=&amp;quot;a-link&amp;quot; target=&amp;quot;_blank&amp;quot;&lt;br /&gt;
                href=&amp;quot;https://philpapers.org/rec/LEWGCB&amp;quot;&amp;gt;Getting clarity by defining artificial intelligence—a survey&amp;lt;/a&amp;gt;&amp;lt;/em&amp;gt;, In 3rd conference on” philosophy&lt;br /&gt;
and theory of artificial intelligence. &amp;lt;em&amp;gt;Springer, Cham&amp;lt;/em&amp;gt;. 212-214. 2017.&amp;lt;/html&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;html&amp;gt; de definições existentes de IA e Inteligência&lt;br /&gt;
Humana.&amp;lt;/p&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;p class='mainText'&amp;gt;Mas, voltando à questão de Turing, será que podemos “fugir” à questão semântica com&lt;br /&gt;
um jogo? Talvez, mas não com o mesmo jogo. Na verdade, o que o Jogo da Imitação permite&lt;br /&gt;
avaliar é se uma máquina consegue simular as respostas de um ser humano, ou seja,&lt;br /&gt;
se o consegue imitar. No entanto, na maioria das aplicações atuais de IA, este pressuposto&lt;br /&gt;
não é aplicável. O que se pretende com a IA é complementar ou, no máximo, aumentar a&lt;br /&gt;
inteligência (ou capacidade) humana, e não substituí-la. Se de um ponto de vista filosófico&lt;br /&gt;
a comparação da IA à Inteligência Humana é muito interessante, para a finalidade&lt;br /&gt;
deste artigo, o jogo de Turing não é muito útil. Assim, cientes de que, pelas razões acima,&lt;br /&gt;
qualquer definição de IA é debatível, e que o seu estudo inclui também a procura da sua&lt;br /&gt;
definição, neste artigo adotamos uma definição tradicional: IA é a capacidade de máquinas,&lt;br /&gt;
isoladamente ou em conjunto, e com o mínimo de intervenção humana, planearem e&lt;br /&gt;
executarem tarefas num vasto número de ambientes/problemas.&amp;lt;/p&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;p class='mainText'&amp;gt;Com uma postura crítica - a que a pertença aos esforços de estudo do próprio tema&lt;br /&gt;
permite - neste artigo propomos fazer uma análise sobre o conceito e as capacidades de&lt;br /&gt;
IA, olhando para a sua atualidade, os seus riscos, e o futuro próximo. Em cada uma destas&lt;br /&gt;
partes, não nos propomos a enumerar extensiva ou pormenorizadamente cada dimensão&lt;br /&gt;
do estudo de IA. O que propomos é a análise de um conjunto de tópicos que reúnem&lt;br /&gt;
alargado interesse em termos de investigação atual e que, na nossa opinião, poderão ser&lt;br /&gt;
cruciais para o desenvolvimento da IA. Neste sentido, o nosso objetivo é possibilitar uma&lt;br /&gt;
intervenção mais alargada sobre este tema, ao potenciar a interseção da experiência e&lt;br /&gt;
conhecimento de múltiplos domínios científicos nesta discussão.&amp;lt;/p&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;p class='mainText'&amp;gt;&amp;lt;strong&amp;gt;Atualidade: Aprendizagem automática não é um canivete Suíço&amp;lt;/strong&amp;gt;&amp;lt;/p&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;p class='mainText'&amp;gt;Com a proposta do Jogo da Imitação, Turing foi dos primeiros a colocar a possibilidade&lt;br /&gt;
das máquinas poderem aprender, algo que até então só era visto como possível aos seres&lt;br /&gt;
humanos e a alguns animais. E a essa proposta podemos ligar os avanços mais recentes da&lt;br /&gt;
IA, sendo que neste artigo focamo-nos na área de Aprendizagem Automática (ML, do inglês&lt;br /&gt;
&amp;lt;em&amp;gt;Machine Learning&amp;lt;/em&amp;gt;). Esta área alterou a forma como utilizamos os sistemas computacionais.&lt;br /&gt;
No paradigma computacional tradicional, o que tipicamente queremos fazer é dar&lt;br /&gt;
ao computador um programa (um encadeamento de funções ou regras de processamento)&lt;br /&gt;
e dados de &amp;lt;em&amp;gt;input&amp;lt;/em&amp;gt;. O computador irá correr o programa, processando o &amp;lt;em&amp;gt;input&amp;lt;/em&amp;gt; e produzindo um &amp;lt;em&amp;gt;output&amp;lt;/em&amp;gt;. Essencialmente, criamos processos cujo funcionamento é definido por nós, ou&lt;br /&gt;
recriamos processos cujo funcionamento conhecemos bem. No paradigma de ML, o que&lt;br /&gt;
pretendemos fazer é modelar processos que podemos observar, mas que são demasiado&lt;br /&gt;
complexos para os conseguirmos recriar, de forma fidedigna, com um programa. O que damos&lt;br /&gt;
ao computador é um conjunto, normalmente muito grande, de dados de &amp;lt;em&amp;gt;input&amp;lt;/em&amp;gt; e &amp;lt;em&amp;gt;output&amp;lt;/em&amp;gt;&lt;br /&gt;
que observamos nesses processos. Damos também um algoritmo que analisa estes dados&lt;br /&gt;
e “aprende” um modelo, que não é mais do que o encadeamento de regras e funções que&lt;br /&gt;
transformam o &amp;lt;em&amp;gt;input&amp;lt;/em&amp;gt; no &amp;lt;em&amp;gt;output&amp;lt;/em&amp;gt; de forma muito semelhante ao processo que observámos.&lt;br /&gt;
A questão que se poderá colocar imediatamente é: para que serve isto? A resposta é que&lt;br /&gt;
passamos a ter a hipótese de modelar computacionalmente fenómenos potencialmente&lt;br /&gt;
muito complexos, desde que sejam observáveis. Com modelos obtidos desta forma, podemos&lt;br /&gt;
prever o estado do tempo com grande exatidão, melhorar processos industriais&lt;br /&gt;
ou modelar organismos vivos e inteligentes, podendo prever, por exemplo, os efeitos de&lt;br /&gt;
medicamentos ou obter uma sugestão de que filme ver hoje à noite sem necessidade de o&lt;br /&gt;
escolher entre centenas num catálogo.&amp;lt;/p&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;p class='mainText'&amp;gt;Com o crescente conhecimento e capacidade dos métodos de ML, surge também uma&lt;br /&gt;
corrente de expectativas em relação ao que (no geral) a IA poderá alcançar. Tais expectativas&lt;br /&gt;
são alimentadas de uma maneira constante e mediatizada, principalmente através&lt;br /&gt;
de operações de marketing comercial e de comunicação das indústrias que adotam ou desenvolvem&lt;br /&gt;
ferramentas nesta área. Naturalmente, a componente mediática de tal comunicação&lt;br /&gt;
leva, invariavelmente, a algum exagero de competências da IA e dos sistemas computacionais&lt;br /&gt;
nos dias de hoje. Esta crítica não é, de maneira nenhuma, nova, contando com&lt;br /&gt;
descrições pormenorizadas de como a “corrida ao ouro” da IA levou a subprodutos com sérias&lt;br /&gt;
implicações para terceiros (humanos), ou como o ciclo silencioso de proposta, adopção,&lt;br /&gt;
discrepância entre performance laboratorial e real, e (por fim) descartamento, opera&amp;lt;/html&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;html&amp;gt;MARCUS, G., &amp;amp; DAVIS, E.&lt;br /&gt;
&amp;lt;em&amp;gt;Rebooting AI: Building artificial intelligence we can trust&amp;lt;/em&amp;gt;, Vintage. 2019.&amp;lt;/html&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;html&amp;gt;&amp;lt;sup&amp;gt;,&amp;lt;/sup&amp;gt; &amp;lt;/html&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;html&amp;gt; O’NEIL, C.&lt;br /&gt;
&amp;lt;em&amp;gt;Weapons of math destruction: How big data increases inequality and threatens democracy&amp;lt;/em&amp;gt;, Broadway&lt;br /&gt;
Books. 2016.&amp;lt;/html&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;html&amp;gt;.&amp;lt;/p&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;p class='mainText'&amp;gt;Queremos, no entanto, referir-nos a um episódio específico. Este é uma importante demonstração,&lt;br /&gt;
porque revela os dois lados da mesma moeda do jogo mediático à volta dos&lt;br /&gt;
desenvolvimentos e capacidades da IA. Em Setembro de 2020 foi publicado um texto no&lt;br /&gt;
jornal The Guardian, redigido (alegadamente) por um modelo de Processamento de Linguagem&lt;br /&gt;
Natural - denominado GPT-3&amp;lt;/html&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;html&amp;gt;BROWN, T. &amp;lt;em&amp;gt;et al.&amp;lt;/em&amp;gt;&lt;br /&gt;
&amp;lt;em&amp;gt;&amp;lt;a class=&amp;quot;a-link&amp;quot; target=&amp;quot;_blank&amp;quot;&lt;br /&gt;
                href=&amp;quot;https://arxiv.org/abs/2005.14165&amp;quot;&amp;gt;Language models are few-shot learners&amp;lt;/a&amp;gt;&amp;lt;/em&amp;gt;, 2012.&amp;lt;/html&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;html&amp;gt; - que dificilmente pode ser distinguido de um texto&lt;br /&gt;
escrito por um ser humano - sendo, porventura, um candidato a passar no Jogo da Imitação.&lt;br /&gt;
Porém, e mesmo representando um avanço impressionante no estado da arte, após&lt;br /&gt;
uma leitura cuidadosa do texto em causa percebemos que este foi, na verdade, escolhido&lt;br /&gt;
entre vários outros textos produzidos pelo sistema e, posteriormente, editado ainda por&lt;br /&gt;
jornalistas. Este é um exemplo de como a capacidade da IA de hoje é exacerbada, levando&lt;br /&gt;
a conclusões infundadas sobre a superioridade desta em relação a humanos em algumas&lt;br /&gt;
tarefas como a deteção e identificação de objetos em imagens e vídeos.&amp;lt;/p&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;p class='mainText'&amp;gt;Como ilustração dos exageros sobre as capacidades da IA nos próximos anos, avançamos&lt;br /&gt;
a seguir com alguns dos cenários que são frequentemente apontados como possíveis,&lt;br /&gt;
tentando mostrar por que são irrealistas.&amp;lt;/p&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;p class='mainText'&amp;gt;&amp;lt;strong&amp;gt;Futuro: Cenários pouco prováveis&amp;lt;/strong&amp;gt;&amp;lt;/p&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;p class='mainText'&amp;gt;Até há poucos anos atrás, a IA ainda era vista como futurismo ou ficção científica. Autores&lt;br /&gt;
como Philip K. Dick, William Gibson e Bruce Sterling exploraram literariamente o tema&lt;br /&gt;
(entre outros também relacionados com tecnologia) desde o final dos anos 60, em paralelo com o aumento da investigação científica na área. Desde a criação deste imaginário distópico&lt;br /&gt;
- o ciberpunk - na literatura de ficção, surgiram as adaptações e variantes no cinema&lt;br /&gt;
(Blade Runner, Exterminador Implacável, The Matrix, I-Robot, AI, Minority Report) e, mais&lt;br /&gt;
recentemente, na televisão (Person of Interest, Altered Carbon). Em todas estas obras,&lt;br /&gt;
encontramos, de forma mais ou menos explícita, o dilema ético e social de como encarar e&lt;br /&gt;
lidar com máquinas tão ou mais inteligentes que o seu criador, o ser humano. Hoje, várias&lt;br /&gt;
décadas depois do artigo de Turing e de um enorme avanço científico na área, grande parte&lt;br /&gt;
dos impactos da massificação da IA na sociedade continuam incertos e, nesse aspeto,&lt;br /&gt;
curiosamente, a maioria das questões éticas e sociais levantadas pelos autores de ficção&lt;br /&gt;
continuam atuais. No entanto, também têm levado à discussão de vários cenários futuristas,&lt;br /&gt;
mas pouco realistas, sobre a nossa dependência na IA, num futuro mais ou menos&lt;br /&gt;
próximo. Falamos aqui de alguns, a título exemplificativo.&amp;lt;/p&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;p class='mainText'&amp;gt;O primeiro cenário será aquele em que simplesmente delegamos à IA controlo sobre&lt;br /&gt;
muitos aspetos críticos na nossa vida, ao ponto de dependermos dela para sobreviver.&lt;br /&gt;
Este cenário poderá parecer assustador para muitos, mas tem alguma ligação ao cenário&lt;br /&gt;
atual. Hoje em dia, as economias mais desenvolvidas dependem em grande medida da IA&lt;br /&gt;
em algumas atividades críticas. Podemos dizer com alguma segurança que caso toda a&lt;br /&gt;
IA subitamente deixasse de funcionar, haveria perda de vidas. Além deste aspeto crítico,&lt;br /&gt;
também não é negligenciável o nosso uso quotidiano, em particular o inerente ao uso de&lt;br /&gt;
smartphones, de sistemas inteligentes para entretenimento e organização pessoal. Esta&lt;br /&gt;
interação com sistemas de IA alterou, sobretudo na última década, os nossos estilos de&lt;br /&gt;
vida, padrões de consumo e até a forma como pensamos e olhamos o mundo. No entanto,&lt;br /&gt;
verificamos que estes sistemas estão totalmente sob o controlo de seres humanos. Portanto,&lt;br /&gt;
mais do que encarar este cenário como uma catástrofe, é importante centrar a questão&lt;br /&gt;
em quem controla a tecnologia e quanto das nossas vidas lhe(s) estamos a confiar,&lt;br /&gt;
indiretamente, através da IA. Adicionalmente, este cenário implica, não só uma maior dependência,&lt;br /&gt;
mas também uma entrega de soberania. Ou seja, existe um lado político neste&lt;br /&gt;
cenário que é recorrentemente ignorado ou preterido ao enfoque tecnológico. Este cenário&lt;br /&gt;
é a negação da política.&amp;lt;/p&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;p class='mainText'&amp;gt;Outro cenário, mais catastrofista, é aquele em que uma IA adquire capacidade de manipular&lt;br /&gt;
o mundo superior à do ser humano e, simultaneamente, a intenção de o fazer -&lt;br /&gt;
a chamada Singularidade. Neste caso, os humanos serão eventualmente subjugados, ou&lt;br /&gt;
mesmo eliminados, pela IA. Este cenário, apesar de ser muito útil (e ainda bem) a escritores&lt;br /&gt;
e argumentistas de ficção, é extremamente improvável nas próximas décadas.&lt;br /&gt;
Para se concretizar, será necessário que a IA adquira capacidade e vontade de dominar o&lt;br /&gt;
mundo. Se estamos ainda longe de a IA ter uma capacidade hegemónica, devido a várias&lt;br /&gt;
limitações tecnológicas que demorarão décadas a ultrapassar, a questão da vontade, não&lt;br /&gt;
sendo impossível, é ainda mais questionável, porque pressupõe a existência consciência&lt;br /&gt;
nas máquinas, algo que ainda não se vislumbra verdadeiramente, dadas as suas limitações&lt;br /&gt;
fundamentais. Estamos portanto no domínio da pura especulação. A boa notícia é que temos&lt;br /&gt;
ainda muito tempo para para nos entretermos com boa ficção científica, sem termos&lt;br /&gt;
que nos preocupar muito com qualquer catástrofe real associada a este cenário.&amp;lt;/p&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;p class='mainText'&amp;gt;Um cenário mais recente, muito referido, por exemplo, nos livros de Yuval Harari&amp;lt;/html&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;html&amp;gt;HARARI, Y. N.&lt;br /&gt;
&amp;lt;em&amp;gt;Homo Deus: A brief history of tomorrow&amp;lt;/em&amp;gt;, Random House. 2016.&amp;lt;/html&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;html&amp;gt;, prevê&lt;br /&gt;
que o ser humano aumente a sua própria capacidade, fundindo-se orgânica e intricadamente&lt;br /&gt;
com a tecnologia, ao ponto de evoluir para uma espécie completamente nova, com longevidade, inteligência e omnisciência inimagináveis para o ser humano atual. No que&lt;br /&gt;
diz respeito à longevidade, é evidente que o combate à fome e às doenças tem sido um&lt;br /&gt;
desígnio da humanidade, tendo a esperança de vida aumentado consistentemente desde&lt;br /&gt;
há muitas décadas. Relativamente à omnisciência, as telecomunicações e sistemas de informação&lt;br /&gt;
dão-nos hoje acesso imediato a um número de fontes de informação, em tempo&lt;br /&gt;
real, incalculavelmente superior ao de há apenas 20 anos. A IA já complementa a nossa&lt;br /&gt;
inteligência em inúmeros processos e tarefas muito complexos. Somando isto aos avanços&lt;br /&gt;
nos domínios da biotecnologia, nanotecnologia, e robótica, a aceleração desta evolução&lt;br /&gt;
para um paradigma em que incorporamos a tecnologia, incluindo a IA, no nosso próprio&lt;br /&gt;
organismo, não será um cenário completamente desprovido de suporte. No entanto (felizmente),&lt;br /&gt;
os problemas éticos relacionados com a manipulação de organismos vivos, com&lt;br /&gt;
especial atenção aos seres humanos, estão em permanente debate na sociedade. Como&lt;br /&gt;
consequência, existem, na esmagadora maioria dos países, limitações legais ao que é possível&lt;br /&gt;
fazer. Especificamente na IA, existe na comunidade científica um debate sério e permanente&lt;br /&gt;
sobre as implicações da massificação da IA nas sociedades, existindo mesmo já&lt;br /&gt;
um documento oficial na União Europeia com os princípios éticos da sua aplicação. Para&lt;br /&gt;
já, para além das propostas mediáticas de autopromoção de alguns milionários excêntricos&lt;br /&gt;
e algumas teorias da conspiração, não se conhecem projetos sérios de incorporação&lt;br /&gt;
de interfaces de IA no cérebro humano. Aquilo que sabemos sobre o estado atual da IA é&lt;br /&gt;
que esta não demonstra um nível elevado de confiabilidade em servir como interface com&lt;br /&gt;
o público em geral, principalmente quando fica responsável por decisões que podem ter&lt;br /&gt;
implicações diretas nas vidas das pessoas&amp;lt;/html&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;html&amp;gt;SALGANIK, M. J. &amp;lt;em&amp;gt;et al.&amp;lt;/em&amp;gt;&lt;br /&gt;
&amp;lt;em&amp;gt;&amp;lt;a class=&amp;quot;a-link&amp;quot; target=&amp;quot;_blank&amp;quot;&lt;br /&gt;
                href=&amp;quot;https://www.pnas.org/content/117/15/8398&amp;quot;&amp;gt;Measuring the predictability of life outcomes with a scientific mass collaboration&amp;lt;/a&amp;gt;&amp;lt;/em&amp;gt;, &amp;lt;em&amp;gt;Proceedings&lt;br /&gt;
of the National Academy of Sciences&amp;lt;/em&amp;gt;, 117(15), 8398-8403. 2020.&amp;lt;/html&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;html&amp;gt;. Não obstante, é preciso manter o debate atento&lt;br /&gt;
e informado sobre estes temas, e inevitavelmente ir ajustando os limites legais ao que&lt;br /&gt;
é permitido fazer neste campo, medindo permanentemente os benefícios (por exemplo,&lt;br /&gt;
sistemas sensoriais ou de controlo de próteses mecânicas em pessoas com deficiência) e&lt;br /&gt;
os riscos (de manipulação externa dos sistemas, ou de atribuição de “super-poderes”) da&lt;br /&gt;
incorporação de IA em seres humanos ou outros seres vivos.&amp;lt;/p&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;p class='mainText'&amp;gt;Neste ponto, é importante afirmar que não há qualquer dúvida que os avanços recentes&lt;br /&gt;
na IA levaram a desenvolvimentos impressionantes na área da medicina, telecomunicações,&lt;br /&gt;
indústria automóvel, finanças, etc. Não obstante, a evidência em relação à incapacidade&lt;br /&gt;
de responder a questões simples, mas cruciais para a sua aplicação no mundo real&lt;br /&gt;
(e.g. como um modelo chegou a determinada previsão?) sobressai e sugere que a maturidade&lt;br /&gt;
da tecnologia presente de IA está francamente sobrestimada - pelo menos no que&lt;br /&gt;
diz respeito à sua “inteligência” e a qualquer comparação com inteligência humana. Se, por&lt;br /&gt;
um lado, é hoje possível à IA superar o ser humano em algumas tarefas específicas (ainda&lt;br /&gt;
que complexas), não se vislumbra ainda a possibilidade da mesma IA igualar ou superar o&lt;br /&gt;
ser humano num conjunto alargado de tarefas, simplesmente porque existem demasiados&lt;br /&gt;
constrangimentos tecnológicos para vislumbrar tal cenário a curto prazo. Podemos admitir&lt;br /&gt;
que a IA venha a adquirir capacidades humanas, ou mesmo sobre-humanas, num futuro&lt;br /&gt;
longínquo. Mas este debate, sendo interessante, é muitas vezes feito por antecipação a&lt;br /&gt;
outros que são mais importantes a curto prazo. São estes debates, sobre os riscos da IA a&lt;br /&gt;
curto prazo, a que nos dedicamos na próxima secção.&amp;lt;/p&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;p class='mainText'&amp;gt;&amp;lt;strong&amp;gt;Os Riscos reais da IA&amp;lt;/strong&amp;gt;&amp;lt;/p&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;p class='mainText'&amp;gt;Com a progressiva implementação de sistemas baseados em IA em posições de interface com o mundo real, assim como contextos em que as operações de tais sistemas podem&lt;br /&gt;
ter implicações em pessoas concretas ou grupos de uma sociedade, surgem preocupações&lt;br /&gt;
que cruzam com outras áreas da ciência, como as ciências sociais. Esta é, inclusivamente,&lt;br /&gt;
uma das grandes preocupações na comunidade de IA, sendo por consequência um dos tópicos&lt;br /&gt;
com maior atividade neste momento. Neste artigo, damos destaque a quatro tópicos,&lt;br /&gt;
desenvolvidos nas seguintes subsecções.&amp;lt;/p&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;p class='mainText'&amp;gt;&amp;lt;strong&amp;gt;Transparência&amp;lt;/strong&amp;gt;&amp;lt;/p&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;p class='mainText'&amp;gt;Existe a perceção de que a IA consegue, hoje em dia, superar seres humanos em tarefas&lt;br /&gt;
complexas, ainda que de âmbito muito limitado. Por exemplo, algumas tecnologias mais&lt;br /&gt;
recentes de visão computacional, baseadas em IA, conseguem, em experiências controladas,&lt;br /&gt;
detectar alguns tipos tumores cancerígenos em imagens médicas com uma precisão&lt;br /&gt;
muito elevada, em muitos casos melhor do que a de especialistas muito experientes.&lt;br /&gt;
Mesmo considerando que, no mundo real, conseguirão o mesmo nível de performance - o&lt;br /&gt;
que ainda é cedo para concluir - há um problema ainda mais difícil de resolver. Enquanto&lt;br /&gt;
que uma especialista nos consegue muito facilmente explicar o que vê numa determinada&lt;br /&gt;
imagem, ou debater com colegas pormenores que poderão levar a diferentes decisões de&lt;br /&gt;
diagnóstico ou tratamento, o algoritmo de visão computacional é incapaz de o fazer. Isto&lt;br /&gt;
leva a um aparente paradoxo: a IA poderá até ter maior probabilidade de acertar no diagnóstico,&lt;br /&gt;
mas, mesmo assim, tendemos a confiar mais na especialista, pelo simples facto&lt;br /&gt;
de que ela consegue explicar o que vê. Adicionalmente, é expectável que sistemas de IA&lt;br /&gt;
falhem em casos atípicos, simplesmente porque não foi treinada com tais exemplos - ou&lt;br /&gt;
pelo menos não em número suficiente. O problema da transparência também é óbvio em&lt;br /&gt;
sistemas que poderão ser usados por bancos e seguradoras para definir o perfil de risco&lt;br /&gt;
dos clientes&amp;lt;/html&amp;gt;&amp;lt;ref&amp;gt;&amp;lt;html&amp;gt;O’NEIL, C.&lt;br /&gt;
&amp;lt;em&amp;gt;Weapons of math destruction: How big data increases inequality and threatens democracy&amp;lt;/em&amp;gt;, Broadway&lt;br /&gt;
Books. 2016.&amp;lt;/html&amp;gt;&amp;lt;/ref&amp;gt;&amp;lt;html&amp;gt;. Caso um sistema de IA nos classifique como clientes de alto risco, uma instituição&lt;br /&gt;
financeira poderá negar-nos um crédito ou um seguro de saúde. Um elemento chave&lt;br /&gt;
para determinar se esta decisão é legítima é saber ter uma explicação para o resultado&lt;br /&gt;
que seja, grosso modo, aceitável, algo que é muito difícil de obter da IA, com a agravante&lt;br /&gt;
de que esta explicação se torna mais difícil de produzir à medida que o algoritmo se torna&lt;br /&gt;
mais sofisticado.&amp;lt;/p&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;p class='mainText'&amp;gt;&amp;lt;strong&amp;gt;Privacidade e proteção de dados&amp;lt;/strong&amp;gt;&amp;lt;/p&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;p class='mainText'&amp;gt;As redes sociais tornaram-se, nos últimos anos, extensões naturais da nossa vida, e muitos&lt;br /&gt;
de nós lá colocam fotografias, mensagens, comentários, opiniões. Os serviços de streaming&lt;br /&gt;
de vídeo e música colecionam toda a nossa atividade de forma a poder personalizar&lt;br /&gt;
o serviço, conhecendo por isso todas as nossas preferências musicais, de televisão e de&lt;br /&gt;
cinema. A isto poderemos somar aquilo que os nossos smartphones registam, tal como a&lt;br /&gt;
nossa localização geográfica, os nossos percursos diários, as nossas pesquisas, etc. Indo&lt;br /&gt;
um pouco mais longe, podemos ainda referir os dados que já partilhávamos, fora da internet,&lt;br /&gt;
com muitas entidades, começando pelo próprio Estado, passando pelos prestadores&lt;br /&gt;
de cuidados de saúde, bancos, seguradoras, e terminando nos grupos comerciais (através&lt;br /&gt;
de cartões de crédito e programas de fidelização), que, não sendo facilmente acessíveis,&lt;br /&gt;
estão, de forma geral, digitalizados. Rapidamente chegamos à conclusão que existem micro-&lt;br /&gt;
perfis nossos espalhados por múltiplas entidades ao redor do mundo. Se conseguíssemos&lt;br /&gt;
juntar todos estes micro-perfis, provavelmente ficaríamos surpreendidos com a quantidade enorme de informação que existe sobre nós, incluindo sobre aspetos extremamente&lt;br /&gt;
íntimos e pessoais. Estes dados são recolhidos, de forma geral, com objetivos benignos,&lt;br /&gt;
como a personalização dos serviços que nos são prestados ou a melhoria dos produtos e&lt;br /&gt;
serviços, a um nível geral. No entanto, existem inúmeros exemplos de uso indevido de dados&lt;br /&gt;
pessoais (um caso recente, mas não isolado, foi a manipulação de massas no escândalo&lt;br /&gt;
da Cambridge Analytica ), para além de repetidos casos de roubo de dados em sistemas&lt;br /&gt;
que são comprometidos por piratas informáticos. No limite, estes dados podem ser usados&lt;br /&gt;
por redes criminosas ou terroristas para diversos esquemas fraudulentos, como roubo de&lt;br /&gt;
identidade, fraude financeira, burlas, ou outros fins ainda mais preversos (pedofilia, tráfico&lt;br /&gt;
de seres humanos, etc). Também não será totalmente descabida a hipótese de estes dados&lt;br /&gt;
poderem ser usados para opressão social por estados totalitários, sejam eles atuais&lt;br /&gt;
ou futuros. Os dados pessoais são valiosos e existem mesmo mercados, mais ou menos&lt;br /&gt;
obscuros, em que se transacionam vários tipos de dados pessoais. O problema central&lt;br /&gt;
é que os dados que registamos hoje não desaparecem facilmente, e estarão disponíveis&lt;br /&gt;
num horizonte temporal indeterminado. Nada nos garante que os nossos dados não serão&lt;br /&gt;
usados de forma maliciosa no futuro. A preocupação com privacidade e controlo de dados&lt;br /&gt;
pessoais chegou recentemente à legislação europeia com o Regulamento Geral de Proteção&lt;br /&gt;
de Dados (RGPD), que regula todas as atividades que envolvem recolha, transmissão&lt;br /&gt;
e processamento de dados pessoais. No entanto, a rapidez no avanço tecnológico pode, a&lt;br /&gt;
curto prazo, tornar a legislação obsoleta, ou mesmo contraproducente.&amp;lt;/p&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;p class='mainText'&amp;gt;&amp;lt;strong&amp;gt;Enviesamento&amp;lt;/strong&amp;gt;&amp;lt;/p&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;p class='mainText'&amp;gt;Um problema cada vez mais evidente da IA é o potencial enviesamento social. Esta é talvez&lt;br /&gt;
a questão atual mais complexa e mais difícil de resolver. Num episódio recente, foi disponibilizado&lt;br /&gt;
publicamente um modelo de IA, cujo objetivo era gerar uma face humana em alta&lt;br /&gt;
resolução, a partir de uma fotografia desfocada. Este modelo foi treinado com milhares de&lt;br /&gt;
caras de celebridades, mas não tinha como objetivo gerar a face de ninguém em particular.&lt;br /&gt;
Simplesmente, a face teria que ter as características necessárias para que nós, seres humanos,&lt;br /&gt;
as identificássemos como uma face humana. Muito rapidamente se percebeu que,&lt;br /&gt;
independentemente da raça ou etnia da face desfocada que fosse dada como input, quase&lt;br /&gt;
todas as faces geradas eram caucasianas. Alguns exemplos de input, sendo obviamente de&lt;br /&gt;
caras de negros ou asiáticos, não geravam faces com as mesmas características. Mais recentemente,&lt;br /&gt;
descobriu-se que, numa popular rede social, ao fazer-se uma publicação com&lt;br /&gt;
uma imagem com dimensões desproporcionais, o algoritmo que fazia o ajuste da imagem,&lt;br /&gt;
ocultando parte dela, sistematicamente mostrava homens em detrimento de mulheres,&lt;br /&gt;
brancos em vez de negros, entre outras “preferências”. Um recente galardoado com o prémio&lt;br /&gt;
Turing - o “Nobel” da informática - pelos seus contributos no avanço da IA, defendeu,&lt;br /&gt;
recentemente, que estes problemas apenas sucedem porque os modelos de IA terão sido&lt;br /&gt;
treinados com dados enviesados. Caso tivessem sido usadas apenas caras de celebridades&lt;br /&gt;
negras, por exemplo, então o modelo teria um enviesamento semelhante, mas preferindo&lt;br /&gt;
as faces negras às brancas. No entanto, tal afirmação não é consensual. As questões que&lt;br /&gt;
se colocam são: se ao longo de décadas a investigação em IA tem avançado usado maioritariamente&lt;br /&gt;
dados enviesados, então não será plausível que o próprio avanço científico,&lt;br /&gt;
em particular na IA, tenha algum tipo de enviesamento? De uma forma mais geral, não&lt;br /&gt;
teremos nós, na própria comunidade científica, enviesamentos, ainda que ligeiros e não intencionais, que não se anulam entre si e geram portanto erro sistemático? Não estará a&lt;br /&gt;
tecnologia embebida de assunções que partem de tais enviesamentos e erros? A resposta&lt;br /&gt;
a estas questões ainda não está respondida de forma cabal, mas é razoável admitir que o&lt;br /&gt;
desenvolvimento dos métodos (alguns com mais de um século) usados em IA não é estanque&lt;br /&gt;
de enviesamentos sociais, culturais ou político-económicos.&amp;lt;/p&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;p class='mainText'&amp;gt;&amp;lt;strong&amp;gt;Bolhas de filtro&amp;lt;/strong&amp;gt;&amp;lt;/p&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;p class='mainText'&amp;gt;Um dos grandes avanços recentes na IA foram os sistemas de recomendação. Estes sistemas&lt;br /&gt;
são compostos por algoritmos que filtram o conteúdo a que temos acesso, de acordo&lt;br /&gt;
com os nossos gostos e preferências. Isto traz-nos um acesso muito mais rápido a conteúdos&lt;br /&gt;
que se adequam ao nosso perfil, poupando-nos tempo e permitindo que descubramos&lt;br /&gt;
coisas interessantes (para nós) que porventura desconhecíamos. O grande inconveniente&lt;br /&gt;
é a tendência destes sistemas ficarem retidos em bolhas de informação, dentro do universo&lt;br /&gt;
daquilo que nós gostamos e queremos, reforçando essas preferências e levando a que&lt;br /&gt;
nós próprios fiquemos retidos nessas “bolhas”, sem que outros conteúdos nos sejam mostrados&lt;br /&gt;
ou sugeridos. No caso de conteúdo informativo (notícias, documentários, livros, etc)&lt;br /&gt;
isto é especialmente problemático, porque está mostrado que estas bolhas levam à acentuação&lt;br /&gt;
de posições pouco equilibradas e mesmo extremistas. A razão para isto acontecer&lt;br /&gt;
é simples: as bolhas de informação nas redes sociais e serviços de streaming de vídeo dão&lt;br /&gt;
primazia a posições extremadas - que confirmam as nossas opiniões -, relativamente a&lt;br /&gt;
posições moderadas, porque as primeiras simplesmente geram mais atividade - e lucro -&lt;br /&gt;
do que as segundas. Infelizmente, na história recente, os maus exemplos são muitos e os&lt;br /&gt;
impactos são conhecidos. Faltam ainda os incentivos certos e tecnologia adequada para&lt;br /&gt;
que se aumente a diversidade de informação a que somos expostos, sem que se percam as&lt;br /&gt;
vantagens inegáveis da massificação de acesso a conteúdos.&amp;lt;/p&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;p class='mainText'&amp;gt;&amp;lt;strong&amp;gt;Equidade&amp;lt;/strong&amp;gt;&amp;lt;/p&amp;gt;&lt;br /&gt;
&lt;br /&gt;
  &amp;lt;p class='mainText'&amp;gt;Como sucede com qualquer tecnologia disruptiva, é extremamente importante perceber&lt;br /&gt;
quem detém essa tecnologia, bem como os meios para a colocar em funcionamento. Neste&lt;br /&gt;
aspeto, a IA é talvez a primeira grande tecnologia disruptiva - isto é, profundamente alteradoras&lt;br /&gt;
do funcionamento das sociedades - em que a investigação científica e os avanços&lt;br /&gt;
tecnológicos ocorrem maioritariamente em empresas. Se pensarmos nas tecnologias disruptivas&lt;br /&gt;
das últimas décadas, verificamos que o seu avanço foi impulsionado sobretudo&lt;br /&gt;
por investimento público e protagonizado por investigadores integrados em Universidades&lt;br /&gt;
ou em laboratórios de Estado e/ou militares. O investimento no avanço da IA, pelo contrário,&lt;br /&gt;
é neste momento sobretudo feito por grandes empresas, capazes de suportar grandes&lt;br /&gt;
equipas de investigação por vários anos, algo que até há muito pouco tempo atrás, apenas&lt;br /&gt;
seria possível em instituições dedicadas à investigação. Independentemente de considerações&lt;br /&gt;
que se possam fazer tendo em conta comparações com o que sucedia anteriormente,&lt;br /&gt;
é de maior importância perceber as consequências éticas, sociais e económicas que daí&lt;br /&gt;
poderão advir e como podemos, por um lado, tirar partido das possibilidades que surgem,&lt;br /&gt;
e por outro, reduzir eventuais riscos. Em particular, é preciso garantir que os avanços na&lt;br /&gt;
IA não aprofundem desequilíbrios entre grupos sociais ou países, e que não dêem poder&lt;br /&gt;
hegemónico a organizações sem que estas sejam democraticamente escrutinadas.&amp;lt;/p&amp;gt;&lt;br /&gt;
&amp;lt;/html&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=Referências=&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
---- &amp;lt;br&amp;gt;Criada em 1 de Novembro de 2020&amp;lt;br&amp;gt; Revista em 2 de Novembro de 2020&amp;lt;br&amp;gt; Aceite pelo editor em 15 de Dezembro de 2020&amp;lt;br&amp;gt;&lt;br /&gt;
[[Category:Informática]]&lt;/div&gt;</summary>
		<author><name>Admin</name></author>	</entry>

	</feed>
<!--
<center>
<script async src="//pagead2.googlesyndication.com/pagead/js/adsbygoogle.js"></script>
<ins class="adsbygoogle"
     style="display:block"
     data-ad-format="autorelaxed"
     data-ad-client="ca-pub-1458264374457422"
     data-ad-slot="4546636993"></ins>
<script>
     (adsbygoogle = window.adsbygoogle || []).push({});
</script>
</center>
-->
<script src="/wiki/LinkArticle.min.js"></script>

<!-- jQuery (necessary for Bootstrap's JavaScript plugins) -->

    <script src="https://ajax.googleapis.com/ajax/libs/jquery/3.2.1/jquery.min.js"></script>
    <script src="/wiki/assets/js/bootstrap.min.js"></script>

    <!-- JS popup pesquisa -->

    <script type="text/javascript">
        $(function() {
            $("#addClass").click(function() {
                $('#qnimate').addClass('popup-box-on');
            });

            $("#removeClass").click(function() {
                $('#qnimate').removeClass('popup-box-on');
            });
        })

    </script>
