Águas Cuiabá - Iguá Saneamento

Águas Cuiabá - Iguá Saneamento
Av. Gonçalo Antunes de Barros, 3196 - Carumbé - CEP 78050-667 - Cuiabá-MT • Telefones: 0800 646 6115

ANUNCIE AQUI!

ANUNCIE AQUI!
SUA EMPRESA COM MAIS VISIBILIDADE E VENDA

Certificado de Responsabilidade Social

Prefeitura de Cuiabá

Prefeitura de Cuiabá
Praça Alencastro, nº 158 - Centro - CEP: 78005-906

ABERT - Associação Brasileira de Emissoras de Rádio e Televisão

ABERT -  Associação Brasileira de Emissoras de Rádio e Televisão
SAF/SUL Qd 02 Bl D Sl 101 Ed.Via Esplanada (Atrás do Anexo do Ministério da Saúde) | Brasília - DF

quarta-feira, 7 de novembro de 2018

"Quais são os perigos da inteligência artificial em nosso admirável mundo novo de carros autônomos?

15_08_inteligencia_artificial_foto_pixabay.jpg"Enquanto pensamos na possibilidade de existir a IA forte, a inteligência artificial fraca já é uma realidade: o Google Maps sugere o percurso menos movimentado, programas de reconhecimento de voz como a Siri respondem a perguntas de curiosidades, a Cambridge Analytica usa dados privados para dar um empurrãozinho nas eleições e drones militares escolhem como matar pessoas no chão".
Eis o artigo.
Assim como o papel, a impressão, o aço e a roda, a inteligência artificial – IA - gerada por computador é uma tecnologia revolucionária que pode mudar nosso modo de trabalhar, brincar e amar. E já está mudando, de formas que conseguimos e não conseguimos perceber. À medida que Facebook, Apple e Google investem bilhões em desenvolvimento de inteligência artificial, há um ramo incipiente do estudo da ética — que é influenciado pela doutrina social católica e envolve pensadores como o cientista jesuíta Pierre Teilhard de Chardin— que tem por objetivo estudar suas consequências morais, conter os danos que pode causar e pressionar as empresas de tecnologia a integrar bens sociais como privacidade e equidade em seus planos de negócios.
"Muitas pessoas de repente se interessaram por ética na IA porque perceberam que estão brincando com fogo”, afirma Brian Green, que estuda ética na inteligência artificial da Universidade de Santa Clara. "E isso é o que temos de mais revolucionário desde a descoberta do fogo."
O campo da ética na IA inclui duas categorias amplas. Uma compreende o questionamento filosófico e por vezes teológico sobre como a inteligência artificial altera nosso destino e nosso papel como seres humanos no universo. A outra é um conjunto de questões básicas sobre o impacto de produtos de IA poderosos, como smartphones, drones e algoritmos de mídias sociais.
A primeira preocupa-se com o que se chama inteligência artificial forte. A IA forte é o tipo de inteligência artificial poderosa que não só simula, mas ultrapassa o raciocínio humano, combinando poder computacional e qualidades humanas, como aprender com os erros, duvidar de si mesmo e ter curiosidade sobre os mistérios internos e externos.
Uma palavra comum — singularidade — passou a ser usada para fazer referência ao momento em que as máquinas se tornam mais inteligentes e talvez mais poderosas do que os seres humanos. Esse momento, que representaria uma ruptura clara de narrativas religiosas tradicionais sobre a criação, tem implicações filosóficas e teológicas que podem confundir qualquer um.
Mas antes de chegar lá — porque não se sabe com tanta clareza se vai mesmo acontecer —, vamos falar sobre o ramo da ética na inteligência artificial que se concentra nos problemas práticos, como se não houvesse nenhum problema de seu celular saber quando lhe vender uma pizza.
"Por enquanto, a singularidade é ficção científica", observa Shannon Vallor, professora de filosofia que também leciona na Universidade de Santa Clara. "Há preocupações éticas suficientes a curto prazo."
O fator 'Black Mirror'
Enquanto pensamos na possibilidade de existir a IA forte, a inteligência artificial fraca já é uma realidade: o Google Maps sugere o percurso menos movimentado, programas de reconhecimento de voz como a Siri respondem a perguntas de curiosidades, a Cambridge Analytica usa dados privados para dar um empurrãozinho nas eleições e drones militares escolhem como matar pessoas no chão. É a IA fraca que anima os androides da série da HBO "Westworld" — na verdade, até eles desenvolverem IA forte e começarem a tomar decisões por conta própria e fazer questionamentos humanos sobre existência, amor e morte.
Mesmo sem a aparência singular e improvável da supremacia dos robôs, os possíveis resultados da inteligência artificial fraca que deu errado teriam vários cenários apocalípticos, como o enredo da série “Black Mirror”. Um sistema de controle de temperatura, por exemplo, poderia matar todos os humanos, por ser uma forma racional de esfriar o planeta, ou uma rede de computadores com eficiência energética poderia controlar centrais nucleares para ter energia suficiente para operar por conta própria.
"Quanto mais os programadores se esforçam para que as máquinas tomem decisões inteligentes que nos surpreendam e nos divirtam, maior é o risco de eles desencadearem algo inesperado e terrível"
A invenção da internet surpreendeu grande parte dos filósofos. Desta vez, os estudiosos de ética na IA consideram que é dever deles acompanhar a situação
"Há uma falta de consciência sobre questões morais no Vale do Silício, e as igrejas e o governo não sabem o suficiente sobre tecnologia para contribuir por enquanto", diz Tae Wan Kim, que estuda ética na IA na Universidade Carnegie Mellon, em Pittsburgh. "Estamos tentando preencher essa lacuna".
Os cientistas que se dedicam à ética na IA consultam escolas, empresas e governos. Eles treinam empresários da área da tecnologia para pensar sobre questões como: As empresas de tecnologia que coletam e analisam dados de DNA devem ter permissão para vender esses dados a farmacêuticas para salvar vidas? É possível escrever código que oriente de forma ética sobre se a pessoa deve fazer seguro de vida ou pedir empréstimos? Os governos deveriam proibir robôs sexuais realistas que possam levar pessoas vulneráveis a pensar que estão em relações equivalentes a um relacionamento humano? Qual deve ser o investimento em tecnologias que tiram o emprego de milhões de pessoas?
As próprias empresas de tecnologia estão canalizando mais recursos na área da ética, e os líderes da tecnologia estão pensando seriamente no impacto de suas invenções. Uma pesquisa recente com pais do Vale do Silício descobriu que muitos tinham proibido os próprios filhos de usar smartphones.
Quanto mais os programadores se esforçam para que as máquinas tomem decisões inteligentes que nos surpreendam e nos divirtam, maior é o risco de eles desencadearem algo inesperado e terrível.
Kim enquadra seu trabalho como o de um intelectual do setor público, reagindo às mais recentes tentativas das empresas de mostrar que estão levando a ética na inteligência artificial a sério.
Em junho, por exemplo, o Google, tentando tranquilizar o público e os órgãos reguladores, publicou uma lista de sete princípios norteadores para seus apps de inteligência artificial. O texto dizia que a IA deve trazer benefícios para a sociedade, evitar a criação e a afirmação de ideias e comportamentos injustos e tendenciosos, ser criada e testada para garantir segurança, ser responsável com os usuários, ser projetadas de acordo com princípios de privacidade, observar padrões elevados de excelência científica e estar disponível para outras pessoas para usos que respeitem os princípios acima.
Em resposta, Kim publicou um comentário crítico em seu blog. O problema com prometer trazer benefícios para a sociedade, por exemplo, é que "o Google pode tirar proveito das normas locais", escreveu. "Se a China permitir que o Google use a IA legalmente de uma forma que viola os direitos humanos, ele vai aceitar". (Até o fechamento da edição, o Google não tinha respondido aos vários pedidos de comentário sobre esta crítica.)
A maior dor de cabeça para os estudiosos sobre IA é que uma internet global dificulta a aplicação de qualquer princípio universal como a liberdade de expressão. As empresas, em geral, estão no comando. Isso é especialmente verdade em relação a decidir até que ponto devemos deixar as máquinas trabalharem.
A invenção da internet surpreendeu grande parte dos filósofos. Desta vez, os estudiosos de ética na IA consideram que é dever deles acompanhar a situação.
Uma discussão familiar para qualquer um que já tenha estudado economia é que as novas tecnologias criam tantos empregos quanto destroem. A invenção do descaroçador de algodão no século XIX exigiu que as indústrias produzissem as peças de madeira e ferro. Quando os cavalos deixaram de ser o principal meio de transporte, os trabalhadores das estrebarias encontraram emprego nas automecânicas. E assim por diante.
Estudiosos da IA afirmam que a revolução tecnológica atual é diferente, porque é a primeiro a replicar tarefas intelectuais. Este tipo de automação pode criar uma classe permanentemente subempregada, segundo Kim.
Uma resposta puramente econômica ao desemprego pode ser a criação de uma renda básica universal ou a distribuição de renda a todos os cidadãos. No entanto, Kim diz que os pesquisadores não podem esquecer que a vida sem uma atividade com um propósito, como o trabalho, é geralmente miserável. "A doutrina social católica é uma influência importante para os estudiosos da IA, pois aborda a importância do trabalho para a felicidade e a dignidade humana", explica.
"Só dinheiro não traz felicidade e sentido à vida", afirma. "As pessoas têm tantas outras coisas a partir do trabalho, como comunidade, desenvolvimento do caráter, estímulo intelectual e dignidade". Quando o pai de Kim se aposentou da gestão de uma fábrica de macarrão na Coreia do Sul, "ele passou a ter dinheiro, mas perdeu o sentido de comunidade e a autoestima", lembra.
Isso é um forte argumento para valorizar o trabalho feito com qualidade por mãos humanas, mas enquanto vivermos no capitalismo a capacidade dos robôs de trabalhar com rapidez e a custos baixos vai torná-los atraentes, de acordo com os pesquisadores sobre ética na inteligência artificial.
"Talvez os líderes religiosos precisem tentar redefinir o significado do trabalho”, argumenta. "Algumas pessoas já chegaram a propor trabalho em realidade virtual", diz, referindo-se a empregos simulados dentro de jogos de computador. "Não parece recompensador, mas talvez trabalhar não se trate apenas de emprego remunerado."
O impacto da automação também pode não ser tão ruim quanto se teme que seja. A empresa chamada Legal Sifter, com sede em Pittsburgh, oferece o serviço de leitura de contratos por meio de um algoritmo, bem como identificação de lacunas, erros e omissões. Esta tecnologia é possível porque a linguagem jurídica é mais estereotipada do que a maior parte da escrita.
"Aumentamos nossa produtividade em sete ou oito vezes sem ter que contratar ninguém", diz Kevin Miller, diretor da empresa. "Estamos tornando os serviços jurídicos mais acessíveis para mais pessoas."
Mas segundo ele os advogados não vão desaparecer: "enquanto houver juris humanos, haverá advogados e juízes humanos... O futuro não é advogado contra robô, é advogado e robô contra advogado e robô."
Os carros autônomos e o dilema do trem
Grande parte dos estadunidenses trabalha atrás do volante. Agora, os veículos autônomos ameaçam deixar milhões de taxistas e motoristas de caminhão desempregados.
Ainda estamos pelo menos a uma década do dia em que os veículos autônomos vão ocupar a maior parte das estradas, mas os automóveis são tão importantes na vida moderna que qualquer mudança no seu funcionamento traria grandes transformações para a sociedade.
O uso de carros autônomos levanta dezenas de questões para quem estuda ética na inteligência artificial. O mais famoso é uma variação do dilema do trem, um conceito popularizado pela filósofa Philippa Foot nos anos 60 No dilema atual, uma máquina se vê num dilema ao perceber um ônibus lotado em alta velocidade. Será que deve mudar de direção e tentar matar menos pessoas? E se mudar de direção ameaçar uma criança? A escolha entre o bebê e o ônibus é o caso de uma decisão instantânea, complicada e confusa que os seres humanos aceitam como parte da vida, mesmo sabendo que nem sempre tomamos a decisão mais correta. É o tipo de escolha para a qual sabemos que nunca haverá um algoritmo, principalmente se começarmos a tentar calcular o valor relativo dos danos. Imagine, por exemplo, dizer a um ciclista que vale a pena que ele perca a vida para que um ônibus inteiro de pessoas não precise ir para a cadeira de rodas.
Especialistas em tecnologia dizem que o dilema do trem ainda é teórico, porque hoje as máquinas não conseguem distinguir bem entre pessoas e objetos como sacolas plásticas e carrinhos de supermercado, o que pode levar a cenários imprevisíveis. Isso se deve principalmente ao fato de os neurocientistas ainda não terem uma compreensão completa de como funciona a visão.
"Mas há muitas situações éticas ou morais que podem acontecer, e são elas que realmente importam", diz Mike Ramsey, analista automotivo da Gartner Research.
O maior problema "é programar um robô para infringir a lei deliberadamente", observa. "É moralmente correto dizer ao computador para dirigir respeitando o limite de velocidade quando todo mundo está dirigindo a 30 km/h?"
Os seres humanos infringem as leis com bom senso o tempo todo. Por exemplo, deixar alguém que está fora do carro fora da faixa de pedestres é quase sempre seguro, ou é sempre tecnicamente legal. No entanto, para uma máquina fazer essa distinção ainda é quase impossível.
E à medida que os programadores tentam possibilitar esse tipo de raciocínio para as máquinas, eles invariavelmente baseiam os algoritmos em dados obtidos a partir do comportamento humano. Em um mundo em decadência, é um problema.
"Há o risco de os sistemas de inteligência artificial serem usados de modo a amplificar os preconceitos sociais", diz Vallor, filósofa da Universidade de Santa Clara. “A IA amplifica o padrão existente."
Poderia haver um aumento nas respostas negativas a empréstimos, financiamentos ou seguros feitos pelos grupos sociais marginalizados se, por exemplo, o algoritmo analisar o histórico de compra de imóveis na família. Os estudiosos de ética em IA não necessariamente defendem que se programe em prol de ações afirmativas, mas alertam para o risco de os sistemas de inteligência artificial não corrigirem padrões anteriores de discriminação.
Para eles, também é preocupante o fato de que depender de IA para decisões que realmente alteram a vida aumenta ainda mais a influência de empresas que coletam, compram e vendem dados privados e de governos que regulam como os dados podem ser usados. Em um cenário distópico, o governo poderia negar assistência à saúde ou outros serviços públicos para pessoas que poderiam ter tido “mau” comportamento, com base nos dados registrados por empresas de mídia social e por aparelhos como o Fitbit.
Todo programa de inteligência artificial é baseado no modo como um ser humano especificamente vê o mundo, diz Green, que pesquisa ética na Universidade de Santa Clara. "É possível imitar muitos aspectos da humanidade", diz, "mas que tipo de pessoa vamos imitar?"
"Copiar as pessoas” é o objetivo de outro ramo da inteligência artificial que simula a conexão humana. Animais de estimação e robôs dotado de inteligência artificial podem simular amizade, laços familiares, terapia e até mesmo um romance.
Segundo um estudo, crianças autistas em processo de aprendizagem de uma língua e de interação responderam mais positivamente a um robô dotado de inteligência artificial do a uma pessoa real. Mas a filósofa Alexis Elder argumenta que isso constitui um risco moral. "O risco envolve o potencial desses robôs de aparentar amizade para uma população" que não sabe a diferença entre falsos amigos e amigos de verdade, discorre ela, na coleção de ensaios Robot Ethics 2.0: From Autonomous Cars to Artificial Intelligence. "Aristóteles advertiu que enganar os outros com falsas aparências é o mesmo que falsificar dinheiro."
Outra forma de relação falsa que a tecnologia da IA propõe é, não surpreendentemente, a romântica. Fabricantes de novas linhas de bonecas com inteligência artificial, que custam mais de US$10.000 cada, como diz um anúncio, têm "a conversa e a interação mais agradável que se pode ter com uma máquina".
"Já há pessoas que dizem que estão "em um relacionamento" com robôs, criando questões éticas novas e estranhas"
Já há pessoas que dizem que estão "em um relacionamento" com robôs, criando questões éticas novas e estranhas. Se alguém destruir o robô, seria um assassinato? O governo deveria criar leis que protejam seu direito de levar o parceiro robô para um jogo de futebol ou uma viagem ou de tirar licença por luto se ele quebrar?
Até Dan Savage, o colunista sexual mais famoso dos Estados Unidos, adverte: "os robôs sexuais estão chegando, querendo ou não". "Mas vamos ter de avaliar o verdadeiro impacto que vão ter na vida das pessoas."
A aventura de Pierre Teilhard de Chardin
Inevitavelmente, os pesquisadores sobre ética na IA fraca deparam-se com as questões filosóficas mais profundas dos que estudam a IA forte.
Um exemplo de como a inteligência artificial fraca pode se transformar numa inteligência artificial forte surgiu em 2016, quando um programa de computador derrotou Lee Sedol, campeão humano do jogo de estratégia Go. No início, a máquina Alpha Go fez um movimento que não fazia muito sentido para os espectadores humanos até o fim do jogo. Essa criatividade misteriosa é uma qualidade intensamente humana, e um prenúncio do que pode ser a IA forte.
Os teóricos que estudam a IA forte têm suas próprias questões. Eles debatem se os governos e as empresas de tecnologia devem desenvolver a IA forte o mais rápido possível para resolver todos os problemas ou se devem bloquear seu desenvolvimento para evitar que as máquinas tomem conta do planeta. Eles se perguntam como seria implantar um chip no nosso cérebro que nos tornasse 200 vezes mais inteligentes, imortais ou nos transformasse em Deus. Isso pode ser um direito humano? Alguns chegam a especular que a própria IA forte seja um novo deus para ser adorado.
Mas a singularidade - caso ela aconteça - traz um problema definitivo para os pensadores de quase todas as religiões, porque significaria romper muito claramente com as narrativas tradicionais.
Mas agora há máquinas que são autônomas também, então o que é que nos torna especiais como seres humanos?
"Os cristãos estão enfrentando uma verdadeira crise, porque nossa teologia se baseia em como Deus nos tornou autônomos", diz o diácono presbiteriano Kim. "Mas agora há máquinas que são autônomas também, então o que é que nos torna especiais como seres humanos?"
Um pensador católico que pensou o impacto da inteligência artificial de forma profunda é Pierre Teilhard de Chardin, um jesuíta e cientista francês que ajudou a fundar uma escola de pensamento chamada transumanismo, que considera toda a tecnologia como uma extensão do ser humano.
"Seus escritos anteciparam a internet e o que o computador poderia fazer por nós", diz Ilia Delio, O.S.F., professora da Universidade de Villanova.
Teilhard de Chardin via a tecnologia de forma ampliada. "O Novo Testamento é um tipo de tecnologia", diz a Irmã Delio, explicando o ponto de vista. "Jesus era sobre como algo novo, transumano, não no sentido de melhoria, mas no sentido de mais humana".
Os críticos do transumanismo dizem que a teoria promove perspectivas materialistas e hedonistas. Em um ensaio recente da América, John Conley, S.J., da Universidade Loyola Maryland, disse que o movimento era “motivo de alerta” : "Existe algum lugar para as pessoas com deficiência nesta utopia? Por que queremos abolir o envelhecimento e a morte, componentes essenciais do drama humano, a nascente da nossa arte e literatura? Há amor e criatividade sem angústia? Quem florescerá e quem será eliminado nesta construção do pós-humano? A própria natureza não tem nenhum valor intrínseco?"
A obra de Teilhard também tem ecos da eugenia racista que ficou popular nos anos 20. Ele defendia, por exemplo, que “nem todos os grupos étnicos têm o mesmo valor”.
Mas seus argumentos puramente filosóficos sobre tecnologia recuperaram prestígio entre os pensadores católicos deste século, e ler Teilhard pode ser uma aventura. Os pensadores cristãos convencionalmente dizem, assim como João Paulo II, que toda concepção tecnológica deve fazer avançar o desenvolvimento natural do ser humano. Teilhard foi mais longe. Para ele, a tecnologia, incluindo a inteligência artificial, poderia conectar toda a humanidade, fazendo com que chegássemos a um ponto de plenitude espiritual através do conhecimento e do amor. Ele denominou esse momento de unidade espiritual global de Ponto Ômega. E não era o consumismo conformista com que os empresários do ramo da tecnologia sonham.
"Não se chega a este estado pela identificação (Deus se tornando todos), mas pela diferenciação e comunicação da ação do amor (Deus em todos). E isso é essencialmente ortodoxo e cristão", escreveu Teilhard.
Esse idealismo é semelhante ao de Tim Berners-Lee, um dos cientistas que escreveram o software que criou a internet. O objetivo da web era servir a humanidade, de acordo com uma entrevista recente à revista Vanity Fair. Mas o controle centralizado e corporativo, afirmou, "acabou produzindo — sem nenhuma ação deliberada de quem projetou a plataforma — um fenômeno emergente em grande escala que é anti-humano." Ele e os demais acreditam que a acumulação e a venda de dados pessoais desumaniza e transforma as pessoas em produtos, em vez de reforçar sua humanidade.
Curiosamente, o debate sobre a IA provoca questionamentos teológicos em pessoas que geralmente não falam muito sobre Deus.
Juan Ortiz Freuler, pesquisador da World Wide Web Foundation, a organização fundada em Washington por Berners-Lee para proteger os direitos humanos, ouve pessoas envolvidas com a indústria da tecnologia "argumentarem que um sistema tão complexo que não possa ser compreendido é como um deus". Mas não é um deus, afirma Freuler. "É uma empresa que mascarada de deus. E nem sempre conhecemos seus valores."
Não é preciso adorar a tecnologia como a um deus para perceber que as nossas vidas e escolhas são cada vez mais influenciadas por softwares que auxiliam a tomar decisões. Mas como afirmaram todos os estudiosos da ética em IA com que falei, precisamos entender quem é responsável por tomar decisões importantes.
"Ainda temos liberdade", diz a Irmã Delio. "Ainda podemos fazer escolhas."
O artigo é de John W. Miller, escritor que já trabalhou como repórter e correspondente internacional do The Wall Street Journal. Hoje mora em Pittsburgh. O artigo é publicado por América e Caminho Político. A tradução é de Luísa Flores Somavilla.

Nenhum comentário:

Postar um comentário