As implicações éticas da tecnologia
CES também abre espaço na agenda para a autocrítica e discute a inteligência artificial
CES também abre espaço na agenda para a autocrítica e discute a inteligência artificial
Roseani Rocha
11 de janeiro de 2019 - 21h38
Embora seja, obviamente, um evento para exaltar a tecnologia em suas diversas vertentes, a CES também trouxe a seus painéis no Las Vegas Convention Center algumas discussões sobre as críticas recebidas pelas implicações éticas de algumas delas. Uma das mesas, por exemplo, da qual participaram Anna Bethke (Intel), David Hanson (Hanson Robotics), Kevin Kelly (Bigbuzz Marketing Group) e Mina Hanna (IEEE-USA), teve como tema Ética da Inteligência Artificial.
David, que atua em simulações de máquinas conscientes e desenvolveu uma robô chamada Sophia, acredita na ideia de inteligência artificial para o bem, aquela que inspira pessoas. E citou as Três Leis de Asimov como parâmetros: um, um robô não deve machucar uma pessoa; dois, um robô deve obedecer ordens (exceto se essas ordens entrarem em conflito com a primeira lei) e três, um robô deve proteger sua própria existência (contanto que isso não entre em conflito com a primeira e segunda leis).
Anna Bethke defende a ideia de que é preciso entender como os sistemas com base em AI irão funcionar na vida real – se mudar o gênero da pessoa, o que acontece na interação dessa AI com ela?, por exemplo. Ao ser questionada sobre se é possível criar “guardrails” éticos para AI, Anna afirmou ser possível, contanto que haja atuação maior com os engenheiros que fazem os sistemas, no sentido de ajudá-los no assunto.
Mina Hanna, por seu turno, acredita que é preciso haver uma iniciativa global para a criação de um framework ético, contemplando questões como privacidade, segurança e preconceitos. Mas sua criação é e, ao mesmo tempo, não é fácil, pois cada questão demandará uma resposta. Também destaca a existência de duas esferas que devem se encontrar: uma moral e filosófica, onde há muita abstração, e uma pragmática, onde estão empresas como Intel, IBM ou Microsoft, da criação de produtos (e, por sua vez, demandam mais precisão das leis).
Pensando numa perspectiva de futuro, David ressaltou que a inteligência artificial não é mais complexa que a robótica em si. “As pessoas colocam tablets nas mãos das crianças, com uma câmera, e não se preocupam tanto com sua privacidade”, disse. Assumir a inteligência artificial como um bebê que não foi educado, disse, é somente presumir algo. É preciso reconhecer que esses bebês podem ser perigosos e seus criadores, como pais, devem assumir a responsabilidade sobre eles.
A conclusão do painel como um todo é que a aplicação ética de tecnologias como a inteligência artificial — e as questões que dela surgem — é um reflexo do sistema ético dos seus criadores no momento.
Veja também