{"id":25857,"date":"2025-12-04T13:34:45","date_gmt":"2025-12-04T16:34:45","guid":{"rendered":"https:\/\/www.thepresident.com.br\/?p=25857"},"modified":"2026-01-11T20:10:00","modified_gmt":"2026-01-11T23:10:00","slug":"a-etica-invisivel-silvia-piva-ghbp-advogados","status":"publish","type":"post","link":"https:\/\/mapa360.com.br\/thepresident\/a-etica-invisivel-silvia-piva-ghbp-advogados\/","title":{"rendered":"A \u00e9tica invis\u00edvel"},"content":{"rendered":"<p>Adotar sistemas de IA exige governan\u00e7a, transpar\u00eancia e equidade para que decis\u00f5es automatizadas n\u00e3o comprometam direitos e dignidade<\/p>\n<p style=\"text-align: center;\">Por<em> Reda\u00e7\u00e3o<\/em><\/p>\n<p style=\"text-align: center;\"><em>Retrato Silvia Piva, COO e s\u00f3cia do GHBP Advogados<\/em><\/p>\n<p>Mais de dois ter\u00e7os da popula\u00e7\u00e3o mundial acreditam que produtos e servi\u00e7os baseados em intelig\u00eancia artificial transformar\u00e3o significativamente a vida cotidiana nos pr\u00f3ximos tr\u00eas a cinco anos, segundo o AI Index Report 2025, da Universidade de Stanford. Ao mesmo tempo, uma pesquisa global realizada pela consultoria Harris Poll em 2025 aponta que 37% das empresas consideram os vieses nos modelos de IA um dos principais riscos de sua ado\u00e7\u00e3o \u2014 ficando atr\u00e1s apenas das preocupa\u00e7\u00f5es com privacidade e prote\u00e7\u00e3o de dados.<\/p>\n<p>Esses n\u00fameros indicam que a verdadeira fronteira da inova\u00e7\u00e3o tecnol\u00f3gica n\u00e3o est\u00e1 apenas no desenvolvimento de novos algoritmos, mas na \u00e9tica da automa\u00e7\u00e3o: no modo como as m\u00e1quinas s\u00e3o treinadas, nos crit\u00e9rios humanos que definem seus par\u00e2metros e nas consequ\u00eancias que suas decis\u00f5es geram na vida das pessoas.<\/p>\n<p>A advogada e pesquisadora Silvia Piva, COO e s\u00f3cia do GHBP Advogados, tem se dedicado a compreender essas interse\u00e7\u00f5es entre tecnologia, \u00e9tica e governan\u00e7a. Com trajet\u00f3ria acad\u00eamica no Instituto de Estudos Avan\u00e7ados da USP, ela defende que o avan\u00e7o da intelig\u00eancia artificial deve se ancorar em um princ\u00edpio que permanece inegoci\u00e1vel: a dignidade humana.<\/p>\n<p>\u201cA dignidade humana \u00e9 um princ\u00edpio fundamental, portanto, significa que as empresas devem olhar para a origem dos dados com o mesmo rigor com que olham para seus balan\u00e7os\u201d, afirma. Para Piva, os dados n\u00e3o s\u00e3o neutros \u2014 carregam as marcas das desigualdades do mundo real e podem reproduzir preconceitos quando utilizados sem reflex\u00e3o cr\u00edtica.<\/p>\n<p>Ela exemplifica com o setor de seguros: quando um modelo de IA \u00e9 treinado apenas com informa\u00e7\u00f5es de clientes de baixo \u00edndice de sinistros e perfis concentrados em determinadas regi\u00f5es ou profiss\u00f5es, o sistema tende a classificar automaticamente outros grupos como mais arriscados. \u201cO vi\u00e9s n\u00e3o surge da IA em si, mas das escolhas humanas sobre quais dados s\u00e3o \u2018bons\u2019 para serem utilizados e quais ficam de fora\u201d, observa. Por isso, boas pr\u00e1ticas devem incluir revis\u00e3o cont\u00ednua dos dados, diversidade nas equipes respons\u00e1veis por classific\u00e1-los e mecanismos de corre\u00e7\u00e3o capazes de conectar tecnologia e impacto humano.<\/p>\n<p><strong>Da rea\u00e7\u00e3o \u00e0 preven\u00e7\u00e3o<\/strong><\/p>\n<p>O uso \u00e9tico da intelig\u00eancia artificial, na vis\u00e3o de Piva, n\u00e3o deve depender de crises de reputa\u00e7\u00e3o nem da press\u00e3o regulat\u00f3ria. Ele precisa ser incorporado ao pr\u00f3prio ciclo de gest\u00e3o corporativa. \u201cEmpresas que utilizam a IA de forma respons\u00e1vel n\u00e3o devem esperar que o problema apare\u00e7a na m\u00eddia para agir, tampouco depender da regula\u00e7\u00e3o para incorporar pr\u00e1ticas consistentes\u201d, ressalta.<br \/>A advogada defende que a revis\u00e3o das decis\u00f5es automatizadas se torne rotina \u2014 t\u00e3o natural quanto a an\u00e1lise de desempenho ou o acompanhamento de indicadores financeiros. Isso implica trabalho conjunto entre tecnologia, jur\u00eddico, compliance, recursos humanos e \u00e1reas de neg\u00f3cio, desde o desenho dos sistemas at\u00e9 sua opera\u00e7\u00e3o.<\/p>\n<p>Um bom exemplo s\u00e3o os processos seletivos automatizados que rejeitam candidatos de uma mesma regi\u00e3o ou faixa socioecon\u00f4mica. Trocar o modelo de IA n\u00e3o basta, portanto. Devem-se reformular as perguntas que orientam a sele\u00e7\u00e3o. Quais crit\u00e9rios realmente medem compet\u00eancia? Que vari\u00e1veis reproduzem preconceitos hist\u00f3ricos? O mesmo racioc\u00ednio vale para sistemas de cr\u00e9dito baseados apenas em hist\u00f3rico de inadimpl\u00eancia, que tendem a penalizar quem nunca teve acesso ao cr\u00e9dito formal. \u201c\u00c9 preciso compreender os mecanismos institucionais que perpetuam exclus\u00f5es\u201d, enfatiza.<\/p>\n<p>A busca por produtividade e economia de tempo \u00e9 um dos principais motores da ado\u00e7\u00e3o de IA. No entanto, Silvia Piva alerta que efici\u00eancia n\u00e3o pode ser o \u00fanico crit\u00e9rio de sucesso tecnol\u00f3gico. \u201cUsar IA com responsabilidade come\u00e7a por reconhecer que efici\u00eancia n\u00e3o \u00e9 a \u00fanica vis\u00e3o a ser considerada\u201d, afirma.<br \/>Para que a automa\u00e7\u00e3o gere valor de forma sustent\u00e1vel, as empresas precisam desenvolver fluxos de governan\u00e7a com pap\u00e9is e limites claros. Piva recomenda medidas simples, como a cria\u00e7\u00e3o de comit\u00eas de avalia\u00e7\u00e3o de projetos de IA antes da implementa\u00e7\u00e3o, revis\u00f5es peri\u00f3dicas de modelos em auditorias internas e capacita\u00e7\u00e3o de gestores para questionar resultados automatizados. \u201cA busca por velocidade n\u00e3o pode sacrificar princ\u00edpios como o da transpar\u00eancia\u201d, refor\u00e7a.<br \/>Essas pr\u00e1ticas, segundo ela, ajudam a consolidar uma cultura organizacional que entende a \u00e9tica n\u00e3o como uma imposi\u00e7\u00e3o regulat\u00f3ria, mas como fator estrat\u00e9gico de confian\u00e7a e longevidade.<\/p>\n<p><strong>Lideran\u00e7a e cultura organizacional<\/strong><\/p>\n<p>A responsabilidade sobre o uso da intelig\u00eancia artificial n\u00e3o deve ficar restrita \u00e0s \u00e1reas t\u00e9cnicas. Para Piva, a lideran\u00e7a precisa conduzir o debate \u00e9tico e integrar diferentes perspectivas dentro das empresas. \u201cA responsabilidade sobre o uso da IA deve come\u00e7ar na lideran\u00e7a, mas n\u00e3o termina nela\u201d, diz.<br \/>Ela destaca o car\u00e1ter sociot\u00e9cnico da IA \u2014 um sistema que transforma simultaneamente processos, decis\u00f5es e rela\u00e7\u00f5es humanas. Por isso, o tema deve ser debatido por equipes diversas, envolvendo jur\u00eddico, compliance, neg\u00f3cios e pessoas. Cabe \u00e0 lideran\u00e7a fazer as perguntas essenciais: por que usar IA neste contexto? O que muda na rela\u00e7\u00e3o com o cliente e com o time? Quem revisa as decis\u00f5es e responde pelos impactos?<\/p>\n<p>Quando essas quest\u00f5es passam a fazer parte da rotina corporativa, a IA deixa de ser um projeto isolado e passa a refletir a estrat\u00e9gia e os valores da organiza\u00e7\u00e3o. \u201cA tecnologia precisa ser confrontada com as pessoas que ela afeta\u201d, conclui.<\/p>\n<p>Os dados e alertas recentes refor\u00e7am a urg\u00eancia de uma abordagem \u00e9tica. A intelig\u00eancia artificial est\u00e1 moldando o presente com uma velocidade sem precedentes \u2014 e cada algoritmo \u00e9, antes de tudo, um espelho das escolhas humanas. A \u00e9tica da IA, portanto, n\u00e3o se programa: se pratica.<br \/>O futuro das organiza\u00e7\u00f5es depender\u00e1 menos da capacidade de prever tend\u00eancias e mais da coragem de agir de forma justa, transparente e respons\u00e1vel no presente. <\/p>\n","protected":false},"excerpt":{"rendered":"<p>Adotar sistemas de IA exige governan\u00e7a, transpar\u00eancia e equidade para que decis\u00f5es automatizadas n\u00e3o comprometam direitos e dignidade<\/p>\n","protected":false},"author":3,"featured_media":25902,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[5],"tags":[3076,1026,3077],"class_list":["post-25857","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-artigos","tag-etica","tag-futuro","tag-invisivel"],"acf":[],"_links":{"self":[{"href":"https:\/\/mapa360.com.br\/thepresident\/wp-json\/wp\/v2\/posts\/25857","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/mapa360.com.br\/thepresident\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/mapa360.com.br\/thepresident\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/mapa360.com.br\/thepresident\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/mapa360.com.br\/thepresident\/wp-json\/wp\/v2\/comments?post=25857"}],"version-history":[{"count":10,"href":"https:\/\/mapa360.com.br\/thepresident\/wp-json\/wp\/v2\/posts\/25857\/revisions"}],"predecessor-version":[{"id":28515,"href":"https:\/\/mapa360.com.br\/thepresident\/wp-json\/wp\/v2\/posts\/25857\/revisions\/28515"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/mapa360.com.br\/thepresident\/wp-json\/wp\/v2\/media\/25902"}],"wp:attachment":[{"href":"https:\/\/mapa360.com.br\/thepresident\/wp-json\/wp\/v2\/media?parent=25857"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/mapa360.com.br\/thepresident\/wp-json\/wp\/v2\/categories?post=25857"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/mapa360.com.br\/thepresident\/wp-json\/wp\/v2\/tags?post=25857"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}