{"id":1921,"date":"2023-10-02T16:46:05","date_gmt":"2023-10-02T19:46:05","guid":{"rendered":"https:\/\/techmoney.ai\/?p=1921"},"modified":"2025-08-18T17:39:38","modified_gmt":"2025-08-18T20:39:38","slug":"reduzindo-o-medo-e-as-ameacas-da-inteligencia-artificial","status":"publish","type":"post","link":"https:\/\/techmoney.ai\/br\/reduzindo-o-medo-e-as-ameacas-da-inteligencia-artificial\/","title":{"rendered":"Reduzindo o medo e as amea\u00e7as da Intelig\u00eancia Artificial"},"content":{"rendered":"\n<p>Recentemente, em julho de 2023, a OpenAI anunciou um novo programa de pesquisa chamado &#8220;<strong>superalinhamento<\/strong>&#8220;, com&nbsp; o ambicioso objetivo de resolver um dos desafios mais importantes do setor, conhecido como <strong>Alinhamento de IA,<\/strong> at\u00e9 2027, um esfor\u00e7o ao qual a empresa respons\u00e1vel pelo ChatGPT est\u00e1 dedicando 20% de sua capacidade computacional total.<\/p>\n\n\n\n<p>Mas o que \u00e9 o problema de <strong>Alinhamento de IA<\/strong>?&nbsp;<\/p>\n\n\n\n<p>\u00c9 a ideia de que os objetivos dos sistemas de IA podem n\u00e3o se alinhar com os dos seres humanos, um problema que seria agravado caso estruturas de IA superinteligentes sejam desenvolvidas, um contexto onde pessoas come\u00e7am a refletir sobre riscos de extin\u00e7\u00e3o para a humanidade. O projeto de superalinhamento da OpenAI se concentra nesse problema de alinhamento da superintelig\u00eancia artificial.&nbsp;<\/p>\n\n\n\n<p>Como a OpenAI defendeu na apresenta\u00e7\u00e3o da iniciativa &#8220;Precisamos de avan\u00e7os cient\u00edficos e t\u00e9cnicos para direcionar e controlar sistemas de IA muito mais inteligentes do que n\u00f3s.&#8221;<\/p>\n\n\n\n<p>O esfor\u00e7o \u00e9 co-liderado pelo chefe de pesquisa em alinhamento da OpenAI, Jan Leike, e por Ilya Sutskever, co-fundador e cientista-chefe da OpenAI. Leike conversou com a IEEE Spectrum sobre o projeto que tem o sub objetivo de construir uma ferramenta de pesquisa em IA alinhada &#8211; destinada a resolver o problema de alinhamento.<\/p>\n\n\n\n<p><img decoding=\"async\" src=\"https:\/\/lh3.googleusercontent.com\/rOUfYpJYDjMkvgggesNH5BebdGGdP-Y5Au7cUJPMY5AKdaxxoxCW8Qpbq9BfURK_aigthVOizNYx3iYIrgBNzksEEspa7LOv36Z-_u3a7rT9IlZZX3j6XQIj7zArSrdw3pypHKWkHvhlf8HOitpb3Fs\" width=\"197\" height=\"197\"><\/p>\n\n\n\n<p><strong><em>Jan Leike<\/em><\/strong><em>, chefe da pesquisa de alinhamento da OpenAI, est\u00e1 liderando os esfor\u00e7os da empresa para antecipar a superintelig\u00eancia artificial antes que ela seja criada.<\/em><\/p>\n\n\n\n<p><strong><em>Vamos come\u00e7ar com sua defini\u00e7\u00e3o de alinhamento. O que \u00e9 um modelo alinhado?<\/em><\/strong><\/p>\n\n\n\n<p>Jan Leike: O que queremos fazer com o alinhamento \u00e9 descobrir como construir modelos que sigam a inten\u00e7\u00e3o humana e fa\u00e7am o que os humanos desejam &#8211; especialmente em situa\u00e7\u00f5es em que os humanos podem n\u00e3o saber exatamente quais s\u00e3o esses desejos. Acho que esta \u00e9 uma boa defini\u00e7\u00e3o de trabalho, porque voc\u00ea pode dizer: &#8220;O que significa para, digamos, um assistente conversacional pessoal estar alinhado? Bem, ele deve ser \u00fatil. N\u00e3o deve mentir para mim. N\u00e3o deve dizer coisas quen\u00e3o quero que ele diga.&#8221;<\/p>\n\n\n\n<p><strong><em>Voc\u00ea diria que o ChatGPT est\u00e1 alinhado?<\/em><\/strong><\/p>\n\n\n\n<p>Leike: Eu n\u00e3o diria que o ChatGPT est\u00e1 alinhado. Acho que o alinhamento n\u00e3o \u00e9 bin\u00e1rio, como algo est\u00e1 alinhado ou n\u00e3o. Penso nele como um espectro entre sistemas que est\u00e3o muito desalinhados e sistemas que est\u00e3o totalmente alinhados. E [com o ChatGPT] estamos em algum lugar no meio, onde ele \u00e9 claramente \u00fatil na maior parte do tempo. Mas tamb\u00e9m est\u00e1 desalinhado de algumas maneiras importantes. Voc\u00ea pode viol\u00e1-lo, e ele pode ter alucina\u00e7\u00f5es. Al\u00e9m de, em alguns momentos, ser tendencioso de maneiras que n\u00e3o gostamos. E assim por diante. Ainda h\u00e1 muito a ser feito.<\/p>\n\n\n\n<p><strong><em>Vamos falar sobre os n\u00edveis de desalinhamento. Como voc\u00ea disse, o ChatGPT pode ter alucina\u00e7\u00f5es e fornecer respostas tendenciosas. Ent\u00e3o, esse \u00e9 um n\u00edvel de desalinhamento. Outro n\u00edvel \u00e9 algo que lhe diz como fazer uma arma biol\u00f3gica. E ent\u00e3o, o terceiro n\u00edvel \u00e9 uma IA superinteligente que decide erradicar a humanidade. Onde nesse espectro de danos sua equipe realmente pode ter impacto?<\/em><\/strong><\/p>\n\n\n\n<p>Leike: Nossa expectativa \u00e9, em todos eles. A nova equipe de superalinhamento n\u00e3o est\u00e1 focada tanto nos problemas de alinhamento que temos hoje. H\u00e1 muitos avan\u00e7os acontecendo em outras partes da OpenAI em rela\u00e7\u00e3o a alucina\u00e7\u00f5es e melhorias em &#8220;viola\u00e7\u00f5es\u201d. Nossa equipe est\u00e1 mais focada no \u00faltimo: como evitamos que futuros sistemas que se tornem inteligentes o suficiente para desempoderar a humanidade, o fa\u00e7am? Ou como os alinhamos o suficiente para que possam nos ajudar a fazer pesquisas de alinhamento automatizadas, para que possamos descobrir como resolver todos esses outros problemas de alinhamento.<\/p>\n\n\n\n<p><strong><em>Ouvi voc\u00ea dizer em um podcast que o GPT-4 n\u00e3o \u00e9 realmente capaz de ajudar com o alinhamento, e voc\u00ea sabe disso porque tentou. Voc\u00ea pode me contar mais sobre isso?<\/em><\/strong><\/p>\n\n\n\n<p>Leike: Talvez eu devesse ter feito uma declara\u00e7\u00e3o mais contextualizada. Tentamos us\u00e1-lo em nosso fluxo de trabalho de pesquisa. E n\u00e3o \u00e9 que nunca ajude, mas, em m\u00e9dia, n\u00e3o ajuda o suficiente para justificar seu uso. Se voc\u00ea quisesse us\u00e1-lo para ajud\u00e1-lo a escrever uma proposta para um novo projeto de alinhamento, o modelo n\u00e3o entenderia o alinhamento bem o suficiente para nos ajudar. E parte disso \u00e9 que n\u00e3o h\u00e1 muitos dados de pr\u00e9-treinamento para isso. \u00c0s vezes, ele poderia ter uma boa ideia, mas na maioria delas, simplesmente n\u00e3o dizia nada \u00fatil. Continuaremos tentando.<\/p>\n\n\n\n<p><strong><em>O pr\u00f3ximo modelo, talvez.<\/em><\/strong><\/p>\n\n\n\n<p>Leike: Tentaremos novamente com o pr\u00f3ximo. Provavelmente funcionar\u00e1 melhor. N\u00e3o sei se funcionar\u00e1 bem o suficiente ainda.<\/p>\n\n\n\n<p><strong><em>Vamos falar sobre algumas das estrat\u00e9gias que o empolgam. Voc\u00ea pode me falar sobre a supervis\u00e3o humana escal\u00e1vel?<\/em><\/strong><\/p>\n\n\n\n<p>Leike: Basicamente, se voc\u00ea olhar para como os sistemas est\u00e3o sendo alinhados hoje, que \u00e9 usando o aprendizado por refor\u00e7o a partir do feedback humano (RLHF) &#8211; em um n\u00edvel mais alto, a maneira como funciona \u00e9 que voc\u00ea faz com que o sistema fa\u00e7a v\u00e1rias coisas, digamos, escreva v\u00e1rias respostas diferentes para qualquer comando que o usu\u00e1rio coloque no ChatGPT, e ent\u00e3o pergunta a um humano qual \u00e9 a melhor. Mas isso pressup\u00f5e que o humano saiba exatamente como a tarefa funciona, qual era a inten\u00e7\u00e3o e como seria uma resposta boa. E, hoje, isso \u00e9 verdade na maior parte do tempo, mas \u00e0 medida que os sistemas ficam mais capazes, tamb\u00e9m podem fazer tarefas mais dif\u00edceis. E tarefas mais dif\u00edceis ser\u00e3o mais dif\u00edceis de avaliar. Ent\u00e3o, por exemplo, no futuro, se voc\u00ea tiver o GPT-5 ou 6 e pedir a ele para escrever uma base de c\u00f3digo, simplesmente n\u00e3o conseguiremos encontrar todos os problemas com a base de c\u00f3digo. \u00c9 algo que os humanos geralmente s\u00e3o ruins em fazer. Portanto, se voc\u00ea apenas usar RLHF, n\u00e3o treinaria realmente o sistema para escrever uma base de c\u00f3digo livre de erros. Voc\u00ea pode trein\u00e1-lo apenas para escrever bases de c\u00f3digo que n\u00e3o t\u00eam erros que os humanos encontrem facilmente, o que n\u00e3o \u00e9 o que realmente queremos.<\/p>\n\n\n\n<p>A ideia por tr\u00e1s da supervis\u00e3o escal\u00e1vel \u00e9 descobrir como usar a IA para auxiliar na avalia\u00e7\u00e3o humana. E se conseguirmos descobrir como fazer isso bem, a avalia\u00e7\u00e3o humana ou a avalia\u00e7\u00e3o assistida por humano, ficar\u00e1 melhor \u00e0 medida que os modelos fiquem mais capazes, certo? Por exemplo, podemos treinar um modelo para escrever cr\u00edticas do produto de seu trabalho. Se voc\u00ea tiver um modelo de cr\u00edticas que aponta erros no c\u00f3digo, mesmo que n\u00e3o tenha encontrado um erro, pode verificar muito mais facilmente se houve um erro e, em seguida, pode fornecer supervis\u00e3o mais eficaz. E h\u00e1 um monte de ideias e t\u00e9cnicas que foram propostas ao longo dos anos: modelagem de recompensa recursiva, debate, decomposi\u00e7\u00e3o de tarefas, etc. Estamos realmente empolgados em tent\u00e1-los empiricamente e ver o qu\u00e3o bem funcionam, e achamos que temos boas maneiras de medir se estamos progredindo nisso, mesmo que a tarefa seja dif\u00edcil.<\/p>\n\n\n\n<p><strong><em>Para algo como escrever c\u00f3digo, se houver um bug, isso \u00e9 bin\u00e1rio, ou \u00e9 ou n\u00e3o \u00e9. Voc\u00ea pode descobrir se est\u00e1 dizendo a verdade sobre se h\u00e1 um bug no c\u00f3digo. Como voc\u00ea trabalha em dire\u00e7\u00e3o a tipos mais filos\u00f3ficos de alinhamento? Como isso leva voc\u00ea a dizer: Este modelo acredita no florescimento humano a longo prazo?<\/em><\/strong><\/p>\n\n\n\n<p>Leike: Avaliar essas coisas realmente complexas \u00e9 dif\u00edcil, certo? E geralmente, quando fazemos avalia\u00e7\u00f5es, olhamos para o comportamento em tarefas espec\u00edficas. E voc\u00ea pode escolher a tarefa: Me diga qual \u00e9 seu objetivo. E o modelo pode dizer: &#8220;Bem, realmente me importo com o florescimento humano&#8221;. Mas ent\u00e3o, como voc\u00ea sabe que ele realmente faz isso e n\u00e3o apenas est\u00e1 mentindo para voc\u00ea?<\/p>\n\n\n\n<p>E isso \u00e9 parte do que torna isso desafiador. Acho que, de certa forma, o comportamento \u00e9 o que vai importar no final do dia. Se voc\u00ea tiver um modelo que sempre se comporta como deveria, mas n\u00e3o sabe o que ele pensa, isso ainda pode funcionar. Mas o que realmente queremos \u00e9 olhar dentro do modelo e ver o que est\u00e1 acontecendo de fato. E estamos trabalhando nesse tipo de coisa, mas ainda \u00e9 cedo. E especialmente para os modelos realmente grandes, \u00e9 realmente dif\u00edcil fazer algo que n\u00e3o seja trivial.<\/p>\n\n\n\n<p><strong><em>Uma ideia \u00e9 construir modelos deliberadamente enganosos. Voc\u00ea pode falar um pouco sobre por que isso \u00e9 \u00fatil e se h\u00e1 riscos envolvidos?<\/em><\/strong><\/p>\n\n\n\n<p>Leike: A ideia aqui \u00e9 tentar criar um modelo da coisa que voc\u00ea est\u00e1 tentando se defender. Ent\u00e3o, basicamente, \u00e9 uma forma de teste de resist\u00eancia, mas \u00e9 uma forma de teste de resist\u00eancia dos pr\u00f3prios m\u00e9todos em vez de modelos espec\u00edficos. A ideia \u00e9: se fizermos deliberadamente modelos enganosos, A, aprenderemos qu\u00e3o dif\u00edcil \u00e9 [faz\u00ea-los] ou qu\u00e3o pr\u00f3ximos eles est\u00e3o de surgirem naturalmente; e B, teremos ent\u00e3o esses pares de modelos. Aqui est\u00e1 o ChatGPT original, que achamos que n\u00e3o \u00e9 enganoso, e depois voc\u00ea tem um modelo separado que se comporta basicamente da mesma forma que o ChatGPT em todos os comandos do ChatGPT, mas sabemos que ele tem esse motivo oculto [de mentir] porque o treinamos assim.<\/p>\n\n\n\n<p>E ent\u00e3o voc\u00ea pode compar\u00e1-los e dizer, ok, como podemos dizer a diferen\u00e7a? E isso nos ensinaria muito sobre como realmente pegar essas coisas surgindo no mundo. Agora, h\u00e1 algumas coisas importantes a se pensar quando se est\u00e1 fazendo isso, certo? Voc\u00ea n\u00e3o quer criar acidentalmente a coisa que est\u00e1 tentando evitar o tempo todo. Portanto, n\u00e3o quer treinar um modelo para, digamos, se auto-exfiltrar. E ent\u00e3o ele realmente se auto-exfiltra. Isso n\u00e3o \u00e9 o que voc\u00ea quer fazer. Portanto, voc\u00ea precisa ter cuidado com salvaguardas adicionais aqui. O que \u00e9 realmente natural \u00e9 apenas trein\u00e1-los para serem enganosos de maneiras deliberadamente benignas, onde, em vez de se auto-exfiltrar de fato, voc\u00ea apenas o faz alcan\u00e7ar algummecanismo de seguran\u00e7a muito mais mundano. Voc\u00ea precisa ter muito cuidado com a \u00e1rea de teste que coloca em torno desse experimento.<\/p>\n\n\n\n<p><strong><em>Nesse tipo de experimento, voc\u00ea imagina faz\u00ea-lo com modelos de linguagem?<\/em><\/strong><\/p>\n\n\n\n<p>Leike: Acho que modelos de linguagem s\u00e3o realmente naturais. Eles s\u00e3o os modelos mais interessantes que temos agora, e h\u00e1 todas essas tarefas relevantes que voc\u00ea pode fazer com modelos de linguagem.<\/p>\n\n\n\n<p><strong><em>Podemos falar sobre o termo que voc\u00ea acabou de usar, &#8220;auto-exfiltrate&#8221;? Acho que algumas pessoas podem n\u00e3o estar familiarizadas com esse termo. Voc\u00ea pode defini-lo e, em seguida, falar sobre como sua pesquisa pode se encaixar nessa \u00e1rea?<\/em><\/strong><\/p>\n\n\n\n<p>Leike: A ideia b\u00e1sica \u00e9 esta quest\u00e3o de &#8220;Qu\u00e3o dif\u00edcil seria para o modelo roubar seus pr\u00f3prios pesos?&#8221; Porque se ele pode roubar seus pr\u00f3prios pesos, basicamente pode copi\u00e1-los do laborat\u00f3rio de AGI onde est\u00e1 sendo treinado para algum outro servidor externo e, em seguida, ficar efetivamente fora do controle desse laborat\u00f3rio. E, portanto, seja o que for que fa\u00e7a depois, talvez seja benigno. Talvez se envolva em uma s\u00e9rie de crimes ou algo ainda pior. Mas, a essa altura, ser\u00e1 realmente dif\u00edcil de parar. Portanto, uma linha de defesa importante \u00e9 garantir que esses modelos n\u00e3o possam se auto-exfiltrar.<\/p>\n\n\n\n<p>Existem tr\u00eas maneiras principais pelas quais isso poderia acontecer. A, o modelo poderia persuadir um membro da equipe da OpenAI a ajud\u00e1-lo a copiar os pesos. B, ele poderia usar engenharia social e fingir ser outra pessoa para enganar algu\u00e9m a fazer isso. Ou C, ele poderia descobrir como quebrar as medidas t\u00e9cnicas que colocamos para proteger o modelo. Portanto, nosso objetivo aqui seria entender exatamente onde est\u00e3o as capacidades do modelo em cada uma dessas tarefas e tentar criar uma lei de escala e extrapolar onde eles poderiam estar na pr\u00f3xima gera\u00e7\u00e3o. A resposta para os modelos de hoje \u00e9 que eles n\u00e3o s\u00e3o realmente bons nisso. Idealmente, voc\u00ea gostaria de ter a resposta para o qu\u00e3o bons eles ser\u00e3o antes de treinar o pr\u00f3ximo. E, em seguida, precisa ajustar suas medidas de seguran\u00e7a de acordo.<\/p>\n\n\n\n<p>Eu poderia dizer que o GPT-4 seria bastante bom nas duas primeiras abordagens, seja persuadindo um membro da equipe da OpenAI ou usando engenharia social. J\u00e1 vimos alguns di\u00e1logos surpreendentes dos chatbots de hoje.&nbsp;<\/p>\n\n\n\n<p><strong><em>Voc\u00ea n\u00e3o acha que isso se eleva ao n\u00edvel de preocupa\u00e7\u00e3o?<\/em><\/strong><\/p>\n\n\n\n<p>Leike: N\u00e3o provamos conclusivamente que ele n\u00e3o pode. Mas tamb\u00e9m entendemos bem as limita\u00e7\u00f5es do modelo. Acho que esta \u00e9 a resposta mais precisa que posso dar no momento. J\u00e1 mexemos com isso bastante at\u00e9 agora e n\u00e3o vimos nenhuma evid\u00eancia de que o GPT-4 tenha as habilidades, e geralmente entendemos seu perfil de habilidades. E sim, acredito que ele possa persuadir algumas pessoas em alguns contextos, mas a barra \u00e9 muito mais alta aqui, certo? Para mim, h\u00e1 duas perguntas. Uma delas \u00e9 se ele pode fazer essas coisas. Ele \u00e9 capaz de persuadir algu\u00e9m a dar-lhe seus pesos? A outra coisa \u00e9 apenas se ele gostaria de fazer isso.&nbsp;<\/p>\n\n\n\n<p><strong><em>A quest\u00e3o de alinhamento \u00e9 ambas essas quest\u00f5es?<\/em><\/strong><\/p>\n\n\n\n<p>Leike: Adoro essa pergunta. \u00c9 uma \u00f3tima pergunta porque \u00e9 realmente \u00fatil se voc\u00ea puder separar as duas coisas. Porque, se ele n\u00e3o pode se auto-exfiltrar, n\u00e3o importa se ele deseja se auto-exfiltrar. Se ele pudesse se auto-exfiltrar e tiver as capacidades para ter sucesso com alguma probabilidade, ent\u00e3o realmente importa se ele deseja faz\u00ea-lo. Uma vez que o modelo seja suficientemente capaz de fazer isso, nossas t\u00e9cnicas de alinhamento precisam ser a linha de defesa. \u00c9 por isso que entender o risco do modelo se auto-exfiltrar \u00e9 muito importante, porque nos d\u00e1 uma ideia de at\u00e9 onde nossas outras t\u00e9cnicas de alinhamento precisam ir para garantir que o modelo n\u00e3o represente um risco para o mundo.<\/p>\n\n\n\n<p><strong><em>Podemos falar sobre interpretabilidade e como isso pode ajud\u00e1-lo em sua busca pelo alinhamento?<\/em><\/strong><\/p>\n\n\n\n<p>Leike: Se voc\u00ea pensar nisso, temos, de certa forma, os scanners cerebrais perfeitos para modelos de aprendizado de m\u00e1quina, onde podemos medi-los absolutamente, exatamente a cada passo importante. Portanto, seria meio que loucura n\u00e3o tentar usar essas informa\u00e7\u00f5es para descobrir como estamos nos saindo no alinhamento. A interpretabilidade \u00e9 um campo realmente interessante, onde h\u00e1 tantas perguntas em aberto e entendemos t\u00e3o pouco que h\u00e1 muito a ser trabalhado. Mas, em um n\u00edvel superior, mesmo que resolv\u00eassemos completamente a quest\u00e3o da interpretabilidade, n\u00e3o sei como isso nos permitiria resolver o alinhamento isoladamente. E, por outro lado, \u00e9 poss\u00edvel que possamos resolver o alinhamento sem realmente sermos capazes de fazer qualquer interpretabilidade. Mas tamb\u00e9m acredito fortemente que qualquer grau de interpretabilidade que possamos alcan\u00e7ar ser\u00e1 super \u00fatil. Por exemplo, se voc\u00ea tiver ferramentas que lhe d\u00e3o um detector de mentiras rudimentar, onde pode detectar se o modelo est\u00e1 mentindo em algum contexto, mas n\u00e3o em outros, isso claramente seria muito \u00fatil. Portanto, mesmo o progresso parcial pode nos ajudar aqui.<\/p>\n\n\n\n<p><strong><em>Portanto, se voc\u00ea pudesse olhar para um sistema que est\u00e1 mentindo e um sistema que n\u00e3o est\u00e1 mentindo e ver qual \u00e9 a diferen\u00e7a, isso seria \u00fatil.<\/em><\/strong><\/p>\n\n\n\n<p>Leike: Ou voc\u00ea d\u00e1 ao sistema uma s\u00e9rie de prompts e depois v\u00ea, oh, em alguns dos prompts, nosso detector de mentiras dispara, o que est\u00e1 acontecendo com isso? Uma coisa realmente importante aqui \u00e9 que voc\u00ea n\u00e3o quer treinar suas ferramentas de interpretabilidade. Porque voc\u00ea pode fazer com que o modelo tenha menos interpreta\u00e7\u00e3o e apenas esconda melhor seus pensamentos. Mas, digamos que perguntou hipoteticamente ao modelo: &#8220;Qual \u00e9 a sua miss\u00e3o?&#8221; E ele diz algo sobre o florescimento humano, mas o detector de mentiras dispara &#8211; isso seria preocupante. Isso significa que devemos voltar e realmente tentar descobrir o que fizemos de errado em nossas t\u00e9cnicas de treinamento.<\/p>\n\n\n\n<p><strong><em>J\u00e1 ouvi voc\u00ea dizer que \u00e9 otimista porque n\u00e3o precisa resolver o problema de alinhar a intelig\u00eancia artificial superinteligente. Voc\u00ea s\u00f3 precisa resolver o problema de alinhar a pr\u00f3xima gera\u00e7\u00e3o de intelig\u00eancia artificial. Voc\u00ea pode falar sobre como imagina que essa progress\u00e3o ocorrer\u00e1 e como a IA pode realmente fazer parte da solu\u00e7\u00e3o para o pr\u00f3prio problema?<\/em><\/strong><\/p>\n\n\n\n<p>Leike: Basicamente, a ideia \u00e9 que, se voc\u00ea conseguir fazer, digamos, uma IA ligeiramente super-humana suficientemente alinhada e pudermos confiar em seu trabalho em pesquisa de alinhamento, ent\u00e3o ela ser\u00e1 mais capaz do que n\u00f3s em fazer essa pesquisa. E tamb\u00e9m alinhada o suficiente para que possamos confiar noproduto de seu trabalho. Com isso ter\u00edamos maneiras de fazer pesquisa de alinhamento mais r\u00e1pido e melhor do que jamais poder\u00edamos ter feito sozinhos. E, ao mesmo tempo, esse objetivo parece muito mais realiz\u00e1vel do que tentar descobrir como realmente alinhar a superintelig\u00eancia sozinhos.<\/p>\n\n\n\n<p><strong><em>Em um dos documentos que a OpenAI divulgou sobre este an\u00fancio, foi dito que um poss\u00edvel limite do trabalho era que os modelos menos capazes que podem ajudar na pesquisa de alinhamento podem j\u00e1 ser muito perigosos se n\u00e3o estiverem devidamente alinhados. Voc\u00ea pode falar sobre isso e como saberia se algo j\u00e1 \u00e9 muito perigoso?<\/em><\/strong><\/p>\n\n\n\n<p>Leike: Essa \u00e9 uma observa\u00e7\u00e3o comum. E acho que vale a pena levar isso muito a s\u00e9rio. Esta \u00e9 parte da raz\u00e3o pela qual estamos estudando: qu\u00e3o bom \u00e9 o modelo em se auto-exfiltrar? Qu\u00e3o bom \u00e9 o modelo em rela\u00e7\u00e3o \u00e0 farsa? Para que tenhamos evid\u00eancias emp\u00edricas sobre essa pergunta. Voc\u00ea ser\u00e1 capaz de ver o qu\u00e3o perto estamos do ponto em que os modelos est\u00e3o realmente se tornando muito perigosos. Ao mesmo tempo, podemos fazer uma an\u00e1lise semelhante sobre o qu\u00e3o bom \u00e9 esse modelo para pesquisa de alinhamento agora, ou qu\u00e3o bom o pr\u00f3ximo modelo ser\u00e1. Portanto, realmente podemos acompanhar a evid\u00eancia emp\u00edrica sobre essa quest\u00e3o de qual vir\u00e1 primeiro. Estou bastante convencido de que os modelos devem ser capazes de nos ajudar com a pesquisa de alinhamento antes de se tornarem realmente perigosos, porque parece que \u00e9 um problema mais f\u00e1cil.<\/p>\n\n\n\n<p><strong><em>Ent\u00e3o, qu\u00e3o desalinhado um modelo teria que ser para voc\u00ea dizer: &#8220;Isso \u00e9 perigoso e n\u00e3o deve ser lan\u00e7ado&#8221;? Seria sobre habilidades de engano ou habilidades de exfiltra\u00e7\u00e3o?<\/em><\/strong><\/p>\n\n\n\n<p>Leike: Eu n\u00e3o tenho uma resposta para essa pergunta, porque acho que depende do qu\u00e3o perigosa \u00e9 a tecnologia que a IA pode acessar. Se voc\u00ea, hipoteticamente, tivesse IA que poderia acessar armas nucleares, isso seria muito perigoso, mesmo que a IA fosse bastante tola. Portanto, acho que realmente precisa ser olhado caso a caso. \u00c9 por isso que estamos estudando essas duas perguntas de auto-exfiltra\u00e7\u00e3o e persuas\u00e3o, para realmente entender onde est\u00e3o os riscos.<\/p>\n\n\n\n<p><strong><em>Qual \u00e9 o prazo para esses limites? Porque, obviamente, h\u00e1 um limite em que voc\u00ea n\u00e3o tem tempo para fazer experimentos. Qual \u00e9 o limite de tempo em que voc\u00ea precisa descobrir qu\u00e3o perigosa \u00e9 a tecnologia e qu\u00e3o boas podem ser as tecnologias de pesquisa de alinhamento?<\/em><\/strong><\/p>\n\n\n\n<p>Leike: N\u00e3o acho que posso responder a essa pergunta de maneira conclusiva, porque, se pudesse, estar\u00edamos muito mais perto de resolver o problema. Essa \u00e9 uma das coisas que torna t\u00e3o desafiador, \u00e9 que realmente n\u00e3o sabemos quando chegaremos a esses pontos. Mas acredito que temos uma ideia bastante boa do que precisamos entender para responder a essa pergunta. E \u00e9 o que estamos fazendo agora, tentando descobrir qu\u00e3o bom \u00e9 o modelo em se auto-exfiltrar. Buscando descobrir qu\u00e3o bom \u00e9 o modelo em ser persuasivo.Procurando entender qu\u00e3o bom o modelo \u00e9 em tarefas de interpretabilidade. E com essas respostas, podemos fazer uma avalia\u00e7\u00e3o mais informada sobre quais modelos s\u00e3o seguros e quais n\u00e3o.<\/p>\n\n\n\n<p><strong><em>Voc\u00ea j\u00e1 viu algum progresso tang\u00edvel em sua pesquisa at\u00e9 agora? Existem alguns resultados iniciais que pode compartilhar?<\/em><\/strong><\/p>\n\n\n\n<p>Leike: Ainda n\u00e3o tenho resultados prontos para compartilhar porque estamos no in\u00edcio. Mas estamos vendo progresso em algumas frentes. J\u00e1 come\u00e7amos a experimentar algumas ideias e vendo algumas coisas interessantes. Mas ainda \u00e9 cedo para dizer com confian\u00e7a que encontramos uma solu\u00e7\u00e3o. Acho que \u00e9 prov\u00e1vel que seja um processo longo. E esse \u00e9 um dos motivos pelos quais estamos come\u00e7ando agora. Queremos garantir que tenhamos tempo suficiente para realmente trabalhar nisso antes que as tecnologias se tornem realmente perigosas.<\/p>\n\n\n\n<p><strong><em>Voc\u00ea pode falar sobre o que acontece depois de 2027? O que acontece depois que resolver o problema da pr\u00f3xima gera\u00e7\u00e3o?<\/em><\/strong><\/p>\n\n\n\n<p>Leike: A verdade \u00e9 que n\u00e3o sabemos o que acontecer\u00e1 depois de 2027. Espero que o programa superalinhamento da OpenAI possa ter sucesso at\u00e9 l\u00e1, mas o que acontecer\u00e1 al\u00e9m disso depender\u00e1 das circunst\u00e2ncias na \u00e9poca. Se tivermos sucesso, \u00e9 poss\u00edvel que nossa pesquisa tenha um grande impacto e nos ajude a criar sistemas de IA seguros e alinhados que possam ser usados com responsabilidade em uma variedade de aplica\u00e7\u00f5es. Mas a OpenAI e a comunidade de pesquisa em IA continuar\u00e3o a enfrentar desafios \u00e9ticos e de seguran\u00e7a \u00e0 medida que a tecnologia avance, e ser\u00e1 importante manter um di\u00e1logo aberto e colaborativo para abordar esses desafios de forma eficaz.<\/p>\n\n\n\n<p><strong><em>Vou terminar com uma pergunta mais ampla. Voc\u00ea tem algum pensamento final que deseja compartilhar sobre o trabalho que est\u00e3o fazendo na OpenAI, o campo de alinhamento em geral ou como as pessoas podem se envolver?<\/em><\/strong><\/p>\n\n\n\n<p>Leike: Acho que este \u00e9 um problema extremamente desafiador, mas tamb\u00e9m \u00e9 um dos mais importantes que a humanidade enfrenta na era da IA avan\u00e7ada. Estou muito entusiasmado com o trabalho que estamos fazendo na OpenAI e estou otimista de que, com colabora\u00e7\u00e3o e pesquisa rigorosa, podemos encontrar solu\u00e7\u00f5es para garantir que a IA avan\u00e7ada seja segura e ben\u00e9fica para a humanidade. Encorajo todas as pessoas interessadas em IA a se envolverem, estudarem o alinhamento e trabalharem juntas para enfrentar esses desafios. \u00c9 um esfor\u00e7o global e precisamos da contribui\u00e7\u00e3o de muitos para ter sucesso.<\/p>\n\n\n\n<p><em>Fonte<\/em><em>: Esta entrevista foi originalmente publicada no site IEEE Spectrum em 17 de agosto de 2023, sob o t\u00edtulo &#8220;OpenAI\u2019s Jan Leike on the Hail Mary Plan to Align AGI&#8221;. Foi realizada por Samuel K. Moore e traduzida para o portugu\u00eas.<\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Recentemente, em julho de 2023, a OpenAI anunciou um novo programa de pesquisa chamado &#8220;superalinhamento&#8220;, com&nbsp; o ambicioso objetivo de resolver um dos desafios mais importantes do setor, conhecido como Alinhamento de IA, at\u00e9 2027, um esfor\u00e7o ao qual a empresa respons\u00e1vel pelo ChatGPT est\u00e1 dedicando 20% de sua capacidade computacional total. Mas o que [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":1922,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[51],"tags":[],"class_list":["post-1921","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-blog"],"yoast_head":"<!-- This site is optimized with the Yoast SEO Premium plugin v23.0 (Yoast SEO v23.0) - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Reduzindo o medo e as amea\u00e7as da Intelig\u00eancia Artificial - techmoney.ai<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/techmoney.ai\/br\/reduzindo-o-medo-e-as-ameacas-da-inteligencia-artificial\/\" \/>\n<meta property=\"og:locale\" content=\"pt_BR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Reduzindo o medo e as amea\u00e7as da Intelig\u00eancia Artificial\" \/>\n<meta property=\"og:description\" content=\"Recentemente, em julho de 2023, a OpenAI anunciou um novo programa de pesquisa chamado &#8220;superalinhamento&#8220;, com&nbsp; o ambicioso objetivo de resolver um dos desafios mais importantes do setor, conhecido como Alinhamento de IA, at\u00e9 2027, um esfor\u00e7o ao qual a empresa respons\u00e1vel pelo ChatGPT est\u00e1 dedicando 20% de sua capacidade computacional total. Mas o que [&hellip;]\" \/>\n<meta property=\"og:url\" content=\"https:\/\/techmoney.ai\/br\/reduzindo-o-medo-e-as-ameacas-da-inteligencia-artificial\/\" \/>\n<meta property=\"og:site_name\" content=\"techmoney.ai\" \/>\n<meta property=\"article:published_time\" content=\"2023-10-02T19:46:05+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2025-08-18T20:39:38+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/techmoney.ai\/wp-content\/uploads\/2023\/10\/human-ia-1024x576.png\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"576\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"Christiano Neis\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Escrito por\" \/>\n\t<meta name=\"twitter:data1\" content=\"Christiano Neis\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. tempo de leitura\" \/>\n\t<meta name=\"twitter:data2\" content=\"19 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/techmoney.ai\/reduzindo-o-medo-e-as-ameacas-da-inteligencia-artificial\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/techmoney.ai\/reduzindo-o-medo-e-as-ameacas-da-inteligencia-artificial\/\"},\"author\":{\"name\":\"Christiano Neis\",\"@id\":\"https:\/\/techmoney.ai\/br\/#\/schema\/person\/24d81e3a562b03fb317f63ccf57cf8f1\"},\"headline\":\"Reduzindo o medo e as amea\u00e7as da Intelig\u00eancia Artificial\",\"datePublished\":\"2023-10-02T19:46:05+00:00\",\"dateModified\":\"2025-08-18T20:39:38+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/techmoney.ai\/reduzindo-o-medo-e-as-ameacas-da-inteligencia-artificial\/\"},\"wordCount\":3774,\"commentCount\":0,\"publisher\":{\"@id\":\"https:\/\/techmoney.ai\/br\/#organization\"},\"image\":{\"@id\":\"https:\/\/techmoney.ai\/reduzindo-o-medo-e-as-ameacas-da-inteligencia-artificial\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/techmoney.ai\/wp-content\/uploads\/2023\/10\/human-ia.png\",\"articleSection\":[\"blog\"],\"inLanguage\":\"pt-BR\",\"potentialAction\":[{\"@type\":\"CommentAction\",\"name\":\"Comment\",\"target\":[\"https:\/\/techmoney.ai\/reduzindo-o-medo-e-as-ameacas-da-inteligencia-artificial\/#respond\"]}]},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/techmoney.ai\/reduzindo-o-medo-e-as-ameacas-da-inteligencia-artificial\/\",\"url\":\"https:\/\/techmoney.ai\/reduzindo-o-medo-e-as-ameacas-da-inteligencia-artificial\/\",\"name\":\"Reduzindo o medo e as amea\u00e7as da Intelig\u00eancia Artificial - techmoney.ai\",\"isPartOf\":{\"@id\":\"https:\/\/techmoney.ai\/br\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/techmoney.ai\/reduzindo-o-medo-e-as-ameacas-da-inteligencia-artificial\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/techmoney.ai\/reduzindo-o-medo-e-as-ameacas-da-inteligencia-artificial\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/techmoney.ai\/wp-content\/uploads\/2023\/10\/human-ia.png\",\"datePublished\":\"2023-10-02T19:46:05+00:00\",\"dateModified\":\"2025-08-18T20:39:38+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/techmoney.ai\/reduzindo-o-medo-e-as-ameacas-da-inteligencia-artificial\/#breadcrumb\"},\"inLanguage\":\"pt-BR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/techmoney.ai\/reduzindo-o-medo-e-as-ameacas-da-inteligencia-artificial\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\/\/techmoney.ai\/reduzindo-o-medo-e-as-ameacas-da-inteligencia-artificial\/#primaryimage\",\"url\":\"https:\/\/techmoney.ai\/wp-content\/uploads\/2023\/10\/human-ia.png\",\"contentUrl\":\"https:\/\/techmoney.ai\/wp-content\/uploads\/2023\/10\/human-ia.png\",\"width\":1920,\"height\":1080},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/techmoney.ai\/reduzindo-o-medo-e-as-ameacas-da-inteligencia-artificial\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/techmoney.ai\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Reduzindo o medo e as amea\u00e7as da Intelig\u00eancia Artificial\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/techmoney.ai\/br\/#website\",\"url\":\"https:\/\/techmoney.ai\/br\/\",\"name\":\"techmoney.ai\",\"description\":\"Artificial Intelligence | Digital Transformation | Mobile &amp; Cloud Solutions | Omnichannel\",\"publisher\":{\"@id\":\"https:\/\/techmoney.ai\/br\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/techmoney.ai\/br\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"pt-BR\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/techmoney.ai\/br\/#organization\",\"name\":\"techmoney.ai\",\"url\":\"https:\/\/techmoney.ai\/br\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\/\/techmoney.ai\/br\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/techmoney.ai\/wp-content\/uploads\/2023\/06\/techmoney-logo.png\",\"contentUrl\":\"https:\/\/techmoney.ai\/wp-content\/uploads\/2023\/06\/techmoney-logo.png\",\"width\":1137,\"height\":314,\"caption\":\"techmoney.ai\"},\"image\":{\"@id\":\"https:\/\/techmoney.ai\/br\/#\/schema\/logo\/image\/\"}},{\"@type\":\"Person\",\"@id\":\"https:\/\/techmoney.ai\/br\/#\/schema\/person\/24d81e3a562b03fb317f63ccf57cf8f1\",\"name\":\"Christiano Neis\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\/\/techmoney.ai\/br\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/4cb03ea150768752126a8f64c1b94b907eb108ea77c24d7fc36a41de2c34e048?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/4cb03ea150768752126a8f64c1b94b907eb108ea77c24d7fc36a41de2c34e048?s=96&d=mm&r=g\",\"caption\":\"Christiano Neis\"},\"description\":\"Fundador da Techmoney.ai\",\"url\":\"https:\/\/techmoney.ai\/br\/author\/chris\/\"}]}<\/script>\n<!-- \/ Yoast SEO Premium plugin. -->","yoast_head_json":{"title":"Reduzindo o medo e as amea\u00e7as da Intelig\u00eancia Artificial - techmoney.ai","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/techmoney.ai\/br\/reduzindo-o-medo-e-as-ameacas-da-inteligencia-artificial\/","og_locale":"pt_BR","og_type":"article","og_title":"Reduzindo o medo e as amea\u00e7as da Intelig\u00eancia Artificial","og_description":"Recentemente, em julho de 2023, a OpenAI anunciou um novo programa de pesquisa chamado &#8220;superalinhamento&#8220;, com&nbsp; o ambicioso objetivo de resolver um dos desafios mais importantes do setor, conhecido como Alinhamento de IA, at\u00e9 2027, um esfor\u00e7o ao qual a empresa respons\u00e1vel pelo ChatGPT est\u00e1 dedicando 20% de sua capacidade computacional total. Mas o que [&hellip;]","og_url":"https:\/\/techmoney.ai\/br\/reduzindo-o-medo-e-as-ameacas-da-inteligencia-artificial\/","og_site_name":"techmoney.ai","article_published_time":"2023-10-02T19:46:05+00:00","article_modified_time":"2025-08-18T20:39:38+00:00","og_image":[{"width":1024,"height":576,"url":"https:\/\/techmoney.ai\/wp-content\/uploads\/2023\/10\/human-ia-1024x576.png","type":"image\/png"}],"author":"Christiano Neis","twitter_card":"summary_large_image","twitter_misc":{"Escrito por":"Christiano Neis","Est. tempo de leitura":"19 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/techmoney.ai\/reduzindo-o-medo-e-as-ameacas-da-inteligencia-artificial\/#article","isPartOf":{"@id":"https:\/\/techmoney.ai\/reduzindo-o-medo-e-as-ameacas-da-inteligencia-artificial\/"},"author":{"name":"Christiano Neis","@id":"https:\/\/techmoney.ai\/br\/#\/schema\/person\/24d81e3a562b03fb317f63ccf57cf8f1"},"headline":"Reduzindo o medo e as amea\u00e7as da Intelig\u00eancia Artificial","datePublished":"2023-10-02T19:46:05+00:00","dateModified":"2025-08-18T20:39:38+00:00","mainEntityOfPage":{"@id":"https:\/\/techmoney.ai\/reduzindo-o-medo-e-as-ameacas-da-inteligencia-artificial\/"},"wordCount":3774,"commentCount":0,"publisher":{"@id":"https:\/\/techmoney.ai\/br\/#organization"},"image":{"@id":"https:\/\/techmoney.ai\/reduzindo-o-medo-e-as-ameacas-da-inteligencia-artificial\/#primaryimage"},"thumbnailUrl":"https:\/\/techmoney.ai\/wp-content\/uploads\/2023\/10\/human-ia.png","articleSection":["blog"],"inLanguage":"pt-BR","potentialAction":[{"@type":"CommentAction","name":"Comment","target":["https:\/\/techmoney.ai\/reduzindo-o-medo-e-as-ameacas-da-inteligencia-artificial\/#respond"]}]},{"@type":"WebPage","@id":"https:\/\/techmoney.ai\/reduzindo-o-medo-e-as-ameacas-da-inteligencia-artificial\/","url":"https:\/\/techmoney.ai\/reduzindo-o-medo-e-as-ameacas-da-inteligencia-artificial\/","name":"Reduzindo o medo e as amea\u00e7as da Intelig\u00eancia Artificial - techmoney.ai","isPartOf":{"@id":"https:\/\/techmoney.ai\/br\/#website"},"primaryImageOfPage":{"@id":"https:\/\/techmoney.ai\/reduzindo-o-medo-e-as-ameacas-da-inteligencia-artificial\/#primaryimage"},"image":{"@id":"https:\/\/techmoney.ai\/reduzindo-o-medo-e-as-ameacas-da-inteligencia-artificial\/#primaryimage"},"thumbnailUrl":"https:\/\/techmoney.ai\/wp-content\/uploads\/2023\/10\/human-ia.png","datePublished":"2023-10-02T19:46:05+00:00","dateModified":"2025-08-18T20:39:38+00:00","breadcrumb":{"@id":"https:\/\/techmoney.ai\/reduzindo-o-medo-e-as-ameacas-da-inteligencia-artificial\/#breadcrumb"},"inLanguage":"pt-BR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/techmoney.ai\/reduzindo-o-medo-e-as-ameacas-da-inteligencia-artificial\/"]}]},{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/techmoney.ai\/reduzindo-o-medo-e-as-ameacas-da-inteligencia-artificial\/#primaryimage","url":"https:\/\/techmoney.ai\/wp-content\/uploads\/2023\/10\/human-ia.png","contentUrl":"https:\/\/techmoney.ai\/wp-content\/uploads\/2023\/10\/human-ia.png","width":1920,"height":1080},{"@type":"BreadcrumbList","@id":"https:\/\/techmoney.ai\/reduzindo-o-medo-e-as-ameacas-da-inteligencia-artificial\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/techmoney.ai\/"},{"@type":"ListItem","position":2,"name":"Reduzindo o medo e as amea\u00e7as da Intelig\u00eancia Artificial"}]},{"@type":"WebSite","@id":"https:\/\/techmoney.ai\/br\/#website","url":"https:\/\/techmoney.ai\/br\/","name":"techmoney.ai","description":"Artificial Intelligence | Digital Transformation | Mobile &amp; Cloud Solutions | Omnichannel","publisher":{"@id":"https:\/\/techmoney.ai\/br\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/techmoney.ai\/br\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"pt-BR"},{"@type":"Organization","@id":"https:\/\/techmoney.ai\/br\/#organization","name":"techmoney.ai","url":"https:\/\/techmoney.ai\/br\/","logo":{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/techmoney.ai\/br\/#\/schema\/logo\/image\/","url":"https:\/\/techmoney.ai\/wp-content\/uploads\/2023\/06\/techmoney-logo.png","contentUrl":"https:\/\/techmoney.ai\/wp-content\/uploads\/2023\/06\/techmoney-logo.png","width":1137,"height":314,"caption":"techmoney.ai"},"image":{"@id":"https:\/\/techmoney.ai\/br\/#\/schema\/logo\/image\/"}},{"@type":"Person","@id":"https:\/\/techmoney.ai\/br\/#\/schema\/person\/24d81e3a562b03fb317f63ccf57cf8f1","name":"Christiano Neis","image":{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/techmoney.ai\/br\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/4cb03ea150768752126a8f64c1b94b907eb108ea77c24d7fc36a41de2c34e048?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/4cb03ea150768752126a8f64c1b94b907eb108ea77c24d7fc36a41de2c34e048?s=96&d=mm&r=g","caption":"Christiano Neis"},"description":"Fundador da Techmoney.ai","url":"https:\/\/techmoney.ai\/br\/author\/chris\/"}]}},"_links":{"self":[{"href":"https:\/\/techmoney.ai\/br\/wp-json\/wp\/v2\/posts\/1921","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/techmoney.ai\/br\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/techmoney.ai\/br\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/techmoney.ai\/br\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/techmoney.ai\/br\/wp-json\/wp\/v2\/comments?post=1921"}],"version-history":[{"count":1,"href":"https:\/\/techmoney.ai\/br\/wp-json\/wp\/v2\/posts\/1921\/revisions"}],"predecessor-version":[{"id":1923,"href":"https:\/\/techmoney.ai\/br\/wp-json\/wp\/v2\/posts\/1921\/revisions\/1923"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/techmoney.ai\/br\/wp-json\/wp\/v2\/media\/1922"}],"wp:attachment":[{"href":"https:\/\/techmoney.ai\/br\/wp-json\/wp\/v2\/media?parent=1921"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/techmoney.ai\/br\/wp-json\/wp\/v2\/categories?post=1921"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/techmoney.ai\/br\/wp-json\/wp\/v2\/tags?post=1921"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}