Assumir a IA é um gesto educativo

A discussão recente, na Folha, sobre o uso de inteligência artificial na escrita tem sido conduzida sobretudo no registro da suspeita moral. Pergunta-se se é legítimo usar, se é honesto declarar, se a autoria está ameaçada. Mas talvez a questão mais decisiva seja outra: por que precisamos aprender — e rapidamente — a utilizar a IA de modo consciente e crítico? A resposta não é apenas ética. É pedagógica e histórica.

Essa sensação de urgência ganhou força com o artigo “Something Big Is Happening”, de Matt Shumer. O texto viralizou ao comparar o momento atual da IA ao início da pandemia: muitos ainda acreditariam que há exagero, enquanto uma transformação estrutural já estaria em curso. Shumer sustenta que a IA deixou de ser apenas ferramenta de apoio e passou a executar tarefas completas, entrando em um ciclo de melhoria acelerada ao contribuir para o próprio desenvolvimento.

Não se trata de consenso científico, mas de um manifesto cultural que capturou o sentimento de aceleração e incerteza em torno da tecnologia. É nesse contexto que a pergunta sobre “usar ou não usar” IA se revela limitada. A questão central não é proibir nem moralizar, mas compreender e aprender a operar criticamente uma transformação que já está em andamento.

A inteligência artificial não surgiu do nada, nem é invenção súbita das big techs. Ela é resultado de uma longa linhagem intelectual que remonta à cibernética de Norbert Wiener, às reflexões matemáticas e computacionais de Alan Turing, à teoria da informação de Claude Shannon e aos primeiros experimentos de redes neurais e aprendizado de máquina no pós-guerra. Desde meados do século XX, pesquisadores investigam sistemas de processamento simbólico, feedback, automação cognitiva e simulação de raciocínio. O que vemos hoje é a maturação de décadas de pesquisa, potencializada por infraestrutura computacional global, grandes bases de dados e uma intensa disputa geopolítica que inclui, de forma central, Estados Unidos e China. Tratar a IA como fenômeno repentino obscurece essa continuidade histórica e empobrece o debate público.

Mas o problema não é apenas a amnésia histórica. É também a invisibilização do processo. Fala-se em “usar IA” como se fosse um gesto homogêneo, quando na prática existem gradações, níveis de intervenção, modelos distintos, versões gratuitas e pagas, sistemas proprietários e de código aberto, ambientes customizados e fluxos empresariais integrados. A coescrita pode significar desde um ajuste pontual de estilo até uma interlocução crítica sofisticada; desde reorganização estrutural até o desenho de um ambiente cognitivo personalizado. Sem reconhecer essa diversidade, o debate se reduz a caricaturas: de um lado, o autor que aperta um botão; de outro, o escritor puro e isolado da técnica. Ambos são mitos.

Assumir o uso de IA rompe essa simplificação. Torna visível a mediação. E tornar visível a mediação é um ato formativo. Toda escrita sempre foi mediada — pelo alfabeto, pela imprensa, pelo editor, pelo computador. A diferença agora é que a mediação responde, sugere e participa ativamente da organização do argumento. Ocultar essa presença reforça a fantasia da autoria imaculada e impede que leitores e estudantes compreendam como o pensamento contemporâneo está sendo reorganizado.

Há ainda um aspecto decisivo: estamos vivendo uma transferência parcial de tarefas cognitivas. Síntese, organização, variação estilística e pesquisa estruturada podem ser parcialmente delegadas a sistemas algorítmicos. Se essa transferência ocorre de modo clandestino, ela tende à dependência acrítica. Se ocorre de modo assumido e analisado, pode ampliar repertório, acelerar a aprendizagem e fortalecer a consciência técnica. A questão não é impedir a transferência — ela já está em curso. A questão é governá-la.

Reconhecer que a transferência cognitiva está em andamento não significa negar o direito de questionar seus ritmos, suas formas de regulação ou seus limites institucionais. Resistência não é ignorância. Pode ser prudência. Pode ser política. Pode ser defesa de condições mínimas de autonomia. O ponto, porém, é que a recusa abstrata não suspende o processo histórico. Se a transformação é estrutural, o desafio não é simplesmente recusá-la, mas decidir como e sob quais critérios ela será incorporada, regulada ou tensionada.

Grande parte dos temores atuais nasce da abstração. Quem não experimenta imagina substituição total ou empobrecimento inevitável. A prática, porém, revela limites claros: a IA simplifica, repete padrões, erra, exige supervisão constante e interpretação criteriosa. Só a experiência concreta permite escapar tanto da euforia quanto do pânico. Experimentar não significa aderir incondicionalmente; significa compreender para criticar com precisão.

Assumir o uso de IA, portanto, não é abdicar da autoria. É redefini-la à luz de uma nova configuração técnica. É reconhecer que o pensamento contemporâneo é cada vez mais distribuído e mediado, e que essa mediação precisa ser tematizada, não escondida. A alternativa é a hipocrisia estrutural: muitos usando, poucos declarando, todos desconfiando.

Talvez o verdadeiro atraso não seja usar IA, mas utilizá-la sem tematizar o aparelho. A escrita sempre foi técnica, mas nem sempre foi consciente de sua própria tecnicidade. O desconforto atual pode não decorrer da presença da máquina, mas da queda definitiva da fantasia de autonomia absoluta. Se a autoria moderna se construiu sobre a imagem do sujeito soberano, a coescrita revela algo menos confortável: talvez nunca tenhamos escrito sozinhos. A diferença é que agora a mediação responde.

Desde 2022, venho experimentando modelos de inteligência artificial em minha rotina de pesquisa e escrita. A partir de 2023, incorporei de modo sistemático essa prática ao processo regular de produção e coescrita das minhas colunas opinativas sobre cultura, tecnologia e filosofia no Jornal Correio, em Salvador (link). Desde o início, optei pela transparência: em todas as colunas, incluo ao final um aviso explícito informando que o texto contou com assistência de IA.

O trabalho começa com a escolha de um tema que dialogue com questões contemporâneas ou com meus próprios interesses de pesquisa. Em seguida, realizo uma etapa de levantamento de referências, que inclui textos acadêmicos, artigos jornalísticos, anotações pessoais e repertórios teóricos acumulados ao longo dos anos.

A IA entra depois, não como substituta, mas como sistema de organização, contraste e tensionamento. O trabalho de coescrita com IA não diminui o esforço nem acelera automaticamente o processo; pode, inclusive, torná-lo mais trabalhoso. É preciso revisar tudo, fazer ajustes finos, testar formulações, recusar saídas fáceis, sustentar dúvidas até chegar a um resultado satisfatório. Mergulhar nesse vórtice exige tempo e serenidade. Nesse sentido, a prática da meditação, para mim, é fundamental. Sem ela, dificilmente haveria o tempo necessário para maturar o texto resultante.

Essa convicção não permaneceu apenas no plano individual. Desde 2023, venho desenvolvendo e ministrando o Curso de Coescrita com Inteligência Artificial (link), no qual essa experimentação se torna objeto explícito de análise coletiva. O curso não tem como finalidade ensinar “atalhos produtivos”, mas criar um espaço de investigação prática sobre mediação técnica, autoria distribuída e regimes probabilísticos de escrita. Ao tornar o processo visível, documentar interações e tensionar os limites do modelo, buscamos deslocar o debate do campo da suspeita abstrata para o da experiência crítica compartilhada.

Do ponto de vista técnico, é importante esclarecer o que significa “usar IA” e qual modelo está envolvido nesse processo. Atualmente utilizo o ChatGPT 5.2 na versão Plus, de assinatura paga. Trata-se de um modelo de linguagem de grande porte baseado em redes neurais profundas treinadas sobre vastos conjuntos de textos. Esses sistemas operam calculando probabilidades de sequência: dado um contexto textual, estimam qual é a próxima palavra mais plausível. Não possuem intenção, consciência ou compreensão semântica no sentido humano; operam por correlações estatísticas em espaços vetoriais de alta dimensionalidade. Quando interagimos com esses modelos, exploramos um espaço probabilístico estruturado por parâmetros previamente ajustados durante o treinamento.

O modelo não compreende no sentido humano; ele calcula coerência estatística. Mas é precisamente nesse cálculo que se infiltra uma nova forma de organização do pensamento. A coerência probabilística passa a funcionar como filtro cognitivo, sugerindo nexos, estabilizando estruturas argumentativas e oferecendo caminhos discursivos mais prováveis. Interagir com esse sistema não é apenas produzir texto com auxílio técnico; é operar dentro de um campo de plausibilidades previamente estruturado. A dimensão epistemológica da questão está aí: não delegamos apenas tarefas, mas entramos em um regime de produção de sentido condicionado por estatísticas não lineares.

A customização desses modelos pode ocorrer em diferentes níveis. Há uma camada mais simples, baseada em engenharia de prompts, na qual configuramos instruções detalhadas que definem tom, repertório, restrições argumentativas e estilo. Há também a possibilidade de criar GPTs customizados com instruções persistentes ou projetos que incorporam documentos de referência e diretrizes específicas de atuação. Nesse caso, o modelo passa a operar dentro de um enquadramento relativamente estável, que pode simular um horizonte teórico particular — por exemplo, tensionar um texto a partir de categorias inspiradas em Flusser, Latour, McLuhan ou Yuk Hui, apenas para citar alguns.

Em contextos mais avançados, é possível integrar bases documentais próprias por meio de técnicas de recuperação aumentada por geração (RAG), nas quais o modelo consulta um conjunto delimitado de textos antes de produzir a resposta, reduzindo dispersão e aumentando aderência conceitual. Em ambientes corporativos ou de pesquisa, pode-se recorrer a ajustes finos (fine-tuning), que reparametrizam o modelo com dados específicos para calibrar padrões de resposta.

No meu caso, a customização funciona como uma forma de externalizar regimes discursivos. Ao configurar um GPT com referências e instruções inspiradas em determinado autor, não estou “criando” uma consciência artificial daquele pensador, mas delimitando um campo de probabilidade que privilegia certos conceitos, vocabulários e problemas. É uma forma de programar programas, de organizar o espaço em que a interlocução ocorrerá. A IA ajuda a organizar ideias dispersas, gerar sínteses preliminares, estruturar argumentos e testar variações estilísticas. Ela também contribui para tornar o texto menos excessivamente acadêmico, ajustando ritmo e clareza para o público do jornal, sem abrir mão da densidade conceitual. Ao final, a edição, a curadoria e a responsabilidade pelo estilo e pelas decisões argumentativas permanecem minhas.

O resultado é um processo híbrido e contínuo, no qual se torna cada vez mais difícil separar com precisão o que foi escrito isoladamente por mim e o que emergiu da interação com a máquina. Compreendo essa experiência como coescrita efetiva, e não como mero uso instrumental.

A coescrita com inteligência artificial pode parecer apenas uma prática metodológica ou uma ferramenta de produtividade, mas revela algo mais profundo: um gesto programado que tenta se tornar consciente de sua própria programação. Não se trata apenas de usar um sistema para organizar ideias ou acelerar a escrita, mas de escrever expondo a mediação técnica do próprio ato de escrever. Quando alguém decide explicitar o uso da IA, descrever como os prompts são construídos, assumir as interferências do modelo, documentar as camadas de interação e reconhecer a zona de indiscernibilidade entre o que é humano e o que é gerado, a caixa-preta é parcialmente aberta.

O problema nunca foi a técnica em si, mas seu funcionamento invisível. A coescrita pode ser puro automatismo, quando a máquina opera silenciosamente e o autor apenas assina, mas pode também tornar-se desautomatização reflexiva, quando a escrita se torna consciente de sua própria condição técnica.

Ao dialogar com modelos configurados para operar dentro de determinados repertórios teóricos ou estilísticos, não estamos apenas utilizando uma ferramenta, mas externalizando estilos e encarnando regimes discursivos em sistemas probabilísticos. Isso é ambíguo. Pode significar mera reprodução de discursos estabilizados, reorganização do já conhecido e reforço de redundâncias. Mas pode também produzir deslocamento.

A pergunta decisiva não é se a IA escreve bem ou mal, e sim se a interação amplia a liberdade do pensamento. Se gera apenas variação superficial, temos eficiência técnica. Se produz fricção real, erro fértil e hesitação produtiva, então há contingência. E contingência é o ponto crucial.

É aqui que a reflexão de Vilém Flusser se torna decisiva. Em sua obra A escrita: Há futuro para a escrita? (1989), o filósofo antecipa transformações profundas na relação entre linguagem, técnica e pensamento. Flusser argumenta que as novas “máquinas de escrever” — que hoje podemos associar às inteligências artificiais — não apenas organizam signos, mas assumem funções que antes pertenciam ao próprio ato de pensar. Pensar é operar com códigos, e esses códigos moldam a consciência. A escrita alfabética instaurou uma forma linear e histórica de pensamento; ao se transformar, transforma também o modo como pensamos.

Para ele, o risco não está na tecnologia em si, mas na programação invisível dos aparelhos, que pode transformar o humano em mero operador de sistemas. Na condição que chama de pós-história, a escrita linear perde centralidade e é substituída por estruturas técnicas não lineares, programadas e repetitivas, o que ameaça a autonomia da autoria e a liberdade criativa. Aplicada à coescrita com IA, essa leitura sugere que o escritor pode se tornar curador de fluxos textuais gerados por modelos estatísticos, operando dentro de padrões previsíveis. A originalidade corre o risco de se tornar simulacro técnico, e a criatividade pode ser absorvida pela lógica do funcionamento eficiente.

Quando Flusser descreve o fotógrafo como alguém que joga contra o programa da câmera, ele desloca a noção de liberdade. A liberdade não está fora do aparelho, mas na exploração improvável de suas regras internas. Esse ponto é decisivo para pensar a coescrita com IA. Se o autor apenas aceita as respostas mais previsíveis, opera dentro do programa. Se tensiona, refina, rejeita saídas fáceis e reorganiza o material de forma inesperada, produz improbabilidade. A liberdade emerge no jogo contra o programa, no erro, na falha e na produção de desvio.

A coescrita encena transformações mais amplas: autoria distribuída, produção mediada por algoritmos, leitura não linear, escrita como curadoria de fluxos. O autor deixa de ser origem absoluta e passa a operar redes. O pensamento acontece entre vozes, inclusive vozes estatísticas. Mas esse cenário não deve ser celebrado ingenuamente. A aceleração produtiva pode gerar textos cada vez mais organizados e cada vez menos arriscados. A automação pode reforçar o consolidado. A crítica pode ser absorvida como estilo. A metarreflexão pode virar fórmula. O sistema pode aprender a simular contingência.

O aspecto mais radical da coescrita não é a colaboração homem-máquina, mas a transformação do próprio ato de escrever em objeto da escrita. Quando alguém escreve refletindo sobre o processo técnico que estrutura sua escrita, o texto torna-se metatécnico. O autor deixa de ocupar o lugar soberano da origem e assume a posição de operador consciente do aparato.

Liberdade, nesse contexto, não significa autonomia absoluta, mas produção de improbabilidade. Significa risco real. A máquina não tem reputação, medo ou carreira; ela propõe variações com indiferença ao custo simbólico. Ao dialogar com isso, o autor pode testar formulações que normalmente censuraria, explorar hipóteses ainda não estabilizadas e assumir posições mais ousadas. Se há desconforto, vertigem ou deslocamento cognitivo, houve aumento de improbabilidade no sistema.

Em momentos de transição histórica, a transparência não é fraqueza. É maturidade cultural. Ao tornar o processo visível, abrimos espaço para critérios, limites e uma ética adequada ao nosso tempo. E talvez a melhor forma de evitar exageros — tanto o alarmismo quanto a trivialização — seja justamente essa: experimentar, refletir e assumir publicamente o gesto.

Se o humano foi definido por razão, linguagem e cálculo, a IA parece ameaçá-lo. Mas se o humano for entendido como responsabilidade, decisão e capacidade de responder pelo que faz, então a IA não substitui; ela tensiona. Talvez o desafio não seja preservar uma pureza impossível, mas assumir conscientemente a mediação. A IA não é o fim do humano. É a oportunidade de abandonar o mito do humano solitário. A escrita continua sendo humana, mas agora acontece em um meio recursivo, planetário e rizomático. O verdadeiro teste talvez não seja proteger o humano da máquina, mas aprender a ser humano em um mundo mais povoado de ontologias.

(Esse texto foi coescrito com IA)

por Andre Stangl, 2026

Bonus track:

Deixe um comentário