RELATÓRIO DE GESTÃO FEVEREIRO 2026
Revolução Barulhenta
Introdução
Como navegar em um ambiente de grande ruído informacional, onde narrativas em teses de investimento oscilam em alta velocidade relativa aos fundamentos? Este desafio é o fio condutor deste relatório de gestão, ilustrado pelo tema que hoje domina o mercado: a inteligência artificial.
Investir envolve lidar com uma certeza inevitável: de tempos em tempos sua convicção será testada. No final de 2024, o mercado brasileiro sofreu uma forte correção, criando oportunidades que aproveitamos em nossos fundos e, em pouco mais de um ano, os ânimos já são outros. No lado internacional, convivemos com uma montanha russa de narrativas em Alphabet ao longo dos últimos cinco anos – posição esta que foi a maior contribuição de performance para os fundos neste mesmo período.
A linha entre resiliência e teimosia é sempre tênue. Nestes dois exemplos, nossa insistência foi recompensada – mas, naturalmente, a distinção só é clara ex post. Gerir hipóteses conflitantes e manter o equilíbrio emocional sob pressão é um exercício de aprimoramento diário. A agilidade para mudar de opinião quando os fundamentos mudam é igualmente vital. Para todo caso de investimento há também um conjunto de hipóteses adversas que devem ser rigorosamente testadas. Separar ruído de sinais exige disciplina e visão crítica.
O início de 2026 ilustra bem este ponto. Diversos negócios que historicamente comandaram múltiplos elevados – refletindo modelos asset-light, crescimento elevado, receitas recorrentes e margens atrativas – tiveram suas ações severamente penalizadas pelo mercado. É possível que a inteligência artificial comprima preços de certos serviços, facilite a substituição de intermediários tradicionais ou diminua switching costs ao tornar mais fácil a migração entre plataformas concorrentes. Alguns desses negócios podem, de fato, enfrentar uma compressão estrutural de múltiplos. Porém, a venda generalizada e indiscriminada que se instalou não distingue entre empresas genuinamente ameaçadas e franquias de alta qualidade, com vantagens competitivas que vão muito além do layer tecnológico. Neste ambiente, começamos a encontrar oportunidades em negócios profundamente enraizados em seus clientes, com sólida geração de caixa e baixo risco de valor terminal, negociando a valuations que consideramos incomuns e, em alguns casos, sem precedentes.
A seguir, compartilhamos algumas reflexões internas que guiam nossa gestão, partindo da premissa central de que, em dinâmicas tecnológicas complexas, previsões definitivas se tornam especialmente perigosas.
Revolução Barulhenta
Todo mundo parece já ter uma opinião formada sobre inteligência artificial. É um tema que desperta um certo fascínio no imaginário popular. Há um aspecto cultural que fomenta o assunto por décadas, pelos mais variados livros e filmes de ficção científica lançados nos últimos 70 anos. A comparação da inteligência humana com a das máquinas e a possibilidade de sermos superados tem uma atração sedutora que traz o debate para os holofotes.
Somado a este encantamento, há uma situação inusitada do ponto de vista de adoção tecnológica. Diferente de computadores, internet, celulares, GPS, entre outros, que começaram a ser usados primeiramente em instituições governamentais e grandes corporações, para depois se tornar algo corriqueiro na vida das pessoas, a inteligência artificial generativa traçou o caminho contrário. Desde o final de 2022, com o lançamento do ChatGPT, a tecnologia vem sendo testada inicialmente por milhões de indivíduos, para depois ser aplicada em larga escala nos governos e companhias privadas.
Esta combinação de ingredientes torna a transição tecnológica de AI diferente das demais. Compare, por exemplo, com a computação em nuvem que tem sido transformacional para inúmeros negócios. Sem ela, companhias como Nubank, Uber, Airbnb e iFood teriam tido dificuldade para escalarem os seus negócios. Por ser um serviço mais voltado a pessoas jurídicas, esta importante ferramenta tecnológica vem sendo implementada de forma quase silenciosa nos últimos 20 anos.
No campo oposto, temos a inteligência artificial: uma das revoluções mais barulhentas já vistas, carregada de hipérboles superficiais, previsões mirabolantes e falsas certezas. Isso não diminui seu potencial radical de mudança, mas exige curiosidade intelectual elevada para separar os avanços reais do ânimo midiático – por sua vez, essencial para viabilizar o financiamento da escala massiva de datacenters indispensável a esse futuro. Temos acompanhado o assunto de perto e nos impressionado cada vez mais com o potencial que algumas ferramentas já demonstram – inclusive o de elevar a produtividade do trabalho de análise de empresas.
No entanto, este não é um relatório sobre inteligência artificial. É sobre como uma revolução tecnológica rodeada de ruídos pode ser um prato cheio para conclusões precipitadas, inclusive para especialistas do ramo. Apesar dos avanços notáveis nos últimos anos, estamos ainda diante de uma revolução incipiente. Convicções absolutas no início de ondas exponenciais costumam ser o prefácio de más decisões de investimento.
O texto a seguir é dividido em duas partes. Na primeira etapa, contamos duas histórias de como pensamentos de primeira ordem levaram a falsos diagnósticos sobre o impacto da tecnologia. Na segunda, comentamos sobre armadilhas em previsões, destacando caminhos para prevenir conclusões afobadas.
Parte 1: Radiologia e a Falácia da Destruição de Empregos[1]
Em 2016, Geoffrey Hinton fez um prognóstico ousado: com base em sua linha de raciocínio, o cientista declarou que as universidades deveriam parar de formar radiologistas o quanto antes. Em poucos anos, os modelos de AI superariam os humanos em avaliações de exame de imagem. Professor emérito da Universidade de Toronto, PhD em inteligência artificial pela Universidade de Edimburgo, Hinton não é um especialista qualquer. É considerado uma das maiores referências mundiais em inteligência artificial. Muitos o reverenciam como “The Godfather of AI”, por suas contribuições acadêmicas sobre o campo de redes neurais e deep learning. Hinton lecionou e serviu como fonte de inspiração para uma legião de alunos, entre eles Yann LeCun, ex-cientista-chefe de AI da Meta, Ilya Sutskever e Andrej Karpathy, membros fundadores da OpenAI.
Desde então, a tecnologia e a inteligência artificial tiveram um impacto relevante dentro do mercado de radiologia. Diversas companhias como Annalise.ai, Lunit, Aidoc, Qure.ai, LumineticsCore, entre outras, lançaram modelos que são capazes de detectar centenas de doenças por meio de diferentes tipos de escaneamento, com acurácia e velocidade superior aos radiologistas. Algumas destas máquinas são capazes de funcionar sem a necessidade de um médico radiologista revisando qualquer tipo de imagem. De 2016 a 2025, de mais de 1.000 aplicações aprovadas pelo FDA com recursos de AI para equipamentos médico hospitalares, cerca de três quartos foram destinados a procedimentos de radiologia.
No entanto, a realidade foi na contramão da previsão de Hinton. Apesar do avanço tecnológico na área, o número de radiologistas cresceu 17% nos EUA em 9 anos, acima do crescimento populacional no período. Em 2025, a radiologia foi uma das cinco profissões de maior salário entre especialistas médicos nos EUA, com uma remuneração média de US$520.000/ano, 48% acima da média de 2015. Em outras palavras, a avaliação de Hinton sobre o impacto em empregos dentro do mercado radiológico se provou inteiramente equivocada.
O que Hinton subestimou em sua análise? Vemos três erros cruciais. Um diz respeito à velocidade do progresso tecnológico, o segundo sobre a natureza do trabalho de radiologista e o último de caráter setorial e regulatório. O primeiro pode ser considerado um erro de timing. Hinton estava certo na direção da onda, entretanto, mesmo quase dez anos depois, os sistemas de AI para diagnóstico de imagem possuem uma série de limitações, entre elas:
- Disparidade de performance entre situações reais, ou seja, dentro dos hospitais, e os testes de benchmark, que são rodados em ambientes controlados.
- Cobertura de um espectro limitado de doenças. Há poucos modelos de AI voltados para especialidades como cabeça, pescoço, coluna, tireoide, entre outros.
- O treinamento das máquinas é feito utilizando parâmetros específicos de imagens, onde o laudo fornecido pelo AI precisa ser inequívoco. Em muitos casos, imagens borradas, escuras demais ou de ângulo ruim são descartadas. Sob esta restrição, a performance dos modelos de AI é enviesada para os casos mais fáceis de serem diagnosticados. Em situações não convencionais, a experiência do radiologista torna-se necessária.
É de se imaginar que estas barreiras sejam transitórias, e portanto, tendam a ser superadas ao longo do tempo. Mas havia algo que Hinton também não tinha percebido em relação à profissão de radiologia. Os radiologistas possuem muito mais atribuições do que apenas ler exames de imagem. Eles aconselham médicos e cirurgiões, conversam com pacientes, escrevem relatórios e analisam registros médicos. São conhecidos informalmente por serem os ‘médicos dos médicos’. Quando um médico especialista está em dúvida sobre um diagnóstico, ele recorre ao radiologista para entender o que está acontecendo dentro do corpo do paciente. Muitos tratamentos e cirurgias só se iniciam após a contribuição fornecida por um radiologista.
Ainda que Hinton tivesse transformado os dois erros anteriores em acertos — ritmo de desenvolvimento tecnológico e compreensão da amplitude da profissão — ele teria subestimado a complexidade regulatória do setor de saúde americano. Nos EUA, seguradoras de planos de saúde relutam em aprovar procedimentos 100% autônomos e solicitam um laudo médico para mitigar riscos de responsabilidade civil. O sistema exige a validação de um profissional habilitado para que a responsabilidade legal seja claramente atribuída. Na prática, as seguradoras não estão dispostas a assumir o ônus de diagnósticos automatizados onde não exista uma figura humana para responder juridicamente por eventuais falhas.
Os entraves à automação total também derivam da incapacidade de sistemas de AI em navegar fora de parâmetros controlados. Os exames autônomos de retinopatia diabética da LumineticsCore ilustram bem esse ponto: o sistema só funciona se existirem duas fotografias da retina centradas na mácula, com resolução de pelo menos 1.000 x 1.000 pixels. Se existir diagnóstico prévio de retinopatia, o brilho da imagem for excessivo, as pupilas forem pequenas ou o foco for inadequado, o software interrompe o processamento e encaminha o paciente a um oftalmologista.[2].
Em retrospecto, Hinton reconheceu seu erro e ressaltou que fez uma análise direcionada simplesmente às avaliações de exames de imagem. Segundo ele, os avanços de AI devem tornar o trabalho de radiologia mais eficiente ao longo do tempo, aumentando produtividade e precisão. É o que tem de fato acontecido na prática. O sistema de hospitais da Mayo Clinic, por exemplo, tem usado AI para aperfeiçoar os diagnósticos de imagem, automatizar as tarefas rotineiras, identificar anomalias médicas e prever doenças. A inteligência artificial até então tem servido como um segundo par de olhos.[3].
Alphabet: Disruptado ou Disruptor?
No dia 30 de novembro de 2022, o mundo assistia ao surgimento do ChatGPT. Dois meses depois, o inovador serviço conversacional da OpenAI atingiu 100 milhões de usuários. Em fevereiro de 2023, o CEO da Microsoft – Satya Nadella – disse que finalmente traria competição ao mercado de search, depois de 20 anos de domínio absoluto do Google. A aliança entre Microsoft e OpenAI trazia um diferencial competitivo à mesa. Satya, que por anos liderou a divisão Bing da Microsoft, estava empolgado. Dizia na época em tom provocador: “Espero que, com a nossa inovação, eles definitivamente queiram sair e mostrar que sabem dançar. E quero que as pessoas saibam que nós os fizemos dançar.”.
Apesar de inventar a arquitetura tecnológica Transformer, que serviu de base para a criação dos modelos de LLM[4] do ChatGPT, o Google a adotou de forma tímida em seus serviços, como para melhorar o entendimento semântico de uma pesquisa e aperfeiçoar o autocomplete. Para o Google, usar este processamento de linguagem natural de forma tão aberta, em formato de chatbot, era arriscado. Alucinações de respostas eram comuns. Implementar esta tecnologia em massa poderia significar a perda de credibilidade dos seus resultados de busca. Já para um novo entrante, isto não parecia ser um risco tão grande. O franco atirador ChatGPT não tinha muito a perder. Além disso, a startup foi mais hábil do que o Google em utilizar sistemas de aprendizado por reforço com feedback humano, com o objetivo de reduzir os erros de resposta. O resultado foi um serviço capaz de fornecer informações sintetizadas de uma forma surpreendente, com uma baixa taxa de incoerências.
Na época, o consenso de mercado era de que a Alphabet tinha se tornado uma companhia burocrática, sem dono, incapaz de reter talentos e que seu CEO – Sundar Pichai – não estava apto ao cargo. Além disso, a nova forma de respostas diretas do ChatGPT ameaçava o modelo tradicional de links patrocinados do Google. O diagnóstico era de que a empresa estava presa na armadilha do Dilema do Inovador[5]. Muitos viam que, para se adaptar a um novo paradigma tecnológico, a companhia teria que canibalizar o seu próprio negócio.
O que antes era uma empresa pioneira em inteligência artificial passou a ser vista como uma ‘AI loser’, por muitos que acompanham de perto o setor de tecnologia.
Apesar do diagnóstico nada animador, de dezembro de 2022 até o fim de 2025 a ação da Alphabet obteve uma valorização de 257%, superior ao S&P 500 (+86%) e de outras companhias de tecnologia como Microsoft, Amazon, Apple e Netflix. Do 3Q22 ao 3Q25, a receita e o lucro operacional da Alphabet aumentaram 48% e 102%, respectivamente. Neste período, a companhia recomprou 7% de suas ações e empregou US$ 142 bilhões no seu negócio, gerando um retorno marginal neste capital investido de 39%[6].
No decorrer de 2025, a percepção do mercado em relação à Alphabet se inverteu completamente, em uma das mudanças de narrativas mais radicais que já presenciamos. Em questão de meses, a companhia deixou de ser um patinho feio para ser considerada um atacante dentro da corrida de AI, com vantagens competitivas únicas. Existe mérito na capacidade de execução da companhia, o que explica em algum grau a mudança de visão. A empresa tem sido bem sucedida em integrar novas soluções de AI dentro do seu rol de produtos e serviços. Entretanto, em uma empresa deste tamanho – com quase US$ 400 bilhões de receita – os fundamentos do negócio não se alteram na mesma velocidade em que o mercado oscila de opinião. Havia atributos importantes que não foram devidamente valorados pelo mercado nestes últimos anos[7].
- Um deles é a qualidade do capital humano, composto por um time de elite de cientistas de AI. A absoluta maioria das inovações em inteligência artificial existentes nasceram nos laboratórios de P&D da Alphabet. Isto está bastante atrelado ao poder de reação da companhia frente ao avanço da competição.
- Sua vantagem de distribuição é conhecida mas nos parece subestimada. É a única companhia no mundo que possui 10 serviços com mais de 1 bilhão de usuários (Search, Android, Youtube, Chrome, Maps, Drive, Gmail, Play Store, Photos e Workspace). Não é trivial um novo entrante superar esta barreira, mesmo detendo uma tecnologia sexy em mãos[8].
- Por último, é também a única empresa verticalizada em inteligência artificial, do design dos chips até a criação dos modelos. Isto foi desprezado até o ano passado, a despeito do fato da Alphabet desenvolver os seus chips de AI por mais de 10 anos. Isto tem possibilitado à companhia uma importante vantagem de custo frente aos novos competidores.
Pouco a pouco, foi-se percebendo que estas qualidades conferiam um poder de fogo à Alphabet tão relevante que ameaçava a vida dos próprios disruptores. Além disso, havia uma opcionalidade extra: a capacidade de fornecer respostas melhores, através dos modelos de LLM, poderia expandir o mercado endereçável de search. Era algo que considerávamos dentro do espectro de probabilidades. Mesmo com o advento do ChatGPT, as buscas por usuário dentro do Google não tinham sofrido alteração e seguiram crescendo, principalmente depois das novas funcionalidades do AI Overviews e AI Mode.
Em junho de 2025, a Coatue – uma renomada firma de investimentos focada no setor de tecnologia – fez uma lista com as 40 empresas mais beneficiadas por AI, chamada de ‘Fantastic 40’. Curiosamente, a Alphabet não fazia parte da lista. Era algo tão fora do lugar que foi corrigido poucos meses depois, mas ilustra o nível de pessimismo que o consenso atingiu.
No fim das contas, Satya estava certo de que faria o Google dançar. O nascimento de um forte competidor foi o wake-up call que fez o incumbente mudar de patamar.
Parte2: Porcos-Espinhos, Raposas e a Cidade Esmeralda
“Porcos-espinhos ‘sabem uma grande verdade’ e têm uma teoria sobre o mundo; eles explicam eventos particulares dentro de uma estrutura coerente, ficam eriçados de impaciência com quem não enxerga as coisas da mesma maneira que eles e são confiantes em seus prognósticos. Também se mostram especialmente relutantes em admitir um erro (…). São cheios de opiniões e segurança, e esse é exatamente o motivo pelo qual os produtores de TV adoram vê-los em seus programas. (…) Raposas, pelo contrário, são pensadoras complexas. Não acreditam que um único fato conduza a marcha da história. (…) Em vez disso, as raposas reconhecem que a realidade emerge das interações de muitos agentes e forças diferentes, incluindo o acaso cego, muitas vezes produzindo resultados grandes e imprevisíveis.” – Daniel Kahneman, no livro ‘Rápido e Devagar’.
Nesta passagem, Kahneman fez referência ao trabalho acadêmico de Philip E. Tetlock, ‘Expert Political Judgement: How Good Is It? How Can We Know?’, publicado em 2005. Tetlock convenceu 284 profissionais que trabalham com análise de tendências políticas e econômicas a participarem, de forma anônima, da sua pesquisa. Coletou cerca de 28 mil prognósticos desses participantes ao longo de 21 anos, pedindo para que eles estimassem as probabilidades que determinados eventos ocorressem, num prazo que poderia variar entre 1 e 10 anos. Tetlock perguntou também como que eles chegaram às suas conclusões, quais eram suas abordagens preferidas para resolver problemas, como reagiram quando estavam errados e como avaliaram evidências que não davam apoio às suas posições.
No estudo, Tetlock identificou dois grupos distintos de especialistas. A grande diferença entre eles não era sobre o que pensavam mas como pensavam. Um grupo organizava sua linha de raciocínio em torno de grandes ideias. Procuravam assim “enfiar problemas complexos em seus modelos preferidos de causa-efeito e tratavam o que não se encaixava como distrações irrelevantes. (…) Comprometido com as suas conclusões, mostravam-se relutantes em mudar de ideia até mesmo quando seus prognósticos claramente fracassavam. Eles nos diziam: ‘Esperem só’”[9].
Tetlock apelidou esse grupo de porco-espinho, usando de inspiração o ensaio do filósofo Isaiah Berlin sobre Tolstoi, “The Hedgehog and the Fox”. Berlin comparou os estilos de pensar de grandes autores ao longo das eras e se valeu de uma poesia grega de 2.500 anos atrás atribuída ao poeta Arquíloco: “A raposa sabe muitas coisas, o porco-espinho, apenas uma, mas muito importante”.
No trabalho de Tetlock, o grupo de porcos-espinhos obteve um resultado inferior ao de macacos jogando dardos, ou seja, pior do que chutes aleatórios. Já o outro grupo, de raposas, se saiu melhor do que os porcos-espinhos tanto na calibração de probabilidades quanto na resolução dos eventos. As raposas “consistiam de especialistas mais pragmáticos que se valiam de diversas ferramentas analíticas, com a escolha da ferramenta dependendo do problema particular a ser enfrentado. Eles colhiam o máximo de informação possível de quantas fontes estivessem disponíveis. Na hora de refletir, em geral alternavam o ritmo mental, recheando o seu discurso com marcadores transicionais como ‘entretanto’, ‘mas’, ‘embora’ e ‘por outro lado’. Eles falavam sobre possibilidades e probabilidades, não certezas. (…) Esses especialistas admitiam o erro e mudavam de ideia mais prontamente.”[10].
Não há analogia melhor para nos ensinar a lidar com uma revolução tecnológica como a atual, dada a sua complexidade e a multiplicidade de desfechos possíveis. Considere a primeira história sobre os efeitos da inteligência artificial dentro do mercado de radiologia. A depender da indústria, a dinâmica pode ser completamente diferente do exemplo citado. Motoristas de aplicativo, advogados ou contadores podem não ter a mesma sorte. Projetar o impacto tecnológico nas profissões é tarefa inglória, cheia de nuances, questões regulatórias e dinâmicas setoriais próprias.
A título de exemplo, se uma ferramenta aumenta três vezes a produtividade de um profissional em um determinado segmento, a demanda por mão de obra aumenta ou contrai? Os impactos são maiores em profissionais juniores ou seniores? Não há respostas simples. Um salto de eficiência desta magnitude pode acabar expandindo o mercado endereçável, aumentando a necessidade de mais profissionais – o famoso Paradoxo de Jevons[11]. Em outros mercados mais maduros, o resultado pode ser o inverso. Para o investidor, o dogmatismo do porco-espinho pode ser fatal.
Porcos-espinhos limitam-se ao que está ao alcance da vista. O bom previsor faz o oposto: é um agregador nato de perspectivas, capaz de dissecar um problema sob múltiplos ângulos e, sobretudo, exercer o autopoliciamento intelectual. Parece simples mas, como adverte Tetlock, vai contra a natureza humana. “Nossa inclinação natural é agarrar a primeira explicação plausível e de bom grado reunir a evidência de embasamento sem verificar sua confiabilidade.”.
O cérebro humano é programado para criar ordem por meio de modelos mentais que simplificam a realidade. Em situações complexas e incertas, o perigo reside no “modo soberbo de satisfazer o desejo de pôr ordem do cérebro, porque fornece explicações ordenadas sem pontas soltas. Tudo é claro, consistente e estabelecido. E o fato que ‘tudo se encaixa’ nos dá confiança de estar de posse da verdade.”[12].
Considere um assunto polêmico envolvendo inteligência artificial, como os expressivos e crescentes investimentos para construção de datacenters. Não será fácil encontrar uma leitura ponderada sobre o assunto, com um bom levantamento de pontos positivos e negativos, destacando algum grau de incerteza e sem uma conclusão definitiva. É bem mais provável que se encontre o oposto: um Fla-Flu de narrativas, com análises convencidas tanto de otimistas quanto de pessimistas. “Animados por uma Grande Ideia, porcos-espinhos contam histórias enxutas, simples, claras, que cativam e prendem o público.”[13].
Se você é um entusiasta tecnológico, talvez tenha dificuldade de enxergar exageros e riscos inerentes aos ciclos de capital decorrentes desses investimentos massivos. Já o cético crônico enxerga apenas bolhas, subestimando o ganho de produtividade que essas ferramentas já destravam em inúmeros negócios, mesmo em um contexto de baixa penetração corporativa. Como advertia Charlie Munger: “para quem só tem um martelo, todo problema parece um prego.”
Na fábula de Oz, os visitantes da Cidade Esmeralda eram obrigados a usar óculos verdes sob o pretexto de se protegerem do “brilho e da glória” local. Tratava-se, porém, de um artifício do Mágico para sustentar a ilusão de uma cidade feita de pedras preciosas quando, na realidade, o lugar era comum. Assim como na história, convicções definitivas distorcem a percepção dos fatos, filtrando a realidade para que ela confirme uma narrativa dominante. No mundo dos investimentos, essas lentes costumam aumentar a autoconfiança, mas raramente a acurácia do diagnóstico[14].
Conclusão
No seu livro, Tetlock argumenta que o maior indicador de sucesso de um preditor é o seu compromisso em atualizar convicções e buscar um aprimoramento constante. Ele associa essa postura ao conceito de “beta perpétuo” da indústria de software: o lançamento de um programa funcional, porém deliberadamente imperfeito, para que seja testado, atualizado e aperfeiçoado em tempo real. Humildade, espírito investigativo e a capacidade de navegar entre teses e antíteses são os nossos “betas perpétuos” para lidar com a peculiar revolução da inteligência artificial.
Em 1978, o pesquisador e cientista Roy Amara cunhou uma lei que tem se provado atemporal: tendemos a superestimar o impacto de uma tecnologia no curto prazo e subestimar sua transformação estrutural de longo prazo. Encontrar o equilíbrio entre esses dois pólos é fundamental para não se deixar levar por miragens ou cenários apocalípticos. Afinal, investir em ações é menos sobre prever o futuro e mais sobre identificar assimetrias em probabilidades mal calibradas.
Aleatórias
“Eu prefiro ser essa metamorfose ambulante
Do que ter aquela velha opinião formada sobre tudo.” – Raul Seixas
“There’s a quote that says ‘You may not take interest in politics but politics will take interest in you’. The same applies to AI many times over.” – Ilya Sutskever
“There is a prevalent problem in society. It’s knowing enough to think you’re right, but not enough to know you’re wrong. You learn a little about something and say, ‘I’ve mastered this.’ Well, maybe you haven’t. But you don’t know enough to know that you don’t know. You have to learn more to realize that, in fact, you didn’t know. So, the great challenge for all of us, to repeat the phrase, is: Knowing enough to think you’re right, but not knowing enough to know you’re wrong.” – Neil deGrasse Tyson
“Statements of high confidence primarily indicate that an individual has constructed a coherent narrative in their mind, not necessarily that this narrative is true.” – Daniel Kahneman
“All experts are experts for things that did happen. There are no experts for things that may happen.” — David Ben-Gurion
“For those who believe, no proof is necessary. For those who don’t believe, no proof is possible.” — Stuart Chase
“Forecasts may tell you a great deal about the forecaster; they tell you nothing about the future.” – Warren Buffett
“What counts for most people in investing is not how much they know, but rather how realistically they define what they don’t know.” – Warren Buffett
“Well, the first rule is that you’ve got to have multiple models, because if you have just one or two that you’re using, the nature of human psychology is such that you’ll torture reality so that it fits your models, or at least you’ll think it does.” – Charlie Munger
“The test of first-rate intelligence is the ability to hold two opposing ideas in mind at the same time and still retain the ability to function.” – F. Scott Fitzgerald
“Why are value and macro investors so comfortable making highly confident prognostications about AI despite their manifest ignorance? I don’t recall many tech/growth investors penning long, bearish, highly confident and utterly ignorant analyses about energy in 2022/2023.” – Gavin Baker
“Reality kicks in quickly. Delusions don’t last that long in this business.” – Marc Andreessen
“In the last few weeks alone, I’ve heard that a major soft drink company increased its sales by 7% to 8% because of AI and I had a look at its stock and it went down. I’ve heard from the founder of a major software investor that AI just increases TAM, and that’s wonderful, but you got to consider the source. (…) I’ve heard from a bank CEO that AI is revolutionizing their business and is going to lead them to a brave new world. It’s really important to dig in and try to be an anthropologist, to observe and test the claims that you hear and try to understand the current state of the art. There’s 2 ways to do it. One is obviously through the sort of smoothing claims that you hear. Obviously, if you have trusted partners from whom you’re getting evidence that makes life a whole lot easier. The other thing you can do is be a scientist instead of an anthropologist and actually run experiments, try AI and ideally try it against the alternative and see if you get significant improvements in whatever it is that you’re endeavoring to do. So predicting the future, really, really hard, particularly at times like these, but monitoring what’s happening in real time, a whole lot easier. You just got to approach it with a healthy skepticism.” – Mark Leonard
Notas de Rodapé
[1] Essa história foi brevemente contada por Mark Leonard, fundador da Constellation Software. A partir daí, procuramos conhecer mais sobre o assunto. [voltar]
[2] Fonte: ‘The algorithm will see you now – Radiology combines digital images, clear benchmarks, and repeatable tasks. But replacing humans with AI is harder than it seems’. [voltar]
[3] Fonte: ‘Your A.I. Radiologist Will Not Be With You Soon’. [voltar]
[4] Large Language Model. [voltar]
[5] Termo este criado pelo professor Clayton Christensen, no seu célebre livro, ‘Innovator ‘s Dilemma’. [voltar]
[6] ROIC calculado utilizando uma alíquota de imposto de 21% e anualizando os lucros operacionais do 3Q22 e 3Q25, excluindo multas não recorrentes impostas pela autoridade regulatória da União Européia. [voltar]
[7] Comentamos sobre as forças da Alphabet em AI no nosso Relatório de Gestão de julho de 2023. [voltar]
[8] Até setembro de 2025 havia um risco, não desprezível, de um resultado negativo no processo de antitrust movido pelo DoJ contra o Google, sobre os acordos de exclusividade feitos pela companhia. Um desfecho desfavorável poderia reduzir a vantagem de distribuição da empresa – algo que não se materializou. [voltar]
[9] Trecho retirado do livro ‘Superforecasting: The Art and Science of Prediction’, de Philip Tetlock, lançado em 2016. [voltar]
[10] Trecho retirado do livro ‘Superforecasting: The Art and Science of Prediction’, de Philip Tetlock, lançado em 2016. [voltar]
[11] Comentamos sobre o Paradoxo de Jevons no Relatório de Gestão de dezembro de 2020. [voltar]
[12] Trecho retirado do livro ‘Superforecasting: The Art and Science of Prediction’, de Philip Tetlock, lançado em 2016. [voltar]
[13] Trecho retirado do livro ‘Superforecasting: The Art and Science of Prediction’, de Philip Tetlock, lançado em 2016. [voltar]
[14] Essa analogia foi também retirada do livro de Philip E. Tetlock, ‘Superforecasting: The Art and Science of Prediction’. [voltar]