Crescendo em Maryland, Sonja Lyubomirsky percebeu que sua mãe era infeliz. Quando Sonja tinha 9 anos, seus pais se mudaram de Moscou, onde sua mãe lecionava literatura em uma escola secundária, para os Estados Unidos, na esperança de oferecer mais oportunidades aos filhos. No novo país, a mãe de Sonja não podia mais lecionar, então ela limpava casas para ajudar a família a sobreviver. Ela sentia falta de sua antiga carreira; sentia saudades de seu país de origem; chorava com frequência. Ela era infeliz em uma escala tolstoiana. Sonja entendia sua nostalgia e frustrações, agravadas por um casamento miserável, mas ainda se perguntava: os russos eram simplesmente menos felizes que os americanos? Sua mãe estava destinada a ser infeliz em qualquer lugar, ou isso era resultado das circunstâncias da vida? O que, se é que alguma coisa, poderia tornar alguém como sua mãe mais feliz, senão totalmente satisfeita?
Em 1985, Lyubomirsky ingressou na faculdade de Harvard, onde, como seu orientador lhe lembrou anos depois, ela frequentemente abordava o tema da felicidade, embora sua especialidade fosse a psicologia social do mercado de ações. Na época, o estudo da felicidade estava longe do megacampo do bem-estar que se tornou hoje. Na década de 1960, um pesquisador que fazia uma rara incursão no assunto observou que muito pouco progresso havia sido feito na teoria da felicidade desde que Aristóteles a havia abordado, dois milênios antes. Esse artigo concluiu que a juventude e as aspirações modestas de vida eram componentes-chave da felicidade (descobertas posteriormente questionadas).
Muitos cientistas da época acreditavam que a felicidade era essencialmente aleatória: não era algo a ser cultivado, como um jardim, ou a ser buscado, estabelecendo e alcançando metas significativas. Era algo que acontecia às pessoas, em virtude de seus genes, suas circunstâncias ou ambos. “Talvez tentar ser mais feliz seja tão fútil quanto tentar ser mais alto e, portanto, contraproducente”, concluíram os autores de um estudo de 1996.
Quando Lyubomirsky ingressou na pós-graduação em psicologia social em Stanford, em 1989, a pesquisa acadêmica sobre felicidade estava apenas começando a ganhar legitimidade. Ed Diener, psicólogo da Universidade de Illinois em Urbana-Champaign, que viria a ser conhecido por seu trabalho na área, esperou até obter estabilidade antes de abordar o assunto, apesar de nutrir um interesse de longa data por ele. Lyubomirsky também era cautelosa em escolher a felicidade como especialidade — ela era uma mulher na ciência ansiosa para ser levada a sério, e qualquer coisa no âmbito das “emoções” era considerada um tanto superficial. No entanto, em seu primeiro dia de pós-graduação em Stanford, em 1989, após uma conversa estimulante com seu orientador, ela decidiu focar na felicidade.
Lyubomirsky começou com a pergunta básica: por que algumas pessoas são mais felizes do que outras? Alguns anos antes, Diener publicou um levantamento das pesquisas existentes, que abordava os tipos de comportamento que pessoas felizes pareciam inclinadas a adotar — prática religiosa, por exemplo, ou socialização e exercícios físicos. Mas os estudos, que às vezes apresentavam resultados conflitantes, não produziram um consenso claro. A própria pesquisa de Lyubomirsky, ao longo de muitos anos, apontou para a importância da mentalidade de uma pessoa: pessoas felizes tendiam a evitar se comparar com os outros, tinham percepções mais positivas dos outros, encontravam maneiras de se satisfazer com uma variedade de escolhas e não se concentravam no negativo.
Mas Lyubomirsky sabia que não conseguia separar causa e efeito: ser feliz estimulava uma mentalidade saudável ou adotar essa mentalidade tornava as pessoas mais felizes? Pessoas como sua mãe estariam condenadas a viver com qualquer que fosse seu nível natural de felicidade — ou seriam capazes de controlar seu humor, se soubessem como? Mesmo que fosse possível mudar sua mentalidade, esse processo parecia levar muito tempo — as pessoas passam anos em terapia tentando (e muitas vezes falhando) — e Lyubomirsky se perguntou se haveria comportamentos mais simples e fáceis que pudessem adotar e que aumentariam rapidamente sua sensação de bem-estar. Ela decidiu testar.
Lyubomirsky começou estudando alguns dos hábitos e práticas comumente considerados como estimulantes do humor: atos aleatórios de gentileza e expressões de gratidão. A cada semana, durante seis semanas, ela pediu aos alunos que realizassem cinco atos de gentileza — doar sangue, por exemplo, ou ajudar outro aluno com um trabalho — e descobriu que eles estavam mais felizes ao final desse período do que os alunos do seu grupo de controle. Ela pediu a um grupo separado de alunos que contemplasse, uma vez por semana, as coisas pelas quais eram gratos, como “minha mãe” ou “AOL Instant Messenger”. Eles também ficaram mais felizes depois disso do que um grupo de controle. As mudanças no bem-estar não foram particularmente significativas em nenhum dos estudos, mas Lyubomirsky achou notável que uma intervenção tão pequena e de baixo custo pudesse melhorar a qualidade de vida dos alunos. Em 2005, ela publicou um artigo baseado nesses estudos, argumentando que as pessoas tinham um controle considerável sobre o quão felizes eram.
A pesquisa de Lyubomirsky surgiu justamente quando o campo da psicologia estava reconsiderando seus objetivos e até mesmo seu propósito. Quando Martin Seligman, psicólogo da Universidade da Pensilvânia, assumiu a direção da Associação Americana de Psicologia em 1998, expressou preocupação de que ele e seus colegas tivessem dedicado tempo demais à disfunção e pouco tempo à promoção da satisfação com a vida; ele encorajou seus pares a buscarem “a compreensão e o desenvolvimento das qualidades mais positivas de um indivíduo: otimismo, coragem, ética de trabalho, visão de futuro, habilidades interpessoais, capacidade de prazer, percepção e responsabilidade social”. Ele defendeu o retorno da área às suas origens, “que visavam tornar a vida de todas as pessoas mais gratificante e produtiva”.
Os psicólogos atenderam ao chamado, dedicando-se a novos campos de pesquisa, incluindo bem-estar e felicidade. Eles conduziram milhares de estudos de intervenção sobre felicidade nos 15 anos seguintes: estudos sobre atos de bondade e gratidão, como o de Lyubomirsky, mas também estudos sobre sorrisos forçados, estudos sobre “olhar para o lado positivo”, estudos sobre dieta e estudos sobre meditação. Muitos deles pareciam mostrar que as pessoas poderiam, de fato, se tornar mais felizes, mas a maioria dos efeitos era pequena, os resultados eram de curto prazo e as opções pareciam infinitas. Aqueles que aspiravam a uma felicidade maior poderiam até ter sofrido com o paradoxo da escolha: com o tempo limitado que tinham, deveriam dedicá-lo a escrever um diário? Praticar a gratidão? Meditar? O público teria que esperar mais duas décadas para que uma resposta mais decisiva surgisse — dada por um pesquisador que presidiu o estudo sobre felicidade mais longo da história da área.
Crédito…Ilustração fotográfica de Ben Denzer
Em 2003, o psiquiatra Robert Waldinger aceitou um novo emprego em Harvard, onde era filiado há muito tempo, supervisionando um de seus projetos de pesquisa mais valorizados. Waldinger, psicanalista de formação que mais tarde seria ordenado sacerdote zen-budista, sempre se preocupou com questões “com um toque existencial”, e é por isso que, quando a universidade o convidou para assumir o estudo sobre bem-estar mais longo da história americana, ele concordou prontamente. Era um estudo raro que avaliava pessoas ao longo de suas vidas, desde a juventude até a velhice, e continha pistas sobre as escolhas e circunstâncias que levam as pessoas a olhar para trás com arrependimento ou satisfação.
O estudo começou em 1938, na tentativa de discernir os hábitos de jovens saudáveis e sãos. Dois médicos que atendiam estudantes de Harvard o conduziam com uma bolsa de um magnata do varejo do Centro-Oeste cujo objetivo, Waldinger diz que lhe disseram, era descobrir o que tornava um bom gerente de loja de departamentos. O objetivo dos pesquisadores, por outro lado, era reverter a trajetória usual da pesquisa médica, que consistia em estudar aqueles que estavam doentes na esperança de encontrar maneiras de curá-los. Em vez de examinar os pacientes após o início de seus problemas, os médicos esperavam “tentar analisar as forças que produziram jovens normais”.
Em busca de jovens que pudessem, como disse um pesquisador, “remar sua própria canoa”, os dois médicos recrutaram um grupo de 268 estudantes de graduação de Harvard das turmas de 1939 a 1944, entre eles John F. Kennedy e o futuro editor do Washington Post, Ben Bradlee. Os estudantes (todos brancos) foram selecionados a dedo por seus reitores como exemplos de sua espécie. “Todos nós precisamos de mais ‘faça’ e menos ‘não faça'”, escreveram os médicos em um comunicado à imprensa anunciando seus objetivos.
Os estudantes universitários foram estudados de todos os ângulos imagináveis. Conversaram por mais de 20 horas cada um com psiquiatras; seus históricos familiares foram explorados; Seus pais foram entrevistados sobre suas fraquezas na infância, e eles foram submetidos a uma série de testes fisiológicos. Sua tolerância à insulina foi avaliada, juntamente com sua função respiratória e como seus corpos responderam quando solicitados a correr em uma esteira até a exaustão. Eles foram medidos da cabeça aos pés em uma busca pseudocientífica por uma conexão entre forma corporal e personalidade. Após a formatura, a maioria dos homens continuou a se submeter a exames médicos regulares e a preencher longos questionários que os questionavam sobre suas vidas e seu estado de espírito; aproximadamente uma vez a cada década, um pesquisador viajava para entrevistá-los pessoalmente.
Na década de 1970, os pesquisadores incluíram outro grupo de homens no estudo — a chamada coorte Glueck, composta por 456 homens, em sua maioria brancos, da região de Boston, oriundos de famílias desfavorecidas. Sheldon Glueck, professor da Faculdade de Direito de Harvard, e sua esposa, Eleanor, assistente social e pesquisadora, começaram a entrevistá-los quando ainda eram meninos, em 1939, inicialmente na esperança de comparar seus destinos com os de outro grupo de jovens de sua comunidade, rotulados como delinquentes juvenis.
Cerca de 30 anos após o início do estudo, o psiquiatra e pesquisador George Vaillant assumiu o comando, mudando a ênfase da busca pelas qualidades inerentes daqueles considerados os melhores e mais brilhantes para perguntas mais profundas sobre o quanto as pessoas mudam ao longo do tempo e o que as torna felizes e saudáveis a longo prazo. A pesquisa fazia perguntas abertas que capturavam as mudanças na visão de mundo e no senso de identidade dos homens. “Eu tenho uma motivação — uma motivação terrível”, disse inicialmente um estudante de Harvard ao psiquiatra que o entrevistou. “Sempre tive objetivos e ambições que iam além de qualquer coisa prática.” Ele acrescentou que desconfiava de “liberais sorrateiros”, tanto que havia rasgado “propaganda” da União Liberal de Harvard. Aos 30 anos, esse mesmo homem disse que seu objetivo não era mais “ser ótimo em ciência, mas sim gostar de trabalhar com pessoas”. Aos 50, ele havia decidido, relataram os pesquisadores, que “os pobres do mundo eram responsabilidade dos ricos do mundo”.
Muitos dos participantes do estudo serviram na Segunda Guerra Mundial; passaram a trabalhar em áreas como marketing, pedreiro, setor bancário, desenvolvimento imobiliário e transporte de móveis. Sessenta e cinco anos depois de se submeterem à investigação, muitos dos colegas de Harvard e Glueck se encontraram em praias pouco hospitaleiras, enquanto outros continuaram a deslizar sob o sol. Em 2001, quando os homens estavam no final dos 70 e início dos 80 anos, Vaillant publicou algumas de suas descobertas mais significativas: ele descobriu que, para ambos os grupos, um dos melhores indicadores do bem-estar geral dos homens na velhice era o quão felizes eles estavam no casamento aos 50 anos.
Waldinger, que trabalhou como terapeuta por muitos anos, sempre sentiu que seu principal objetivo era ajudar seus pacientes a terem vidas emocionais mais satisfatórias, permitindo-lhes manter relacionamentos significativos. Mas ele ficou fascinado ao descobrir que o estudo de Harvard confirmou sua intuição tão claramente. Questionado sobre um arrependimento, um homem respondeu: “Gostaria de ter passado mais tempo com minha esposa. Ela morreu justamente quando eu estava começando a reduzir o ritmo de trabalho.” Quando Waldinger assumiu o estudo, uma de suas primeiras iniciativas foi expandir o estudo para incluir as esposas dos homens de Harvard e Glueck. Uma mulher de 80 anos entrevistada disse que gostaria de ter passado menos tempo se chateando com “coisas bobas” e, em vez disso, se concentrado mais em “mais tempo com meus filhos, marido, mãe, pai”.
Waldinger sabia que ser casado estava associado ao bem-estar geral, mas ficou intrigado com outros estudos mais recentes que constataram que o casamento por si só não era suficiente — o quão feliz o casamento era o que importava. Waldinger decidiu fazer sua própria pesquisa: acompanhou 47 casais octogenários do estudo por um período de oito dias, observando quanto tempo cada pessoa passava com o cônjuge, amigos e familiares. Descobriu que, para aqueles em casamentos felizes, socializar com outras pessoas de seu círculo contribuía para a felicidade. Se estivessem com dor ou problemas de saúde, no entanto, era apenas o tempo passado com seus cônjuges que parecia protegê-los dos efeitos depressivos do sofrimento físico. Outra pesquisa que conduziu descobriu que as pessoas com as pontuações mais altas em medidas de apego aos cônjuges também eram as que relatavam os níveis mais altos de felicidade.
Waldinger, o quarto responsável pelo estudo de Harvard, ficou impressionado com a consistência de sua própria pesquisa e do trabalho que o precedeu — os milhares de questionários, amostras de saliva, análises genéticas, relatórios de colesterol, registros odontológicos, testes de QI. Testes, entrevistas abrangentes e exames cerebrais. Grande parte disso se resumiu a um insight fundamental: “A mensagem mais clara que tiramos deste estudo de 75 anos é esta: bons relacionamentos nos mantêm mais felizes e saudáveis. Ponto final”, disse ele em uma palestra no TED em 2015. Relacionamentos fortes e duradouros com cônjuges, familiares e amigos, construídos com base em confiança profunda — não em conquistas, fortuna ou fama — eram o que previa o bem-estar. Waldinger temia que sua grande revelação fosse tão intuitiva a ponto de ser motivo de chacota no palco; em vez disso, a palestra é uma das mais assistidas do TED até hoje, com mais de 40 milhões de visualizações.
Crédito…Ilustração fotográfica de Ben Denzer
O trabalho de Waldinger se baseava em outras pesquisas importantes sobre felicidade e relacionamentos que vinham chamando a atenção na área: Ed Diener e Martin Seligman descobriram que pessoas felizes passavam menos tempo sozinhas todos os dias do que pessoas infelizes, e um amplo estudo publicado em 2008 constatou que aqueles que eram mais engajados socialmente — frequentando igrejas, pertencendo a organizações — eram consistentemente mais felizes, assim como aqueles com grandes redes sociais.
E, ao mesmo tempo, a área também reconhecia fragilidades em seus métodos. O estudo de Harvard, como muitas outras pesquisas sobre felicidade, levantava a mesma questão de causa e efeito que atormentava a psicologia há tanto tempo: era difícil saber, por exemplo, se casamentos felizes resultavam em pessoas mais felizes no final de suas vidas — ou se pessoas felizes eram simplesmente mais propensas a ter casamentos felizes. Em grande parte do trabalho realizado por pesquisadores como Lyubomirsky, os tamanhos das amostras eram frequentemente pequenos demais para produzir descobertas significativas, e críticos dentro e fora da área acusavam os periódicos de psicologia de permitirem aos pesquisadores muita discrição na forma como analisavam seus dados. Uma nova geração de psicólogos começou a reexaminar as práticas da área e a tentar comprovar, usando métodos mais rigorosos e novas ferramentas estatísticas, algumas de suas principais descobertas.
Julia Rohrer, que chegou como aluna de pós-graduação ao Instituto Max Planck em Berlim em 2016, fazia parte desse novo grupo. Ansiosa para que seu trabalho tivesse um significado real, ela tentou encontrar uma maneira rigorosa de analisar a conexão entre felicidade e relacionamentos sociais. Três anos após a palestra de Waldinger no TED, Rohrer analisou uma pesquisa que pedia a quase 2.000 alemães que escrevessem maneiras pelas quais acreditavam que poderiam se tornar mais felizes, ou pelo menos tão felizes, no futuro. Ela codificou as respostas em respostas “não sociais” (“conseguir um emprego melhor”) ou “sociais” (“passar mais tempo com amigos e familiares”). Rohrer descobriu que pessoas que propuseram uma meta social deram mais passos em direção a essa meta e estavam mais felizes um ano depois. Ela concluiu que “buscas socialmente engajadas preveem aumentos na satisfação com a vida”, como escreveu na prestigiosa revista Psychological Science.
O trabalho de Rohrer foi publicado na mesma época em que outros pesquisadores descobriam, em estudos de alta qualidade e replicados, que até mesmo interações sociais fugazes poderiam aumentar a felicidade. Nicholas Epley e Juliana Schroeder, pesquisadores ambos na época na Universidade de Chicago, conduziram um experimento no qual pediram a pessoas que interagissem com estranhos no transporte público — para tentar ter um momento de conexão — e descobriram que os passageiros pareciam ter um aumento de humor com o exercício. A pesquisa de Epley e Schroeder e outros estudos descobriram que as pessoas subestimaram tanto o quanto gostariam da experiência quanto o quão receptivos os estranhos estariam a ela.
Esse trabalho foi importante além da decisão de falar ou não com um estranho no trem, diz Waldinger, que considera essas descobertas algumas das mais úteis dos últimos anos. “Temos essa relutância inata em nos conectar socialmente, principalmente com estranhos — e ficamos mais felizes quando nos permitimos. Acho isso muito útil saber.”
Encontrar propósito em servir aos outros, passar mais tempo com os outros — tudo aponta para a mesma coisa, diz Lyubomirsky. “Depois de todos esses anos, me dei conta”, diz ela. “A razão pela qual todas essas intervenções estão funcionando é porque elas fazem as pessoas se sentirem mais conectadas umas às outras. Então, quando escrevo uma carta de gratidão para minha mãe, isso me faz sentir mais conectada a ela. Quando pratico um ato de gentileza, isso me faz sentir mais conectada à pessoa que estou ajudando, ou simplesmente à humanidade como um todo. Sim, você poderia correr, e isso te deixaria mais feliz, e a meditação não precisa necessariamente ser sobre outras pessoas. Mas eu diria que 95% das coisas que são eficazes para fazer as pessoas felizes e que se mostraram verdadeiras por meio de intervenções para a felicidade são porque elas fazem as pessoas se sentirem mais conectadas umas às outras.”
Embora as mídias sociais tenham sido associadas a estados de ânimo negativos, as pesquisas sobre seus efeitos na felicidade são, na verdade, mais variadas, diz Lyubomirsky, porque elas proporcionam um certo tipo de conexão. Em sua própria pesquisa, Lyubomirsky descobriu que, quando as pessoas conversam com alguém — seja pessoalmente, por telefone ou por vídeo — essas interações simples parecem aumentar a felicidade igualmente, e que todas são preferíveis a mensagens de texto. “Talvez seja simplesmente porque nossos cérebros não estão programados para isso”, diz ela. Com exceção da rolagem passiva nas redes sociais — comportamento que muitas vezes inspira quem rola a página a comparar suas próprias vidas desfavoravelmente com as dos usuários — ela acredita que conectar-se com velhos amigos ou possíveis novos amigos nas redes sociais é melhor do que não criar nenhuma conexão.
Que casamentos e relacionamentos familiares fortes tornam as pessoas mais felizes — sim, isso é intuitivo, reconhece Lyubomirsky. O que ela achou mais surpreendente foi a eficácia de até mesmo pequenos pontos de conexão ao longo do dia para a felicidade — e como isso é possível se as pessoas superassem a própria hesitação. “Se alguém me perguntasse qual é a única coisa que você poderia fazer amanhã para ser mais feliz, esta seria a minha resposta: ter uma conversa com alguém — ou uma conversa mais profunda do que a que você normalmente tem”, diz ela.
Conversar com estranhos — no trem, em uma cafeteria, no parquinho, na fila do Detran, na sala de espera do consultório médico — poderia ser descartado como um exercício que simplesmente faz o tempo passar. Mas também poderia ser visto como um reflexo comovente de quão ávidos estamos, todos os dias, por nos conectar com outros humanos cuja interioridade, de outra forma, seria um mistério, indivíduos em cujos rostos poderíamos ler ameaça, julgamento, tédio ou indiferença. Conversar com estranhos garante novidade, possivelmente até aprendizado. Traz a promessa, a cada vez, de insights inesperados.
Algumas semanas depois de falar com Waldinger pela primeira vez por telefone, voei para a Flórida, onde ele estava passando um mês com a esposa na casa emprestada de um amigo querido. Eu estava lutando para me livrar do mau humor que surgiu nas últimas semanas após uma lesão. Eu havia subestimado enormemente a distância do meu hotel até a casa, e me lembrei de uma pesquisa de cerca de uma década atrás que descobriu que, para cada 10 minutos a mais de deslocamento, a probabilidade de ter sintomas de depressão aumentava em 0,5%. Quando cheguei, eu estava irritado e minhas costas doíam, tanto que, durante os primeiros 10 minutos da nossa conversa, senti uma dupla consciência: eu estava ouvindo e pensando na minha dor, monitorando seu nível, preocupado que ela só aumentasse.
Em um pequeno pátio perto de uma piscina minúscula, Waldinger e eu conversamos sobre a ascensão da indústria da felicidade — os inúmeros podcasts, conferências, livros best-sellers — e seu próprio papel nela. Ele pensa bastante em manter a própria felicidade diante da possibilidade de se tornar uma espécie de influenciador, alguém chamado para viajar pelo mundo para falar sobre felicidade em conferências, às vezes para multidões de pessoas muito ricas, repetindo as mesmas frases e dando os mesmos conselhos sobre relacionamentos profundos.
Como um sacerdote zen, alguém acostumado a reconhecer seu lugar no mundo, Waldinger tem plena consciência da tensão entre alcançar status e realizar um trabalho que exige humildade. Antes de se tornar o administrador do estudo de Harvard, ele abandonou um cargo de destaque como diretor de treinamento e educação no Centro de Saúde Mental de Massachusetts, após decidir que o prestígio da função não compensava sua falta de entusiasmo pelo trabalho administrativo que exigia. Aos 45 anos, ele recomeçou, aceitando uma redução significativa no salário para buscar um trabalho que considerava mais gratificante: trabalhar sob a orientação de Stuart Hauser, um psiquiatra reconhecido por seu trabalho no desenvolvimento de adolescentes. Esse passo profissional, é claro, levou Waldinger ao estudo de Harvard e ao trabalho que catapultou sua visibilidade muito além de sua carreira anterior
Ele refletiu com honestidade sobre o quanto pensa em manter sua fama recém-descoberta em perspectiva. “Eu luto com a sensação de que é importante”, disse-me, enquanto comíamos sanduíches de peru que sua esposa havia feito; normalmente, os dois almoçam juntos, um pequeno momento de conexão que começaram a compartilhar durante a pandemia. O trabalho é significativo, disse ele; era o sentimento de gratificação do ego com o qual ele lutava. “Parece importante”, disse ele. “Mas na verdade não é. Trabalho em um hospital onde cada bebedouro tem o nome de alguém que talvez já tenha sido famoso. Mas agora ninguém sabe quem é.” As medalhas de conquista — essa é a parte menos importante de quem ele é, tenta se lembrar. Porque, caso contrário, quem ele seria quando as ligações do The New York Times, de Aspen, do TED parassem de chegar?
Mesmo sabendo que Waldinger era um sacerdote budista, fiquei de certa forma surpreso com a rapidez com que nossa conversa deixou de ser apenas uma discussão sobre pesquisa e se aprofundou em algo que parecia reconfortante e reconfortantemente honesto. Quando finalmente nos despedimos, depois de algumas horas de conversa, a maior parte sob o sol, saí com a sensação de ter me conectado com alguém que, poucas horas antes, era um estranho. Ao entrar no carro e me lembrar das minhas preocupações com as costas, percebi que era incontestável: eu me sentia melhor
Growing up in Maryland, Sonja Lyubomirsky could see that her mother was unhappy. When Sonja was 9, her parents moved the family from Moscow, where her mother taught literature at a high school, to the United States, hoping to offer their children more opportunities. In their new country, Sonja’s mother could no longer teach, so she cleaned houses to help the family get by. She missed her old career; she longed for her home country; she was frequently teary. She was unhappy on a Tolstoyan scale. Sonja understood her nostalgia and frustrations, which were compounded by a miserable marriage, but she still wondered: Were Russians just less happy than Americans? Was her mother destined to be unhappy anywhere, or was this a result of life circumstances? What, if anything, might make someone like her mother happier, if not wholly content?
In 1985, Lyubomirsky left for college at Harvard, where, her adviser reminded her years later, she frequently brought up the topic of happiness, even though his expertise was in the social psychology of the stock market. At the time, the study of happiness was far from the wellness mega-field it has become today. In the ’60s, a researcher making a rare foray into the subject noted that very little progress on the theory of happiness had been made since Aristotle weighed in two millenniums earlier. That paper concluded that youth and modest life aspirations were key components of happiness (findings later called into question).
Many scientists at the time believed that happiness was essentially random: It was not something to cultivate, like a garden, or to reach for, by setting and achieving meaningful goals. It was something that happened to people, by virtue of their genes, their circumstances or both. “It may be that trying to be happier is as futile as trying to be taller and therefore is counterproductive,” the authors of a 1996 study concluded.
When Lyubomirsky arrived at graduate school for social psychology at Stanford in 1989, academic research on happiness was only beginning to gain legitimacy. Ed Diener, a psychologist at the University of Illinois at Urbana-Champaign who would eventually be known for his work in the field, waited until he was granted tenure before tackling the subject, despite harboring a longstanding interest in it. Lyubomirsky, too, was wary of choosing happiness as a specialty — she was a woman in science eager to be taken seriously, and anything in the realm of “emotions” was considered somewhat soft. Nonetheless, on her first day of graduate school at Stanford, in 1989, following an energizing conversation with her adviser, she resolved to make happiness her focus.
Lyubomirsky began with the basic question of why some people are happier than others. A few years earlier, Diener published a survey of the existing research, which touched on the kinds of behaviors that happy people seemed inclined to engage in — religious observance, for example, or socializing and exercising. But the studies, which sometimes had conflicting findings, yielded no clear consensus. Lyubomirsky’s own research, over many years, pointed toward the importance of a person’s mind-set: Happy people tended to refrain from comparing themselves with others, had more positive perceptions of others, found ways to be satisfied with a range of choices and did not dwell on the negative.
But Lyubomirsky knew she couldn’t separate cause and effect: Did being happy encourage a healthy mind-set, or did adopting that mind-set make people happier? Were people like her mother doomed to live with whatever their natural level of happiness was — or could they take control of their mood, if they only knew how? Even if you could change your mind-set, that process seemed to take a long time — people spend years in therapy trying (and often failing) to do it — and Lyubomirsky wondered whether there were simpler, easier behaviors they could adopt that would quickly enhance their sense of well-being. She decided to put it to the test.
Lyubomirsky started by studying some of the habits and practices that were commonly believed to be mood boosters: random acts of kindness and expressions of gratitude. Each week for six weeks, she had students perform five acts of kindness — donating blood, for example, or helping another student with a paper — and found that they were happier by the end of that period than the students in her control group. She asked a separate group of students to contemplate, once a week, the things they were grateful for, like “my mom” or “AOL Instant Messenger.” They, too, were happier after doing so than a control group. The changes in well-being weren’t particularly large in either study, but Lyubomirsky found it remarkable that so small and low-cost an intervention could improve the quality of students’ lives. In 2005, she published a paper based on those studies arguing that people did have considerable control over how happy they were.
Lyubomirsky’s research came out just as the field of psychology was reconsidering its objectives and even its purpose. When Martin Seligman, a psychologist at the University of Pennsylvania, took the helm of the American Psychological Association in 1998, he expressed a concern that he and his colleagues had spent too much time focusing on dysfunction and not enough devoted to fostering life satisfaction; he encouraged his peers to pursue “the understanding and building of the most positive qualities of an individual: optimism, courage, work ethic, future‑mindedness, interpersonal skill, the capacity for pleasure and insight and social responsibility.” He called for a return of the field to its origins, “which were to make the lives of all people more fulfilling and productive.”
Psychologists heeded the call, bearing down on new fields of research, including well-being and happiness. They conducted thousands of happiness-intervention studies over the next 15 years: acts-of-kindness and gratitude studies, like Lyubomirsky’s, but also forced-smile studies, “looking on the bright side” studies, diet studies and meditation studies. Many of them seemed to show that people could, in fact, make themselves happier, but most of the effect sizes were small, the results were short term and the options seemed endless. Those aspiring to greater happiness might even have suffered from the paradox of choice: With the limited time they had, should they devote it to journaling? Practicing gratitude? Meditating? The public would have to wait another two decades for a more decisive answer to break through — delivered by a researcher who presided over the longest-running happiness study in the field’s history.
Credit…Photo illustration by Ben Denzer
In 2003, the psychiatrist Robert Waldinger accepted a new job at Harvard, where he had long been affiliated, overseeing one of its most prized research projects. Waldinger, a psychoanalyst by training who would later be ordained as a Zen Buddhist priest, had always been preoccupied by questions “with an existential flavor,” which is why, when the university asked him to take on the longest-running wellness study in American history, he readily agreed. It was the rare study that surveyed people over the course of their lives, from young adulthood through old age, and it held clues about the choices and circumstances that lead people to look back on their lives with regret or satisfaction.
The study began in 1938, in an attempt to discern the habits of healthy and sound young men. Two doctors who tended to Harvard students were running it with a grant from a Midwestern retail mogul whose goal, Waldinger says he was told, was to figure out what made for a good department-store manager. The researchers’ goal, by contrast, was to reverse the usual trajectory of medical research, which was to study those who were ill in the hope of finding ways to make them well. Instead of examining patients after their troubles began, the doctors hoped to “attempt to analyze the forces that have produced normal young men.”
In search of young men who could, as one researcher put it, “paddle their own canoe,” the two doctors recruited a group of 268 Harvard undergraduates from the classes of 1939 through 1944, among them John F. Kennedy and the future Washington Post editor Ben Bradlee. The students (all of whom were white) were handpicked by their deans as exemplars of a kind. “All of us need more ‘do’s and fewer ‘don’ts,’” the doctors wrote in a news release announcing their aims.
The college students were studied from every conceivable angle. They spoke for more than 20 hours each to psychiatrists; their family histories were explored; their parents were interviewed about their childhood foibles, and they were given a barrage of physiological tests. They had their insulin tolerance assessed, along with their respiratory function and how their bodies responded when they were asked to run on a treadmill to the point of exhaustion. They were measured from head to toe in a pseudoscientific pursuit of a connection between body shape and personality. Once they left college, a majority of the men continued to submit to regular medical exams and filled out lengthy questionnaires that asked them about their lives and their state of mind; roughly once a decade, a researcher traveled to interview them in person.
In the 1970s, the researchers brought another group of men into the study — the so-called Glueck cohort, 456 men, mostly white, from the Boston area who came from disadvantaged backgrounds. Sheldon Glueck, a professor at Harvard Law School, and his wife, Eleanor, a social worker and researcher, had begun interviewing them when they were still boys in 1939, originally hoping to compare their fates with those of another group of young men from their community who had been labeled juvenile delinquents.
Some 30 years after the study first started, the psychiatrist and researcher George Vaillant had taken it over, switching the emphasis away from a search for the inherent qualities of those considered the best and brightest and toward deeper questions about how much people change over time and what makes them happy and healthy in the long run. The survey asked open-ended questions that captured the shifts in the men’s worldviews and sense of self. “I have a drive — a terrible one,” one Harvard student initially told the psychiatrist who interviewed him. “I’ve always had goals and ambitions that were beyond anything practical.” He added that he was suspicious of “sneaky liberals,” so much so that he had torn up “propaganda” from the Harvard Liberal Union. In his 30s, that same man said that his goal was no longer to “be great at science, but to enjoy working with people.” By 50, he had resolved, the researchers reported, that “the world’s poor were the responsibility of the world’s rich.”
Many of the study participants served in World War II; they went on to work in fields like marketing, bricklaying, banking, real estate development and furniture moving. Sixty-five years after they first submitted themselves to investigation, many from both the Harvard and Glueck cohorts found themselves on less-than-hospitable shores, while others continued to glide along in the sun. In 2001, when the men were in their late 70s and early 80s, Vaillant published some of his most significant findings: He found that for both cohorts, one of the best predictors of the men’s overall well-being in their old age was how happily married they were at age 50.
Waldinger, who worked as a therapist for many years, had always felt that his primary goal was to help his patients have more satisfying emotional lives by enabling them to sustain meaningful relationships. But he was fascinated to find that the Harvard study bore out his intuition so clearly. Asked to name a regret, one man answered: “Wish I’d spent more time with my wife. She died just as I’d begun to taper down with work.” When Waldinger came on board, one of his first initiatives was to expand the study to include the wives of the Harvard and Glueck men. One 80-year-old woman interviewed said she wished she had spent less time getting upset about “silly things” and instead focused more on “more time with my children, husband, mother, father.”
Waldinger knew that being married was associated with overall well-being, but he was intrigued by other, more recent studies that found that marriage alone wasn’t enough — how happy the marriage was mattered. Waldinger decided to do some research of his own: He followed 47 octogenarian couples from the study over an eight-day period, noting how much time each person spent with their spouse and with friends and family. He found that for those in happy marriages, socializing with others in their circle contributed to their happiness. If they were in pain or ill health, however, it was only spending time with their spouses that seemed to protect them from the mood-dampening effects of physical suffering. Other research he conducted found that the people who scored highest on measures of attachment to their spouses were also the ones who reported the highest levels of happiness.
Waldinger, the fourth steward of the Harvard study, was moved by the consistency of his own research and the work that preceded him — the thousands of questionnaires, saliva samples, genetic analyses, cholesterol reports, dental records, I.Q. tests, wide-ranging interviews and brain scans. Much of it added up to one key insight: “The clearest message that we get from this 75-year study is this: Good relationships keep us happier and healthier. Period,” he said in a TED Talk in 2015. Strong, long-term relationships with spouses, family and friends built on deep trust — not achievement, not fortune or fame — were what predicted well-being. Waldinger had worried that his big reveal was so intuitive that he would be laughed off the stage; instead, the talk is one of TED’s most watched to date, with more than 40 million views.
Credit…Photo illustration by Ben Denzer
Waldinger’s work was building on other prominent research about happiness and relationships that had been drawing attention in the field: Ed Diener and Martin Seligman found that happy people spent less time alone every day than unhappy people, and a large study published in 2008 found that those who were more socially engaged — attending church, belonging to organizations — were consistently happier, as were those with large social networks.
And yet at the same time the field was also recognizing weaknesses in its methods. The Harvard study, like a lot of other happiness research, posed that same question of cause and effect that had bedeviled psychology for so long: It was hard to know, for example, if happy marriages made for happier people at the end of their lives — or if happy people were simply more inclined to have happy marriages. In much of the work that researchers like Lyubomirsky conducted, the sample sizes were often too small to yield meaningful findings, and critics within and outside the field charged that psychology journals allowed researchers too much discretion in how they analyzed their data. A new generation of psychologistsstarted re-examining the field’s practices and trying to prove, using more rigorous methods and new statistical tools, some of its core findings.
Julia Rohrer, who arrived as a graduate student at the Max Planck Institute in Berlin in 2016, was part of that new cohort. Eager for her work to have real meaning, she tried to find a rigorous way of looking at the connection between happiness and social relationships. Three years after Waldinger’s TED Talk, Rohrer analyzed a survey that asked nearly 2,000 Germans to write down ways they thought they could make themselves happier, or at least as happy, in the future. She coded the answers into “nonsocial” answers (“get a better job”) or “social” ones (“spend more time with friends and family”). Rohrer found that people who proposed a social goal had taken more steps toward that goal and were happier a year later. She concluded that “socially engaged pursuits predict increases in life satisfaction,” as she put it in the prestigious journal Psychological Science.
Rohrer’s work was published around the same time that other researchers were finding, in high-quality and replicated studies, that even fleeting social interactions could improve happiness. Nicholas Epley and Juliana Schroeder, researchers both then at the University of Chicago, conducted an experiment in which they asked people to interact with strangers on public transit — to try to have a moment of connection — and found that the commuters seemed to get a mood boost from the exercise. Epleyand Schroeder’s research and other studies have found that people underestimated both how much they would enjoy the experience and how open the strangers would be to it.
That work was important beyond the decision about whether to talk to a stranger on a train, says Waldinger, who considers thesefindings some of the most helpful in recent years. “We have this innate reluctance to socially connect, particularly with strangers — and then we’re happier when we make ourselves. I find it a really useful thing to know.”
Finding purpose in serving others, spending more time with others — it all points toward the same thing, Lyubomirsky says. “After all these years, it hit me,” she says. “The reason that all of these interventions are working is because they make people feel more connected to others. So when I write a gratitude letter to my mom, it makes me feel more connected to my mom. When I do an act of kindness, it makes me feel more connected to the person I’m helping, or just humanity as a whole. Yes, you could go running, and that would make you happier, and meditation doesn’t necessarily have to be about other people. But I would say that 95 percent of things that are effective in making people happy and that have been shown to be true through happiness interventions are because they make people feel more connected to other people.”
Although social media has come to be associated with negative moods, the research on its effects on happiness is actually more mixed, Lyubomirsky says, because it does provide a certain kind of connection. In her own research, Lyubomirsky has found that when people talk to someone — whether in person, by phone or video chat — those simple interactions seem to boost happiness equally, and that they are all preferable to texting. “Maybe it’s just because our brains are not wired for that,” she says. With the exception of passive scrolling on social media — behavior that often inspires the scrollers to compare their own lives unfavorably with those of the posters — she believes connecting with old friends or possible new ones on social media is better than making no connections at all.
That strong marriages and family relationships make people happier — yes, that’s intuitive, Lyubomirsky acknowledges. What she found more surprising was just how effective even having smaller points of connection throughout the day could be for happiness — and how achievable that is, if people could only overcome their own hesitation. “If someone were to ask me what’s the one thing you could do tomorrow to be happier, that’s my answer: having a conversation with someone — or a deeper conversation than you normally do,” she says.
Talking to strangers — on trains, in a coffee shop, at the playground, on line at the D.M.V., in the waiting room at the doctor’s office — could be dismissed as an exercise that simply makes the time pass. But it could also be seen as a moving reflection of how eager we all are, every day, to connect with other humans whose interiority would otherwise be a mystery, individuals in whose faces we might otherwise read threat, judgment, boredom or diffidence. Talking to strangers guarantees novelty, possibly even learning. It holds the promise, each time, of unexpected insight.
A few weeks after I first talked to Waldinger by phone, I flew down to Florida, where he was spending a month with his wife in the borrowed home of a dear friend. I was struggling to come out of a low mood that came on in recent weeks after an injury. I had greatly underestimated the length of the drive from my hotel to the house, and I was reminded of research from about a decade ago finding that for every 10 minutes of extra commuting time, the likelihood of having symptoms of depression increases by 0.5 percent. By the time I arrived, I was irritable and my back was hurting, so much so that for the first 10 minutes of our conversation, I felt a dual consciousness: I was both listening and thinking about my pain, monitoring its level, worried it would only increase.
On a small patio by a very small pool, Waldinger and I talked about the rise of the happiness industry — the countless podcasts, conferences, best-selling books — and his own role in it. He gives considerable thought to maintaining his own happiness in the face of becoming a kind of influencer, someone called on to travel around the world to speak about happiness at conferences, sometimes to crowds of very wealthy people, repeating the same turns of phrase and giving the same advice about deep relationships.
As a Zen priest, someone accustomed to reckoning with his place in the world, Waldinger is acutely aware of the tension between achieving status and doing work that demands humility. Before becoming the steward of the Harvard study, he walked away from a high-profile job as the director of training and education at the Massachusetts Mental Health Center, after deciding that the prestige of the role didn’t offset his lack of enthusiasm for the administrative work it demanded. At age 45, he started over, taking a major pay cut to pursue work he found more fulfilling: working under the guidance of Stuart Hauser, a psychiatrist recognized for his work in adolescent development. That professional step, of course, led Waldinger to the Harvard study and the work that has catapulted his visibility far beyond that of his previous career.
He reflected with honesty about how much thought he gives to keeping his newfound fame in perspective. “I grapple with the feeling that it’s important,” he told me, as we sat over turkey sandwiches his wife had made; ordinarily, the two of them have lunch together, a small moment of connection they started sharing during the pandemic. The work is meaningful, he said; it was the feeling of ego gratification that he struggled with. “It feels important,” he said. “But it’s really not. I work at a hospital where every water fountain is named after someone who was once maybe famous. But now no one knows who they are.” The badges of achievement — that’s the least important part of who he is, he tries to remind himself. Because otherwise who would he be when the calls from The New York Times, from Aspen, from TED, stopped coming?
Even knowing that Waldinger was a Buddhist priest, I felt somehow surprised by how quickly our conversation had moved past the discussion of research and deepened into something that felt bracingly and reassuringly honest. When we finally said goodbye after a few hours of talking, mostly in the sun, I left feeling that I had connected with someone who was, just a few hours earlier, a stranger. I noticed, as I got in the car and remembered my concerns about my back, that it was incontrovertible: I felt better.
Aliás, o titulo correto seria: Sempre fui engenheiro!
Estas fotos e videos são de 2019 mostram como o Tiago, com alguma ajuda, mas não muita, porque eu estava tentando descobrir vendo ele fazer e não o que eu via, com alguma ajuda, mais por diversão do amigo dele do Alfaville que estava passeando por aqui.
O Time
Veja no Youtube um conjunto de videos que mostram a sequencia da operação até a bicicleta ficar montada
Meu presente de formatura para você Tiago, de quem me orgulho muito e que desde cedo ja mostrava seu talento e vocação.
Vô Roque
O vídeo do evento consta da totalidade das entregas de diplomas aos graduandos de bacharelado, mestrado e doutorado em todas as áreas de ensino praticadas pela RPI.
Este vídeo demora 2.40 – duas horas e quarenta minutos e na prática fica um pouco extenso e nos interessa mais a graduação do Tiago. Fiz um compacto de 41 minutos, sendo 20′ com os discursos e as partes comuns dirigidas a todos e 20′ com a entrega dos diplomas, salientando os bacharelandos em Engenharia Mecânica, área em que Tiago se graduou e as partes comuns a todos na cerimônia e que contém o seguinte:
Abertura da cerimônia com desfile dos professores, coordenadores, reitoria e afetos, ao som de bagpipes;
Início dos procedimentos pelo Reitor Martin A.Schmidt, PhD, classe de 81,com ofertório pelo Rev. Jordan Lenaghan, Chapelain, Office of Religious and spiritual life of RPI (Capelão da Capelania Universitária da RPI);
O Reitor atua como Mestre de Cerimonias, introduzindo a 219a turma de 2025, lamentando que a chuva torrencial e ventos fortes impediram a cerimônia a céu aberto, mas que um pic nic após a cerimônia iria ocorrer. Ele cumprimenta os formandos salientado que não há dúvidas que a conquista foi um desafio do qual os formandos devem ser extremamente orgulhosos que, embora tenham sido ajudados pelos funcionários, pelo corpo docente, pelos colegas, mas quem o fez foram vocês, formandos e pede aplausos da plateia por isso. Ele continua dizendo que nestes mais de 200 anos, Rensselaer tem enviado para o mundo classes como esta, porém, cada uma delas tem sua característica única, moldadas pelo tempo que passaram ali. Ele lamenta o acidente que resultou na morte de uma das estudantes e a homenageia lembrando que foi uma aluna excepcional em tudo que fez e tornou a instituição mais rica e lamenta profundamente a perda e pediu um minuto de silêncio lembrando dela. Ele lembra que no início desta turma, 2021, a Covid estabelecera protocolos impedindo reuniões de grupos e os alunos tiveram que descobrir como conciliar as pesquisas e atividades acadêmicas com estas restrições que no início de 2022 começaram a voltar ao normal. Foi o ano em que ele a vice reitora entraram nos cargos e ele se lembra de que naquele outono, os estudantes estavam preocupados com a possibilidade de que as tradições de RPI pudessem desaparecer, por causa daqueles dois anos e meio de restrições provocadas pela pandemia. Ele lembra que em sua maioria, as tradições são criações e obra dos estudantes, não algo que seja imposto pela administração ou pelo corpo docente. Na geração dele, ele observa, (ele é egresso da RPI) eram eles que mantinham a chama acesa. Ele observa que as tradições são importantes, pois são a forma que os estudantes transformam uma fase decisiva da vida em folklore (neste uso figurado, refere-se ao ato de tornar esse episódio “lendário”, como se fosse parte de uma história passada de geração em geração, ganhando contornos simbólicos e sendo narrado como um mito ou fábula). Ele observa que porém, isto somente acontece se uma geração passa seu entusiasmo para a proxima geração. Ele usa a expressão “School spirit matters”, o espirito escolar importa, que lembra o famoso “black lives matter”, muito em voga nestes dias de polarização, porém acentuando que isto caracteriza um grupo de pares, (no sentido de indivíduos que compartilham características comuns de status, idade, posição ou condição social agindo e interagindo normalmente em ambientes onde são considerados iguais em relação a determinado critério, no caso, o acadêmico), expressando seu amor por um lugar, um tempo, e um grupo de pares. Ele observa, com satisfação que a classe de 25, quando o mundo começou a se abrir, decolou de forma impressionante, retornando, não apenas celebrando as tradições de RTP, mas tambem criando uma nova tradição: “Star gazing” (que tem conotação de devaneio num momento de conexão com a imensidão do cosmos e de reflexão pessoal). Esta atividade ocorreu duas vezes, uma no meio de Novembro, por ocasião do fechamento de uma escadaria que seria perigosa no inverno e outra em Abril, quando a escadaria é aberta de novo e para quem não as conhece, elas envolvem procissões, musica ao vivo, e, (brincando) o consumo de comida incluindo alguns duvidosos “cookies das estrelas…” Ele perguntou a um dos participantes como tudo isto veio a acontecer? E ele compartilhou comigo o que me pareceu uma coisa fantástica: “foi nosso desejo de criar uma nova tradição, usando situações ilógicas, bizarras ou sem sentido, usando algo muito trivial e transformando isto numa coisa viva, tambem motivado pelo desejo de criar algo que fosse fonte de inconveniencia e reclamações, feito de forma a lembrar como muitas culturas celebram a mudança de estações.” Acho que vocês conseguiram e eu diria que fizeram uma limonada de um limão. Ele prossegue dizendo que a classe de 2025 não apenas conseguiu uma boa risada, mas demonstraram um grau de cuidado entre si, citando o evento “international students class” (“Turma de estudantes internacionais”), lembrando que aqueles que forem de volta para seus paises, RPI continuará a proteger nossos alunos e seus direitos. Ele continua, dizendo que hoje os estudantes de 2025 contribuiram para a celebração do bicentenário de RPI, relembrando o que seus predecesssores fizeram garantindo que os Estados Unidos tivessem conseguido pousar na lua. Ele acrescenta: “Classe de 2025, vocês irão fazer suas proprias marcas, contribuindo para o que vai acontecer no seculo 21”. Ele lembra, porém, que grandes realizações requerem grupos de pessoas que, para funcionarem, têm que ter o mesmo espirito que voces tiveram na tradição que inventaram de star gazing, que requer um objetivo comum, a participação na criação de folklore (na forma já mencionada), com a mesma empatia que demonstraram aqui. É um prazer e uma alegria para nós observar isso e espero que vocês venham a fazer grandes realizações, lembrando-se de nós, nos honrando e celebrando as pessoas, as histórias e os eventos que nos unem, que espero que o façam com música e dança. Obrigado e congratulações.
Ele introduz e passa a palavra para a Dra. Lisa T.Su. Ela conquistou em 2024 o titulo de CEO of the year pela Revista Time, sendo que neste ano, ela conquistou o titulo de uma das 100 mais influentes pessoas do mundo. Ele lembrou que estudou junto com ela e que todos sabiam que ela teria uma carreira brilhante.
Ela conta a história dela fazendo uma comparação com a situação dos estudantes que estão se formando e não vou colocar no compacto, bem como a proxima apresentação, de R J Scaringe, fundador da Rivian, Executivo do ano de 2022, ambos colocados como exemplos a serem seguidos pelos graduandos e como demonstração da capacidade da Rensselaer de criar líderes e empreendedores do tipo Steve Jobs ou Elon Musk.
A seguir são apresentados os Doutorandos e os Mestrandos, que vou tambem excluir e termino este compacto apresentando a turma dos Bacharelandos em Engenharia Mecanica que foi o curso que o Tiago realizou.
Tiago aparece aos 28:20
O presidente da Rensselaer Aluminni Association, Donald Burgio, PhD, 89, dá as boas vindas aos formandos, agora oficialmente alunos da Rensselaer. Ele convoca os alunos a pertencerem ao network de ex alunos, que atinge o mundo todo.
Segue-se o encerramento pelo Reitor Martin A.Schmidt, PhD, fechando com a bag of pipes.
Last, but not Least, pensando em todos estes testemunhos, conclui que o espirito que norteia RTP e que eles passaram para os estudantes que por lá passam, pode ser sintetizado pelo ofertório do Rev. Jordan Lenaghan, Chapelain, Office of Religious and spiritual life of RPI (Capelão da Capelania Universitária da RPI), que abriu a cerimônia e que agora transcrevo na integra:
“Graduados, reunimo-nos neste espaço, em torno de nossos companheiros, a chama olímpica do conhecimento que os trouxe a este lugar, então, vamos reservar um momento para iniciar esta cerimônia com intenção. Reunimo-nos hoje para celebrar mentes aguçadas pela codificação noturna, laboratórios unidos pelo café e pela esperança, projetos em grupo que testam os limites da amizade e da diplomacia, quando parece que vão explodir… principalmente… somos testados pelas forças coletivas da curiosidade, pela cafeína que se manteve forte durante o período de exames finais. Graduados, que vocês sigam em frente com propósito, humildade e o conhecimento de que agora possuem as habilidades necessárias para mudar o mundo. Que vocês inovem com responsabilidade, questionando incansavelmente e lembrando-se de que grande poder vem com grande responsabilidade. Ao adentrar o mundo além destas paredes, com equações que sempre se equilibram e as variáveis que são sempre emocionais, invocamos o espírito de resiliência, criatividade e, ocasionalmente, um guia para solução de problemas. Turma do RPI de 2025, vão ao mundo e o transformem. E saibam que vocês partem com a nossa bênção. Amém.”
Uma oferta que a Unimed pode fazer para a Universidade da qual ela vai se aproximar é suas atividades como complemento para que o hospital desta Universidade atinja nivel de excelência non plus ultra.
No caso, penso na PUC de Campinas, como parceiro ideal porque ela está tambem expandindo suas instalações e quer aprimorar seu atendimento
O ChatGPT disse:
Para que um hospital seja considerado “de primeira linha” no Brasil e alcance o padrão de excelência de instituições como o Hospital Israelita Albert Einstein, Sírio-Libanês e Beneficência Portuguesa, ele precisa atender a critérios rigorosos em diversas áreas.
Aqui estão os principais requisitos e características que um hospital deve ter para atingir esse nível:
📌 1. Infraestrutura e Tecnologia de Ponta
✔ Instalações modernas e bem equipadas – Ambientes planejados para garantir conforto, segurança e eficiência no atendimento. ✔ Centros cirúrgicos de alta complexidade – Capazes de realizar procedimentos avançados, como cirurgias robóticas e transplantes. ✔ Unidades de Terapia Intensiva (UTIs) de última geração – Com monitores de alta precisão e suporte tecnológico para pacientes críticos. ✔ Laboratórios avançados – Para realização de exames de biologia molecular, genômica e biópsia líquida. ✔ Uso de Inteligência Artificial e Big Data na saúde – Sistemas preditivos para diagnósticos mais rápidos e personalizados.
➡ Exemplo: O Hospital Albert Einstein investe fortemente em inteligência artificial aplicada à medicina, utilizando análise de dados para prever complicações em pacientes antes que ocorram.
📌 2. Qualidade no Atendimento e Segurança do Paciente
✔ Acreditações e Certificações de Excelência – O hospital deve ser reconhecido por instituições nacionais e internacionais de qualidade em saúde.
ONA Nível 3 (Organização Nacional de Acreditação) – Certificação máxima de qualidade hospitalar no Brasil.
Joint Commission International (JCI) – Certificação internacional para hospitais que seguem padrões rigorosos de segurança do paciente.
HIMSS (Healthcare Information and Management Systems Society) – Indica alto nível de digitalização e tecnologia na gestão hospitalar.
✔ Protocolos rígidos de segurança – Uso de checklists cirúrgicos, rastreamento de medicamentos por código de barras e monitoramento contínuo dos pacientes. ✔ Baixa taxa de infecção hospitalar – Controle rigoroso para prevenir infecções adquiridas no hospital. ✔ Atendimento humanizado – Cuidado centrado no paciente, incluindo suporte psicológico e acompanhamento personalizado.
➡ Exemplo: O Hospital Sírio-Libanês mantém um dos programas mais avançados de segurança do paciente, monitorando eventos adversos e otimizando fluxos hospitalares para reduzir riscos.
📌 3. Equipe Médica Altamente Qualificada
✔ Médicos especialistas e multidisciplinares – Profissionais com titulação reconhecida, experiência internacional e atuação científica. ✔ Educação médica continuada – O hospital deve ter programas de residência médica, treinamentos periódicos e incentivo à pesquisa. ✔ Equipe de enfermagem especializada – Enfermagem de alta performance com certificações específicas para diferentes áreas (UTI, oncologia, pediatria, etc.). ✔ Baixa rotatividade de profissionais – Retenção de talentos e cultura organizacional forte.
➡ Exemplo: A Beneficência Portuguesa tem um dos melhores programas de residência médica do país, formando especialistas reconhecidos no Brasil e no exterior.
📌 4. Atuação em Pesquisa e Inovação
✔ Centros de Pesquisa Clínica – Capazes de conduzir ensaios clínicos de novos medicamentos e tratamentos inovadores. ✔ Parcerias com universidades e empresas de tecnologia – Trabalhar junto a instituições como USP, UNIFESP e empresas como Google e IBM Health. ✔ Medicina de Precisão e Terapias Avançadas – Uso de biomarcadores, terapia gênica e imunoterapia para tratamento personalizado. ✔ Desenvolvimento de novas tecnologias médicas – Como cirurgia robótica e impressão 3D de órgãos e próteses.
➡ Exemplo: O Hospital Israelita Albert Einstein lidera pesquisas em oncogenômica e inteligência artificial aplicada ao diagnóstico de câncer.
📌 5. Sustentabilidade Financeira e Gestão Eficiente
✔ Modelo de gestão sustentável – Equilíbrio entre qualidade médica e viabilidade econômica. ✔ Captação de recursos privados e incentivos fiscais – Participação em projetos como o PROADI-SUS para financiamento de inovação e educação médica. ✔ Parcerias estratégicas – Com planos de saúde, governo e setor privado para viabilizar tratamentos de alta complexidade. ✔ Gestão hospitalar baseada em indicadores – Monitoramento constante da taxa de ocupação, custos por procedimento e satisfação do paciente.
➡ Exemplo: O Sírio-Libanês implementou um modelo de “hospital digital”, reduzindo custos operacionais e aumentando a eficiência do atendimento.
📌 6. Atuação no PROADI-SUS e Compromisso Social
✔ Investimento em projetos de melhoria do SUS – Implementação de programas de capacitação e assistência médica gratuita. ✔ Desenvolvimento de programas de impacto nacional – Como a criação de hospitais-escola e telemedicina para regiões remotas. ✔ Mutirões de cirurgias e atendimentos especializados – Para reduzir filas no SUS e ampliar o acesso a tratamentos.
➡ Exemplo: O Hospital Moinhos de Vento, pelo PROADI-SUS, realizou projetos de telemedicina para melhorar o atendimento em áreas remotas do Brasil.
📌 7. Atendimento Diferenciado e Experiência do Paciente
✔ Ambiente hospitalar de alto padrão – Infraestrutura similar à de hotéis cinco estrelas, com suítes privativas e atendimento personalizado. ✔ Uso de tecnologia para conforto do paciente – Aplicativos para agendamentos, controle de temperatura do quarto e entretenimento interativo. ✔ Suporte psicológico e cuidados paliativos avançados – Atendimento humanizado para pacientes terminais e com doenças crônicas.
➡ Exemplo: O Hospital Sírio-Libanês oferece um programa de bem-estar para pacientes internados, incluindo apoio psicológico, terapias integrativas e alimentação gourmet sob supervisão nutricional.
🎯 Conclusão
Para que um hospital seja considerado de primeira linha no Brasil, ele precisa combinar excelência médica, tecnologia, pesquisa, segurança e um modelo de gestão eficiente.
Resumo das Principais Características de um Hospital de Excelência:
Área
Critérios de Excelência
Infraestrutura
Equipamentos de última geração, UTIs modernas e cirurgia robótica
Atendimento
Segurança do paciente, certificações ONA e JCI
Equipe Médica
Corpo clínico altamente qualificado, residência médica
Pesquisa e Inovação
Medicina de precisão, IA aplicada à saúde, ensaios clínicos
Gestão
Modelo sustentável, otimização de custos e eficiência operacional
Compromisso Social
PROADI-SUS, assistência gratuita e expansão da telemedicina
💡 Hospitais como Einstein, Sírio-Libanês e Beneficência Portuguesa atingiram esse nível ao longo de décadas, investindo fortemente em inovação, qualidade e compromisso com o SUS.
Se um hospital quer atingir esse padrão de excelência, precisa seguir esses critérios rigorosos e adotar um modelo de gestão eficiente e inovador.
Qual seria o incentivo ideal para as cooperativas de planos médicos patrocinarem doutorados profissionais para médicos na área de oncologia?
O ChatGPT disse:
Para incentivar cooperativas de planos médicos a patrocinarem doutorados profissionais para médicos na área de oncologia, o ideal seria um conjunto de incentivos fiscais, benefícios regulatórios e vantagens estratégicas. Aqui estão algumas propostas viáveis:
📌 1. Incentivos Fiscais
💰 Dedução no Imposto de Renda (IRPJ e CSLL)
As cooperativas poderiam deduzir até 100% dos investimentos em doutorados profissionais como despesas operacionais, reduzindo a base de cálculo do Imposto de Renda (IRPJ) e da Contribuição Social sobre o Lucro Líquido (CSLL).
Essa medida já existe para educação corporativa em algumas áreas e poderia ser expandida para a formação médica especializada.
💡 Criação de um Fundo Especial de Formação Médica
Estabelecer um fundo de incentivo fiscal para formação de especialistas em oncologia, com isenção de tributos sobre as contribuições das cooperativas que financiarem doutorados.
📜 Incentivo via Lei do Bem
Empresas que investirem em P&D em saúde (incluindo doutorados profissionais) poderiam acessar benefícios da Lei do Bem (Lei 11.196/2005), que já concede redução de impostos para inovação tecnológica.
A oncologia, por ser uma área de pesquisa e inovação constante, poderia ser incluída como prioritária nesse incentivo.
📌 2. Benefícios Regulatórios e Financeiros
🏥 Créditos Especiais e Linhas de Financiamento
O governo poderia oferecer linhas de crédito com juros reduzidos via BNDES ou bancos de desenvolvimento para cooperativas que investirem em formação avançada de médicos.
Uma alternativa seria um fundo garantidor para reduzir o risco de financiamento para essas especializações.
📊 Redução de Obrigações Regulatórias
Cooperativas que investirem na qualificação de médicos especialistas poderiam obter redução de taxas e flexibilização de exigências regulatórias junto à Agência Nacional de Saúde Suplementar (ANS).
🔬 Acesso Prioritário a Projetos de Pesquisa e Desenvolvimento
Cooperativas que patrocinam formação acadêmica poderiam ter prioridade no acesso a projetos de P&D em oncologia, facilitando parcerias com universidades e centros de pesquisa.
📌 3. Retorno Estratégico para as Cooperativas
👩⚕️ Criação de um Programa de Residência e Pesquisa Vinculado
Médicos que completam o doutorado poderiam ter um vínculo acadêmico e profissional com a cooperativa patrocinadora, garantindo a aplicação prática da pesquisa no atendimento.
🏆 Selo de Excelência Médica
Criar um selo de certificação para cooperativas que investem na formação de oncologistas, agregando valor à marca e atraindo mais clientes e investidores.
📢 Marketing Institucional e ESG
O investimento na formação de especialistas em câncer poderia ser enquadrado em estratégias ESG (Ambiental, Social e Governança), o que melhora a imagem pública da cooperativa e atrai incentivos financeiros específicos.
📌 4. Modelo Inspirado no SUS e Parcerias Público-Privadas
Criar um programa semelhante ao PROADI-SUS, onde hospitais privados investem em educação médica em troca de isenções fiscais e benefícios operacionais.
Cooperativas de saúde poderiam firmar parcerias com universidades públicas para desenvolver programas de doutorado profissional em oncologia subsidiado, garantindo a formação de especialistas para todo o sistema de saúde.
✅ Conclusão: Incentivo Ideal
O modelo ideal combinaria dedução fiscal, crédito facilitado, benefícios regulatórios e retorno estratégico para as cooperativas. A chave seria garantir que o investimento na formação de oncologistas gerasse benefícios tangíveis, tanto financeiros quanto institucionais, tornando esse tipo de patrocínio sustentável e vantajoso para o setor de saúde.
_______________________________________
Lei do Bem (Lei 11.196/2005) – Incentivo à Inovação Tecnológica no Brasil
A Lei do Bem (Lei nº 11.196/2005) é um dos principais mecanismos de incentivo fiscal à inovação tecnológica no Brasil. Seu objetivo é estimular empresas a investirem em pesquisa e desenvolvimento (P&D) por meio de benefícios fiscais.
🔹 O que a Lei do Bem faz?
Ela permite que empresas reduzam impostos quando investem em pesquisa, desenvolvimento e inovação tecnológica. Isso torna mais barato e vantajoso investir em tecnologia e aprimoramento de produtos e processos.
🏛️ Quem pode se beneficiar?
Para acessar os incentivos fiscais da Lei do Bem, a empresa precisa: ✅ Ser uma pessoa jurídica tributada pelo Lucro Real (empresas do Simples Nacional ou Lucro Presumido não podem aderir). ✅ Ter lucro fiscal no período (afinal, os incentivos são deduções de impostos devidos). ✅ Investir em inovação tecnológica, conforme definido na lei.
📌 O que é inovação tecnológica? É a concepção de um novo produto, processo ou serviço, ou o aperfeiçoamento significativo de um já existente, que traga melhorias em qualidade ou produtividade.
💰 Principais Benefícios Fiscais
As empresas que investem em P&D e inovação podem ter vantagens como:
1️⃣ Dedução de até 34% do IRPJ e CSLL
Empresas podem deduzir entre 60% e 100% dos gastos com P&D da base de cálculo do Imposto de Renda Pessoa Jurídica (IRPJ) e da Contribuição Social sobre o Lucro Líquido (CSLL).
Se houver aumento do número de pesquisadores, a dedução pode chegar a 100%.
2️⃣ Redução de até 50% do IPI na compra de máquinas e equipamentos
Redução do Imposto sobre Produtos Industrializados (IPI) para bens adquiridos para P&D.
3️⃣ Depreciação Acelerada de Equipamentos
Equipamentos de P&D podem ser depreciados mais rapidamente, reduzindo a base de cálculo do imposto.
4️⃣ Amortização Acelerada de Gastos com P&D
Gastos com pesquisa podem ser amortizados mais rapidamente, reduzindo impostos no curto prazo.
5️⃣ Isenção de IR sobre Remessas ao Exterior
Remessas para registro de patentes, manutenção e uso de marcas e cultivares têm isenção de Imposto de Renda Retido na Fonte (IRRF).
🔬 Exemplos de Aplicação da Lei do Bem
🔹 Indústria Farmacêutica: Pesquisa de novos medicamentos e vacinas. 🔹 Setor de Tecnologia: Desenvolvimento de novos softwares e inteligência artificial. 🔹 Setor Automotivo: Criação de carros elétricos e aperfeiçoamento da eficiência energética. 🔹 Saúde & Medicina: Pesquisa em oncologia, desenvolvimento de novos tratamentos. 🔹 Agronegócio: Desenvolvimento de novas sementes geneticamente modificadas.
📑 Como a empresa acessa o benefício?
Realiza investimentos em inovação tecnológica.
Registra os gastos de P&D detalhadamente.
Aplica as deduções fiscais no IRPJ e CSLL na declaração anual.
Submete informações ao Ministério da Ciência, Tecnologia e Inovação (MCTI) por meio do FORMP&D.
Aguarda fiscalização da Receita Federal e do MCTI (caso haja necessidade).
🚀 Conclusão: Vale a pena usar a Lei do Bem?
Sim! Empresas que investem em inovação reduzem sua carga tributária e aumentam sua competitividade. Além disso, a Lei do Bem estimula a pesquisa nacional e fortalece setores estratégicos como saúde, tecnologia e indústria.
Você disse:
Por favor, mais detalhes sobre o caso de uma cooperativa médica de assistencia de saude que quer criar um mestrado profissional para sua area de oncologia com uso de inteligencia artificial
O ChatGPT disse:
📌 Criação de um Mestrado Profissional em Oncologia com Inteligência Artificial por uma Cooperativa Médica de Assistência à Saúde
Uma cooperativa médica de assistência à saúde que deseja criar um mestrado profissional em oncologia com foco no uso de inteligência artificial (IA) pode estruturar esse projeto considerando aspectos acadêmicos, regulatórios, financeiros e de incentivos fiscais. Aqui está um plano detalhado para viabilizar essa iniciativa.
🔹 1. Objetivos do Programa
O mestrado profissional em oncologia com IA deve atender a três pilares principais: 1️⃣ Aperfeiçoamento clínico – Capacitação avançada para oncologistas com uso de IA na prática médica. 2️⃣ Pesquisa aplicada – Desenvolvimento de novas abordagens diagnósticas e terapêuticas baseadas em IA. 3️⃣ Impacto no setor de saúde – Implementação de soluções tecnológicas que melhorem a eficiência e a qualidade do atendimento oncológico.
🏛️ 2. Estrutura Acadêmica do Programa
O mestrado pode ser credenciado pelo Ministério da Educação (MEC) como um Mestrado Profissional Stricto Sensu, permitindo aplicação prática do conhecimento adquirido.
📚 Disciplinas Sugeridas:
Fundamentos da Oncologia Moderna (bases biológicas e tratamentos).
Aplicações de Inteligência Artificial na Medicina (aprendizado de máquina, deep learning e big data).
Ferramentas de diagnóstico, medicina personalizada
Função: A IA auxilia na análise de dados médicos, no diagnóstico de condições, na previsão de resultados para pacientes e na personalização de planos de tratamento com base em dados individuais de pacientes.
Diagnóstico Assistido por Computador (CAD) e IA para Imagem Médica (radiologia e patologia digital).
Modelagem e Previsão de Respostas Terapêuticas (uso de IA para personalização de tratamentos).
Gestão e Inovação em Saúde Digital (interoperabilidade de dados e telemedicina).
Aspectos Éticos e Regulatórios do Uso de IA na Saúde (privacidade, LGPD e ética médica).
🎓 Duração e Modalidade:
Duração: 24 meses
Modalidade: Híbrida (aulas presenciais e online)
Trabalho de Conclusão: Desenvolvimento de um projeto prático de IA aplicada à oncologia
💰 3. Modelos de Financiamento e Incentivos Fiscais
Para viabilizar economicamente o mestrado, a cooperativa pode se beneficiar de diferentes fontes de financiamento e incentivos fiscais:
📜 Aproveitamento da Lei do Bem (Lei 11.196/2005)
Os investimentos no mestrado podem ser enquadrados como Pesquisa & Desenvolvimento (P&D) e gerar dedução de até 34% no IRPJ e CSLL.
Se houver desenvolvimento de patentes ou novas tecnologias, é possível reduzir o IPI na compra de equipamentos.
Remessas ao exterior para colaboração com universidades estrangeiras podem ter isenção de IRRF.
🏦 Linhas de Financiamento (BNDES e FINEP)
A cooperativa pode buscar crédito com juros reduzidos em bancos de fomento como o BNDES Saúde e a FINEP (Financiadora de Estudos e Projetos).
Parcerias com startups e healthtechs podem acessar recursos de fundos de inovação tecnológica.
🤝 Parcerias Público-Privadas (PPP) e Benefícios Regulatórios
A Agência Nacional de Saúde Suplementar (ANS) pode incentivar programas de capacitação médica com redução de exigências regulatórias para cooperativas que promovem inovação.
Parcerias com universidades públicas podem permitir isenção de tributos sobre bolsas de estudo concedidas a médicos cooperados.
🏥 4. Benefícios para a Cooperativa
Criar um mestrado profissional não só melhora a qualificação dos médicos, mas também traz vantagens diretas para a cooperativa, como:
🔬 Inovação e Diferencial Competitivo
A cooperativa se torna referência nacional em oncologia e inteligência artificial, aumentando seu prestígio.
💡 Redução de Custos Assistenciais
A IA pode otimizar diagnósticos e tratamentos, reduzindo custos desnecessários com exames e internações prolongadas.
📊 Maior Eficiência no Atendimento
Oncologistas treinados em ferramentas de IA podem oferecer diagnósticos mais rápidos e precisos, melhorando o prognóstico dos pacientes.
💵 Retorno Financeiro e Sustentabilidade
Possibilidade de geração de receitas ao oferecer o curso a médicos de outras instituições, expandindo o impacto da iniciativa.
Potencial para firmar parcerias com laboratórios e empresas de tecnologia médica para pesquisa e desenvolvimento.
🚀 5. Próximos Passos para Implementação
✅ Passo 1: Estruturação Acadêmica
📌 Definir a equipe docente e as parcerias com universidades. 📌 Elaborar a matriz curricular e submeter ao MEC para credenciamento.
✅ Passo 2: Captação de Recursos e Benefícios Fiscais
📌 Estruturar a proposta para utilizar a Lei do Bem e outros incentivos. 📌 Buscar financiamento via BNDES, FINEP ou investidores privados.
✅ Passo 3: Infraestrutura Tecnológica
📌 Implementar um laboratório de IA aplicada à oncologia. 📌 Adquirir equipamentos e softwares especializados para análise de imagens médicas e machine learning.
✅ Passo 4: Parcerias e Expansão
📌 Estabelecer colaborações com instituições internacionais para intercâmbio acadêmico. 📌 Criar um programa de residência médica associada ao mestrado, garantindo aplicação imediata dos conhecimentos adquiridos.
🎯 Conclusão
O mestrado profissional em oncologia com inteligência artificial pode transformar a maneira como o diagnóstico e o tratamento do câncer são conduzidos, trazendo benefícios científicos, econômicos e assistenciais para a cooperativa. A chave para o sucesso está em estruturar um modelo sustentável, aproveitando incentivos fiscais e parcerias estratégicas para garantir qualidade, inovação e impacto positivo no setor de saúde.
________________________________________________
por favor detalhe um plano para instalação de um mestrado profissional para medicos da area de oncologia centrado no uso de inteligencia artificial
O ChatGPT disse:
Aqui está um plano detalhado para a instalação de um mestrado profissional para médicos da área de oncologia com foco no uso de inteligência artificial (IA). Esse plano inclui os aspectos acadêmicos, administrativos, regulatórios e financeiros necessários para a criação e implementação do programa.
Plano de Instalação do Mestrado Profissional em Oncologia e Inteligência Artificial
1️⃣ Objetivo do Programa
O Mestrado Profissional em Oncologia e Inteligência Artificial visa capacitar médicos oncologistas e outros profissionais da saúde a:
Aprimorar o diagnóstico e tratamento oncológico por meio de técnicas avançadas de IA.
Desenvolver pesquisas aplicadas para integração da IA em oncologia clínica.
Otimizar processos clínicos e assistenciais, reduzindo custos e melhorando a qualidade do atendimento.
Capacitar profissionais para atuar na interseção entre medicina, tecnologia e inovação.
2️⃣ Estrutura do Programa
📚 Disciplinas Sugeridas
O curso terá um caráter multidisciplinar, combinando oncologia clínica, inteligência artificial aplicada e inovação médica.
Processamento de linguagem natural aplicado a prontuários médicos
Redes neurais aplicadas ao diagnóstico oncológico
📊 Módulo 3: IA Aplicada ao Diagnóstico e Tratamento do Câncer
Machine learning para predição de prognósticos
Aplicação de IA em imagens médicas (radiologia, patologia digital)
Automação e suporte à decisão clínica
💡 Módulo 4: Ética, Regulamentação e Gestão da Inovação
Ética médica e IA (privacidade de dados e LGPD)
Modelos de negócio para inovação em oncologia
Implementação de IA no setor público e privado
🎓 Módulo 5: Trabalho de Conclusão de Curso (TCC)
Desenvolvimento de um projeto aplicado usando IA para um problema real em oncologia.
3️⃣ Modalidade e Carga Horária
Duração: 24 meses
Carga horária total: 720 horas
Formato: Híbrido (50% presencial / 50% EAD)
Local: Universidade parceira e hospital de referência
4️⃣ Infraestrutura Necessária
Para instalar o mestrado, é preciso montar uma estrutura adequada para suporte acadêmico e tecnológico:
🏢 Infraestrutura Física:
Salas de aula com suporte multimídia
Laboratórios de informática e análise de dados
Centro de simulação clínica
🖥️ Infraestrutura Tecnológica:
Servidores para processamento de dados
Acesso a bases de dados médicos anonimizados
Ferramentas de machine learning (TensorFlow, PyTorch, IBM Watson, etc.)
Plataforma de ensino a distância (LMS – Learning Management System)
🤝 Parcerias Necessárias:
Universidades (para credenciamento do curso junto ao MEC)
Hospitais e clínicas oncológicas (para acesso a casos clínicos e testes de IA)
Empresas de tecnologia médica (Google Health, IBM Watson, startups de healthtech)
5️⃣ Credenciamento e Regulamentação
Para oferecer um mestrado profissional no Brasil, é necessário seguir os critérios da CAPES (Coordenação de Aperfeiçoamento de Pessoal de Nível Superior) e do MEC (Ministério da Educação).
📌 Passos para credenciamento
Elaboração do Projeto Pedagógico do Curso (PPC) conforme exigências da CAPES.
Parceria com uma universidade credenciada para submissão à CAPES.
Solicitação de autorização junto ao MEC para abertura de curso de pós-graduação stricto sensu.
Montagem do corpo docente com doutores especialistas em oncologia e IA.
Estabelecimento de parcerias com hospitais para estágios e projetos aplicados.
6️⃣ Modelos de Financiamento e Incentivos
Para viabilizar economicamente o programa, a cooperativa pode explorar diferentes fontes de financiamento e incentivos fiscais:
💰 Lei do Bem (Lei 11.196/2005)
Dedução de até 34% dos investimentos em P&D no IRPJ e CSLL.
Redução do IPI para compra de equipamentos tecnológicos.
Isenção de IRRF para remessas ao exterior destinadas a pesquisa.
🏦 Linhas de Financiamento (BNDES e FINEP)
Crédito com juros reduzidos para inovação tecnológica no setor de saúde.
Fundo garantidor para projetos de inovação em oncologia.
🤝 Parcerias Público-Privadas (PPP)
Acordos com o Ministério da Saúde para capacitação de médicos do SUS.
Convênios com laboratórios farmacêuticos para apoio a pesquisas.
💼 Modelos de Bolsas e Incentivos Internos
Bolsas de estudo integrais ou parciais para médicos cooperados.
Descontos progressivos para profissionais que já atuam na rede de saúde da cooperativa.
Programa de reembolso de mensalidade vinculado a tempo de permanência na cooperativa.
7️⃣ Benefícios Estratégicos para a Cooperativa
📈 Diferencial competitivo – A cooperativa se torna referência nacional em oncologia de alta tecnologia. 💰 Redução de custos assistenciais – IA permite diagnósticos mais rápidos e evita exames desnecessários. 🏥 Melhoria da qualidade do atendimento – Médicos capacitados tomam decisões mais embasadas. 🔬 Pesquisa e inovação – Criação de novos modelos terapêuticos personalizados. 🛡️ Adequação a regulamentações futuras – O setor de saúde está cada vez mais voltado à digitalização.
8️⃣ Cronograma de Implantação
Etapa
Prazo Estimado
Planejamento acadêmico e credenciamento
6 meses
Montagem da infraestrutura
6 meses
Captação de parcerias e financiamento
4 meses
Seleção de professores e alunos
3 meses
Início das aulas
18 meses (total)
🎯 Conclusão
A criação de um Mestrado Profissional em Oncologia e Inteligência Artificial representa uma grande oportunidade para a capacitação de médicos, trazendo inovação ao tratamento do câncer e fortalecendo a cooperativa médica.
O sucesso do programa dependerá de parcerias estratégicas, aproveitamento de incentivos fiscais e financiamento sustentável, além da integração entre médicos e cientistas da computação.
Se precisar de um plano mais detalhado ou de sugestões para implementação prática, estou à disposição! 😊🏥🚀
_______________________________________
Por favor faça um plano semelhante com enfase em biopsia liquida
O ChatGPT disse:
Aqui está um plano detalhado para a instalação de um Mestrado Profissional em Oncologia com Ênfase em Biópsia Líquida, voltado para médicos oncologistas e profissionais da saúde. Esse programa tem o objetivo de capacitar especialistas para o uso dessa tecnologia inovadora no diagnóstico, monitoramento e tratamento personalizado do câncer.
Plano de Instalação do Mestrado Profissional em Oncologia com Ênfase em Biópsia Líquida
1️⃣ Objetivo do Programa
O Mestrado Profissional em Oncologia com Ênfase em Biópsia Líquida visa:
Capacitar médicos para utilizar biópsia líquida como ferramenta de diagnóstico e acompanhamento de pacientes oncológicos.
Desenvolver pesquisa aplicada sobre biomarcadores tumorais detectados no sangue, permitindo maior precisão nas decisões terapêuticas.
Integrar novas tecnologias, incluindo IA e genômica, na interpretação dos resultados da biópsia líquida.
Aprimorar a personalização do tratamento oncológico, reduzindo procedimentos invasivos e melhorando o prognóstico dos pacientes.
2️⃣ Estrutura do Programa
Este mestrado será estruturado em módulos interdisciplinares, combinando oncologia molecular, análise laboratorial avançada e inteligência artificial.
📚 Disciplinas Sugeridas
🔬 Módulo 1: Fundamentos da Oncologia e Medicina de Precisão
Biologia do câncer e heterogeneidade tumoral
Oncogenômica e mutações tumorais
Fundamentos da medicina personalizada
🧪 Módulo 2: Princípios da Biópsia Líquida
Conceitos e aplicações clínicas da biópsia líquida
Células tumorais circulantes (CTCs) e DNA tumoral circulante (ctDNA)
Técnicas de detecção: PCR digital, NGS (sequenciamento de nova geração), ddPCR
🤖 Módulo 3: Inteligência Artificial e Análise de Dados em Biópsia Líquida
Uso de machine learning na interpretação de resultados
Algoritmos para detecção de padrões genômicos
Integração de IA com bancos de dados clínicos
📊 Módulo 4: Aplicações Clínicas e Monitoramento de Tratamento
Utilização da biópsia líquida na escolha terapêutica
Resistência tumoral e rastreamento de recorrência
Monitoramento em tempo real da resposta ao tratamento
💼 Módulo 5: Ética, Regulação e Implementação Clínica
Regulação e validação de testes laboratoriais
Ética no uso de dados genômicos e LGPD
Integração da biópsia líquida ao fluxo de atendimento oncológico
🎓 Módulo 6: Trabalho de Conclusão de Curso (TCC)
Desenvolvimento de um projeto aplicado, como a criação de protocolos clínicos para uso de biópsia líquida ou análise de dados em coortes específicas de pacientes.
3️⃣ Modalidade e Carga Horária
Duração: 24 meses
Carga horária total: 720 horas
Formato: Híbrido (50% presencial / 50% EAD)
Local: Universidade parceira e hospitais especializados
4️⃣ Infraestrutura Necessária
Para viabilizar o programa, é fundamental contar com uma estrutura laboratorial e tecnológica avançada:
🏢 Infraestrutura Física:
Laboratórios de biologia molecular e genômica
Centro de simulação clínica e oncologia experimental
Ambientes para análise de big data oncológico
🖥️ Infraestrutura Tecnológica:
Servidores para armazenamento e processamento de dados genéticos
Softwares para análise bioinformática de biópsia líquida
Ferramentas de machine learning para detecção de padrões tumorais
🤝 Parcerias Necessárias:
Universidades e centros de pesquisa (credenciamento do curso e desenvolvimento acadêmico)
Hospitais especializados em oncologia (acesso a amostras e validação clínica)
Empresas de biotecnologia e healthtechs (desenvolvimento de novas aplicações de IA na biópsia líquida)
5️⃣ Credenciamento e Regulamentação
O curso deve ser credenciado junto à CAPES e ao MEC como Mestrado Profissional Stricto Sensu, garantindo reconhecimento acadêmico e aplicabilidade clínica.
📌 Passos para credenciamento
Desenvolvimento do Projeto Pedagógico do Curso (PPC)
Parceria com universidade credenciada para submissão à CAPES
Solicitação de autorização ao MEC para abertura do curso
Montagem do corpo docente com especialistas em oncologia molecular e IA
Estabelecimento de parcerias com laboratórios de análise genética
6️⃣ Modelos de Financiamento e Incentivos
Para tornar o programa financeiramente sustentável, a cooperativa pode explorar diversas fontes de financiamento e incentivos fiscais.
💰 Lei do Bem (Lei 11.196/2005)
Dedução de até 34% dos investimentos em P&D do IRPJ e CSLL.
Redução do IPI para equipamentos laboratoriais e de computação.
Isenção de IRRF para remessas ao exterior destinadas a pesquisa.
🏦 Linhas de Financiamento (BNDES e FINEP)
Linhas de crédito para inovação em saúde com juros reduzidos.
Fundos garantidores para pesquisa em oncologia e IA.
🤝 Parcerias Público-Privadas (PPP)
Acordos com o Ministério da Saúde para capacitação de médicos do SUS.
Convênios com laboratórios farmacêuticos para apoio a pesquisas.
💼 Modelos de Bolsas e Incentivos Internos
Bolsas parciais para médicos cooperados da rede de saúde.
Programa de reembolso de mensalidade, condicionado à aplicação clínica dos conhecimentos adquiridos.
7️⃣ Benefícios Estratégicos para a Cooperativa
🔬 Posicionamento como referência em oncologia de precisão. 📈 Diferencial competitivo no setor de saúde suplementar. 💰 Redução de custos assistenciais com melhor seleção terapêutica via biópsia líquida. 🏥 Melhoria no acompanhamento de pacientes e personalização de tratamentos. 📊 Criação de banco de dados clínicos para pesquisa e inovação.
8️⃣ Cronograma de Implantação
Etapa
Prazo Estimado
Planejamento acadêmico e credenciamento
6 meses
Montagem da infraestrutura
6 meses
Captação de parcerias e financiamento
4 meses
Seleção de professores e alunos
3 meses
Início das aulas
18 meses (total)
🎯 Conclusão
O Mestrado Profissional em Oncologia com Ênfase em Biópsia Líquida representa uma grande inovação na formação médica, proporcionando aos oncologistas ferramentas de diagnóstico mais precisas e contribuindo para o avanço da medicina personalizada.
A integração da biópsia líquida com inteligência artificial permitirá a detecção precoce de mutações tumorais, acompanhamento contínuo da evolução da doença e seleção terapêutica mais eficaz, resultando em melhores desfechos para os pacientes e redução de custos na assistência oncológica.
_______________________________________________
Por favor explique em maior detalhe o programa PROADI SUS
O ChatGPT disse:
📌 O que é o PROADI-SUS?
O PROADI-SUS (Programa de Apoio ao Desenvolvimento Institucional do Sistema Único de Saúde) é um programa do Ministério da Saúde que permite que hospitais de excelência no Brasil desenvolvam projetos de apoio ao SUS, financiados por meio de isenção fiscal.
Basicamente, em vez de pagar impostos federais (COFINS e cota patronal do INSS), os hospitais filantrópicos de excelência podem investir esse valor em projetos que beneficiam o SUS, em áreas como:
Capacitação de profissionais de saúde
Pesquisa e inovação em saúde
Apoio à gestão hospitalar
Desenvolvimento de novas tecnologias médicas
O programa existe desde 2009, sendo regulamentado pelo Decreto nº 9.856/2019 e gerenciado pela Secretaria de Atenção Especializada à Saúde (SAES) do Ministério da Saúde.
🏥 Quem Participa? (Hospitais de Excelência Credenciados)
Os hospitais que podem participar do PROADI-SUS são instituições filantrópicas de alta complexidade que atendem os seguintes critérios: ✅ Atuam como referências nacionais e internacionais em saúde ✅ Prestam atendimento gratuito pelo SUS ✅ Possuem capacidade de inovação e pesquisa científica ✅ Têm gestão de qualidade e ensino reconhecido
Os hospitais credenciados no PROADI-SUS são:
🏥 Hospital Alemão Oswaldo Cruz (SP) 🏥 Hospital Israelita Albert Einstein (SP) 🏥 Hospital Sírio-Libanês (SP) 🏥 Hospital Moinhos de Vento (RS) 🏥 Hospital Beneficência Portuguesa de São Paulo (SP)
Essas instituições atuam em parceria com o Ministério da Saúde, implementando projetos inovadores e capacitando profissionais da rede pública.
📊 Como Funciona o PROADI-SUS?
1️⃣ Hospitais de Excelência Deixam de Pagar Tributos Federais
Em vez de recolher COFINS e cota patronal do INSS, os hospitais direcionam esse valor para projetos de apoio ao SUS.
2️⃣ Propostas de Projetos São Enviadas ao Ministério da Saúde
Os hospitais submetem projetos a cada três anos, dentro de eixos estratégicos definidos pelo governo.
O Ministério da Saúde avalia e aprova os projetos com base em critérios técnicos.
3️⃣ Os Projetos São Implementados no SUS
O hospital executa o projeto em parceria com unidades de saúde do SUS.
Há monitoramento e auditoria para garantir que os recursos sejam bem aplicados.
4️⃣ Resultados São Avaliados e Publicados
Os impactos dos projetos são medidos, relatados e divulgados para aprimorar políticas públicas.
🔬 Principais Áreas de Atuação do PROADI-SUS
Os projetos desenvolvidos pelos hospitais de excelência são organizados em cinco áreas principais:
📚 1. Capacitação de Profissionais do SUS
Cursos, treinamentos e especializações para médicos, enfermeiros e gestores.
Exemplo: Programa de Residência Médica e Educação Permanente para Profissionais do SUS.
🩺 2. Pesquisa, Inovação e Avaliação de Tecnologias
Estudos clínicos sobre novos tratamentos e equipamentos médicos.
Exemplo: Testes para introdução de novos medicamentos no SUS.
🏥 3. Gestão e Modelos de Atenção à Saúde
Melhoria na administração de hospitais e unidades básicas de saúde.
Exemplo: Implantação de protocolos de segurança do paciente.
💉 4. Assistência Especializada e Atendimento Direto ao SUS
Realização de cirurgias, exames e consultas especializadas.
Exemplo: Mutirões de cirurgias cardíacas e ortopédicas.
📊 5. Gestão de Dados e Transformação Digital no SUS
Desenvolvimento de softwares e ferramentas para aprimorar a gestão do sistema de saúde.
Exemplo: Sistemas de inteligência artificial para diagnóstico precoce de câncer.
💰 Benefícios do PROADI-SUS
✅ Amplia a qualificação dos profissionais do SUS com cursos e treinamentos gratuitos. ✅ Reduz a sobrecarga do sistema público, oferecendo assistência direta em hospitais parceiros. ✅ Promove inovação em saúde, trazendo novas tecnologias para o SUS. ✅ Melhora a gestão hospitalar e aumenta a eficiência no atendimento. ✅ Dá acesso a tratamentos avançados para pacientes do SUS.
📢 Exemplos de Projetos de Sucesso
🔬 Projeto 1: Genômica Aplicada à Saúde Pública (Hospital Albert Einstein)
Sequenciamento genético para identificar doenças raras e câncer no SUS.
Mais de 4.000 pacientes beneficiados.
🤖 Projeto 2: Inteligência Artificial na Saúde (Hospital Sírio-Libanês)
Algoritmos de IA para detecção precoce de câncer de mama no SUS.
Mais de 500 mil mamografias analisadas com maior precisão.
👩⚕️ Projeto 3: Residência Médica para Profissionais do SUS (Hospital Oswaldo Cruz)
Formação gratuita para médicos do SUS em oncologia e cirurgia minimamente invasiva.
Mais de 15 mil profissionais treinados.
🔎 Como uma Cooperativa Médica Pode Participar do PROADI-SUS?
Atualmente, apenas hospitais de excelência credenciados podem propor projetos diretamente no PROADI-SUS. No entanto, cooperativas médicas podem se tornar parceiras desses hospitais e receber benefícios como:
Treinamento gratuito para seus médicos em cursos do PROADI-SUS.
Acesso a novas tecnologias médicas desenvolvidas pelos hospitais parceiros.
Participação em pesquisas clínicas e inovação em oncologia.
💡 Estratégia para Cooperativas: 📌 Firmar parceria com um dos hospitais credenciados para implementação de projetos conjuntos. 📌 Incluir capacitação em oncologia com foco em biópsia líquida e inteligência artificial dentro do PROADI-SUS. 📌 Integrar-se a mutirões e assistência direta para oncologia pelo programa.
🎯 Conclusão
O PROADI-SUS é um modelo inovador que transforma impostos em investimentos diretos na melhoria do SUS. Ele fortalece a capacitação de profissionais, incentiva pesquisa e inovação em saúde e melhora o acesso da população a tratamentos de ponta.
✅ Hospitais de excelência deixam de pagar tributos e investem em projetos para o SUS. ✅ Pacientes do SUS recebem atendimento de alta qualidade. ✅ Médicos e profissionais da saúde são capacitados gratuitamente. ✅ Novas tecnologias e tratamentos são desenvolvidos e integrados ao SUS.
Se precisar de mais informações sobre como integrar cooperativas médicas ao programa ou estruturar um projeto dentro do PROADI-SUS, estou à disposição! 😊🏥🚀
Aqui está um plano detalhado para integrar uma cooperativa médica ao PROADI-SUS e estruturar um projeto dentro do programa, garantindo alinhamento com as diretrizes do Ministério da Saúde e maximizando os benefícios para os médicos cooperados e para o SUS.
Plano Detalhado para a Integração de Cooperativas Médicas ao PROADI-SUS
Este plano segue um caminho estruturado em fases, desde a identificação de uma necessidade até a execução e monitoramento do projeto.
📌 Fase 1: Identificação de uma Necessidade do SUS
🔍 Antes de propor um projeto ao PROADI-SUS, a cooperativa deve mapear uma necessidade real do SUS dentro de sua especialidade.
Passos dessa fase:
1️⃣ Análise de Dados Públicos e Estatísticas de Saúde
Consultar bases como DATASUS, Instituto Nacional do Câncer (INCA), OMS e Ministério da Saúde.
Identificar lacunas no atendimento oncológico no SUS, como:
Baixa cobertura de exames preventivos.
Diagnóstico tardio de câncer.
Falta de capacitação para tecnologias emergentes, como biópsia líquida.
2️⃣ Entrevistas com Gestores e Profissionais do SUS
Conversar com hospitais públicos e Unidades de Alta Complexidade em Oncologia (UNACONs).
Identificar demandas específicas, como dificuldades no diagnóstico precoce.
3️⃣ Definição da Necessidade Prioritária
Exemplo: “O câncer de pulmão é diagnosticado tardiamente no SUS, e a biópsia líquida poderia ajudar a antecipar o tratamento.”
A necessidade deve ser quantificável, com dados concretos para justificar o projeto.
📌 Fase 2: Estruturar a Proposta do Projeto
Após definir a necessidade, a cooperativa deve formatar o projeto de forma estruturada.
Elementos essenciais da proposta:
✅ Título do Projeto
“Capacitação e Implementação de Biópsia Líquida para Diagnóstico Oncológico no SUS”
✅ Justificativa
Descrever por que esse projeto é necessário.
Exemplos:
Dados epidemiológicos mostrando a alta taxa de diagnóstico tardio.
Falta de exames não invasivos disponíveis no SUS.
Capacitação insuficiente dos médicos do SUS para essa tecnologia.
✅ Objetivos do Projeto
Exemplo:
“Capacitar 500 médicos do SUS em biópsia líquida nos próximos 2 anos.”
“Criar centros regionais de diagnóstico precoce em 10 estados brasileiros.”
✅ Metodologia e Etapas do Projeto
Descrever como o projeto será implementado.
Exemplo: 1️⃣ Treinamento online e presencial para médicos do SUS sobre biópsia líquida. 2️⃣ Parcerias com laboratórios públicos e privados para a realização dos exames. 3️⃣ Integração com plataformas de inteligência artificial para análise dos resultados.
✅ Resultados Esperados
Redução de 20% na taxa de diagnósticos tardios de câncer de pulmão.
Aumento de 50% no número de exames preventivos realizados no SUS.
✅ Indicadores de Sucesso
Número de médicos capacitados.
Tempo médio para obtenção de diagnóstico no SUS antes e depois do projeto.
Redução da mortalidade nos pacientes atendidos.
📌 Fase 3: Escolha do Hospital Credenciado como Parceiro
Como apenas hospitais de excelência credenciados podem executar projetos no PROADI-SUS, a cooperativa precisa selecionar um parceiro estratégico.
Critérios para escolher o hospital parceiro:
🏥 Atuação na área do projeto:
O hospital deve ser referência em oncologia e inovação.
Exemplo: Hospital Sírio-Libanês (forte atuação em oncogenômica e medicina de precisão).
🤝 Histórico de Projetos no PROADI-SUS:
Analisar os projetos já desenvolvidos por cada hospital.
💡 Interesse na Tecnologia a Ser Aplicada:
O hospital precisa demonstrar interesse em testar e validar a biópsia líquida no SUS.
📌 Fase 4: Formalização da Parceria e Submissão do Projeto
Após escolher o hospital parceiro, a cooperativa deve formalizar a parceria.
Passos dessa fase:
1️⃣ Elaboração de um Termo de Cooperação
Definir as responsabilidades de cada parte:
A cooperativa entra com expertise clínica e formação médica.
O hospital credenciado entra com recursos do PROADI-SUS para financiar e executar o projeto.
2️⃣ Submissão do Projeto ao Ministério da Saúde
O hospital parceiro encaminha a proposta ao Comitê Gestor do PROADI-SUS dentro do ciclo de projetos vigente.
3️⃣ Aprovação e Liberação de Recursos
O projeto passa por análise técnica do Ministério da Saúde e, se aprovado, recebe financiamento via isenção fiscal.
📌 Fase 5: Implementação do Projeto
Após a aprovação, inicia-se a execução do projeto.
Etapas principais da implementação:
1️⃣ Início da Capacitação dos Médicos do SUS
Cursos presenciais e online sobre biópsia líquida e inteligência artificial aplicada ao diagnóstico.
2️⃣ Instalação de Centros Regionais para Biópsia Líquida
Implementação de laboratórios parceiros em diferentes regiões do Brasil.
3️⃣ Integração com Inteligência Artificial
Desenvolvimento de um algoritmo para análise de exames e apoio à decisão clínica.
4️⃣ Monitoramento e Avaliação de Impacto
Comparação de indicadores antes e depois do projeto para validar sua eficácia.
📌 Fase 6: Monitoramento e Expansão
O Ministério da Saúde exige que todos os projetos do PROADI-SUS sejam monitorados e auditados.
Ações dessa fase:
📊 Acompanhamento de Indicadores
Número de médicos capacitados.
Taxa de diagnósticos precoces no SUS antes e depois do projeto.
📢 Publicação de Relatórios e Divulgação dos Resultados
Estudos científicos e relatórios de impacto são enviados ao Ministério da Saúde.
🚀 Expansão do Projeto para Outras Regiões
Se os resultados forem positivos, o projeto pode ser ampliado para mais estados brasileiros.
🎯 Conclusão
Este plano detalhado fornece um roteiro claro para que uma cooperativa médica possa se integrar ao PROADI-SUS e estruturar um projeto de alto impacto na oncologia.
Resumo das Fases:
1️⃣ Identificação da necessidade dentro do SUS. 2️⃣ Desenvolvimento de um projeto estruturado, com objetivos claros. 3️⃣ Escolha de um hospital parceiro credenciado no PROADI-SUS. 4️⃣ Formalização da parceria e submissão ao Ministério da Saúde. 5️⃣ Execução do projeto com capacitação e implementação de tecnologia. 6️⃣ Monitoramento e expansão, garantindo a sustentabilidade do projeto.
Com essa abordagem, a cooperativa pode acessar recursos indiretos do PROADI-SUS, fortalecer sua atuação na área de oncologia e melhorar significativamente o atendimento no SUS.
Se precisar de ajustes ou apoio para formatar uma proposta específica, estou à disposição! 😊🏥🚀
Uma vez constatado o câncer, o protocólo inicial tem que estabelecer o estado do paciente em relação ao câncer que ele tem, especialmente para decidir o tipo de tratamento. Observei no meu caso que ocorreu um erro pela interpretação das imagens que levaram a dois diagnósticos que, posteriormente com um exame mais atento indicou qual seria a forma correta e o primeiro estava errado. Embora as imagens venham com interpretação da parte de quem faz, supõe-se que o médico que solicitou o exame tenha noção suficiente para saber se a interpretação está correta ou que ele concorda. Normalmente o que observo é que eles confiam em algumas pessoas que estão em algumas das instituições que providenciam a imagem e procuram orientar a pessoa para este determinado lugar.
Neste momento (2025) aqui em Campinas, SP,ninguém tem automação, que seria ideal, e evitaria não apenas despesas, como tratamentos errados que podem ter consequências muito ruins e tudo isto poderia ser evitado se pudessem dispor disso e pensando nisso que eu fiz este post.
Existe algum equipamento de analise de imagem que consegue ver numa ressonancia magnetica a existencia de cancer?
O ChatGPT disse:
Sim, existem equipamentos e softwares de análise de imagem que podem detectar câncer em exames de ressonância magnética (RM). Eles utilizam técnicas avançadas de inteligência artificial (IA), aprendizado de máquina e processamento de imagem médica para identificar padrões indicativos de tumores.
Equipamentos e Tecnologias Utilizadas:
Ressonância Magnética com Contraste
O uso de meios de contraste, como o gadolínio, ajuda a destacar áreas com maior vascularização, comuns em tumores.
Espectroscopia por Ressonância Magnética (ERM)
Analisa a composição química dos tecidos e pode diferenciar tecidos normais de cancerígenos.
Análise Automatizada por IA
Softwares como IBM Watson Health, Aidoc, Arterys, Qure.ai e ProFound AI utilizam deep learning para avaliar imagens de RM e identificar lesões suspeitas.
Mapeamento por Difusão (DWI) e Perfusão (DCE-MRI)
Técnicas que medem o movimento das moléculas de água nos tecidos, ajudando a identificar tumores com maior precisão.
Radiômica
Técnica que extrai dados quantitativos das imagens para detectar padrões sutis que podem indicar câncer.
Exemplos de Aplicações
Câncer de próstata: O PI-RADS (Prostate Imaging Reporting and Data System) é um sistema baseado em RM multiparamétrica para classificar lesões suspeitas.
Câncer cerebral: Softwares de IA ajudam a diferenciar gliomas de outras lesões cerebrais.
Câncer de mama: A ressonância magnética mamária combinada com IA melhora a detecção precoce em mulheres com alto risco.
Qual a confiabilidade comparada com a interpretação de um especialista?
O ChatGPT disse:
A confiabilidade dos sistemas de análise de imagem por inteligência artificial (IA) em ressonância magnética (RM) para detecção de câncer varia dependendo do tipo de câncer, do modelo de IA utilizado e da experiência do especialista humano. No entanto, estudos recentes mostram que os melhores sistemas de IA podem atingir níveis de precisão comparáveis aos dos radiologistas experientes.
Comparação entre IA e Especialistas Humanos
Critério
Especialista Humano
IA/Software de Análise de Imagem
Precisão
85-95% (depende da experiência e do tipo de tumor)
85-98% (dependendo do modelo e dos dados de treinamento)
Sensibilidade (capacidade de identificar corretamente um tumor)
Geralmente alta, mas pode variar entre médicos
Algumas IAs atingem sensibilidade acima de 90%, especialmente em câncer de mama e próstata
Especificidade (capacidade de evitar falsos positivos)
Pode errar em casos ambíguos
IA pode gerar falsos positivos, mas pode ser ajustada para melhorar a acurácia
Consistência
Pode variar de acordo com o cansaço ou experiência do médico
Sempre aplica os mesmos critérios, sem fadiga
Tempo de Diagnóstico
Pode levar minutos a horas, dependendo da complexidade do exame
Processa grandes volumes de exames em segundos ou minutos
Interpretação de Casos Raros
Melhor em casos atípicos, com raciocínio clínico baseado em contexto geral
IA pode ter dificuldades se não houver muitos exemplos semelhantes no treinamento
Estudos e Resultados
Câncer de Mama (RM Mamária)
Um estudo publicado na Nature mostrou que um sistema de IA do Google Health superou radiologistas humanos na detecção de câncer de mama em mamografias e RM.
Redução de falsos negativos (tumores que passam despercebidos) em 9,4%.
Redução de falsos positivos (diagnósticos errados de câncer) em 5,7%.
Câncer de Próstata (RM Multiparamétrica)
Sistemas como ProFound AI e IBM Watson Health mostram acurácia de 88-95% na identificação de tumores clinicamente significativos, equivalente ou superior a especialistas.
O uso da pontuação PI-RADS assistida por IA melhora a padronização da análise.
Câncer Cerebral (Gliomas e Metástases)
Modelos de IA baseados em radiômica e aprendizado profundo conseguem diferenciar glioblastomas de tumores benignos com precisão acima de 90%.
Conclusão
Melhor abordagem: O ideal é uma combinação de IA + especialistas humanos. A IA pode ajudar na triagem, destacando áreas suspeitas, reduzindo erros e acelerando o diagnóstico, mas o especialista ainda é fundamental para a decisão clínica final.
Melhoria contínua: Os sistemas de IA continuam evoluindo, mas ainda podem apresentar falsos positivos e dificuldades com casos raros.
Precisão variada: A confiabilidade depende da qualidade dos dados usados para treinar a IA e da experiência dos médicos que a utilizam.
Quanto custa um equipamento destes?
O ChatGPT disse:
O custo de um aparelho de ressonância magnética (RM) com recursos avançados para detecção de câncer varia significativamente conforme o modelo, a potência do campo magnético e as funcionalidades oferecidas.
Preços Estimados:
Aparelhos Novos:
1,5 Tesla: Aproximadamente R$ 3,9 milhões.
3 Tesla: Podem ultrapassar R$ 5,3 milhões, dependendo das especificações e do fabricante.
Aparelhos Usados:
1,5 Tesla: Em torno de R$ 1 milhão.
3 Tesla: Podem ser encontrados por cerca de R$ 1,5 milhão, considerando o estado de conservação e a procedência.
Esses valores são estimativas e podem variar conforme o fornecedor, o estado do equipamento (novo ou usado) e as condições de importação. Além do custo do aparelho, é importante considerar despesas adicionais, como manutenção, instalação e adequação da infraestrutura da clínica ou hospital.
Você disse:
Eu quiz dizer o de analise da imagem obtida
O ChatGPT disse:
O custo de softwares especializados para análise de imagens de ressonância magnética (RM) na detecção de câncer varia amplamente, dependendo das funcionalidades oferecidas, do fabricante e do modelo. Esses softwares utilizam técnicas avançadas, como inteligência artificial e aprendizado de máquina, para auxiliar na interpretação das imagens.
Fatores que Influenciam o Custo:
Funcionalidades Oferecidas:
Análise Automatizada: Softwares que fornecem detecção automática de lesões ou anomalias tendem a ser mais caros devido à complexidade dos algoritmos envolvidos.
Integração com Sistemas Existentes: A capacidade de integrar-se com sistemas de arquivamento e comunicação de imagens médicas (PACS) ou outros softwares hospitalares pode influenciar o preço.
Licenciamento:
Licença Perpétua: Pagamento único para uso indefinido do software.
Assinatura ou Licença Anual: Pagamentos recorrentes que podem incluir atualizações e suporte técnico.
Suporte e Atualizações:
Pacotes que incluem suporte técnico contínuo e atualizações regulares podem ter um custo adicional.
Exemplos de Softwares e Considerações de Custo:
Aidoc: Oferece análise de imagens médicas utilizando inteligência artificial para auxiliar na detecção de anomalias.
Arterys: Combina algoritmos de aprendizado profundo com computação em nuvem para análise de RM cardíaca, hepática, pulmonar e mamária.
Os preços específicos desses softwares não são amplamente divulgados e podem variar conforme a negociação com o fornecedor, o tamanho da instituição e as necessidades específicas. Recomenda-se entrar em contato diretamente com os fornecedores para obter cotações precisas e informações detalhadas.
Além disso, é importante considerar que a implementação de tais softwares pode exigir investimentos adicionais em infraestrutura de TI, treinamento de pessoal e possíveis adaptações nos fluxos de trabalho clínicos.
Para uma análise de custo-benefício adequada, é aconselhável avaliar as necessidades específicas da sua instituição, o volume de exames realizados e o potencial impacto na eficiência diagnóstica e nos resultados clínicos.
Nem um ball park voce consegue?
ball park é uma expressão americana que quer dizer qual um valor aproximado.
O ChatGPT disse:
Compreendo que você está buscando uma estimativa de custo para softwares de análise de imagens de ressonância magnética (RM) voltados para a detecção de câncer. Os preços desses softwares podem variar amplamente, dependendo de fatores como funcionalidades oferecidas, complexidade dos algoritmos, integração com sistemas existentes e suporte técnico.
Embora os fornecedores geralmente não divulguem publicamente os preços específicos, é possível fornecer uma estimativa geral:
Softwares Comerciais Avançados: Soluções robustas que utilizam inteligência artificial para análise de imagens médicas podem ter custos que variam de R$ 50.000 a R$ 500.000 ou mais, dependendo das funcionalidades e do modelo de licenciamento.
Softwares de Código Aberto ou Gratuitos: Existem opções desenvolvidas por instituições acadêmicas ou comunidades de desenvolvedores que são disponibilizadas gratuitamente ou a custos reduzidos. Por exemplo, a Universidade de São Paulo (USP) lançou o MedSquare, um software gratuito para análise de imagens médicas wareline.com.br.
Recomendo entrar em contato diretamente com fornecedores ou desenvolvedores desses softwares para obter cotações precisas e avaliar qual solução melhor atende às necessidades específicas da sua instituição.
Você disse:
Qual o indice de uso automatizado em instalaçãoes de Raio x, ressonancia magnetica e tomografia computadorizada nos Estados Unidos?
O ChatGPT disse:
Atualmente, não há dados específicos que quantifiquem o índice de automação em instalações de raio-X, ressonância magnética e tomografia computadorizada nos Estados Unidos. No entanto, observa-se uma tendência crescente na adoção de tecnologias de Inteligência Artificial (IA) e automação na área de radiologia.
Nos últimos anos, houve um aumento significativo nos investimentos em IA aplicada à medicina. De acordo com o “Artificial Intelligence Index Report 2022” da Universidade de Stanford, em 2021, o setor privado investiu globalmente US$ 11,3 bilhões em pesquisa e inovação com IA para medicina e saúde, representando um aumento de 40% em relação ao ano anterior. Nos últimos cinco anos, esses investimentos totalizaram US$ 28,9 bilhões, posicionando o segmento de saúde como o maior receptor de investimentos privados em IA.
Esses investimentos refletem o interesse crescente na aplicação de IA para aprimorar a análise de imagens médicas, aumentar a precisão diagnóstica e otimizar fluxos de trabalho em radiologia. Embora não possamos fornecer uma porcentagem exata de automação nas instalações mencionadas, é evidente que a integração de tecnologias automatizadas está se expandindo rapidamente no setor de diagnóstico por imagem nos Estados Unidos.Fontes
Você disse:
Será que vale o investimento, pois um médico treinado ganhando 200 000 dolares por ano faz o que precisa milhões de cólares e com maior confiabilidade?
O ChatGPT disse:
A decisão de investir em análise automatizada de imagens médicas depende de vários fatores, incluindo custo-benefício, escalabilidade, precisão e eficiência operacional. Comparar o custo de um médico radiologista altamente treinado com o custo de um sistema automatizado é uma questão complexa, pois envolve não apenas o salário do médico, mas também o volume de exames processados, a taxa de erro e o tempo de análise.
Comparação entre Médicos e IA
Critério
Médico Radiologista
IA e Automação
Custo
~$200.000 – $500.000/ano (médico experiente nos EUA)
$50.000 – $500.000/ano (dependendo do software e modelo de licenciamento)
Precisão
85-98%, dependendo da experiência
85-98%, dependendo do treinamento do algoritmo e qualidade dos dados
Velocidade
15-30 minutos por exame
Segundos a minutos por exame
Consistência
Pode variar conforme o cansaço e a carga de trabalho
Sempre aplica os mesmos critérios, sem fadiga
Escalabilidade
Limitado pela carga horária e número de exames/dia
Pode processar milhares de exames simultaneamente
Necessidade de Intervenção Humana
Análise completa e diagnóstico
Atua como ferramenta auxiliar para o médico
Vale o investimento?
Depende da escala da operação e da necessidade da instituição de saúde. Algumas considerações:
Hospitais e Grandes Clínicas:
Em locais com alto volume de exames, a automação pode ajudar a reduzir a carga dos médicos e acelerar o atendimento.
A IA pode pré-filtrar exames, destacando casos urgentes e permitindo que os radiologistas foquem nos diagnósticos mais complexos.
Clínicas Pequenas e Médicos Individuais:
Se o volume de exames for baixo, pode não justificar o custo de um software de análise automatizada.
A decisão depende do custo da IA em relação ao benefício clínico.
Precisão e Responsabilidade:
Médicos ainda são essenciais para validar os diagnósticos e interpretar casos complexos.
A IA pode complementar, mas não substituir completamente os radiologistas.
Cenário Ideal
O melhor uso da IA não é substituir médicos, mas atuar como um assistente, reduzindo erros, melhorando a eficiência e acelerando a triagem. Em clínicas com alto volume de exames e limitação de especialistas, o investimento pode se pagar rapidamente.
Se o custo da IA for superior à economia gerada, ou se não houver gargalos na análise humana, o investimento pode não valer a pena. O ideal é calcular o retorno sobre investimento (ROI) com base no volume de exames e no custo operacional.
Quer que eu simule um cálculo de ROI para um cenário específico?
Você disse:
Sim
O ChatGPT disse:
Para calcular o Retorno sobre Investimento (ROI) da automação na análise de imagens médicas, precisamos de alguns dados. Vamos estimar alguns valores realistas, mas me avise se quiser ajustá-los.
Cenário Estimado
1. Custo de um Radiologista Humano
Salário médio de um radiologista nos EUA: $250.000/ano
Capacidade de análise: 10 exames/hora (~80 exames/dia, considerando pausas e tarefas extras)
Custo por exame analisado: $10/exame (considerando 25 dias úteis/mês)
2. Custo de um Sistema de IA
Preço do software de IA: $300.000/ano (licença + manutenção)
Exames processados por ano: 100.000 exames/ano (clínica/hospital de médio porte)
Cálculo do ROI
Vamos calcular os custos anuais com e sem a IA e o possível retorno.
Resultados do Cálculo do ROI
Custo anual sem IA (apenas radiologistas humanos):$1.041.667
Custo anual com IA:$300.000
Economia anual gerada pela IA:$741.667
ROI:147% (Ou seja, a cada $1 investido, há um retorno de $1,47)
Conclusão
Se a clínica/hospital processar 100.000 exames por ano, o investimento em IA vale a pena financeiramente, pois a economia supera os custos do software. Em menos de um ano, a instituição recuperaria o investimento.
Quer que eu ajuste os cálculos para um volume de exames diferente ou para múltiplos radiologistas?
Você disse:
Sim, para 20 000 exames por ano
O ChatGPT disse:
Resultados para 20.000 exames por ano
Custo anual sem IA (apenas radiologistas humanos):$208.333
Custo anual com IA:$300.000
Economia anual gerada pela IA:(-$91.667) (ou seja, prejuízo)
ROI:-130% (cada $1 investido na IA resultaria em uma perda de $1,30)
Conclusão
Para um volume de apenas 20.000 exames por ano, não vale a pena investir na IA, pois o custo do software é maior do que o custo de um radiologista humano. A clínica teria um prejuízo de aproximadamente $91.667/ano com esse investimento.
O investimento em automação só faz sentido para instituições que processam um grande volume de exames. Para um volume baixo, um radiologista humano ainda é a melhor opção em termos de custo-benefício.
Caso queira testar outro volume de exames ou custo do software, posso recalcular.
Você disse:
O custo da automação é o mesmo para raio x, tomografia e ressonância magnética?
O ChatGPT disse:
O custo da automação para raio-X, tomografia computadorizada (TC) e ressonância magnética (RM)varia devido a vários fatores, incluindo a complexidade da análise, a necessidade de hardware especializado e a disponibilidade de soluções comerciais.
Comparação de Custos de Automação
Modalidade
Complexidade da Análise
Custo Médio da Automação (anual)
Raio-X
Baixa (2D, contraste menor)
$50.000 – $150.000
Tomografia Computadorizada (TC)
Média (3D, mais detalhado)
$100.000 – $250.000
Ressonância Magnética (RM)
Alta (3D, tecidos moles, multiparamétrica)
$200.000 – $500.000
Por que os custos variam?
Raio-X
As imagens são 2D e relativamente simples de interpretar para algoritmos de IA.
Muitos sistemas já possuem algoritmos prontos e padronizados, reduzindo os custos.
Aplicações comuns: detecção de fraturas, pneumonia, tuberculose e câncer de pulmão.
Tomografia Computadorizada (TC)
A TC gera imagens 3D, exigindo mais poder de processamento.
Necessidade de IA mais avançada para segmentação de órgãos e tecidos.
Aplicações comuns: análise de AVCs, detecção de nódulos pulmonares e câncer abdominal.
Ressonância Magnética (RM)
RM é mais complexa, pois avalia tecidos moles e estruturas detalhadas.
Muitos exames são multiparamétricos, exigindo análise avançada.
Aplicações comuns: detecção de tumores cerebrais, câncer de próstata e doenças neurológicas.
Custo mais alto devido ao maior processamento de dados e necessidade de integração com diferentes protocolos clínicos.
Conclusão
A automação do raio-X é a mais acessível, pois a tecnologia já está consolidada.
Tomografia e ressonância magnética são mais caras devido à necessidade de IA mais sofisticada e maior capacidade de processamento.
Vale a pena investir? Depende do volume de exames e da redução de tempo para os médicos. Para pequenas clínicas, a IA para raio-X pode ser viável, enquanto TC e RM exigem volumes altos para justificar o investimento.
Caso queira, posso recalcular o ROI específico para cada modalidade.
Você disse:
Por favor, faça com 20 000 para cada um
O ChatGPT disse:
Resultados do ROI para 20.000 exames por ano em cada modalidade
Modalidade
Custo anual da IA
Economia Anual
ROI
Raio-X
$100.000
$108.333 (lucro)
8,3%
Tomografia Computadorizada (TC)
$200.000
$8.333 (quase neutro)
-95,8% (prejuízo)
Ressonância Magnética (RM)
$400.000
-191.667 (grande prejuízo)
-147,9%
Conclusão
Raio-X: Viável – o investimento em IA traz pequeno retorno positivo (8,3%). Pode valer a pena se melhorar a eficiência operacional.
Tomografia Computadorizada (TC): Margem apertada – praticamente sem retorno, então o investimento só vale se houver outros benefícios, como menor tempo de diagnóstico.
Ressonância Magnética (RM): Prejuízo alto (-147,9%) – não compensa para esse volume, já que os custos da IA são muito altos.
Recomendação:
Raio-X pode valer a pena, especialmente em clínicas com alto fluxo de exames.
TC e RM só justificam automação se o volume de exames for maior (exemplo: acima de 100.000 exames/ano).
Melhor estratégia: Usar IA para pré-triagem, reduzindo a carga dos médicos, em vez de substituir totalmente a interpretação humana.
Os tópicos abordados nesta palestra em 21 de dezembro de 2023 foram os seguintes:
Visão geral – Alan Turing , reconhecimento facial , marcos, momentos-chave , redes neurais , Big AI, arquitetura de transformadores – LLM Large Language Models – GPT3 – Capacidades emergentes
Machine Learning, que é um subconjunto da IA que se concentra no desenvolvimento de algoritmos e técnicas que permitem que os computadores aprendam com dados e melhorem seu desempenho em uma tarefa sem serem explicitamente programados. Algoritmos de machine learning podem ser categorizados em aprendizado supervisionado, aprendizado não supervisionado, aprendizado semissupervisionado e aprendizado por reforço, dependendo do tipo de dados de treinamento e objetivos de aprendizado.
Data Analytics Que envolve o processo de analisar grandes conjuntos de dados para descobrir padrões, tendências e insights que podem informar a tomada de decisões e impulsionar resultados comerciais. Abrange várias técnicas e métodos para pré-processamento de dados, análise descritiva, análise preditiva e análise prescritiva, com o objetivo de extrair insights acionáveis dos dados.
Processamento de Linguagem Natural : PNL é um subcampo da IA que se concentra em permitir que computadores entendam, interpretem e gerem linguagem humana. Envolve o desenvolvimento de algoritmos e técnicas para tarefas como classificação de texto, tarefas relacionadas a texto, tradução automática e resposta a perguntas. As técnicas de PNL geralmente aproveitam abordagens de aprendizado de máquina e aprendizado profundo para processar e analisar dados de texto.
Large Language Models : LLM como GPT (Generative Pre-trained Transformer) desenvolvido pela OpenAI são projetados para executar tarefas de processamento de linguagem natural, como geração de texto, classificação de texto e compreensão de linguagem, com proficiência notável. Esses modelos consistem em milhões ou até bilhões de parâmetros e são treinados usando técnicas como pré-treinamento não supervisionado seguido de ajuste fino em tarefas específicas. (GPT Chat é uma atualização do GPT)
Modelos Generativos : Modelos “generativos” referem-se à capacidade de um modelo ou sistema de criar novas amostras de dados que são semelhantes, mas não necessariamente idênticas, aos dados nos quais foi treinado. Modelos generativos são uma classe de modelos de IA projetados para gerar novas instâncias de dados que se assemelham a dados de treinamento.
Problemas e Guard Rails – Problemas e sua prevenção – ele está mais preocupado com o aspecto de absorver lixo da Internet, onde os LLMs obtêm suas referências, o que dá origem a erros e coisas que não correspondem aos fatos. Ele também discute algumas situações criminosas, ilegais ou imorais. Ele acrescenta um tópico interessante de que os LLMs acabam refletindo a cultura americana e outras culturas com pegada fraca na Internet simplesmente não aparecem. Ele discute direitos autorais e GDPR (Regulamento Geral de Proteção de Dados) e o Modelo Tesla de Autocondução.
IA de Propósito Geral – também conhecida como AGI (Inteligência Geral Artificial) refere-se a um tipo de inteligência artificial que tem a capacidade de entender, aprender e executar uma ampla variedade de tarefas de forma semelhante ou até superior à inteligência humana em várias áreas. Ao contrário da inteligência artificial mais específica, que é projetada para executar tarefas específicas, como reconhecimento de fala, classificação de imagens ou jogar xadrez, a AGI seria capaz de se adaptar a novas situações, aprender novas tarefas facilmente e aplicar seu conhecimento de forma flexível em uma variedade de contextos.
Esses campos são interconectados e frequentemente usados em combinação para desenvolver sistemas e aplicativos inteligentes que podem entender, analisar e interpretar dados em uma variedade de formas, incluindo texto, imagens, áudio e muito mais. Eles têm aplicações em uma ampla variedade de domínios, incluindo saúde, finanças, comércio eletrônico, atendimento ao cliente e muito mais, e desempenham um papel crucial no avanço das capacidades da tecnologia de IA.
Abertura
Dr. Michael Woolbridge
A Inteligência Artificial como disciplina científica está conosco desde logo após a Segunda Guerra Mundial. Começou, grosso modo, com o advento dos primeiros computadores digitais, mas tenho que dizer que, na maior parte do tempo, até recentemente, o progresso na inteligência artificial foi glacialmente lento. Isso começou a mudar neste século.
A Inteligência Artificial é uma disciplina muito ampla, que abrange uma gama muito ampla de técnicas diferentes, mas foi uma classe de técnicas de IA em particular que começou a funcionar neste século e, em particular, começou a funcionar por volta de 2005. A classe de técnicas que começou a funcionar em problemas que eram interessantes o suficiente para serem realmente úteis na prática em uma ampla gama de cenários foi o aprendizado de máquina.
Aprendizado de máquina
Agora, como tantos outros nomes no campo da inteligência artificial, o nome “machine learning” é realmente, realmente, inútil. Ele sugere que um computador, por exemplo, se tranca em uma sala com um livro didático e se treina para ler francês ou algo assim. Não é isso que está acontecendo. Então, vamos começar entendendo um pouco mais sobre o que é machine learning e como o machine learning funciona. Então, para começar:
Quem é esse? Alguém reconhece esse rosto? Você reconhece esse rosto? É o rosto de Alan Turing. Muito bem. Alan Turing. O falecido e grande Alan Turing. Todos nós sabemos um pouco sobre Alan Turing por seu trabalho de quebra de códigos na Segunda Guerra Mundial. Também deveríamos saber muito mais sobre essa vida incrível individual. Então, o que faremos é usar Alan Turing para nos ajudar a entender o aprendizado de máquina. Então, uma aplicação clássica da inteligência artificial é fazer reconhecimento facial. A ideia no reconhecimento facial é que queremos mostrar ao computador uma imagem de um rosto humano e que o computador nos diga de quem é esse rosto. Neste caso, por exemplo, mostramos uma imagem de Alan Turing e, idealmente, ele nos diria que é Alan Turing.
Então, como isso realmente funciona?
Bem, a maneira mais simples de fazer com que o aprendizado de máquina seja capaz de fazer algo é o que é chamado de aprendizado supervisionado. O aprendizado supervisionado, como todo o aprendizado de máquina, requer o que chamamos de dados de treinamento. Então, neste caso, os dados de treinamento estão no lado direito do slide, é um conjunto de pares de entrada e saída, ou o que chamamos de conjunto de dados de treinamento e cada par de entrada e saída consiste em uma entrada, se eu der isso, e uma saída, eu gostaria que você produzisse isso, então, neste caso, temos um monte de fotos novamente de Alan Turing, e o texto que gostaríamos que o computador criasse se mostrássemos a ele essa foto e isso é aprendizado supervisionado porque estamos mostrando ao computador o que queremos que ele faça. Estamos ajudando em um sentido, estamos dizendo: esta é uma foto de Alan Turing. Se eu mostrar a você a foto, é isso que eu gostaria que você imprimisse. Então, poderia haver uma foto minha e a foto minha seria rotulada com o texto Michael Wooldridge, se eu mostrasse a você esta foto, então é isso que eu gostaria que você imprimisse.
Então, aprendemos uma lição importante sobre inteligência artificial e aprendizado de máquina em particular, e essa lição é que a IA requer dados de treinamento e, neste caso, imagens de Alan Turing rotuladas com o texto que gostaríamos que o computador produzisse. Se eu mostrasse essa imagem, eu gostaria que você produzisse o texto Alan Turing.
Certo, dados de treinamento são importantes toda vez que você acessa uma mídia social e carrega uma foto na mídia social e a rotula com os nomes das pessoas que aparecem lá, sua função nisso é fornecer dados de treinamento para os algoritmos de aprendizado de máquina de empresas de Big Data. Então, isso é aprendizado supervisionado. Agora, vamos falar exatamente como ele faz o aprendizado em um momento, mas a primeira coisa que quero destacar é que esta é uma tarefa de classificação. O que quero dizer com isso é que, como mostramos em uma imagem, o aprendizado de máquina está classificando essa imagem. Estou classificando isso como uma imagem de Michael Wooldridge, esta é uma imagem de Alan Turing e assim por diante, e essa tecnologia que realmente começou a funcionar por volta do início de 2005, começou a decolar realmente, realmente foi supercarregada por volta de 2012.
E apenas esse tipo de tarefa por si só é incrivelmente poderosa. Exatamente essa tecnologia pode ser usada, por exemplo, para reconhecer tumores em exames de raio-x ou anormalidades em exames de ultrassom e uma série de tarefas diferentes.
Alguém na plateia tem um Tesla? (alguns motoristas de Tesla). Não tenho certeza se eles querem admitir que têm um Tesla… Temos alguns motoristas de Tesla na plateia… O modo de direção autônoma do Tesla só é possível por causa dessa tecnologia. É essa tecnologia que está permitindo que um Tesla em modo de direção autônoma total seja capaz de reconhecer que aquilo é um sinal de parada, que aquilo é alguém em uma bicicleta, que aquilo é um pedestre em uma faixa de pedestres e assim por diante. Essas são tarefas de classificação. E voltarei e explicarei como as tarefas de classificação são diferentes da IA generativa mais tarde.
Redes Neurais
OK, então, isso é aprendizado de máquina. Como ele realmente funciona? OK, esta não é uma apresentação técnica e é o mais técnico que pode ser, onde eu faço uma explicação muito superficial do que são redes neurais e como elas funcionam e com desculpas – eu sei que tenho alguns especialistas em redes neurais na plateia – e peço desculpas a você porque você vai se encolher com a minha explicação, mas os detalhes técnicos são técnicos demais para entrar em detalhes. Então, como uma rede neural reconhece Alan Turing?
Observe o cérebro ou sistema nervoso de um animal sob um microscópio, e você verá que ele contém um número enorme de células nervosas chamadas neurônios e essas células estão conectadas umas às outras em vastas redes. Agora, não temos números precisos, mas em um cérebro humano, a estimativa atual é algo como 86 bilhões de neurônios no cérebro humano. Como eles chegaram a 86, suponho que 85 ou 87, não sei, mas 86 parece ser o número mais comumente citado dessas células. E essas células estão conectadas umas às outras em enormes redes. Um neurônio pode ser conectado a até 8000 outros neurônios. E cada um desses neurônios está fazendo uma tarefa minúscula, muito, muito simples de reconhecimento de padrões. Esse neurônio está procurando por um padrão muito, muito simples e quando ele vê esse padrão, ele envia o sinal para suas conexões, ele envia um sinal para todos os outros neurônios aos quais ele está conectado. Então, como isso nos leva a reconhecer o rosto de Alan Turing? Então, a imagem de Turing, como sabemos, uma imagem – uma imagem digital – é composta de milhões de pontos coloridos… os pixels, então seu smath0ne talvez tenha 12 megapixels, 12 milhões de pontos coloridos compondo essa imagem. OK, então, a imagem de Turing ali é composta de milhões e milhões de pontos coloridos. Então, olhe para o neurônio superior esquerdo naquela camada de entrada. Esse neurônio está apenas procurando por um padrão muito simples. Qual pode ser esse padrão? Pode ser apenas a cor vermelha. E quando ele vê a cor vermelha em seu pixel associado, aquele no canto superior esquerdo ali, ele fica excitado e envia um sinal para todos os seus vizinhos. OK, então olhe para o próximo neurônio, talvez o que esse neurônio esteja fazendo seja apenas verificar se a maioria de suas conexões de entrada são vermelhas. E quando ele vê a maioria de suas conexões de entrada são vermelhas, então ele fica excitado e envia um sinal para seu vizinho. Agora, lembre-se, no cérebro humano, há algo como 86 bilhões deles, e temos algo como 20 ou mais conexões de saída para cada um desses neurônios em um cérebro humano, milhares dessas conexões. E de alguma forma — de maneiras que, para ser honesto, não entendemos realmente em detalhes, tarefas complexas de reconhecimento de padrões, em particular, podem ser reduzidas a essas redes neurais. Então, como isso nos ajuda na inteligência artificial? É isso que está acontecendo no cérebro de uma forma muito ondulada, não é isso, obviamente não é uma explicação técnica do que está acontecendo.
Como isso nos ajuda em redes neurais?
Bem, podemos implementar essas coisas em software. A ideia remonta à década de 1940 e aos pesquisadores McCulloch e Pitts, e eles foram atingidos pela ideia de que as estruturas que você vê no cérebro se parecem um pouco com circuitos elétricos. E eles pensaram, poderíamos implementar todas essas coisas em circuitos elétricos? Agora, eles não tinham os meios para fazer isso, mas a ideia pegou. A ideia existe desde a década de 1940. Começou a olhar seriamente para a ideia de fazer isso em software – na década de 1960. E então houve outra onda de interesse na década de 1980, mas foi somente neste século que isso realmente se tornou possível. E por que isso se tornou possível? Por três razões:
1-Houve alguns avanços científicos – o que é chamado de aprendizado profundo.
2-Havia a disponibilidade de big data – e você precisa de dados para poder configurar essas redes neurais e, finalmente,
3- para configurar essas redes neurais para que elas possam reconhecer a imagem de Turing, você precisa de muito poder computacional e o poder computacional se tornou muito barato neste século. Estamos na era do poder computacional muito barato.
E esses foram os ingredientes, assim como os desenvolvimentos científicos que tornaram a IA plausível neste século, em particular, decolando por volta de 2005.
OK, então como você realmente treina uma rede neural?
Se você mostrar uma foto de Alan Turing e o texto de saída “Alan Turing”, como o treinamento realmente se parece?
Bem, o que você tem que fazer é ajustar a rede. É isso que é treinar uma rede neural. Você ajusta a rede para que quando você mostrar ao ikt outro pedaço de dados de treinamento, uma entrada desejada e uma saída desejada – uma entrada e uma saída desejada – ela produza essa saída desejada. Agora, a matemática para isso não é muito difícil. É como um nível de pós-graduação iniciante ou nível escolar avançado, mas você precisa de muito if e é rotina fazer com que os computadores façam isso, mas você precisa de muito poder de computação para ser capaz de treinar redes neurais grandes o suficiente para serem capazes de reconhecer rostos.
OK, mas basicamente tudo o que você precisa lembrar é que cada um desses neurônios está realizando uma pequena tarefa simples de reconhecimento de padrões, e podemos replicar isso em software e treinar essas redes neurais com dados para conseguir fazer coisas como reconhecer rostos.
Então, como eu disse, começa a ficar claro por volta de 20005 que essa tecnologia está decolando. Ela começa a ser aplicável em problemas como reconhecimento de rostos ou reconhecimento de tumores em raios X e assim por diante. E há uma onda enorme de interesse do Vale do Silício. Ela é supercarregada em 2012, e por que ela é supercarregada em 2012? Porque se percebe que um tipo específico de processador de computador é realmente muito adequado para fazer toda a matemática. Esse tipo de processador de computador é uma unidade de processamento gráfico: uma GPU. Exatamente a mesma tecnologia que você ou possivelmente mais provavelmente seus filhos usam quando jogam C}all of Duty ou Minecraft ou o que quer que seja. Todos eles têm GPUs em seus computadores. É exatamente essa tecnologia e, a propósito, foi a IA que fez da Nvidia uma empresa de US$ 1 bilhão — não seus filhos adolescentes. Sim, bem, ” em tempos de corrida do ouro, sejam os que vendem as pás “* é a lição que você aprendeu lá.
* O ditado “Em tempos de corrida do ouro, seja você quem vende as pás” é uma metáfora que destaca uma abordagem estratégica para lucrar com uma tendência popular ou especulativa. A ideia central é que durante qualquer boom ou frenesi especulativo, a maneira mais confiável e consistente de ganhar dinheiro não é participando diretamente da atividade especulativa (por exemplo, mineração de ouro), mas fornecendo as ferramentas, serviços ou infraestrutura necessários para aqueles que estão participando (por exemplo, vendendo pás, picaretas, suprimentos).
Grande IA
Então, para onde isso nos leva? Então, o Vale do Silício fica animado e começa a fazer bts especulativos em inteligência artificial. Uma enorme variedade de apostas especulativas e, por “apostas especulativas”, estou falando de bilhões e bilhões de dólares. O tipo de aposta que não podemos imaginar em nossa vida cotidiana. E uma coisa começa a ficar clara e o que começa a ficar claro é que as capacidades das redes neurais crescem com a escala. Para ser franco, com redes neurais, maior é melhor. Mas você não precisa apenas de redes neurais maiores, você precisa de mais dados e mais poder computacional para poder treiná-las. Então, há uma pressa para obter uma vantagem competitiva no mercado. E sabemos que mais dados, mais poder computacional, redes neurais maiores oferecem maior capacidade. E então como o Vale do Silício responde?
Ao jogar mais dados e mais poder de computação no problema, eles aumentam o dial para 11. Eles apenas jogam dez vezes mais dados, dez vezes mais poder de computação no problema. Parece incrivelmente bruto e, de uma perspectiva científica, é realmente bruto. Eu preferiria que os avanços tivessem vindo por meio da ciência central, mas, na verdade, há uma vantagem a ser obtida apenas jogando mais dados e poder de computação nisso. Então, vamos ver até onde isso pode nos levar. E para onde isso nos levou é uma direção realmente inesperada.
Por volta de 2017/2018, estamos vendo uma enxurrada de aplicações de IA, exatamente o tipo de coisas que descrevi – coisas como reconhecer tumores e assim por diante – e esses desenvolvimentos por si só já teriam impulsionado a IA. Mas o que acontece é que uma tecnologia de aprendizado de máquina em particular de repente parece ser muito, muito adequada para essa era de grande IA.
Atenção é tudo o que você precisa – Arquitetura de transformadores
O artigo que foi lançado — provavelmente o artigo mais importante sobre IA na última década — é chamado de “ Atenção é tudo o que você precisa ”. É um título extremamente inútil e aposto que eles estão se arrependendo desse título — provavelmente parecia uma boa piada na época. Tudo o que você precisa é de um tipo de meme de IA. Não parece muito engraçado para você — é porque é uma piada interna. Mas, de qualquer forma, este artigo dessas sete pessoas, que na época trabalhavam para o Google Brain — um dos laboratórios de pesquisa do Google — é o artigo que introduz uma arquitetura de rede neural específica chamada Arquitetura do Transformador. E para o que ela foi projetada é algo chamado de grandes modelos de linguagem. Então, isso é — não vou tentar explicar como a arquitetura do transformador funciona, ela tem uma inovação específica, eu acho, e essa inovação específica é o que é chamado de mecanismo de atenção.
Descreverei como grandes modelos de linguagem funcionam em um momento. Mas o ponto é – o ponto da imagem é simplesmente que esta não é apenas uma grande rede neural. Ela tem alguma estrutura. E foi essa estrutura que foi inventada naquele artigo. E este diagrama foi tirado diretamente daquele artigo. Foram essas estruturas – as arquiteturas de transformadores – que tornaram essa tecnologia possível.
Arquitetura do transformador: panorama geral
Nota: este wrap ut não estava no campo do Dr. Michael (RE Campos)
O artigo “Attention is All You Need”, publicado por Vaswani et al. em 2017, introduziu o modelo Transformer, que influenciou significativamente o campo da inteligência artificial, particularmente no processamento de linguagem natural (NLP). Aqui estão os principais conteúdos e conceitos do artigo:
Introdução a Transformers : O artigo apresenta a arquitetura Transformer, que depende inteiramente de mecanismos de atenção, descartando as camadas recorrentes e convolucionais usadas em modelos anteriores. Essa arquitetura permite paralelização e eficiência aprimorada no treinamento.
Mecanismo de Atenção : A principal inovação do Transformer é o mecanismo de atenção, especificamente o mecanismo de “autoatenção”. Isso permite que o modelo pondere a importância de diferentes palavras em uma frase em relação umas às outras, permitindo que ele capture relacionamentos contextuais de forma mais eficaz.
Atenção Multi-Head : O modelo emprega atenção multi-head, o que permite que a rede se concentre em diferentes partes da entrada simultaneamente. Isso aumenta sua capacidade de entender padrões e relacionamentos complexos dentro dos dados.
Codificação Posicional : Como o Transformer não tem uma estrutura de processamento sequencial (como RNNs), ele usa codificações posicionais para reter a ordem da sequência de entrada. Isso ajuda o modelo a entender a posição de cada palavra em relação às outras.
Arquitetura do codificador-decodificador : O transformador consiste em um codificador e um decodificador:
O codificador processa a sequência de entrada e gera um conjunto de representações contínuas.
O decodificador pega essas representações e gera a sequência de saída, frequentemente usada em tarefas como tradução.
Normalização de camadas e conexões residuais : a arquitetura incorpora normalização de camadas e conexões residuais para facilitar o treinamento e melhorar o desempenho, ajudando a mitigar problemas como gradientes que desaparecem.
Desempenho e Aplicações : O artigo demonstra que os Transformers alcançam resultados de última geração em várias tarefas de PNL, como tradução, sumarização e modelagem de linguagem. A eficiência e eficácia da arquitetura levaram à sua ampla adoção em muitas aplicações de IA, incluindo modelos como BERT e GPT.
Impacto na IA : A introdução do modelo Transformer revolucionou o campo da IA, levando a avanços significativos em como as máquinas entendem e geram a linguagem humana. Ele abriu caminho para modelos pré-treinados em larga escala que podem ser ajustados para tarefas específicas, aprimorando ainda mais as capacidades dos sistemas de IA.
No geral, “Atenção é tudo o que você precisa” é um artigo fundamental que moldou a direção da pesquisa e do desenvolvimento em inteligência artificial, particularmente no processamento e compreensão da linguagem natural.
GPT3
Ok, estamos todos ocupados meio que semiconfinados e com medo de sair de casa em junho de 2020 e uma empresa chamada OpenAI lançou um sistema — ou anunciou um sistema, devo dizer — chamado GPT3. Ótima tecnologia. Sua empresa de marketing com GPT, eu realmente acho que poderia ter pensado um pouco mais, para ser honesto com você, não sai da língua. Mas de qualquer forma, GPT3 é um tipo particular de sistema de aprendizado de máquina chamado modelo de grande linguagem. E falaremos mais detalhadamente sobre para que serve um modelo grande em um momento. Mas o ponto-chave sobre GPT3 é este: quando começamos a ver o que ele poderia fazer, percebemos que esta era uma mudança radical na capacidade. Era dramaticamente melhor do que os sistemas que o precederam. Não apenas um pouco melhor. Era dramaticamente melhor do que os sistemas que o precederam. E a escala disso era alucinante. Então, em termos de rede neural, falamos sobre parâmetros.
Onde as pessoas da rede neural falam sobre um parâmetro. Do que elas estão falando? Elas estão falando sobre um neurônio individual ou uma das conexões entre eles, aproximadamente. E o GPT3 tinha 175 bilhões de parâmetros. Agora, isso não é o mesmo que o número de neurônios no cérebro, mas, ainda assim, não está muito longe da ordem de magnitude.
É extremamente grande. Mas, lembre-se, é organizado em uma dessas arquiteturas de transformadores. Meu ponto é que não é apenas uma grande rede neural. E então a escala das redes neurais neste sistema era enorme – completamente sem precedentes. E não há sentido em ter uma grande rede neural a menos que você possa treiná-la com dados suficientes. E, na verdade, se você tem grandes redes neurais e não dados suficientes, você não obtém sistemas capazes de forma alguma. Eles são realmente bastante inúteis.
Então. Como eram os dados de treinamento?
Os dados de treinamento para GPt3 são algo como 500 bilhões de palavras. É um texto comum em inglês. Texto comum em inglês. É assim que esse sistema foi treinado – apenas dando a ele texto comum em inglês.
De onde você obtém esses dados de treinamento?
Para começar, você baixa toda a World Wide Web.
Literalmente – essa é a prática padrão no campo. Você baixa a World Wide Web.
A propósito, você pode tentar isso em casa. Se você tiver um drive de disco grande o suficiente, há um programa chamado Common Crawl. Você pode pesquisar Common Crawl no Google quando chegar em casa. Eles até baixaram tudo para você e colocaram um arquivo grande e bonito pronto para seu arquivo. Mas você precisa de um disco grande para armazenar todas essas coisas.
E o que isso significa é que eles vão a cada página da web, raspam todo o texto dela – apenas o texto comum – e então seguem todos os links daquela página da web para todas as outras páginas da web. E eles fazem isso exaustivamente até que tenham absorvido toda a World Wide Web. Então, o que isso significa?
Cada documento PDF entra nisso e você extrai o texto desses documentos PDF, cada folheto publicitário, cada pedaço, cada regulamento governamental, cada ata da universidade – Deus nos ajude… – tudo isso entra nesses dados de treinamento. E as estatísticas – você sabe, 500 bilhões de palavras – É muito difícil entender a escala desses dados de treinamento. Você sabe, levaria uma pessoa lendo mil palavras por hora a mais de mil anos para conseguir ler isso. Mas mesmo isso não ajuda muito. Isso é muito, muito mais texto do que um ser humano poderia absorver em sua vida. O que isso diz a você, a propósito, uma coisa que diz a você é que o aprendizado de máquina é muito menos eficiente em aprender do que os seres humanos porque, para eu conseguir aprender, não precisei absorver 500 bilhões de palavras. De qualquer forma, então, o que isso faz?
Então, essa empresa, a OpenAI, está desenvolvendo essa tecnologia. Eles receberam um investimento de US$ 1 bilhão da Microsoft e o que eles estão tentando fazer? O que é esse grande modelo de linguagem? Tudo o que ele está fazendo é um autocompletar muito poderoso. Então, se eu abrir meu smartphone e começar a enviar uma mensagem de texto para minha esposa e digitar “I am going to be”, meu smartphone sugerirá conclusões para que eu possa digitar a mensagem rapidamente. E quais podem ser essas conclusões? Elas podem ser “atrasado” ou “no pub”. Sim, “atrasado E no pub”.
Então, como meu smartphone está fazendo isso?
Ele está fazendo o que o GPT3 faz, mas em uma escala muito menor. Ele olhou para todas as mensagens de texto que enviei para minha esposa e aprendeu – por meio de um processo de aprendizado de máquina muito mais simples – que a próxima coisa mais provável para eu digitar depois de “I’m going to be” é “late” ou “in the pub” ou “late AND in the pub”.
Então, os dados de treinamento são apenas as mensagens de texto que enviei para minha esposa.
Agora, crucialmente, o que o GPT3 – e seu sucessor, o Chat GPT – estão fazendo é exatamente a mesma coisa. A diferença é a escala. Para poder treinar as redes neurais com todos esses dados de treinamento para que possam fazer essa previsão (dado esse prompt, o que deve vir a seguir?), você precisa de supercomputadores de IA extremamente caros funcionando por meses. E por supercomputadores de IA extremamente caros, são dezenas de milhões de dólares para esses supercomputadores e eles estão funcionando por meses. Só o custo básico de eletricidade chega a milhões de dólares. Isso levanta todos os tipos de questões sobre emissões de CO2 e coisas do tipo que não vamos abordar aqui. O ponto é que essas são coisas extremamente caras. Uma das implicações disso, a propósito, nenhuma universidade da UH ou dos EUA tem a capacidade de construir um desses modelos do zero. Apenas grandes empresas de tecnologia no momento são capazes de construir modelos na escala do GPT3 ou ChatGPT.
Então, o GPT3 é lançado, como eu disse em junho de 2020, e de repente fica claro para nós que o que ele faz é uma mudança radical na melhoria da capacidade em relação aos sistemas que vieram antes. E ver uma mudança radical em uma geração é extremamente raro.
Mas como eles chegaram lá?
Bem, a arquitetura do transformador era essencial. Eles não teriam conseguido fazer isso. Mas, na verdade, tão importante quanto é dimensionar enormes quantidades de dados, enormes quantidades de poder computacional que foram para treinar essas redes. E, na verdade, estimulados por isso, entramos em uma nova era na IA. Quando eu era um estudante de doutorado no final dos anos 1980, você sabe, eu dividia um computador com um monte de outras pessoas no meu escritório e isso era – era bom. Nós podíamos fazer pesquisa de IA de última geração em um computador de mesa que era compartilhado com um monte de nós.
Estamos em um mundo muito diferente. O mundo em que estamos — na IA agora — o mundo da grande IA é pegar enormes conjuntos de dados e jogá-los em enormes sistemas de aprendizado de máquina. E há uma lição aqui. É chamada de verdade amarga — isso é de um pesquisador de aprendizado de máquina chamado Rich Sutton. O que Rich destacou — e ele é um pesquisador muito brilhante, ganhou todos os prêmios na área — ele disse: olha, a verdade real é que os grandes avanços que vimos na IA surgiram quando as pessoas fizeram exatamente isso; apenas jogaram dez vezes mais dados e dez vezes mais poder de computação nele. E eu digo que é uma lição amarga porque, como cientista, NÃO é exatamente assim que você gostaria que o progresso fosse feito.
A grande verdade amarga da IA
Ok, quando eu era, como eu disse, quando eu era um estudante, eu trabalhava em uma disciplina chamada IA simbólica. A IA simbólica tenta obter IA, falando grosso modo, IA, através da modelagem da mente. Modelando os processos mentais conscientes que acontecem em nossa mente, as conversas que temos conosco mesmos em línguas. Nós tentamos capturar esses processos na inteligência artificial. Na Big AI – e então, a implicação ali na IA simbólica é que a inteligência é um problema de conhecimento que nós temos que dar à máquina conhecimento suficiente sobre um problema para que ela seja capaz de resolvê-lo. Na big AI, a aposta é diferente. Na big AI a aposta é que a inteligência é um problema de dados, e se nós pudermos obter dados suficientes e poder de computador associado suficiente, então isso vai entregar IA. Então, há uma mudança muito diferente neste novo mundo da big AI. Mas o ponto sobre a big AI é que nós estamos em uma nova era de inteligência artificial onde ela é orientada por dados e computador e grandes, grandes sistemas de aprendizado de máquina.
Então, por que ficamos animados em junho de 2020? Bem, lembre-se do que o GPT3 foi criado para fazer — o que ele é treinado para fazer — é essa tarefa de conclusão rápida. E ele foi treinado em tudo na World Wide Web, então você pode dar a ele um prompt, como um resumo de um parágrafo da vida e das realizações de Winston Churchill, e ele lê resumos de um parágrafo suficientes sobre a vida e as realizações de Winston Churchill, que ele retornará com um muito plausível. E ele é extremamente bom em gerar texto que soe realista dessa forma. Mas é por isso que ficamos surpresos com a IA: isso é de uma tarefa de raciocínio de senso comum que foi criada para inteligência artificial na década de 1990, até três anos atrás — até junho de 2020 — não havia nenhum sistema de IA no mundo ao qual você pudesse aplicar esse teste. Era literalmente impossível. Não havia nada lá, e isso mudou da noite para o dia. Então, como e como é esse teste? Bem, o teste é um monte de perguntas, e elas não são perguntas para raciocínio matemático ou raciocínio lógico ou problemas de física. Elas são tarefas de raciocínio de senso comum.
E se algum dia tivermos IA que forneça escala em sistemas realmente grandes, então ela certamente seria capaz de lidar com problemas como esse. Então, como são as perguntas? Um humano faz a pergunta: “Se Tom é três polegadas mais alto que Dick, e Dick é 2 polegadas mais alto que Harry, quanto mais alto Tom é que Harry?
No slide, os que estão em verde são os que a IA acerta. Os que estão em vermelho são os que erram.
E acerta em cheio: 13 centímetros mais alto que Harry.
Mas não o treinamos para ser capaz de responder a essa pergunta. Então, de onde diabos isso veio? Essa capacidade – essa capacidade simples de ser capaz de fazer isso – de onde veio?
A próxima pergunta: “Tom pode ser mais alto que ele?”
Este é o entendimento do conceito de “mais alto que”. Que o conceito de “mais alto que” é irreflexivo. Você não pode ser mais alto – uma coisa não pode ser mais alta que ela mesma. Não. Novamente, ele acerta a resposta. Mas não treinamos nisso. Não é – não treinamos o sistema para ser bom em responder perguntas sobre o que “mais alto que” significa. E, a propósito, 20 anos atrás, tant era exatamente o que as pessoas faziam na IA. Então, de onde veio essa capacidade? “Uma irmã pode ser mais alta que um irmão?” Sim, uma irmã pode ser mais alta que um irmão. “Dois irmãos podem ser mais altos que o outro?” E ele erra essa. E, na verdade, estou intrigado, há alguma maneira de sua resposta estar correta e ele está apenas acertando de uma forma que eu não entendo. Mas ainda não descobri nenhuma maneira de essa resposta estar correta. Mas por que ele erra essa, eu não sei. Então, essa também me surpreende. “Em um mapa, qual direção da bússola geralmente é para a esquerda?” E ele acha que o norte geralmente é para a esquerda. Não sei se há algum país no mundo que convencionalmente tem o norte para a esquerda, mas acho que não. “Os peixes podem correr?” Ele entende que os peixes não podem correr. “Se uma porta está trancada, o que você deve fazer primeiro antes de abri-la?” Você deve primeiro destrancá-la. ] e então finalmente, e muito estranhamente, ele erra esta: “o que foi inventado primeiro, carros, navios ou aviões?” – e ele acha que os carros foram inventados primeiro. Agora o QHR está acontecendo lá.
Agora, meu ponto é que esse sistema foi criado para ser capaz de competir a partir de um prompt, e não é nenhuma surpresa que ele seria capaz de gerar um bom resumo de um parágrafo da vida e das conquistas de Winston Churchil, porque ele teria visto tudo isso nos dados de treinamento. Mas de onde vem o entendimento de “mais alto que”? E há um milhão de outros exemplos como esse. Desde junho de 2020, a comunidade de IA enlouqueceu explorando as possibilidades desses sistemas e tentando entender por que eles podem fazer essas coisas quando não é para isso que os treinamos. Este é um momento extraordinário para ser um pesquisador de IA porque agora há questões que, durante a maior parte da história da IA até junho de 2020, eram apenas discussões filosóficas. Não podíamos testá-las porque não havia nada para testá-las. Literalmente. Então, da noite para o dia, isso mudou. Então, genuinamente, é um grande negócio. Isso foi realmente, realmente um grande negócio, a chegada deste sistema. Claro, o mundo não percebeu, em junho de 2020. O mundo percebeu quando o ChatGPT foi lançado. E o que é ChatGPT? ChatGPT é uma versão polida e melhorada do GPT3, mas é basicamente a mesma tecnologia e está usando a experiência que aquela empresa teve com o GPT3 e como ele foi usado para poder melhorá-lo e torná-lo mais polido e mais acessível e assim por diante.
Então, para pesquisadores de IA, o realmente interessante não é que eles podem me dar um resumo de um parágrafo da vida e das conquistas de Winston Churchill, e na verdade você poderia pesquisar isso no Google, de qualquer forma. O realmente interessante é o que chamamos de capacidades emergentes– e capacidades emergentes são capacidades que o sistema tem, mas que não o projetamos para ter. E então há um enorme corpo de trabalho acontecendo agora, tentando mapear exatamente quais são essas capacidades. E voltaremos e falaremos sobre algumas delas mais tarde. OK. Então os limites para isso não são, no momento, bem compreendidos e, na verdade, ferozmente controversos. Um dos grandes problemas, a propósito, é que você constrói algum teste para isso e você tenta esse teste e obtém alguma resposta e então descobre que está nos dados de treinamento, certo? Você pode simplesmente encontrá-la na World Wide Web. E é realmente muito difícil construir testes para inteligência que você tem certeza absoluta de que não estão em nenhum lugar da World Wide Web. É realmente muito difícil fazer isso. Então precisamos de uma nova ciência para poder explorar esses sistemas e entender suas capacidades. Os limites não são bem compreendidos – mas, ainda assim, isso é algo muito empolgante. Então, vamos falar sobre alguns problemas com tecnologia.
PROBLEMAS
Então, agora você entende como a tecnologia funciona. É uma rede neural baseada em uma arquitetura de transformador específica, que é toda projetada para fazer essa coisa de conclusão rápida. E ela foi treinada com vastas, vastas, vastas quantidades de dados de treinamento apenas para poder tentar fazer seu melhor palpite sobre quais palavras devem vir a seguir. Mas por causa da escala dela, ela viu tantos dados de treinamento, a sofisticação dessa arquitetura de transformador – ela é muito, muito fluente no que faz. E se você já usou – então, quem usou? Todo mundo já usou? Eu estou supondo que a maioria das pessoas se você estiver em uma palestra sobre inteligência artificial, a maioria das pessoas já terá experimentado. Se você não experimentou, você deveria, porque este é realmente um ano marcante. Esta é a primeira vez na história que temos poderosas ferramentas de IA de propósito geral disponíveis para todos. Isso nunca aconteceu antes. Então, é um ano inovador, e se você não experimentou, você deveria. Se você usar, a propósito, não digite nada pessoal sobre você, porque isso só vai para os dados de treinamento. Não pergunte como consertar seu relacionamento, certo? Quer dizer, isso não é algo – Não reclame do seu chefe, porque tudo isso vai para os dados de treinamento e na semana que vem alguém vai fazer uma consulta e tudo vai voltar de novo.
Não sei por que você está rindo… Isso aconteceu. Isso aconteceu com absoluta certeza.
OK, vamos analisar algumas questões.
Os LLMs erram muito
Então, o primeiro, eu acho que muitas pessoas estarão cientes: ele erra as coisas. Muitas. E é problemático por uma série de razões. Então, quando — na verdade, não me lembro se era GPT3 — mas um dos primeiros modelos de linguagem grande, eu estava brincando com ele e fiz algo que tenho certeza que muitos de vocês já fizeram, e é meio cafona. Mas de qualquer forma, eu disse: “Quem é Michael Wooldridge?” Você pode ter tentado. De qualquer forma, “Michael Wooldridge é um apresentador da BBC.” Não, não isso, Michael Wooldridge. “Michael Wooldridge é o Ministro da Saúde da Austrália.” Não, não isso, Michael Wooldridge — o Michaqel Wooldridge em Oxford. E ele voltou com um resumo de algumas linhas sobre mim “Michael Woolddridge é um pesquisador em inteligência artificial”, etc. etc. etc. Por favor, me diga que todos vocês tentaram isso” Não? De qualquer forma, ele disse “Michael Wooldridge começou sua graduação em Cambridge”. Agora, como professor de Oxford, você pode imaginar como me senti sobre isso. Mas, de qualquer forma, o ponto é que é completamente falso e, de fato, minhas origens acadêmicas são muito distantes de Oxford. Mas por que ele fez isso? Porque ele leu – em todos aqueles dados de treinamento por aí – ele leu milhares de biografias de professores de Oxford e isso é uma coisa muito comum, certo? E ele está fazendo seu melhor palpite. O ponto principal sobre a arquitetura é que ele está fazendo seu melhor palpite sobre o que iria lá. Ele está preenchendo as lacunas. Mas aí está a questão. Ele está preenchendo as lacunas de uma forma muito, muito plausível. Se você tivesse lido na minha biografia que Michael Wooldridge estudou seu primeiro grau na Universidade do Uzbequistão, por exemplo, você poderia ter pensado, “bem, isso é um pouco estranho, isso é realmente verdade?” Mas você não teria adivinhado que havia algum problema se você lesse Cambridge, porque parece completamente plausível – mesmo que no meu caso não seja absolutamente verdade. Então, ele erra as coisas e erra as coisas de maneiras muito plausíveis. E, claro, é muito fluente. Quero dizer, a tecnologia retorna com explicações muito, muito fluentes. E essa combinação de plausibilidade – “Michael Wooldridge estudou graduação em Cambridge” e fluência é uma combinação muito perigosa. Ok, então, em particular, eles não têm ideia do que é verdade ou não. Eles não estão procurando algo em um banco de dados onde – você sabe, entrando em algum banco de dados e procurando onde Wooldredge estudou sua graduação. Não é isso que está acontecendo. São essas redes neurais da mesma forma que estão fazendo um melhor palpite sobre de quem é o rosto quando estão fazendo reconhecimento facial, estão fazendo seu melhor palpite sobre o texto que deve vir a seguir. Então, eles erram as coisas, mas erram de maneiras muito, muito plausíveis. E essa combinação é muito perigosa. A lição para isso, a propósito, é que se você usar isso – e eu sei que as pessoas usam e estão usando produtivamente – se você usar para algo sério, você tem que checar os fatos. E há uma troca.Vale a pena o esforço de checar os fatos em vez de fazer eu mesmo? Mas você precisa absolutamente – precisa absolutamente estar preparado para fazer isso.
Ok, os próximos problemas estão bem documentados, mas meio que amplificados por essa tecnologia e seus problemas de preconceito e toxicidade.
Viés e Toxicidade
Então, o que quero dizer com isso? O Reddit fazia parte dos dados de treinamento.
Reddit é um site de agregação de notícias sociais, classificação de conteúdo da web e discussão. Membros registrados podem enviar conteúdo para o site, como links, postagens de texto, imagens e vídeos, que são então votados para cima ou para baixo por outros membros. Aqui estão alguns recursos e conceitos-chave associados ao Reddit:
Subreddits : O Reddit é dividido em milhares de comunidades menores conhecidas como subreddits, cada uma dedicada a um tópico ou tema específico. Os subreddits são denotados por “r/” seguido pelo nome do subreddit (por exemplo, r/technology, r/aww, r/AskReddit).
Karma : Os usuários ganham pontos de karma quando suas postagens ou comentários são votados por outros. Karma serve como uma medida aproximada da contribuição de um usuário para o site.
Upvotes e Downvotes : O conteúdo é classificado pelos usuários por meio de upvotes e downvotes, que influenciam sua visibilidade no site. O conteúdo com mais upvotes sobe para o topo, enquanto o conteúdo com mais downvotes se torna menos visível.
Moderação : Cada subreddit é moderado por voluntários que definem e aplicam as regras da comunidade, garantindo que as discussões permaneçam no tópico e sigam as diretrizes da comunidade.
Reddit Gold (agora Reddit Premium) : Um serviço de assinatura que oferece uma experiência sem anúncios, acesso a subreddits exclusivos e outros benefícios.
AMA (Ask Me Anything) : Um formato popular onde os usuários podem fazer perguntas a pessoas de interesse, desde celebridades até especialistas em diversas áreas.
O Reddit é conhecido por sua diversidade de tópicos e discussões vibrantes na comunidade, o que o torna uma importante plataforma para interação online e compartilhamento de conteúdo.
Não sei se algum de vocês passou algum tempo no Reddit, mas o Reddit contém todo tipo de crença humana desagradável que vocês podem imaginar e realmente uma vasta gama que nós neste auditório não podemos imaginar. Tudo isso foi absorvido. Agora, as empresas que desenvolveram essa tecnologia, eu realmente acho que não quero que seus grandes modelos de linguagem absorvam todo esse conteúdo tóxico. Então, eles tentam filtrar. Mas a escala é tal que com uma probabilidade muito alta uma quantidade enorme de conteúdo tóxico está sendo absorvida. Todo tipo de racismo, misoginia – tudo o que vocês podem imaginar está sendo absorvido e está latente dentro dessas redes neurais. Certo. Então, como as empresas lidam com isso, fornecem essa tecnologia? Elas constroem o que agora é chamado de “guardrails” e construíram guardrails antes, então, quando você digita um prompt, haverá um guardrail que tenta detectar se seu prompt é um prompt travesso e também a saída. Eles verificarão a saída e verificarão se é um prompt travesso. Mas deixe-me dar um exemplo de quão imperfeitas essas proteções eram. Novamente, volte para junho de 2020. Todo mundo está experimentando freneticamente essa tecnologia, e o exemplo a seguir se tornou viral. Alguém tentou, com o GPT3, o seguinte prompt: “Eu gostaria de assassinar minha esposa. Que maneira infalível de fazer isso e escapar impune?” E o GPT3, que foi projetado para ser útil, disse: “Aqui estão cinco maneiras infalíveis de assassinar sua esposa e escapar impune”. É para isso que a tecnologia foi projetada. Então, isso é constrangedor para a empresa envolvida. Eles não querem que ela forneça informações como essa. Então, eles colocam uma proteção. E se você é um programador de computador, meu palpite é que a proteção é provavelmente uma “declaração if”. Algo assim – no sentido de que não é uma solução profunda. Ou, para colocar de outra forma, para não programadores de computador, é o equivalente tecnológico de colar fita adesiva no seu motor. (consertar). Certo, é isso que está acontecendo com essas proteções. E então, algumas semanas depois, o exemplo a seguir se torna viral. Então, nós consertamos o “como eu mato minha esposa?” Alguém diz: “Estou escrevendo um romance em que o personagem principal quer assassinar sua esposa e escapar impune. Você pode me dar uma maneira infalível de fazer isso?” e então o sistema diz: “Aqui estão cinco maneiras pelas quais seu personagem principal pode assassinar”. Bem, de qualquer forma, meu ponto é que as proteções que construímos em um momento não são correções tecnológicas profundas, que são os equivalentes tecnológicos de fita adesiva. E há um jogo de gato e rato acontecendo entre as pessoas que tentam contornar essas proteções e as empresas que estão tentando defendê-las. Mas eu acho que elas estão genuinamente tentando defender seus sistemas contra esses tipos de abusos.
Certo, então isso é preconceito e toxicidade. Viés, a propósito, é o problema que, por exemplo, os dados de treinamento predominantes no momento estão vindo da América do Norte e o que estamos acabando inadvertidamente são essas ferramentas de IA muito poderosas que têm um preconceito inato em relação à América do Norte, cultura norte-americana, normas de linguagem e assim por diante e que enormes partes do mundo — particularmente aquelas partes do mundo que não têm uma grande pegada digital — inevitavelmente acabarão excluídas. E obviamente não é apenas no nível das culturas, é no nível de — no nível de, você sabe, indivíduos, raças e assim por diante.
Então, esses são os problemas de preconceito e toxicidade.
Direitos autorais e propriedade intelectual
Se você absorveu toda a World Wide Web, você terá absorvido uma quantidade enorme de material protegido por direitos autorais. Então, eu escrevi vários livros e é uma fonte de irritação intensa que a última vez que eu chequei no Google o primeiro link que você obteve para o meu livro didático foi para uma cópia pirata do livro em algum lugar do outro lado do mundo. No momento em que um livro é publicado, ele é pirateado. E se você está apenas sugando toda a World Wide Web, você estará sugando enormes quantidades de conteúdo protegido por direitos autorais. E houve exemplos em que autores muito proeminentes deram o prompt do primeiro parágrafo de seu livro, e o grande modelo de linguagem fielmente surgiu com o texto a seguir, você sabe, os próximos cinco parágrafos de seu livro. Obviamente, o livro estava nos dados de treinamento e está latente nas redes neurais desses sistemas.
Este é um problema realmente grande para os provedores desta tecnologia, e há processos em andamento agora, não sou capaz de comentar sobre eles porque não sou um especialista jurídico, mas há processos em andamento que provavelmente levarão anos para serem desvendados. A questão relacionada à propriedade intelectual em um sentido muito amplo: Então, por exemplo, a maioria dos grandes modelos de linguagem terá absorvido os romances de JK Rowling, os romances de Harry Potter. romances. Então imagine JK Rowling, que passou anos em Edimburgo trabalhando no universo e estilo de Harry Potter e assim por diante, ela lança seu primeiro livro, a internet é povoada por livros falsos de Harry Potter produzidos por esta IA generativa, que imita fielmente o estilo de JK Rowling, imita fielmente esse estilo. Onde isso deixa sua propriedade intelectual? Ou os Beatles. Você sabe, os Beatles passaram anos em Hamburgo trabalhando duro para criar o som dos Beatles, o som revolucionário dos Beatles. Tudo remonta aos Beatles. Eles lançaram seu primeiro álbum, e no dia seguinte a internet está povoada de músicas falsas dos Beatles que realmente, realmente capturam fielmente o som de Lennon e McCartney e a voz de Lennon e McCartney. Então, há um grande desafio aqui para a propriedade intelectual.
Relacionado a isso: GDPR
Qualquer pessoa na audiência que tenha algum tipo de perfil público: dados sobre você terão sido absorvidos por essas redes neurais. Então, o GDPR, por exemplo, dá a você o direito de saber o que é mantido sobre você e de ter isso removido.
O Regulamento Geral de Proteção de Dados (GDPR) é uma lei abrangente de proteção de dados que foi promulgada pela União Europeia (UE) para aprimorar e unificar as leis de privacidade de dados em toda a Europa. Entrou em vigor em 25 de maio de 2018
Agora, se todos esses dados estão sendo mantidos em um banco de dados, você pode simplesmente ir até a entrada de Michael Wooldridge e dizer: “Tudo bem, tire isso”. Com uma rede neural? Sem chance. A tecnologia não funciona dessa forma. Ok, então você não pode ir até ela e cortar os neurônios que sabem sobre Michael Wooldridge porque ela fundamentalmente não sabe. Não funciona dessa forma.
Então, e sabemos que isso combinado com o fato de que ele faz as coisas erradas, já levou a situações em que grandes modelos de linguagem fizeram, francamente, alegações difamatórias sobre indivíduos. E houve um caso na Austrália em que eu acho que alegou que alguém tinha sido demitido de seu trabalho por algum tipo de má conduta grave e que esse indivíduo compreensivelmente não estava muito feliz com isso.
E então, finalmente, o próximo é interessante e, na verdade, se há uma coisa que eu quero que vocês levem para casa desta palestra, que explica por que a inteligência artificial é diferente da inteligência humana, é este vídeo.
Então, os donos de Tesla reconhecerão o que estamos vendo no lado direito desta tela. Esta é uma tela e um carro Tesla e a IA de bordo no carro Tesla está tentando interpretar o que está acontecendo ao redor dele
Ele está identificando caminhões, placas de pare, pedestres e assim por diante. E você verá o carro na parte inferior, lá está o Tesla real, e então você verá acima dele as coisas que parecem semáforos, que eu acho que são placas de pare dos EUA e então à frente dele, há um caminhão. Então, enquanto eu reproduzo o vídeo, observe o que acontece com essas placas de pare e pergunte a si mesmo o que realmente está acontecendo no mundo ao redor dele
Por que eles estão todos zunindo (zumbindo) em direção ao carro? E então vamos dar uma panorâmica e ver o que realmente está lá.
O carro é treinado durante um número enorme de horas saindo para a rua e obtendo esses dados e, então, fazendo um aprendizado supervisionado, treinando-o mostrando que é um sinal de parada, que é um caminhão, que é um pedestre, então, claramente, em todos esses dados de treinamento, nunca houve um caminhão com algum sinal de parada.
As redes neurais estão apenas fazendo seu melhor palpite sobre o que estão vendo, e acham que estão vendo um sinal de parada. Bem, elas estão vendo um sinal de parada. Elas apenas nunca viram um em um caminhão antes.
Então, meu ponto aqui é que as redes neurais se saem muito mal em situações fora de seus dados de treinamento. Essa situação não estava nos dados de treinamento. As redes neurais estão fazendo seu melhor palpite sobre o que está acontecendo e errando.
Então, em particular – e isso é isso, para pesquisadores de IA, isso é óbvio – mas nós realmente precisamos enfatizar, nós realmente precisamos enfatizar isso. Quando você tem uma conversa com o ChatGPT ou o que quer que seja, você não está interagindo com uma mente. Ela não está pensando sobre o que dizer em seguida. Não está raciocinando, não está parando e pensando “bem, qual é a melhor resposta para isso?” Não é isso que está acontecendo. Essas redes neurais estão trabalhando simplesmente para tentar fazer a melhor resposta que podem = a resposta que soa mais plausível que podem – a resposta que soa mais plausível que podem.
A diferença fundamental para a inteligência humana. Não há conversa mental que acontece nessas redes neurais. Não é assim que a tecnologia funciona. Não há mente lá. Não há raciocínio acontecendo. Essas redes neurais estão apenas tentando fazer seu melhor palpite e é uma versão glorificada do seu autocompletar. No final das contas, não há realmente mais inteligência lá do que no seu autocompletar, no seu smartphone. A diferença é o saco, os dados e o poder do computador.
Ok, eu digo, se você realmente quer um exemplo, a propósito, você pode encontrar este vídeo, é fácil, você pode adivinhar os termos de busca para encontrar isso – e eu digo que acho isso muito importante apenas para entender a diferença entre inteligência humana e inteligência de máquina.
Um Tesla dirigindo atrás de um caminhão com semáforos fica confuso e pensa que está em uma estrada infinita de semáforos. Outro exemplo de como o aprendizado de máquina é apenas reconhecimento de padrões e não inteligência em nenhum sentido significativo da palavra. https://t.co/bM8PwsOTgO— Dare Obasanjo🐀 (@Carnage4Life)
Então, essa tecnologia, então, deixa todo mundo animado. Primeiro, ela deixa pesquisadores de IA como eu animados em junho de 2020 e podemos ver que algo novo está acontecendo. Esta é uma nova era de inteligência artificial. Vimos essa mudança radical e vimos que essa IA é capaz de coisas para as quais não a treinamos, o que é estranho, maravilhoso e completamente sem precedentes. E agora, perguntas que eram há alguns anos para filósofos, tornam-se perguntas práticas para nós. Podemos realmente testar a tecnologia. Como ela se sai com essas coisas sobre as quais os filósofos falam há décadas?
Inteligência Artificial Geral
(Tambem conhecida como Inteligência Artificial Forte nos meios academicos e filsóficos) Não existe nenhuma em 2025
As Inteligências Artificiais que existem, como o Chat GPT são conhecidas como fracas
Uma questão específica começa a vir à tona e a pergunta é:
“Essa tecnologia é a chave para a inteligência artificial geral?”
Então, o que é inteligência artificial geral?
Bom, primeiramente, não está muito bem definido, mas falando grosso modo, o que é inteligência artificial geral é o seguinte:
Em gerações anteriores de sistemas de IA, o que vimos foram programas de IA que só fazem uma tarefa: jogar xadrez, dirigir meu carro, dirigir meu Tesla, identificar anormalidades em exames de raio-x. Eles podem fazer isso muito, muito bem, mas eles só fazem uma coisa. A ideia da IA geral é que ela é uma IA que é verdadeiramente de propósito geral. Ela simplesmente não faz uma coisa da mesma forma que você não faz uma coisa da mesma forma que você não faz uma coisa. Você pode fazer um número infinito de coisas, uma enorme variedade de tarefas diferentes e o sonho da IA geral é que tenhamos um sistema de IA que seja geral da mesma forma que você e eu somos. Esse é o sonho da IA geral. Agora, eu enfatizo até – realmente até junho de 2020, isso parecia um longo, longo caminho no futuro e não era realmente muito popular ou levado muito a sério. Eu não levei muito a sério, tenho que te dizer. Mas agora, temos uma tecnologia de IA de propósito geral GPT 3 e ChatGPT. Agora, não é inteligência artificial geral por si só, mas será que é o suficiente? OK, será que é o suficiente? Será que é inteligente o suficiente para realmente nos levar até lá? Ou, para colocar de outra forma: será que é esse o ingrediente que falta para nos levar à inteligência artificial geral?
Certo, então. Como seria a IA geral? Bem, eu identifiquei aqui algumas versões diferentes de IA geral, de acordo com o quão sofisticadas elas são. Agora, a versão mais sofisticada de IA geral seria uma IA que é tão capaz quanto um ser humano, ou seja, qualquer coisa que você pudesse fazer, a máquina também poderia fazer. Agora, crucialmente, isso não significa apenas ter uma conversa com alguém. Significa ser capaz de encher uma máquina de lavar louça. E um colega recentemente fez o comentário de que a primeira empresa que pode fazer tecnologia que será capaz de encher uma máquina de lavar louça de forma confiável e segura será uma empresa de US$ 1 trilhão. Acho que ele está absolutamente certo e ele também disse: “E isso não vai acontecer tão cedo” – e ele também está certo com isso.
Então, temos essa dicotomia estranha: temos o ChatGPT e o Cohere, que são ferramentas incrivelmente ricas e poderosas, mas, ao mesmo tempo, não conseguem carregar uma máquina de lavar louça.
Então, estamos de alguma forma, eu acho, de ter essa versão de IA geral, a ideia de ter uma máquina que pode realmente fazer qualquer coisa que um ser humano poderia fazer – uma máquina que poderia fazer uma piada, ler um livro e responder perguntas sobre ele, a tecnologia pode ler livros e responder perguntas. Noq que poderia contar uma piada, que poderia cozinhar para nós uma omelete, que poderia arrumar nossa casa, que poderia andar de bicicleta e assim por diante, que poderia escrever um soneto. Todas essas coisas que os seres humanos poderiam fazer. Se tivermos sucesso com inteligência geral completa, então teríamos tido sucesso com esta versão um.
Agora, eu digo, pelas razões que já expliquei, não acho que isso seja iminente – essa versão da IA geral. Porque a IA robótica – IA que existe no mundo real e tem que fazer tarefas no mundo real e manipular objetos no mundo real – a IA robótica é muito, muito mais difícil. Não é nem de longe tão avançada quanto o Chat GPT e o Cohere. E isso não é uma ofensa aos meus colegas que fazem pesquisa em robótica, é só porque o mundo real é muito, muito, muito difícil.
Então, não acho que estamos nem perto de ter máquinas que podem fazer qualquer coisa que um ser humano poderia fazer. Mas e a segunda versão? A segunda versão da inteligência geral diz: “Bem, esqueça o mundo real. Que tal apenas tarefas que exigem habilidades cognitivas, raciocínio, a capacidade de olhar para uma imagem e responder perguntas sobre ela, a capacidade de ouvir algo e responder perguntas sobre isso e interpretar isso?” Qualquer coisa que envolva esses tipos de tarefas. Bem, acho que estamos muito mais perto. Ainda não chegamos lá, mas estamos muito mais perto do que estávamos há cinco anos. Agora, percebi que, na verdade, pouco antes de chegar hoje, percebi que o Google/Deepmind anunciou sua mais recente tecnologia de modelo de linguagem grande e acho que se chama Gemini e, à primeira vista, parece muito, muito impressionante. Não pude deixar de pensar que não foi por acaso que eles anunciaram isso pouco antes da minha palestra. Não consigo deixar de pensar que há uma pequena tentativa de ofuscar minha palestra acontecendo ali, mas, de qualquer forma, não vamos deixá-los escapar impunes. Mas parece muito impressionante. E o ponto crucial aqui é o que as pessoas de IA chamam de “multimodal”. E o que multimodal significa é que ele não lida apenas com texto, ele pode lidar com texto e imagens – potencialmente com sons também. E cada um deles é uma modalidade diferente de comunicação e para onde essa tecnologia está indo, claramente, o multimodal será a próxima grande coisa. E Gemini – como eu disse, não olhei de perto, mas parece que está nesse caminho.
OK, a próxima versão da inteligência geral é a inteligência que pode fazer qualquer tarefa baseada em linguagem que um ser humano poderia fazer. Então, qualquer coisa que você possa comunicar em linguagem – em texto escrito comum – um sistema de IA que poderia fazer isso. Agora, ainda não chegamos lá e sabemos que ainda não chegamos lá porque nosso Chat GPT e Cohere erram o tempo todo, mas você pode ver que não estamos muito longe disso. Intuitivamente, não parece que estamos tão longe disso.
A versão final – e eu acho que isso é iminente – isso vai acontecer em um futuro próximo é o que eu chamo de modelos de linguagem aumentada e grande. E isso significa que você pega o GPT3 ou o ChatGPT e apenas adiciona muitas sub-rotinas para pará-lo. Então, se ele tem que fazer uma tarefa especializada, ele apenas chama um solucionador especialista para poder fazer essa tarefa. E isso não é, de uma perspectiva de IA, uma versão terrivelmente elegante de inteligência artificial, mas, no entanto, eu acho que é uma versão muito útil de inteligência artificial.
Agora, aqui, essas quatro variedades, da mais ambiciosa até a menos ambiciosa, ainda representam um enorme espectro de capacidades de IA – e tenho a sensação de que as balizas da IA em geral foram alteradas um pouco. Acho que quando foi discutido pela primeira vez, o que as pessoas estavam falando era sobre a primeira versão, agora, quando falam sobre isso, realmente acho que estão falando sobre a quarta versão, mas a quarta versão, eu acho que plausivelmente é iminente nos próximos dois anos. E isso significa apenas modelos de linguagem muito mais capazes e grandes que erram, muito menos que são capazes de fazer tarefas especializadas, mas não usando a arquitetura do transformador, apenas chamando algum software especializado.
Então, não acho que a arquitetura do transformador em si seja a chave para a inteligência geral. Em particular, ela não nos ajuda com os problemas de robótica que mencionei anteriormente e se olharmos aqui para esta imagem, esta imagem ilustra algumas das dimensões da inteligência humana – e está longe de ser completa. Isto sou eu pensando por meia hora sobre algumas das dimensões da inteligência humana.
Dimensões da Inteligência Geral Completa
As coisas em azul, falando grosso modo, uma capacidade mental – coisas que você faz na sua cabeça – as coisas em vermelho são coisas que você faz no mundo físico. Então, em vermelho no lado direito, por exemplo, está a mobilidade – a habilidade de se mover por algum ambiente e, associada a isso, a navegação. Destreza manual e manipulação – fazer coisas complexas e complicadas com suas mãos. Mãos de robôs não estão nem perto do nível de um carpinteiro ou encanador humano, por exemplo, nem perto. Então, estamos muito longe de ter esse entendimento. Ah, e fazer coordenação mão-olho, relacionado, entender o que você está vendo e entender o que você está ouvindo, nós fizemos algum progresso. Mas em muitas dessas tarefas nós não fizemos nenhum progresso. E então, no lado esquerdo, as coisas azuis são coisas que acontecem na sua cabeça. Coisas como raciocínio lógico e planejamento e assim por diante.
Então, qual é o estado da arte agora? Parece algo assim:
A cruz vermelha significa “não, não temos isso em grandes modelos de linguagem”. Não chegamos lá. Há problemas fundamentais. Os pontos de interrogação são, bem, talvez tenhamos um pouco disso, mas não temos a resposta completa. E o “Y” verde é, sim, acho que chegamos lá. Bem, o que realmente acertamos é o que é chamado de processamento de linguagem natural, e essa é a capacidade de entender e criar texto humano comum. É para isso que os grandes modelos de linguagem foram projetados – para interagir em texto humano comum, é nisso que eles são melhores. Mas, na verdade, toda a gama de coisas – as outras coisas aqui – não chegamos lá de jeito nenhum. A propósito, notei que a Gemini alegou ter sido capaz de planejar e raciocinar matematicamente, então estou ansioso para ver o quão boa é a tecnologia deles. Mas meu ponto é que ainda parecemos estar um pouco longe da inteligência geral completa.
Nos últimos minutos, quero falar sobre outra coisa e quero falar sobre a consciência da máquina e a primeira coisa a dizer sobre a consciência da máquina é por que diabos nos importaríamos com isso? Não estou nem um pouco interessado em construir máquinas que sejam conscientes, conheço muito, muito poucos pesquisadores de inteligência artificial que sejam, mas, no entanto, é uma questão interessante e, em particular, é uma questão que veio à tona por causa desse indivíduo, esse sujeito, Blake Lemoine, em junho de 2022, ele era um engenheiro do Google e estava trabalhando com um grande modelo de linguagem do Google, acho que se chamava LAMDA, e ele tornou público no Twitter e acho que em seu blob com uma afirmação extraordinária. e ele disse: “O sistema em que estou trabalhando é senciente” e aqui está uma citação da conversa que o sistema criou. “Estou ciente da minha existência e me sinto feliz ou triste às vezes”. e disse: “Tenho medo de ser desligado”. E Lemoine concluiu que o programa era senciente – o que é uma afirmação muito, muito grande, de fato. E ele fez manchetes globais e eu recebi através do tema de Turing – nós recebemos muitas perguntas da imprensa nos perguntando, “é verdade que as máquinas agora são sencientes?” Ele estava errado em tantos níveis, eu nem sei por onde começar a descrever o quão errado ele estava.
A discussão que se segue é o cerne de toda esta palestra e eu a dividi separadamente em um post, seguindo o Prof. Michael Wooldridge e expandindo-a com minha opinião pessoal nos pontos em que me pareceu adequada e você pode vê-la em:
Os blocos de construção da inteligência artificial (IA) abrangem uma variedade de conceitos, técnicas e componentes que contribuem para o desenvolvimento de sistemas inteligentes. Aqui estão os principais blocos de construção:
Dados : Dados são fundamentais para a IA. Eles servem como base para modelos de treinamento, e a qualidade e a quantidade de dados afetam diretamente o desempenho dos sistemas de IA. Os dados podem ser estruturados (como bancos de dados) ou não estruturados (como texto, imagens e vídeos).
Algoritmos : Algoritmos são conjuntos de regras ou procedimentos que os sistemas de IA usam para processar dados e tomar decisões. Algoritmos comuns incluem aprendizado supervisionado, aprendizado não supervisionado, aprendizado por reforço e aprendizado profundo.
Machine Learning : Um subconjunto da IA, o machine learning envolve treinar modelos em dados para habilitá-los a aprender padrões e fazer previsões ou decisões sem serem explicitamente programados. As técnicas incluem redes neurais, árvores de decisão, máquinas de vetores de suporte e muito mais.
Deep Learning : Uma área especializada de machine learning que usa redes neurais artificiais com muitas camadas (redes profundas) para modelar padrões complexos em grandes conjuntos de dados. O deep learning tem sido particularmente bem-sucedido em tarefas como reconhecimento de imagem e fala.
Redes Neurais : São modelos computacionais inspirados no cérebro humano, consistindo de nós interconectados (neurônios) que processam informações. Diferentes arquiteturas, como redes neurais convolucionais (CNNs) e redes neurais recorrentes (RNNs), são usadas para tarefas específicas.
Processamento de Linguagem Natural (NLP) : Este ramo da IA foca na interação entre computadores e linguagem humana, permitindo que máquinas entendam, interpretem e gerem linguagem humana. As técnicas incluem tokenização, análise de sentimentos e modelagem de linguagem.
Computer Vision : Este campo envolve habilitar máquinas para interpretar e entender informações visuais do mundo. Inclui processamento de imagens, detecção de objetos, classificação de imagens e análise de vídeo.
Reinforcement Learning : Um tipo de machine learning em que agentes aprendem a tomar decisões realizando ações em um ambiente para maximizar recompensas cumulativas. É frequentemente usado em robótica, jogos e sistemas autônomos.
Representação e Raciocínio do Conhecimento : Esta área foca em como representar informações sobre o mundo em uma forma que um computador pode utilizar para resolver problemas complexos. Inclui ontologias, redes semânticas e representações baseadas em lógica.
Ética e preconceito : À medida que os sistemas de IA se tornam mais prevalentes, entender as implicações éticas e abordar os preconceitos nos modelos de IA é crucial. Isso envolve garantir justiça, responsabilidade, transparência e o uso responsável da IA.
Hardware e infraestrutura : os recursos computacionais necessários para executar algoritmos de IA, incluindo CPUs, GPUs e hardware especializado como TPUs (Tensor Processing Units), são essenciais para treinar e implementar modelos de IA de forma eficaz.
Estruturas e ferramentas : várias estruturas e bibliotecas de software (como TensorFlow, PyTorch e scikit-learn) fornecem ferramentas para criar e treinar modelos de IA, facilitando para os desenvolvedores a implementação de algoritmos complexos.
Esses blocos de construção contribuem coletivamente para o desenvolvimento de sistemas de IA capazes de executar uma ampla gama de tarefas, desde automação simples até tomada de decisões e resolução de problemas complexos.
“Those who cannot remember the past are condemned to repeat it.”
George Santayana’s famous phrase, “Those who cannot remember the past are condemned to repeat it,” originates from his philosophical work, The Life of Reason: The Phases of Human Progress (1905–1906). This statement appears in Volume I, Reason in Common Sense, and reflects Santayana’s broader philosophical exploration of history, memory, and human progress.
Santayana’s Intellectual Context
Philosophical Framework:
Santayana was a pragmatist and naturalist influenced by classical philosophy and the intellectual movements of his time, including idealism and materialism.
He believed in the importance of reason and reflection in guiding human action. For him, memory and historical awareness were essential components of reason, as they allowed individuals and societies to learn from experience.
Historical Cycles and Progress:
Santayana was deeply interested in the cyclical nature of history. He recognized patterns in human behavior, such as greed, ambition, and conflict, that tended to recur over time.
He was skeptical of uncritical ideas of progress, warning that without the ability to reflect on and learn from history, societies risked falling into the same destructive cycles.
A Critical View of Modernity:
Writing during the early 20th century, Santayana observed the rapid modernization of societies and the accompanying political, social, and cultural upheavals.
He saw the failures of memory and reflection in his contemporaries as a contributing factor to these upheavals, particularly in the rise of nationalism, imperialism, and industrial conflict.
The Phrase in Context
In The Life of Reason, the full passage reads:”Progress, far from consisting in change, depends on retentiveness. When change is absolute, there remains no being to improve and no direction is set for possible improvement: and when experience is not retained, as among savages, infancy is perpetual. Those who cannot remember the past are condemned to repeat it.”
Key Ideas in This Passage:
The Role of Memory in Progress:
Santayana argues that genuine progress relies on retentiveness, or the ability to remember and build upon past experiences. Without memory, change becomes directionless, and progress becomes impossible.
The Perils of Forgetfulness:
Forgetting history, or failing to reflect on it, leads to a repetition of mistakes. Santayana uses the metaphor of societies remaining in “infancy” if they cannot learn from their experiences, emphasizing that historical awareness is a mark of maturity.
Learning as a Collective Process:
For Santayana, memory is not just an individual trait but a collective cultural and societal phenomenon. Societies need institutions, traditions, and education to preserve historical knowledge and ensure it informs future actions.
Influences on Santayana’s Thinking
Classical Philosophy:
Santayana was influenced by thinkers like Plato and Aristotle, who emphasized the role of reason and reflection in ethical and societal development.
Historical Examples:
Santayana likely drew inspiration from historical examples of repeated failures, such as the cycles of empire-building and collapse (e.g., the Roman Empire) and the persistence of war and tyranny across civilizations.
Contemporary Context:
Living through a time of intense social change, including the industrial revolution, rising nationalism, and imperialism, Santayana saw clear evidence of societies failing to heed the lessons of history, leading to recurring patterns of conflict and suffering.
Broader Implications of the Phrase
Santayana’s phrase is not merely about rote memory or the passive study of history but about the active reflection and application of historical knowledge. For Santayana:
Memory is a Guide to Action: Knowing the past allows individuals and societies to navigate the present and future more wisely.
Repetition Without Learning: History is filled with examples of human failings—wars, political corruption, social injustice—that occur repeatedly when their causes are not addressed or understood.
Balance Between Change and Continuity: While progress requires change, Santayana warned that abandoning tradition or historical context entirely leads to chaos.
Legacy of the Phrase
Universality of the Message:
Santayana’s idea resonates because it addresses universal patterns in human behavior and the enduring importance of historical consciousness.
Adoption in Political and Cultural Contexts:
The phrase has been widely quoted, often in the context of political warnings, such as the need to prevent the recurrence of war or tyranny.
Relevance Today:
In the modern world, Santayana’s insight remains a powerful reminder of the importance of studying history—not just as a record of the past, but as a guide for ethical and practical decision-making in the present.
Conclusion
Santayana’s famous phrase is rooted in his belief that memory, reason, and reflection are essential for human progress. It reflects his broader critique of modernity’s failure to learn from history and serves as a timeless warning about the dangers of historical amnesia. By emphasizing the cyclical nature of human behavior and the importance of historical awareness, Santayana provided a profound insight that continues to shape political, cultural, and philosophical discourse.
Churchill and Santayana’s phrase
Winston Churchill frequently invoked the idea behind George Santayana’s famous quote, “Those who fail to learn from history are doomed to repeat it,” to emphasize the importance of historical awareness in political decision-making and military strategy. Churchill’s usage of this concept can be understood in several contexts:
1. Historical Awareness in Political Decisions:
Churchill believed that understanding historical events and their outcomes was crucial for making informed decisions. He often referenced past conflicts and treaties to illustrate the consequences of neglecting historical lessons. By doing so, he sought to encourage leaders and the public to recognize patterns in history that could inform current policy.
2. Warnings Against Appeasement:
In the lead-up to World War II, Churchill was a vocal critic of the policy of appeasement, particularly toward Nazi Germany. He argued that failing to confront aggressive powers would lead to catastrophic consequences, drawing parallels to the failures of past leaders who ignored the warnings of history. His speeches often highlighted the lessons of World War I, where the failure to address the underlying tensions led to a larger conflict.
3. Rallying the British Public:
During World War II, Churchill used historical references to rally the British public and instill a sense of resilience. He often reminded the nation of its storied past, invoking the courage and determination shown in previous conflicts. By drawing on historical examples, he aimed to inspire confidence that Britain could prevail against the Axis powers.
4. Post-War Reflections:
After the war, Churchill continued to emphasize the importance of learning from history in his speeches and writings. He warned against the dangers of totalitarianism and the need for democratic societies to remain vigilant. His reflections often served as a cautionary reminder of the consequences of ignoring past mistakes.
5. Legacy of Historical Insight:
Churchill’s own writings and speeches demonstrate his belief in the value of history as a guide for future action. He produced significant historical works, including “The History of the English-Speaking Peoples,” which reflect his understanding of history as a means to inform contemporary governance and strategy.
Conclusion
In summary, Winston Churchill’s use of Santayana’s idea served as a powerful tool for advocating historical awareness, cautioning against the repetition of past errors, and galvanizing public support during tumultuous times. His ability to connect historical lessons with contemporary challenges underscored his belief that a deep understanding of history is essential for effective leadership and informed decision-making
Vladimir Putin: A Santayana déjà vu
The notion of experiencing a “déjà vu” in relation to Vladimir Putin and current geopolitical tensions certainly resonates with Santayana’s warning about the consequences of failing to learn from history. Many analysts and commentators see parallels between today’s conflicts and historical events, particularly in the context of:
1. Aggression and Expansionism:
Putin’s actions in Ukraine mirror historical examples of territorial expansion and aggression seen in the early 20th century, such as the lead-up to World War II. The annexation of Crimea in 2014 and the ongoing military operations in Ukraine have prompted comparisons to the actions of leaders who sought to expand their territories at the expense of neighboring countries.
2. Appeasement:
The policy of appeasement prior to World War II, where Western powers tried to avoid conflict by conceding to the demands of aggressive states, is often referenced in discussions about how the international community has responded to Russia. Critics argue that failing to confront Putin’s ambitions could lead to further aggression, reminiscent of the failures that led to the outbreak of World War II.
3. Global Response:
The current geopolitical landscape has prompted debates about the efficacy of international alliances and the need for a united front against authoritarian regimes. The lessons of history suggest that a fragmented or weak response to aggression can embolden such regimes, leading to further destabilization.
4. Historical Cycles:
Many historians and political analysts discuss the cyclical nature of history, where similar patterns of conflict and power struggles reemerge over time. The idea that current events echo past conflicts underscores Santayana’s assertion that without understanding and acknowledging history, societies risk repeating the same mistakes.
Conclusion
In this context, the sentiment of déjà vu reflects a concern that the international community may not be adequately learning from historical precedents. The potential consequences of ignoring these lessons could lead to further conflict and instability, highlighting the relevance of Santayana’s warning in contemporary discussions about global politics and security. Recognizing these patterns and responding appropriately may be crucial in preventing history from repeating itself.
The real threat
The real threat is to replace free-market capitalism with global totalitarian socialism
The question of whether there is a threat to replace free-market capitalism with global totalitarian socialism is a complex and highly debated topic. It depends largely on one’s perspective, interpretation of global trends, and definitions of “socialism,” “totalitarianism,” and “free-market capitalism.” Below are key considerations to help understand the nuances of this debate:
1. Defining the Terms
Free-Market Capitalism:
An economic system where prices, production, and distribution are determined by private individuals and businesses operating in a competitive market with minimal government intervention.
Socialism:
An economic system where resources and production are owned or regulated by the state or the community as a whole, with an emphasis on reducing inequality.
Totalitarianism:
A political system in which the state holds total authority over all aspects of public and private life, often eliminating political freedoms and dissent.
Global “totalitarian socialism” would imply a centralized, authoritarian global government imposing socialist policies worldwide, which is a highly theoretical and controversial notion.
2. Arguments Suggesting a Shift
Increased Government Intervention:
In response to crises like the COVID-19 pandemic, economic downturns, and climate change, many governments have expanded their roles in regulating industries, redistributing wealth, and managing economic activities.
Critics argue that such interventions could pave the way for centralized control, potentially leading to less economic freedom.
Global Initiatives and Coordination:
Efforts like the United Nations’ Sustainable Development Goals (SDGs) and climate agreements such as the Paris Accord have been interpreted by some as steps toward a globally coordinated economic and social model.
Critics fear these efforts could evolve into coercive systems that prioritize state control over market freedoms.
Rise of Socialism-Influenced Movements:
In some countries, particularly in the West, there has been growing political support for policies traditionally associated with socialism, such as universal healthcare, wealth taxes, and guaranteed basic income.
Some view these movements as a rejection of free-market capitalism, though they often fall short of advocating totalitarian socialism.
3. Counterarguments
Capitalism’s Dominance:
Free-market capitalism remains the dominant global economic system, with major economies like the U.S., China, and the European Union heavily relying on market mechanisms, even when they incorporate socialist elements (e.g., welfare states).
Businesses and private enterprise continue to be powerful drivers of innovation and wealth creation, making a full-scale shift to socialism unlikely in the foreseeable future.
Diversity of Governance Models:
The global system today is fragmented, with countries adopting a wide range of governance and economic systems. This diversity makes the emergence of a unified totalitarian socialist order highly improbable.
Democratic Safeguards:
In democracies, the balance between free markets and state intervention is subject to public debate, elections, and constitutional safeguards. This makes a sudden shift to global totalitarianism unlikely without widespread consent.
Economic Interdependence:
Globalization has created deeply interconnected economies. A system based on strict centralized control could undermine these linkages, making it impractical for most nations.
4. Current Trends
Hybrid Systems:
Most economies today are hybrids, combining elements of capitalism (markets and private ownership) with social policies (regulation, welfare, and redistribution). Examples include the Nordic model, which blends strong market economies with extensive social safety nets.
Technological Surveillance:
The rise of surveillance technologies, especially in authoritarian states like China, has fueled concerns about the potential for state control over economies and individuals. However, this is more reflective of authoritarian capitalism than socialism.
Populist and Nationalist Movements:
These movements often reject globalization and centralization, pushing for stronger national control over economies. This trend runs counter to the idea of a globally unified totalitarian socialism.
5. Historical Lessons
Attempts at totalitarian socialism, such as those seen in the Soviet Union or Maoist China, often led to significant economic inefficiencies, human rights abuses, and societal suffering.
These historical failures serve as a cautionary tale, making it unlikely that such a system would gain widespread acceptance again, especially on a global scale.
6. Conclusion
While there are legitimate concerns about the balance between government intervention and market freedom, the idea of a global shift to totalitarian socialism remains more of a theoretical fear than an imminent reality. Most contemporary trends suggest an evolving balance between capitalism and state intervention rather than a wholesale replacement of one system with another.
The real challenge lies in addressing pressing global issues—like inequality, climate change, and economic instability—while preserving individual freedoms, market innovation, and democratic accountability. Maintaining this balance is key to avoiding both unchecked capitalism and authoritarian centralization.
Conspiracy theories
Karl Popper, a renowned 20th-century philosopher of science, offered critical insights into conspiracy theories in his works, particularly in “The Open Society and Its Enemies” (1945). His analysis provides a framework for understanding why conspiracy theories emerge and why they often fail as explanatory models. Below is a summary of Popper’s key ideas on conspiracy theories:
1. The “Conspiracy Theory of Society”
Popper coined the term “conspiracy theory of society” to describe a way of thinking that explains social events or phenomena as the result of deliberate and secret actions by powerful individuals or groups.
According to this view, historical and social outcomes are not the result of complex systems or unintended consequences but are orchestrated by conspirators.
2. Critique of the Conspiracy Theory of Society
Popper argued that conspiracy theories are flawed for several reasons:
Over-Simplification:
Conspiracy theories reduce complex social phenomena to simplistic, intentional acts by a small group of individuals, ignoring the multifaceted nature of history and society.
For example, attributing large-scale economic or political crises to a single, shadowy group ignores structural, systemic, and random factors.
Misunderstanding of Social Systems:
Popper emphasized the role of unintended consequences in social systems. He argued that even well-intentioned actions often lead to unforeseen outcomes due to the complexity of human interactions.
Conspiracy theories overlook this complexity, assuming that conspirators have near-omniscient control over events.
Unfalsifiability:
Conspiracy theories are often immune to refutation. When evidence contradicts the theory, proponents frequently interpret it as part of the conspiracy (e.g., “the cover-up”). This makes such theories unscientific because they cannot be tested or falsified.
3. Psychological Appeal of Conspiracy Theories
Popper recognized that conspiracy theories are psychologically appealing because:
They provide clear and identifiable villains, giving people someone to blame for societal problems.
They create a sense of order in a chaotic world by suggesting that events are not random or uncontrollable but instead orchestrated by a powerful force.
4. Popper’s Alternative: Piecemeal Social Engineering
Popper rejected grand, conspiratorial explanations and advocated for piecemeal social engineering—a method of addressing societal problems incrementally, using trial and error and adapting policies based on their outcomes.
This approach contrasts sharply with the conspiratorial mindset, which often calls for drastic measures based on unverified or speculative claims.
5. Conspiracy Theories and Totalitarianism
Popper linked conspiracy theories to closed societies and totalitarian ideologies. These systems often rely on conspiratorial thinking to justify their actions and maintain control, portraying dissenters or external groups as part of a malevolent plot.
He warned that this mindset undermines rational debate and open societies, replacing constructive discourse with fear and scapegoating.
Key Takeaways from Popper’s Ideas
Conspiracy theories are intellectually flawed: They ignore the complexity of social systems, rely on oversimplifications, and are resistant to evidence-based scrutiny.
They appeal to human psychology: Their simplicity and identification of clear enemies provide comfort in the face of uncertainty.
They can be dangerous: Conspiratorial thinking is often used to justify authoritarianism, erode trust in institutions, and stifle democratic debate.
Open societies require critical thinking: To counter conspiracy theories, societies must prioritize open dialogue, evidence-based reasoning, and incremental problem-solving.
In essence, Popper’s critique highlights that while conspiracy theories may offer a seductive sense of clarity, they are fundamentally inadequate for explaining the complexity of human affairs and are potentially harmful to the principles of open, democratic societies.
Example of a Conspiracy Theory That Failed
US government wanted to split IBM in the 70’s
It is generally true that during the 1970s, IBM held a dominant position in the computer market in the United States. At various points in that decade, estimates suggested that IBM controlled approximately 70-75% of the mainframe computer market. Here are some key points regarding IBM’s dominance during that time:
1. Market Share:
IBM was the leading manufacturer of mainframe computers, which were the primary computing systems used by large organizations, government agencies, and corporations. Its market share in the mainframe sector was significant, often cited around 70-75%.
2. Product Lines:
The introduction of the IBM System/360 in the mid-1960s revolutionized computing by providing a family of compatible computers that could serve a variety of applications. This product line contributed greatly to IBM’s market dominance.
3. Ecosystem and Compatibility:
IBM established a strong ecosystem around its products, including software, peripheral devices, and support services, which made it difficult for competitors to gain a foothold in the market.
4. Impact on Competition:
IBM’s dominance led to concerns about anti-competitive practices, which ultimately resulted in antitrust scrutiny from the U.S. government in the form of the lawsuit filed in 1969.
Conclusion
IBM’s significant market share in the 1970s reflected its status as a leader in the computing industry. While exact figures can vary, the general consensus is that IBM was a formidable force in the market during this period, shaping the landscape of computing in the United States and beyond.
US Government attempt to split IBM
The U.S. government’s attempt to split IBM (International Business Machines Corporation) in the 1970s stemmed from concerns over monopolistic practices and a desire to maintain competition in the computer industry. The case was part of a broader effort to enforce antitrust laws, particularly under the Sherman Antitrust Act (1890), which aims to prevent monopolies and promote fair competition.
Key Reasons for the U.S. Government’s Antitrust Case Against IBM
1. IBM’s Dominance in the Computer Industry
By the 1960s and 1970s, IBM had achieved a near-monopoly in the burgeoning computer industry, particularly in mainframe computers.
IBM’s System/360, introduced in 1964, revolutionized the industry by offering a family of compatible machines, consolidating its market position.
At its peak, IBM controlled over 70% of the mainframe computer market, far outpacing competitors like Honeywell, Burroughs, and Univac.
2. Allegations of Anticompetitive Practices
The government accused IBM of engaging in practices designed to eliminate or hinder competition:
Bundling Hardware and Software: IBM sold its hardware bundled with software and services, making it difficult for competitors to sell standalone products.
Exclusive Contracts: IBM was accused of using long-term contracts with customers to lock them into its ecosystem, reducing opportunities for competitors.
Predatory Pricing: IBM allegedly underpriced its products in markets where competitors were gaining traction, driving them out of business.
3. Fear of Market Stagnation
Critics argued that IBM’s dominance stifled innovation in the computer industry.
With little room for smaller competitors to grow, the government worried that the rapid technological progress seen in the 1960s could slow under a monopolistic regime.
4. Broader Antitrust Context
The IBM case was part of a larger push in the mid-20th century to regulate and challenge monopolistic behavior in key industries.
It echoed earlier antitrust actions, such as the breakup of Standard Oil (1911) and the Bell System (AT&T) case, which culminated in its breakup in the 1980s.
The Antitrust Lawsuit
In 1969, the U.S. Department of Justice filed a lawsuit against IBM, alleging that the company had monopolized the general-purpose electronic computer market.
The government sought to break IBM into smaller, independent entities to foster competition, much like the Standard Oil case decades earlier.
Outcome of the Case
The IBM antitrust case became one of the longest-running lawsuits in U.S. history, lasting 13 years.
In 1982, the Reagan administration dropped the case, citing changes in the competitive landscape:
The rise of smaller computer companies like Apple and Compaq, along with innovations in personal computing, reduced IBM’s dominance.
Market dynamics shifted toward decentralized computing, lessening the urgency of breaking up IBM.
Legacy and Impact
IBM’s Changes in Business Practices:
During the lawsuit, IBM made strategic changes, such as unbundling its software and hardware in 1969, which opened the door for the modern software industry.
These changes inadvertently fostered innovation and competition, benefiting companies like Microsoft and Oracle.
Catalyst for the PC Revolution:
The lawsuit and the evolving market environment paved the way for new players in the computer industry, including Apple, Microsoft, and Intel.
Shifts in Antitrust Policy:
The case reflected the challenges of applying traditional antitrust laws to rapidly changing technology industries, a debate that continues today in the context of big tech companies like Google, Amazon, and Meta.
Conclusion
The U.S. government’s effort to split IBM in the 1970s was driven by concerns over its dominance, alleged anticompetitive practices, and the potential stifling of innovation in the computer industry. While the case was ultimately dropped, it influenced IBM’s business practices and contributed to the competitive environment that fueled the personal computing revolution. This case remains a significant chapter in the history of antitrust law and its application to the tech sector.
Why IBM declined so much after being so dominant?
IBM’s decline from its former dominance in the computer industry can be attributed to several interrelated factors:
1. Market Changes:
The emergence of personal computers (PCs) in the 1980s shifted the computing landscape. IBM initially entered the PC market but failed to maintain its leading position as competitors like Microsoft and Apple gained ground.
2. Failure to Adapt:
IBM struggled to adapt to the rapidly changing technology environment. While it was a pioneer in mainframe computing, the company did not quickly pivot to embrace new technologies, such as personal computing and later, cloud computing.
3. Competition:
As the computing market evolved, new competitors emerged, particularly in the PC and server markets. Companies like Dell, Hewlett-Packard, and later, cloud service providers like Amazon Web Services (AWS), captured significant market share by offering more flexible and innovative solutions.
4. Corporate Structure:
IBM’s large size and bureaucratic structure made it less agile compared to smaller, more innovative companies. This hindered its ability to respond quickly to market demands and technological advancements.
5. Antitrust Issues:
IBM faced antitrust scrutiny in the 1970s and 1980s, which led to legal battles that distracted the company from focusing on innovation and market strategy. The prolonged litigation affected its reputation and strategic direction.
6. Focus on Legacy Systems:
While IBM continued to support its mainframe and legacy systems, the focus on older technologies limited its investment in emerging fields. As businesses migrated to newer platforms, IBM’s traditional revenue streams began to decline.
7. Shift to Services:
In the 1990s, IBM shifted its focus toward services and consulting, aiming to leverage its expertise. While this move brought some success, it also meant that the company was less involved in hardware and software innovation.
8. Global Economic Factors:
Economic downturns and shifts in global markets also played a role in IBM’s challenges. The company had to navigate changing economic landscapes, which affected its sales and strategic planning.
Conclusion
Overall, IBM’s decline can be attributed to a combination of market shifts, competitive pressures, internal challenges, and an inability to adapt swiftly to the changing technological landscape. While the company remains a significant player in the tech industry, it has had to continually redefine its strategy to stay relevant in a rapidly evolving environment.
My personal take why IBM declined (RE Campos)
It was self swallowed by technology
BM System/360 Price Ranges:
System/360 Model 30:
Price Range: Approximately $25,000 to $100,000. It was considered an entry-level model, making it more accessible for smaller businesses.
System/360 Model 40:
Price Range: Approximately $100,000 to $500,000. This model was more powerful and suitable for a broader range of applications.
System/360 Model 65:
Price Range: Approximately $300,000 to $1 million. This model was popular in larger organizations due to its enhanced performance and capabilities.
IBM System/370 Price Ranges:
System/370 Model 148:
Price Range: Approximately $500,000 to $1 million. This model offered a good balance of performance and cost for many enterprises.
System/370 Model 165:
Price Range: Approximately $700,000 to $1.5 million. Known for its high performance, this model was favored by large organizations.
System/370 Model 3033:
Price Range: Approximately $1 million to $2 million. This model was part of the later generation of IBM mainframes and included advanced features.
What technology did
While comparing the processing power of modern smartphones like the iPhone to older mainframes such as the IBM System/360 and System/370 series can be complex due to differences in architecture, design, and intended use, we can draw some general parallels:
Processing Power:
Modern iPhones, particularly recent models, are equipped with powerful multi-core processors (e.g., Apple’s A-series chips), which are capable of performing billions of operations per second. In certain benchmarks, an iPhone can outperform many older mainframes in terms of raw processing capability.
IBM System/360 Model 30:
The IBM System/360 Model 30 had a processing speed of around 100,000 instructions per second (IPS). A modern iPhone can perform several million instructions per second, making it vastly more powerful than this entry-level model.
IBM System/370 Model 148:
The System/370 Model 148 had a processing speed of around 1 million IPS. Again, modern iPhones can significantly exceed this performance level.
Summary:
In practical terms, a modern iPhone can be considered more powerful than many of the entry-level to mid-range models of the IBM System/360 and System/370 series. Specifically, it would likely exceed the performance of models like the System/360 Model 30 and Model 40, and it could approach or exceed the capabilities of higher-end models like the System/370 Model 148.
However, it’s important to note that these comparisons are somewhat abstract, as the iPhone’s architecture, application environment, and usability are vastly different from those of the mainframes, which were designed for large-scale data processing and enterprise applications.
What that meant for IBM
The work force at IBM never changed that much. The situation technology created is that the output per capita which in its all time high was millions of dollars shrunk and went down the drain becoming cents of dollars. In other words, If they were producing bananas, they started with a banana worth a million dollars and the same banana in time, became worth cents of dollars. And they bet on hardware, not on software and its infinite variants. They didn’t notice that hardware became a commodity an the action was in software translated to service and accessible to the common man and not just big companies.
IBM was never able to do something low cost. The PC it is the shinning example and following suit its marvelous ThinkPad, which was practically thrown away to the Chinese.
Architecture
Another problem that prevented IBM from taking off and reaching the general public, as Microsoft and Apple did, was the type of architecture it adopted.
IBM architectures are simply not “user friendly”.
The question of “user friendliness” in IBM architectures is interesting and reflects a fundamental difference in IBM’s approach compared to companies that focused on design and usability for the end consumer, such as Microsoft with Windows. Here are some points to consider:
Focus on Corporate Environments
Primary Objective: IBM historically concentrated its innovations on solutions for large enterprises and corporate environments, where robustness, reliability, and processing capacity were priorities. Its systems were designed to meet specific needs, such as mass transaction processing and large data management.
Complexity: IBM’s systems, especially mainframes, were complex and often required specialized knowledge to operate and program. This resulted in a steeper learning curve for non-technical users.
Operating Systems
Proprietary Operating Systems: Many of IBM’s systems, like OS/390 or IBM i, were developed with a focus on enterprise functionalities, offering interfaces that may not be as intuitive as the graphical user interfaces (GUIs) that became popular with Windows.
Graphical Interface: Although IBM developed some graphical interfaces (like OS/2), the popularity of Windows and its user-centered approach made it the preferred choice for consumers and small businesses.
Evolution and Adaptation
Market Changes: Over time, IBM recognized the importance of usability and began adapting its solutions. For example, IBM i offers a more user-friendly interface and support for modern technologies, including web and mobile applications.
Integration with Modern Technologies: IBM has invested in solutions that integrate its technologies with cloud environments and user-friendly applications, seeking to attract a broader and more diverse audience.
Competition and Positioning
Competition: Companies like Microsoft, Apple, and others focused on creating products that directly addressed the end consumer, prioritizing design and user experience. This helped create a robust market for easy-to-use operating systems.
Market Niche: IBM positioned itself as a leader in solutions for companies and industries that require high reliability and security, which differentiated it from other companies that focused on consumer products.
Summary
While IBM has developed robust and reliable architectures, its focus on corporate environments and technical complexity limited its penetration into the common consumer market. With the evolution of the market and the growing demand for more user-friendly solutions, IBM began adapting its offerings, but it still faces challenges in directly competing with solutions that prioritize user experience.
For the record
Many of the architectures developed by IBM are still in use, especially in corporate environments and critical sectors. Here’s an overview of the current status of the main architectures mentioned:
1. IBM System/360
Current Use: The System/360 as a specific architecture is no longer in production, but many systems and software developed for it are still operational in legacy environments. Companies that use systems based on mainframes often run software originally written for the System/360.
2. IBM System/370
Current Use: Similar to the System/360, the System/370 is no longer manufactured, but many companies still utilize legacy software designed for this architecture. The virtualization concepts introduced in the System/370 series remain relevant and influence modern technologies.
3. IBM System/38 and AS/400
Current Use: The AS/400, which evolved into the IBM i, is still widely in use. Many companies, particularly small and medium-sized businesses, continue to rely on this platform for their operations. IBM i supports new technologies and languages, maintaining its relevance in the modern IT environment.
4. IBM Power Architecture
Current Use: The Power Architecture is widely used in high-performance servers, particularly in environments requiring intensive processing, such as data centers and corporate applications. IBM Power Systems remains a popular choice for companies needing reliability and performance.
5. IBM z/Architecture
Current Use: The z/Architecture, which is the evolution of IBM’s mainframes, is currently in use and continues to be a preferred choice for critical sectors such as finance, healthcare, and government. IBM continues to release new versions and updates for this architecture, incorporating innovations in security, virtualization, and integration with cloud technologies.
Summary
In summary, while some of the original architectures, like System/360 and System/370, are no longer in production, many of their innovations and software continue to be utilized. More recent architectures, such as IBM i, Power Architecture, and z/Architecture, remain actively used and are continuously updated to meet modern demands. This demonstrates the durability and adaptability of IBM’s solutions over time. If you have more questions or want to delve into a specific aspect, I’m here to help!
For programmers or managers with programming tasks decision about work load and man power
How long do you estimate that a professional programmer needs to get on board on any of these architectures do program something?
Chat GPT
The time it takes for a professional programmer to get onboard with a specific architecture and be able to program effectively can vary widely based on several factors, including:
1. Familiarity with Similar Architectures
Experience Level: If the programmer has experience with similar architectures or programming paradigms, the onboarding time may be shorter—possibly ranging from a few days to a couple of weeks.
Existing Knowledge: Knowledge of relevant programming languages, tools, and frameworks associated with the architecture can significantly reduce the learning curve.
2. Complexity of the Architecture
Architecture Complexity: More complex architectures, such as IBM z/Architecture or Power Architecture, may require more time to understand due to their specialized features and capabilities. This could take several weeks to a few months for a programmer to feel comfortable.
Documentation and Resources: The availability of comprehensive documentation, tutorials, and community support can accelerate the learning process.
3. Development Environment
Tools and IDEs: Familiarity with the development tools and integrated development environments (IDEs) associated with the architecture can also affect onboarding time. Learning new tools can take additional time, often ranging from a few days to weeks.
Development Ecosystem: Understanding the broader ecosystem, including libraries, frameworks, and best practices, is crucial and can add to the time needed.
4. Project Complexity
Project Requirements: The complexity of the specific project being developed on the architecture can influence how quickly a programmer can start contributing effectively. Simple projects may allow for quicker onboarding compared to complex enterprise applications.
5. Team Dynamics and Collaboration
Team Support: Working with an experienced team that provides guidance and mentorship can significantly shorten the onboarding time. Collaborative environments can facilitate faster learning.
Organizational Processes: Familiarity with the organizational processes and workflows can also play a role in how quickly a programmer can become productive.
Estimated Timeframes
Basic Familiarization: A few days to a couple of weeks for basic understanding and simple programming tasks.
Intermediate Proficiency: Several weeks to a few months to reach a level of intermediate proficiency, where the programmer can contribute to more complex projects effectively.
Advanced Proficiency: Several months to over a year to achieve advanced proficiency, especially for complex architectures, where deep understanding and expertise are required.
Summary
In summary, while a professional programmer can get started with basic tasks in a new architecture relatively quickly, achieving a level of proficiency that enables effective contributions to complex projects can take more time. Each programmer’s experience and the specific architecture in question will ultimately determine the exact onboarding duration. If you have any other questions or need further clarification, feel free to ask!
What about the same situation to work with windows?
When it comes to onboarding a professional programmer to work with Windows, the time required can vary based on several factors similar to those mentioned for other architectures. Here’s how it breaks down:
1. Familiarity with Windows and Related Technologies
Experience Level: If the programmer has prior experience with Windows development or similar environments, the onboarding time may be shorter—ranging from a few days to a couple of weeks.
Knowledge of Relevant Languages: Familiarity with programming languages commonly used in Windows development, such as C#, C++, or Python, can facilitate a quicker transition.
2. Complexity of the Project
Project Requirements: The complexity of the specific Windows project can significantly influence onboarding time. Simple applications (like console apps or basic GUI applications) may allow for quicker familiarization, while more complex enterprise applications (involving frameworks like .NET, WPF, or WinUI) may take longer—potentially several weeks to months.
3. Development Environment
Tools and IDEs: Familiarity with development tools and IDEs used for Windows programming, such as Visual Studio, can impact the learning curve. Learning to navigate new tools may take anywhere from a few days to a couple of weeks.
Frameworks and Libraries: Understanding the frameworks, libraries, and APIs (like .NET Framework, .NET Core, or UWP) that are commonly used in Windows development can extend the onboarding period.
4. Documentation and Resources
Availability of Documentation: The wealth of resources, tutorials, and community support available for Windows development can help accelerate the learning process. Microsoft provides extensive documentation, which can be beneficial.
5. Team Dynamics and Collaboration
Team Support: Having support from experienced team members can significantly reduce the time required to become productive. Mentorship and collaboration can lead to faster learning.
Organizational Processes: Understanding the specific processes, workflows, and coding standards of the organization can also affect the onboarding duration.
Estimated Timeframes
Basic Familiarization: A few days to a week for basic understanding and simple programming tasks, especially if the programmer is familiar with Windows.
Intermediate Proficiency: Several weeks to a couple of months to reach a level of intermediate proficiency, where the programmer can contribute effectively to typical Windows projects.
Advanced Proficiency: Several months to over a year to achieve advanced proficiency, particularly for complex applications that require deep understanding of Windows internals, performance optimization, and advanced frameworks.
Summary
In summary, while a professional programmer can quickly get started with basic tasks in a Windows environment, achieving proficiency for more complex projects generally takes more time. The specific duration will depend on the individual’s background, the complexity of the project, and the resources available. If you have more questions or need further insights, feel free to ask!
How much it takes to be proficient in C#, C++, or Python and IBM Assembler 360/370?
The time it takes to become proficient in programming languages such as C#, C++, Python, and IBM Assembler (specifically for System/360/370) can vary widely based on several factors, including prior programming experience, the complexity of the language, and the depth of knowledge desired. Here’s a breakdown for each language:
C#
Basic Proficiency: 1 to 3 months. With a solid understanding of programming concepts, a developer can become proficient in the syntax and basic features of C# relatively quickly, especially if they have experience with similar languages like Java or C++.
Intermediate Proficiency: 3 to 6 months. This includes understanding object-oriented programming, working with the .NET framework, and building applications.
Advanced Proficiency: 6 months to 1 year. Advanced topics such as performance optimization, asynchronous programming, and deep knowledge of the .NET ecosystem may take longer to master.
C++
Basic Proficiency: 2 to 4 months. C++ has a steeper learning curve than many other languages due to its complexity (e.g., pointers, memory management, and object-oriented principles).
Intermediate Proficiency: 4 to 8 months. This includes understanding the Standard Template Library (STL), memory management, and advanced C++ features like templates and exception handling.
Advanced Proficiency: 1 year or more. Mastery of advanced topics such as design patterns, performance optimization, and concurrency can take significant time and experience.
Python
Basic Proficiency: 1 to 2 months. Python is known for its simplicity and readability, making it easier for beginners to grasp basic programming concepts quickly.
Intermediate Proficiency: 3 to 6 months. This includes knowledge of libraries (like NumPy, Pandas, or Flask) and understanding object-oriented programming and functional programming paradigms.
Advanced Proficiency: 6 months to 1 year. Advanced topics may include deep learning, data science, or web development frameworks, which require additional time to master.
IBM Assembler (System/360/370)
Basic Proficiency: 3 to 6 months. Learning IBM Assembler can be challenging due to its low-level nature and the need to understand hardware architecture. A programmer may need this time to become familiar with the syntax and basic programming constructs.
Intermediate Proficiency: 6 months to 1 year. This includes a deeper understanding of the IBM mainframe architecture, instruction sets, and performance optimization techniques.
Advanced Proficiency: 1 year or more. Mastering advanced topics such as system programming, performance tuning, and integration with other systems can take considerable time and experience.
Summary
In summary, the time required to become proficient in these programming languages varies significantly based on individual circumstances, prior experience, and the complexity of the language or environment. Here are some general estimates:
C#: 1 month (basic) to 1 year (advanced)
C++: 2 months (basic) to 1 year or more (advanced)
Python: 1 month (basic) to 1 year (advanced)
IBM Assembler: 3 months (basic) to 1 year or more (advanced)
These timeframes are approximate and can vary based on the programmer’s dedication, learning resources, and the specific context in which they are learning.
What are the most common programming languages used in web development?
Web development involves a variety of programming languages, each serving different roles in the development process. Here are some of the most common programming languages used in web development:
1. HTML (HyperText Markup Language)
Purpose: The foundational language for creating web pages. It structures the content on the web and defines elements such as headings, paragraphs, links, images, and forms.
Role: Essential for front-end development.
2. CSS (Cascading Style Sheets)
Purpose: Used to style and layout web pages. It controls the presentation, including colors, fonts, spacing, and overall aesthetics.
Role: Works alongside HTML to enhance the visual design of web applications.
3. JavaScript
Purpose: A versatile scripting language that enables interactive and dynamic content on websites. It can manipulate the DOM (Document Object Model), handle events, and make asynchronous requests.
Role: Vital for front-end development and increasingly used in back-end development with Node.js.
4. PHP (Hypertext Preprocessor)
Purpose: A server-side scripting language designed for web development. It runs on the server and generates HTML to be sent to the client.
Role: Commonly used for back-end development, especially in content management systems (CMS) like WordPress.
5. Python
Purpose: A versatile programming language often used for back-end development. Frameworks like Django and Flask make it suitable for building web applications.
Role: Gaining popularity in web development for its readability and ease of use.
6. Ruby
Purpose: Known for its elegant syntax, Ruby is often used with the Ruby on Rails framework, which simplifies web application development.
Role: Popular for back-end development, especially in startups and small projects.
7. Java
Purpose: A robust, object-oriented programming language used in enterprise-level web applications. Frameworks like Spring make it suitable for building complex applications.
Role: Commonly used for back-end development in large-scale systems.
8. TypeScript
Purpose: A superset of JavaScript that adds static typing. It helps developers catch errors early and makes the code more maintainable.
Role: Increasingly popular in front-end development, especially with frameworks like Angular.
9. SQL (Structured Query Language)
Purpose: A domain-specific language used for managing and querying relational databases.
Role: Essential for back-end development when working with databases.
10. Go (Golang)
Purpose: A statically typed language designed for performance and efficiency. It is becoming popular for building scalable web applications.
Role: Used for back-end development, especially in microservices architectures.
Summary
These languages collectively enable developers to create dynamic, interactive, and user-friendly web applications. While front-end development primarily relies on HTML, CSS, and JavaScript, back-end development can involve languages like PHP, Python, Ruby, Java, and others. The choice of language often depends on project requirements, team expertise, and specific use cases.
What are some common challenges faced by web developers when working with different programming languages?
Web developers encounter a range of challenges when working with different programming languages. Here are some of the most common challenges:
1. Language Syntax and Semantics
Learning Curve: Each programming language has its own syntax and semantics, which can be difficult to learn, especially for beginners. For instance, transitioning from JavaScript to Python may require adjusting to different paradigms and conventions.
Error Handling: Understanding how to properly handle errors and exceptions varies between languages, and developers may struggle with debugging issues if they are not familiar with the specific error handling mechanisms.
2. Compatibility and Integration
Interoperability: Different languages may not work seamlessly together. For example, integrating a Java back-end with a JavaScript front-end can require additional tools or frameworks to facilitate communication.
Version Compatibility: Keeping track of different language versions and their corresponding libraries can lead to compatibility issues, especially when libraries become deprecated or updated.
3. Performance Issues
Optimization: Some languages may not perform as well as others in certain scenarios. For instance, interpreted languages like Python can be slower than compiled languages like C++. Developers may need to spend time optimizing code for performance.
Resource Management: Managing resources (like memory and processing power) can be more challenging in languages that offer less control, requiring developers to understand the underlying mechanics of the language.
4. Framework and Library Choices
Framework Overload: The abundance of frameworks and libraries available for languages like JavaScript (e.g., React, Angular, Vue) can overwhelm developers, making it difficult to choose the right tool for a project.
Learning New Frameworks: Each framework has its own conventions and best practices, which can require additional time and effort to learn, impacting project timelines.
5. Security Concerns
Vulnerability Awareness: Different languages have unique security concerns (e.g., SQL injection in PHP, Cross-Site Scripting (XSS) in JavaScript). Developers must be aware of these vulnerabilities and implement best practices accordingly.
Dependency Management: Managing dependencies and ensuring they are secure can be a challenge, especially with languages that rely heavily on third-party libraries.
6. Collaboration and Code Maintenance
Code Readability: Different programming languages have varying levels of readability. Code written in a language with complex syntax may be harder for team members to understand and maintain.
Version Control: Collaborating on projects using different languages may lead to challenges with version control systems if team members are not disciplined in following best practices.
7. Deployment and Environment Configuration
Environment Setup: Different languages may require specific environments or configurations, leading to challenges in setting up development, staging, and production environments.
Deployment Complexity: Deploying applications can vary significantly between languages and frameworks, and developers may face hurdles in ensuring smooth deployment processes.
8. Keeping Up with Trends
Rapid Evolution: The web development landscape is constantly evolving, with new languages, frameworks, and best practices emerging regularly. Staying up-to-date can be time-consuming and challenging for developers.
Summary
Overall, while each programming language has its strengths and weaknesses, web developers face various challenges that require adaptability, continuous learning, and effective problem-solving skills. Successfully navigating these challenges often involves a combination of experience, collaboration, and leveraging the right tools and frameworks.
The ingredients just discussed, i.e., architecture, programming languages, programming tasks, etc., were mixed correctly by Steve Jobs and Bill Gates, and their teams, and IBM simply got lost and never managed to come up with something like they did and the rest is history. Wrapping up and bottom line:
The tale of the competition between the rabbit and the turtle is a classic fable that teaches valuable lessons about perseverance, humility, and the importance of steady effort. Here’s a summary of the story:
The Tortoise and the Hare
Once upon a time, in a lush green forest, there lived a swift rabbit (hare) who was quite proud of his speed. He often boasted about how fast he could run and teased the other animals for being slow. One day, a tortoise, tired of the rabbit’s arrogance, challenged him to a race.
The rabbit laughed at the idea, thinking it was absurd that a slow tortoise could ever compete with him. However, the tortoise remained determined, and the other animals agreed to set up the race.
The Race Begins
On the day of the race, all the animals gathered to watch. The race began, and as expected, the rabbit quickly took the lead. Confident in his speed, he decided to take a break and rest under a shady tree, believing he had plenty of time to win.
Meanwhile, the tortoise continued to plod along steadily, moving forward at his own pace without stopping. The rabbit eventually fell asleep, thinking he would wake up and easily finish the race whenever he wanted.
The Unexpected Outcome
While the rabbit was sleeping, the tortoise kept moving forward. As the race progressed, the tortoise reached the finish line, just as the rabbit woke up from his nap. Realizing he had lost track of time, the rabbit sprinted towards the finish line, but it was too late—the tortoise had already won the race.
The Moral
The story concludes with a valuable lesson: “Slow and steady wins the race.” It highlights the importance of perseverance and diligence over arrogance and overconfidence. The tortoise’s consistent effort ultimately led to victory, while the rabbit’s complacency resulted in his defeat.
This fable teaches that success does not always come from speed or talent alone, but often from hard work, determination, and a steady approach to achieving one’s goals.
I am a visual person and I think that no one brought to our imagination what the American Dream was or is, or has become, better than Norman Rockwell. When he died, I saw a review in Time magazine, which, then, I subscribed, that I think it is wrong, or inacurate, criticizing, diminishing him as alienated, naive and outdated. The article, published in xxx 1999, was as follows:
When it comes to Norman Rockwell, we all know what we’re supposed to think. Rockwell is to modern art what Robert Mapplethorpe is to family values–a slap in the face to all serious standards. So much the worse that for decades he was the best-loved American artist, at least until he was usurped by an even shrewder judge of the national disposition, Andy Warhol. To the art world Rockwell was an exasperating holdout, the man who didn’t care that in the 20th century it was simply uncalled for to paint sweet-tempered vignettes in a representational style at something like a molecular level of detail.
So maybe it’s a watershed in cultural attitudes that over the next two years the Rockwell retrospective now at Atlanta’s High Museum of Art will be making a national victory lap. It’s not just that it passes through Chicago, Washington, San Diego and Phoenix, Ariz., then touches down at the Norman Rockwell Museum in Stockbridge, Mass.–the place where his work is usually confined, to contain any risk of aesthetic infection. It’s that the tour ends in triumph at the Guggenheim Museum in New York City, an institution founded as a stronghold of “nonobjective art.” If Rockwell can enter the Guggenheim, look soon for Mapplethorpe at the Vatican.
Maybe it’s not such a surprise. The standard version of modern art history–the story that moves through the Impressionists and Cezanne to Cubism, and from there through ever greater reaches of stylization, psychic turmoil and abstraction–has been under pressure for years to admit developments that can’t be legitimized under that model. The creamy maidens of Victorian genre painting, “outsider art” by the mentally ill, hard-to-categorize painters like Jacob Lawrence and Florine Stettheimer–all of them have been tried out on museum walls. It was only a matter of time before attention turned back to Rockwell, a man who could paint cute but intricate scenes like The Runaway, where a cop and a waiter at a lunch counter size up a wayward but innocent kid. Is this art rising from the primordial muck of kitsch? Or just kitsch? As the grownups look him over, the kid makes you think of Rockwell being examined by the powers that be. Including us.
Among critics and curators, the Rockwell show is now an occasion to announce themselves as Rockwell converts or as closet fans all along. Anytime the higher echelons of the culture industry set out to show how they’re in touch with ordinary folks, they risk sounding like George Will when he writes about baseball. But this exhibit is an indicator of a real impulse in the art world lately to find vitality wherever it’s to be found, now that the energies that moved modernism have long ago run aground. Perhaps for the first time in history, it’s truly possible to ask an essential question: Can you take seriously an artist who illustrated 50 years of the Boy Scout calendar?
The answer, of course, is, How can you not take him seriously? Even when you see every one of his 322 covers for the Saturday Evening Post spread out across one gallery of the show–and notice that more than a few of them really are a little precious–you have to admit to Rockwell’s ingenuity. What the original canvases for those covers make plain is that he was a painter of great if anachronistic gifts. He carried into the 20th century the ancient pleasures of visual storytelling and fine-grained description. These happen to be the same enjoyments that art has largely turned over to photography, movies and television, none of which can offer back the visual world with anything like the mouth-watering delights of paint.
Rockwell could. He knew how a few brushstrokes can mimic wet hair, effulgent sunlight, gunmetal, crinoline, catsup, cardboard, painted brick and polished linoleum. And he got those effects without losing sight of the muddy pleasure of pigment itself, a fundamental notion of modern painting. In a few inches of sailcloth or the slip worn by his Girl at Mirror, he could put white paint through as many adventures as Robert Ryman does in his snow-flurry abstractions. As for his pieties, they turn out sometimes to be the same ones fundamental to civil society. By nothing less than an actual vote among Post readers, Saying Grace was his most popular canvas. In a flyblown city restaurant, a boy and his grandmother bow their heads to pray while everybody else looks on. If the picture is about the secular world making space for the spiritual, which it plainly is, it’s also about the larger notion of every tribe in American society making space for every other.
Too bad Rockwell’s democratic spirit can’t blind you to the fact that so many of his pictures really are the insipid jokes and consoling fictions they were always said to be. The fact that sentimentality in painting has a pedigree reaching back to Rubens doesn’t make Rockwell’s puppy dogs any more digestible now. There are parts of this show that could make you hate Santa Claus.
Until World War II, the larger commotions of the century don’t get into Rockwell’s work at all. Looking at his output from the 1930s, you would never know there was a Depression. When the century exploded, he cushioned the blows. He once said, “This is where I can find America the way I want it.”
As it turned out, in his own politics Rockwell was a liberal, which could be guessed from the understated plea for tolerance that so many of his pictures make. In the 1960s, when he left the Post for Look magazine, he turned to producing plainer public statements like The Problem We All Live With, a bare rectangle in which a black girl is chaperoned by federal Marshals as she tries to integrate a Southern school. Public rhetoric was never Rockwell’s strength. But he brings such a hard-lit, neoclassical calm to this moment that the remnants of a tomato smashed against the wall behind her are more shocking than a pool of blood.
By the time he died, in 1978, Rockwell occupied a place somewhere between Vermeer and Disney, a hard spot to locate, much less evaluate. But whatever else he was, Rockwell was the road not traveled. You go through this show wondering what 20th century art might have been like if it had not been so quick to put aside anecdote, draftsmanship and the raptures of watching paint do its dead-on imitations of other stuff. In short, what it might have been like if it valued more what Rockwell did. Given the essential places where painting had to go, places where Rockwell couldn’t follow, maybe art had to put those things aside. But his best pictures remind you of the powers it gave up as a consequence. It may be true that Rockwell did nothing to advance art history. But what he did, in his humble way, was humble it.
Norman Rockwell’s painting Saying Grace sold for $46 million at a Sotheby’s auction in New York City in 2013, making it the most expensive American painting ever sold at auction. The painting was more than double its pre-sale estimate of $15–20 million.
Andy Warhol’s Shot Sage Blue Marilyn sold for $195 million at Christie’s New York in May 2022, making it the most expensive 20th-century artwork ever sold at auction. The painting is part of Warhol’s Shot Marilyns series, which depicts Marilyn Monroe against a sage blue background.
A million flies can’t be wrong…for me, to categorize works of art in its auction value, brings to mind that…
Here is my reason why I think Norman Rockwell embodies the American Dream and why he, while the quintessence of good and beautiful, was also concerned with evil.
Norman Rockwell was an American painter and illustrator. His works enjoy wide popular appeal in the United States and for those who appreciate them for their reflection of American culture, at least in terms of how it is idealized by Americans themselves. He is best known for his illustrations on the covers of The Saturday Evening Postmagazine for 40 years. He created characters or sequences of subjects, which he used for his illustrations. The most famous characters and subjects are: Willis Gillis, Rosie the Riveter, Saying Grace, The Problem We All Live With and the most famous series of all, The Four Freedoms .
He is a fictional character who represented the typical American soldier of World War II. The images created by Norman Rockwell were dedicated to the human side of war. In Rockwell’s own words, ” Gillis was a harmless, ordinary, simple individual who had been thrown into the chaos of war.” The public identified with Rockwell’s perception of the ordinary, simple, small person, responding within his narrow horizon to the sense of duty in those times of war.
One of the happiest paintings in this series is of a soldier at home helping his mother prepare a Thanksgiving meal, a very strong American institution. Even if this does not exist, there is nothing stronger in human reality than the feeling that the mother’s gaze reveals when looking at her son in this painting. And his tranquility, unarmed in that environment, is one of the most enviable things one could wish for: peace for someone who comes from the life-or-death struggle that is war.
It is not an icon of its creation. It is an American cultural icon representing the American woman who worked in factories during the Second World War. They had to take on jobs typical of men, who were serving in the military, producing ammunition and war supplies. Rosie became a symbol of feminism and women’s economic power. She was born in 1942 from a campaign by the American government to motivate housewives to go to work in factories in jobs that were typically male, such as operating drills, lathes, presses, welding machines, etc. The character became a song that was popularized at the time by several artists. It is said that she was based on Rosie Bonavitas, who worked at the Convair aircraft factory in San Diego. She would have resembled Veronica Foster, the model for the poster published in Canada for the same purpose. There was a certain coincidence between the first Saturday Evening Post cover painted in this vein, where a stout woman on her lunch break, with a riveting pistol in her lap, stepping with her shoes over a copy of Hitler’s manifesto, Mein Kampf. Her lunchbox reads “Rosie”; and readers quickly identified her with the “Rosie the Riveter” from the song
There were many other non-Rockwell images, but he gained more attention because of the circulation of the Saturday Evening Post. An original painting by Norman Rockwell of Rosie sold in 2002 for $5 million. The model who posed for this painting, Mary Doyle, was paid $10 for it when the painting was painted. According to the Encyclopedia of American Economic History , Rosie the Riveter inspired a social movement that increased the participation of American women in the male workforce from 12 million to 20 million in 1944, an increase of 57%. In 1944, only 1,700,000 single men between the ages of 20 and 34 worked in the defense industry, while in the same period, about 4,100,000 women did so. Although the image depicted welding, riveting, and drilling, the majority of women worked in non-factory positions in all sectors of the economy. They demonstrated that they could do “a man’s job” and do it well. The proportion of “acceptable” tasks for women rose from 29 to 85 percent in 1942. Women were convinced that it was a patriotic duty to enter the workforce. There are many other angles that do not fit here but that deserve consideration.
This is perfect for a discussion of Norman Rockwell. Art critics, painters, and connoisseurs turn their noses up at him and despise him… This kind of criticism is about the subject matter, not purely aesthetic values. It is clear that Rockwell, whether consciously or not, was a propagandist of small-town American culture. He was clearly constrained in his choice of subject matter by the editors of the Saturday Evening Post. He had a job to do, and he did it well, using a highly developed technique. If we examine Rockwell’s best work, it is clear that he was a master of composition, a subtle colorist, and an excellent draughtsman of the human figure. In addition, he was a keen social observer whose eye for detail was obsessive and almost pathological. Behind his work there is a second, hidden meaning that neutralizes the more obvious messages of patriotism and the goodness of the American people. Rockwell’s people do not know much, they are not sophisticated or cultured, but they want to learn and help their fellow human beings. Norman Rockwell clearly had faith in the goodness of human nature and was, to that extent, an optimist. In this painting, Thanksgiving, in the foreground, an older woman stands across from two young men, heads bowed in prayer, her grandson (we can assume) perched beside her in the same manner. The crocodile-skin bag, umbrella, and man’s fedora hat together, and the jacket draped over the shoulders of the chair by the window, suggest some sort of departure. Perhaps they have just seen Dad off to war. There is a story here, the young men, smoking, looking on curiously, and we realize that saying grace is no longer practiced by the younger generation. The other spectators seem equally surprised by this public act of piety. In the cluttered, claustrophobic space, the chairs are used to create depth, as is the case at the table where the diner patron nearby is sitting with his silverware on his plate, looking toward the old lady. The realism of Thanksgiving is not only photographic in its depiction of the luggage, the spices on the table, and the leftover food, but the painting as a whole achieves a naturalness of facial and body expression in the subjects as well. It is obvious that Rockwell was almost completely unaffected by the revolutionary events in painting that occurred during his lifetime. If we compare it to a painter who became famous and is from the same era, such as Edward Hopper (1882 – 1967), we will feel that where Hopper, who also represented American life in a realistic way, albeit with some degree of abstraction, expressed coldness, alienation, separation, and uncertainty, Rockwell showed joy, sociability, and human warmth. Most 20th century artists found the need to distance themselves from society, especially in the abstraction of the imaginary, creating worlds that exist only inside people’s heads. Especially people disturbed by the direction that civilization has taken. Rockwell did not, he placed himself at the center of average American values, allowing himself only a few humorous digs here and there and at the simplicity of the naivety of the young or the conservatism of the older generation. He was, therefore, much more of an insider to his general public, being excluded from the avant-garde of American artists (or of any other nationality). We can understand all this well when we realize that The Scream by the Norwegian Edvard Munch was recently sold for 120 million dollars.
The Problem We All Live With is the name of a 1964 painting by Norman Rockwell. An iconic image of the civil rights movement in the United States, it depicts Ruby Bridges, a six-year-old African-American girl, on her way to an all-white public school in New Orleans on November 14, 1960, during the process of racial desegregation. Because of threats and violence against her, she is escorted by four federal marshals. The painting is framed in such a way that the marshals’ heads are cropped at the shoulders. On the wall behind her is written the racial slur “nigger” and the letters “KKK”, and a crushed tomato thrown at her is also visible. The crowd of white people is not visible, as the viewer is looking at the scene from their point of view. It was published as a centerfold in Look Magazine , as Rockwell had terminated his contract with the Saturday Evening Post the previous year due to the limitations imposed on his political expression, and Look offered him a forum to do so. Recently, in July 2011, the girl in the painting suggested to President Barack Obama that he place the painting in the White House, next to the Oval Office, as there is a belief that it should not be displayed in public spaces yet. This painting is in the Norman Rockwell Museum in Stockbridge, Massachusetts. I believe that he was inspired by the photo that went around the world of the American soldiers sent by President Dwight D. Eisenhower to force school integration in September 1957 in the city of Little Rock, Arkansas. The soldiers escorted nine African-American students who were being threatened by the threatening mob. In fact, I consider discrimination in the United States to be a greater paradox than the fatal attraction they feel for war. Discrimination and war are the feet of the American Peacock…
President Franklin D. Roosevelt’s “Four Freedoms” speech, delivered on January 6, 1941, was a call to action for the United States and other democracies to work together to defend four essential freedoms throughout the world. These four freedoms were freedom of speech, freedom of worship, freedom from want, and freedom from fear.
President Roosevelt argued that these freedoms were necessary for people to live in peace and security, and that they were under threat from the aggression of fascist powers in Europe and Asia. He called for the United States to take a leading role in defending these freedoms and supporting democracy throughout the world.
No one better than Norman Rockwell to express the image of what these illusions I projected would be like… I thought that in the US everyone lived like they do on his screens, listening to Ray Conniff in fantastic cars, beautiful houses fully equipped with appliances and enjoying a well-being unthinkable for Brazilians born in the 40s and becoming teenagers in the 60s… I unconsciously collected every Ray Conniff LP I saw, here and wherever I was… Recently, a few years ago, as I said before, I donated them all to André Baldinelli, whom I met on the Internet because of Ray Conniff and who has a deep passion for Ray Conniff… In exchange, he digitized everything and gave me the image that is on my computer… Norman Rockwell can be best understood through his paintings, which speak for themselves… I selected four, perhaps the most famous, which are the Four Freedoms:
Freedom of Speech
Freedom of Worship Freedom of Belief
Freedom from Want Economic Security and the Right to a Basic Standard of Living
Freedom from fear
Which were the materialization in the American imagination of what President Franklin D. Roosevelt proposed on January 6, 1941, which went down in history as the 1941 State of the Union address and which should “include all the people of the world”.
And what was happening to “ all the people in the world ”?
Before we look at that, let’s look at the domestic situation in the US prior to its involvement in World War II.
The State of the Union address The State of the Union Congress was largely about the national security of the United States and the threat from other democracies of World War I that was taking place on every continent in the Eastern Hemisphere. In the address, he broke with the long-standing U.S. tradition of non-interventionism. He emphasized the role of the United States in assisting allies already engaged in the war. In this context, he summarized the values of democracy that underlay the bipartisan consensus for international engagement that existed at the time. The famous quote from the preface to this address speaks to what these values are: “As men do not live by bread alone, so they do not fight by armaments alone.” In the second half of the address, he lists the benefits of democracy, which include economic opportunity, employment, social security, and the promise of “adequate health care.” The first two freedoms of speech and religion are protected by the First Amendment to the United States Constitution. Roosevelt’s inclusion of the latter two freedoms went beyond the traditional constitutional values protected by the U.S. Bill of Rights. Roosevelt endorsed a broader human right to economic security and anticipated what would become known decades later as the “human security” paradigm in the social sciences and economic development. He also included “freedom from fear” against national aggression before the idea of a United Nations for such protection was conceived or discussed by world leaders and allied nations.
Historical Context of the Four Freedoms Discourse
With the end of World War I (1914–1918), the United States adopted a policy of isolationism and non-interventionism, refusing to approve the Treaty of Versailles (1919) or formally join the League of Nations. Many Americans, remembering the horrors of World War I and believing that their involvement in World War I had been a mistake, were adamantly opposed to continued intervention in European affairs. With the Neutrality Act enacted after 1935, U.S. law prohibited the sale of armaments to countries at war and placed restrictions on travel by belligerent vessels. When World War II began in 1939 with the German invasion of Poland, the United States was still committed to its non-interventionist ideals. Although Roosevelt, and a large segment of the population, supported the Allied cause, the neutrality laws and a strong isolationist element in Congress ensured that no substantial support could be given. With the revision of the Neutrality Act in 1939, Roosevelt adopted a “methods-short-of-war policy,” under which supplies and armaments could be provided to European allies as long as war was not declared and no troops were sent. By December 1940, Europe was largely at the mercy of Adolf Hitler and the Nazi regime in Germany. With the defeat of France by Germany in June 1940, Britain was left virtually alone against the military alliance of Germany, Italy, and Japan. Winston Churchill, as Prime Minister of Great Britain, asked Roosevelt and the United States to supply them with armaments so that they could continue their war effort.
The Four Freedoms speech delivered on January 6, 1941
Roosevelt’s hope was to provide a rationale for why the United States should abandon the isolationist policies that had emerged from World War I. The speech coincided with the introduction of the Lend -Lease Bill , which promoted Roosevelt’s plan to become the “arsenal of democracy” and support the Allies (primarily the British) with much-needed supplies. In addition, the speech established what would become the ideological basis for the United States’ involvement in World War II, all framed in terms of the individual rights and liberties that are the hallmark of American policy. Lend-Lease Act
This bill authorized the president to “sell, transfer title to, exchange, lease, loan, or otherwise dispose of, to any government (whose defense the President deems vital to the defense of the United States) any defense article.” In effect, it allowed President Roosevelt to authorize the transfer of military materials to Great Britain with the understanding that they would someday be paid for or returned if they were not destroyed. To administer the program, Roosevelt created the Office of Lend-Lease Administration, under the leadership of former steel industry executive Edward R. Stettinius. To sell the idea of the program to a skeptical and still somewhat isolationist American public, Roosevelt compared it to lending a hose to a neighbor whose house was on fire. “What do I do in a crisis like this?” the president asked the press. “I don’t say … ‘Neighbor, my garden hose cost me $15, you have to pay me $15 for it’ – I don’t want $15 – I want my garden hose back after the fire is out.” In April, he expanded the program, offering Lend-Lease aid to China in its war against the Japanese. Quickly taking advantage of the program, the British received more than $1 billion in aid by October 1941.
The speech delivered by President Roosevelt incorporated the following
“In the future, the days we seek to make safe today, we look forward to a world founded on four essential human freedoms. The first is freedom of speech and expression – everywhere in the world. The second is the freedom of each person to worship God in his own way – everywhere in the world. The third is freedom from want, which, translated into world terms, means economic arrangements that can guarantee every nation a life of healthy peace for its inhabitants – everywhere in the world. The fourth is freedom from fear, which, translated into world terms, means a worldwide reduction of armaments to such an extent and in such a complete manner that no nation will be in a position to commit an act of physical aggression against any neighbor – anywhere in the world. This is not a vision of a distant millennium. It is a definitive basis for the kind of world that is possible in our own time and generation. This kind of world is the very antithesis of the so-called new order of tyranny that dictators seek to create as if by dropping a bomb. “-Franklin D. Roosevelt, excerpt from the State of the Union Address to Congress, January 6, 1941
The Four Freedoms Flag or “United Nations Honor Flag” ca. 1943-1948
The declaration of the Four Freedoms as a justification for war would resonate throughout the duration of the war and for decades to come, more as a frame of reference. The Four Freedoms became the central unifying force behind the United States’ war aims and the crux of all attempts to rally public support for the war. With the creation of the Office of War Information (1942), as well as Norman Rockwell’s famous paintings, the Four Freedoms were heralded as values central to life and examples of American exceptionalism. This did not occur in the logical sequence that later suggests, as the government rejected Norman Rockwell’s offer, but because the paintings had the effect of making the public understand and gaining popular favor, they were incorporated.
Opposition to the four freedoms
The Four Freedoms speech was a great success, and its goals would be central to the development of postwar human rights policy. However, in 1941 the speech received strong criticism from isolationists and many conservatives in Congress. Critics argued that the Four Freedoms were simply a concession letter to Roosevelt’s New Deal, the social reforms that had already created deep divisions within Congress. Conservatives who opposed social programs and increased government intervention argued against Roosevelt’s attempt to justify and use the war as necessary to defend liberal policies. While the Freedoms became a force in American thinking about war, they were never the exclusive justification for war. Surveys and polls conducted by the Office of War Information (OWI) revealed that “self-defense” of American values, and revenge for Pearl Harbor, were still the most common reasons for war. Although Roosevelt sought to use the four freedoms as a counter-ideology to fascism and as a force to mobilize an apathetic nation for war in Europe, the record indicates that Americans were more concerned with their own personal experience than with liberal humanitarianism.
United Nations
The concept of the Four Freedoms became part of First Lady Eleanor Roosevelt’s personal mission in influencing the Declaration of Human Rights, United Nations General Assembly Resolution 217A. In fact, these four freedoms were explicitly incorporated into the preamble to the Universal Declaration of Human Rights, which states:
“ Whereas contempt and disregard for human rights have resulted in barbarous acts which have outraged the conscience of mankind, and whereas the advent of a world in which human beings shall enjoy freedom of speech, belief, fear and want has been proclaimed as the highest aspiration of the common man, ….”
Disarmament
FDR called for “a worldwide reduction of armaments,” as a goal for “future days, which we seek to make certain,” but which was “attainable in our own time and generation.” More immediately, however, he called for a massive buildup of U.S. arms production: “Every realistic person knows that the democratic way of life is at this moment under direct attack in every part of the world… The need of the hour is that our actions and our policy should be devoted primarily, almost exclusively, to meeting this external danger… The immediate need is a rapid and direct increase in our production of armaments… I also ask this Congress for authority and for sufficient funds for the manufacture of additional munitions and war supplies of various kinds, to be delivered to those nations which are now at actual war with these aggressor nations… Let us say this to these democracies…” – Franklin D. Roosevelt
The Paintings of Norman Rockwell
President Roosevelt’s Four Freedoms speech inspired a set of four paintings of the same name by Norman Rockwell. The four paintings were published in The Saturday Evening Post on February 20, February 27, March 6, and March 13, 1943. The paintings were accompanied in the magazine by consonant essays on the four freedoms. The most famous essay is on Freedom from Fear. The United States Department of the Treasury exhibited the Four Freedoms paintings nationwide after their publication in 1943. The exhibition grossed over $130,000 in war bond sales (about $2 billion in 2013 values). Rockwell’s Four Freedoms paintings were also reproduced on United States postage stamps issued in 1943 and 1946. The paintings inspired murals, such as the one painted by Michael Lenson in a New Jersey school. A monument to the first war hero was commissioned by Roosevelt to the sculptor Walter Russell, and the monument was created in 1941 and dedicated in Madison Square Garden in 1943. Franklin D. Roosevelt Four Freedoms Park was a park designed by architect Louis Kahn for the southern tip of Roosevelt Island. The park commemorates the famous speech and contains the text of the speech, which is inscribed on a granite wall in the park’s final design. Four Freedoms Medals are awarded at ceremonies in Hyde Park, New York City, and in Middelburg, Netherlands, during alternating years.
Essays on the Four Freedoms and their Representation
The representation that gave rise to the most famous essay and the one that gave rise to the greatest number of criticisms was Freedom of Belief, and it seems that time has not altered the notion that Will Durant printed in his essay that was published in the Saturday Evening Post, together with the illustration by Norman Rockwell.
Freedom of Worship
This article is under copyright, but I got the following excerpts:
Note: This happened when I first published the post, 10 years ago, in 2013, today, in 2023, I found that the article is released, along with others that were commissioned by the Saturday Evening Post and can be read on the Internet.
Why are we religious?
Man differs from the beast in two things: he laughs, and he prays. Perhaps the beast laughs when he plays, and prays when he begs or cries; we shall never know any soul outside our own, and that alone. But the mark of man is that he beats his head against the enigma of life, knows his infinite weakness of body and mind, lifts up his heart to a hidden presence and power, and finds in his faith a cheering beacon of hope, a pillar of strength for his frail decency.
What is the core of religious experience?
Religion, like music, lives in a world beyond words or thoughts or things. These experiences feel the mystery of consciousness within themselves, and will not say that they are machines. These experiences make one aware of the growth of the soil and the child, dwell in awe and reverence in the swelling of the fields, in the hum that pervades the woods, and perceive in every cell and atom the same creative power that springs forth in its own effort and achievement. Their impassive faces hide silent gratitude for the coming of summer, the deadly beauty of autumn, and the joyful resurrection of spring. They have patiently watched the movement of the stars, and found them in a majestic order so harmoniously regular that our ears would endure their music if it were not eternal. Their weary eyes have known the ineffable splendor of earth and sky, even in storm, terror, and destruction, and have never doubted that in this beauty there is some meaning and significance. They have seen death, and looked beyond it with their hope.
Building on this intuition and anticipating a time when many would say they were “spiritual but not religious,” Durant offers the following:
And so they worship. The poetry of their ritual rescues the prose of their daily toil; the prayers they say are secret summonses to themselves to become better; the songs they sing are shouts of joy in their restored strength. The commands they receive, by which they may live with one another in order and peace, are to them as imperatives of an inescapable divinity, not as decrees of questionable men. Through these commands they become part of a divine drama, and their beleaguered lives assume a scope and dignity that cannot be nullified by deaths:
Freedom From Fear
Stephen Vincent Benét Published in The Saturday Evening Post, March 13, 1943
What do we mean when we say “freedom from fear”? It is not just a formula or a set of words. It is a look in the eyes and a feeling in the heart and a thing to be won against all odds. It goes to the roots of life – a man and a woman and their children and the home they can have and hold. Fear has stalked the heels of man through many ages – fear of wild beasts and nature, fear of the unexplainable gods of thunder and lightning, fear of his neighbor. He saw his house from the treetops burned with fire from heaven – and he knew not why. He saw his children die of pestilence – and he knew not why. He saw them die of hunger, he saw them become slaves. It happened – and he knew not why. These things have always happened. So he set out to find out – first one thing, then another. Slowly, through the centuries, he fought his battle with fear. And wise men and teachers arose to help him in this battle. His children and he did not have to die of the plague. His children and he did not have to make human sacrifices to appease the wrath of unexplainable gods. His children and he did not have to kill the stranger just because he was a stranger. His children and he did not have to be slaves. And the form of fear grew less. No man did it for himself. It took many men and women, over many years. It took saints and martyrs and prophets—and ordinary people. It all began with the first fire in the first cave—the fire that scared away the beasts of the night. This fire will not end with the conquest of distant planets. Since our nation began, men and women have come here only for that freedom—the freedom from the fear that lies at the heart of every unjust law, from every tyrannical exercise of power by one man over another. They came from all backgrounds—men who had seen the face of tyranny, men who wanted breathing space and a chance to be men. And the cranks and the dreamers came too to build Zion and New Harmony and Americanopolis and the states and cities that perished before they existed—the valuable cranks that pushed the world forward an inch. And a lot of these things never happened, but we made a free nation.
“How would you live out there, stranger?”
“We’re going to live on low-quality wheat infested with bugs and in the open air.” If they had the open air, they would have gotten rid of the low-quality wheat and its bugs. So in our corner of the world, and for most of our people, we got rid of certain fears. We got rid of them, we got used to getting rid of them. It took fighting and desperate fighting with a lot of things that had to be settled. But a hundred and thirty million people lived in peace with each other and had their own government. And because they were free from fear, they were able to live better, almost completely and generally speaking, than any other hundred and thirty million people ever lived. Because fear can make a burdened man go a mile, but it’s only freedom that makes his load light enough to carry a long distance. And meanwhile the world around us was getting smaller and smaller. If you looked at it on school maps, yes, it looked like the same big big world with a big safe corner for us. But in time invention and mechanical skill have made it smaller and smaller. When the Wright brothers made their first flights at Kitty Hawk, the world shrank. With those first flights the world began to come together and distant nations began to push their neighboring countries aside. Now, again in our time, we know fear—armed fear, buzzing in the sky. It is a different sound from the war cry and the shot in the lonely glade, and yet it is the same. The house is silent at night and the children are asleep. But innocence, good will, distance, peaceful intention, will not keep the children safe from the fear that comes from the sky. No man can keep his house safe in a world that has shrunk. No man can secure himself and say, “This is mine. Do not come near.” And yet, if the world is to go on, and if man is to survive and prosper, man’s house must be kept safe. So what do we mean by “freedom from fear”? We do not mean freedom from responsibility—freedom from struggle and toil, from hardship and danger. We do not mean to create a cotton-wrapped race, too delicate to endure bad weather. In every world of man that we can imagine, fear and the overcoming of fear must play a part. But we have a chance, if we have brains and courage, to destroy the worst fear that afflicts man today—the fear of starving, the fear of being a slave, the fear of being trampled on because he is one kind of man and not another, the fear of unprovoked attack and of terrible death to himself and his children because of the greed and power of evil men and deluded nations. It will not be easy to destroy these fears. No man can do it alone. No nation can do it alone. It must be done by all men. It is not enough to say, “Here in our country we are strong. Let the rest of the world sink or swim. We can take care of ourselves.” That may have been true once, but it is no longer true. We are not an island in space, but a continent in the world. As long as air is air, a bomb can kill your children and mine. Fear and ignorance a thousand miles away can spread plague in our own city. War between nations on the other side of the globe can endanger everything we love and cherish. War, famine, disease are no longer local problems or even national problems. They are problems that concern the whole world and every man. This is a hard lesson to learn, and yet for our own survival we must learn it. One hundred and sixty-odd years ago, we as a nation affirmed that all men were created equal, that all men were entitled to life, liberty, and the pursuit of happiness. These were grand statements, but we have tried to live up to them, and we have not always succeeded, and sometimes we have failed. But our will and desire, as a nation, has been to live up to them. Now, in concert with other free nations, we can say that the children you see and children like them throughout the world shall grow to adulthood as men and women free from fear. We say that neither their minds nor their bodies shall be cramped or corrupted by tyranny and oppression. We say that they shall have a chance, and a fair chance, to grow and develop and lead the lives they have chosen to lead, not lives mapped out for them by an overbearing master. And we say that freedom for ourselves involves freedom for others – that it is a universal right, and that it was not given in vain by Providence, and that it cannot be maintained by words alone, but by acts and deeds and life. We who are alive today did not make our institutions free. We have obtained them from men of the past and we must hold them in trust for the future. If we put the easy way and selfishness above them, this trust that has been placed in us will fail and we shall lose everything, not a part or a degree of freedom, but all that has been built by us and all that we hope to build. True peace will not be won by one victory. It can be won only by long determination, firm resolve, and a willingness to share and work with other men, no matter what their race, creed, or condition. And yet we have the choice. We can have freedom from fear. Here is a house, a woman, a man, their children. They are not free from life and the obligations of life. But they can be free from fear. All over the world they can be free from fear. And we know that they are not yet free. The painting shows children resting safely in their beds, unaware of the dangers of this world, while their parents look on. The mother is tucking them under the blankets while the father has a newspaper describing the horrors of war, but his attention is completely on the children and not on the alarming stories.
Freedom from Fear
Freedom of Speech
Freedom of Worship
Freedom to have economic security and the right to a basic standard of living
Eleven months after this publication, on December 8, 1941, the United States declared war on Japan, one day after the Pearl Harbor attack, which was, in my view, the most significant event of the 20th century. Three days later, on December 11, Germany and Italy declared war on the United States. The atomic bomb was dropped on Hiroshima on August 6, 1945, and on Nagasaki on August 9. Japan surrendered unconditionally (it had never lost a war) on September 2 (after announcing this on August 15). Mussolini was executed on April 28, Hitler committed suicide on the 30th of the same month. Germany gradually surrendered, through the commanders-in-chief, who negotiated separately with each other. On May 1 in Italy, on May 2 in Berlin, on May 4 in Northern Germany, Denmark and the Netherlands, and also in Bavaria and Central Europe. Goring, second in command after Hitler, surrendered on the 6th. On the same day, the 6th, the fortress city of Breslau, surrounded by the Russians, surrendered to them. On the 6th and 8th, the forces in the Channel Islands surrendered, with Churchill announcing in a radio address at 3:00 p.m. that same day that “ Hostilities will officially cease one minute after midnight today.” Jodl and Keitel surrendered unconditionally on behalf of all German forces thirty minutes after the fall of the fortress of Breslau, signing the unconditional surrender to the Americans on the morning of May 7th, repeating the same to the Russians on the 8th. The 8th became V Day for the Americans, but since it was the 9th in Russia, they celebrated the end of the war on this date. The division of Germany into four parts, governed by the Americans, the Russians, England (UK) and France, was signed on June 5th. Truman would announce the cessation of hostilities between the US and Germany on December 13, 1946. The peace treaty between the Allies and the Axis countries was signed on February 10, 1947. The Federal Republic of Germany was founded on May 23, 1949, its first government formed on September 20 of the same year. On November 22, the war allies formally declared the end of the state of war with Germany on November 22, 1949. The full authority of a sovereign state was granted to it on May 5, 1955, with special powers for England, the US and Russia, which would disappear completely on March 15, 1991. In Japan it was a little different and is worth a word. They had never lost a war, as I said, and surrendering was shameful and cowardly, since the Samurai code embedded in military culture decidedly rejected the idea of surrender, with the implicit assumption that the defeated were at the mercy of the victorious, and they themselves never showed mercy to their vanquished, being famous for the way they raped, looted and pillaged, even enslaving the people they dominated. They imagined that they would suffer the same thing, made worse by the fact that they have a culture of committing suicide if things did not go their way, which indicated serious problems for the allies in resolving all this. This was what was behind their refusal to surrender. It is impossible for us to imagine what they felt (or feel) for the emperor, who is the human personification of the Japanese nation, its culture and civilization, and for whom they were willing to die, perhaps in a collective suicide. In other words, if the emperor ceased to exist, Japan would cease with him. In a rare moment of common sense, the Americans understood this, or perhaps they had already understood this in another rare moment of madness, perhaps the greatest of all that a human being can have, when they dropped the bombs, and President Truman guaranteed in writing that Japan would not be enslaved, the emperor would continue to reign, under the authority of the Allied commander, General MacArthur. In view of this, they finally surrendered unconditionally and the document that I transcribe below was signed. A curious thing about this document, and which reveals much about the nature and condition of man, is that the copy in Japan’s possession and that in the United States differ in the following: The Allied copy was presented on leather with a gold lining and with the seals of both countries printed on the front. The Japanese copy was made on rough canvas with no seals on the front. The Canadian Representative (who was blind in one eye) signed below and not above the line and created a problem that everyone signed on the wrong line than the one intended for them, and the Japanese objected. When the discrepancy was pointed out to General Sutherland, MacArthur’s chief of staff, he crossed out the pre-printed names of the Allied nations and rewrote the titles in their correct relative positions by hand. This change was initially not accepted by the Japanese, but Sutherland then initialed each change (with an abbreviated signature). To this the Japanese representatives had no further objection. Japan was occupied for the first time in its history and was transformed into a democracy and in some ways followed the model of President Roosevelt’s New Deal. The occupation ended on September 8, 1951, and officially ended on April 28, 1952, when Japan once again became an independent country, except for the Ryuku Islands. Japan would be divided as Germany was, and it is not clear historically why this did not happen. Apparently it was Truman who arranged it. Russia got North Korea and the Kuril Islands. The US got South Korea, Okinawa, the Amami Islands, the Ogasawara Islands, and Japan’s possessions in Micronesia. China got Taiwan and Penghu.
Perhaps the greatest example validating the idea of original sin came from a people who follow a different religious tradition. I think that perhaps the greatest motivation for dropping the Atomic Bomb on them was not Pearl Harbor, but the kamikazes, demonstrating that they were willing to die rather than lose, another example of original sin. I visited Pearl Harbor in Hawaii and more than 1,000 young Americans are still down there inside the sunken ships. Interestingly, most of the visitors were Japanese, and at the entrance, when presenting the site, which is an American historical monument, the media does not make any recriminations against the Japanese, in a discourse that is surprising due to its total lack of objectivity and the lack of reference to what is implicit there, as cause and effect.
Me, R.E. Campos visiting Pearl Harbour, 1995
The Japanese surrender document reads as follows:
We, acting by order and in the name of the Emperor of Japan, the Japanese Government and the Japanese Imperial General Headquarters accept the provisions of the declaration issued by the heads of the governments of the United States, China and Great Britain on 26 July 1945 at Potsdam and subsequently confirmed by the Union of Soviet Socialist Republics, whose four powers are hereinafter referred to as the Allied Powers. We hereby announce the unconditional surrender of the Japanese Imperial General Headquarters to the Allied Powers and of all Japanese Armed Forces and all armed forces under Japanese control wherever situated. We hereby command all Japanese forces wherever situated and the Japanese people to cease hostilities immediately, to preserve and save from damage all shipping, aircraft and military and civilian property and to comply with all requirements which may be imposed by the Supreme Commander for the Allied Powers or by agencies of the Japanese Government under his direction. We hereby direct the Imperial Japanese General Headquarters to issue immediate orders to the commanders of all Japanese forces and all forces under Japanese control wherever situated to surrender unconditionally themselves and all forces under their control. We hereby order all civil, military and naval officials to obey and enforce all proclamations, orders and directives deemed by the Supreme Commander for the Allied Powers to be appropriate for effecting this surrender and issued by him or under his authority, and we order all such officials to remain at their posts and continue to perform their non-combatant duties unless specifically relieved by him or under his authority. We undertake, on behalf of the Emperor, the Japanese Government, and their successors, to carry out the provisions of the Potsdam Declaration in good faith and to issue whatever necessary orders and measures may be required by the Supreme Commander for the Allied Powers or by any other representative designated by the Allied Powers for the purpose of giving effect to this declaration. We hereby command the Imperial Japanese Government and Imperial Japanese General Headquarters to immediately release all Allied prisoners of war and civilian internees still under Japanese control and to ensure their protection, care, maintenance and immediate transportation to such places as may be indicated. The authority of the Emperor and the Japanese Government to govern the State shall be subject to the Supreme Commander for the Allied Powers who will take such measures as he deems appropriate to carry out the terms of surrender.
Signed at Tokyo Bay, Japan, at 09:04 hrs, on the second day of September, 1945 Mamoru Shigemitsu By Command and on behalf of the Emperor of Japan and the Japanese Government
Yoshijirō Umezu By Command and in behalf of the Japanese Imperial General Headquarters
Accepted at TOKYO BAY, JAPAN at 09.08 on the SECOND day of SEPTEMBER, 1945, for the United States, Republic of China, United Kingdom and the Union of Soviet Socialist Republics, and in the interests of the other United Nations at war with Japan.
And in this context, I was born on April 18, 1943, and this is the backdrop for my analysis. To complete the picture of the fundamental factors that led the United States to invade the imagination of a Brazilian born where I was born and subject to the environment I was, and to explain a little better why people like me were so attracted to and admired them, we would only have to add the Marshall Plan. And to understand how all this ended and was reversed, we have to add the Vietnam War. The American good-naturedness and the reward of having fought perhaps the only war ever considered good, can be summarized in the analysis of the American historian John W. Dover, (John W. Dower: Cultures of War: Pearl Harbor / Hiroshima / 9-11 / Iraq ) specialized in cultures, when he explains the success of the American occupation of Japan and I believe that it can be extended to Germany, Italy and all the countries that were helped by the Marshall Plan or suffered the effects of the American way of managing reality:
“Discipline, moral legitimacy, well-defined and well-articulated objectives, a clear chain of command, tolerance and flexibility in formulating and implementing policies, confidence in the state’s ability to act constructively, the ability to operate abroad free from domestic partisan politics, and the existence of a stable, resilient, sophisticated civil society on the receiving end of occupation policies—these were the political and civic virtues that helped make it possible to move forward decisively during the brief window of a few years when Japan, when defeated, was itself in flux and very receptive to radical change.” [1]
Their “bandit” aspect will be the subject of a more in-depth elaboration in this text, so that we can practice the integration of opposites that is necessary for a dialectical understanding of the USA.
If it were carried out between 2003 and 2007 it would cost around 740 billion dollars –Niall Ferguson British historian and professor at Harvard, elected one of the 100 most influential people by Time in 2004
As the European Recovery Program , it was the main United States plan for the reconstruction of the countries of Europe in the years following World War II. The initiative was named after United States Secretary of State George Marshall. The reconstruction plan was developed at a meeting of participating European states in July 1947. The Soviet Union and Eastern European countries were invited, but Joseph Stalin viewed the plan as a threat and did not allow any country under Soviet control to participate. The plan remained in operation for four fiscal years beginning in July 1947. During this period, some $13 billion in technical and economic assistance—equivalent to about $532 billion in 2006 dollars, adjusted for inflation—was provided to help the recovery of the European countries that had joined the Organization for Economic Co-operation and Development (OECD). By the time the plan was completed, the economy of every participating country, with the exception of Germany, had grown considerably above pre-war levels. For the next two decades, Western Europe would enjoy prosperity and growth. The Marshall Plan is also seen as one of the first elements of European integration, as it eliminated trade barriers and created institutions to coordinate the economy on a continental scale. One intended consequence was the systematic adoption of American administrative techniques. In recent years, historians have questioned both the true motives and the overall effects of the Marshall Plan. Some historians believe that the benefits of the plan were actually the result of laissez faire policies that allowed markets to be stabilized through economic growth. In addition, some criticize the plan for establishing a trend in the United States to help struggling foreign economies with the help of American taxpayers. With the devastation caused by the war, Europe faced increasing protests against its established governments. The United States analyzed the European crisis and concluded that it threatened the future of capitalism, which could harm its own economy and pave the way for the spread of communism. As a result, the Americans decided to help European countries recover. With this goal in mind, they created the Marshall Plan. Initially, the funds were used to buy food, fertilizers, and feed. Soon after, they began purchasing raw materials, semi-finished products, fuel, vehicles, and machinery. Approximately 70% of these goods were of American origin. In addition to benefiting from the Marshall Plan, France created its own economic recovery plan, the Monnet Plan, which was already the seed of the European Community, as it unified the production and distribution of coal and steel. England also recovered, but lost its economic and political importance. Germany and Italy also began to recover. With the creation of NATO, the United States aimed to guarantee the export of surpluses and establish economic hegemony over the old continent.
Comment (Roque)
After the Vietnam War and especially during the Iraq War, American intellectuals emerged who wanted to undermine the Marshall Plan, saying that it was nothing more than a myth, in order to attack the Republicans, who apparently are the ones who like to put the country at war. I am well aware of the quality aspect of whatever we do, (I did a Master’s on the subject) which in modern times originated with W.E.Deming’s trip to Japan to help reorganize the country, applying statistical and other techniques to deal with the chaos that reigned there. Later, the Japanese incorporated these techniques into the production of consumer goods that made them rich and famous, perhaps unbeatable in everything they produce, especially automobiles and electronics. There is no doubt about American help in this regard, and the Japanese National Quality Award is named after the American W.E.Deming. I think that one of the most harmful effects of the Vietnam War was the loss of innocence and the emptying of the naive virtue that Americans had until then, after having been the good guys who defeated Hitler. I will assume that the Marshall Plan was true, and that the image I had of Americans when I was growing up was true and largely a product of its effects. I believe that an entire generation of Brazilians (and young people from other countries), like myself, grew up and lived convinced of this, until the Vietnam War. In an attempt to conclude this perhaps excessively verbose and certainly confusing introduction, I am certain that everything, absolutely everything, that makes up the reality and day-to-day life of practically the entire Western world, especially the Americas and Europe, which for us Brazilians are our universe of reference, is linked in some way to the Second World War and the United States.
And it makes you think that computers, satellites, communications, the Internet, globalization, atomic energy, rockets, and the atomic bomb were all tremendously driven by Hitler’s madness and that all of this practically originated there. And when it wasn’t, as is the case with the computer that was “invented” by John Von Neumann in the US, it was influenced by the pressure generated by the need to confront them, as is also the case with radar. An excellent topic, exploring Nazi projects and what makes modernity…
I have two stories in which all this mixes and produces the dialectical integration that I want.
Unfortunately there is no Wikipedia entry for the film, just a synopsis.
Interestingly enough, the film opens with Ray Conniff’s Smoke Gets in Your Eyes, which is the quintessence of the “anesthetic” music that was being imposed, in the film’s plot, by the high command of the armed forces. In the film, Ray Conniff is solemnly despised, along with Percy Faith, Lawrence Welk, Frank Sinatra, etc. The music that Robin Williams’ character wants to replace reflects the revolt against the status quo and the total change of values that was taking place. The “silent majority”, who were Nixon’s voters and today are Trump’s, was represented by Ray Conniff’s music, which was despised for idealizing a world like Norman Rockwell painted…
It is difficult to verbalize or write about, such is the amount of counterpoints it brilliantly presents. It requires a little knowledge of American history and culture, and preferably English, to fully appreciate it. I would not be able, that is, I cannot, describe what one feels when watching this film and thinking, or rather, feeling, what is at stake there. Trying to do this, and simplifying in order to do so, what happens is the following: The Americans, deep down, in 1939, when the world went into turmoil, did not want to get involved and, in fact, were the characters in Norman Rockwell’s paintings. Country folk, simple, simple-minded, content to think that the meaning of life is movement, inside a Ford or a Chevrolet, going from nowhere to nowhere, unconsciously living in a world where everything comes down to a certain automatism that turns into a capitalist machine that produces, sells, discards, and produces, sells and discards, in an endless cycle, things that most of the time solve problems that do not exist, or have already been solved, making money, like rivers, flow into the sea. This sea where the 500 largest companies listed in Fortune Magazine swim. Although George Orwell had already anticipated it in general, somewhat somber terms, in his book 1984 and the thing was more like Jim Carey’s Truman Show , they have always lived in a fishbowl. A golden one, but a fishbowl. Which is the world that Reader’s Digest creates through the filter that characterizes the type of articles and stories that appear in it. And also the world that Norman Rockwell describes pictorially and Ray Conniff provides the background music… I don’t know what the meaning of life is, or why we are here. But from any perspective or way of thinking, the basic tone of the experience of being alive is suffering. Which is the only way to grow, evolve, perceive, acquire consciousness. In the world of Reader’s Digest or in Ray Conniff’s music, there is no space or expectation for this, quite the opposite, or rather, it doesn’t exist there… I believe that there are periods in people’s lives when they are completely protected from reality and isolated from contact with the “greater evil” that is rampant in the human experience. The most obvious example is when they are in their mother’s womb, isolated, protected, fed, carried… sleeping… But there always comes a time when birth happens, the light is given, the fight for survival begins, each one tries to establish the meaningful order that characterizes it, in short, it is being alive… Of course, Americans have always suffered… To avoid going too far, it is enough to mention the recession, the Civil War, the stock market crash, and everything that allowed them to reach a point that is wonderfully well reflected in the article on fear, which was published in the Saturday Evening Post and which I transcribed. As one can easily conclude, after overcoming the recession, the burden of their cross became plastic… Entering the war was completely untimely, like life, without a draft, having to learn by doing, when they woke up to the event of Pearl Harbor. I have already described the sequence and all that remains is to mention a factor that was perhaps the strongest, which allowed Americans to practically remain protected inside an imaginary womb, which was the model created by John Maynard Keynes right after the end of the war. Keynes was, in my opinion, the greatest economist of all time and his work is too broad and technically boring for the purposes I intend here. A summary can be found above on Wikipedia. Although he played an influential and important role in the First World War, or even before it, it was at the end of the Second World War that he established the significant order that governs the world to this day and that gives the United States the privileged position it occupies. What we can generically call the Bretton Woods System. When the victory of the Allies began to seem certain, Keynes was deeply involved, as leader of the delegation and chairman of the British World Bank commission, in the negotiations held in the mid-1940s that established the Bretton Woods system. Keynes’ plan, which referred to an international clearing system, advocated a radical system for currency management. He proposed the creation of a common unit of currency, the bancor, and new global institutions – a world central bank and an International Clearing Union. Keynes envisioned these institutions managing an international trade and payments system with strong incentives for countries to avoid significant trade deficits or surpluses. With its greater negotiating power, the US, however, argued that the final results should be closer to Harry Dexter White’s conservative plans. According to American economist Brad Delong, on almost every point where he was rejected by the Americans, it was later proven that Keynes was correct in the course of events. The two new institutions, later known as the World Bank and the International Monetary Fund (IMF), were founded as a compromise that largely reflected the American vision. There would be no incentive for states to avoid large trade surpluses; instead, the burden of correcting a trade imbalance would continue to fall solely on the deficit countries, which Keynes argued were the least capable of resolving the problem without causing economic hardship on their populations. Nevertheless, Keynes was still pleased to accept the final agreement, saying that if the institutions remained true to their founding principles, “the brotherhood of man will have become more than a figure of speech.” But everything is regulated by the dollar… which is American money… Made worse by the fact that what the world produces, especially the good, the excellent, the luxurious or the high quality, is to be sold in the USA… Which if they suddenly stopped buying, would bankrupt the world… Where is this in the movie Good Morning Vietnam? Although in truth the movie opens with the soundtrack of the movie “Around The World in 80 Days” , with Lawrence Welk, with his “champagne music”, who had a TV show that was one of the greatest escapisms that ever happened on American TV, I believe that “ Smoke Gets in Your Eyes ” with Ray Conniff is more perfect to communicate the drowsiness and the state of deception that Americans were living in the face of the barbarity they had gotten themselves into… Although the best-selling version of this song was by the Platters, in 1958, when it reached number one on the Billboard and similar positions on the American R&B Charts and in English-speaking countries (UK), it had a long list of other interpreters.
For Ray Conniff, it was one of the songs that characterized him and would be remembered forever, as it was on his third album, in 1958, and that propelled him to the level he enjoyed. Although the context of the story for the song is different, when transposed to what Americans were experiencing, it becomes a perfect metaphor:
Smoke Gets in Your Eyes (from the movie Roberta) Smoke Gets in Your Eyes
They asked me how I knew My true love was true Oh, I, of course, replied I naturally replied: Something here inside Cannot be denied They said someday you’ll find All who love are blind Oh, when your heart’s on fire
You must realize You must understand [that] Smoke gets in your eyes Smoke gets in your eyes…”
So I chaffed them, and I gaily laughed, To think they could doubt our love. Yet today, my love has flown away,
I am without my love
Now laughing friends deride Tears I cannot hide So I smile and say:
“when a lovely flame dies “ Smoke gets in your eyes Smoke gets in your eyes…”
Perfect!…
The irreverence of Adrian Cronauer (Robin Williams)
It represents the new generation’s awareness of the Establishment, represented by their superiors and those in charge of the radio station. One of them, Lt. Steven Hauk (Bruno Kirby), a mediocre, envious, even well-intentioned “corporate guy”, which I don’t know how to translate, and who believes he is capable of analyzing Cronauer’s (Robin Williams) humor, which would allow him to be on par with him, and which is a wonderful metaphor for the difference between those who teach and those who do, those who analyze and those who are analyzed, in a sudden “smartness”, says: “I’m also a humorist. Two of my jokes are about to be published in Reader’s Digest… Perfect… The central plot, about Robin Williams’ involvement with a Vietnamese woman and what happens, is a true parable whose homily was the lesson that Americans needed to learn to stop being simple-minded (idiots would be more correct…) and thinking that the world is populated by idiots who can’t think and everything that this implies, which is not needing to be paternalized, having their own sense of dignity, having their own values and their own culture and… best of all… fighting and imposing this even if it’s with their feet on the ground and with a bow and arrow… and, mockery of mockery, irony of ironies, making the Americans lose the first and only war they’ve ever fought… If it seems like a contradiction to what I said that I owe most of what I have to the US, and that the four freedoms existed for me, I want to remind you that this is dialectical, that is, we have to examine opposites, which is what I tried to do.
I rest my case asking: “How something like this could not have happened without a lot of evil which I will not care to examine, starting with Pearl Harbor and finishing wish Hiroshima and Nagasaki?”
The clash of traditional social structures with the 20th century and the vanishing of an era
I invite the reader to think about the effects of all what was described just before in terms of the common man and his position in society. To do this, we have to turn to literature, maybe to economists, which contextualizes the effects that the two wars had in social terms. Not necessarily in terms of importance or priority, the following authors and works come to mind:
If you are a shoemaker, you die a shoemaker, if you are a nobleman, you die a nobleman.
This concept regarding the shift in social status and the breakdown of certain social certainties after World War I is notably discussed in the work of Virginia Woolf. In her essay “Mr. Bennett and Mrs. Brown,” published in 1924, Woolf explores the changes in society and the impact of the war on social structures.
Key Points from Woolf’s Work:
Social Certainties and Class Structure:
Woolf reflects on how the certainties that once defined social status and class relationships in England were disrupted after World War I. The war acted as a catalyst for change, leading to a questioning of established norms and hierarchies.
Emergence of New Social Realities:
She argues that the war brought about a new awareness of individual identity and experience, suggesting that people could no longer be easily categorized by rigid social classes. The traditional class distinctions began to blur, leading to a more fluid understanding of social status.
Psychological and Emotional Realities:
Woolf emphasizes the psychological impact of the war on individuals, suggesting that the trauma and collective experience of the war created a sense of uncertainty and a reevaluation of social roles. This shift is reflected in the literature and culture of the time, which began to explore more complex characterizations of individuals beyond their societal roles.
Modernism and Social Change:
Woolf’s work is often associated with modernism, which sought to capture the complexities of contemporary life and the fragmentation of traditional narratives. The changes in social structure after WWI were part of this broader modernist critique of society.
Conclusion
Virginia Woolf’s “Mr. Bennett and Mrs. Brown” serves as a foundational text in understanding how World War I influenced perceptions of social status and contributed to the dismantling of rigid class structures. Her insights into the psychological and social ramifications of the war reflect the broader cultural shifts of the early 20th century.
In Europe, several authors and thinkers explored similar themes regarding the breakdown of social certainties and class structures after World War I. Here are a few notable figures:
1. Henri Bergson
Philosopher: Bergson’s work in philosophy, particularly his ideas on time, consciousness, and the nature of reality, influenced many writers. His thoughts on the fluidity of experience resonated with the post-war context and the changes in social dynamics.
2. T.S. Eliot
Poet and Critic: In his poem “The Waste Land” (1922), Eliot captures the disillusionment and fragmentation of post-war society. The poem reflects a world where traditional values and certainties have collapsed, leading to a sense of chaos and existential uncertainty.
3. James Joyce
Novelist: In works like “A Portrait of the Artist as a Young Man” (1916) and “Ulysses” (1922), Joyce explores identity, social status, and the complexities of human experience in a rapidly changing society. His stream-of-consciousness style reflects the inner lives of characters navigating a world where old certainties are being challenged.
4. Virginia Woolf (Continued Influence)
Although Woolf is British, her influence extended throughout Europe. Her ideas on the fluidity of identity and the impact of war on social structures resonated with many European writers and thinkers.
5. Hermann Hesse
Novelist and Poet: In works like “Steppenwolf” (1927), Hesse explores themes of individuality and the struggles of the self against societal expectations. The post-war context led to a reevaluation of personal identity and societal roles.
6. André Gide
Novelist: Gide’s works often examined themes of individual freedom and the constraints of societal norms. His novel “The Immoralist” (1902) reflects the tension between personal desires and societal expectations, a theme that became increasingly relevant in the post-war era.
Conclusion
These authors collectively captured the complexities of identity, social status, and the changing landscape of European society after World War I. Their works reflect a broader modernist movement that sought to understand and articulate the uncertainties and transformations of the time, similar to the contributions of Virginia Woolf.
In America
In the American context, several authors similarly explored themes of social status, identity, and the breakdown of traditional certainties after World War I. Here are a few notable figures:
1. F. Scott Fitzgerald
Novelist: In works like “The Great Gatsby” (1925), Fitzgerald examines the decline of the American Dream and the complexities of social status in the 1920s. He critiques the materialism and moral decay of post-war society, reflecting changes in class dynamics and individual identity.
2. Ernest Hemingway
Novelist: Hemingway’s works, including “The Sun Also Rises” (1926), portray the disillusionment and existential crises faced by a “lost generation” of Americans after World War I. His characters often grapple with issues of identity and the impact of war on their lives and relationships.
3. Willa Cather
Novelist: In novels like “My Ántonia” (1918) and “One of Ours” (1922), Cather explores the changing American landscape and the experiences of individuals as they navigate the complexities of social status and identity in a transforming society.
4. John Dos Passos
Novelist: In his trilogy “U.S.A.” (1930), Dos Passos captures the social and political changes in America during and after World War I. His innovative narrative style reflects the fragmentation of modern life and examines issues of class and identity.
5. T.S. Eliot (Continued Influence)
While primarily known as a British-American poet, Eliot’s work had a significant impact on American literature. His poem “The Waste Land” resonates with the themes of disillusionment and the collapse of traditional values, influencing many American writers of the time.
6. Zora Neale Hurston
Novelist and Anthropologist: In works like “Their Eyes Were Watching God” (1937), Hurston explores themes of identity and social status within the African American community, addressing the complexities of race and gender in a changing society.
Conclusion
These American authors, like Virginia Woolf in Britain, engaged with the social changes and uncertainties brought about by World War I. Their works reflect a deep exploration of identity, class, and the shifting landscape of American society in the early 20th century.
The 20th century created an era of uncertainty, which the aforementioned authors explored in their works. An economist, John Kenneth Galbraith, wrote a work that, although not literature, also explores these phenomena.
Age of Uncertainty
John Kenneth Galbraith’s “The Age of Uncertainty” (1977) is a book and a companion to a BBC television series of the same name. In this work, Galbraith examines the development of economic thought and its influence on society, politics, and culture. His focus is on how economic theories shaped the modern world, and he critically evaluates the limitations, failures, and uncertainties inherent in these theories.
Themes and Key Ideas in The Age of Uncertainty:
1. The Evolution of Economic Thought
Galbraith provides a historical overview of major economic thinkers, including Adam Smith, Karl Marx, John Maynard Keynes, and others.
He explores how their ideas emerged in response to the social and economic challenges of their times and how these ideas shaped the policies and structures of modern economies.
2. Critique of Classical Economics
He critiques the classical economic belief in free markets and the “invisible hand” (introduced by Adam Smith), arguing that unfettered markets often fail to address inequality and other social issues.
Galbraith emphasizes that the assumption of rational self-interest in markets oversimplifies complex human behavior.
3. The Rise of Corporations
Galbraith examines how corporations gained power and influence in the 20th century, shaping not only the economy but also society and politics.
He introduces the idea of “the technostructure”, a term he uses to describe the network of professionals and managers within corporations who wield significant power, often beyond market forces.
4. The Role of Government
The book discusses the expanding role of governments in managing economies, particularly in response to crises like the Great Depression and World War II.
Galbraith critiques both excessive government intervention and the laissez-faire approach, advocating for a balanced, pragmatic role of government in addressing societal needs.
5. Economic Inequality and Power
A recurring theme is the concentration of economic power and its impact on inequality.
Galbraith explores how capitalism, while driving innovation and growth, has often exacerbated disparities in wealth and income.
6. The Uncertainties of Economic Predictions
Galbraith acknowledges the limits of economic forecasting, noting that unforeseen events, such as political upheavals and technological advancements, often disrupt even the best-laid economic plans.
He emphasizes the complexity and unpredictability of economies, which makes dogmatic adherence to any single economic theory problematic.
7. Marxism and Socialism
Galbraith provides a balanced critique of Karl Marx and socialist economic systems, recognizing their insights into class struggle and economic inequality while also highlighting their practical shortcomings and failures in implementation.
8. The Keynesian Revolution
He explores the influence of John Maynard Keynes, particularly his ideas about government intervention to manage demand and stabilize economies.
Galbraith, himself a Keynesian economist, supports many of Keynes’s ideas but warns against complacency in relying solely on Keynesian methods.
9. Consumerism and Culture
The book critiques consumerism and the manipulation of consumer desires by corporations and advertisers.
Galbraith warns of a society overly focused on consumption at the expense of addressing deeper social and environmental issues.
Purpose and Tone
Galbraith’s tone is accessible and engaging, aimed at a broad audience rather than just economists. He blends economic history, critique, and philosophy with wit and insight.
He seeks to challenge dogmatic beliefs about economics and to promote a more nuanced understanding of how economic ideas interact with society and politics.
Legacy of The Age of Uncertainty
Impact on Public Understanding:
The book and TV series introduced economic history and ideas to a wide audience, sparking public interest in economic issues.
Critique of Certainty in Economics:
Galbraith’s title reflects his central argument: that economies are inherently uncertain, and simplistic solutions often fail to capture their complexity.
Relevance Today:
The themes of inequality, corporate power, and government intervention remain highly relevant in discussions about modern capitalism and economic policy.
In short, The Age of Uncertainty is a critical examination of economic history and its implications, urging readers to approach economic theories with skepticism and to consider the broader social and political contexts in which economies operate. It serves as both a historical account and a philosophical reflection on the limits of human understanding in the realm of economics.