As políticas da imagem em tempos de superexposição e vigilância

Postado em set. de 2021

Filosofia | Ciência | Sociedade

As políticas da imagem em tempos de superexposição e vigilância

Em uma sociedade cada vez mais monitorada por câmeras, gigantescos bancos de dados são abastecidos também por pessoas que postam espontaneamente fotografias e vídeos nas redes sociais e outras plataformas digitais.


Compartilhe:


O rosto é a nova digital, argumenta Giselle Beiguelman em Políticas da Imagem Vigilância e Resistência na Dadosfera, livro que ganha lançamento pela Ubu Editora. Em seis ensaios, a artista visual e professora da Faculdade de Arquitetura e Urbanismo da Universidade de São Paulo analisa, entre outros temas, as transformações em curso com o aperfeiçoamento da tecnologia de reconhecimento facial. Nada mais escapa do olhar da câmera, esteja ela nos telefones celulares, a serviço de registros oficiais ou monitorando ruas e prédios. Gigantescos bancos de dados são alimentados a cada fotografia e vídeo produzidos e vão construindo uma robusta e financeiramente valiosa teia de informações sobre os usuários e suas redes de conexões. Uma despretensiosa foto com a família postada nas redes sociais revela à luz dos algoritmos muito mais do que o autor imagina.

Em meio a uma discussão que perpassa narcisismo, ética, liberdade individual e novas estéticas e formatos audiovisuais na era do TikTok, Giselle destaca como a inteligência artificial trabalha neste presente com cara de futuro sobre conceitos prospectados no passado, ainda no século 19. Nos primórdios da fotografia, registros de criminosos inspiraram a criação de um modelo embrionário de ciência forense, que buscava definir padrões de tipos mais propensos a cometer infrações – em contrapartida, definiam-se os modelos menos “perigosos”. Daí para a teoria da eugenia, que sustentou barbáries como o nazismo, não demorou muito. Experiências recentes já apontaram uma regulagem discriminatória dos algoritmos de buscadores e redes sociais, que priorizariam na seleção de imagens de determinados grupos raciais. E não raramente surgem denúncias de pessoas negras falsamente acusadas de crimes por sistemas de reconhecimento facial.

A autora mostra como as imagens se estabeleceram como mediadoras das interações sociais e das relações afetivas. Acrescentando nessa cadeia os sistemas de segurança e comunicação forma-se uma interconexão em dupla camada, pois é através dos nossos olhos que grandes corporações a tudo observam. Vivemos, digamos, em um universo reverso da distopia totalitária do vigilante Big Brother de George Orwell. Aqui, os vigiados fazem questão de exibir eles próprios o que fazem nas 24 horas do dia. Essa infinita produção de imagens em redes sociais, nas ruas e também nos registros oficiais configuram, para Giselle, a nova estética da vigilância.

A pedido do Fronteiras do Pensamento, a Ubu Editora disponibilizou um trecho de Políticas da Imagem. Leia abaixo.

*********

O que vemos nos olha

Em O que Vemos, o que nos Olha,¹ Georges Didi-Huberman situa o olhar em um processo de partilha paradoxal. Só vemos aquilo que nos devolveria o olhar. Esse olhar, cognitivo e cúmplice, de que fala Didi-Huberman, não tem lugar no regime de visualidade algorítmica atual. O poder de olhar e de ser visto é distribuído de forma assimétrica e a multiplicação das câmeras de reconhecimento facial nas cidades esclarece essa divisão de papéis. O crescimento do mercado global desse tipo de tecnologia deve passar de 3,2 bilhões para 7 bilhões de dólares em 2024. Diante desses números, não se pode negar sua relevância econômica.²

Sua expressão social, contudo, está atrelada mais a uma mudança de paradigma de visão que à diversidade dos setores que abrange, notadamente segurança, saúde e operações financeiras. Isso porque os sistemas de reconhecimento facial buscam superar as divisões entre a visão humana e a da máquina na identificação das pessoas. Substituem, assim, “o significado das faces por uma matemática das faces, reduzindo sua complexidade e multidimensionalidade a critérios mensuráveis e previsíveis”.³

O reconhecimento facial é uma tecnologia baseada em machine learning (aprendizado de máquina), um dos pilares da inteligência artificial (IA). Funciona a partir de duas operações complementares: rastreamento e extração. O rastreamento é a tradução geométrica de características que são comuns à maior parte dos rostos. Nessa etapa, são detectados pontos nodais, como a distância entre os olhos, o comprimento do nariz e o tamanho do queixo. Esses pontos, que aparecem com frequência na iconografia relacionada a reconhecimento facial, são registrados e o resultado dessas equações é a leitura da face. No processo de extração, as características individuais que particularizam um rosto e o diferenciam de outros são calculadas, por meio de comparações com outras imagens previamente coletadas da pessoa.

Um dos algoritmos mais usados no reconhecimento facial é o eigenface. Seu nome deriva do alemão, em que o prefixo eigen significa “inerente”, “individual”, “peculiar”, “específico” e “característico” e isso esclarece muito sobre as motivações dessa tecnologia como método dotado de uma “suposta capacidade algorítmica” para distinguir o que é característico do rosto de um indivíduo e determinar a sua identidade entre as outras tantas imagens armazenadas.⁴ Mas armazenadas onde? Na massa amorfa do Big Data que é tabulada em datasets (conjunto de dados organizados), disponibilizados na internet. E quem fornece esses dados? Nós!

Importante ter em mente que o treinamento dos algoritmos para comandar o processo de reconhecimento demanda quantidades massivas de imagens. Elas são extraídas de registros oficiais, como, por exemplo, os armazenados no instituto de identificação do estado de São Paulo⁵ (o que inclui, além de biometrias, impressões digitais, fotos e dados pessoais relacionados à emissão do RG); de câmeras de vigilância instaladas no mundo todo; além de diferentes sistemas, como os dos celulares e computadores que usam nossa digital e rosto como senha. Somem-se a isso os quaquilhões de registros faciais que vamos largando pelas redes sociais, como Facebook, Instagram, YouTube e Flickr.

Ah, você nem lembrava que o Flickr existia… Mas ali se encontra um manancial de fotos com licença Creative Commons (que podem ser legalmente copiadas e compartilhadas), as quais alimentam datasets poderosíssimos. Sem dúvida, ocorre nesse processo uma distorção total da noção do que é a Creative Commons, uma licença para desbloquear direitos autorais, mas que não é adequada para proteger a privacidade individual. Algo que fica bastante evidente com a popularização das inteligências artificiais, demandando o estabelecimento de normas éticas para sua implementação.⁶

Afinal, quando alguém posta fotos do seu casamento, formatura, nascimento dos filhos, entre muitas outras selfies, não está pensando que isso será capturado por sistemas de catalogação a serviço de outras empresas. Nesse sentido, falar em reconhecimento facial diz respeito a uma nova dimensão de controle social pelas imagens que se impõe pela “fotografia inteligente” (smart photography). Digitais, essas imagens “smart” são um complexo que combina a figuração com informação e biotecnologias.⁷

A importância que a área de reconhecimento facial ganha no mercado é proporcional à sua relevância para o monitoramento dos corpos no espaço, onde quer que estejam. Quanto mais evoluem as tecnologias ambientais (ambient technologies), integrando-nos a sistemas computacionais e em rede, por meio de sensores, microfones e câmeras distribuídos em diversos objetos do cotidiano, mais recorrente se torna o processo de mapeamento do rosto. Dito de forma simples, o rosto é a nova digital. Uma vez identificado, nossa presença pode ser rastreada no espaço.

Há ainda uma série de falhas nos processos de identificação, por conta de um certo déficit de dados. Pasme: a montanha de imagens despejadas diariamente na internet ainda não é suficiente para que se consiga capturar e computar tudo e tornar os sistemas mais eficientes. Variações de iluminação e diferenças significativas na qualidade das imagens são outros fatores que explicam os erros. Outro ponto crucial desse debate é como tais sistemas incorporam e maximizam questões sociais, como o racismo, que passa a ter também dimensão algorítmica. Mas não é necessário ser pessimista demais (ou otimista, dependendo do ponto de vista) para imaginar que essas deficiências serão sanadas brevemente pelas empresas detentoras das patentes dessas tecnologias, alargando seu já nada pequeno domínio.

Os vínculos entre a história da fotografia e os dispositivos de controle social foram amplamente discutidos e são em grande parte tributários da seminal análise de Michel Foucault sobre as formas de institucionalização do poder burocrático em Vigiar e Punir, evidenciando as relações entre as biopolíticas e as tecnologias de visibilização do corpo e dos sujeitos no espaço.⁸ Mais recentemente, ao estudar as origens da fotografia, a pesquisadora israelense Ariella Azoulay mostrou de que forma o obturador fotográfico expressava os pressupostos imperialistas do século XIX, dividindo o corpo político entre “aqueles que possuem e operam os dispositivos e se apropriam e acumulam seus produtos e aqueles cuja fisionomia, recursos ou trabalho são extraídos”.⁹

Nessa esfera do colonialismo, a fotografia remete não somente aos dispositivos de vigilância, mas também à fundamentação das teorias eugenistas, que fizeram farto uso desse tipo de documentação, imbricando os estudos de representação visual com as ciências. Essa integração marca profundamente os trabalhos do cientista inglês Francis Galton (1822-1911) e do criminologista francês Alphonse Bertillon (1853-1914), confluindo para a sistematização de procedimentos até então inéditos no âmbito das técnicas de construção dos retratos.¹⁰

No caso de Galton, suas imagens constituem uma nova modalidade: o retrato composto, que ele entendia como uma modalidade de “pintura estatística”.¹¹ Já no de Bertillon, cujo nome entrou para a história definitivamente associado ao retrato falado, pode-se dizer que suas técnicas incidem mais na padronização de ângulos e enquadramentos, que alimentavam seu meticuloso arquivo de identificação criminal, do que no desenvolvimento de um repertório fotográfico propriamente dito.

Primo de Charles Darwin, Galton foi também o pai do sistema de classificação das impressões digitais e criador da eugenia. Na sua busca de melhoria da hereditariedade, acabou por aproximar-se da criminologia, campo em que aplicou fartamente a sua técnica fotográfica do retrato composto, para identificar o “tipo criminal biologicamente determinado”. Note-se, portanto, que as opções metodológicas dos dois cientistas indicam objetivos distintos: a definição de padrões gerais, decorrentes das leis hereditárias que definiriam o caráter do criminoso, em Galton, e a identificação individualizada, em Bertillon.¹² Bertillon não teve a importância e o impacto científico de Galton. Porém, por caminhos distintos, ambos contribuíram para consolidar pressupostos de exclusão social e cultural baseados na construção de tipos ideais. Esses pressupostos terão, como sabemos, consequências funestas ao longo do século XX, sendo a eugenia um dos pilares do nazismo.¹³

Diversas notícias e artigos alertam para uma retomada dos princípios do racismo científico pelos arautos da alt-right no nosso presente e as formas como seus ideais são amplamente divulgados na internet.¹⁴ O tema é relevante, especialmente se levarmos em consideração que os preconceitos desses grupos expressam uma cultura de padrões fundamental na leitura visual do mundo pelas IAs.

Não estou com isso afirmando que a inteligência artificial é uma tecnologia de extrema direita. A questão é mais complexa e demanda o entendimento de opções teóricas e políticas que levaram à dominância de um pensamento normativo nas técnicas mais comuns de processamento de dados e aprendizado de máquina, em detrimento de outras. Compreendê-las pode iluminar as aproximações e distâncias entre os métodos de Galton e Bertillon e os de programação das IAs e matizá-los em um quadro histórico, no qual outras possibilidades estavam inscritas.

Galton superpunha diversos rostos, a partir de exposições múltiplas sobre uma mesma placa. Do resultado final, apagava todos os traços individualizados para chegar a um rosto genérico que identificava um determinado perfil biológico e social. Como ele mesmo afirmou, o objetivo era chegar “com precisão mecânica” a uma “foto genérica” que não “representa nenhum homem em particular, mas retrata uma figura imaginária que possui as características médias de qualquer grupo de homens”.¹⁵

Essa técnica que procura os padrões coincidentes e apaga as individualidades contribuiria, do ponto de vista de Galton, para constituir uma política pública de melhoria da população inglesa, balizando a determinação científica de tipos supostamente ideais (socialmente convenientes) e indesejáveis (todos aqueles que não correspondem ao “padrão” de normalidade: de criminosos a portadores de doenças e judeus). Difícil aqui não concordar com o pesquisador Daniel Novak quando afirma que Galton criou um método que “transformaria a ficção fotográfica em ciência fotográfica – um corpo inexistente em um tipo derivado com precisão científica, uma ficção científica fotográfica”.¹⁶

Apesar de tanto os eigenfaces como os retratos compostos de Galton trabalharem com modelos idealizados para detectar relações de semelhança e diferença, a fim de determinar cientificamente um padrão, os objetivos são opostos. No caso de Galton, o seu método objetivava encontrar o padrão comum a um determinado grupo populacional. No caso dos algoritmos eigenfaces, o objetivo é o reconhecimento do que é particular a um indivíduo, como ocorre no método de Bertillon. Nesse sentido, o reconhecimento facial marca, em uma genealogia do olhar maquínico, um encontro estético e político das tecnologias de imagem contemporâneas com as de vigilância oitocentistas.

A face tratada, entretanto, como um território computável determina novos modelos de padronização dos corpos, em conformidade com os pressupostos das IAs. The Normalizing Machine (2018), instalação interativa do artista israelense Mushon Zer-Aviv,¹⁷ remete a essa reflexão. Nela, cada participante é apresentado a um conjunto de quatro vídeos de outros participantes gravados anteriormente e é solicitado a apontar o mais normal entre eles. A pessoa selecionada é examinada por algoritmos que adicionam sua imagem a um banco de dados projetado em uma parede que reproduz as pranchas antropométricas de Bertillon. É surpreendente ver, em segundos, nossa imagem esquadrinhada em medidas de olhos, boca, orelhas e computada com as centenas de outros participantes.

Zer-Aviv define seu projeto como um experimento na área de machine learning e do preconceito algorítmico. Lembra, no entanto, que o founding father da computação e da inteligência artificial, o matemático inglês Alan Turing (1912-1954), buscava com sua pesquisa exatamente o oposto da padronização. Em seu hoje clássico artigo “Computing Machinery and Intelligence” (1950), Turing contrariava o ponto de vista de que as máquinas fazem apenas aquilo que os humanos determinam, propondo que o aprendizado maquínico de base computacional tivesse como referência a criança e não o adulto, páginas em branco e não livros acabados.¹⁸

Não por acaso, Turing falava de máquinas de aprendizagem (learning machines) e não em aprendizado de máquina (machine learning). O desafio, dizia ele, seria conceber computadores de armazenamento ilimitado, capazes de lidar com uma programação randômica, tendo como pressuposto que “as regras que são alteradas no processo de aprendizagem são de um tipo menos pretensioso, reivindicando apenas uma validade efêmera”.¹⁹

Essa mutabilidade das regras que se adéquam aos contextos traz consigo uma ruptura com o modelo de aprendizado hierárquico e confinado a erros e acertos, aderente a sociedades altamente repressivas e intolerantes às alteridades, como aquela em que o próprio Turing, judeu e homossexual, vivia. Pode-se dizer que seu pensamento expressava uma reação a um modelo social e uma tentativa de dar uma resposta às opressões a sua pessoa, por meio de uma notação matemática “que transcenderia o tipo de preconceito sistêmico que criminalizava seu próprio desvio das normas”,²⁰ como afirma o artista Zer-Aviv. Pode-se dizer também que a inteligência artificial, em seus primórdios teóricos, estava muito mais próxima da tecnodiversidade e do modelo recursivo de que fala o filósofo chinês Yuk Hui²¹ do que do modelo normalizador que a obra de Zer-Aviv denuncia. The Normalizing Machine discute não só o que e como a sociedade estabelece como padrão de normalidade, mas de que forma os processos de IA e machine learning podem amplificar as tendências discriminatórias que as antigas teorias antropométricas calçaram séculos atrás.

A investigação obstinada de Turing o levou a quebrar o código da máquina de criptografia Enigma, que a Alemanha nazista usava para mandar mensagens militares cifradas durante a Segunda Guerra Mundial. Isso permitiu que o Reino Unido interceptasse as mensagens, localizasse os submarinos alemães e revertesse o curso do conflito. Foi uma espécie de herói anônimo da guerra, mas isso não lhe rendeu nenhuma condecoração. Vítima do arraigado antissemitismo “científico” na Inglaterra e, sobretudo, pelo “crime” da homossexualidade, ele foi afastado de seu trabalho, humilhado publicamente e condenado em 1952 a submeter-se a um tratamento hormonal que deformou seu corpo e comprometeu sua saúde. Em 1954, combalido pela castração química e pelo isolamento, suicidou-se.²²

 

Estéticas da vigilância

Diferentemente das formas analógicas de registro fotográfico, as digitais são per se relacionais. Carregam consigo não só as informações do dispositivo, localização e horário de quem fotografou, mas também permitem rastrear quem está à nossa volta. Ou você nunca se surpreendeu com o Facebook marcando suas imagens e perguntando quem são aquelas pessoas? Ou com o Google Photos, quando identifica seu filho desde a mais tenra idade nos seus álbuns e dos seus amigos?

Não me espanta que incorporemos essas funcionalidades sem estranhamento e com muita rapidez. A cultura da vigilância está a tal ponto introjetada no nosso cotidiano que não nos intimida usar um vocabulário tão policialesco como “seguir” e “ser seguido” nas redes sociais. Outros indícios dessa diluição dos parâmetros de controle e vigilância no cotidiano são o farto uso de recursos de reconhecimento facial em aplicativos, como o Facebook, que o usa desde 2010, e para composição de short videos, como o TikTok.

O que essas empresas concorrentes entre si têm em comum? Tecnologias de inteligência artificial, que também são usadas em sistemas de reconhecimento facial e multidões de usuários no mundo todo. A produção imagética que nelas circula aponta para novas estéticas e novos formatos? Sim. Aponta para um novo capítulo da história do audiovisual, com potências sem precedentes para criar um vocabulário inédito de comunicação e produção de linguagens? Sim, outra vez.

Contudo, nos seus meandros, implicam também um inequívoco processo de naturalização da vigilância. Não somente pela diluição de suas tecnologias no uso corriqueiro. Mas, acima de tudo, porque o princípio básico de melhoria dos recursos de inteligência artificial reside na sofisticação do aprendizado maquínico. Isso depende de datasets mais robustos, capazes de treinar máquinas para reconhecer os padrões com maior fidelidade. Conjuntos de dados, no entanto, não são tão artificiais assim, não brotam por geração espontânea em computadores. São as crias qualificadas do Big Data nosso de cada dia, fornecidos por nós nas ruas, nos aeroportos, nos cafés e, cada vez mais, nas redes, onde compartilhamos nossas imagens.

Essa situação nos põe diante do mais desconcertante paradoxo da política das imagens na contemporaneidade: somos vistos (supervisionados) a partir daquilo que vemos (as imagens que produzimos e os lugares em que estamos). Ou seja: os grandes olhos que nos monitoram veem pelos nossos olhos. É isso que diferencia a vigilância atual do sistema panóptico, que foi sua metáfora mais contundente até a explosão da sociedade de controle em que vivemos hoje.

 

1 Georges Didi-Huberman, “O que Vemos, o que nos Olha” [1998], 2a ed., trad. Paulo Neves. São Paulo: Editora 34, 2010.

2. MarketsandMarkets Research, “Facial Recognition: Global Forecasts to 2024”. Pune: MarketsandMarkets Research Private Ltd., 2020.

3. Sarah Kember, “Face Recognition and the Emergence of Smart Photography”. Journal of Visual Culture, n. 2, v. 13, 1 ago. 2014, p. 186.

4 Lila Lee-Morrison, “Portraits of Automated Facial Recognition: On Machinic Ways of Seeing the Face”. Bielefeld; transcript-Verlag, 2019, p. 66.

5 Refiro-me ao Laboratório de Identificação Biométrica – Facial e Digital, do Instituto de Identificação Ricardo Gumbleton Daunt (iirgd).

6 Ryan Merkley, “Use and Fair Use: Statement on Shared Images in Facial Recognition ai”, Creative Commons, 13 mar. 2019, disponível em: . Para mais detalhes sobre a licença Creative Commons, ver “Creative Commons Brasil”, Creative Commons, disponível em:
.

7 Sarah Kember, “Face Recognition and the Emergence of Smart Photography”, op. cit.

8 Michel Foucault, “Vigiar e Punir: Nascimento da Prisão”, op. cit. Para uma revisão das relações entre fotografia e vigilância dos seus primórdios até a atualidade, ver Edgar Gómez Cruz e Eric T. Meyer, “Creation and Control in the Photographic Process: iPhones and the Emerging Fifth Moment of Photography”. photographies, n. 2, v. 5, 1 set. 2012, pp. 203-21.

9 Ariella Aïsha Azoulay, “Potential History: Unlearning Imperialism”. Nova York: Verso, 2019, p. 34.

10 Allan Sekula, “The Body and the Archive”, October, n. 39, 1986, p. 18. No que tange à instrumentalidade da fotografia na conformação de parâmetros racistas, ver o detalhado e fartamente ilustrado estudo de Sandra Sofia Machado Koutsoukos, Zoológicos Humanos: Gente em Exibição na Era do Imperialismo. Campinas: Ed. da Unicamp, 2020.

11. Os retratos compostos de Galton, que analisamos mais adiante, são explicados em detalhes por ele em vários artigos, como em Francis Galton, “Composite Portraits Made by Combining Those of Many Different Persons into a Single Figure”. Journal of the Anthropological Institute, n. 8, 1879, pp. 132-48, disponível em: . Allan Sekula, “The Body and the Archive”, op. cit., p. 46.

12. Allan Sekula, “The Body and the Archive”, op. cit., p. 19.

13. Para uma exposição concisa da instrumentalização da eugenia pelo nazismo e em políticas racistas do Estado, ver Bernardo Beiguelman, “Genética, Ética e Estado (Genetics, Ethics and State)”. Brazilian Journal of Genetics, n. 3, v. 20, set. 1997, disponível em: .

14. A alt-right ou direita alternativa é um movimento internacional, de cunho nacionalista, racista e posições radicalmente conservadoras, com forte presença on-line. Fenômeno mundial, tem grande penetração nos Estados Unidos, especialmente depois da eleição de Donald Trump, em 2016. adl (Anti-Difamation League), “Alt-Right: A Primer on the New White Supremacy”, disponível em: . Para uma discussão sobre os fundamentos eugenistas das ações da alt-right na internet, ver Michael Wintroub, “Sordid Genealogies: A Conjectural History of Cambridge Analytica’s Eugenic Roots”. Humanities and Social Sciences Communications, n. 1, v. 7, 17 jul. 2020, pp. 1-16; Nicole Hemmer, “‘Scientific Racism’ Is on the Rise on the Right. But It’s Been Lurking there for Years”. Vox, 28 mar. 2017, disponível em: .

15 Francis Galton, “Composite Portraits Made by Combining Those of Many Different Persons into a Single Figure”, op. cit., pp. 132-33.

16 Daniel Novak, “A Model Jew: ‘Literary Photographs’ and the Jewish Body in Daniel Deronda”. Representations, n. 1, v. 85, 1 fev. 2004, p. 58.

17. Mushon Zer-Aviv, “The Normalizing Machine – An Experiment in Machine Learning & Algorithmic Prejudice”, 2018, disponível em: .

18. Allan M. Turing, “Computing Machinery and Intelligence”. Mind, n. 236, v. lix, 1 out. 1950, p. 456.

19. Ibid., p. 459.

20. Mushon Zer-Aviv, “The Normalizing Machine – An Experiment in Machine Learning & Algorithmic Prejudice”, op. cit.

21. Para Hui, os limites das IAs para dar conta da tecnodiversidade remetem ao fato de não serem tecnologias fundamentadas no pensamento recursivo. Esse pensamento faz parte de uma nova casualidade, elaborada no século XX. Não linear, ela “desafia a dualidade que dá sustentação às críticas formuladas desde o século XVIII – mais precisamente, a dualidade das diferenças irredutíveis entre mecanicismo e organicismo”. Esse ponto de vista, no entanto, é central nas teorias cyberfeministas e no trabalho pioneiro de Donna Haraway, aparecendo em sua obra desde o fundamental “Manifesto Cyborg”, de 1985. Yuk Hui, “Tecnodiversidade”, trad. Humberto do Amaral. São Paulo: Ubu Editora, 2020, pp. 121-23.

22. Em 2009, o primeiro-ministro da Inglaterra fez um pedido de desculpas públicas pelo tratamento dado pela Inglaterra a Alan Turing, em resposta a uma petição pública pela reabilitação de sua memória, assinada por mais de 30 mil pessoas. Na ocasião, o cientista Richard Dawkins escreveu: “Ele deveria ter sido honrado como cavaleiro e festejado como salvador da pátria. Em vez disso, esse gênio excêntrico, gago e gentil foi arruinado por um ‘crime’ cometido entre quatro paredes, que não fez mal a ninguém”. Em 2021, foi lançada, no dia do Orgulho LGBTQ+, a cédula de cinquenta libras esterlinas, que traz estampada a foto de Turing.

 

 

Compartilhe: