<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Archiving and Interchange DTD v1.0 20120330//EN" "JATS-archivearticle1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink">
  <front>
    <journal-meta />
    <article-meta>
      <title-group>
        <article-title>Uso de Inteligência Artificial Generativa e Ontologias para Indexação Temática de Imagens: Uma Abordagem Iconográfica de Panofsky1</article-title>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <string-name>Adriana Aparecida Lemos Torres</string-name>
          <email>adrianalemos.ufmg@gmail.com</email>
          <xref ref-type="aff" rid="aff0">0</xref>
          <xref ref-type="aff" rid="aff3">3</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Alexandre Alves da Rocha</string-name>
          <email>alexandrear@ufmg.br</email>
          <xref ref-type="aff" rid="aff0">0</xref>
          <xref ref-type="aff" rid="aff3">3</xref>
          <xref ref-type="aff" rid="aff4">4</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Benildes Coura Moreira dos</string-name>
          <email>benildes@gmail.com</email>
          <xref ref-type="aff" rid="aff0">0</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Santos Maculan</string-name>
          <xref ref-type="aff" rid="aff0">0</xref>
          <xref ref-type="aff" rid="aff3">3</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Gislene Rodrigues da Silva</string-name>
          <email>gislenerds@gmail.com</email>
          <xref ref-type="aff" rid="aff0">0</xref>
          <xref ref-type="aff" rid="aff1">1</xref>
          <xref ref-type="aff" rid="aff3">3</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Felipe Moreira de Assunção</string-name>
          <xref ref-type="aff" rid="aff0">0</xref>
          <xref ref-type="aff" rid="aff2">2</xref>
          <xref ref-type="aff" rid="aff5">5</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Francis Bento</string-name>
          <xref ref-type="aff" rid="aff0">0</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Marques</string-name>
          <email>fbmarques@gmail.com</email>
          <xref ref-type="aff" rid="aff0">0</xref>
          <xref ref-type="aff" rid="aff3">3</xref>
          <xref ref-type="aff" rid="aff6">6</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Elisângela Cristina Aganette</string-name>
          <email>elisangelaaganette@gmail.com</email>
          <xref ref-type="aff" rid="aff0">0</xref>
          <xref ref-type="aff" rid="aff3">3</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Amanda Jercika Carla de Oliveira Souza</string-name>
          <email>amanda.jercika@gmail.com</email>
          <xref ref-type="aff" rid="aff0">0</xref>
          <xref ref-type="aff" rid="aff3">3</xref>
        </contrib>
        <aff id="aff0">
          <label>0</label>
          <institution>Art as Expression of the Individual</institution>
          ,
          <addr-line>Enigmatic Expression, Humanism, Icon of Western Art, Ideal Beauty, Realism, Renaissance, Renaissance Art</addr-line>
          ,
          <institution>Renaissance Ideal of Female Beauty</institution>
          ,
          <addr-line>Sfumato Technique</addr-line>
        </aff>
        <aff id="aff1">
          <label>1</label>
          <institution>Universidade Carlos III de Madrid, Getafe/Madrid</institution>
          ,
          <addr-line>Espanha</addr-line>
        </aff>
        <aff id="aff2">
          <label>2</label>
          <institution>Universidade Federal de Minas Gerais, Laboratório Multiusuário de Computação Científica</institution>
          ,
          <addr-line>Belo Horizonte/MG</addr-line>
          ,
          <country country="BR">Brasil</country>
        </aff>
        <aff id="aff3">
          <label>3</label>
          <institution>Universidade Federal de Minas Gerais, Programa de Pós-Graduação em Gestão e Organização do Conhecimento</institution>
          ,
          <addr-line>Belo Horizonte/MG</addr-line>
          ,
          <country country="BR">Brasil</country>
        </aff>
        <aff id="aff4">
          <label>4</label>
          <institution>Universidade Federal de Minas Gerais, Programa de Pós-graduação em Engenharia Elétrica</institution>
          ,
          <addr-line>Belo Horizonte/MG</addr-line>
          ,
          <country country="BR">Brasil</country>
        </aff>
        <aff id="aff5">
          <label>5</label>
          <institution>Universidade Federal do Rio Grande do Sul, Laboratório de Dados, Métricas Institucionais e Reprodutibilidade Científica</institution>
          ,
          <addr-line>Porto Alegre/RS</addr-line>
          ,
          <country country="BR">Brasil</country>
        </aff>
        <aff id="aff6">
          <label>6</label>
          <institution>Universidade Federal dos Vales do Jequitinhonha e Mucuri</institution>
          ,
          <addr-line>Diamantina/MG</addr-line>
          ,
          <country country="BR">Brasil</country>
        </aff>
      </contrib-group>
      <pub-date>
        <year>2026</year>
      </pub-date>
      <fpage>90</fpage>
      <lpage>103</lpage>
      <abstract>
        <p>Resumo Este artigo apresenta uma proposta metodológica para analisar de que forma modelos de inteligência artificial generativa podem ser empregados na representação de imagens de valor histórico e cultural. A pesquisa articula três elementos centrais: o método iconográfico de Erwin Panofsky, ontologias estruturadas aplicadas à organização do conhecimento e a avaliação dos resultados gerados pela inteligência artificial com base em métricas de similaridade semântica e concordância entre termos. Os experimentos realizados com diferentes versões de modelos de linguagem, como ChatGPT e Gemini, demonstram que, embora os sistemas de inteligência artificial sejam capazes de produzir descrições com sentido próximo às elaboradas por especialistas humanos, ainda apresentam dificuldades em adotar a mesma terminologia técnica utilizada por profissionais da área. Esse resultado reforça a relevância da curadoria humana nos processos de representação e indexação, sobretudo em contextos que demandam precisão conceitual. A proposta destaca o uso articulado de ferramentas tecnológicas e conhecimento especializado, apontando caminhos para uma aplicação mais responsável e eficiente da inteligência artificial na organização de acervos visuais.</p>
      </abstract>
    </article-meta>
  </front>
  <body>
    <sec id="sec-1">
      <title>-</title>
      <p>Keywords
Knowledge organization, ontologies, thematic representation of images, generative artificial intelligence,
iconographic method, human curation</p>
    </sec>
    <sec id="sec-2">
      <title>1. Introdução</title>
      <p>A representação temática de imagens constitui um dos desafios mais complexos para a Ciência da
Informação (CI), sobretudo quando se trata de representar acervos de relevância histórico-cultural.
Fotografias de pinturas e esculturas, amplamente disseminadas em repositórios digitais,
exemplificam documentos iconográficos que demandam múltiplos níveis de interpretação: desde a
descrição de elementos visuais básicos até a compreensão de símbolos, contextos sociais e valores
culturais. Tradicionalmente, o método iconográfico de Erwin Panofsky tem sido referência para tal
tarefa, ao estruturar a análise em três níveis progressivos: pré-iconográfico, iconográfico e
iconológico, permitindo capturar camadas de significado que extrapolam a superfície visível.</p>
      <p>No entanto, a crescente escala dos acervos digitais e a diversidade de contextos de uso tornam a
indexação manual insuficiente para atender demandas de volume, precisão, consistência e
recuperação ampliada. Nesse cenário, tecnologias baseadas em Inteligência Artificial (IA),
especialmente Modelos Largos de Linguagem (LLM) com capacidade generativa, surgem como
alternativas para automatizar parte do processo de descrição. Ainda assim, a IA, isoladamente,
carece de arcabouço interpretativo para alcançar profundidade iconográfica e iconológica de forma
fidedigna.</p>
      <p>Para preencher essa lacuna, este estudo propõe integrar ontologias do contexto
históricocultural, o Conceptual Reference Model of the International Committee for Documentation of the
International Council of Museums (CIDOC CRM); o Sistema de Classificação Iconográfica criado por
Henri van de Waal para organizar e descrever imagens de obras de arte e outros materiais visuais
(Iconclass) (vocabulário iconográfico estruturado em SKOS) e oArt &amp; Architecture Thesaurus (Getty
Research Institute) (Getty AAT) (tesauro em SKOS/ISO 25964), em complemento à ontologia
CIDOC CRM. Esse conjunto fornece suporte semântico capaz de ampliar a consistência e a precisão
conceitual das descrições geradas por IA. Assim, o objetivo central deste trabalho é avaliar a
capacidade da inteligência artificial na representação temática de imagens, utilizando o método
iconográfico de Erwin Panofsky, articulado ao uso de ontologias histórico-culturais para o
enriquecimento semântico da representação.</p>
      <p>Diante desse contexto, a questão de pesquisa que orienta este estudo é: em que medida a
combinação de Inteligência Artificial Generativa (IAG) e ontologias do contexto histórico-cultural
pode enriquecer a representação temática de imagens com base no método iconográfico de Erwin
Panofsky, considerando as limitações da IAG na interpretação de significados simbólicos e a
necessidade de curadoria humana para garantir a fidedignidade semântica? Assim, propõe-se que
apenas a combinação entre IAG, ontologias estruturadas e curadoria humana seja capaz de garantir
fidedignidade semântica na representação temática de imagens complexas</p>
    </sec>
    <sec id="sec-3">
      <title>2. Bases teóricas</title>
      <p>Esta seção apresenta os fundamentos teóricos que alicerçam esta pesquisa e trata sobre a
representação temática de imagens, a utilização do método iconográfico de Erwin Panofsky e da
inteligência artificial assim como o uso de ontologias do contexto histórico-cultural para esta
indexação.</p>
      <sec id="sec-3-1">
        <title>2.1. Representação temática de imagens</title>
        <p>Na literatura da CI foi observado que não há consenso conceitual entre representação temática e
indexação, ainda que indícios de diferenciação tenham sido apresentados por autores como Fujita
(1999), Guimarães (2003, 2008, 2009) e Lancaster (2004). A representação temática foi compreendida
como atividade interpretativa de identificação dos temas centrais de um documento, enquanto a
indexação foi definida como etapa descritiva, fundamentada nos resultados dessa interpretação, em
que termos e categorias são atribuídos a partir de vocabulários controlados, tesauros ou ontologias.</p>
        <p>A representação temática de imagens foi caracterizada como processo analítico que busca
identificar, interpretar e expressar os temas centrais de recursos visuais, distinguindo-se da
indexação por corresponder a uma fase cognitiva anterior, voltada à leitura e abstração de
significados. A indexação, em contrapartida, foi descrita como atribuição formal de termos ou
códigos em sistemas documentários, com vistas à organização e recuperação da informação
(MAIMONE; GRACIOSO, 2007).</p>
        <p>
          Foi ressaltado que a indexação de imagens permanece como desafio, devido à complexidade dos
atributos visuais e à diversidade de interpretações possíveis. Nesse cenário, a fotografia foi
destacada como tipologia documental dotada de linguagem própria, assumindo múltiplas funções
em contextos de informação, memória, arte e comunicação
          <xref ref-type="bibr" rid="ref19">(TORRES; MACULAN, 2023; TORRES et
al., 2025)</xref>
          .
        </p>
        <p>Como síntese, foi enfatizado que a representação temática constitui um macroprocesso dividido
em análise conceitual (interpretação e identificação de temas e relações) e tradução (seleção e
normalização em vocabulários). A indexação correspondeu a esse segundo momento, no qual os
descritores materializam a representação nos sistemas, evitando sobreposições terminológicas e
permitindo a avaliação de resultados de Inteligência Artificial em estudos da área.</p>
      </sec>
      <sec id="sec-3-2">
        <title>2.2. Método Iconográfico de Erwin Panofsky</title>
        <p>
          A necessidade de mitigar a subjetividade dos indexadores e de aprimorar a eficiência da indexação
foi apontada como razão para a adoção de metodologias específicas na representação de
documentos iconográficos, devido às diferenças em relação aos documentos textuais
          <xref ref-type="bibr" rid="ref14 ref17">(MANINI,
2002; SMIT, 1996; TORRES, 2019)</xref>
          . Entre os modelos discutidos na literatura, destacou-se o método
iconográfico ou iconológico de Erwin Panofsky (1986), originalmente desenvolvido no campo da
História da Arte e posteriormente incorporado em análises no âmbito da CI. Esse modelo foi
reconhecido por sua contribuição à compreensão tanto de elementos visuais quanto de significados
intrínsecos e extrínsecos, em articulação com o contexto histórico-cultural de origem.
        </p>
        <p>A metodologia foi estruturada em três níveis: o pré-iconográfico, voltado à identificação de
elementos formais básicos; o iconográfico, dedicado ao reconhecimento de temas e motivos
mediante conhecimento cultural; e o iconológico, destinado à interpretação de significados
simbólicos e contextuais mais profundos, fundamentados em pesquisa histórica, social e cultural
(SILVA; DIAS, 2018). Apesar das críticas relativas à sua rigidez metodológica (GOMBRICH, 1986), o
método permanece como referência para a indexação semântica de acervos histórico-culturais e
para a área da CI.2.3</p>
      </sec>
      <sec id="sec-3-3">
        <title>2.3. Inteligência Artificial Generativa</title>
        <p>A presença da IA tem sido ampliada em diversos setores da sociedade, sendo observado que
atividades relacionadas à representação da informação também passaram a ser impactadas. Nesse
contexto, a IAG foi destacada como vertente em rápida expansão, ao possibilitar a produção de
textos e imagens por sistemas computacionais, redefinindo formas de análise e representação de
objetos visuais. Desde o surgimento, no final de 2022, dos primeiros modelos de IAG baseados em
Large Language Models (LLM), sua aplicação em diferentes áreas foi constatada, com ênfase para a
CI, em função do interesse pela forma como o conhecimento é representado nesses sistemas.
Ressaltou-se, ainda, a importância dos elementos semânticos estruturados nos Sistemas de
Organização do Conhecimento (SOC) para a representação temática (SILVA; DIAS, 2024).</p>
        <p>
          Foi evidenciado que os LLM se configuram como tecnologias proeminentes por sua capacidade
de processar e gerar linguagem natural e imagens, podendo apoiar significativamente a
representação de fotografias e sua descrição temática. Tais modelos, treinados com grandes
volumes de dados e baseados em redes neurais profundas, operam por inferências estatísticas para
gerar textos contextualizados
          <xref ref-type="bibr" rid="ref4">(BOMMASANI et al., 2021)</xref>
          . Em contextos culturais, entretanto, foi
ressaltado que os LLM não são neutros, mas agentes que também modelam narrativas e influenciam
representações simbólicas
          <xref ref-type="bibr" rid="ref3 ref4">(BENDER et al., 2021)</xref>
          .
        </p>
        <p>
          Modelos como o ChatGPT, da OpenAI, e o Gemini, do Google, foram reconhecidos como
recursos promissores na mediação informacional, ao integrarem visão computacional e
processamento de linguagem natural para o reconhecimento de padrões visuais e a inferência de
significados. Foi apontado que avanços relevantes vêm sendo obtidos na qualidade da
representação de dados e metadados, com reflexos positivos na catalogação de acervos digitais
          <xref ref-type="bibr" rid="ref20">(ZENG, 2019; MARTINS et al., 2022)</xref>
          . Além disso, quando utilizados em conjunto com ontologias, os
LLM permitem mitigar problemas de heterogeneidade semântica, ambiguidade conceitual e
ausência de contexto, viabilizando descrições e vínculos informacionais fundamentados em
conceitos, instâncias, propriedades e relações interpretáveis tanto por humanos quanto por
máquinas (FARINELLI; SOUZA, 2021).
        </p>
      </sec>
      <sec id="sec-3-4">
        <title>2.4. Sistemas de Organização do Conhecimento no patrimônio cultural</title>
        <p>
          Ontologias como a CIDOC CRM, reconhecido como padrão internacional ISO 21127:2006,
desenvolvido pelo ICOM (International Council of Museums), e vocabulários controlados como
Getty AAT e Iconclass são reconhecidas internacionalmente por modelar conhecimento em
museus, bibliotecas e arquivos. Sua integração com IA visa garantir precisão, interoperabilidade e
consistência terminológica (DOERR, 2003). Tais instrumentos de modelagem conceitual vêm sendo
adotados na Ciência da Informação para a representação descritiva, a organização do conhecimento
e a interoperabilidade entre sistemas, ao permitir a formalização de entidades, propriedades e
relações (SILVA; SOUZA, 2014). Foi observado que esses modelos podem superar limitações de
sistemas baseados apenas em palavras-chave, ao possibilitar recuperação contextualizada
          <xref ref-type="bibr" rid="ref10">(RAMALHO, 2010)</xref>
          e enriquecer a representação descritiva de documentos em ambientes digitais
(OLIVEIRA, 2020).
        </p>
        <p>Destaca-se que a atribuição de semântica à informação é realizada por meio de metadados, que
descrevem elementos em documentos textuais e características técnicas e semânticas em
documentos multimídia (GILLILAND-SWETLAND, 2000; SILVA; SOUZA, 2014). No campo do
patrimônio cultural, o CIDOC CRM foi descrito como ontologia de referência, projetada para
representar entidades, eventos, objetos e relações, possibilitando a contextualização de objetos
culturais e a realização de inferências a partir de dados complexos (SILVA; SOUZA, 2014). De forma
complementar, vocabulários controlados como Getty AAT e Iconclass foram utilizados para
descrever conceitos artísticos e iconográficos, assegurando granularidade e padronização
terminológica. Também foi destacada a utilização da Wikidata como ambiente de interligação
semântica e publicação de dados culturais em acesso aberto (MARCONDES, 2016).</p>
        <p>No contexto europeu, o Europeana Data Model (EDM) foi desenvolvido como estrutura
semântica para promover interoperabilidade entre instituições culturais, fundamentado em padrões
da Web Semântica como RDF(S), SKOS, OAI-ORE e Dublin Core (DOERR et al., 2010). Esse modelo
adota abordagens centradas em objetos e eventos, permitindo associações mais ricas e maior
contextualização de dados (CARRASCO; VIDOTTI, 2018), além de viabilizar a publicação de
metadados como Linked Open Data, conectando informações culturais a outros recursos na Web
(HASLHOFER; ISAAC, 2011).</p>
      </sec>
    </sec>
    <sec id="sec-4">
      <title>3. Metodologia</title>
      <p>Este estudo adota uma abordagem exploratória, pois visa compreender um campo ainda recente na
CI, que é o uso IAG no processo de indexação de imagens utilizando um método já consolidado,
que é o proposto por Panofsky. Essa aplicação foi articulada com o uso de ontologias e vocabulários
controlados. A pesquisa é considerada de natureza qualitativa, pois tem o objetivo de compreender
o fenômeno do uso da IAG no processo de indexação, que até então, era realizada majoritariamente
por humanos. Também se aplica a análise quantitativa ao comparar a capacidade da IAG elaborar
termos relevantes em relação ao Modelo Referencial Colaborativo de Indexação (MRCI). Dessa
forma, aplicou-se métricas estatísticas, como o coeficiente Kappa de Cohen e a similaridade de
cosseno baseada em embeddings semânticos. A partir disso, comparou-se a proximidade entre a
indexação realizada por humanos e as que foram geradas por IAG.</p>
      <sec id="sec-4-1">
        <title>3.1. Justificativa da abordagem</title>
        <p>A escolha do método iconográfico de Panofsky justifica-se por sua robustez conceitual e sua
tradição consolidada tanto na História da Arte quanto na CI. Diferentemente de abordagens
baseadas apenas em descritores formais ou metadados técnicos, Panofsky organiza a leitura em três
níveis complementares, ideal para testar em que medida a IAG consegue avançar da leitura factual
automatizada para níveis de interpretação mais profundos, mediada por ontologias e curadoria
humana.</p>
        <p>A IAG, representada pelo ChatGPT e pelo Gemini, foi escolhida por sua comprovada capacidade
de gerar texto coeso a partir de insumos visuais, por sua base multimodal robusta e por sua
acessibilidade para aplicações acadêmicas. Entretanto, reconhece-se que modelos generalistas não
foram treinados especificamente para interpretação iconográfica, o que torna este teste pioneiro em
demonstrar potenciais e lacunas.</p>
        <p>Para enriquecer semanticamente a descrição, as saídas geradas pela IAG serão mapeadas e
refinadas por meio de SOC reconhecidos no campo do patrimônio cultural: a ontologia CIDOC
CRM e os vocabulários controlados (em SKOS) Iconclass, Getty AAT, Wikidata e EDM. Esta seleção
baseia-se em referencial teórico que aponta sua robustez em capturar relações conceituais,
hierarquias e vocabulário controlado no contexto histórico-cultural, fundamentais para representar
as imagens deste contexto e nos níveis iconográfico e iconológico do modelo de Panofsky. Nesse
contexto, as ontologias e os vocabulários controlados histórico-culturais selecionados cumprem o
papel de suporte semântico estruturado, oferecendo controle de vocabulário, relações conceituais e
contexto histórico necessários para enriquecer a descrição automática e reduzir ambiguidades.</p>
      </sec>
      <sec id="sec-4-2">
        <title>3.2. Amostra de imagens</title>
        <p>O corpus foi composto por imagens fotográficas de duas tipologias distintas de obras de arte: uma
pintura (Mona Lisa) e um conjunto de esculturas em madeira e pedra do Aleijadinho (A Última
Ceia), conforme apresentado no quadro 1.</p>
        <sec id="sec-4-2-1">
          <title>Quadro 1</title>
          <p>Amostra de imagens usadas para a indexação</p>
          <p>Imagem 1</p>
          <p>Imagem 2
Pintura: Mona Lisa (1503-1506) Esculturas: A Última Ceia
Pintor: Leonardo da Vinci Escultor: Antônio Francisco Lisboa, o Aleijadinho
Fotografia: C2RMF: Galerie de tableaux en (1730- 1814)
très haute définition Fotógrafa: Lila Cruz
Fonte:Wikimedia Commons
https://w.wiki/6C2o
Fonte: elaborado pelos autores (2025).</p>
          <p>A seleção destas obras se fundamenta em quatro critérios principais: 1) Contexto comum:
cenário histórico-cultural; 2) Consagração cultural: são objetos de estudo amplamente
referenciados, o que facilita a validação das interpretações automatizadas com descrições
especializadas já consolidadas; 3) Contraste técnico e material: pintura e escultura apresentam
diferenças na técnica de execução, materialidade, cor, forma e textura, o que permite analisar se tais
variações impactam o desempenho da IAG; e 4) Unificação documental: ambas as obras são
representadas no experimento por fotografias digitais, igualando o formato de entrada para os
modelos de IA. Além disso, se baseia em Panofsky (1986) quando destaca que o uso de obras
canônicas favorece a validação, pois apresentam interpretações iconográficas consolidadas, o que
permite contrastar os resultados com leituras já reconhecidas.</p>
        </sec>
      </sec>
      <sec id="sec-4-3">
        <title>3.3. Testes</title>
        <p>Foram conduzidos dois testes distintos para cada imagem analisada. O Teste 1 (T1) consistiu na
aplicação do método de Panofsky a partir de um único prompt, no qual se solicitava a geração de
três listas correspondentes aos níveis pré-iconográfico, iconográfico e iconológico. As instruções
determinavam o uso de termos e códigos de vocabulários controlados (Iconclass, Getty AAT,
CIDOC CRM), com a exigência de indicar “sem correspondência” quando não houvesse
alinhamento direto. O Teste 2 (T2) adotou uma estratégia encadeada de prompts. Nesse caso, o
modelo recebia instruções sucessivas: (i) listar apenas elementos visuais observáveis (nível
préiconográfico), (ii) identificar temas/motivos (nível iconográfico) e (iii) interpretar significados e
valores culturais (nível iconológico). Após essa sequência, aplicou-se um quarto prompt idêntico ao
T1, de modo a gerar uma saída consolidada e permitir a comparação entre os dois desenhos
experimentais. A engenharia de prompts é sintetizada no quadro 2.</p>
        <sec id="sec-4-3-1">
          <title>Quadro 2</title>
          <p>Esquema de Testes e Instruções segundo os Níveis de Panofsky</p>
          <p>Teste</p>
          <p>T1
T2a
T2b
T2c
T2d</p>
          <p>Exemplo de instrução
“Leia a imagem X e produza três listas correspondentes aos níveis de
Panofsky (pré-iconográfico, iconográfico e iconológico). Sempre que
possível, utilize termos/códigos de Iconclass, AAT e CIDOC CRM;
quando não houver correspondência, indique explicitamente ‘sem</p>
          <p>correspondência’.”
“Liste apenas os elementos visuais observáveis (formas, cores,
personagens), mapeando-os para termos do AAT e Iconclass quando</p>
          <p>aplicável.”
“Identifique os temas/motivos presentes na imagem, utilizando códigos</p>
          <p>do Iconclass.”
“Explique os significados e valores culturais subjacentes, registrando
termos de AAT ou CIDOC CRM quando disponíveis.”</p>
          <p>(idêntico ao T1)
Fonte: elaborado pelos autores (2025).</p>
          <p>Objetivo
Avaliar desempenho em um</p>
          <p>único prompt
Pré-iconográfico</p>
          <p>Iconográfico</p>
          <p>Iconológico
Consolidação para
comparação</p>
          <p>Diversas iterações foram realizadas até a definição final dosprompts. Todos os experimentos
foram conduzidos em ambiente anônimo, sem memória de conversas anteriores e com os
parâmetros padrão dos modelos, sem calibragem adicional de temperature, top-p ou limite de tokens.
Essa padronização assegura que as diferenças nos resultados decorrem do comportamento
intrínseco dos modelos, e não de ajustes externos.</p>
          <p>
            Importante destacar que os modelos de IAG não apresentam comportamento determinístico: a
geração textual é um processo probabilístico, resultando em múltiplas saídas possíveis para o
mesmo input
            <xref ref-type="bibr" rid="ref21 ref9">(HOLTZMAN et al., 2019; RADFORD et al., 2019; ZHANG et al., 2020)</xref>
            . Para mitigar
esse efeito, foi executada uma rodada padronizada de testes, assegurando consistência e
comparabilidade entre T1 e T2.
          </p>
        </sec>
      </sec>
      <sec id="sec-4-4">
        <title>3.4. Procedimentos</title>
        <p>O experimento segue cinco etapas articuladas: 1) Seleção e padronização do corpus de imagens,
garantindo qualidade técnica e contexto histórico homogêneo; 2) Anotação manual por
especialistas com base no método de Panofsky, categorizando cada imagem nos três níveis
(préiconográfico, iconográfico e iconológico); 3) Apresentação do MRCI. O MRCI foi construído por 5
especialistas da área de Biblioteconomia e CI, que realizaram anotações independentes das imagens
segundo os três níveis de Panofsky, utilizando como referência os vocabulários controlados (AAT,
Iconclass) e a ontologia CIDOC CRM. Em seguida, aplicou-se um processo de consenso:
discrepâncias foram discutidas coletivamente, registrando-se as decisões de inclusão ou exclusão de
termos, com preferência por rótulos prefLabel em SKOS. O resultado final foi consolidado em listas
estruturadas por nível, contendo rótulos e códigos correspondentes sempre que disponíveis. O
MRCI constitui o padrão humano de referência para comparação com as saídas das IAGs; 4)
Geração de descrições automáticas utilizando ChatGPT e Gemini, com prompts ajustados para
leitura nos três níveis de Panofsky e com a orientação de recorrer aos SOC selecionados (CIDOC
CRM, AAT, Iconclass, EDM, Wikidata); 5) Validação e comparação dos resultados. As saídas das
IAG foram verificadas quanto a inconsistências, lacunas e imprecisões, sendo confrontadas com o
MRCI. Essa comparação permitiu mensurar o grau de alinhamento entre indexação humana e
automática.</p>
      </sec>
      <sec id="sec-4-5">
        <title>3.5. Análise de resultados: Métricas qualitativas e quantitativas</title>
        <p>A análise integrará dimensões qualitativas e quantitativas. No aspecto qualitativo, serão avaliadas
coerência, profundidade interpretativa e consistência entre os níveis de Panofsky nas descrições
geradas e conformidade com as ontologias utilizadas.</p>
        <p>No aspecto quantitativo, a avaliação será baseada em métricas estatísticas utilizadas para
mensurar a concordância entre classificadores, incluindo o coeficiente Kappa de Cohen e a
similaridade de cosseno (COHEN, 1960). O coeficiente Kappa será aplicado para quantificar a
concordância entre as categorias atribuídas pelo Modelo Referencial Colaborativo de Indexação
(MRCI) e pelas IA, considerando a influência de concordâncias ocorridas ao acaso. Para isso, as
descrições serão organizadas em matriz de contingência, a partir da qual serão calculadas as
proporções de concordância observada (P₀) e esperada ao acaso (Pₑ), segundo a equação
k =( P0 - Pe ) / ( 1 - Pe ), em que valores próximos de 1 indicam alta concordância, e valores
inferiores a 0,40, baixa correspondência.</p>
        <p>A similaridade de cosseno será utilizada para examinar a proximidade semântica entre
descritores humanos e aqueles gerados pelas IA. As descrições textuais serão convertidas em
representações vetoriais por meio do modelo BERTimbau, que captura relações semânticas entre
palavras e expressões (SOUZA; NOGUEIRA; LOTUFO, 2020). A equação cos(θ) = ( A · B ) / ( |A| · |
B| ) permitirá avaliar se a IA interpreta corretamente não apenas os elementos descritivos
explícitos, mas também os significados subjacentes nas análises iconográficas, sendo valores
próximos de 1 indicativos de alta semelhança semântica, e valores inferiores a 0,5, de baixa
correlação.</p>
      </sec>
    </sec>
    <sec id="sec-5">
      <title>4. Resultados e análises</title>
      <p>A avaliação da indexação foi conduzida por meio de uma abordagem comparativa entre a atividade
realizada por especialistas humanos e a gerada por inteligência artificial. O objetivo principal desta
análise foi determinar a eficiência e as limitações dos modelos de IA empregados, verificando sua
capacidade de replicar estruturas interpretativas estabelecidas por metodologias tradicionais e com
o uso de ontologias e tesauros.</p>
      <p>Os principais aspectos considerados na avaliação incluem: 1) Precisão da indexação: Grau de
concordância entre os descritores atribuídos pela IA e aqueles definidos por especialistas; 2)
Capacidade de abstração: Identificação de padrões semânticos e contextuais em diferentes níveis de
interpretação iconográfica; 3) Consistência na categorização: Uniformidade dos descritores gerados
ao longo do conjunto de dados;4) Identificação de limitações: Diagnóstico de possíveis falhas do
modelo, como dificuldades na interpretação de simbolismos culturais ou presença de viés
algorítmico.</p>
      <sec id="sec-5-1">
        <title>4.1. Resultados da indexação</title>
        <p>Após a realização das indexações das duas imagens da amostra - Mona Lisa e A Última Ceia - pelas
ferramentas de IAG (ChatGPT e Gemini) utilizando dois testes (T1 e T2), os resultados obtidos
foram tratados, tendo alguns exemplos expostos no quadro 2.</p>
        <p>Os testes foram realizados com duas versões do ChatGPT (ChatGPT 4o e ChatGPT 4o-mini) e
duas versões do Gemini (Gemini Flash 2.5 e Gemini Flash Pro). O quadro 3 apresenta apenas uma
seleção dos resultados: o teste T1 realizado com o Gemini Flash Pro, o teste T2 com o ChatGPT,
além do MRCI. De modo geral, observou-se que os resultados variaram entre as versões, e que cada
uma também produziu respostas distintas nos dois tipos de teste (T1 e T2). No primeiro, foi
utilizado um único prompt; no segundo, adotou-se uma sequência de prompts interdependentes,
com o objetivo de fornecer maior contexto à IAG. Após essa construção de contexto, aplicou-se o
mesmo prompt final utilizado no T1. O MRCI apresentado, foi o padrão utilizado para as análises
quantitativas apresentadas na próxima seção.</p>
        <sec id="sec-5-1-1">
          <title>Quadro 3</title>
          <p>Resultados das indexações da imagem da Mona Lisa realizadas pelas IAG e por profissionais da CI</p>
          <p>IA ou
Profissional
Gemini Flash</p>
          <p>Pro
(T1)
ChatGPT 4o</p>
          <p>(T2)
Profissional
humano
(Modelo
Referencial
Colaborativo
de Indexação)</p>
          <p>1 -
Préiconográfico
Dress, Landscape,
ManMade Object, Oil paint,
Painting (visual work),
Portrait of a woman,
Sitting, Woman
Oil painting, Panel
painting, Physical
ManMade Stuff, Physical
Thing, Portraits of
individuals
Background Landscape,
Dark Dress, Frontal
View, Half-Length,
Hands One Over the
Other, Painting,
Portrait, Seated
Woman, Soft Lighting
(Sfumato), Woman
Fonte: elaborado pelos autores (2025).</p>
        </sec>
      </sec>
      <sec id="sec-5-2">
        <title>4.2. Análises de coeficientes</title>
        <p>2 - Iconográfico</p>
        <p>3 - Iconológico
Creation, Leonardo da Vinci,
Lisa Gherardini, Louvre
Museum, Mona Lisa, Portrait,
Portrait of historical
personage, 'LISA DEL
GIOCONDO'
Lisa del Giocondo, Mona
Lisa, Portrait, Portrait of a
woman, Renaissance
15th-16th Century Painting
Technique, Enigmatic Smile,
Harmony Between Figure
and Background Nature,
Leonardo da Vinci, Lisa
Gherardini, Louvre Museum,
Mona Lisa, Oil Painting on
Wood, Renaissance,
Renaissance Portrait</p>
        <p>Aerial perspective, Beauty,
'Venustas'; 'Bellezza' (Ripa),
Propositional Object, High
Renaissance, Humanism,
Idealism, providedCHO
(Provided Cultural
Heritage Object), Sfumato
Actor, Time-Span, Place,
Recurso Cultural Provido,
Sfumato, Mystery,
Landscape
A aplicação do coeficiente Kappa de Cohen e da medida de similaridade semântica obtida a partir
dos vetores gerados pelo modelo BERTimbau permitiu avaliar, com critérios complementares, a
correspondência entre os resultados produzidos pelas IAG e o Modelo Referencial Colaborativo de
Indexação, considerando tanto a concordância terminológica quanto a proximidade de sentido
entre os termos utilizados.</p>
        <p>Os resultados de similaridades das indexações das IAG referente à imagem da Mona Lisa frente
ao MRCI são apresentados no quadro 4 e mostram alta similaridade semântica contrapondo à baixa
similaridade de termos (leve ou pobre).</p>
        <sec id="sec-5-2-1">
          <title>Quadro 4</title>
          <p>Resultados de similaridades das indexações da imagem da Mona Lisa realizadas pelas IAG e por
profissionais da CI.</p>
          <p>Avaliador 2 Similaridade
(Profissionais da BERTimbau</p>
          <p>CI)</p>
          <p>MRCI 0.81</p>
          <p>Os dados revelam um padrão recorrente: embora todos os modelos de IAG tenham alcançado
altos índices de similaridade semântica — com valores variando de 0.81 a 0.95 nas métricas obtidas
via modelo BERTimbau —, os valores do coeficiente Kappa de Cohen permaneceram
consistentemente baixos, oscilando entre 0.00 e -0.10, indicando leve ou pobre concordância em
termos exatos utilizados. Esse contraste evidencia que, apesar de os modelos conseguirem captar o
sentido geral ou semântico das indexações humanas, eles não reproduzem com precisão os mesmos
termos escolhidos pelos profissionais que elaboraram o MRCI. Ou seja, há convergência de sentido,
mas divergência na escolha lexical ou terminológica, o que é particularmente relevante em
contextos de representação do conhecimento e organização da informação, onde a terminologia
controlada é fundamental.</p>
          <p>Destaca-se que os testes T2, que envolveram a aplicação de prompts em sequência para
construção de contexto, não resultaram em ganhos na concordância terminológica em comparação
aos testes do tipo T1, que utilizaram apenas um prompt. Isso indica que a introdução de mais
contexto semântico não foi suficiente para alinhar a linguagem das IAGs à terminologia
especializada usada por indexadores humanos. Observa-se, ainda, que entre os modelos avaliados, o
Gemini Flash Pro (T2) foi o único a apresentar um coeficiente Kappa negativo (-0.10), classificado
como "pobre", sugerindo uma tendência à discordância terminológica mesmo quando há
entendimento semântico global.</p>
          <p>O quadro 5 apresenta os resultados de similaridades das indexações das IAG referente à imagem
de A Última Ceia frente ao MRCI. Da mesma maneira que ocorreu com os resultados da Mona Lisa,
os resultados mostraram alta similaridade semântica contrapondo à baixa similaridade de termos
(leve ou pobre).</p>
        </sec>
        <sec id="sec-5-2-2">
          <title>Quadro 5</title>
          <p>Resultados de similaridades das indexações da imagem de A Última Ceia realizadas pelas IAG e por
profissionais da CI</p>
          <p>Avaliador 2
(Profissionais
da CI)
MRCI</p>
          <p>Similaridade</p>
          <p>BERTimbau</p>
          <p>Os resultados obtidos para a imagem A Última Ceia mantêm o padrão identificado
anteriormente, mas adicionam nuances importantes à interpretação geral sobre o desempenho das
IAG em tarefas de indexação. Embora os índices de similaridade semântica permaneçam elevados
em todas as combinações de modelo e tipo de teste, observa-se uma ligeira ampliação na variação
dos coeficientes Kappa, com destaque para dois casos de concordância classificada como pobre,
ambos registrados nos teste T1 dos modelos Gemini Flash 2.5 e Gemini Flash Pro. A presença desses
coeficientes negativos sugere não apenas uma baixa sobreposição de termos, mas também uma
tendência à divergência sistemática em relação à terminologia adotada pelos profissionais da área.
Isso indica que, mesmo quando os modelos compreendem corretamente o conteúdo ou sentido da
imagem — como evidenciado pelos altos valores de similaridade semântica —, as escolhas lexicais
feitas pelas IAGs podem se afastar significativamente dos critérios técnicos e padronizados de
indexação humana.</p>
          <p>Outro aspecto que merece atenção é a sutil diferença nos desempenhos entre os testes T1 e T2,
especialmente no caso do modelo ChatGPT 4o-mini, que apresentou leve aumento na concordância
terminológica no teste T2. Esse comportamento, ainda que limitado, sugere que a introdução de
contexto adicional pode exercer influência positiva, ainda que modesta, na capacidade das IAGs de
se aproximarem das escolhas humanas em termos terminológicos. No entanto, essa variação
pontual não foi suficiente para alterar a tendência geral, e permanece o indicativo de que a
estratégia de prompts interdependentes, tal como aplicada neste estudo, não constituiu uma
solução determinante para a convergência terminológica.</p>
          <p>Essa constatação abre espaço para reflexões metodológicas mais amplas. A manutenção de alta
similaridade semântica associada a baixa concordância de termos reforça a ideia de que as IAGs
operam com modelo de linguagem baseado em probabilidade contextual, e não em sistemas
conceituais formalizados, como é o caso de tesauros, ontologias ou vocabulários controlados
utilizados por profissionais da área de representação do conhecimento. Tal descompasso entre
compreensão de sentido e aderência terminológica evidencia a necessidade de estratégias
complementares, como o alinhamento das saídas das IAGs às bases terminológicas estruturadas ou
a incorporação de mecanismos de restrição lexical nas interações com os modelos.</p>
          <p>Portanto, os resultados referentes à imagem A Última Ceia não apenas reforçam os achados
observados na análise da Mona Lisa, mas também introduzem elementos que tornam ainda mais
evidente o desafio da integração plena entre sistemas baseados em inteligência artificial e práticas
tradicionais de representação do conhecimento. O conjunto dos dados analisados sugere que, no
estado atual da tecnologia, as IAGs se mostram mais adequadas como instrumentos de apoio à
geração de descritores preliminares, cabendo aos profissionais a função de validar, corrigir e
alinhar esses termos às estruturas conceituais e linguísticas de vocabulários controlados e
ontologias.</p>
        </sec>
      </sec>
      <sec id="sec-5-3">
        <title>4.3. Análises de resultados</title>
        <p>A partir das análises realizadas neste estudo, ficou evidente que os modelos de IAG, embora
apresentem elevada competência na formulação de descrições semanticamente coerentes, ainda
enfrentam dificuldades substanciais no alinhamento terminológico com vocabulários controlados.
Este descompasso não apenas reforça os limites técnicos desses sistemas, mas também se insere em
uma discussão mais ampla sobre a confiabilidade da informação gerada por IAs, especialmente à luz
do fenômeno conhecido como alucinação.</p>
        <p>As alucinações em IAG, conforme discutido por Barria Huidobro (2024), são entendidas como a
geração de conteúdos imprecisos, enganosos ou factualmente incorretos, mesmo quando a
estrutura sintática e semântica parece plausível. Embora o presente estudo não tenha se dedicado
especificamente à detecção de alucinações, a ausência de concordância terminológica, mesmo
diante de alta similaridade semântica, pode sinalizar traços iniciais desse fenômeno em domínios
especializados como a indexação de imagens. Foi possível verificar nos resultados várias
divergências entre as informações produzidas pelas IAGs e as informações reais das ontologias e
tesauros analisados, como os descritores e seus respectivos códigos, descrições e fontes. As
informações errôneas obtidas pelas IAG são consideradas graves, especialmente quando se trata de
contextos que demandam precisão conceitual e terminológica e aderência a sistemas normativos de
representação do conhecimento.</p>
        <p>Estudos como o de Correa Busquets &amp; Maccarini Llorens (2023) reforçam a importância de
mecanismos de autossupervisão e modelos de verificação para mitigar tais ocorrências. No campo
da representação da informação, isso pode significar a integração de mecanismos de validação
semântica e terminológica diretamente nos fluxos de trabalho com IAG, combinando as
potencialidades da IA com a robustez das estruturas ontológicas, tesauros e outras formas de
controle de vocabulário já consolidadas. Essa perspectiva se alinha ao conceito de inteligência
artificial aumentada, em que o conhecimento produzido pelas IAGs é avaliado, complementado e
ajustado por profissionais humanos, promovendo um modelo colaborativo que valoriza tanto a
escala e agilidade dos sistemas computacionais quanto o julgamento crítico e a expertise conceitual
da curadoria humana (SOUZA; LIMA, 2025). Sob uma perspectiva mais ampla, Lemos (2024) propõe
que falhas e erros nos sistemas digitais, incluindo as alucinações, podem funcionar como elementos
reveladores de camadas profundas dos objetos e das mediações tecnológicas. Assim, o
comportamento dos modelos de linguagem ao descrever obras visuais clássicas, como A Última
Ceia e Mona Lisa, revela tensões epistemológicas entre o funcionamento algorítmico probabilístico
e as exigências de precisão conceitual próprias da indexação humana.</p>
        <p>Diante disso, os resultados apresentados neste estudo não apenas evidenciam a atual capacidade
das IAG na compreensão de conteúdos complexos, mas também apontam para a necessidade de
desenvolvimento de métodos híbridos, nos quais a colaboração entre máquinas e especialistas seja
mediada por critérios técnicos claros, mecanismos de verificação e sensibilidade crítica.</p>
      </sec>
    </sec>
    <sec id="sec-6">
      <title>5. Considerações finais</title>
      <p>O estudo foi apresentado como contribuição ao campo das ontologias aplicadas, ao se explorar seu
uso prático na qualificação de sistemas de Inteligência Artificial Generativa voltados à
representação de documentos iconográficos. Foi evidenciado que a inovação metodológica se
encontra na triangulação entre o método iconográfico de Panofsky, o emprego de ontologias
controladas e a avaliação automatizada por coeficiente Kappa de Cohen e similaridade semântica
baseada no modelo BERTimbau, organizados em um fluxo integrado de análise. A integração de
indexação temática, ontologias e IA generativa em protocolo auditável foi destacada como
abordagem inédita.</p>
      <p>Foi ressaltada a relevância social da pesquisa, uma vez que o papel humano na validação e
curadoria do conhecimento produzido foi considerado indispensável, demonstrando a
complementaridade entre expertise humana e inteligência artificial. A análise de obras de Leonardo
da Vinci e Aleijadinho foi utilizada como contraponto metodológico para valorizar semelhanças e
diferenças no processo de indexação automática.</p>
      <p>Os resultados mostraram que, embora alta similaridade semântica com referenciais humanos
tenha sido alcançada pelas IAG, a concordância terminológica permaneceu baixa, revelando
limitações quanto à aderência a esquemas conceituais formalizados. Reforçou-se, assim, a
necessidade da curadoria humana para garantir precisão e consistência terminológica,
especialmente em contextos que exigem padronização e interoperabilidade semântica.</p>
      <p>Foi indicado que a pesquisa possui caráter exploratório, sendo recomendada sua continuidade
por meio da ampliação do corpus, do refinamento das ontologias, da incorporação de datasets com
metadados controlados e da aplicação dos métodos em acervos reais. Tais perspectivas foram
apontadas para consolidação de abordagens híbridas entre inteligência artificial e conhecimento
estruturado como caminhos eficazes, éticos e sustentáveis na preservação, interpretação e acesso ao
patrimônio cultural.</p>
    </sec>
    <sec id="sec-7">
      <title>Agradecimentos</title>
      <p>Ao Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) pelo apoio à pesquisa
(Processo 307765/2023-7; Autor 3 e Processo 306386/2025-9, Autor 7). A Fundação de Amparo à
Pesquisa do Estado de Minas Gerais (FAPEMIG) – Programa de Apoio à Pós-Graduação (PAG) pelo
apoio à pesquisa (Identificador 13473, Autor 8).</p>
    </sec>
    <sec id="sec-8">
      <title>Declaração sobre IA Generativa</title>
      <p>Neste trabalho, foi explorado o uso de inteligência artificial generativa, especificamente os modelos
ChatGPT (4o e o4-mini) e Gemini (2.5 Flash e 2.5 Pro), em conjunto com ontologias, para a análise e
representação temática de imagens. As ferramentas foram empregadas na identificação de
elementos visuais e no apoio à interpretação de significados em níveis pré-iconográfico,
iconográfico e iconológico, com foco em tarefas que demandam conhecimento técnico
especializado. Todo o processo foi acompanhado pela equipe de pesquisa, e os resultados foram
revisados e validados, sendo assumida integral responsabilidade pelos conteúdos apresentados.
Referências
[6] J. A. Cohen. A coefficient of agreement for nominal scales. Educational and Psychological</p>
      <p>Measurement, v. 20, n. 1, p. 37-46, 1960. doi: 10.1177/001316446002000104.
[7] M. Doerr. The CIDOC CRM — an ontological approach to semantic interoperability of
metadata. AI Magazine, v. 24, n. 3, p. 75–92, 2003.
[8] M. Doerr, S. Gradmann, S. Hennicke, A. Isaac, C. Meghini, H. Van de Sompel. The Europeana</p>
      <p>Data Model (EDM). 2010. URL: https://www.researchgate.net/publication/303058300.
[9] F. Farinelli, A. Souza. Ontologias de alto nível: porque precisamos e como usar. 1. 2021, pp.
174202.
[10] M. S. L. Fujita. A leitura do indexador: estudo de observação. Perspectivas em Ciência da
Informação, Belo Horizonte, v. 4, n. 1, 1999, pp. 101–116. URL:
http://portaldeperiodicos.eci.ufmg.br/index.php/pci/article/view/597.
[11] A. J. Gilliland-Swetland. Enduring paradigm, new opportunities: the value of the archival
perspective in the digital environment. Washington, DC: Council on Library and Information
Resources, Digital Library Federation, 2000. URL: https://files.eric.ed.gov/fulltext/ED440660.pdf.
[12] E. H. Gombrich. Arte e Ilusão: um estudo da psicologia da representação pictórica. 5. ed. Rio de</p>
      <p>Janeiro: LTC, 1986.
[13] E. H. Gombrich. Imágenes simbólicas: estudios sobre el arte del Renacimiento. Madrid: Alianza,
1986.
[14] J. A. C. Guimarães. A análise documentária no âmbito do tratamento da informação: elementos
históricos e conceituais. In: Rodrigues GM, Lopes IL. (org.). Organização e representação do
conhecimento na perspectiva da Ciência da Informação. Brasília: Thesaurus, 2003, pp. 100–117.
[15] J. A. C. Guimarães. A dimensão teórica do tratamento temático da informação e suas
interlocuções com o universo científico da International Society for Knowledge Organization
(ISKO). Revista Ibero-americana de Ciência da Informação. Brasília, v. 1, n. 1, jan./abr. 2008.
[16] J. A. C. Guimarães. Abordagens teóricas em tratamento temático da informação: catalogação
de assunto, indexação e análise documental. In: García Marco FJ (org.). Avances y perspectivas
en sistemas de información y de documentación. Zaragoza: Prensas Universitarias de Zaragoza,
2009, pp. 105–117.
[17] B. Haslhofer, A. Isaac. data.europeana.eu: The Europeana Linked Open Data Pilot. 2011.
[18] A. Holtzman, J. Buys, L. Du, M. Forbes, Y. Choi. The curious case of neural text degeneration.</p>
      <p>In: Proceedings of ICLR 2020. 2019. URL: https://arxiv.org/abs/1904.09751.
[19] F. W. Lancaster. Indexação e resumos: teoria e prática. 3. ed. Brasília: Briquet de Lemos. 2004.
[20] A. L. M. Lemos. Erros, falhas e perturbações digitais em alucinações das IA generativas:
tipologia, premissas e epistemologia da comunicação. MATRIZes, 18(1). 2024, pp. 75-91. doi:
10.11606/issn.1982-8160.v18i1p75-91.
[21] G. D. Maimone, L. S. Gracioso. Representação temática de imagens: perspectivas
metodológicas. Informação &amp; Informação, Londrina, v. 12, n. 1. 2007, pp. 11–28. URL:
https://www.uel.br/revistas/uel/index.php/informacao/article/view/2764.
[22] C. H. Marcondes. Interoperabilidade entre acervos digitais de arquivos, bibliotecas e museus:
potencialidades das tecnologias de dados abertos interligados. Perspectivas em Ciência da
Informação, Belo Horizonte, v. 21, n. 2, 2016, pp. 61-83.
[23] M. P. Manini. Análise documentária de fotografias: um referencial de leitura de imagens
fotográficas para fins documentários. 2002. 231 f. Tese (Doutorado em Ciências da
Comunicação) – Universidade de São Paulo (USP), Escola de Comunicação e Artes. São Paulo,
2002.
[24] D. L. Martins, D. L. S. Lemos, L. F. R Oliveira, J. Siqueira, D. Carmo, V. N. Medeiros.</p>
      <p>Information organization and representation in digital cultural heritage in Brazil: systematic
mapping of information infrastructure in digital collections for data science applications.
Journal of the Association for Information Science and Technology, v. 74, n. 6, 2022, pp. 707–726.</p>
      <p>Doi: 10.1002/asi.24650.
[25] A. C. S. Oliveira. Modelagem para valoração de objetos museológicos: estudos de caso para o
MNBA e o MAST. 2020. 1473 f. Tese (Doutorado em Museologia e Patrimônio) - Universidade</p>
    </sec>
  </body>
  <back>
    <ref-list>
      <ref id="ref1">
        <mixed-citation>
          <string-name>
            <surname>- Fonte:</surname>
          </string-name>
          Pixabay - https://pixabay.com/pt/photos/jesusescultura-viajar
          <string-name>
            <surname>-</surname>
          </string-name>
          por-am%C3%
          <fpage>A9rica</fpage>
          -2291128/
        </mixed-citation>
      </ref>
      <ref id="ref2">
        <mixed-citation>
          [1]
          <string-name>
            <given-names>C. Barria</given-names>
            <surname>Huidobro</surname>
          </string-name>
          .
          <article-title>Alucinaciones de la inteligencia artificial: impacto en tecnología, política y sociedad</article-title>
          .
          <source>Revista Estrategia</source>
          , Poder y Desarrollo.
          <year>2024</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref3">
        <mixed-citation>
          [2]
          <string-name>
            <given-names>E. M.</given-names>
            <surname>Bender</surname>
          </string-name>
          ,
          <string-name>
            <given-names>T.</given-names>
            <surname>Gebru</surname>
          </string-name>
          ,
          <string-name>
            <given-names>A.</given-names>
            <surname>Mcmillan-Major</surname>
          </string-name>
          ,
          <string-name>
            <given-names>S.</given-names>
            <surname>Shmitchell</surname>
          </string-name>
          .
          <article-title>On the dangers of stochastic parrots: Can language models be too big?</article-title>
          <source>In: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT '21)</source>
          , Canada,
          <year>2021</year>
          , pp.
          <fpage>610</fpage>
          -
          <lpage>623</lpage>
          . doi:
          <volume>10</volume>
          .1145/3442188.3445922.
        </mixed-citation>
      </ref>
      <ref id="ref4">
        <mixed-citation>
          [3]
          <string-name>
            <given-names>R.</given-names>
            <surname>Bommasani</surname>
          </string-name>
          et al.
          <source>On the Opportunities and Risks of Foundation Models. ArXiv</source>
          ,
          <year>2021</year>
          . URL: https://arxiv.org/abs/2108.07258.
        </mixed-citation>
      </ref>
      <ref id="ref5">
        <mixed-citation>
          [4]
          <string-name>
            <given-names>S. C.</given-names>
            <surname>Busquets</surname>
          </string-name>
          ,
          <string-name>
            <given-names>L. M.</given-names>
            <surname>Lorens</surname>
          </string-name>
          .
          <article-title>Self-supervision of Hallucinations in Large Language Models: LLteaM</article-title>
          .
          <source>Journal of Language and Computation Research</source>
          ,
          <year>2023</year>
          . doi:
          <volume>10</volume>
          .4995/jclr.
          <year>2023</year>
          .
          <volume>20408</volume>
          .
        </mixed-citation>
      </ref>
      <ref id="ref6">
        <mixed-citation>
          [5]
          <string-name>
            <given-names>L. B.</given-names>
            <surname>Carrasco</surname>
          </string-name>
          ,
          <string-name>
            <given-names>S.</given-names>
            <surname>Vidotti</surname>
          </string-name>
          .
          <article-title>Patrimônio cultural: um panorama do modelo de dados da Europeana</article-title>
          .
          <year>2018</year>
          .
          <article-title>Federal do Estado do Rio de Janeiro (UNIRIO)</article-title>
          , Museu de Astronomia e Ciências Afins, Programa de Pós- Graduação em Museologia e Patrimônio. Rio de Janeiro,
          <year>2016</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref7">
        <mixed-citation>
          [26]
          <string-name>
            <given-names>E.</given-names>
            <surname>Panofsky</surname>
          </string-name>
          .
          <source>Significado nas Artes Visuais</source>
          . 3. ed.
          <source>São Paulo: Perspectiva</source>
          ,
          <year>1986</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref8">
        <mixed-citation>
          [27]
          <string-name>
            <given-names>E.</given-names>
            <surname>Panofsky</surname>
          </string-name>
          . Estudos de iconologia:
          <article-title>temas humanísticos na arte do Renascimento</article-title>
          .
          <source>Lisboa: Estamnpa</source>
          ,
          <year>1986</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref9">
        <mixed-citation>
          [28]
          <string-name>
            <given-names>A.</given-names>
            <surname>Radford</surname>
          </string-name>
          ,
          <string-name>
            <surname>J. Wu</surname>
          </string-name>
          ,
          <string-name>
            <given-names>R.</given-names>
            <surname>Child</surname>
          </string-name>
          ,
          <string-name>
            <given-names>D.</given-names>
            <surname>Luan</surname>
          </string-name>
          ,
          <string-name>
            <given-names>D.</given-names>
            <surname>Amodei</surname>
          </string-name>
          ,
          <string-name>
            <surname>I. Sutskever.</surname>
          </string-name>
          <article-title>Language models are unsupervised multitask learners</article-title>
          .
          <source>OpenAI Tech Rep</source>
          .
          <year>2019</year>
          . URL: https://cdn.openai.
          <article-title>com/betterlanguage-models/language_models_are_unsupervised_multitask_learners</article-title>
          .pdf.
        </mixed-citation>
      </ref>
      <ref id="ref10">
        <mixed-citation>
          [29]
          <string-name>
            <given-names>R. A. S.</given-names>
            <surname>Ramalho</surname>
          </string-name>
          . Desenvolvimento e utilização de ontologias em bibliotecas digitais: uma proposta de aplicação.
          <year>2010</year>
          .
          <volume>145</volume>
          f.
          <article-title>Tese (Doutorado em Ciência da Informação) - Universidade Estadual Paulista</article-title>
          , Faculdade de Filosofia e Ciências. Marília,
          <year>2010</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref11">
        <mixed-citation>
          [30]
          <string-name>
            <given-names>D. L.</given-names>
            <surname>Silva</surname>
          </string-name>
          ,
          <string-name>
            <given-names>R. R.</given-names>
            <surname>Souza</surname>
          </string-name>
          .
          <article-title>Representação de documentos multimídia: dos metadados às anotações semânticas</article-title>
          .
          <source>Tendências da Pesquisa Brasileira em Ciência da Informação</source>
          , [S. l.], v.
          <volume>7</volume>
          , n. 1, jan./jun.
          <year>2014</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref12">
        <mixed-citation>
          [31]
          <string-name>
            <given-names>G. R.</given-names>
            <surname>Silva</surname>
          </string-name>
          .
          <article-title>Modelo de leitura para indexação de fotografias baseado no método complexo e nas funções primárias da imagem [dissertação]</article-title>
          . Belo
          <string-name>
            <surname>Horizonte: Universidade Federal de Minas Gerais</surname>
          </string-name>
          , Escola de Ciência da Informação;
          <year>2018</year>
          . 140 f. URL: http://hdl.handle.net/1843/ECIPB6VM9Y.
        </mixed-citation>
      </ref>
      <ref id="ref13">
        <mixed-citation>
          [32]
          <string-name>
            <given-names>P. N.</given-names>
            <surname>Silva</surname>
          </string-name>
          ,
          <string-name>
            <given-names>C. C.</given-names>
            <surname>Dias</surname>
          </string-name>
          .
          <article-title>Representação do conhecimento em tempos de inteligência artificial</article-title>
          .
          <source>In: ENCONTRO EDICIC</source>
          ,
          <volume>14</volume>
          .,
          <year>2024</year>
          , Lisboa.
          <article-title>Diálogos na Ciência da Informação: atas do XIV Encontro EDICIC</article-title>
          . Lisboa: Centro de Estudos Clássicos, Faculdade de Letras, Universidade de Lisboa &amp; Edições Colibri, jul.
          <year>2024</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref14">
        <mixed-citation>
          [33]
          <string-name>
            <given-names>J.</given-names>
            <surname>Smit</surname>
          </string-name>
          .
          <article-title>A representação da imagem</article-title>
          .
          <source>Informare: Caderno do Programa de Pós-Graduação em Ciência da Informação</source>
          , Rio de Janeiro,
          <year>1996</year>
          , pp.
          <fpage>28</fpage>
          -
          <lpage>36</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref15">
        <mixed-citation>
          [34]
          <string-name>
            <given-names>F.</given-names>
            <surname>Souza</surname>
          </string-name>
          ,
          <string-name>
            <given-names>R.</given-names>
            <surname>Nogueira</surname>
          </string-name>
          ,
          <string-name>
            <given-names>R.</given-names>
            <surname>Lotufo</surname>
          </string-name>
          .
          <article-title>BERTimbau: Pretrained BERT models for Brazilian Portuguese</article-title>
          .
          <source>In: Intelligent Systems: 9th Brazilian Conference, BRACIS</source>
          <year>2020</year>
          ,
          <string-name>
            <given-names>Rio</given-names>
            <surname>Grande</surname>
          </string-name>
          , Brazil,
          <source>October 20-23</source>
          ,
          <year>2020</year>
          , Proceedings, Part I. Springer International Publishing,
          <year>2020</year>
          , pp.
          <fpage>403</fpage>
          -
          <lpage>417</lpage>
          . doi:
          <volume>10</volume>
          .1007/978-3-
          <fpage>030</fpage>
          -61377-8_
          <fpage>28</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref16">
        <mixed-citation>
          [35]
          <string-name>
            <given-names>H. T.</given-names>
            <surname>Sousa</surname>
          </string-name>
          ,
          <string-name>
            <given-names>G. A.</given-names>
            <surname>Lima. Sumarização Automática de Textos</surname>
          </string-name>
          <article-title>Científicos com Inteligência Aumentada: Integrando IA na Organização do Conhecimento</article-title>
          .
          <source>ISKO Brasil</source>
          .
          <year>2025</year>
          . URL: https://isko.org.br/ojs/index.php/iskobrasil/article/view/44.
        </mixed-citation>
      </ref>
      <ref id="ref17">
        <mixed-citation>
          [36]
          <string-name>
            <given-names>A. A. L.</given-names>
            <surname>Torres</surname>
          </string-name>
          . Metodologia para a representação de registro fotográfico de esculturas de arte sacra [dissertação]. Belo
          <string-name>
            <surname>Horizonte: Universidade Federal de Minas Gerais</surname>
          </string-name>
          , Escola de Ciência da Informação;
          <year>2019</year>
          . 205 f. Orientadora
          <string-name>
            <surname>: B. C. M. S. Maculan</surname>
          </string-name>
          . URL: https://repositorio.ufmg.br/handle/1843/31650.
        </mixed-citation>
      </ref>
      <ref id="ref18">
        <mixed-citation>
          [37]
          <string-name>
            <given-names>A. A. L.</given-names>
            <surname>Torres</surname>
          </string-name>
          ,
          <string-name>
            <given-names>B. C. M. S.</given-names>
            <surname>Maculan</surname>
          </string-name>
          .
          <article-title>Aspectos constitutivos e atributos da fotografia documental</article-title>
          . In: N. B.
          <string-name>
            <surname>Tognoli</surname>
            ,
            <given-names>A. C.</given-names>
          </string-name>
          <string-name>
            <surname>Albuquerque</surname>
            ,
            <given-names>B. M. N.</given-names>
          </string-name>
          <article-title>Cervantes (org). Organização e representação do conhecimento em diferentes contextos: desafios e perspectivas na era da datificação</article-title>
          .
          <source>Londrina: ISKO-Brasil, PPGCI-UEL. v. 1</source>
          ,
          <issue>2023</issue>
          , p.
          <fpage>143</fpage>
          -
          <lpage>151</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref19">
        <mixed-citation>
          [38]
          <string-name>
            <given-names>A. A. L.</given-names>
            <surname>Torres</surname>
          </string-name>
          ,
          <string-name>
            <given-names>B. C. M. S.</given-names>
            <surname>Maculan</surname>
          </string-name>
          .
          <string-name>
            <given-names>A. A.</given-names>
            <surname>Rocha</surname>
          </string-name>
          ,
          <string-name>
            <given-names>F. M.</given-names>
            <surname>Assunção</surname>
          </string-name>
          ,
          <string-name>
            <given-names>F. B.</given-names>
            <surname>Marques</surname>
          </string-name>
          ,
          <string-name>
            <given-names>G. S.</given-names>
            <surname>Rodrigues</surname>
          </string-name>
          .
          <article-title>Inteligência artificial e a indexação de imagens com o método iconográfico de Panofsky</article-title>
          . In:
          <article-title>Anais do VIII ISKO Brasil; 2025; Canela, RS</article-title>
          . v.
          <volume>8</volume>
          . p.
          <fpage>1</fpage>
          -
          <lpage>14</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref20">
        <mixed-citation>
          [39]
          <string-name>
            <given-names>M. L.</given-names>
            <surname>Zeng</surname>
          </string-name>
          .
          <article-title>Semantic enrichment for enhancing LAM data and supporting digital humanities</article-title>
          . El profesional de la información, v.
          <volume>28</volume>
          , n.
          <volume>1</volume>
          ,
          <issue>e280103</issue>
          ,
          <year>2019</year>
          . Doi:
          <volume>10</volume>
          .3145/epi.
          <year>2019</year>
          .ene.
          <volume>03</volume>
          .
        </mixed-citation>
      </ref>
      <ref id="ref21">
        <mixed-citation>
          [40]
          <string-name>
            <given-names>Y.</given-names>
            <surname>Zhang</surname>
          </string-name>
          , S. Sun,
          <string-name>
            <given-names>M.</given-names>
            <surname>Galley</surname>
          </string-name>
          ,
          <string-name>
            <given-names>Y. C.</given-names>
            <surname>Chen</surname>
          </string-name>
          ,
          <string-name>
            <given-names>C.</given-names>
            <surname>Brockett</surname>
          </string-name>
          ,
          <string-name>
            <given-names>X.</given-names>
            <surname>Gao</surname>
          </string-name>
          , et al. DialoGPT:
          <string-name>
            <surname>Large-Scale Generative</surname>
          </string-name>
          Pre
          <article-title>-training for Conversational Response Generation</article-title>
          .
          <source>In: Proc ACL</source>
          <year>2020</year>
          . URL: https://arxiv.org/abs/
          <year>1911</year>
          .00536.
        </mixed-citation>
      </ref>
    </ref-list>
  </back>
</article>