<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Archiving and Interchange DTD v1.0 20120330//EN" "JATS-archivearticle1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink">
  <front>
    <journal-meta />
    <article-meta>
      <title-group>
        <article-title>Ontologia Pinakes: uma análise com Modelos de Linguagem de Grande Escala</article-title>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <string-name>Bruno Carlos da Cunha Costa</string-name>
          <email>brunocosta@ibict.br</email>
          <xref ref-type="aff" rid="aff0">0</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Greicy Kely C. dos Santos</string-name>
          <email>greicysantos@ibict.br</email>
          <xref ref-type="aff" rid="aff0">0</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Ana Carolina Novaes de Mendonça</string-name>
          <xref ref-type="aff" rid="aff0">0</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Gabriel Moraes de Oliveira</string-name>
          <email>gabrieloliveira@ibict.br</email>
          <xref ref-type="aff" rid="aff0">0</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Dayane Onaga Ferreira Machado</string-name>
          <email>dayanemachado@ibict.br</email>
          <xref ref-type="aff" rid="aff0">0</xref>
          <xref ref-type="aff" rid="aff1">1</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Ana Carolina Simionato Arakaki</string-name>
          <xref ref-type="aff" rid="aff1">1</xref>
          <xref ref-type="aff" rid="aff2">2</xref>
        </contrib>
        <aff id="aff0">
          <label>0</label>
          <institution>Instituto Brasileiro de Informação em Ciência e Tecnologia, SAUS</institution>
          ,
          <addr-line>Quadra 5, Lote 6, Bloco H , Brasília, DF, 70.070-912</addr-line>
          ,
          <country country="BR">Brasil</country>
        </aff>
        <aff id="aff1">
          <label>1</label>
          <institution>Universidade Federal de São Carlos</institution>
          ,
          <addr-line>Rod. Washington Luiz, km. 235, São Carlos, SP, 13565-905</addr-line>
          ,
          <country country="BR">Brasil</country>
        </aff>
        <aff id="aff2">
          <label>2</label>
          <institution>Universidade de Brasilília</institution>
          ,
          <addr-line>Asa Norte, Brasília, DF, 70910-900</addr-line>
          ,
          <country country="BR">Brasil</country>
        </aff>
      </contrib-group>
      <pub-date>
        <year>2026</year>
      </pub-date>
      <fpage>160</fpage>
      <lpage>166</lpage>
      <kwd-group>
        <kwd>eol&gt;Large Language Models</kwd>
        <kwd>Ontology Engineering</kwd>
        <kwd>Pinakes Ontology</kwd>
        <kwd>Competency Questions</kwd>
      </kwd-group>
    </article-meta>
  </front>
  <body>
    <sec id="sec-1">
      <title>1. Introdução</title>
      <p>A engenharia de ontologias demanda tempo e conhecimento, desde a elicitação de requisitos até a
modelagem formal e validação. Documentos de requisitos, como o Ontology Requirements Specification
Document (ORSD), e conjuntos de Questões de Competência (QCs) são instrumentos consagrados
para orientar esse processo [1, 2]. Com a popularização dos Large Language Models (LLMs), surge a
possibilidade de empregá-los para apoiar a engenharia de ontologias, acelerando etapas iniciais [3],
como a transformação de documentos de requisitos e QCs em rascunhos ontológicos, desde que a
curadoria humana assegure qualidade e aderência semântica [4, 5].</p>
      <p>Apesar do potencial, ainda há pouca evidência empírica sobre a eficácia dos LLMs em domínios
especializados, como os serviços bibliográficos, nos quais predominam abordagens manuais. Nesse
contexto, este estudo explora o uso de LLMs na geração de ontologias a partir de engenharia de prompts
e do ORSD da Ontologia Pinakes, comparando as ontologias produzidas pelos modelos com a própria
Pinakes, construída manualmente no Protégé [6], um software open source para desenvolvimento e
validação de ontologias.</p>
      <p>A Ontologia Pinakes é fruto de um projeto de pesquisa desenvolvido na Coordenação de Serviços
Bibliográficos (COBIB) do Instituto Brasileiro de Informação em Ciência e Tecnologia (Ibict), com o
objetivo de promover a integração semântica dos dados e a interoperabilidade dos serviços tradicionais do
Instituto. Sua construção baseou-se no modelo de domínio do Catálogo Coletivo Nacional de Publicação
Seriada (CCN), alinhado a modelos conceituais de referência internacional, o que permite sua expansão
para representar o conhecimento de outros serviços bibliográficos. Este estudo não teve como propósito
validar a Pinakes, mas sim verificar a capacidade dos LLMs de interpretar requisitos formais e gerar
estruturas ontológicas consistentes. A análise busca contribuir para o avanço da pesquisa em Ciência
da Computação e Ciência da Informação, especialmente na geração automatizada de ontologias, com
potencial de apoiar futuramente a modernização dos serviços bibliográficos do Ibict e o fortalecimento
da infraestrutura semântica nacional.</p>
    </sec>
    <sec id="sec-2">
      <title>2. Trabalhos Relacionados</title>
      <p>A engenharia de ontologias é reconhecidamente complexa e demanda tempo, desde a elicitação de
requisitos à formalização em OWL (Web Ontology Language). Nesse contexto, os LLMs têm sido
investigados como alternativas para reduzir os esforços iniciais de modelagem.</p>
      <p>Michael Funk, Jan Hosemann, Arne Jung e Carsten Lutz exploraram o uso do GPT-3.5 para gerar
hierarquias conceituais a partir de seed concepts, restringindo-se à estrutura taxonômica sem apoio de
documentos de requisitos [3]. Anna Sofia Lippolis, Mohammad Javad Saeedizade, Robin Keskisärkkä,
Aldo Gangemi, Eva Blomqvist e Andrea Giovanni Nuzzolese avançaram ao avaliar GPT-4-1106, OpenAI
o1-preview e LLaMA-3.1-405B-Instruct-16b em um benchmark com dez ontologias, cem questões de
competência e user stories, comparando as estratégias Memoryless CQ-by-CQ e Ontogenia [4]. Em
trabalho posterior [7], os mesmos autores ampliaram os testes com LLMs de raciocínio, como o DeepSeek,
incluindo formulação lógica além da geração de classes e propriedades. Mohammad Javad Saeedizade,
Eva Blomqvist e Karl Hammar testaram técnicas de engenharia de prompt (Zero-shot, Few-shot, Chain
of Thought, Graph of Thought, Decomposed e CQ-by-CQ) com GPT-3.5, GPT-4, Bard e LLaMA-2-70B,
usando o SPARQL Protocol and RDF Query Language (SPARQL) como parte da avaliação da qualidade
das ontologias geradas pelos modelos [5]. Em escala mais ampla, Jiayi Li, Daniel Garijo e María
PovedaVillalón realizaram uma revisão sistemática, destacando o uso recorrente da série GPT, Claude, LLaMA
e Mistral em domínios diversos, como saúde, patrimônio cultural, finanças, gestão de emergências e
organização do conhecimento acadêmico [8].</p>
      <p>Apesar dos avanços, não foram encontrados estudos que empreguem LLMs na construção de
ontologias voltadas à Biblioteconomia e aos serviços bibliográficos, com base em um Documento de Requisitos
de Ontologia (ORSD) formalmente estruturado. Nesses domínios, predominam abordagens conceituais
manuais, como o IFLA Library Reference Model [9] e o PRESSoo [10], aplicados inclusive na Ontologia
Pinakes [6]. Projetos institucionais, como BIBFRAME [11] e a Wikidata Bibliographic Task Force [12],
avançaram em direção ao Linked Data, mas com alinhamentos majoritariamente manuais. Catálogos
internacionais, como o British National Bibliography [13] e o BnF Data [14], oferecem dados em RDF,
porém sem geração automática via LLMs. Este estudo, portanto, contribui de forma inédita ao aplicar
LLMs à geração de ontologias no domínio de serviços bibliográficos, tomando o CCN como caso.</p>
    </sec>
    <sec id="sec-3">
      <title>3. Modelos Utilizados e Critérios de Escolha</title>
      <p>A escolha dos modelos considerou critérios identificados na literatura e relevantes ao contexto
institucional. Destacaram-se: (i) geração de saídas RDF/OWL válidas, demonstrada para GPT-3.5 e GPT-4
[5]; (ii) estabilidade e reprodutibilidade, frente a relatos de inconsistências em execuções [3, 5]; e (iii)
diversidade de fornecedores e arquiteturas, fundamental para reduzir vieses e comparar abordagens
distintas [4, 5, 7].</p>
      <p>Também foram incluídos critérios pouco explorados, mas essenciais: (iv) custo, pela viabilidade
institucional, e (v) suporte multilíngue, já que o domínio envolve recursos bibliográficos brasileiros
alinhados a modelos internacionais. A relevância é reforçada por Li et al. [8], que evidenciaram a
superioridade do GPT-4 em múltiplos domínios, por Lippolis et al. [4], que atestaram sua consistência
estrutural, e por Luis Miguel Vieira da Silva, Aljosha Köcher, Felix Gehlhof e Alexander Fay [ 15], que
mostraram a capacidade do Claude 3 e Gemini Pro de gerar axiomas OWL a partir de descrições em
linguagem natural.</p>
      <p>Para este estudo, foram selecionados o GPT-4o (OpenAI ) e o Claude 4 Sonnet (Anthropic), pela precisão,
raciocínio avançado e robustez conceitual; e o Gemini 2.5 Flash (Google) gratuito, por viabilidade de
custo. Todos se enquadram nas versões já avaliadas na literatura, o que reforça sua relevância para fins
comparativos. A intenção é analisar como cada um responde aos desafios da engenharia de ontologias,
sem estabelecer hierarquia entre eles.</p>
    </sec>
    <sec id="sec-4">
      <title>4. Metodologia</title>
      <p>Este estudo exploratório analisa como diferentes modelos de inteligência artificial generativa interpretam
e implementam um conjunto comum de requisitos ontológicos descritos no ORSD, tendo a Ontologia
Pinakes como referência. Sem hipóteses rígidas, buscou-se identificar padrões e limitações ao longo de
um processo dividido em quatro etapas.</p>
      <p>A primeira etapa consistiu na definição do insumo de entrada para os LLMs, composto pelo ORSD da
Ontologia Pinakes, cuja amostra está na Tabela 1, e por um prompt fornecendo contexto e orientações
para geração da ontologia. Para os LLMs o ORSD incluiu: (i) especificações iniciais como objetivo,
escopo e usabilidade; (ii) 59 Questões de Competência (QCs) com exemplos de respostas extraídas de
registros reais do CCN; (iii) lista de termos derivados das QCs para enriquecer a terminologia; e (iv)
quadro de alinhamento entre entidades dos modelos LRM, PRESSoo e CCN, produzido na fase conceitual
da ontologia manual e incluído apenas como orientação estrutural para guiar os LLMs na geração de
hierarquias compatíveis com padrões bibliográficos.</p>
      <p>Na segunda etapa, de geração automática, o ORSD foi submetido ao Claude Sonnet 4, Gemini 2.5
Flash e GPT-4o, acompanhado do mesmo prompt, estruturado para gerar saídas em RDF/XML. Para
ifns descritivos, o conteúdo do prompt foi organizado em três seções: instruções iniciais, intruções
complementares, com exemplos do domínio e orientações finais. Essa estrutura está resumida na
Tabela 2 e aproxima-se da técnica few-shot prompting descrita por Lippolis et al. [7], diferenciando-se
da abordagem tradicional ao utilizar um conjunto consolidado de QCs no ORSD e instruções finais
para geração completa da ontologia. O prompt completo, o ORSD e todas as saídas RDF/XML estão
disponíveis em repositório público1.</p>
      <p>Na terceira etapa, as ontologias geradas pelos LLMs foram carregadas no Protégé e comparadas à
Pinakes. A análise comparativa considerou a cobertura conceitual, a organização hierárquica, o uso de
metadados textuais e o esforço de edição. Para verificação preliminar de cobertura das QCs, estas foram
convertidas em consultas SPARQL, um dos meios de validação de requisitos ontológicos, e executadas
no GraphDB, um triplestore para dados em RDF. Os resultados dessa verificação foram tratados como
indicadores, uma vez que o avaliador semiautomático, calibrado para a ontologia manual, pode ter
descartado respostas corretas com variações de grafia ou estrutura. Paralelamente, na última estapa,
conduziu-se uma análise qualitativa para identificar pontos fortes e limitações de cada LLM.
1https://github.com/cobib-ibict/OntologiaPinakescomLLMs
Tabela 1
Amostra de elementos incluídos no ORSD da Ontologia Pinakes [6], empregados como insumos semânticos para
os LLMs</p>
      <p>Componentes</p>
    </sec>
    <sec id="sec-5">
      <title>5. Resultados e Discussões</title>
      <p>Modelar apenas conceitos do ORSD, descrever anotações
usando bases semânticas de recursos bibliográficos da web.</p>
      <p>RDF/XML: OntologiaPinakes_[NomeLLM].owl, pronto
para cópia ou download.</p>
      <p>A seguir, apresentam-se os principais resultados da comparação entre as ontologias geradas e a Pinakes
construída manualmente, com destaque para estrutura, cobertura e desempenho dos LLMs.
Modelo
Claude Sonnet 4
Gemini 2.5 Flash
GPT-4o
Ontologia Pinakes</p>
      <sec id="sec-5-1">
        <title>5.1. Cobertura conceitual e estrutural</title>
        <p>A Tabela 3 mostra que Claude e Gemini foram os modelos que mais se aproximaram quantitativamente
da Pinakes manual, sobretudo no número de propriedades e instâncias. Já o GPT-4o apresentou cobertura
limitada, mesmo após instruções reiteradas para maximizar o escopo.</p>
        <p>Tabela 3
Comparativo entre os modelos gerados por LLMs e a Ontologia Pinakes manual</p>
        <p>Classes</p>
        <p>Propriedades de Objeto</p>
        <p>Propriedades de Dados Instâncias</p>
        <p>Apesar de gerar 56 propriedades de objeto, o Gemini deixou metade delas sem domínio e alcance
declarados, o que comprometeu a precisão semântica, embora o raciocinador tenha inferido parte
dessas restrições. O Claude, ao criar 63 instâncias, incorreu em excesso ao interpretar 18 valores literais
como entidades independentes, inflando a contagem. Já o GPT-4o foi mais conservador, mas sacrificou
cobertura: produziu menos de 25 instâncias e menos da metade das propriedades da ontologia manual.</p>
        <p>Na análise preliminar de cobertura das QCs via consultas SPARQL, o Gemini apresentou a melhor
correspondência (≈ 58% ), seguido do Claude (≈ 51% ), enquanto o GPT-4o ficou restrito ( ≈ 27% ).
Embora esses percentuais ofereçam uma visão inicial do desempenho dos modelos, variações de grafia
das respostas esperadas podem ter influenciado os resultados, especialmente por se tratar de consultas
calibradas para a ontologia de referência.</p>
      </sec>
      <sec id="sec-5-2">
        <title>5.2. Organização hierárquica e metadados</title>
        <p>A comparação das hierarquias (Figura 1) mostrou diferenças relevantes. Claude representou múltiplos
níveis, distinguindo Obra, Manifestação e Item, além de subdividir Agente e Lugar, aproximando-se do
LRM. O GPT-4o, embora com menos elementos, preservou a estrutura central a partir da superclasse
Res do LRM. Já o Gemini priorizou quantidade, mas com organização mais superficial. Nos metadados
textuais, Claude e Gemini forneceram labels e comments semanticamente adequados, ainda que breves. O
GPT-4o, em contraste, limitou-se a repetições pouco informativas, reduzindo a expressividade conceitual.
Figura 1: Comparação visual das hierarquias geradas pelos LLMs: (a) Claude, (b) Gemini e (c) GPT-4o, em
relação ao modelo manual da (d) Ontologia Pinakes. Figura elaborada pelos autores, a partir da captura de tela
do software Protégé.</p>
        <p>Quanto às restrições, apenas o Gemini inferiu cardinalidades, embora algumas aplicadas
incorretamente a literais. O Claude criou algumas inversas incompletas, corrigidas pelo raciocinador. Nenhum
modelo gerou a classe SerialWork (PRESSoo), presente no ORSD, já a ausência da classe Pessoa (LRM) é
compreensível, pois embora prevista para futura expansão da Pinakes, não foi incorporada ao ORSD
por não estar alinhada às classes do CCN, o que limita sua inferência automática.</p>
      </sec>
      <sec id="sec-5-3">
        <title>5.3. Aspectos práticos e limitações dos modelos</title>
        <p>O Claude demonstrou boa capacidade de expansão conceitual, mas limitado pelo tamanho máximo das
respostas, o que exigiu divisão do RDF em blocos. O Gemini, mesmo em versão gratuita, produziu uma
ontologia relativamente robusta, mas sem exportação direta em RDF/XML. O GPT-4o foi o mais prático,
permitindo importação imediata no Protégé, mas entregou menor cobertura conceitual.</p>
        <p>De forma geral, todos os modelos respeitaram o escopo do ORSD e demonstraram ganhos
expressivos na prototipagem, embora careçam de tipagem rigorosa e restrições adequadas, confirmando a
necessidade de curadoria humana.</p>
      </sec>
      <sec id="sec-5-4">
        <title>5.4. Observações sobre o esforço de modelagem</title>
        <p>A construção manual da Ontologia Pinakes demandou dias de trabalho intensivo para modelar mais
de 200 entidades, além da inserção manual de instâncias necessárias para validar as QCs, atividade
trabalhosa e custosa de revisar. Em contraste, os LLMs geraram ontologias completas em poucas horas,
dentro de um único dia de execução. Embora tenham exigido ajustes, especialmente em instâncias com
atributos mal tipados e propriedades sem domínio ou alcance, o esforço global foi consideravelmente
menor, evidenciando o potencial dos LLMs para acelerar fases iniciais da engenharia de ontologias.</p>
      </sec>
    </sec>
    <sec id="sec-6">
      <title>6. Considerações Finais</title>
      <p>A automação da construção de ontologias com LLMs mostrou-se promissora ao reduzir tempo e esforço
nas etapas iniciais de modelagem. Este estudo evidenciou que LLMs geram classes, propriedades,
instâncias e anotações válidas em RDF/XML a partir de um documento de requisitos (ORSD). Nenhum
modelo, porém, alcançou integralmente a aderência hierárquica e conceitual nem a completude da
Ontologia Pinakes. Seu uso ainda exige revisão e complementação especializada.</p>
      <p>O trabalho contribui para o debate sobre a integração da Inteligência Artificial (IA) na engenharia de
ontologias, destacando avanços e limitações. Como próximos passos, pretende-se explorar abordagens
híbridas que combinem LLMs com extração automática de termos e relações, integradas a scripts em
Python, além de aplicar outras técnicas de prompt engineering como CQ-by-CQ e Chain of Thought (CoT).
Também será necessário avançar para aplicação em sistemas reais de gestão bibliográfica, avaliando o
impacto na interoperabilidade e recuperação da informação, com aprimoramento do ORSD e do prompt,
tornando-os mais claros, padronizados e alinhados às regras semânticas do domínio.</p>
    </sec>
    <sec id="sec-7">
      <title>Declaração sobre IA Generativa</title>
      <p>Os autores não empregaram ferramentas de IA Generativa; apenas aquelas inerentes ao objeto de análise
do estudo.</p>
      <p>Referências
[1] M. Grüninger, M. S. Fox, Methodology for the design and evaluation of ontologies, in: Workshop
on basic ontological issues in knowledge sharing, Montreal, 1995. URL: https://www.researchgate.
net/publication/2288533_Methodology_for_the_Design_and_Evaluation_of_Ontologies.
[2] M. C. Suárez-Figueroa, A. Gómez-Pérez, B. Villazón-Terrazas, How to write and use the
ontology requirements specification document, in: Lecture notes in computer science, volume 5871,
Springer, Berlin, Heidelberg, 2009, pp. 966–982. URL: https://link.springer.com/chapter/10.1007/
978-3-642-05151-7_16.
[3] M. Funk, J. Hosemann, A. Jung, C. Lutz, Towards ontology construction with language models,
in: Joint proc. of the 1st workshop on knowledge base construction from pre-trained language
models (KBC-LM) and the 2nd challenge on language models for knowledge base construction
(LM-KBC), co-located with ISWC 2023, volume 3577, CEUR-WS, Athens, Greece, 2023. URL:
https://ceur-ws.org/Vol-3577.
[4] A. S. Lippolis, M. J. Saeedizade, R. Keskisärkkä, A. Gangemi, E. Blomqvist, A. G. Nuzzolese,
Ontology generation using large language models, arXiv preprint arXiv:2503.05388 (2025). URL:
https://arxiv.org/abs/2503.05388.
[5] M. J. Saeedizade, E. Blomqvist, K. Hammar, Navigating ontology development with large language
models, in: European Semantic Web Conference (ESWC 2024), Springer, Cham, 2024, pp. 19–36.</p>
      <p>URL: https://link.springer.com/chapter/10.1007/978-3-031-60635-9_2.
[6] A. C. S. Arakaki, et al., Ontologia pinakes: formalização semântica para o catálogo coletivo nacional
de publicações seriadas, in: Anais do VIII ISKO Brasil – 1º ISKO Brasil, 2025.
[7] A. S. Lippolis, M. J. Saeedizade, R. Keskisärkkä, A. Gangemi, E. Blomqvist, A. G. Nuzzolese, On the
use of large language models to generate capability ontologies, in: Proceedings of the extended
semantic web conference (ESWC 2025), 2025. URL: https://arxiv.org/abs/2503.08055.
[8] J. Li, D. Garijo, M. Poveda-Villalón, Large language models for ontology engineering: A systematic
literature review, Semantic Web Journal (2025). URL: https://www.semantic-web-journal.net/
system/files/swj3864.pdf.
[9] P. Riva, P. Le Boeuf, M. Žumer, IFLA library reference model: A conceptual model for bibliographic
information, Ifla, Netherlands, 2017. URL: https://www.ifla.org/files/assets/cataloguing/frbr-lrm/
ifla-lrm-august-2017_rev201712.pdf.
[10] PRESSOO Review Group, Definition of PRESSoo: A conceptual model for bibliographic information
pertaining to serials and other continuing resources, version 1.3 ed., Ifla, Netherlands, 2017. URL:
https://repository.ifla.org/items/4fcb0b59-1872-41f-a9f9-1168bfb17d1a.
[11] K. Tharani, Linked data in libraries: A case study of harvesting and sharing bibliographic metadata
with bibframe, Information Technology and Libraries 34 (2015) 5–19. doi:10.6017/ital.v34i1.
5664.
[12] Wikidata, Wikidata:wikiproject bibliographies, 2025. URL: https://www.wikidata.org/wiki/</p>
      <p>Wikidata:WikiProject_Bibliographies.
[13] C. Deliot, Publishing the british national bibliography as linked open data, Catalogue &amp; Index
(2014) 13–18. URL: https://microblogging.infodocs.eu/wp-content/uploads/2014/10/publishing_
bnb_as_lod.pdf, [Online].
[14] E. Grimaldi, The evolution of data.bnf.fr: Past, present and future of the bnf linked open data
project, JLIS.it 15 (2024) 119–133. doi:10.36253/jlis.it-588.
[15] L. M. V. da Silva, A. Köcher, F. Gehlhof, A. Fay, Assessing the capability of large language models
for domain-specific ontology generation, in: Proceedings of the international conference on
industrial ontologies (IO 2024), Springer, 2024. doi:10.1109/ETFA61755.2024.10710775.</p>
    </sec>
  </body>
  <back>
    <ref-list />
  </back>
</article>