<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Archiving and Interchange DTD v1.0 20120330//EN" "JATS-archivearticle1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink">
  <front>
    <journal-meta />
    <article-meta>
      <title-group>
        <article-title>Avaliação de Software Educativo: a complexidade de escolher uma abordagem adequada</article-title>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <string-name>Raphael Salviano da Silva</string-name>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Williane Rodrigues Silva</string-name>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Raimundo Cardoso Filho</string-name>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Wendell Pereira</string-name>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Yuska Aguiar</string-name>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Vanessa Dantas</string-name>
        </contrib>
      </contrib-group>
      <fpage>116</fpage>
      <lpage>126</lpage>
      <abstract>
        <p>The plurality of approaches to evaluate Educational Software (ES) requires the decision-making about which approach should be used to evaluate the ES chosen to be adopted. These approaches have criteria to verify the compliance of ES according to specific measurement tools with numerical or subjective scales, or percentage values. Considering the differences, the educator has the complex task of choosing an approach whose evaluation criteria and evaluation instruments are clear, embracing and unambiguous, and whose results are easy to analyze. The present work evaluated the Duolingo using different approaches in order to identify the complexity of each application, their scope coverage, and the quality of the results. Resumo. A pluralidade de abordagens para avaliação de Software Educativo (SE) exige a tomada de decisão sobre qual abordagem utilizar na avaliação do SE que se pretende adotar. As abordagens possuem critérios para verificação da conformidade do SE a partir de escalas numéricas, subjetivas ou de valores percentuais. Diante das diferenças o educador se enfrenta a complexidade da escolha de uma abordagem cujos critérios e instrumentos de avaliação sejam claros, abrangentes e não ambíguos, e os resultados sejam fáceis de analisar. Neste trabalho descreve-se a avaliação do Duolingo a partir de diferentes abordagens, para identificar a complexidade, a abrangência e a qualidade dos resultados da aplicação de cada abordagem.</p>
      </abstract>
    </article-meta>
  </front>
  <body>
    <sec id="sec-1">
      <title>-</title>
      <p>1. Introdução</p>
      <p>O uso dos SEs tem, em potencial, uma boa aceitação, pois estes acrescentam
elementos lúdicos ao processo de ensino-aprendizagem. No entanto, dificuldades podem
ser enfrentadas pelos educadores na implantação de SEs no ambiente escolar. A escolha
116
por um SE que corresponde às expectativas do professor e às necessidades pedagógicas
do conteúdo abordado exige atenção, sendo necessário garantir que o SE atenda a um
conjunto de requisitos para que seu uso seja efetivo.</p>
      <p>O SE precisa funcionar corretamente, seus elementos pedagógicos precisam estar
de acordo com os propósitos dos conteúdos abordados e a interface deve ser condizente
com as características, necessidades e limitações dos usuários. Problemas em qualquer
um destes níveis pode prejudicar o processo de construção do conhecimento. Portanto, é
necessário, antes de decidir adotar um SE, certificar-se de que este será um elemento
agregador no aprendizado, avaliando-o antes de seu uso.</p>
      <p>
        Para
        <xref ref-type="bibr" rid="ref1">Brito e Cavalcante (2003</xref>
        ) avaliar um SE consiste em identificar como este
pode ser utilizado no âmbito educacional de modo que ajude o aprendiz a construir seu
conhecimento. A diversidade de abordagens para avaliação de SE disponíveis na
literatura apresenta desafios para o educador. Ė difícil escolher a abordagem a adotar,
considerando a natureza do SE (desktop, mobile, web) e o background e expertise do
avaliador; é possível, ainda, que a avaliação do mesmo SE por instrumentos diferentes
resulte em diagnósticos distintos. Nesse contexto, este artigo objetiva identificar a
influência da escolha da abordagem de avaliação de SE no diagnóstico resultante da sua
aplicação, e apresentar as dificuldades encontradas durante a realização das avaliações.
      </p>
      <p>
        O artigo está organizado em cinco seções, incluindo esta. Na seção 2 apresenta-se
as abordagens consideradas no estudo. Na seção 3 descreve-se a metodologia adotada na
execução das avaliações. A seção 4 contém o resultado obtidos para a avaliação do
Duolingo. Por fim, na seção 5 estão as considerações finais e trabalhos futuros.
2. Métodos de Avaliação de Softwares Educacionais
A avaliação de SE deve considerar características de qualidade didático-pedagógica para
que os objetivos da ergonomia de software e dos educadores possam convergir [
        <xref ref-type="bibr" rid="ref12">Silva
1998</xref>
        ] apud [Andres e Cybis 2000]. Vários autores [
        <xref ref-type="bibr" rid="ref11">Rocha e Campos 1992</xref>
        ]; [
        <xref ref-type="bibr" rid="ref13">Silva e
Vargas 1999</xref>
        ]; [
        <xref ref-type="bibr" rid="ref9">Oliveira et al. 2001</xref>
        ] argumentam sobre a necessidade de considerar
paradigmas pedagógicos na avaliação de SEs para orientar os professores na aquisição e
no emprego desses recursos. Além disso, os SEs devem ser funcionalmente corretos, de
acordo com a Engenharia de Software [
        <xref ref-type="bibr" rid="ref14">Sommerville 2007</xref>
        ], sendo importante que a
interatividade e a interface oferecidas sejam adequadas ao público ao qual se destina
[
        <xref ref-type="bibr" rid="ref10">Preece et al. 2013</xref>
        ].
      </p>
      <p>
        Segundo
        <xref ref-type="bibr" rid="ref3">Chacon et al. (2012)</xref>
        as principais abordagens objetivas (uso de
checklist) para a avaliação de SEs são: (i) Método de Reeves [
        <xref ref-type="bibr" rid="ref2">Campos 1989</xref>
        ]; (ii) Técnica
de Mucchielli [
        <xref ref-type="bibr" rid="ref12">Silva 1998</xref>
        ]; (iii) Learning Object Review Instrument (LORI) [
        <xref ref-type="bibr" rid="ref7">Nesbit el
al. 2002</xref>
        ]; (iv) Técnica de Inspeção de Conformidade Ergonômica de Software
Educacional (TICESE) [
        <xref ref-type="bibr" rid="ref6">Gamez 1998</xref>
        ].
      </p>
      <p>A variedade de abordagens disponíveis para avaliar SEs reflete em diferenças
relativas (a) ao número de critérios considerados; (b) à natureza dos critérios
(pedagógicos, qualidade de software e de uso); (c) à natureza e granularidade das escalas
adotadas (instrumentos de mensuração) e (d) à qualidade dos resultados alcançados.
Logo, o educador pode se questionar sobre qual abordagem utilizar para avaliar um SE.
Para familiarizar o educador sobre as abordagens citadas, segue uma breve explanação.
117</p>
    </sec>
    <sec id="sec-2">
      <title>2.1. Método de Reeves</title>
      <p>Consiste em 24 critérios para avaliação do SE, sendo 10 relacionados à interface
(usabilidade) e 14 aos aspectos pedagógicos. Cada critério é associado a uma escala
bidirecional não numérica, que se utiliza de conceitos antagônicos. Para os critérios de
usabilidade, os conceitos positivos estão à direita e os negativos à esquerda. Cabe ao
avaliador verificar, para cada critério, como o SE se apresenta, e realizar uma marca sobre
a escala. Neste caso, havendo predominância das marcações à esquerda, percebe-se uma
fragilidade do SE em relação aos aspectos de usabilidade. Para os critérios pedagógicos,
os conceitos apresentados nas setas não são, necessariamente, positivos e negativos e a
marcação à direita ou à esquerda não indica qualidade do SE para estes critérios. O
resultado da avaliação é o conjunto de critérios e suas setas marcadas. O diagnóstico é
realizado pelo educador mediante a análise da disposição dos pontos marcados nas setas.</p>
    </sec>
    <sec id="sec-3">
      <title>2.2. Técnica de Mucchielli</title>
      <p>Permite a avaliação global de software considerando o público alvo do SE. Propõe 10
critérios associados à escala numérica com pontuação variando entre 1 (um) e 5 (cinco).
O resultado de sua aplicação é a análise da associação dos valores aos critérios, cuja
apresentação é um conjunto de barras com os respectivos critérios e valores atribuídos.</p>
    </sec>
    <sec id="sec-4">
      <title>2.3. Avaliação de LORI</title>
      <p>Consiste em um checklist com 9 critérios (1 pedagógico, 4 de interface e 4 de qualidade
de software). Os critérios estão associados a escalas numéricas de 5 pontos com variação
de 1 (um) à 5 (cinco). O resultado obtido é semelhante ao de Mucchielli.</p>
    </sec>
    <sec id="sec-5">
      <title>2.4. Técnica de TICESE</title>
      <p>Possui três módulos: (i) classificação: formulário com informações técnicas do SE; (ii)
avaliação: da documentação (com 2 critérios) e do SE (com 10 critérios); e (iii) avaliação
contextual: com apenas 1 critério. Os critérios possuem um peso que variam de 0 (zero –
não se aplica) à 1,5 (um e meio – muito importante).</p>
    </sec>
    <sec id="sec-6">
      <title>3. Metodologia Aplicada</title>
      <p>Para analisar, comparativamente, as abordagens para avaliação de SE apresentadas,
adotou-se a seguinte estratégia: (i) Definição da equipe de avaliação: quatro discentes do
curso de Licenciatura em Ciência da Computação da Universidade Federal da Paraiba
(UFPB-Campus IV), sob a supervisão de duas professoras com experiência em interação
humano computador, qualidade de software e engenharia de software; (ii) Experiência da
equipe: dois discentes cursaram a disciplina de Softwares Educacionais oferecida pela
IES, tendo experiência prévia com avaliação de SE a partir de Reeves. Todos os docentes
passaram por um período de estudo teórico sobre as abordagens de avaliação,
experienciando a aplicação destas com auxílio das professoras; um dos discentes é
professor de língua estrangeira; (iii) Escolha do SE: o Duolingo
(https://www.duolingo.com/) é um aplicativo para o estudo de idiomas disponível nas
versões web e mobile. Seu conteúdo é agrupado em níveis (iniciante, intermediário e
avançado), com temas de estudo (saudações, comidas, animais, família, etc) organizados
em lições e atividades. O nível de dificuldade das lições aumenta à medida que o aluno
progride entre os níveis. Foram avaliadas as dez primeiras lições disponíveis no Duolingo,
em ambas as versões a fim de verificar se as abordagens são válidas independente da
plataforma do SE; (iv) Definição da dinâmica de avaliação: os alunos formaram duplas
com diferentes configurações, alternando entre os membros, as versões do SE (web e
mobile), e as abordagens de avaliação, de modo a evitar uma percepção tendenciosa e/ou
limitada; e (v) Escolha de elementos de interesse da análise comparativa: facilidade de
aplicação (tempo necessário e dúvidas frequentes), abrangência da abordagem frente aos
critérios e facilidade de interpretação dos resultados.</p>
      <sec id="sec-6-1">
        <title>4. Avaliação do Duolingo: versões web e mobile</title>
        <p>Nas subseções seguintes são apresentados os resultados das avaliações realizadas. Por
fim, tem-se uma análise geral e o relato das principais dificuldades enfrentadas.</p>
      </sec>
      <sec id="sec-6-2">
        <title>4.1. Resultado da aplicação de Reeves</title>
        <p>Os resultados apresentam semelhanças entre as versões web e mobile (Figura 1) para
todos os critérios. Em ambas as versões, os aspectos de interface foram associados a
conceitos positivos. A diferença nos critérios pedagógicos (Figura 2) acontece para a
acomodação das diferenças individuais (mais próximo de “multifacetada” para a versão
mobile) e aprendizado cooperativo (mais próximo de “integral” para a versão web).
Podese afirmar que os elementos pedagógicos das versões mantém-se consistentes,
possibilitando que o aluno possa alternar entre as versões sem prejuízo.</p>
        <p>O fato de Reeves se apoiar em setas gráficas com marcação não numérica torna a
análise do resultado subjetivo e difícil para avaliadores inexperientes. Sua aplicação
demandou 4 horas para os avaliadores chegarem a um consenso sobre as marcações,
evidenciando a essência subjetiva do método. O diagnóstico pode ser inconclusivo para
os critérios pedagógicos, pois os conceitos antagônicos não são bons ou ruins.</p>
        <p>Figura 1. Aplicação de Reeves para avaliação do Duolingo nas versões Web e
MobileFigura 2. Aplicação de Reeves para avaliação do Duolingo nas versões Web e</p>
        <p>Mobile
4.2. Resultado da aplicação de Mucchielli
Os 10 critérios de Mucchielli foram avaliados de forma positiva para ambas as versões
(Figura 3) recebendo conceito máximo em sua maioria. Entretanto, dois critérios
apresentam discrepâncias que influenciam na percepção do resultado: “a qualidade das
ajudas” e a “qualidade do documento de acompanhamento”. Na versão web, o site possui
informações úteis ao usuário, como detalhes sobre como funcionam as lições, enquanto
que na mobile tem-se apenas informações técnicas (desenvolvedor, versão, etc.)
disponíveis “loja” a partir da qual se adquire o aplicativo. A versão web obteve 47 pontos
e a mobile 45, de um total de 50 possíveis.</p>
        <p>Esta técnica não agrupa os critérios em pedagógicos e de usabilidade, exigindo do
avaliador mais atenção ao analisar os resultados antes de afirmar que os problemas
encontrados no SE são prioritariamente de interface ou pedagógicos. É interessante
observar, ainda, que 7 dos 10 critérios utilizam o termo qualidade, que por si só é
subjetivo. A qualidade percebida por avaliador experiente e principiante certamente será
diferente, visto que o primeiro possui background de experiências anteriores.
Figura 3. Aplicação de Mucchielli para avaliação do Duolingo nas versões Web e Mobile
4.3. Resultado da aplicação de LORI
O resultado diverge levemente entre as versões web e mobile (Figura 4) em relação aos
critérios “motivação” e “projeto e apresentação”. Na versão mobile, a motivação é menos
favorável, pois o usuário perde pontos ao cometer erros. Entretanto, nesta mesma versão,
o recurso de voz utilizado para submeter respostas contribuiu para uma melhor pontuação
no aspecto “projeto e apresentação”. Embora o somatório obtido para ambas as versões
seja o mesmo (39 pontos de um total de 50), percebe-se que a versão web teve mais
critérios com pontuação máxima. Sua aplicação demandou 3 horas.</p>
        <p>A aplicação do método demandou um total de 2 horas para que todos os aspectos
fossem checados e a equipe de avaliação chegasse a um consenso sobre a pontuação
associada a cada critério - evidenciando a essencia subjetiva da avaliação do SE. Além
disto, percebe-se que a análise do resultado final é conclusiva, assim esta metodologia
pode indicar se o software é recomendável ou não para uso.</p>
        <p>Figura 4. Aplicação de Lori para avaliação do Duolingo nas versões Web e Mobile
4.4. Resultado da aplicação de TICESE
Nas versões web e mobile os valores relativos à avaliação contextual foram idênticos.
Porém algumas situações de inadequação (ou insuficiência) foram observadas. Para a
versão web os critérios de “dados de identificação” (29%), de “controle explícito”
(36,5%), de “adaptabilidade” (46.5%) e de “gestão de erros” (66%) obtiveram
resultados inferiores a 75%. Na versão mobile, os critérios de “dados de identificação”
(51.7%), “adaptabilidade” (59,5%) e “gestão de erros” (58%) se mantiveram como
deficientes, embora os dois primeiros tenham sido melhor avaliados em relação à versão
web. Percebe-se uma queda no critério de avaliação da aprendizagem (72%).
Comparando com a versão web, percebe-se uma elevação no critério da documentação
(70.45%) e uma diminuição para o produto (82.5%). Considerando a percepção da
qualidade do produto pelo usuário, a versão web possivelmente seria considerada mais
completa e melhor recomendada em relação à mobile.</p>
        <p>É importante ressaltar que os valores percentuais obtidos são calculados a partir
de subcritérios e de suas respectivas escalas (Figura 5). O detalhamento de critérios em
subcritérios guia o avaliador e minimiza o nível de abstração para aplicar o método. No
entanto, esta técnica exigiu o maior tempo de aplicação (14 horas) e o uso de planilhas
auxiliares para guiar a avaliação de cada critério e realizar os cálculos exigidos pela
técnica. Os resultados serem apresentados em valores percentuais pode auxiliar na
interpretação do diagnóstico, pois é usual trabalhar esta forma de representação numérica.</p>
        <p>Figura 5. Aplicação de Ticese para avaliação do Duolingo nas versões Web e Mobile</p>
        <sec id="sec-6-2-1">
          <title>4.7. Análise geral dos resultados</title>
          <p>De modo geral, as avaliações foram positivas independente da plataforma do SE e da
abordagem aplicada. Entretanto, alguns aspectos qualitativos, muitas vezes implícitos nos
diagnósticos resultantes, merecem destaque. Na Tabela 1 tem-se informações relevantes
para esta pesquisa considerando as (i) dimensões consideradas pelos critérios adotados
nas abordagens (pedagógico, de usabilidade e de qualidade de software); (ii) a dificuldade
de compreensão dos critérios, suas escalas e intepretação do diagnóstico, e (iii) do tempo
necess rio para aplicação das abordagens.</p>
          <p>Tabela 1. Análise comparativa entre as abordagens</p>
        </sec>
        <sec id="sec-6-2-2">
          <title>Abordagens aplicadas para avaliação do</title>
        </sec>
        <sec id="sec-6-2-3">
          <title>Duolingo (Web e Mobile)</title>
        </sec>
        <sec id="sec-6-2-4">
          <title>Reeves</title>
        </sec>
        <sec id="sec-6-2-5">
          <title>TICESE</title>
        </sec>
        <sec id="sec-6-2-6">
          <title>Mucchielli</title>
        </sec>
        <sec id="sec-6-2-7">
          <title>LORI</title>
        </sec>
        <sec id="sec-6-2-8">
          <title>Abrangência dos critérios</title>
        </sec>
        <sec id="sec-6-2-9">
          <title>Pedagógico</title>
        </sec>
        <sec id="sec-6-2-10">
          <title>Usabilidade</title>
        </sec>
        <sec id="sec-6-2-11">
          <title>Qualidade de SW</title>
          <p>Quantidade Total de critérios
14
10
0
24
3
3
7
13
3
7
0
10
1
4
4
9
Dificuldade para
compreender</p>
          <p>Tempo
empregado para</p>
          <p>Critérios
Instrumentos
de medição
Diagnóstico
Aprendizado</p>
          <p>Aplicação
Tempo Total</p>
          <p>Média
Baixa
Média
2h
4h
6h</p>
          <p>Média
Alta
Média
4h
10h
14h</p>
          <p>Média
Baixa
Baixa
1h
2h
3h</p>
          <p>Média
Baixa
Baixa
1h
2h
3h</p>
          <p>A quantidade de critérios varia de 9 (LORI) à 24 (Reeves), o que pode representar
uma carga de trabalho bastante diferenciada para os avaliadores. A escolha por uma
abordagem com menos critérios pode induzir o pensamento sobre a rapidez em aplicar a
avaliação. No entanto, o nível de abstração necessário para avaliação a partir de poucos
critérios pode implicar no emprego de mais tempo em sua realização. O fato de algumas
técnicas não considerarem critérios de qualidade do software (Reeves e Mucchielli) pode
induzir o avaliador a escolher um SE que seja muito bom pedagogicamente, mas que
apresente erros de funcionamento, o que interfere no processo ensino-aprendizagem. O
mesmo equívoco poderia acontecer caso fossem adotadas técnicas que privilegiam
aspectos técnicos e que dão pouca ênfase às questões pedagógicas (LORI). O avaliador
poderia escolher um excelente SE, mas que deixasse a desejar como instrumento de apoio
à educação. É válido ressaltar que a aplicação de cada abordagem permitiu identificar
limitações em diferentes aspectos do SE. Enquanto Mucchielli identificou restrições
sobre ajuda para o usuário, LORI indica deficiências na motivação e no projeto de
apresentação e TICESE demonstrou ressalvas sobre o controle do usuário e à
documentação do SE. Portanto, a escolha da abordagem de avaliação influência na
percepção que se tem sobre o SE, explicitando certos aspectos ou ocultando fragilidades.</p>
          <p>Outro aspecto que não está explícito nos diagnósticos obtidos é a influência da
experiência e conhecimento prévios dos avaliadores na escolha e aplicação das
abordagens. A equipe envolvida na avaliação do Duolingo era composta por quatro alunos
com conhecimento intermediário em avaliação de SE, e mesmo assim o tempo
demandado para o estudo teórico das abordagens exigiu dedicação. A cada nova
abordagem aplicada, foi necessário estudar e entender os critérios, familiarizar-se com
gráficos e escalas, e ao mesmo tempo explorar o SE em busca da verificação da
conformidade (ou não) aos critérios. Num contexto real, onde o avaliador dispõe de
prazos para avaliar o SE antes de adotá-lo, é pouco provável a dedicação para
compreender diferentes abordagens. Logo, existe uma predisposição ao uso de
abordagens já conhecida ou de aplicação simples e rápida. Porém, a análise isolada dos
resultados de uma única abordagem pode resultar em equívocos de julgamento.</p>
          <p>Para o Duolingo (mobile e web), mesmo diante das diferenças presentes na Tabela
1, as quatro abordagens indicam um diagnóstico favorável para sua adoção, o que pode
ser consequência deste SE ser estável e largamente utilizado para o estudo de línguas,
realidade diferente para boa parte de Softwares Educativos.
5. Conclusão
A avaliação de um SE é uma etapa de extrema importância para justificar sua adoção
como recurso educacional. Diversas abordagens de avaliação estão disponíveis como
apoio desta atividade, mas a complexidade de seus critérios e a apresentação do
diagnóstico resultantes podem interferir na decisão sobre adoção ou não de um SE.</p>
          <p>Este trabalho relata a aplicação de quatro abordagens de avaliação para um SE de
aprendizado de idiomas. A análise realizada evidencia que o SE obteve avaliações
favoráveis, independente da abordagem aplicada, mas também a subjetividade dos
critérios adotados nas abordagens. Este cenário é desafiador para aplicação das
abordagens e interpretação dos resultados.</p>
          <p>Destaca-se que as abordagens possuem enfoques diferentes para avaliar aspectos
específicos do SE. Logo, é correto afirmar que a escolha da abordagem pode variar de
acordo com o objetivo do avaliador. A escolha por uma abordagem pode resultar na
ausência da observação de critérios definidos como importantes pelo avaliador, uma vez
que deve haver uma comunhão entre o que se pretende avaliar e os critérios presentes na
abordagem.</p>
          <p>Considerando a experiência vivenciada, pretende-se elabor de um guia para
avaliação de SE que combine diferentes abordagens. Objetiva-se fornecer aos avaliadores
um instrumento que diminua a necessidade de expertise e background dos avaliadores,
diminua a abstração e subjetividade dos critérios analisados e resulte em um diagnóstico
cuja interpretação seja mais clara, direta e objetiva.</p>
          <p>Referências
Andres, D. P. and Cybis, W. A. (2000) “Um Estudo Teórico sobre as Técnicas de
Avaliação de Software Educacional”. In VI Congresso Argentino de Ciências de la
Computación.</p>
        </sec>
      </sec>
    </sec>
  </body>
  <back>
    <ref-list>
      <ref id="ref1">
        <mixed-citation>
          <string-name>
            <surname>Brito</surname>
            ,
            <given-names>C. L.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Almeida</surname>
            ,
            <given-names>I. A.</given-names>
          </string-name>
          , and
          <string-name>
            <surname>Cavalcanti</surname>
            ,
            <given-names>L. B.</given-names>
          </string-name>
          (
          <year>2003</year>
          ).
          <article-title>“O que se Avalia e o que é Preciso Avaliar em um Software Educativo?”</article-title>
          . Anais do Workshop de Informática na Escola. Vol.
          <volume>1</volume>
          . No.
          <volume>1</volume>
          . p.
          <fpage>334</fpage>
          -
          <lpage>344</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref2">
        <mixed-citation>
          <string-name>
            <surname>Campos</surname>
            ,
            <given-names>G. H. B.</given-names>
          </string-name>
          (
          <year>1989</year>
          ). “Construção e validação de ficha de avaliação de produtos educacionais para microcomputadores”. Dissertação de Mestrado - Faculdade de Educação, Universidade Federal do Rio de Janeiro. p.
          <fpage>110</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref3">
        <mixed-citation>
          <string-name>
            <given-names>Chacon E. P.</given-names>
            ,
            <surname>Borges</surname>
          </string-name>
          <string-name>
            <given-names>M. N.</given-names>
            ,
            <surname>Silva</surname>
          </string-name>
          <string-name>
            <given-names>C. R. C.</given-names>
            ,
            <surname>Clua</surname>
          </string-name>
          <string-name>
            <surname>E. W. G.</surname>
          </string-name>
          <year>2012</year>
          .
          <article-title>Check-List: um formulário para avaliação de softwares educativos</article-title>
          .
          <source>In III Encontro Nacional de Ensino de Ciências da Saúde e do Meio Ambiente (ENECIÊNCIAS)</source>
          ,
          <volume>16</volume>
          a 19 de Maio,
          <year>2012</year>
          , Niterói - RJ. http://www2.ic.uff.br/~ccaetano/artigos/Artigo_T210_ENECIENCIAS.pdf. Acessado em maio de
          <year>2015</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref4">
        <mixed-citation>
          <string-name>
            <surname>Costa</surname>
            ,
            <given-names>V. M.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Rapkiewicz</surname>
            , C. E., de Queirós Filho,
            <given-names>M. G.</given-names>
          </string-name>
          , and
          <string-name>
            <surname>Canela</surname>
            ,
            <given-names>M. C.</given-names>
          </string-name>
          (
          <year>2003</year>
          ). Avaliação de sites educacionais de Química e Física:
          <article-title>um estudo comparativo</article-title>
          .
          <source>In Anais do Workshop de Informática na Escola</source>
          . Vol.
          <volume>1</volume>
          , No.
          <volume>1</volume>
          , p.
          <fpage>545</fpage>
          -
          <lpage>554</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref5">
        <mixed-citation>
          <string-name>
            <surname>Frescki</surname>
            ,
            <given-names>F. B.</given-names>
          </string-name>
          (
          <year>2008</year>
          ) “
          <article-title>Avaliação da qualidade de softwares educacionais para o ensino de álgebra”</article-title>
          . Centro de Ciências Exatas e Tecnológicas,
          <article-title>Universidade Estadual do Oeste do Paraná, campus Cascavel</article-title>
          .
        </mixed-citation>
      </ref>
      <ref id="ref6">
        <mixed-citation>
          <string-name>
            <surname>Gamez</surname>
            ,
            <given-names>L. TICESE.</given-names>
          </string-name>
          (
          <year>1998</year>
          ). “Técnica de inspeção de conformidade ergonômica de software educacional”. Dissertação de
          <article-title>Mestrado submetida à Universidade do Minho</article-title>
          . Portugal.
        </mixed-citation>
      </ref>
      <ref id="ref7">
        <mixed-citation>
          <string-name>
            <surname>Nesbit</surname>
            ,
            <given-names>J</given-names>
          </string-name>
          ; Belfer,
          <string-name>
            <surname>K</surname>
          </string-name>
          ; Leacock,
          <string-name>
            <surname>T.</surname>
          </string-name>
          (
          <year>2002</year>
          ).
          <article-title>“Learning Object Review Instrument (LORI)”</article-title>
          , http://cenlinu1.centennialcollege.ca/aahs/LORI/help.php.
        </mixed-citation>
      </ref>
      <ref id="ref8">
        <mixed-citation>
          <string-name>
            <surname>Oliveira B Junior</surname>
            ,
            <given-names>O.</given-names>
          </string-name>
          and
          <string-name>
            <surname>Aguiar</surname>
            ,
            <given-names>Y. P. C.</given-names>
          </string-name>
          <year>2014</year>
          .
          <article-title>Análise de abordagens objetivas para avaliação de softwares educativos</article-title>
          .
          <source>In Proceedings of the 13th Brazilian Symposium on Human Factors in Computing Systems</source>
          . Sociedade Brasileira de Computação.
        </mixed-citation>
      </ref>
      <ref id="ref9">
        <mixed-citation>
          <string-name>
            <surname>Oliveira</surname>
            ,
            <given-names>C. C. O.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Costa</surname>
            ,
            <given-names>J. W.</given-names>
          </string-name>
          and
          <string-name>
            <surname>Moreira</surname>
            ,
            <given-names>M.</given-names>
          </string-name>
          (
          <year>2001</year>
          ) “Ambientes informatizados de aprendizagem: produção e avaliação de software educativo”. Papirus.
        </mixed-citation>
      </ref>
      <ref id="ref10">
        <mixed-citation>
          <string-name>
            <surname>Preece</surname>
            ,
            <given-names>J.</given-names>
          </string-name>
          ; Rogers,
          <string-name>
            <given-names>Y.</given-names>
            and
            <surname>Sharp</surname>
          </string-name>
          ,
          <string-name>
            <surname>E.</surname>
          </string-name>
          (
          <year>2013</year>
          ). Design de Interação,
          <article-title>além da interação humano-computador, Editora Bookman</article-title>
          , 3ª Edição.
        </mixed-citation>
      </ref>
      <ref id="ref11">
        <mixed-citation>
          <string-name>
            <surname>Rocha</surname>
            ,
            <given-names>A. R.</given-names>
          </string-name>
          and Campos,
          <string-name>
            <surname>G.B.</surname>
          </string-name>
          (
          <year>1992</year>
          ). “
          <string-name>
            <surname>Avaliação de Qualidade de Software Educacional</surname>
          </string-name>
          <article-title>”</article-title>
          .
          <source>São Paulo</source>
          , Em Aberto, n. 57, v.
          <volume>12</volume>
          .
        </mixed-citation>
      </ref>
      <ref id="ref12">
        <mixed-citation>
          <string-name>
            <surname>Silva</surname>
            ,
            <given-names>C. R.</given-names>
          </string-name>
          (
          <year>1998</year>
          ). “Bases Pedagógicas e Ergonômicas para Concepção e Avaliação de Produtos Educacionais Informatizados”. Dissertação de Mestrado submetida à Universidade Federal de Santa Catarina. Florianópolis.
        </mixed-citation>
      </ref>
      <ref id="ref13">
        <mixed-citation>
          <string-name>
            <surname>Silva</surname>
            ,
            <given-names>C. R.</given-names>
          </string-name>
          and
          <string-name>
            <surname>Vargas</surname>
            ,
            <given-names>C. L. S.</given-names>
          </string-name>
          (
          <year>1999</year>
          ). “
          <string-name>
            <surname>Avaliação de Qualidade de Software Educacional</surname>
          </string-name>
          <article-title>”</article-title>
          . Anais
          <string-name>
            <surname>do XIX Encontro Nacional de Engenharia de Produção</surname>
          </string-name>
          e V International Congress of Industrial Engineering, Rio de Janeiro,
          <year>1999</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref14">
        <mixed-citation>
          <string-name>
            <surname>Sommerville</surname>
            ,
            <given-names>Ian.</given-names>
          </string-name>
          (
          <year>2007</year>
          ) Engenharia de Software.
          <source>Ed Person Education. 8ª Edição</source>
        </mixed-citation>
      </ref>
    </ref-list>
  </back>
</article>