<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Archiving and Interchange DTD v1.0 20120330//EN" "JATS-archivearticle1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink">
  <front>
    <journal-meta />
    <article-meta>
      <title-group>
        <article-title>Aplicando uma abordagem combinada para avaliação de Software Educativo: avanços e desafios</article-title>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <string-name>Wendell Pereira</string-name>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Raimundo Cardoso Filho</string-name>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Williane Rodrigues Silva</string-name>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Raphael Salviano da Silva</string-name>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Vanessa Dantas</string-name>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Yuska Aguiar</string-name>
        </contrib>
      </contrib-group>
      <fpage>170</fpage>
      <lpage>180</lpage>
      <abstract>
        <p>Considering the need to evaluate educational software before deciding on its adoption, and the diversity of available assessment approaches, the emergence of doubts about choosing the most appropriate technique is quite common. Each technique proposes different criteria and distinct representations, and it is difficult to choose the most complete in order to cover pedagogical aspects, software quality, and quality of use. The aim of this work is to perform the evaluation of educational software according to a combined approach of techniques in order to identify equivalent criteria between them and possible weaknesses. Resumo. Diante da necessidade de avaliar um software educacional antes de decidir sobre sua adoção, e da diversidade de abordagens de avaliação disponíveis, é comum o surgimento de dúvidas sobre a escolha da técnica mais adequada. Cada uma delas propõe critérios e formas de representação diferentes, e fica difícil escolher a mais abrangente para que aspectos pedagógicos, de qualidade de software, e de qualidade de uso sejam contemplados. Sendo assim, o objetivo desse trabalho é realizar a avaliação de um software educacional segundo uma abordagem combinada de técnicas, a fim de identificar equivalência de critérios entre elas e possíveis fragilidades.</p>
      </abstract>
    </article-meta>
  </front>
  <body>
    <sec id="sec-1">
      <title>-</title>
      <p>
        1. Introdução
A Era da Informação influencia todos os setores da sociedade, e a inovação tecnológica
tem afetado especialmente a educação, com o uso cada vez mais comum de recursos
digitais no processo de ensino-aprendizagem [
        <xref ref-type="bibr" rid="ref3">Costa et al. 2003</xref>
        ]. Segundo Freski
(2008), a função da educação é auxiliar as pessoas na produção da sua própria realidade
material, e de sua consciência sobre ela. Desta maneira, os Softwares Educativos (SEs)
podem auxiliar no processo de ensino-aprendizagem a partir da contextualização de
determinados conteúdos para a realidade de cada aluno [
        <xref ref-type="bibr" rid="ref7">Morais 2003</xref>
        ]. O SE é
concebido com o objetivo principal de facilitar o processo de ensino-aprendizagem,
sendo composto por um conjunto de recursos computacionais projetados com a intenção
de serem usados em um contexto educacional [
        <xref ref-type="bibr" rid="ref13">Sancho 1998</xref>
        ].
      </p>
      <p>A ludicidade dos recursos tecnológicos atrai os discentes, que rapidamente se
envolvem no processo de ensino-aprendizagem. Porém, além das dificuldades de
adaptação encontradas pelos docentes na implantação desses recursos no ambiente
escolar, estes encaram ainda o desafio de escolherem SEs que correspondam às suas
expectativas, que sejam adequados aos componentes curriculares a serem trabalhados, e
direcionados para o público discente ao qual se destinam.</p>
      <p>Portanto, para decidir sobre a adoção de um SE como recurso de apoio no
processo de ensino-aprendizagem, o docente deve considerar se seus elementos
pedagógicos estão de acordo com os propósitos dos conteúdos abordados, se a interface
apresenta-se com usabilidade e ergonomia condizentes com as características,
necessidades e limitações dos discentes, e se a qualidade interna do software, do ponto
de vista de seu desenvolvimento, é satisfatória. Problemas em qualquer um destes níveis
podem prejudicar o processo de construção do conhecimento pelos discentes. Portanto,
é necessário, antes de decidir adotar um SE, certificar-se de que este será um elemento
agregador no aprendizado.</p>
      <p>
        Para realizar avaliação de SE, é possível identificar na literatura vários métodos,
metodologias e técnicas de avaliação, a exemplo de: Método de Reeves [
        <xref ref-type="bibr" rid="ref2">Campos 1989</xref>
        ];
Técnica de TICESE [
        <xref ref-type="bibr" rid="ref5">Gamez 1998</xref>
        ]; Técnica de Mucchielli [
        <xref ref-type="bibr" rid="ref14">Silva 1998</xref>
        ]; Avaliação de
LORI [
        <xref ref-type="bibr" rid="ref8">Nesbit et al. 2002</xref>
        ]; Metodologia de
        <xref ref-type="bibr" rid="ref6">Martins [Martins 2004</xref>
        ], e Método
        <xref ref-type="bibr" rid="ref12">Rocha
[Rocha 1992</xref>
        ]. Estas são abordagens objetivas de avaliação, uma vez que se apoiam em
um conjunto de critérios (checklists), associados a uma escala de avaliação de
conformidade, e sua aplicação resulta em um diagnóstico indicando se o SE contempla
ou não os critérios de interesse. Cada abordagem possui critérios, escalas e diagnósticos
específicos.
      </p>
      <p>
        A diversidade de abordagens de avaliação de SE é uma realidade que pode
tornar difícil a escolha sobre qual técnica adotar.
        <xref ref-type="bibr" rid="ref9">Oliveira e Aguiar (2014</xref>
        ) realizaram
um estudo de análise comparativa entre um conjunto de abordagens de avaliação de SE.
Este estudo comparativo contempla os métodos, metodologias e técnicas de avaliação
citadas anteriormente, incluindo a Taxonomia de Bloom, que acabou sendo descartada
neste trabalho, por ter sido considerada uma ferramenta inadequada para a avaliação de
SE. Como resultado, os autores identificaram que: (a) existem critérios equivalentes
entre abordagens distintas, embora a nomenclatura utilizada não seja a mesma (uso de
sinônimos); e (b) nenhuma das abordagens contempla, igualmente, os três pilares de
uma avaliação de SE: elementos pedagógicos, critérios de usabilidade e qualidade
interna do software. Portanto, os autores propõem uma abordagem que combina
critérios de vários métodos, técnicas e metodologias a fim de tornar a avaliação do SE
mais abrangente. Neste sentido, o presente trabalho tem por objetivo aplicar a
abordagem combinada proposta em [
        <xref ref-type="bibr" rid="ref9">Oliveira and Aguiar 2014</xref>
        ] a fim de analisar sua
aplicabilidade em termos de (i) abrangência dos critérios analisados em relação à tríade:
elementos pedagógicos, critérios de usabilidade e qualidade interna do software; (ii) a
equivalência entre os critérios adotados na abordagem mista; (iii) o esforço cognitivo e
temporal para sua aplicação, e (iv) qualidade dos resultados alcançados.
      </p>
      <p>
        O artigo está organizado em quatro seções, incluindo esta. Na seção 2, são
descritas brevemente as técnicas aplicadas neste estudo, seus critérios e escalas de
medição. Na seção 3, descreve-se a aplicação da abordagem combinada para avaliação
de SE e apresentam-se os resultados alcançados. Por fim, na seção 4, estão as
considerações finais, contemplando as limitações e contribuições desta pesquisa, assim
como as possibilidades para continuá-la.
2. Métodos de Avaliação de Softwares Educacionais
De acordo com
        <xref ref-type="bibr" rid="ref4">Frescki (2008)</xref>
        , a expressão “avaliação de software educativo” consiste
em analisar como um software pode ser aplicado na educação para ajudar o aluno na
construção do conhecimento, e assim aperfeiçoar sua visão de mundo.
      </p>
      <p>
        A avaliação de um SE deve considerar as características voltadas à sua qualidade
didático-pedagógica, de tal modo que os objetivos dos estudiosos da ergonomia de
software e dos educadores possam convergir para um mesmo ponto [
        <xref ref-type="bibr" rid="ref14">Silva 1998</xref>
        ]. Além
disso, os SEs devem ter suas funcionalidades corretas, de acordo com os preceitos de
Engenharia de Software [
        <xref ref-type="bibr" rid="ref15">Sommerville 2007</xref>
        ], sendo importante ainda que a
interatividade e a interface oferecidas pelo SE sejam adequadas ao público-alvo [
        <xref ref-type="bibr" rid="ref11">Preece
et al. 2013</xref>
        ]. Numa tentativa de agrupar melhor os critérios de avaliação de SE,
        <xref ref-type="bibr" rid="ref10">Oliveira
et al. (2001)</xref>
        propôs a definição de quatro categorias, a saber:
i. Interação aluno-SE-professor: agrupa 21 critérios destinados a avaliar a
qualidade e a importância da utilização de um dado recurso tecnológico
dentro do ambiente escolar;
ii. Fundamentação pedagógica: compreende 2 critérios para identificar quais
foram as teorias e as opções pedagógicas selecionadas para o
desenvolvimento do SE sob avaliação;
iii. Conteúdo: une 12 critérios para identificar a completude e corretude do
conteúdo considerando a área de conhecimento que está sendo trabalhada
pelo SE; e, por fim,
iv. Programação: cujos 25 critérios reunidos buscam verificar se o SE
encontra-se de acordo com suas especificações (fidedignidade e integridade)
e com os critérios de facilidade e flexibilidade para o contexto educacional.
      </p>
      <p>
        Embora
        <xref ref-type="bibr" rid="ref10">Oliveira et al. (2001)</xref>
        contemple um conjunto considerável de 60
critérios e o agrupamento adotado considere as quatro categorias citadas acima, não
existe uma definição clara dos critérios associados especificamente à usabilidade
(qualidade de uso), encontrando-se estes diluídos dentre as demais categorias. Os
critérios relativos aos elementos pedagógicos estão presentes nas três primeiras
categorias de forma não organizada, havendo uma identificação mais clara dos itens
relacionados à qualidade de software (programação). Outro fator relevante a considerar
consiste no fato do autor não indicar, explicitamente, como os critérios devem ser
avaliados, não definindo, por exemplo, escalas de valores a serem associadas a cada
critério. Em virtude destas características, esta proposta de organização de critérios para
avaliação de SE pode ser entendida como uma abstração a ser instanciada por métodos,
metodologias, e técnicas de avaliação de SE.
      </p>
      <p>Neste sentido, existe uma grande variedade de técnicas para avaliação de SE
descritas na literatura, e cada uma delas possui singularidades em relação (i) ao número
de critérios; (ii) à natureza dos critérios (aspectos pedagógicos, qualidade de software,
qualidade de uso); (iii) à natureza e granularidade das escalas adotadas na avaliação dos
critérios e (iv) à qualidade dos resultados alcançados. Dentre as existentes, serão
consideradas no escopo deste trabalho as seguintes abordagens, cuja caracterização esta
sumarizada nos Quadros 1 e 2: Método de Reeves; Técnica de TICESE; Técnica de
Mucchielli; Avaliação de LORI; Metodologia de Martins, e Método Rocha. Os campos
vazios correspondem a “Não se Aplica”, e a numeração representa a quantidade de
critérios de cada técnica.</p>
      <p>Quadro 1: Abordagens para Avaliação de SE</p>
    </sec>
    <sec id="sec-2">
      <title>Aspectos de avaliação</title>
      <p>Pedagógico
Qualidade de software</p>
      <p>Qualidade de uso</p>
      <p>Total
14
10
24
s
e
v
e
e
R
10
10
i
l
l
e
i
h
c
c
u
M
4
6
10
s
n
i
t
r
a
M
1
4
4
9</p>
      <p>I
R
O
L
1
6
9
16</p>
      <p>E
S
E
C
I
T
9
1
10
s
o
p
m
a
C
15
1
16
a
h
c
o
R
Quadro 2: Caracterização das estratégias de avaliação por Abordagem</p>
    </sec>
    <sec id="sec-3">
      <title>Valor mínimo</title>
    </sec>
    <sec id="sec-4">
      <title>Valor máximo</title>
    </sec>
    <sec id="sec-5">
      <title>Escala</title>
      <p>Direita:
positivo
5 = positivo máximo
(1, 2, 3, 4, 5)
5 = mais fácil
(1, 2, 3, 4, 5)
5 = positivo máximo
(1, 2, 3, 4, 5)
1.5 = muito
importante
1 = positivo máximo
(0, 1, 1.5)
(0; 0,25; 0,50;</p>
      <p>0,75; 1)
(0.00 a 0.59;
0.60 a 0.89;
0.90 a 0.94;
0.95 a 1)</p>
    </sec>
    <sec id="sec-6">
      <title>Reeves</title>
    </sec>
    <sec id="sec-7">
      <title>Mucchielli</title>
    </sec>
    <sec id="sec-8">
      <title>Martins</title>
    </sec>
    <sec id="sec-9">
      <title>LORI</title>
    </sec>
    <sec id="sec-10">
      <title>TICESE</title>
    </sec>
    <sec id="sec-11">
      <title>Campos</title>
    </sec>
    <sec id="sec-12">
      <title>Rocha Forma de avaliação</title>
      <p>Escala bidirecional
não numérica</p>
      <sec id="sec-12-1">
        <title>Escala numérica de 5 pontos</title>
      </sec>
      <sec id="sec-12-2">
        <title>Escala numérica de 3 pontos Escala numérica de 5 pontos</title>
        <p>Esquerda:
negativo
1 = negativo</p>
        <p>máximo
1 = mais difícil
1 = negativo
máximo
0 = não
aplicável
0 = negativo</p>
        <p>máximo
Escala numérica de 0.00 a 0.59 sem
4 pontos qualidade
0.95 a 1 alta
qualidade</p>
        <p>
          Realizando uma análise inicial das abordagens e de seus critérios, ao comparar
com a proposta de
          <xref ref-type="bibr" rid="ref10">Oliveira et al. (2001)</xref>
          , é possível perceber que existe uma diferença
significativa em relação à quantidade de critérios definidos por este (60) e pelas
abordagens, sendo o Método de Reeves a que apresenta maior quantidade (24). Em
adicional, ao observar a distribuição dos critérios nos aspectos de avaliação, apenas duas
abordagens (LORI e TICESE) contemplam critérios na tríade: elementos pedagógicos,
qualidade de uso e de software, embora a quantidade de critérios seja baixa (9 e 16,
respectivamente). Essas observações iniciais incitam o questionamento sobre a
possibilidade de utilizar estas abordagens de forma combinada, aumentando o número
de critérios e a abrangência do resultado em relação aos aspectos de avaliação.
        </p>
        <p>
          Neste sentido, um estudo aprofundado sobre a completude das abordagens em
relação à proposta de [Oliveira et al. 2001] foi realizada e descrita em [
          <xref ref-type="bibr" rid="ref9">Oliveira and
Aguiar 2014</xref>
          ]. Foi realizado um mapeamento dos critérios destas abordagens em relação
aos critérios abstratos de [Oliveira et al. 2001], a fim de identificar a completude das
abordagens, assim como a equivalência entre os critérios destas. Como resultado da
análise identificou-se: i) a pobreza de critérios relacionados aos aspectos pedagógicos,
comparado a critérios de qualidade de uso (usabilidade) e qualidade de software
(programação) – exceto em Reeves; ii) a ausência de uma abordagem que, sozinha,
cobrisse um conjunto abrangente e significativo de critérios. Com estas duas
percepções,
          <xref ref-type="bibr" rid="ref9">Oliveira e Aguiar (2014</xref>
          ) constataram que os resultados alcançados na
avaliação de um SE a partir da aplicação destas abordagens poderiam ser insuficientes,
podendo prejudicar na tomada de decisão sobre a adoção de um SE. A fim de minimizar
este problema,
          <xref ref-type="bibr" rid="ref9">Oliveira e Aguiar (2014</xref>
          ) propuseram uma abordagem para avaliação de
SE que combina o conjunto total de critérios mapeados no estudo. Foi utilizada como
base a classificação de
          <xref ref-type="bibr" rid="ref10">Oliveira et al. (2001)</xref>
          para agrupar a combinação de critérios por
abordagem, e os operadores lógicos AND (indica o uso de ambas as abordagens) e OR
(indica a escolha de apenas uma das abordagens) para evidenciar a equivalência entre
critérios:
        </p>
        <p>Interação aluno-SE-professor: REEVES and MARTINS and TICESE;
Fundamentação pedagógica: REEVES or MUCCHIELLI;
Conteúdo: TICESE and LORI and MARTINS;
Programação: ROCHA and (TICESE or MARTINS) and LORI and REEVES and
CAMPOS.</p>
        <p>
          Embora a proposta de [
          <xref ref-type="bibr" rid="ref9">Oliveira and Aguiar 2014</xref>
          ] seja bastante interessante, os
autores não apresentam uma validação da abordagem combinada, a partir de sua
aplicação na avaliação de um SE real. Sendo assim, não existe informação sobre a
viabilidade da proposta, ou das limitações impostas pela associação de abordagens com
critérios e escalas de avaliação distintas, ou ainda sobre a qualidade dos resultados
obtidos. Portanto, o objetivo do presente trabalho consiste em analisar estes aspectos
diante da avaliação de um SE amplamente utilizado para o estudo de idiomas, o
Duolingo.
3. Aplicação da abordagem combinada para avaliação do Duolingo
O Duolingo é um aplicativo para estudo de idiomas (inglês, francês, espanhol e alemão),
disponível nas versões web e mobile, e com usuários de diferentes nacionalidades. Neste
SE, o conteúdo é agrupado em níveis (iniciante, intermediário e avançado), com temas
de estudo (saudações, comidas, animais, família, etc). Os temas são organizados em
lições e atividades. O nível de dificuldade das lições aumenta à medida que o aluno
progride entre as lições. Foram avaliadas as dez primeiras lições disponíveis na versão
web do Duolingo para ensino-aprendizagem de inglês.
        </p>
        <p>
          A avaliação do software foi feita por duas duplas de alunos, que, após um estudo
bibliográfico sobre os métodos de avaliação presentes na combinação de abordagens
aqui proposta, e a aplicação de algumas delas em atividades da disciplina Softwares
Educativos, se revezaram na aplicação das técnicas. Num primeiro momento, o SE foi
avaliado considerando cada técnica isoladamente, e os resultados foram registrados em
relatórios. Em seguida, iniciou-se o mapeamento entre os critérios propostos em
[Oliveira et al. 2001] e a combinação de abordagens proposta por [
          <xref ref-type="bibr" rid="ref9">Oliveira and Aguiar
2014</xref>
          ], produzindo tabelas únicas que concentravam todas as informações das
avaliações. O passo seguinte consistiu em acrescentar em cada tabela os resultados das
avaliações, a fim de identificar equivalências e fragilidades. A organização tabular da
informação considerou as “fórmulas” para combinação das abordagens.
        </p>
        <p>Nas subseções seguintes, são apresentados os resultados obtidos com a avaliação
a partir da abordagem combinada para a versão web do Duolingo. Com o intuito de
facilitar a compreensão dos resultados, estes estão apresentados de acordo com a
categorização proposta em [Oliveira et al. 2001].
3.1. Interação Aluno-SE-Professor = REEVES and MARTINS and TICESE
Observando a Figura 1, é possível perceber que muitos critérios são cobertos por apenas
uma das técnicas, o que justifica a necessidade de combiná-las para ter um resultado
abrangente. Entretanto, ainda há critérios (2, 4, 11, 15, 16, 19, 20 e 21) que não são
cobertos por nenhuma das técnicas, deixando lacunas na avaliação. Além disso, os
resultados obtidos em técnicas distintas nem sempre foram compatíveis, como fica
evidente para o critério 9: mal avaliado em REEVES, e bem avaliado em MARTINS.
3.2. Fundamentos Pedagógicos = REEVES or MUCCHIELLI
Para fundamentação pedagógica, houve discrepâncias dos resultados obtidos com
Reeves (avaliação negativa) em comparação com Mucchielli (avaliação positivas),
como pode ser visto na Figura 2. Este conflito de resultados é preocupante, uma vez que
as abordagens podem ser utilizadas de forma alternada (devido ao operador lógico OR).
A não equivalência dos resultados entre elas pode influenciar a avaliação feita, e induzir
o avaliador na tomada de decisão sobre a adoção do SE.</p>
        <p>Figura 2: Avaliação dos Fundamentos Pedagógicos para o Duolingo Web
3.3. Conteúdo = TICESE and LORI and MARTINS
Embora seja proposta a combinação de três técnicas para avaliação do conteúdo, ainda
há quatro critérios (25, 31, 34, 35) que não puderam ser avaliados por nenhuma delas.
Além disso, LORI compreende apenas dois critérios, e ambos são mapeados por
TICESE, levando a uma reflexão sobre a real necessidade de seu uso. No caso de
Martins, são apenas dois critérios, porém um deles (30) não é avaliado pelas outras duas
técnicas. Ainda assim, num universo dos 12 critérios destacados pela Figura 3, cabe a
reflexão se o uso combinado dessas técnicas seria realmente necessário, ou se apenas
TICESE seria suficiente para avaliar a qualidade do conteúdo do SE.</p>
        <p>Figura 3: Avaliação do Conteúdo para o Duolingo Web
3.4. Programação = ROCHA and (TICESE or MARTINS) and LORI and REEVES
and CAMPOS
Para os critérios de programação, não ter acesso ao código-fonte do Duolingo
impossibilitou que os critérios mapeados para Rocha e Campos fossem avaliados – na
Figura 4 estes itens possuem um contorno destacado. Outra informação relevante
consiste no fato de alguns dos critérios serem cobertos por apenas uma das técnicas
usadas: 40 (Reeves); 51 (Campos); 39, 41, 49, 53 (Rocha); 59 e 60 (LORI) – exigindo
que o avaliador conheça todas as técnicas e suas escalas de avaliação para um uso muito
pontual, interferindo na sua curva de aprendizado para aplicação da abordagem
combinada. Além disso, é importante perceber que a alternância entre as abordagens de
TICESE e Martins (pelo operador lógico OR) leva à não verificação de um critério. Ou
seja, caso a opção seja por TICESE, o item 55 não será avaliado; caso prefira Martins, o
critério 36 não terá correspondente. Mesmo com uma abrangente combinação de
técnicas, os critérios 37 e 44 não puderam ser mapeados para nenhuma das abordagens.
4. Considerações finais
Diante da necessidade de avaliar um software educativo, o educador se depara com uma
grande variedade de abordagens, cada uma com critérios próprios e notações
diferenciadas, sendo difícil escolher qual deverá ser usada. Além disso, algumas
abordagens possuem critérios muito subjetivos e com alto nível de abstração, não
apresentando explicações ou exemplos sobre como estes devem ser avaliados. Como
consequência, os resultados alcançados em uma avaliação ficam fortemente vinculados
ao avaliador que aplicou a abordagem (expertise e know-how). De forma complementar,
as avaliações de SE devem contemplar critérios da tríade: elementos pedagógicos,
qualidade de uso (usabilidade) e qualidade de software (desenvolvimento e
programação). A multidisciplinaridade envolvida no processo de avaliação, também
exige do avaliador uma gama de conhecimentos particulares – deixando explícita, mais
uma vez, a necessidade de expertise e know-how – impactando na curva de aprendizado
para realização das avaliações. Além disso, as abordagens para avaliação de SE não
contemplam, sozinhas, os três pilares que consolidam a qualidade de um software
educativo. Sendo assim, é importante considerar a adoção combinada de mais de uma
técnica para avaliação de SE.</p>
        <p>
          A fim de tornar a avaliação de SE mais abrangente, uma abordagem combinada de
vários métodos, técnicas e metodologias foi elaborada por [
          <xref ref-type="bibr" rid="ref9">Oliveira and Aguiar 2014</xref>
          ]. Para
análise da viabilidade de avaliar um SE a partir desta proposição, realizou-se, neste trabalho, a
sua aplicação para o software para aprendizado de idiomas Duolingo, amplamente utilizado
pelo mundo. Os resultados detalhados foram apresentados na seção anterior, mas, de forma
geral, foi possível identificar as seguintes fragilidades da proposta: (i) Embora se constate
uma maior abrangência dos critérios em relação à tríade, quando comparada com as
abordagens individuais, ainda é possível perceber uma predominânica para os critérios de
qualidade de uso (usabilidade). Além disso, os critérios relativos à qualidade interna do
software dependem do acesso ao código-fonte do SE, informação que nem sempre está
disponível. Ainda que esteja disponível, a avaliação dos critérios não é trivial, exigindo do
avaliador conhecimento detalhado sobre programação e engenharia de software; (ii)
Considerando a equivalência entre os critérios adotados na abordagem mista (uso do OR), é
importante destacar que os resultados obtidos por abordagens diferentes para os mesmos
critérios não foram compatíveis (Figura 1 e Figura 2). Este fato pode levar a uma reflexão
sobre o uso alternado desses critérios, ou ainda, levantar um questionamento sobre o nível de
abstração necessário para a avaliação destes critérios – o que poderia ter levado os avaliadores
a resultados opostos; (iii) O esforço cognitivo para sua aplicação é demasiado, uma vez que os
avaliadores se deparam com um conjunto relativamente grande de critérios a serem avaliados,
e eles são mensurados a partir de estratégias diferentes (escalas e valores). A alternância
constante entre as abordagens leva ao cansaço mental dos avaliadores. Além disso, a ausência
de uma ferramenta que auxilie no processo de avaliação torna esta tarefa mais demorada,
exigindo um alto grau de concentração por parte de quem a aplica; e, por fim, (iv) a qualidade
dos resultados alcançados se restringe ao mapeamento dos critérios associados aos valores
obtidos na avaliação (Figuras 1, 2, 3 e 4). A análise deste conjunto de informação não
favorece a percepção dos avaliadores sobre quais são suas principais deficiências, não
auxiliando a tomada de decisão sobre a adoção ou não do SE.
        </p>
        <p>Tendo compreensão da validade da proposta de abordagens combinadas para
avaliação de SE, e conhecendo suas atuais limitações, acredita-se que o ponto de partida para
auxiliar os avaliadores de SE, em sua maioria docentes, que atuam nas mais diversas áreas de
conhecimento, consiste na padronização dos critérios em termos de instrumentos de
mensuração. Em seguida, faz-se necessário tornar a aplicação da abordagem mais exata
(menos dependente do conhecimento do avaliador) e menos custosa (tempo e esforço). Estes
dois objetivos podem ser alcançados tendo como apoio a padronização dos critérios-base para
permitir o desenvolvimento de uma ferramenta que guie o processo de avaliação de SE. Com
o auxílio de uma ferramenta computacional, seria possível, a partir da caracterização do SE
(mobile, web, desktop), dos seus propósitos pedagógicos (EaD, simulação, resolução de
exercícios, etc), e do seu uso (jogo, uso colaborativo, etc.) sugerir critérios a serem analisados.
Os critérios poderiam ser mensurados de acordo com uma escala comum e os resultados
poderiam ser exibidos para os avaliadores considerando a proporção de critérios satisfeitos, e
alertas sobre aspectos relevantes para o contexto geral de SE que não sejam contemplados
pelo SE em análise.</p>
      </sec>
    </sec>
  </body>
  <back>
    <ref-list>
      <ref id="ref1">
        <mixed-citation>
          <string-name>
            <surname>Andres</surname>
            ,
            <given-names>D. P.</given-names>
          </string-name>
          and
          <string-name>
            <surname>Cybis</surname>
            ,
            <given-names>W. A.</given-names>
          </string-name>
          (
          <year>2000</year>
          )
          <article-title>“Um Estudo Teórico sobre as Técnicas de Avaliação de Software Educacional”</article-title>
          . In VI Congresso Argentino de Ciências de la Computación.
        </mixed-citation>
      </ref>
      <ref id="ref2">
        <mixed-citation>
          <string-name>
            <surname>Campos</surname>
            ,
            <given-names>G. H. B.</given-names>
          </string-name>
          (
          <year>1989</year>
          ) “Construção e validação de ficha de avaliação de produtos educacionais para microcomputadores”. Dissertação de Mestrado - Faculdade de Educação, Universidade Federal do Rio de Janeiro. p.
          <fpage>110</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref3">
        <mixed-citation>
          <string-name>
            <surname>Costa</surname>
            ,
            <given-names>V. M.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Rapkiewicz</surname>
            , C. E., de Queirós Filho,
            <given-names>M. G.</given-names>
          </string-name>
          , and
          <string-name>
            <surname>Canela</surname>
            ,
            <given-names>M. C.</given-names>
          </string-name>
          (
          <year>2003</year>
          ). Avaliação de sites educacionais de Química e Física:
          <article-title>um estudo comparativo</article-title>
          .
          <source>In Anais do Workshop de Informática na Escola</source>
          . Vol.
          <volume>1</volume>
          , No.
          <volume>1</volume>
          , p.
          <fpage>545</fpage>
          -
          <lpage>554</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref4">
        <mixed-citation>
          <string-name>
            <surname>Frescki</surname>
            ,
            <given-names>F. B.</given-names>
          </string-name>
          (
          <year>2008</year>
          ) “
          <article-title>Avaliação da qualidade de softwares educacionais para o ensino de álgebra”</article-title>
          . Centro de Ciências Exatas e Tecnológicas,
          <article-title>Universidade Estadual do Oeste do Paraná, campus Cascavel</article-title>
          .
        </mixed-citation>
      </ref>
      <ref id="ref5">
        <mixed-citation>
          <string-name>
            <surname>Gamez</surname>
            ,
            <given-names>L. TICESE.</given-names>
          </string-name>
          (
          <year>1998</year>
          ) “Técnica de inspeção de conformidade ergonômica de software educacional”. Dissertação de
          <article-title>Mestrado submetida à Universidade do Minho</article-title>
          . Portugal.
        </mixed-citation>
      </ref>
      <ref id="ref6">
        <mixed-citation>
          <string-name>
            <surname>Martins</surname>
            , M. de
            <given-names>L. O.</given-names>
          </string-name>
          (
          <year>2004</year>
          )
          <article-title>“O papel da usabilidade no ensino a distância mediado por computador”</article-title>
          . Dissertação de Mestrado. Centro Federal de Educação tecnológica de Minas Gerais. Minas Gerais.
        </mixed-citation>
      </ref>
      <ref id="ref7">
        <mixed-citation>
          <string-name>
            <surname>Morais</surname>
            ,
            <given-names>R. X. T.</given-names>
          </string-name>
          (
          <year>2003</year>
          ).
          <article-title>Software educacional: a importância de sua avaliação e do seu uso nas salas de aula. Monografia (Bacharel em ciências da computação) - Faculdade Lourenço Filho</article-title>
          . 51p. Fortaleza.
        </mixed-citation>
      </ref>
      <ref id="ref8">
        <mixed-citation>
          <string-name>
            <surname>Nesbit</surname>
            ,
            <given-names>J.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Belfer</surname>
            ,
            <given-names>K.</given-names>
          </string-name>
          ;
          <string-name>
            <surname>Leacock</surname>
            ,
            <given-names>T.</given-names>
          </string-name>
          (
          <year>2002</year>
          )
          <article-title>“Learning Object Review Instrument (LORI)”</article-title>
          , http://cenlinu1.centennialcollege.ca/aahs/LORI/help.php.
        </mixed-citation>
      </ref>
      <ref id="ref9">
        <mixed-citation>
          <string-name>
            <surname>Oliveira B Junior</surname>
            ,
            <given-names>O.</given-names>
          </string-name>
          and
          <string-name>
            <surname>Aguiar</surname>
            ,
            <given-names>Y. P. C.</given-names>
          </string-name>
          (
          <year>2014</year>
          ).
          <article-title>Análise de abordagens objetivas para avaliação de softwares educativos</article-title>
          .
          <source>In Proceedings of the 13th Brazilian Symposium on Human Factors in Computing Systems</source>
          . Sociedade Brasileira de Computação.
        </mixed-citation>
      </ref>
      <ref id="ref10">
        <mixed-citation>
          <string-name>
            <surname>Oliveira</surname>
            ,
            <given-names>C. C. O.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Costa</surname>
            ,
            <given-names>J. W.</given-names>
          </string-name>
          and
          <string-name>
            <surname>Moreira</surname>
            ,
            <given-names>M.</given-names>
          </string-name>
          (
          <year>2001</year>
          ) “Ambientes informatizados de aprendizagem: produção e avaliação de software educativo”. Papirus.
        </mixed-citation>
      </ref>
      <ref id="ref11">
        <mixed-citation>
          <string-name>
            <surname>Preece</surname>
            ,
            <given-names>J.</given-names>
          </string-name>
          ;Rogers,
          <string-name>
            <given-names>Y.</given-names>
            and
            <surname>Sharp</surname>
          </string-name>
          ,
          <string-name>
            <surname>E.</surname>
          </string-name>
          (
          <year>2013</year>
          ). Design de Interação,
          <article-title>além da interação humano-computador, Editora Bookman</article-title>
          , 3ª Edição.
        </mixed-citation>
      </ref>
      <ref id="ref12">
        <mixed-citation>
          <string-name>
            <surname>Rocha</surname>
            ,
            <given-names>A. R.</given-names>
          </string-name>
          and Campos,
          <string-name>
            <surname>G.B.</surname>
          </string-name>
          (
          <year>1992</year>
          ) “Avaliação de Qualidade de Software Educacional”.
          <source>São Paulo</source>
          , Em Aberto, n. 57, v.
          <volume>12</volume>
          .
        </mixed-citation>
      </ref>
      <ref id="ref13">
        <mixed-citation>
          <string-name>
            <surname>Sancho</surname>
            ,
            <given-names>J.</given-names>
          </string-name>
          (
          <year>1998</year>
          ).
          <article-title>Para uma tecnologia educacional</article-title>
          .
          <source>Porto Alegre: ArtMed.</source>
        </mixed-citation>
      </ref>
      <ref id="ref14">
        <mixed-citation>
          <string-name>
            <surname>Silva</surname>
            ,
            <given-names>C. R.</given-names>
          </string-name>
          (
          <year>1998</year>
          )
          <article-title>“Bases Pedagógicas e Ergonômicas para Concepção e Avaliação de Produtos Educacionais Informatizados”</article-title>
          . Dissertação de Mestrado submetida à Universidade Federal de Santa Catarina. 113p. Florianópolis.
        </mixed-citation>
      </ref>
      <ref id="ref15">
        <mixed-citation>
          <string-name>
            <surname>Sommerville</surname>
            ,
            <given-names>Ian.</given-names>
          </string-name>
          (
          <year>2007</year>
          ) Engenharia de Software.
          <source>Ed Person Education. 8ª Edição.</source>
        </mixed-citation>
      </ref>
    </ref-list>
  </back>
</article>