<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Archiving and Interchange DTD v1.0 20120330//EN" "JATS-archivearticle1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink">
  <front>
    <journal-meta />
    <article-meta>
      <title-group>
        <article-title>Test yöneticileri tarafından algılandığı şekliyle yazılım hata raporlarının kalitesi: endüstriyel bir vaka çalışması</article-title>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <string-name>Ankara</string-name>
          <xref ref-type="aff" rid="aff0">0</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Calgary</string-name>
          <xref ref-type="aff" rid="aff0">0</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Kanada</string-name>
          <xref ref-type="aff" rid="aff0">0</xref>
        </contrib>
        <aff id="aff0">
          <label>0</label>
          <institution>Kadir HERKİLOĞLU</institution>
          ,
          <addr-line>Adem ÇAĞLAR, Aydın AKKAYA, Kemal ERGEZER, Onur SERTEL, Serap İDİNAK Test Müdürlüğü, HAVELSAN A.Ş. Ankara</addr-line>
          ,
          <country country="TR">Türkiye</country>
        </aff>
      </contrib-group>
      <fpage>60</fpage>
      <lpage>70</lpage>
      <abstract>
        <p>In the context of an industry-academia collaboration in the scope of test process improvement, the authors noticed a need to assess the usage, usefulness and quality of defect reports. The objective was to assess the qualıty defect reports and also to pinpoint improvement areas in defect reports to increase developers' effectiveness in fixing defects. To address the above needs, we recently conducted a questionnaire-based opinion survey which gathered input from 38 software developers in the context of a large Turkish software and systems company providing global solu-</p>
      </abstract>
    </article-meta>
  </front>
  <body>
    <sec id="sec-1">
      <title>-</title>
      <p>tions in the areas of defense and IT, and reported the results in a previous recent paper. To
complement our previous study (opinions of developers), we conducted another survey, this time among a
set of five test managers. We report and analyze the results of the managers’ survey in the current
study and compare them to the previous results (opinions of developers). Analysis of results from
both surveys has helped us to assess the usage, usefulness and quality of defect reports and also to
pinpoint the necessary improvement areas in defect reports, for which an improvement effort has
already started.
1</p>
    </sec>
    <sec id="sec-2">
      <title>Giriş</title>
      <sec id="sec-2-1">
        <title>Yazılım geliştirme sürecinde, hata raporları, hataları düzeltmek adına geliştiriciler için önemli bilgi</title>
        <p>ler sağlar [1]. Hataları daha hızlı bir şekilde tespit etmek ve düzeltmek için, hata raporlarının daha
net ve öz yazılmaları yararlı olabilir [2].</p>
        <p>Test süreç iyileştirme bağlamında yürütülen bir üniversite-sanayi işbirliği projesi kapsamında, hata
raporlarının kullanımının, yararlılığının ve kalitesinin değerlendirilmesi için bir ihtiyaç doğmuş ve
bir çalışma başlatılmıştır. Çalışmanın amacı, hata raporlarının okunma kolaylığı, faydalanılabilme
durumu ve kalitelerinin değerlendirmesini yapmak ve değerlendirmeden çıkacak sonuçlara göre test
mühendislerinin hata raporu yazma pratiklerini geliştirmektir. Çalışmanın endüstri tarafı büyük bir
savunma sanayi yazılım ve sistem entegratör firması olan HAVELSAN A.Ş. dir. Söz konusu
üniversite-sanayi işbirliği projesi Aksiyon-Araştırma (İngilizcede: Action-Research) metodolojisi [3]
prensipleri üzerine kurulmuştur.
Çalışmamızın ilk adımında, hata raporların kullanılabilme, yararlılık ve kalitesinin geliştiriciler
tarafından değerlendirilmesine odaklanılmıştır ve çalışmanın sonuçları yakın geçmişte bir makale
olarak [4] yayınlanmıştır. Bu makalede, çalışmamızın ikinci adımı olarak, hata raporların kalitesi
test yöneticileri tarafından değerlendirilmiş ve iki paydaş gözünden hata kalitesinin nasıl farklı
algılandığı araştırılmıştır.</p>
      </sec>
      <sec id="sec-2-2">
        <title>Makalenin bundan sonraki bölümleri şu şekilde düzenlenmiştir. Bölüm 2’de vaka (durum) tanımı ve</title>
        <p>ihtiyaç analizi özetlenmiştir. Bölüm 3 literatürdeki ilgili çalışmaları özetlemektedir. Bölüm 4’te
araştırma amaç ve yöntemi sunulmaktadır. Bölüm 5’te sonuçlar ve analizler sunulmuştur. Bölüm</p>
      </sec>
      <sec id="sec-2-3">
        <title>6’da ise sonuçlar tartışılmış, ileriye yönelik çalışmalarla ilgili yönlendirmeler paylaşılmıştır.</title>
        <p>2
2.1</p>
        <p>Bağlam</p>
      </sec>
    </sec>
    <sec id="sec-3">
      <title>Vaka tanımı ve ihtiyaç analizi</title>
      <sec id="sec-3-1">
        <title>Söz konusu üniversite-sanayi işbirliği projesinin endüstri tarafı olan HAVELSAN A.Ş. (Hava Elektronik Sanayii), 1982 yılında Türk Silahlı Kuvvetleri'nin yazılım mühendisliği alanındaki ihtiyaçlarının giderilmesi amacı ile kurulmuş olan bir şirkettir. Şirket merkezi Ankara'da olmakla birlikte bir çok farklı ilde ve yurtdışında ofisleri bulunmaktadır.</title>
        <p>Yazılım mühendisliği yetenekleri açısından, HAVELSAN CMMI seviye 3 ile akredite edilmiştir.
Şirketin Kalite, Test ve Süreç Yönetim Direktörlüğünde bağımsız bir Test Müdürlüğü
bulunmaktadır. Test edilen yazılım sistemlerinin tipine göre, test müdürlüğü kendi içinde çeşitli test ekiplerine
bölünmüştür, örneğin: (1) otomasyon uygulamaları ve görüntü işleme teknolojileri için test ekibi ve
(2) yer destek sistemleri için test ekibi. Toplamda, 40'tan fazla test mühendisi çalışmaktadır. Test
grubu; dünya çapında kullanılan “bağımsız yazılım doğrulama ve geçerleme” (İngilizcede:
Independent Software Verification and Validation, ISVV) standart test yaklaşımı ve savunma ve
havacılık endüstrileri tarafından çoğunlukla kullanılan, örneğin [5], prensipler üzerine kendi süreçlerini
kurmuştur. Test grubu tarafından yürütülen test faaliyetlerinin neredeyse hepsi kara-kutu
(blackbox) test tipindedir. Firmanın test stratejisine bağlı olarak, beyaz-kutu (white-box) test faaliyetleri
yazılım geliştirme ekipleri tarafından yapılmaktadırlar.</p>
        <p>HAVELSAN tarafından geliştirilen sistemlerin tipine bağlı olarak (emniyet ve görev kritik
sistemler), genel olarak şirketin tüm gruplarında ve özellikle test ekibinde, daha etkin ve verimli yazılım
mühendisliği uygulamaları ve pratikleri gerçekleştirmek için sürekli çaba harcanmaktadır. Çeşitli
süreç iyileştirme faaliyetleri gerçekleştirilmektedir. Bu sürekli iyileştirme çalışmalarından biri bu
makalede bahsi geçen üniversite-sanayi işbirliği projesidir.
2.2</p>
        <p>İhtiyaç analizi ve son çalışmanın özeti
Sürdürülen üniversite-sanayi işbirliği projesinin konularını belirlemek üzere taraflar arasında bir
takım toplantılar gerçekleştirilmiştir. 7 adet konu belirlenmiş ve her konu ayrı ayrı projelendirilerek
proje ekipleri oluşturulmuştur. 7 konudan bir tanesi, Test Müdürlüğü için sistematik, etkin ve
verimli, Amaç-Soru-Ölçüt (İngilizcede: Goal-Question-Metric, GQM) [6]-tabanlı bir ölçüm ve iyileştirme
programı kurmak olarak belirlenmiştir. Bu kapsamda, Test Müdürlüğü için büyük bir GQM ağacı
geliştirilirken, test mühendisleri tarafından üretilen önemli bir çıktı (artifact) olarak hata raporları
üzerinde durulmuş ve hata raporlarının kullanımının, yararlılığının ve kalitesinin değerlendirilmesi
gerekliliği fark edilmiştir. Test mühendisleri hata raporlarının 'üretenleri' olarak, hataları düzeltmek
için atanan geliştiriciler 'tüketici' olarak konumlandırılmışlardır. Hata raporlarının daha net ve öz
yazılması, hataların daha hızlı bir şekilde tespit edilip düzeltilmesi için yararlı olabilmektedir [2].
Şekil 1 hata raporları içeren 'üretici-tüketici' dinamiklerini göstermektedir. 1…7 arası sıra
numaraları bu bağlamda gerçekleştirilen görevlerin ardışık sırasını belirlemektedir. Yukarıda bahsettiğimiz
gibi, çalışmamızın ilk adımı olarak, hata raporların kullanımını, faydalılığını ve kalitelerini
geliştiriciler tarafından değerlendirme üzerine odaklanılmıştır [4]. O çalışmadan sonra, söz konusu
dinamiğe ‘yönetici’ aktörü de (actor) eklenmiştir, çünkü test yöneticisi bu süreçte önemli bir role sahiptir.
Örneğin: test işlemlerini yönetmek, hata raporlarını incelemek vb.</p>
        <p>1</p>
        <p>Test
İşi yapıyor
2</p>
        <p>Yönetici
Yönetiyor
İnceleyip atama
yapıyor
4</p>
        <p>Yönetiyor</p>
        <p>7
Hata raporları</p>
        <p>Hataları düzeltmek
Yazıyor
3 [Hata
tespit edilmişse]</p>
        <p>Kullanıyor
5</p>
        <p>Yapmak için
6
Test mühendisi
«üreten»</p>
        <p>Yazılım geliştirici</p>
        <p>
          «tüketen»
Şekil 1- Hata raporları içeren 'üretici-tüketici' dinamikleri
Literatürde tekrarlı (duplicate) hatalar [7] ve hata atama problemi için [8], birçok araştırma
mevcuttur. Ama, hata raporlarının kullanımı, faydaları ve kalite analizleri için daha az araştırma yapılmıştır
[
          <xref ref-type="bibr" rid="ref10 ref11 ref9">1, 9-12</xref>
          ]. Etkili (yüksek kalite) hata raporu yazmak için, akademik (formal) veya gri literatürde
birçok kılavuz mevcuttur, örneğin, [
          <xref ref-type="bibr" rid="ref12 ref13 ref14">2, 13-15</xref>
          ].
‘İyi bir hata raporu nasıl olur?’ başlıklı çalışma [1], iyi bir hata raporu tanımlamak için, üç büyük
projenin (Apache, Eclipse ve Mozilla) geliştiricileri ve kullanıcıları arasında yapılmış bir anket
sonucudur. Alınan 466 yanıtın analizi sonucunda, hata raporlarında geliştiricilerin ihtiyacı duyduğu
bilgiler ile hata raporlarını yazanların verdiği bilgiler arasında bilgi uyumsuzluğu olduğu
gösterilmiştir. Geliştiricilerin çoğu, en çok yararlı bulduğu bilgi olarak, hataları tekrarlama adımları, yığın
izleri (stack traces) ve test durumlarını belirtmişlerdir. Ancak, hata raporlarını yazanlar, aynı bilgiler
için “sağlanması en zor bilgiler” bildiriminde bulunmuşlardır.
        </p>
        <p>
          Açık-kaynak yazılım projelerinde, geliştiriciler ve kullanıcılar arasındaki işbirliğini anlamak ve hata
izleme sistemlerini iyileştirmek için, [9]’daki çalışma nitel ve nicel bir şekilde Mozilla ve Eclipse
projelerden alınan 600 hata raporunu analiz etmiştir. Yazarlar hata raporlarına ait sorular ve yanıtları
kategori ve proje bazında ayırmışlardır. Analizlerin sonucunda kullanıcıların rolü sadece raporlama
değil, belki daha ötesi, hata raporlarının üzerinde aktif ve sürekli katılımlarının olması gerektiğini
göstermiştir.
[
          <xref ref-type="bibr" rid="ref9">10</xref>
          ]’deki çalışmada, Mozilla Firefox projesi için açılmış, serbest erişimin olabildiği 27.000’den
fazla yazılım hata raporunun yüzeysel özniteliklerinin istatistiksel analizlerine dayanan hata raporu
kalitesinin tanımlayıcı modeli sunulmuştur. Sunulan model ile bir hata raporunun belirlenen bir
zaman içerisinde önceliklendirilip önceliklendirilemediği öngörülmeye çalışılmıştır. Yapılan
analizin hata raporlama sistemlerine etkisinin olacağı belirtilmiş, hata raporu oluşturulurken
vurgulanması gereken öznitelikler önerilmiştir.
        </p>
      </sec>
      <sec id="sec-3-2">
        <title>Başka bir endüstri araştırması [11] hatayı yeniden üretmek için gerekli adımlar ile adımlar uygulan</title>
        <p>dığında beklenen davranışı, hata raporlarının en önemli bilgileri olduğunu bulmuştur. Maalesef, hata
raporu yazanların çoğunun bu teknik bilgiden yoksun olduğu belirtilmiş ve bu yüzden yazarlar bu
süreci otomatize edecek yöntemler bulmayı önermişlerdir. Başka bir araştırma ise, aynı otomasyon
sisteminin yeni hata takip sistemlerine entegre edilmesini tavsiye etmiştir.</p>
        <p>
          Eclipse’teki hata raporlarının kalitesi üzerine yapılan bir diğer araştırmada [
          <xref ref-type="bibr" rid="ref11">12</xref>
          ], geliştiriciler
içerisinde yığın izlerinin bulunduğu hatalar en kullanışlı olarak değerlendirilirken, içerisinde yanlış veya
eksik bilgi bulunan hata raporları hataları adreslemede en az yararlı hatalar olarak bildirilmişlerdir.
İlk çalışmamızda bahsedildiği gibi [4], çalışmalar sırasında yapılan değerlendirmeler ve ilgili
çalışmalar arasındaki benzerlik dikkate alındığında, [1] makalesinde sunulan hata rapor kalite ölçeği
uygun bulunmuş ve bu çalışmada kullanılmıştır.
4
        </p>
      </sec>
    </sec>
    <sec id="sec-4">
      <title>Araştırma amaç ve yöntemi</title>
      <sec id="sec-4-1">
        <title>Bölüm 2.2'de tartışılan çalışmanın ihtiyaçlarına göre ve Amaç-Soru-Ölçüt (İngilizcede: Goal</title>
      </sec>
      <sec id="sec-4-2">
        <title>Question-Metric, GQM) [6] hedefi şablonu kullanılarak yapılan ve bu makalede sunulan ampirik araştırmanın amacı test yöneticilerinin bakış açısından hata raporlarının kalitesini anlamak, bu görüşleri geliştiriciler tarafından verilen görüşlerle kıyaslamak [4], ve bu bulguları hata raporlarının ve raporlama uygulamalarının iyileştirilmesinde kullanmaktır.</title>
      </sec>
      <sec id="sec-4-3">
        <title>Araştırmanın amacı belirlettiği gibi, vaka çalışmamızın tipi 'keşifçi' (exploratory) olduğu üzere [16]</title>
        <p>amacımız bu kapsamda durumun ne olduğunu öğrenmek, yeni anlayışlar aramak ve gelecek
iyileştirme ve araştırmalar için fikirler ve hipotezler oluşturmaktır. Makalemizde projenin amacına
dayanarak, iki araştırma sorusu (ArSor, “Research Questions”) ortaya koyulmaktadır:
•
•</p>
      </sec>
      <sec id="sec-4-4">
        <title>ArSor 1- Yöneticilerin bakış açısından hata raporlarının kalitesi nedir ve nasıl artırılabilir?</title>
        <p>
          ArSor 2- Hata raporlarının kalitesi, test yöneticilerinin ve geliştiricilerin bakış açılarından nasıl
benzerlikler ve farklıklar içermektedir?
Çalışmanın sorularını cevaplamak için, test yöneticileri arasında bir anket tasarlanıp veri
toplanmıştır. [4]’te bahsedildiği gibi, anketin tasarımı çoğunlukla [1]’deki raporlanan anket baz alınarak
yapılmıştır. Tablo 1 tasarlanan anketi göstermektedir. Ankette toplam 24 madde bulunmaktadır ve
maddeler üç gruba bölünmüşlerdir: (1) Alanların kalitesi, (2) Alanlardaki hatalar, ve (3) Diğer
sorunlar. Her test yöneticisinden her yönettiği proje için, bir kere anketi doldurması istenmiştir (kesin
proje sayısı bilgi gizliliği için verilememektedir). Her madde 1-5 arası 5-noktalı Likert skalası
(Likert scale) değerleri arasından seçilerek cevaplanmıştır (Tablo 2 de gösterildiği gibi). Sadece 5 adet
test yöneticisi bulunduğundan, sayı azlığı nedeniyle anket örnekleme yöntemi olarak, örnekleme
yöntemleri, örneğin “tabakalı örnekleme” (“stratified sampling”) [
          <xref ref-type="bibr" rid="ref16">17</xref>
          ], kullanılamamıştır.
        </p>
        <p>Tablo 1-Hata raporlanın kalitesini ölçmek için tasarlanan anket
Alanların kalitesi
• Hatayı tekrarlama adımları (Steps to</p>
        <p>reproduce)
• Gözlemlenen davranış (Observed
Be</p>
        <p>haviour)
• Beklenen davranış (Expected
Behav</p>
        <p>iour)
Diğer sorunlar
• Yanlış hata önemi
• Yanlış hata öncelikliliği
• Tekrarlı hatalar
• Eksik bilgiler</p>
        <p>Alanlarda hatalar
• Ürün adı
• Bileşen adı
• Versiyon numarası
• Donanım
• İşletim sistemi
• Gözlemlenen
davra</p>
        <p>nış
• Beklenen davranış
•
•
•
•
•
•
•
•
•
•</p>
      </sec>
      <sec id="sec-4-5">
        <title>Kaynak kod örneklerinde</title>
      </sec>
      <sec id="sec-4-6">
        <title>Hatayı tekrarlama adımları</title>
      </sec>
      <sec id="sec-4-7">
        <title>Test durumları</title>
      </sec>
      <sec id="sec-4-8">
        <title>Yığın izleri</title>
      </sec>
      <sec id="sec-4-9">
        <title>Kötü gramer</title>
      </sec>
      <sec id="sec-4-10">
        <title>Yapılandırılmamış metin</title>
      </sec>
      <sec id="sec-4-11">
        <title>Nesir metni</title>
        <p>Çok uzun metin</p>
      </sec>
      <sec id="sec-4-12">
        <title>Teknik olmayan dil</title>
      </sec>
      <sec id="sec-4-13">
        <title>Yazım sorunları</title>
        <p>Tablo 2- Hata raporlanın kalite ölçmesi için kullanılan 5-noktalı Likert mikyası (Likert scale)
Değer / value</p>
        <p>N/A
1
2
3
4
5</p>
        <sec id="sec-4-13-1">
          <title>Açıklama</title>
        </sec>
      </sec>
      <sec id="sec-4-14">
        <title>Geçerli değil</title>
      </sec>
      <sec id="sec-4-15">
        <title>Gözlenmemiştir</title>
      </sec>
      <sec id="sec-4-16">
        <title>Nadiren gözlemlenen</title>
      </sec>
      <sec id="sec-4-17">
        <title>Bazen gözlemlenen</title>
      </sec>
      <sec id="sec-4-18">
        <title>Sık gözlenen</title>
      </sec>
      <sec id="sec-4-19">
        <title>Daima gözlemlenen</title>
        <sec id="sec-4-19-1">
          <title>Explanation</title>
        </sec>
      </sec>
      <sec id="sec-4-20">
        <title>Not Applicable</title>
      </sec>
      <sec id="sec-4-21">
        <title>Not Observed</title>
      </sec>
      <sec id="sec-4-22">
        <title>Rarely Observed</title>
      </sec>
      <sec id="sec-4-23">
        <title>Sometimes Observed</title>
      </sec>
      <sec id="sec-4-24">
        <title>Frequently Observed</title>
      </sec>
      <sec id="sec-4-25">
        <title>Always Observed</title>
      </sec>
    </sec>
    <sec id="sec-5">
      <title>5 Sonuçlar ve analiz</title>
      <p>ArSor 1’i cevaplamak için, Şekil 2 hazırlanmış ve yöneticilerin bakış açısından hata raporlarının
kalitesi sunulmuştur. Genelde, bilgi gizliliği sağlamak için, değerlerin ortalaması alınmış ve
raporlanmıştır, örneğin: Şekil 2 deki alanların kalite değerleri için, test grubu G1. Literatürde ve önceki
araştırmamızda [4] görüldüğü gibi, hata raporlarında en önemli üç alan şunlardır: Hatayı tekrarlama
Şekil 2’de görüldüğü üzere, gözlemlenen davranış hata raporlarının hemen hepsinde mutlaka
belirtildiğinden (5 test grubu arasında, dört tane 5, ‘daima gözlemlenen’, değeri ve sadece bir 4,9 değeri),
yazılan hata raporlarının gözlemlenen davranışlar açısından çok kaliteli olduğu değerlendirilebilir.</p>
      <sec id="sec-5-1">
        <title>Tekrarlama adımları ve beklenen davranışlar açısından bakıldığında, bu değerlerin genelde (kalite</title>
        <p>notlar 3-5 arasında değişiyor) hataların içerisinde yer aldığı ve bu açıdan da hataların bu iki özellik
açısından kabul edebilir bir kalitede yazıldıkları söylenebilir.</p>
        <p>
          Hata raporu kalitesini etkileyen diğer hata alanlarında yapılan yanlışlara baktığımızda, beş grup
arasındaki ortalama notlar 1.0 ve 2.2 aralığında değişmektedir. En çok iyileşmeye ihtiyaç duyan
alanlar olarak, yazı tarzı ile ilgili alanlar raporlanmışlardır: nesir metin (prose text), kötü gramer
(bad grammar), ve yapılandırılmamış metin (unstructured text). Nesir metin, dil kurallarından başka
hiçbir ölçüye bağlı olmayan düz ve tabu anlatma yoludur. Sade nesir, konuşma dilinde yazılan, açık,
tabiî nesirdir. Hataların açılma döneminin testler koşturulurken veya test oturumunun hemen
ardından olduğu göz önünde bulundurulduğunda, proje gecikmelerinin en çok etkilediği faz olarak test
fazının süresinin azalmasının, bu tip hataların oluşmasına bir etki yarattığı düşünülmektedir.
Genelde yazılım mühendisleri için teknik yazma yetenekleri çok önemli bir yetenektir [
          <xref ref-type="bibr" rid="ref17">18</xref>
          ]. Ticaret,
pazarlama ve diğer sektörlerde vurgulanan deyim: “Ne söylediğiniz çok önemli değil, ama onu nasıl
söylediğiniz önemlidir” [19], bu durum hata raporları konusunda da önemli görünmektedir. Etkili
(yüksek kalite) hata raporu yazmak için, birçok online kılavuzda, örneğin [
          <xref ref-type="bibr" rid="ref12 ref13">13, 14</xref>
          ], doğru dil ve
teknik kullanmanın önemi vurgulanmıştır.
Şekil 2’de, diğer sorunlara baktığımızda, hata raporlarının içinde eksik bilgiler hemen hemen
yoktur. Yanlış hata öncelikliliği (priority) ve yanlış hata önemi (severity) beş test grubu arasında farklı
sıklıklarla karşılaşılmaktadır. Bu değerlerin yanlışlığı test yöneticileri ve proje yönetimi için büyük
sorun teşkil etmektedir çünkü ürün kalitesinin belirlenmesinde açılan hataların sayısından çok
niteliği daha büyük önem taşımaktadır. Önem ve öncelik tanımlarının ekipler içerisinde yeniden
anlatılması ve açılan hataların takibi için planlama yapılarak, bu problemin gelecekte oluşturacağı
riskler için azaltma planı yapılmıştır. Tekrarlı hatalar (duplicate bugs) [7] nadiren görülmüştür. Bu
haliyle bir sorun teşkil etmemekle birlikte, gelecekte oluşabilecek sorunun çözümü için mevcut
teknik veya araçlarının kullanımı [
          <xref ref-type="bibr" rid="ref18">20</xref>
          ]’de tavsiye edilmiştir.
        </p>
        <p>ArSor 2'yi cevaplamak için, Şekil 3 hazırlanmıştır. Grafikte, hata raporlarının kalitesi, test
yöneticileri ve geliştiricilerin bakış açısından karşılaştırılmıştır. Şekilde, yöneticiler için gösterilen değerler,
Şekil 2’deki değerlerin ortalama değerleridir. Şekil 3’de görüldüğü üzere, genelde yöneticiler hata
raporlarının kalitesini geliştiricilerden daha olumlu değerlendirmektedirler. Bu ilginç gözlem için
birkaç olasılık düşünebiliriz: (1) yöneticiler ile kıyasla, geliştiriciler hata raporlarının gerçek
tüketicileridirler ve dolayısıyla, geliştiriciler daha objektif bir şekilde kalite değerlendirmesi yapmış
olabilirler, (2) yine birinci sebepten dolayı, ürünün (hataların) sahibi olarak test yöneticileri kaliteye daha
iyimser (optimisttik) bakmış olabilirler, (3) Geliştiriciler anketi doldururken, hata örneklerini
yeniden incelememiş, akıllarında kalan intiba ile değerleri doldurmuş olabilirler. Test yöneticileri her
projeden yeteri kadar örneklemi inceleyerek anketi doldurmuşlardır, bu durum geliştiricilerin
değerlendirmesinde olması gerekenin altında bir değer oluşturmuş olabilir.
5.0
4.0
3.0
2.0
1.0
0.0</p>
        <p>Hatayı tekrarlama
adımları</p>
        <p>Gözlemlenen
davranış</p>
        <p>Beklenen davranış</p>
        <p>Yanlış hata
önemi</p>
        <p>Yanlış hata
öncelikliliği</p>
        <p>Tekrarlı hatalar</p>
        <p>Eksik bilgi
Alanların  kalitesi</p>
        <p>Diğer sorunlar
G1
G3
G5</p>
        <p>G2</p>
        <p>G4
G1</p>
        <p>Alanlarda hata
G2 G3</p>
        <p>G4</p>
        <p>G5</p>
        <p>G1
G4</p>
        <p>G2
G5</p>
        <p>G3
Kötü gramer</p>
        <p>Beklenen davranış
Yığın izleri Kaynak kod örneklerinde</p>
        <p>Test durumları Hatayı tekrarlama adımları
Şekil 2- ArSor 1'e cevap: Yöneticilerin bakış açısından hata raporlarının kalitesi</p>
        <p>Teknik olmayan dil
Çok uzun metin</p>
        <p>Nesir metni
Yapılandırılmamış metin</p>
        <p>Alanlarda hata
Yöneticilerin görüşü</p>
        <p>Geliştiricilerin görüşü
Yazım sorunları</p>
        <p>
          Bileşen adı
Bu makalede hata raporlarının kullanımının, yararlılığının ve kalitesinin belirlenmesine yönelik
daha önce geliştiriciler ile yapılan ankete dayalı bir araştırmanın benzeri, test yöneticileri ile
tekrarlanmış ve her iki bakış açısı kıyaslanmıştır. Bunun için 2 araştırma sorusu ile önce test
yöneticilerinin bakış açısıyla hata raporlarının kalitesi ölçülmüş, sonrasında hata raporlarında sık karşılaşılan
hatalar veya eksikler değerlendirilerek, bulgular geliştirici araştırmasının bulgularıyla
kıyaslanmıştır. Buna göre her iki araştırma grubunun sonuçları arasında yüksek benzerlik (korelasyon)
görülmüştür. Sadece 2. araştırma sorusunun (ArSor2) yanıtları incelendiğinde yine geliştiricilerin ve test
yöneticilerinin değerlendirmelerinde benzerlik olmakla birlikte değer ortalamalarında farklılıklar
görülmüş, bunun da farklı rollerde olmanın yaratmış olduğu değer algısından kaynaklandığı
değerlendirilmektedir.
Bu bölümde, standart bir kontrol listesi temel alınarak [
          <xref ref-type="bibr" rid="ref19">21</xref>
          ], hazırlanmış çalışmamıza sınır teşkil
edebilecek olası geçerliliğe tehditlerden ve bunları nasıl azalttığımızdan, ortadan kaldırmaya
çalıştığımızdan bahsedilecektir. Dört tip olası geçerliliğe tehdit dikkate alınmıştır: içsel geçerlilik (internal
validity), yapısal geçerlilik (construct validity), sonuç geçerlik (conclusion validity) ve dış geçerlik
(external validity).
İçsel geçerlilik: İç geçerlilik ile bir çalışma ve çıkarılan verilere dayalı bir nedensel sonuç garanti
edilir ve sunulan bilimsel çalışmaların bir özelliğidir. Bu çalışmada iç geçerliliğine bir tehdit seçim
yanlılığıdır (yani, araştırmamıza katılan yöneticilerin rastlantısal olmamasıdır). Bölüm 4'de
açıklandığı gibi, firmada, sayı olarak, sadece 5 adet test yöneticisi bulunmaktadır. Anketi doldurmak için,
sadece onlar davet edilmiştir. Dolayısıyla, bu konuda başka bir yöntem yürütülemezdi.
        </p>
      </sec>
      <sec id="sec-5-2">
        <title>Yapısal geçerlilik: Bu geçerlilik, çalışmanın nesnelerinin gerçekten çalışmanın arkasındaki teoriyi</title>
        <p>temsil etme ölçüsü ile ilgilidir. Diğer bir deyişle, konu aslında çalışmamızda gerçek dünyada veya
firmada hata raporlarının kalitesinin doğru ölçülüp ölçülmediği ile ilgilidir. Kullanılan yaklaşım
(anket) literatürdeki diğer anket çalışmalarına benzemektedir. Her soru için oylar sayılmış ve
istatistiksel analizler yapılmıştır. Literatüre göre, oylama verilerine dayalı sonuçlar, belli bir ölçüde,
çalışma kapsamında şirket uygulayıcılarının çoğunluğunun görüşlerini yansıtmaktadır.</p>
      </sec>
      <sec id="sec-5-3">
        <title>Sonuç geçerlilik: Bir çalışmanın sonuç geçerliliği, onun sonuçlarının titiz ve tekrarlanabilir uygula</title>
        <p>ma ile ulaşılabilir olup olmadığı ile ilgilidir. Bu çalışmada, hata raporlarının kalitesi niteliksel olarak
ölçülmüş ve analiz edilmiştir. İki araştırma sorusu (ArSor, “Research Questions”) ortaya koyulmuş
ve her ArSor için, 5'li Likert ölçeği kullanılarak anket tasarlanıp veri toplanmıştır. İstatistiksel
analizler ile araştırma soruları cevaplanmıştır. Böylece, çalışmanın tüm sonuçları toplanan verilere
bağlanmışlardır.</p>
      </sec>
      <sec id="sec-5-4">
        <title>Dış geçerlik: Dış geçerlilik bir çalışmanın sonuçlarının genelleştirebilir olma ölçüsü ile ilgilidir.</title>
      </sec>
      <sec id="sec-5-5">
        <title>Bölüm 4'te açıklandığı gibi, firmada, sayı olarak, sadece 5 adet test yöneticisi var olduğundan,</title>
        <p>anketi doldurmak için daha çok kişiyi davet edemezdik. Dolaysıyla, dış geçerlilik açısından
sonuçlarımız sadece sözü geçen test ekiplerine aittirler ve çalışmanın sonuçları diğer test takımlarına ve
firmalara genelleştirilemezler. Ama en azından, yazılım mühendisliğinde önemli olan ampiriklik ve
kanıt olma açısından, sonuçlarımız değerli bir katkı sayılabilirler.</p>
      </sec>
    </sec>
    <sec id="sec-6">
      <title>7 Sonuç ve gelecek çalışmalar</title>
      <p>Test süreç iyileştirme bağlamında yürütülen bir üniversite-sanayi işbirliği projesi kapsamında, hata
raporlarının kullanımı, yararlılığı ve kalite değerlendirmesi için bir ihtiyaç oluşmuştur.
Çalışmamızın ilk adımı olarak, hata raporlularının okunması, kullanımı ve kalitelerinin geliştiriciler tarafından
değerlendirmesi üzerine odaklanılmış ve ilk çıktısı yakın geçmişte yayınlanmış bir makale olarak
[4] sunulmuştur. Daha önceki çalışmayı (geliştiriciler görüşleri) tamamlamak için, bu makalede beş
test yöneticisinden, hata raporlarının kalitesini değerlendirmek üzere görüşleri toplanmıştır.
Makalede test yöneticilerin anket sonuçları analiz edilmiş ve önceki sonuçlarla (geliştirici görüşleriyle)
karşılaştırılmıştır. Her iki anketin sonuçları kullanılarak, hata raporlarının kalitesi değerlendirilmiş
ve hata raporların yazılmasında gerekli iyileştirmeler yapabilmesi için, bir çalışma başlatılmıştır.</p>
      <sec id="sec-6-1">
        <title>Gelecekte yapılacak çalışma planı olarak; bu çalışmanın devamında, hata raporların yazılmasında gerekli iyileştirme çalışmalarının sürdürülmesi ve bir süre sonra her iki anketin gelecekte yeniden tekrarlanması planlanmaktadır. Böylece, önce/sonra (before/after) durumları analiz edilebilecektir.</title>
      </sec>
    </sec>
    <sec id="sec-7">
      <title>Kaynaklar</title>
      <p>[1]</p>
      <p>N. Bettenburg, S. Just, A. Schroter, C. Weiss, R. Premraj, and T. Zimmermann, "What makes a good bug
report?," presented at the Proceedings of the ACM SIGSOFT International Symposium on Foundations of
software engineering, 2008.
https://developer.mozilla.org/en[19] The marketing donut, "It's not what you say, but how you say it,"
http://www.marketingdonut.co.uk/marketing/pr/building-relationships-with-the-media/it-s-not-what-yousay-but-how-you-say-it, Last accessed: May 2016.</p>
    </sec>
  </body>
  <back>
    <ref-list>
      <ref id="ref1">
        <mixed-citation>
          <string-name>
            <given-names>J. D.</given-names>
            <surname>Strate</surname>
          </string-name>
          and
          <string-name>
            <given-names>P. A.</given-names>
            <surname>Laplante</surname>
          </string-name>
          ,
          <article-title>"A Literature Review of Research in Software Defect Reporting,"</article-title>
          <source>IEEE Transactions on Reliability</source>
          , vol.
          <volume>62</volume>
          , pp.
          <fpage>444</fpage>
          -
          <lpage>454</lpage>
          ,
          <year>2013</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref2">
        <mixed-citation>
          <string-name>
            <surname>P. S. M.</surname>
          </string-name>
          <article-title>d</article-title>
          . Santos and
          <string-name>
            <given-names>G. H.</given-names>
            <surname>Travassos</surname>
          </string-name>
          ,
          <article-title>"Action research use in software engineering: An initial survey,"</article-title>
          <source>in Proceedings of the International Symposium on Empirical Software Engineering and Measurement</source>
          ,
          <year>2009</year>
          , pp.
          <fpage>414</fpage>
          -
          <lpage>417</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref3">
        <mixed-citation>
          <string-name>
            <given-names>V.</given-names>
            <surname>Garousi</surname>
          </string-name>
          ,
          <string-name>
            <given-names>E. G.</given-names>
            <surname>Ergezer</surname>
          </string-name>
          , and
          <string-name>
            <given-names>K.</given-names>
            <surname>Herkiloğlu</surname>
          </string-name>
          ,
          <article-title>"Usage, usefulness and quality of defect reports: an industrial case study,"</article-title>
          <source>in International Conference on Evaluation and Assessment in Software Engineering (EASE)</source>
          ,
          <year>2016</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref4">
        <mixed-citation>
          <string-name>
            <given-names>N.</given-names>
            <surname>Silva</surname>
          </string-name>
          and
          <string-name>
            <given-names>R.</given-names>
            <surname>Lopes</surname>
          </string-name>
          ,
          <article-title>"10 Years of ISVV: What's Next?,"</article-title>
          <source>in IEEE International Symposium on Software Reliability Engineering Workshops</source>
          ,
          <year>2012</year>
          , pp.
          <fpage>361</fpage>
          -
          <lpage>366</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref5">
        <mixed-citation>
          <string-name>
            <given-names>V. S.</given-names>
            <surname>Rini</surname>
          </string-name>
          and
          <string-name>
            <given-names>E.</given-names>
            <surname>Berghout</surname>
          </string-name>
          , The Goal/Question/Metric Method:
          <string-name>
            <surname>McGraw-Hill</surname>
            <given-names>Education</given-names>
          </string-name>
          ,
          <year>1999</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref6">
        <mixed-citation>
          <string-name>
            <given-names>N.</given-names>
            <surname>Bettenburg</surname>
          </string-name>
          ,
          <string-name>
            <given-names>R.</given-names>
            <surname>Premraj</surname>
          </string-name>
          ,
          <string-name>
            <given-names>T.</given-names>
            <surname>Zimmermann</surname>
          </string-name>
          , and
          <string-name>
            <given-names>K.</given-names>
            <surname>Sunghun</surname>
          </string-name>
          ,
          <article-title>"Duplicate bug reports considered harmful: really?,"</article-title>
          <source>in IEEE International Conference on Software Maintenance</source>
          ,
          <year>2008</year>
          , pp.
          <fpage>337</fpage>
          -
          <lpage>345</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref7">
        <mixed-citation>
          <string-name>
            <surname>M. R. Karim</surname>
          </string-name>
          , G. Ruhe,
          <string-name>
            <surname>M. M. Rahman</surname>
            ,
            <given-names>V.</given-names>
          </string-name>
          <string-name>
            <surname>Garousi</surname>
            , and
            <given-names>T.</given-names>
          </string-name>
          <string-name>
            <surname>Zimmermann</surname>
          </string-name>
          ,
          <article-title>"An Empirical Investigation of Single-objective and Multi-objective Evolutionary Algorithms for Developer's Assignment to Bugs,"</article-title>
          <source>In Press, Journal of Software: Evolution and Process</source>
          ,
          <year>2016</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref8">
        <mixed-citation>
          <string-name>
            <given-names>S.</given-names>
            <surname>Breu</surname>
          </string-name>
          ,
          <string-name>
            <given-names>R.</given-names>
            <surname>Premraj</surname>
          </string-name>
          ,
          <string-name>
            <given-names>J.</given-names>
            <surname>Sillito</surname>
          </string-name>
          , and
          <string-name>
            <given-names>T.</given-names>
            <surname>Zimmermann</surname>
          </string-name>
          ,
          <article-title>"Information needs in bug reports: improving cooperation between developers and users,"</article-title>
          <source>in Proceedings of the Conference on Computer-supported Cooperative Work</source>
          ,
          <year>2010</year>
          , pp.
          <fpage>301</fpage>
          -
          <lpage>310</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref9">
        <mixed-citation>
          [10]
          <string-name>
            <given-names>P.</given-names>
            <surname>Hooimeijer</surname>
          </string-name>
          and
          <string-name>
            <given-names>W.</given-names>
            <surname>Weimer</surname>
          </string-name>
          ,
          <article-title>"</article-title>
          <source>Modeling bug report quality," in Proceedings of IEEE/ACM international conference on Automated Software Engineering</source>
          ,
          <year>2007</year>
          , pp.
          <fpage>34</fpage>
          -
          <lpage>43</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref10">
        <mixed-citation>
          [11]
          <string-name>
            <given-names>E. I.</given-names>
            <surname>Laukkanen</surname>
          </string-name>
          and
          <string-name>
            <given-names>M. V.</given-names>
            <surname>Mantyla</surname>
          </string-name>
          ,
          <article-title>"Survey Reproduction of Defect Reporting in Industrial Software Development,"</article-title>
          <source>in International Symposium on Empirical Software Engineering and Measurement</source>
          ,
          <year>2011</year>
          , pp.
          <fpage>197</fpage>
          -
          <lpage>206</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref11">
        <mixed-citation>
          [12]
          <string-name>
            <given-names>N.</given-names>
            <surname>Bettenburg</surname>
          </string-name>
          ,
          <string-name>
            <given-names>S.</given-names>
            <surname>Just</surname>
          </string-name>
          ,
          <string-name>
            <given-names>A.</given-names>
            <surname>Schroter</surname>
          </string-name>
          ,
          <string-name>
            <given-names>C.</given-names>
            <surname>Wei</surname>
          </string-name>
          ,
          <string-name>
            <given-names>R.</given-names>
            <surname>Premraj</surname>
          </string-name>
          , and
          <string-name>
            <given-names>T.</given-names>
            <surname>Zimmermann</surname>
          </string-name>
          ,
          <article-title>"Quality of bug reports in Eclipse,"</article-title>
          <source>in Proceedings of the OOPSLA workshop on eclipse technology eXchange</source>
          ,
          <year>2007</year>
          , pp.
          <fpage>21</fpage>
          -
          <lpage>25</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref12">
        <mixed-citation>
          [13]
          <article-title>35 Mozilla contributors, "Bug writing guidelines,"</article-title>
          US/docs/Mozilla/QA/Bug_writing_guidelines,
          <source>Last accessed: Dec</source>
          .
          <year>2015</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref13">
        <mixed-citation>
          [14]
          <string-name>
            <given-names>S.</given-names>
            <surname>Tatham</surname>
          </string-name>
          ,
          <article-title>"How to Report Bugs Effectively,"</article-title>
          http://www.chiark.greenend.org.uk/~sgtatham/bugs.html,
          <source>Last accessed: Dec</source>
          .
          <year>2015</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref14">
        <mixed-citation>
          [15]
          <string-name>
            <given-names>E.</given-names>
            <surname>Hendrickson</surname>
          </string-name>
          ,
          <article-title>"Writing Effective Bug Reports," Software testing and quality engineering magazine</article-title>
          , pp.
          <fpage>10</fpage>
          -
          <lpage>11</lpage>
          ,
          <year>2001</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref15">
        <mixed-citation>
          [16]
          <string-name>
            <given-names>P.</given-names>
            <surname>Runeson</surname>
          </string-name>
          and
          <string-name>
            <given-names>M.</given-names>
            <surname>Höst</surname>
          </string-name>
          ,
          <article-title>"Guidelines for conducting and reporting case study research in software engineering," Empirical Software Engineering</article-title>
          , vol.
          <volume>14</volume>
          , pp.
          <fpage>131</fpage>
          -
          <lpage>164</lpage>
          ,
          <year>2009</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref16">
        <mixed-citation>
          [17]
          <string-name>
            <given-names>T. R.</given-names>
            <surname>Lunsford</surname>
          </string-name>
          and
          <string-name>
            <given-names>B. R.</given-names>
            <surname>Lunsford</surname>
          </string-name>
          , "The Research Sample,
          <string-name>
            <surname>Part</surname>
            <given-names>I</given-names>
          </string-name>
          :
          <article-title>Sampling,"</article-title>
          <source>J. Prosthetics and Orthotics</source>
          , vol.
          <volume>7</volume>
          , pp.
          <fpage>105</fpage>
          -
          <lpage>112</lpage>
          ,
          <year>1995</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref17">
        <mixed-citation>
          [18]
          <string-name>
            <given-names>L.</given-names>
            <surname>Levine</surname>
          </string-name>
          ,
          <string-name>
            <given-names>L. H.</given-names>
            <surname>Pesante</surname>
          </string-name>
          , and
          <string-name>
            <given-names>S. B.</given-names>
            <surname>Dunkle</surname>
          </string-name>
          ,
          <article-title>"</article-title>
          <source>Technical Writing for Software Engineers," Technical report</source>
          , http://www.sei.cmu.edu/reports/90cm023.pdf,
          <year>1991</year>
          , Last accessed: May
          <year>2016</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref18">
        <mixed-citation>
          [20]
          <string-name>
            <given-names>X.</given-names>
            <surname>Wang</surname>
          </string-name>
          ,
          <string-name>
            <given-names>L.</given-names>
            <surname>Zhang</surname>
          </string-name>
          , T. Xie,
          <string-name>
            <given-names>J.</given-names>
            <surname>Anvik</surname>
          </string-name>
          , and
          <string-name>
            <given-names>J.</given-names>
            <surname>Sun</surname>
          </string-name>
          ,
          <article-title>"An approach to detecting duplicate bug reports using natural language and execution information," presented at the</article-title>
          <source>Proceedings of the 30th international conference on Software engineering</source>
          , Leipzig, Germany,
          <year>2008</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref19">
        <mixed-citation>
          [21]
          <string-name>
            <given-names>R.</given-names>
            <surname>Feldt</surname>
          </string-name>
          and
          <string-name>
            <given-names>A.</given-names>
            <surname>Magazinius</surname>
          </string-name>
          ,
          <article-title>"Validity Threats in Empirical Software Engineering Research-An Initial Survey,"</article-title>
          <source>in SEKE</source>
          ,
          <year>2010</year>
          , pp.
          <fpage>374</fpage>
          -
          <lpage>379</lpage>
          .
        </mixed-citation>
      </ref>
    </ref-list>
  </back>
</article>