Karşılaştırılabilir teknikler hakkında bilgisiz ya da sessiz kalırken bir tekniği pazarlayan uzmanlar, pek de "uzman" değildir.
Gerçek bir uzmandan en azından, neyi bilmediğini bilmesini ve sorulmadan söylemesini bekleyebiliriz.
Myers, Composite Design /3/ adlı eserinde, modülerleştirme yöntemiyle bağlantılı olarak anlamadığı alanları listeleme zahmetine katlanan az sayıdaki profesyonel makale yazarından biridir.
Umarım başkaları da onu izler.
Otomatik Test Yolu Analizi
General Research Corporation’dan Miller /18/ ve TRW-System Group /11, ss. 6–52, 19/, programcı verimliliğini ve etkinliğini artırmak için yeni bir yazılım aracı geliştirmiş ve kullanıma sunmuştur (GRC’den RXVP, bkz. Datamation, Şubat 1975, s. 103).
Bu, asgari program mantık yolu doğrulamasını yapmak için çalıştırılması gereken farklı test yolu kombinasyonlarını analiz eden bir programdır (ya da programlar kümesidir).
Bu programların bazıları, gerekli test yollarını eldeki test verileriyle ilişkilendirir ve gerekli test durumlarının otomatik olarak üretilmesi için bu programların temel alınmasına yönelik girişimler vardır; ancak bu son nokta daha zordur.
Açıktır ki, bu tür araçlar (örneğin edinilmesi aylık bin ila birkaç bin dolar arasında olanlar), kaynak kod mantığını "okuma" ve bunu test durumlarıyla ilişkilendirme işinin büyük bir bölümünü yerine getirmektedir; bu da SP’nin verimli biçimde yardımcı olması beklenen bir görevdir.
Ancak artık makineler bu görevi üstlendiğine göre, en azından okunabilir SP’den elde edilen değerin bir kısmı ortadan kalkmıştır.
Bununla birlikte, SP’nin program mantığının bilgisayar tarafından analiz edilmesi görevini basitleştirebileceğini ve gereken test durumu sayısını azaltma eğiliminde olacağını not etmeliyiz.
Bu, SP’nin yeni bir erdemi olabilir.
Miller, Londra’da Eurocomp-74’te sözlü olarak, incelenen 26 gerçek programdan 23’ünde, sorumlu yazarların tüm test yolları için test durumlarına sahip olduklarına ikna oldukları hâlde, gerçekte yolların yalnızca yüzde 80’i için test durumlarının bulunduğunun kanıtlandığını bildirmiştir.
Başka bir deyişle, makineler bazı görevlerde insanlardan açıkça daha iyidir.
Otomatik test yolu analiz araçları ile SP arasında bir seçim yapma şansım olsaydı, sanırım SP’yi bırakmaya meyilli olurdum.
Neyse ki, ikisine birden sahip olabiliriz.
Süreç İncelemeleri
Bu tekniği tanımlamak için yapılandırılmış gözden geçirme veya program inceleme komiteleri gibi farklı terimlerin kullanıldığını duymuş olabilirsiniz.
En güncel terimler "tasarım ve kod incelemeleri" ile "Programların Geliştirilmesinde Süreç Kontrolü"dür; ikincisi aynı zamanda IBM Sistem Geliştirme Bölümü’nden Mike Fagan’ın mükemmel araştırma raporunun da başlığıdır. /16/
Fagan’ın üzerinde durduğu programcı verimliliği sorunu, TRW tarafından da vurgulanmaktadır /11/ ve özgün program kodunun pahalı ve kapsamlı biçimde yeniden yazılması problemidir (TRW’ye göre, büyük yazılım projelerinde—eğer başarıya ulaşabilirlerse—yüzde 95’e kadar).
Fagan’a göre, kullanıcı gereksinimlerini gerçekten karşılayabilmek için program kodunun yeniden yazılmasının ve elbette sistemin yeniden test edilmesinin maliyeti, karşılık gelen değişikliklerin daha erken bir aşamada (ayrıntılı tasarımda veya ilk kodlama sırasında) yapılmasının maliyetinin on ila yüz katıdır.
Yapılandırılmış programlama yeniden yazımları ortadan kaldıramaz; en iyi ihtimalle yalnızca acıyı azaltabilir. Bu nedenle asıl ilginç sorun, yetersiz belirtimden kaynaklanan program yeniden yazımı gereksiniminin nasıl ortadan kaldırılacağıdır.
TRW’nin yanıtı "Tasarım Belirtimi için Gereksinimler/Özellikler Matrisi"dir /10: 5-1, 21/; bu, her bir sistem işlevinin tüm önemli özelliklerini ele almak için basit ama açıkça güçlü bir araçtır. Amaç, tasarım gereksinimlerinin bütünlüğü ve tutarlılığının çok erken bir aşamada fark edilmesini zorlamak ve böylece daha sonraki, daha pahalı aşamada yeniden kodlama gereksinimini önemli ölçüde azaltmaktır.
Mike Fagan’ın yanıtları farklıdır, ancak kesinlikle çelişkili değildir. Her iki yanıtın da çoğu programlama projesinde, hatta daha küçük olanlarda bile, aynı anda uygulanabileceğine inanıyorum. Fagan, incelemelerin uygulanmasının ölçülebilir programcı verimliliği etkisini dikkatle araştırır; amaç, herhangi bir kombinasyonda, üç olası aşamada hataları belirlemektir:
- Ayrıntılı tasarımdan sonra, ancak kaynak kodlamadan önce;
- Kod yazıldıktan sonra, ancak derlemek ve test etmek için herhangi bir bilgisayar zamanı kullanılmadan önce;
- Kod tamamen test edildikten sonra.
Birinci inceleme, bin adet yorum içermeyen kaynak deyimi başına net 94 programcı-saat tasarrufu sağlar. İkinci inceleme 51 saat daha kazandırır (1000 deyim başına), peki son inceleme? Sürpriz! Verimsizdir (kazandırdığından daha fazla programcı zamanı kaybettirir) ve 1000 deyim başına 20 saat kaybettirir. Sonuç: vazgeçin. Erken tasarım ve kod incelemelerini SP’ye tercih ederim, ancak belki de her ikisi de haklıdır.
Veri Fazlalığına Dayalı Hata Saptama ve Düzeltme Yöntemleri
Gerek programcı verimliliğini artırmak, gerek program bakımını iyileştirmek ve gerekse işletim sırasında hataları azaltmak amacıyla, zaman bağımlı hatalar (durma, kesme, sonsuz döngü) dışında program mantığındaki diğer tüm hataların, veriyi amaçlanan sonuçtan farklı bir duruma bozduğu gözlemine dayanan geniş bir teknikler kümesi vardır.
Programlanmış sistemin tüm düzeylerine—veri öğelerine, kayıtlara ve veritabanlarına—sistematik olarak veri fazlalığı tasarlayarak eklemek suretiyle, program hatalarının etkilerinin otomatik olarak saptanması ve hatta otomatik olarak düzeltilmesi için gerekli asgari temel atılabilir.
Bu teknolojinin büyük bir bölümü, benim kendi kitabım Reliable EDP Application Design /5/’te belgelenmiştir ve yaklaşan baskılarda genişletilip derinleştirilmektedir. Kısaca, kapsamlı test yükü (özellikle bakım değişikliklerinden sonra) programın çalıştırılmasının işletim aşamalarına taşınır; burada zaten yalnızca uygulamada gerçekten ortaya çıkan durumlar programa beslenir. Birçok program hatası, sisteme yerleştirilmiş hata saptama mekanizmalarının çapraz ağlarından birinin sonucu olarak tespit edilecektir ve bazıları veride otomatik olarak düzeltilecektir; her ne kadar gerçek mantıksal hata hata üretmeye devam etse de. Önemli nokta, son kullanıcının zarar görmemesidir ve bedel çoğu zaman otomatik düzeltmeye olanak tanımak için yalnızca hafif bir performans düşüşüdür.
Günümüzde yaygın olarak öğretilmeyen veya anlaşılmayan bu veri fazlalığı teknolojisi, aynı zamanda bağımsız veritabanı denetim programlarının da temelini oluşturur; bu programlar, birçok başka amacın yanı sıra, programların doğru çalışmasının doğrulanmasının daha ileri bir otomasyon derecesi olarak hizmet edebilir. Bu, sürekli program bakımının yapıldığı ve her birinin ortak veritabanı kaynağını tehdit ettiği bir veritabanı ortamında özellikle önemlidir. Hacim, programdan bağımsızlık ve veri yapısı karmaşıklığı; verilerin erişilebilirliği ve doğruluğunun muhtemel önemiyle birlikte ele alındığında, tamamen otomatik veritabanı denetim programlarını mutlak bir gereklilik hâline getirir; en azından benim görüşüme göre.
Bu aracın etkisini göstermek için, yazarın bir banka müşterisi, sekiz yıllık, çevrimiçi, bir milyon hesaplık bir veritabanına bir veritabanı tanılama programı eklemiştir. Dosyalarda, hiçbir kullanıcı veya uygulama programının tanımlamadığı üç yüz bin hata bulmuştur. Ancak bu hataların çoğu, üst yönetim raporlarının hatalı olmasına yol açan verilerdi. Üst yönetim şok oldu; SP çabaları yardımcı olmamıştı.
Sonuç
Bu alternatif teknikler kesinlikle tam bir liste değildir. Teknikler tam olarak açıklanmamıştır ve bu nedenle belki de yeterince ikna edici değildir. Ancak okuyucuya, bu alternatif ve tamamlayıcı tekniklerin pratik kullanımını takip edebilmesini amaçlayan bazı başvurular verilmiştir.
Okuyucunun, bu yazarın yapılandırılmış programlamaya karşı olduğu yanılgısıyla ayrılmasını istemem. Ben yalnızca, alternatif ve tamamlayıcı teknikler dikkate alınmadan, üstünlükleri ve sakıncaları hakkında daha iyi pratik kanıtlar olmadan ve kullanıma alındığı her yerde etkileri periyodik olarak ölçülmeden kabul edilmesine karşıyım. Ayrıca, programcı verimliliği ve programlanmış sistem kalitesi açısından daha temel değere sahip olduğu düşünülebilecek tekniklerden dikkati uzaklaştırmasından rahatsızlık duyuyorum.
Son olarak, nihai analizde yapılandırılmış programlamanın yalnızca bir tür el emeğinin—program kodlama ve insan tarafından program okuma—etkinliğini artırmanın bir yolu olduğu yönündeki rahatsız edici farkındalık vardır. Gerçekten ilginç sorular, işin mümkün olduğunca ortadan kaldırılması ve ardından geriye kalan kısmın mümkün olduğunca otomasyona kavuşturulmasıdır.
Bir Öngörü
Son olarak, bu teknolojinin nereye gittiği—hatta nereye gitmek zorunda olduğu—konusunda bir öngörüde bulunma lüksünü kendime tanıyacağım.
Programlama dillerimizin kendileri, uygulama mantığını ve veriyi; verimlilik, güvenilirlik, taşınabilirlik veya diğer kalite özniteliklerini dikkate almadan belirtmek için gereken asgari düzeye kadar önemli ölçüde sadeleşecektir. Daha üst düzey, çok boyutlu öznitelikler geleceğin derleyicilerine beslenecek ve ardından ilk ve sürekli olarak gözden geçirilen program ve veri tasarımı, optimizasyon ve tasarım gereksinimlerimizi gerçek çalışma ortamıyla ilişkilendiren yazılımlar tarafından yapılacaktır. Programlar ve veritabanları, çok daha yüksek bir derecede, kendi kendini tasarlayan ve kendi kendini uyarlayan yapılar olacaktır. Bu, günümüzde bile ilginç bir düzeyde teknolojik olarak mümkündür ve Future Shock (Alvin Toffler’ın kitabına bakınız) ortamında bilgisayar kaynakları sağlayabilmemizin belki de tek yolu budur. Bu yazar /22/ ve Knuth /2, s. 283/ başta olmak üzere, başkaları da kendi kendini tasarlayan ve kendi kendini uyarlayan yazılım fikrine değinmişlerdir; sonuçta bu, gelişmiş işletim sistemleri ve optimize edici derleyicilerin zaten kullandığı ilkenin aynısıdır.
Kaynaklar
- Gilb, Comm. of ACM, Mart 1975, ss. 187–188, ACM Forum. "Programlama teknikleri hakkındaki bilgiyi ne zaman yapılandıracağız?" ACM Computing Surveys, Aralık 1974. (yapılandırılmış) programlama üzerine özel sayı.
- Myers, Glenford J.: Composite Design: The Design of Modular Programs, Ocak 1973. IBM TR 0024 06. 80 sayfa.
- Gilb, Software Maintainability, Management Datamatics içinde, IAG, Şubat 1975, s. 25.
- Gilb, Reliable EDP Application Design, Petrocelli, NY, ABD; Studentlitteratur.
- Gould ve Drongowski, A Controlled Psychological Study of Computer Program Debugging, 39 sayfa, Ekim 1972. IBM Research, RC 4083.
- Gilb, Debugging: Measurement of Program Quality, Project Progress, and Motivation, IAG Communications, Şubat 1975, ss. 8–9; veya IAG Management Datamatic, Nisan 1975, s. 68.
- Lipow, M., Estimation of Software Package Residual Errors, TRW-SS-72-09, 11 sayfa. TRW, One Space Park, Redondo Beach, California 90278, ABD.
- Girard ve Rault, A Programming Technique for Software Reliability, IEEE 1973 Bilgisayar Yazılımı Sempozyumu’nda, Rel. IEEE Cat. 73CH07419CSR.
- Boehm ve diğerleri, Characteristics of Software Quality, TRW-SS-73-09.
- Boehm (Başkan), Reliable, Cost-Effective, Secure Software, TRW-SS-74-14.
- EDP Analyzer, Mayıs 1974, The Search for Software Reliability.
- Fischler, Firschein ve Drew: Distinct Software, Lockheed, Palo Alto, CA.
- Hetzel (ed.), Program Test Methods, Prentice-Hall, ISBN 0-13-729624-X, 1973.
- Gilb, Parallel Programming, Datamation, Ekim 1975, ss. 160–161.
- Fagan, M., Design and Code Inspections, IBM TR 21,572, Aralık 1974, SOD Kingston.
- Weinberg, Yasukawa ve Marcus, Structured Programming in PL/C, Wiley, 1973.
- Miller, E. F., Automatic Generation of Software Test Cases, Eurocomp-74 Bildirileri.
- Krause, Smith ve Goodwin, Optimal Software Test Planning Through Automated Network Analysis, TRW-SS-73-01; ayrıca IEEE /9/, s. 18.
- Kopetz, Software Redundancy in Real-Time Systems, IFIP-74 Bildirileri, North-Holland.
- Boehm, Some Steps Toward Formal and Automated Aids to Software Requirements Analysis and Design, IFIP-74 Bildirileri, North-Holland.
- Gilb, The CODASYL DBTG Report: A Counter Proposal—Simplification and Self-Optimization, IAG Communications 3/4, 1972; ayrıca Infotech Data Base Report.
- Rodney R. Larson, Test Plan and Test Case Inspection Specification, IBM TR 21,586, 4 Nisan 1975.
- Gilb, T., Software Metrics, Winthrop, Cambridge, Mass., 1976.
Computing and Data Processing Newsletter
New York Times Dünyanın En Büyük Elektronik Haber Merkezini Kuracak
Fred Baker
Harris Corporation
55 Public Square
Cleveland, OH 44113
New York Times yöneticilerinden oluşan—haber, üretim, iletişim ve veri işleme bölümlerini temsil eden—bir komite, birkaç yıllık çalışmanın ardından gazetenin elektronik düzenleme ve dizgiye geçiş sürecini başlatmasını önermiştir. Ayrıca Times’ın, video görüntüleme terminalleri, bilgisayar donanımı ve özellikle haber işleme için geliştirilmiş yazılımları içeren bütünleşik bir sistem kullanmasını da önermişlerdir. Gazetenin tüm haberlerini yazacak ve düzenleyecek, ayrıca dizgi ekipmanını yönlendirecek yeni donanıma geçiş bu yaz başlayacaktır. Bu, dünyadaki en büyük bilgisayarlı haber düzenleme ekipmanı kurulumu olacaktır.
Times’ın haber ve editoryal içeriğinin sıcak metal dizgiden fotodizgiye, yani "soğuk dizgi"ye, aşamalı dönüşümü; seçilmiş Pazar eki bölümleriyle başlayacak ve ana haber bölümlerinin nihai geçişiyle sona erecektir. Times okuyucularının, yeni sistemin son dakika haberlerinin mevcut prosedürlere kıyasla baskıya daha hızlı hazırlanmasına olanak tanıması nedeniyle fayda sağlaması beklenmektedir. Makaleler, editörler tarafından video ekranlarında incelendikten sonra otomatik olarak dizileceğinden, tipografik hatalar neredeyse tamamen ortadan kalkacaktır.
Haber merkezi programı hakkında konuşan New York Times Gazete Bölümü’nün icra kurulu başkan yardımcısı ve genel müdürü Walter E. Mattson şunları söyledi:
"Geçen yıl New Jersey’de bir uydu baskı tesisi kurma kararımızla birlikte ele alındığında, elektronik düzenlemeye bu adım, Times’ı gazete üretim teknolojisinin ön saflarında tutacaktır. Sonuçlar, gazetenin görünümünü iyileştirmek, okuyuculara dağıtımını hızlandırmak ve maliyetlerimizi azaltmak olacaktır."
Video görüntüleme terminalleri, bilgisayarlar ve fotoğrafik dizgi makinelerinin birbirine bağlanması, yayıncıların enflasyona rağmen baskı öncesi maliyetleri azaltırken doğruluğu da artırmalarına yardımcı olmuştur. İlk olarak daha küçük gazeteler tarafından benimsenen elektronik düzenleme teknolojisi, son zamanlarda metropol alanlarında hızlı ilerlemeler kaydetmektedir. Amerikan Gazete Yayıncıları Birliği, bu yıl 300’den fazla gazetenin bu ekipmanı kullanmasını beklemektedir; bu rakam geçen yılın iki katıdır.
Yeni sistem Times’ta kurulduğunda, Associated Press veya United Press International gibi haber ajanslarından gelen metinler, video ekranlarında daha sonra düzenlenmek üzere doğrudan bilgisayar belleğine aktarılacaktır. Times’ın Washington haber bürosundan ve Avrupa’dan kiralanan haber hatları da bilgisayar sistemine beslenecektir. Ayrıca Times, düzenleme sistemine uzaktan giriş için taşınabilir "muhabir terminalleri" kullanacaktır.
Bu yılın ilerleyen dönemlerinde, Times editörleri yeni video daktilolarının başına ilk kez oturduklarında, yerleştirilecek kâğıt, geri döndürülecek bir taşıyıcı ve neredeyse hiç gürültü olmadığını göreceklerdir. Yanlış bir harf veya kelimenin üzerine yazmak, doğru karakter ekranda belirdiği anda onu ekrandan silecektir. Sıradan elektrikli daktilolarla yaklaşık aynı boyutta olan bu birimler, standart daktilo klavyeleri ve birkaç özel işlevli komut tuşu ile donatılacaktır. Editör yazdıkça, metni klavyenin üzerindeki beş’e on inçlik bir katot ışınlı tüpte görüntülenecektir.
Geri kaydırma veya geri çağırma yeteneği, redaktörlerin bir haberin herhangi bir bölümünü bilgisayar belleğine göndermeden önce gözden geçirmesine ve düzeltmesine olanak tanıyacaktır. Buradan, kıdemli editörler metni değerlendirme ve son kısaltma, güncelleme veya eklemeler için geri alabilecektir. Memnun kalındığında, editör "Set It" yazan bir düğmeye basacak ve metin otomatik olarak bilgisayarlı dizgi için gönderilecektir.
Haber düzenleme ve dizgi ekipmanı Harris Corporation tarafından sağlanacaktır.
Polis Departmanı Suçla Mücadelede Bilgisayarlı Sistem Kullanıyor
Joe Francis
The Boeing Company
Wichita, KS 67210
Missouri, St. Louis’te yaklaşık saat 01.00’de, uyanık bir polis memuru bir kamyon şoförüne aracını yolun kenarına çekmesi için işaret etti. Kamyonun çalıntı olduğuna dair şüpheleri, memur arabasından iner inmez kamyonun otoyolda hızlanarak uzaklaşmasıyla doğrulandı.
Memur, kamyonu saatte 65 mile varan hızlarda kovalarken, St. Louis Polis Departmanı Merkez Karargâhında bulunan bir operatör, ekip aracının ilerleyişini renkli televizyona benzer bir ekranda izliyordu. Aynı zamanda ekranda, kovalamacanın yakın çevresindeki diğer memurları temsil eden sinyalleri de gözlemliyordu. Bu diğer memurları yakınlardaki kritik kavşaklara yönlendirerek etkili bir yol kapatma düzeni kuruldu ve bu sayede çalıntı kamyon, fark edilmesinden yalnızca sekiz dakika sonra polis tarafından kıstırıldı.
FLAIR: Filo Konum ve Bilgi Raporlama Sistemi
St. Louis polisinin hızlı tepki ve yakalama süreçlerine yardımcı olan sistemin adı FLAIR (Fleet Location and Information Reporting) olarak adlandırılmaktadır.
Dünyada türünün ilk örneği olan ve patentli FLAIR sistemi, özel mülkiyete ait yazılımla birlikte bir bilgisayar kullanarak bir ekip aracının anlık konumunu ve memurun durumunu otomatik olarak izler ve görüntüler.
Bu bilgisayar destekli suçla mücadele aracı, St. Louis pilot sisteminde bir milyondan fazla mil kayıt altına alarak son derece başarılı olduğunu kanıtlamıştır; bunun sonucunda şehir, yakın zamanda FLAIR sistemini genişleteceğini ve sistemin 200 FLAIR donanımlı araç, iki bilgisayar ve altı sevk istasyonundan oluşacağını duyurmuştur.
St. Louis polis yetkililerine göre, FLAIR’in nihai çıktıları, kuvvetlerin komuta ve kontrolünde büyük ölçüde gelişme ve memur güvenliğinde belirgin bir iyileşmedir. St. Louis Polis Şefi Eugene Camp, FLAIR’in daha hızlı yanıt süresinin iki yönlü bir sonuç doğurduğuna inanmaktadır. “Birincisi, daha fazla yakalama gerçekleşecektir; ikincisi ise, potansiyel suçlular üzerinde caydırıcı bir etki oluşacaktır.”
FLAIR renkli televizyon monitörleriyle bir polis operatörü, ekip araçlarının hareketlerini bilgisayarda saklanan bir şehir haritası üzerine bindirilmiş olarak izler. Üç farklı büyütme arasında geçiş yapma seçenekleri sayesinde, operatörler tüm şehri ya da sokak adları dâhil birkaç şehir bloğu kadar küçük alanları gözlemleyebilir. Bir operatör, bir ekip aracının hızını tahmin edebilir, bir köşeyi ne zaman döndüğünü fark edebilir, hatta onu çok katlı bir garajın içine kadar izleyebilir.
Ayrıca, tehlike altındaki bir memurun yapması gereken tek şey, FLAIR mesaj birimi üzerindeki kırmızı düğmeye basmaktır; en yakın takviye birimleri derhal yardımına sevk edilir. FLAIR pilot ekipmanının bir yıllık işletiminden elde edilen veriler, bir operatörün ekip aracı konum görüntüsünün, gerçek konumdan ortalama 71 fit sapma gösterdiğini ortaya koymaktadır.
FLAIR dijital haberleşmesi polis radyo bantları üzerinden iletilir. Polis araçları; bir kod mesaj birimi, bir yön sensörü, bir odometre, bir veri işlemcisi ve bir radyo verici/alıcı ile donatılmıştır. Memurlar, gösterge paneline monte edilmiş 12 tuşlu mesaj birimine kod girerek güvenli, iki haneli mesajlar iletebilir.
Merkez veya komuta kontrol merkezi ekipmanları; bir veri terminali, bilgisayar, bir video işlemcisi ve çok sayıda renkli video görüntüleme aygıtından oluşur. Bilgisayarı destekleyen donanımlar arasında disk sürücüleri ve teleksler bulunmaktadır. Her bir bilgisayar aynı anda 500 araca kadar izleme yapabilme kapasitesine sahiptir. Bilgisayarlar ve haberleşme ekipmanları birbirine bağlanarak sisteme sınırsız sayıda araç eklenebilir.
FLAIR’in izleme yöntemi temel bir seyrüsefer ilkesine dayanır: Bir aracın başlangıç konumu biliniyorsa, yönü ve kat edilen mesafe değişimi bu başlangıç konumuna eklendiğinde, gelecekteki herhangi bir konumu belirlenebilir. Bilgisayar, araçlardan kontrol merkezine iletilen tüm araç konumlarını ve kodlanmış mesajları sürekli olarak okur, çözümler ve günceller.
Araç konumları, izleme ekranlarında görüntülenen bilgisayar haritası üzerinde parlak ve hareketli semboller olarak görünür. Operatör, çeşitli harita bölümlerini seçmek için basmalı düğmeleri kullanır.
Bir araç numarasının (veya memur numarasının) girilmesi ve “locate” düğmesine basılması, ilgili aracın yanında bir kutu sembolünün belirmesine neden olur ve aynı anda araç hareket ettikçe ek harita bölümleri görüntülenir. Ayrıca, izlenen ekip aracına en yakın altı aracın çağrı numaraları, bilgisayar haritası ekranının yanında yer alan bir durum göstergesinde listelenir. En yakın araçlar, devriye, dedektif, soruşturma, laboratuvar veya ahlak birimleri gibi memur sınıflandırmalarının herhangi bir kombinasyonundan seçilebilir.
Bir ekip aracını izleyen kutu sembolü, memur görevde ancak bir çağrı üzerinde değilse sürekli yanar; memur düşük öncelikli bir çağrıdaysa “L” sembolüyle görünür; yüksek öncelikli bir çağrıdaysa “H” sembolüyle görünür ve acil durumdaki bir memur için “E” sembolü gösterilir. Son durumda, memurun kırmızı düğmeyi etkinleştirmesiyle belirtilen bu durum için, merkezi haberleşme komuta video terminalinde ayrıca sesli bir uyarı da verilir.
FLAIR ile bir operatör, memurları adres yerine güzergâh üzerinden olaylara yönlendirebilir; böylece bilinen inşaat engelleri veya diğer engeller aşılabilir. Verimli veri haberleşmesi—kodlu mesaj birimine 99 kod girilebilmesi—sesli iletişimdeki yoğunluğu azaltır.
Hesaplama hızı, polis izleme ve durum uygulamaları için temel bir kaygıdır. FLAIR, her aracın yönü ve mesafesine ilişkin kodlanmış mesajları 1,2 saniyelik aralıklarla alır. Ayrıca, FLAIR’in yürütücü rutini (bilgisayarın kontrolünü yöneten yazılım talimatları), gelen tüm iletişimleri önceliklere göre ayırt etmek için bilgisayarın sürekli tarama yapmasını gerektirir.
Öncelik hiyerarşisini temsil eden programlar bilgisayarın belleğinde saklanır. Gelen mesajlar daha sonra bilgisayarın yürütücü rutini tarafından önceliğe göre zamanlanır. Böylece bir memurun kırmızı düğme uyarısı, normal yön ve mesafe sinyallerinin önünde bilgisayarın dikkatini çeker.
St. Louis programı, Adalet Bakanlığına bağlı Law Enforcement Assistance Administration tarafından sağlanan bir hibe ile finanse edilmiştir. FLAIR bilgisayarı Varian Data Machines V73’tür ve Boeing yazılımını kullanmaktadır.
Mars’ın Bilgisayar Modeli Viking Uzay Araçlarından Gelen Verileri Yorumlayacak
Charles H. Ball
Haber Ofisi
Massachusetts Institute of Technology
Cambridge, MA 02139
Massachusetts Institute of Technology’den iki araştırmacı, Temmuz ayında gezegene iniş yapması planlanan iki Viking uzay aracından elde edilecek verilerin yorumlanmasını kolaylaştırmak amacıyla Mars gezegeninin iç yapısına ilişkin bilgisayar modelleri hazırlamıştır. Modeller, iç yapının düzenini, çekirdeğin boyutunu ve bileşimini ve Mars mantosundaki mineral topluluklarını öngörmektedir. Araştırmacılar, Mars’ın birçok açıdan Dünya’ya benzediğini ve Ay’dan farklılık gösterdiğini ortaya koymuştur.
Modeller, ağırlıklı olarak Mariner yörünge araçlarından elde edilen ve gezegenin yerçekimi alanı, şekli ve topografyası ile yüzey fotoğraflarını içeren verilere dayanmaktadır. Bu görevlerden Mars’ın büyük volkanlara ve diğer tektonik özelliklere sahip, etkin bir gezegen olduğu anlaşılmıştır. Vikingler üzerindeki deneylerin büyük bölümü gezegende yaşamın varlığını saptamaya ayrılmış olsa da, her bir uzay aracı Mars depremlerini algılamak ve Mars’ın iç yapısının belirlenmesine yardımcı olmak üzere bir sismometre taşıyacaktır.
Araştırmacılar Profesör M. Nafi Toksöz ve David H. Johnston, Mariner fotoğraflarında gözlenen volkanizma ve Sovyet yörünge araçları tarafından saptanan zayıf manyetik alanla yüzeyde kendini gösteren, büyük ölçekli erime ve çekirdek oluşumunun mümkün olduğunu göstermek amacıyla Mars’ın evrimi ve sıcaklık geçmişine ilişkin modelleri hesaplamıştır. Evrim modelleri ayrıca, bilim insanlarının iç kısımdaki fiziksel koşulları belirlemek için kullandığı en önemli parametrelerden biri olan, gezegenin içindeki güncel sıcaklıkları da öngörmektedir.
Mars’ın iç yapısının anlaşılmasındaki bir sonraki adım, gezegende derinliğe bağlı yoğunluk değişimlerinin hesaplanmasıdır. Bu modellerden yola çıkan Toksöz ve Johnston, Mars’ın da Dünya gibi büyük, yarıçapı 1.250 mil olan erimiş bir çekirdeğe sahip olduğu, ancak bu çekirdeğin Dünya’nınkinden daha az yoğun olduğu sonucuna varmaktadır. Bir sonraki katman olan manto, gezegenin büyük bölümünü oluşturur ve daha fazla demir içerdiği için Dünya’nın mantosundan daha yoğundur.
Mantonun üst kısmı, Dünya’nın astenosferine benzer biçimde kısmen erimiş olabilir; ancak Mars’ta bu bölge daha büyük bir derinlikte (Dünya’da yaklaşık 62 mile karşılık Mars’ta 125 milden daha derinde) yer aldığından, Dünya’da bilinen anlamda levha tektoniği Mars’ta gerçekleşmez. Son olarak, gezegenin yüzeyi, milyarlarca yıl önce Mars’ın iç kısmındaki erimelerin bir sonucu olan ince bir kabukla kaplıdır.
Viking sismometrelerinden elde edilecek verilerin yorumlanması için en yararlı bilgiler, yoğunluk modelleri kullanılarak Mars’ta Mars depremleri tarafından üretilebilecek sismik dalga hızlarının hesaplanmasıyla elde edilmektedir. Toksöz ve Johnston, Mars depremlerinin meydana geleceğini ve Ay’da saptanan depremlerden daha yaygın ve daha enerjik olacağını öngörmektedir.
Bir gezegendeki sismik etkinlik, onun iç sıcaklığının, enerjisinin ve tektonik dinamizminin iyi bir göstergesidir. Viking sismometreleri bunun iyi bir ölçümünü sağlayacaktır. Ayrıca, sismologların Mars çekirdeğinin boyutunu ve manto ile kabuğunun yapısını belirlemesine olanak tanıyacaktır.
Bu tür verilerin kuramsal modeller çerçevesinde yorumlanması, Mars’ın iç durumunun daha net tanımlanmasına ve Dünya ile Ay ile karşılaştırılmasına yardımcı olacaktır. Nihayetinde bu, bilim insanlarının gezegenlerin oluşumu ve evrimi açısından Dünya, Ay ve Mars’ı Güneş Sistemi içinde doğru bir bağlama yerleştirmesini sağlayacaktır.
FBI Parmak İzi Tanımlaması için Otomatik “Eşleştirici” Kullanacak
Ralph Wallenhorst
Calspan Corporation