Quantcast
Channel: Açık Bilim » Kaan Öztürk
Viewing all 28 articles
Browse latest View live

VENÜS GEÇİŞİ

$
0
0

Bu ayki gök olaylarından biri çok özel: Ömrümüz boyunca bir daha şahit olamayacağımız kadar nadir, ama bilim tarihinde “18. yüzyılın Apollo programı” olarak anılacak kadar önemli bir yeri var.

6 Haziran sabahı Venüs gezegeni Dünya’yla Güneş’in arasından geçecek ve Güneş’in küçük bir kısmını kapatacak. Yani Dünya’ya Venüs’ün gölgesi düşecek. Ancak Venüs çok uzakta olduğu için, özel araçlarla gözlenmezse farkında bile olamayacağımız kadar küçük bir gölge bu.

Resim: 2004 yılındaki Venüs geçişi. (Wikipedia)

Venüs geçişi tabir edilen bu olay teleskoplu gözlemlerin başlamasından bu yana sadece yedi sefer gözlendi (1631, 1639, 1761, 1769, 1874, 1882 ve 2004 yıllarında). Elbette bu geçişler aksak da olsa bir düzene sahip. Hesaplara göre iki geçiş arasında 8, 121.5, 8, ve 105.5 yıl geçmesi gerekiyor; sonrasından aynı kalıp tekrarlanıyor. Geçişler sadece Haziran başı veya Aralık başında olabiliyor.

Bu ay, sekiz yıl farkla gerçekleşen bir çiftten ikincisini yaşayacağız. Bir sonraki geçiş ancak 2117 yılının 11 Aralık günü görülebilecek.

Kozmik cetvel Venüs

Venüs geçişi sadece ilginç bir olay olmakla kalmıyor, astronomi tarihinde önemli bir yeri var. Çeşitli tarihlerdeki bu geçişler Güneş sisteminin boyunu ölçmek için bir “cetvel” gibi kullanıldı, Dünya-Güneş mesafesinin yaklaşık 150 milyon kilometre olarak belirlenmesini sağladı.

Onsekizinci yüzyıla gelene kadar, her gezegenin Güneş çevresinde attığı turun kaç yıl sürdüğü hassasiyetle ölçülmüştü. Dönme süresi bilindiğinde de, Kepler’in üçüncü kanunu sayesinde gezegenin Güneş’ten mesafesi bulunabiliyordu. Ama Kepler yasası bu mesafeleri kilometre olarak değil, Dünya-Güneş mesafesinin oranı olarak vermeye uygundu sadece. Eğer Dünya-Güneş mesafesi ölçülebilirse, bütün diğer gezegenlerarası mesafelerin kaç kilometre olduğu hesaplanabilecekti.

1677′deki Merkür geçişini izleyen astronomlardan 21 yaşındaki Edmond Halley (daha sonra kendi adıyla anılan kuyrukluyıldızı keşfedecek olan), gezegenlerin Güneş önünden geçişlerinin Güneş-Dünya mesafesini hesaplamak için kullanılabileceğini farketti.

Resim: Venüs’ün geçişi yeryüzünün farklı yerlerinden gözlenince değişik yollar izler gibi görünür. (Wikipedia)

Halley Venüs geçişini Dünya’nın birbirinden uzak bölgelerinden gözlemeyi teklif etti. Kolunuzu ileri uzatarak başparmağınızı havaya kaldırın ve önce bir gözünüzle, sonra öbür gözünüzle bakın; arkada kalan cisimler başparmağınızın bir soluna bir sağına geçecektir. Bu etkiye “paralaks” adı verilir. Paralaks sebebiyle Venüs’ün Güneş üzerinde takip ettiği yol, değişik gözlem noktalarından çok az da olsa farklı görünecektir. Geçişin başlama ve bitme zamanları da farklı olacaktır. Bu farkları kaydederek Dünya-Güneş mesafesini, oradan da Venüs’ün ve Güneş’in büyüklüğünü hesaplamanın mümkün olduğunu farkeden Halley, bir sonraki Venüs geçişi zamanında uzak bölgelere bilim seferleri düzenlenmesini teklif etti. 1761′de gerçekleşecek olan geçişe ömrünün yetmeyeceğinin bilse de, gözlemleri işleyecek gerekli teorik hesaplamaları yaparak gelecek nesil astronomları gerekli gözlemleri yapmaya teşvik etti.

Resim: 2004 geçişinde Hindistan (kırmızı), Avustralya (yeşil) ve İspanya (mavi) gibi uzak noktalardan yapılan ölçümlerin üstüste bindirilmiş hali. Paralaksın ne kadar küçük olduğu görülebiliyor. (National Solar Observatory, ABD.)

Venüs şart değil tabii; Merkür’ü gözleyerek de aynı iş yapılabilir, hem de Merkür’ün geçişleri daha sık (yüz yılda 13-14 kere) olduğu için daha çok fırsat bulunur. Ama Merkür Venüs’e göre epeyce hızlı hareket ettiği için geçiş daha çabuk biter, gözlem için zaman daha dardır. Ufaklığından dolayı Merkür’ü gözlemek daha zor olacaktır. Üstelik Merkür Güneş’e daha yakın olduğu için zaten küçük olan paralaks etkisi iyice küçülecektir. Bu sebeplerle Venüs geçişi kaçırılmayacak bir fırsat olarak görüldü.

1761 ve 1769 geçişleri

1761′i görmeye Halley’in ömrü yetmese de, önayak olduğu bilimsel hazırlıklar tamamlanmıştı. Ancak o dönemde dünya Yedi Yıl Savaşları ile kaynamaktaydı. Avrupalı güçler arasındaki savaş Amerika, Afrika ve Hindistan’daki kolonilere yayılmış, deniz yollarının emniyeti ortadan kalkmıştı. Yine de çeşitli ülkelerden bilim adamları yola çıkmaktan çekinmediler. Bazıları hedeflerine ulaşamadı, bazıları ise astronominin o zaman bugünkünden çok daha heyecanlı bir meslek olduğunu düşündüren maceralar yaşayarak gözlemlerini yapmayı başardı. Bu ekipler Sibirya, Kanada, Güney Afrika, Hindistan, ve tabii Avrupa’nın çeşitli yerlerinde 62 ayrı ölçüm yaptılar.

Fakat sürpriz bir fenomen ölçümlerin isabetliliğini azaltmıştı. Halley’in teklif ettiği yöntem, Venüs’ün yuvarlağının kenarının Güneş’in kenarına temas anının bir saniyelik hassasiyetle kaydedilmesini gerektiriyordu. Fakat Venüs ve Güneş’in kenarları değmeye yaklaşınca iki dairenin arasında damla biçimi bir yayılma görülüyor, temas anı ancak otuz saniyelik bir hata payı ile ölçülebiliyordu. Bu “Kara Damla” etkisi, başka açılardan çok hassas olan ölçümlerin hata payını büyük miktarda artırıyordu.

Resim: 2004 Venüs geçişinde kara damla etkisi. (© Kevin Wigell)

Sekiz yıl sonra bir şansları daha olduğunu bilen astronomlar, kara damla etkisini hesaba katarak tekrar hazırlıklara başlamışlardı. 1769’da, savaş bittiği için nispeten emniyetli hale gelen bir ortamda, İngiliz, Fransız, İspanyol, Rus, ve kolonilerden Amerikalı bilim adamları yine dünyanın dört bir tarafına dağıldılar. Uzak coğrafyalardaki tehlikeler yüzünden gerçek birer maceraya dönüşen bu geziler sonucunda tam 77 değişik konumdan rasatlar yapıldı.

Bu seferlerden biri, daha sonra ün kazanacak kaptan James Cook’un ilk keşif gezisiydi. Geçişi Tahiti’de kaydeden Cook’a, geri dönmeden önce, o zamanlar mevcut olduğu zannedilen büyük güney kıtasını araması emredilmişti. Böyle bir kıta bulunamadı, ama Cook, Venüs geçişi için çıktığı yolculuk sırasında Avustralya’nın doğu kıyılarını, Yeni Zelanda’yı, ve sayısız Pasifik adasını keşfetti.

Resim: Norfolk Adası’nın Cook’un seferinin 200. yılı anısına bastığı pul.

Sonraki yıllarda Fransız astronom Jerome Lalande, 1761 ve 1769 geçişlerinde yapılan ölçümleri birleştirerek Dünya-Güneş arası mesafeyi 153 milyon kilometre olarak açıkladı. Kara damla etkisi yüzünden bu tahmindeki hata payı 1 milyon kilometre gibi yüksek bir değerde çıktı.

Kara damla etkisine neyin sebep olduğuna dair çeşitli tahminler yapılsa da, yakın zamana kadar kesin bir cevap bulunamamıştı. 1999’da astronom Jay Pasachoff, TRACE uydusuyla yapılan Merkür geçişi gözlemlerini inceledi. Kara damla yine mevcuttu, ama Merkür’ün atmosferi olmadığı, gözlem de uzaydan yapıldığı için, etkinin atmosferlerden kaynaklanmadığı anlaşıldı.

Pasachoff’un analizine göre kara damlanın sebeplerinden biri her teleskopta az veya çok bulunan bulanıklaştırma etkisi. Diğer sebep ise Güneş’in bir gaz topu olması, keskin bir bitiş yerinin bulunmaması. Güneş diskinin hemen dışı siyah görünse de, orası boşluk değil, nispeten daha soğuk olduğu için karanlık görünen gazla dolu bir bölge. Bu iki etkinin birleşimi kara damlaya yol açıyor. Bugün gelişkin teleskoplar ve uydular sayesinde çok daha temiz gözlemler yapılabiliyor, veri işleme yöntemleri sayesinde kara damla tamamen ortadan kaldırılabiliyor.

1874 ve 1882 geçişleri

Aradan geçen 105 yılda hassas rasat araçları barındıran gözlemevleri yerkürenin birbirinden uzak bölgelerine yayılmıştı. Yeni Venüs geçişleri zamanı geldiğinde eskisi kadar çok sayıda ekipler oluşturmak gerekmedi. Kerguelen adası gibi özel yerlere bilimsel seferler yine düzenlendi, ama çoğu gözlem yerleşik astronomlar tarafından yapıldı. Telgraf, demiryolları ve buharlı gemiler sayesinde iletişim çok hızlanmıştı ve koordinasyon çok daha rahat sağlandı. Dahası o dönemde fotoğrafçılık icat edilmiş, insan gözüne güvenmek gerekmeden geçişin kayıt altına alınması mümkün olmuştu.

Kara damla yine mevcuttu, ama gelişmiş teleskoplar ve fotoğraflama tekniği sayesinde hata payı azaltılabilmişti. Bu geçişlerde ve 1761-1769 geçişlerinde elde edilen verilerin birleştirilmesiyle Dünya-Güneş mesafesi 149.59 milyon kilometre olarak tespit edildi, 0.31 milyon kilometrelik bir hata payıyla.

Resim: Eros göktaşı. (Wikipedia)

Venüs’ün verebileceği bilgi bu kadardı. Kısa süre sonra 1898’de keşfedilen göktaşı Eros, aynı ölçümü daha hassas yapma imkânı sağladı. Dünya’ya yakın geçmesi sayesinde Eros daha büyük bir paralaks sağlayacak, atmosferi olmadığı için çeperinde bulanıklık görülmeyecek, dolayısıyla hata payı çok azalacaktı. Bilimciler yeni bir rasat seferberliğine girişti, ve Eros rasatları sayesinde 20. yüzyılda Dünya-Güneş mesafesi sadece birkaç bin kilometrelik hata payıyla belirlenebildi. Bu sonuç ne kadar etkileyici olsa da, sadece otuz yıl sonra aşıldı.

Sonraki yıllarda yakın gökcisimlerinin mesafelerinin radarla tespit edilebilmesi, Dünya-Güneş mesafesini çok büyük bir hassasiyetle belirleme imkânı verdi. Bugün kabul edilen değer 149,597,870,691 metre. Hata payı ise sadece 30 metre. Bu, bir insanın boyunu sadece bir atomun büyüklüğü kadar bir hata payıyla ölçmeye denk bir hassasiyet.

Halley torunları ile kesinlikle gurur duyardı.

Yeni bir amaç

Geçişler hâlâ astronomi camiasi için önemli gözlem fırsatları sağlıyor, ama bu seferki amaç değişik. Astronomlar, bir yıldızın önünden bir gezegenin geçmesinin ne çeşit görünür etkiler yarattığını ölçmek istiyorlar.

Son yirmi yılda astronomlar uzak yıldızların çevresindeki gezegenleri tespit edebilmeye başladılar. Olağanüstü hassas ölçümler gerektiren bu gözlemler için çeşitli yöntemler kullanılıyor. Bunlardan biri gezegen geçişi yöntemi. Bir gezegen, yıldızının önünden geçerken yıldızın ışığı birazcık azalır, sonra eski haline gelir. Gezegenin kendisi görülemese de, yıldızın ışığının değişimi ile gezegenin büyüklüğünü ve periyodunu, dolayısıyla yıldızdan uzaklığını, yaşamaya uygun sıcaklıkta olup olmadığını tahmin etmek mümkün olur.

Resim: Kepler programı, yıldızların ışığındaki periyodik azalmaları gözleyerek yörüngelerindeki gezegenleri tespit etmeyi amaçlıyor. (NASA Ames Research Center/Kepler Mission)

Gezegen geçişi yöntemi her zaman işlemez. Öncelikle, gezegenin yörüngesinin Dünya’dan bakış çizgimizle hizalanmış olması lâzım, yoksa gezegenin “gölgesi” üzerimize düşmez. Ayrıca algılamanın çok hassas olması gereklidir (binlerce kilometre ötedeki bir ateşböceğine bakarak, yanıp sönmesini değil, ışığındaki küçük oynamaları algılamaya çalıştığınızı düşünün). Bu sebepler yüzünden geçiş yöntemi ile Dünya benzeri küçük gezegenler değil, yaklaşık Jüpiter büyüklüğündeki dev gezegenler algılanabiliyor. Bu zorluklara rağmen yöntem başarılı oluyor.

NASADışGezegenKataloğu’na göre, şimdiye kadar tespit edilmiş olan 691 dış gezegenden 188’i geçiş yöntemiyle saptanmış.

Gezegen geçişi sırasında yıldız ışığı sadece azalmakla kalmıyor, gezegenin atmosferinden geçerek geldiği için spektrumu, yani renkleri de değişiyor. Değişen spektruma bakarak gezegenin atmosferinde hangi gazlar bulunduğunu kestirmek mümkün.

Venüs geçişi burada devreye giriyor. Geliştirilen bu hassas tekniklerin doğru işleyip işlemediğini anlamak, varsa hatalarını ortaya çıkarmak için bir deneme sürüşü yapmak lâzım. Venüs’ün atmosfer yapısını zaten biliyoruz. Geçiş sırasında yapılacak gözlemler bildiklerimize uyan sonuçlar verirse ne âlâ, yoksa araçları tekrar gözden geçirmek gerekecek.

İşi zorlaştıran bir etken daha var. Bu gözlem Hubble teleskobu ile yapılacak, ama Hubble doğrudan Güneş’e bakamaz, yoksa hassas alıcı devreleri şiddetli Güneş ışığı ile kavrulur. Bu yüzden astronomlar geçiş günü Hubble’ı ters yöne, Ay’a doğrultacaklar ve Ay’dan yansıyan zayıf ışığı kaydedecekler.

Nasıl gözlemeli?

Geçiş, Türkiye saatiyle 6 Haziran 01:05’de başlayacak, 07:55’de sona erecek. Venüs Güneş’in üst kısmından geçtiği için Güneş tam yükselmeden de görebilirsiniz. Fotoğraf çekmek için gündoğuşu güzel bir enstantane sağlayabilir, ama daha sonra güçlü bir Güneş filtresi gerekir.

KESİNLİKLE ÇIPLAK GÖZLE, GÜNEŞ GÖZLÜĞÜYLE, İSLİ CAMLA VEYA DÜRBÜNLE GÜNEŞE BAKMAYIN. Eğer 1999 veya 2006 güneş tutulmaları için özel gözlüklerden almış ve bir köşede saklamışsanız onları kullanabilirsiniz. 14 numara (en koyu renklisi) kaynakçı camı kullanmak da güvenlidir.

Teleskobunuz varsa, Güneş’e yönlendirip (içine ASLA bakmadan), göz kısmının arkasına bir beyaz kâğıt tutarak Venüs’ün gölgesini görebilirsiniz.

Resim: Venüs geçişinin görülebileceği bölgeler. Geçiş, Türkiye’nin de dahil olduğu yeşil renkli alanda 6 Haziran sabahı gün doğumundan önce başlamış olacak. (NASA)

Tavsiye edilen başka bir yol “kutu kamera” yapmak. Bir tarafı uzunca bir kutu alın. Küçük yüzlerini kesip atın. Yüzlerden birini alüminyum folyoyla kaplayın. Folyonun ortasına, bir toplu iğnenin ucuyla küçük bir delik açın. Delik ne kadar küçük olursa o kadar iyi. Kutunun öbür ucuna yakın bir yerde yanına bir pencere kesin. O pencereden kutunun kapalı yüzüne düşen güneş görüntüsünü seyredebilirsiniz. Uzun bir kutunuz varsa Güneş daha büyük gözükecektir. Ayrıntılar için Exploratorium websitesindeki resimlere bakabilirsiniz.

Daha profesyonel bir ortam arzu ediyorsanız, geçiş sırasında halka açık olan AnkaraÜniversitesiRasathanesi‘ni ziyaret edebilirsiniz. İmkânınız yoksa, bulunduğunuz yerde hava bulutlu ise, veya sabahın köründe açık alana gidemiyorsanız, NASAnıninternettenyapacağınaklenyayını seyredebilirsiniz.

Her halükarda 6 Haziran sabahı işe giderken Güneş’e yan gözle bir anlığına bakın, bu tecrübeyi hiç olmazsa hayalinizde canlandırarak yaşayın ve astronomların yüzlerce yıllık heyecanına ortak olun.

Kaynaklar

○     http://transitofvenus.nl/wp/

○     http://www.transitofvenus.org/

Kevin Wigell http://www.kwastronomy.com/Venus_Transit_2004.htm


UZAY ÇAĞI HENÜZ BAŞLAMADI: O’NEİLL’İN UZAY KOLONİLERİ VİZYONU

$
0
0

Dünya’daki nükleer santrallerin Ay’ın arka yüzünde biriktirilen atıkları 13 Eylül 1999 günü bilinmeyen bir sebeple patlar. Yörüngesinden çıkan Ay, uzay araştırma merkezi Ay Üssü Alfa’da çalışan 311 kişiyi uzayın derinliklerine doğru bir yolculuğa çıkarır. İnsanlığın galaksideki ilk temsilcileri yıldızlar arasında kendilerine yeni bir ev ararken, çeşitli medeniyetler, farklı kültürler ve akıl almaz olaylarla karşılaşırlar.

Bu hikâye, yaşı kırk civarında olanların hatırlayacağı, siyah-beyaz televizyon zamanındaki en popüler dizilerden “Uzay: 1999“a ait. 1975-1977 arasında yayınlanmış ve dünya çapında başarılı olmuş bu diziyi hâlâ internette seyretmek mümkün.

Uzay: 1999“un iyimserliğine dikkat edin. 1999 yılında Ay’da yüzlerce kişinin yaşadığı yerleşim yerleri mevcut. Atıklarımız oraya rutin olarak taşınıyor. Yirminci yüzyılın sonu gelmeden Uzay Çağı olgunluğa ulaşmış bile.

Tarihi perspektiften bakınca haklı bir iyimserlik aslında. Atmosferden çıkabilen ilk roketler 1944′de yapıldı. Sadece onüç sene sonra, 1957′de Sputnik ilk yapay uydu olarak Dünya yörüngesine yerleşti. Üstünden dört sene geçmeden Yuri Gagarin Dünya çevresinde tur atan ilk (bazılarına göre de, geri dönebilen ilk) insan oldu. SSCB’nin bu başarılarının ABD’yi hırslandırması sayesinde 1969′da, ilk roketlerin yapımından sadece 25 yıl sonra, insanlar Ay’a ayak bastı. Aynı dönemde fırlatılan keşif amaçlı sayısız insansız uyduyu saymıyorum bile. 1970′den bakınca, bu tempoyla 1990′larda Ay’da üs kurulabileceğini düşünmek çok makul.

Ayağı yerden kesen planlar

Uzaya yerleşmek fikri sadece bilim-kurgu konusu değildi; ekonomik ve konforlu uzay yerleşimlerinin nasıl inşa edilebileceğine dair ciddi planlar da yapılıyordu. Özellikle, Princeton’da çalışan deneysel fizikçi Gerard K. O’Neill de bu konuda ayrıntılı olarak düşünmüş, diğer bilimcilerle fikir alışverişi yapmış ve 1970′de ana hatlarıyla bir plan hazırlamıştı. Ancak bütün bilimsel şöhretine rağmen dört yıl boyunca bu planını yayınlayacak bir dergi bulamadı. Hazırladığı makale sonunda Physics Today dergisinin Eylül 1974 sayısında yayınlandı [1].

O’Neill her şeyden önce “gezegen şovenizmi” olarak adlandırdığı, yerleşimlerin bir gök cisminin yüzeyine kurulması gerektiği fikrini reddetti. Yerleşimlerin uzayda belirli noktalara yerleştirilen yapay adalar şeklinde olması gerektiğini söyledi. Bu durumda bir gezegenin yerçekimi kuyusuna girip çıkmaya gerek kalmaz, hem taşımacılık kolaylaşır, hem güneş enerjisi bir atmosfer tarafından emilmeden kullanılabilir, hem de yerçekimsiz ortamda özel sanayi üretimleri yapılabilirdi.

O’Neill’in hayalindeki yerleşim istasyonu, Arthur Clarke’ın Rama’sı gibi, sekiz-on kilometre çapında, otuz kilometre uzunlukta içi boş bir silindir biçimindeydi. Plana göre insanlar, tamamen yalıtılmış istasyonların iç yüzeyinde yaşayacaklardı ve istasyonun dönme oranı (birkaç dakikada bir tur) merkezkaç kuvvetini yerçekimi kuvvetine eşitleyecek şekilde ayarlanacaktı. Uzayda sürtünme olmaması sayesinde ilk döndürmenin ardından uzun zaman istasyona müdahale gerekmeyecekti. Silindirler, bir kere eksenleri güneşe yönelik olarak döndürülmeye başlayınca açısal momentumun korunumu ile aynı yönde kalacaklardı.

Resim 1: Bir çift O’Neill silindirinin dışarıdan görünüşü. (Temsili resim - WikimediaCommons)

İstasyonun içi altı şeride bölünmüştü: Üç dev pencere ve üç yerleşim alanı (“vadi”). Bunlar her yerleşim alanının tepesinde bir pencere olacak şekilde dönüşümlü olarak yerleştirilmişti. Her pencerenin dışında, güneşten uzak uca menteşelenmiş dev bir ayna bulunacaktı. Bu aynalar gün içinde açılıp kapanarak gündüz-gece döngüsünü taklit edecekler, istendiğinde de tamamen geri çekilebileceklerdi; böylelikle yeryüzünde asla görülemeyecek bir galaksi manzarası seyretmek mümkün olacaktı.

Plana göre üretim tesisleri ana silindirin dışında kurulacağı için, iç kısımlar sadece ikamet ve eğlence için kullanılacaktı. Üç kilometre eninde, otuz kilometre uzunluktaki “vadi”ler, sakinlerinin tercihine göre, ya dağınık müstakil evlerle, ya da aralarında ormanlar ve dağlar bulunan yoğun yerleşimli kasabalarla doldurulacaktı. Her istasyon onbinlerce, hatta yüz bin kişiyi konfor içinde barındırabilecekti.

O’Neill böyle bir koloninin kendine yeterli olmakla kalmayıp, Dünya ekonomisine büyük katkıda bulunabileceğini savundu: İstasyonun dışında kurulacak büyük güneş panelleri sayesinde enerji neredeyse bedavaya gelecekti. Güneş ışığının bir kısmını emecek bir atmosfer olmadığı için enerji daha verimli olarak elektriğe dönüştürülecek, bu da hem kolonide yaşayan insanların ihtiyacını karşılayacak, hem de büyük bir sanayiyi destekleyebilecekti.

Resim 2: İstasyonun iç manzarası. Ormanlar, göller, bulutlar, Güneş ve gezegenlerden oluşan benzersiz bir manzara. (Temsili resim - WikimediaCommons).

Böyle bir istasyonun besin ihtiyacını Dünya’dan karşılamak hem Dünya’ya aşırı yük getirecek, hem de nakliyesi aşırı masraflı olacaktı. Bu yüzden istasyonların yiyeceklerini kendileri üretmeleri gerekecekti. O’Neill ana silindirin dışında, silindirle aynı eksende bir halka şeklinde dizilmiş, nitratlarla ve işlenmiş organik atıklarla zenginleştirilmiş Ay toprağı kullanan küçük tarım alanları tasarladı. Gün ışığının bolluğu ve iklimin sabitliği sayesinde bu alanlar sadece istasyonu beslemekle kalmayacak, Dünya’ya da ihraç edilebilecek kadar çok mahsul sağlayacaktı. Dahası, uzay istasyonunda tarım zararlıları bulunmayacağı için böcek öldürücü kullanmadan organik tarım yapılabilecekti.

Uzay sanayii

Uzay istasyonlarını kurmak için en büyük motivasyon sanayiden gelecektir. Meselâ, ağırlıksız ortamda Dünya’da mümkün olmayacak kadar büyük ölçeklerde tesisler kurulabilir. Başlangıçta bunlar metalürji tesisleri olabilir. Dünya’da az bulunan titanyum, bakır, altın, kobalt gibi bazı metaller Ay, meteorlar ve asteroidlerde bol miktarda bulunur. Buralardan toplanan cevherler istasyonlara getirilebilir ve, Güneş enerjisinin bolluğu sayesinde, yüksek sıcaklıklar gerektiren izabe ve döküm işlemleri yapılabilir. Bu uzay fabrikaları önce istasyonun inşası için malzeme sağlamakta kullanılıp sonra başka istasyonların veya Dünya’nın ihtiyacı için işletilebilir.

Ağır sanayinin ötesinde, uzay ortamında Dünya’da mümkün olmayacak sanayi dalları kurulabilir, özel malzemeler üretilebilir. Sözgelişi, ağırlıksız ortamda çökelme olmayacağı için, yeryüzünde birbirine karışmayan maddeler uzayda karıştırılabilir ve yeni alaşımlar hazırlanabilir. Uzay boşluğunun sterilliğinde mükemmele yakın saflıkta kristaller ve nanoyapılar oluşturulabilir.

Apollo keşifleri ile getirilen numunelerin analizi Ay kayalarının ağırlıkça üçte birinin çeşitli metaller, beşte birinin ise silisyum olduğunu gösterdiği için, O’Neill hammadde kaynağı olarak öncelikle Ay’ı, sonra asteroidleri kullanmayı öngördü. Ay’da küçük bir madenci yerleşimi kurulacak, bu grup otomatikleştirilmiş işlemlerle madenleri işletip cevherlerin yörüngeye fırlatılmasını sağlayacak, madeni işlemek için tesis kurmaya lüzum olmayacaktı.

Cevherlerin Ay’dan istasyona ulaştırılabilmesi için O’Neill elektromanyetik kütle fırlatıcısı ismini verdiği bir cihaz tasarladı. Güneş panelleriyle üretilecek enerjiyle çalışan bu cihaz, içine maden cevheri konan metal kutuları manyetik darbelerle hızlandırarak fırlatır ve yörüngeye oturtacak, içindeki cevher alınıp istasyona götürülecekti. Fırlatma kutusu ise geri çekilip tekrar kullanılacaktı.

Resim 3: Ay yüzeyinde bir kütle hızlandırıcısı. (Temsili resim - WikimediaCommons)

Peki madem malzeme Ay’dan gidecek, neden istasyonu Ay yüzeyinde kurmayalım? O’Neill Ay’ın sağladığı imkânların daha az olduğuna işaret etti. Bir kere Ay’ın yerçekimi sabittir ve insan fizyolojisinin alıştığından çok daha düşüktür. Ay üzerinde yaşayan insanlar kas ve kemik erimesinden kaçınmak için katı bir düzen içinde spor yapmak zorunda kalır. Ağırlıksız ortamın sağlayacağı sanayiler Ay’da kurulamaz. Ayrıca, istasyonun kendi ihtiyacını aşan üretimini Dünya’ya gönderebilmesi için Ay’ın çekiminden kurtulması gerekir, bu da nakliye masraflarını çok artırır. Üstelik, Ay gecesi 14 gün sürdüğü için, Ay’ın her iki yüzünde birbirine bağlantılı güneş enerjisi santraller kurulması gerekir.

Lagrange noktaları: Uzaydaki otoparkınız

İstasyonların uzay boşluğunda kurulmasının faydaları açık. Ancak, Dünya’ya çok yakın olmamalılar, yoksa radyasyon kuşaklarının (Dünya’nın manyetik alanında hapsolmuş parçacıklar) zararlı etkilerine maruz kalırlar. Ay’dan çok uzakta da olmamalılar, yoksa malzeme tedariki zorlaşır. O’Neill bu etkenleri düşünerek istasyonların dördüncü ve beşinci Lagrange noktası (L4 ve L5) olarak bilinen konumlara yerleştirilmeleri gerektiğini söyledi.

Lagrange noktaları, birbiri çevresinde dönen iki büyük gökcisminin (meselâ Dünya ve Ay) etkisi altındaki özel denge noktalarıdır. Bu noktalarda çekim kuvvetleri, dönmeden kaynaklanan merkezkaç kuvvetini dengeler. Böylelikle, bu noktalara yerleştirilen küçük cisimler (asteroidler, yapay uydular, veya uzay istasyonları) diğer iki cisme göre hareketsiz dururlar. Başka bir deyişle, onlarla beraber aynı hızda dönerler.

Her gök cismi çiftinin çevresinde tam beş tane Lagrange noktası vardır. Bunlardan üç tanesi (L1, L2 ve L3) cisimleri birleştiren çizgi üzerinde bulunur. Kalan iki nokta ise cisimlerle eşkenar bir üçgen oluşturur.

Resim 4: Dünya (çemberin merkezi) ve Ay çevresindeki Lagrange noktaları. Ay yörüngesinin yarıçapı 384 400 kilometre. (WikimediaCommons)

Bu noktalardaki dengenin istikrarı da önemlidir. L1, L2 ve L3 noktaları yayvan bir tepenin zirvesi gibidirler; tam tepeye denk getirebilirseniz uydunuz orada kalır, ama basit bir fiske yavaş yavaş dışarı kaymasına yol açacaktır. Buna karşılık L4 ve L5 noktaları, büyük cisimlerden biri diğerinden 25 kat veya daha fazla kütleye sahipse, sığ bir çukur gibidirler. Dünya’nın kütlesi Ay’ınkinin 81 katı olduğu için, bu noktalara konan bir uzay istasyonu küçük saptırmalar olsa bile yerinden uzaklaşmaz. L4 ve L5 noktaları hem Dünya’ya hem Ay’a eşit uzaklıktadırlar, ve Güneş’i rahatlıkla görecek konumdadırlar. Üstelik bu denge noktalarında bulunabilecek asteroidler devşirilip hammadde kaynağı olarak kullanılabilirler.

Uzay bilimi ve uzayda bilim

Eğer inşa edilebilirlerse, uzay istasyonlarının bir sanayi kasabası olmakla kalmayıp, temel bilim ve mühendislik araştırmaları için önemli bir çekim merkezi haline gelmesi muhtemeldir.

Astronom ve astrofizikçilere, atmosferin dışında gözlem yapma imkânı çok çekici gelecektir. Şimdi de uzaya yerleşmiş özel teleskoplarımız var, ama bunlar büyük girişimler olduğu için planlı programlı çalışırlar, bireysel araştırmacıların akıllarına geliveren bir gözlemi yapmaları mümkün değildir. Oysa küçük araştırma bütçeleri ile alınabilen teleskoplar bile uzay istasyonlarında önemli bilimsel gelişmeler sağlayabilir.

Deneysel atom fizikçileri içi uzay ortamı neredeyse ders kitabı idealliğinde şartlar sağlar. İstenmeyen etkileri engellemek için hassas atom fiziği deneylerinin çoğunda havasız ortama ihtiyaç vardır. Bazen de çok düşük sıcaklıklara inmek, atomları mümkün olduğunca yavaşlatmak gerekir. Dünya’da çok zor sağlanan bu şartlar uzayda doğal olarak mevcut olduğu için, kuantum fiziğinin en ince noktalarını test eden deneyler uzay istasyonlarında yapılabilir.

Süperiletken teknolojisi sıçrama yapacaktır. İletken maddeler belirli bir sıcaklığın altında süperiletken hale gelirler, yani elektriği kayıpsız olarak iletirler. Dünya’daki olağan sıcaklıklarda süperiletken madde yok, ama uzayın mutlak sıfıra yakın soğuğunda bu teknolojinin rutin hale gelip geliştirileceği kesindir.

İstasyonların günlük problemleri, yeni istasyonların ve ulaşım araçlarının tasarımı gibi ihtiyaçlar yeni teknolojilerin gelişimini kamçılayacaktır. Muhtemelen bu teknolojilerin bir kısmı Dünya’nın refahına katkıda bulunacak, ama bir kısmı sadece uzayda pratik olarak kullanılabilecek, uzay kolonilerinin gitgide gelişmesini sağlayacaktır.

Uzay toplumu

Bu istasyonlarda doğup büyüyen Uzaylı nesillerin kafa yapısı ve toplum düzeninin nasıl olacağını kestirmek zor, ama Dünyalılardan çok farklı olacağı kesin. Küçük dünyaları bir istasyonun iç çeperinden ibaret de olsa, ufukları her gün seyrettikleri uzay boşluğu kadar geniş olacak. Yaşadıkları ortamın sınırlılığı onları israftan kaçınan, her şeyi geri dönüştüren, verimli yaşayan insanlar haline getirecek. Dünyalılar uçsuz bucaksız bir gezegenlerini vurdumduymazca harcarken, Uzaylılar kırılgan bir ekosistemde her şeyin birbirine bağlı olduğu idrakiyle yetişecekler.

Uzayda doğanlar sosyal ve psikolojik olarak uzaya açılmaya çok daha yatkın olacaklar. Bir gezegende yaşamak fiziksel olarak bir kuyunun dibinde olmaya benzer; yüzeyinden kurtulmak için büyük enerji harcamanız gerekir. Psikolojik olarak da benzer: Kuyunun içinden dışarıdaki evrenin çok küçük bir kısmını görürsünüz. Kuyudan çıkan Uzaylı nesil çok daha geniş bir gökyüzü görecek; evren onlar için “yukarıda” değil “çevrelerinde” olacak. Bu nesil sürekli yayılmak ve genişlemek isteyecek, Güneş Sistemi’nin kaynaklarına el atacak, şimdi hayal bile edemeyeceğimiz yeni bir medeniyet kuracak.

Gerçekleşebilir mi?

1970’lerde uzay yerleşimleri planları ciddiye alınmış, ince ince hesaplar yapılmıştı [2]. İyimserlik hâkimdi. O’Neill, yavaş ve emin adımlarla giderek bile 2010’da ilk uzay istasyonlarının kurulabileceğini öngörmüştü. Bu öngörünün gerçekleşememesi onun kabahati değildi.

Hızın kesilmesi 1980’lerin sonunda başladı. ABD-SSCB arasındaki soğuk savaşın bitmesi ve akabinde Doğu Bloku’nun çöküşüyle görüldü ki, hayallerimizi besleyen uzay yarışı aslında iki süper güç arasındaki bir horoz dövüşünden ibaretmiş. Kavga bitince iki taraf da uzay teknolojisinde vites küçülttü. Ay’a üs kurmayı bırakın, bir daha ayak basılmadı bile. Uydu teknolojisi ve insansız uzay araçları çok gelişti ama, atmosferin hemen dışındaki Uluslararası Uzay İstasyonu hariç, uzayda insan yerleşimi kurulmadı. Gözümüzü içeriye çevirdik. Küresel iletişim ve tıp alanında çok ilerledik, ama bir yandan da gezegenimizin tahribatını hızlandırdık.

Yine de uzayın keşfi için girişimler durmuş değil. Özel girişimciler, devlet kurumlarının sağladığı altyapının da desteğiyle, insanlı uzay uçuşlarını ucuzlaştırmanın yollarını arıyorlar.

Asteroidlerden malzeme elde etme fikri geçen ayın sonunda dünya çapında yankı yapan bir açıklamayla tekrar canlandı. “Planetary Resources” ismiyle kurulan bir şirket, robot uzay araçları kullanarak Dünya’ya yakın asteroidleri tespit etmek, toplamak ve Dünya’nın yakınına getirmek amacında olduğunu açıkladı.

Resim 5: Dünya’ya yaklaşan bir asteroidin işlenmesi. (Temsili resim - NASA)

Dünya dışı cisimlerin mülkiyet hakkı şimdilik belirsiz. 1967 Dış Uzay Anlaşması’na göre hiç bir devlet bir gökcismine bayrak dikip sahiplenemez, ama bireyler madenleri işleyebilir mi, tutulup Dünya yakınına getirilen bir asteroidin statüsü değişir mi, tartışmalı. Elbette fiili bir durum oluştuğunda kanuni düzenlemeler hızla yapılacaktır.

Planetary Resources”in kurucuları Eric Anderson ve Peter Diamandis’in aynı zamanda ticari uzay uçuşlarını geliştiren şirketlerin sahipleri olması tesadüf değil. Asteroidleri Dünya yakınına getirmek mümkün olduğunda, insanların uzaya çıkması için ekonomik sebepler olacak, bu da ticari uzay teknolojisine desteği artıracak.

Daha şimdiden, asteroidlerin yeryüzüne indirilmesi yerine uzayda işleme tabi tutulmasının daha makul olduğu ifade ediliyor. Yakın gelecekte, işlemlerin robotlara yaptırılmasının mümkün olamadığı noktada insanların uzaya çıkarılması gerekebilir. O zaman O’Neill’in planları raftan indirilip tekrar masaya yatırılabilir.

Notlar/Kaynaklar:

[1] Gerard K. O’Neill. The Colonization of Space. http://www.nss.org/settlement/physicstoday.htm

O’Neill daha sonra çıkan “The High Frontier” kitabında vizyonunun ayrıntılarını, istasyonlarla ilgili teknik detayları ve hesapları daha etraflı olarak anlatıyor.

[2] “National Space Society” kurumunun web sayfalarında birçok teknik makale, belge, ve kitaba ulaşmak mümkün. http://www.nss.org/settlement/space/

 

AYYAŞ YÜRÜYÜŞÜ

$
0
0

Kaynak: April Yayıncılık

Ayyaş Yürüyüşü
Leonard Mlodinow
April Yayıncılık, 2009

Orijinal adı: The Drunkard’s Walk: How Randomness Rules Our Lives, Penguin, 2008).

 

Leonard Mlodinow parlak bir fizik kariyerinin ardından Hollywood’da çalışmaya karar vermiş, aralarında Uzay Yolu: Yeni Nesil ve McGyver‘ın bulunduğu dizilerin bazı bölümlerine senaristlik yapmış, ardından yazarlığa yönelmiş bir bilimci. Geometri hakkında yazdığı Euclid’s Window ve Richard Feynman’a dair kişisel gözlemlerini anlattığı Feynman’s Rainbow kitaplarının ardından Stephen Hawking’le beraber A Briefer History of Time (Zamanın Daha Kısa Tarihi, Doğan Kitap) ve The Grand Design (Büyük Tasarım, Doğan Kitap) başlıklı iki kitap kaleme aldı. Ayyaş Yürüyüşü’nde ise rastgeleliğin hayatımızdaki yerini ve psikolojik yansımalarını ele alıyor. (Bu incelemede orijinal İngilizce metni temel aldım.)

Leonard Mlodinow

Ayyaş Yürüyüşü olasılık teorisinin ve istatistiğin temel kavramlarını tanıtan, bu teorilerin tarihi gelişimlerinden kısaca bahseden bir popüler bilim kitabı. Bu kavramları matematik kullanmadan, gündelik olaylardan verdiği örneklerle sağlam bir temele oturtuyor (ama arada bir basit aritmetik gerekebiliyor). Daha önemlisi, dünyadaki karmaşıklığı düzene sokma çabası içindeki zihnimizin yaptığı hatalar, ve istatistiğin doğru kullanılmasıyla bu hatalardan nasıl kaçınabileceğimiz kitabın ana konularından biri.

Kitabın adı teorik bir rastgele süreçten alınmış: Zilzurna sarhoş olmuş birisinin rastgele adımlar attığını düşünün. Her adımda sağa, sola, ileri, veya geri gitme ihtimali aynı olsun. Bu “ayyaş”ın hareketi, fiziksel dünyadaki birçok sistemin davranışı için bir model oluşturuyor, sözgelişi suyun içindeki polenlerin hareketi, parfüm kokusunun havada yayılması, uzun molekül zincirlerinin büyümesi, hisse senetlerinin değerlerinin değişmesi gibi.

Kitapta birbirinden çok farklı görünen, ama Mlodinow’un mükemmelen kaynaştırarak sunduğu iki ana konu var. Birincisi, olasılık teorisinin temelleri, istatistiksel yaklaşım, ve olasılıklarla düşünmeyi öğreten örnekler. İkincisi ise insan zihninin rastgele süreçlerde ne kadar zorlandığını ve hatalara yatkın olduğunu gösteren psikolojik araştırmalar. Mlodinow bu psikolojik hataları, teorik kavramları sunmak ve örneklemek için ustaca kullanıyor, böylece bu hatalardan nasıl kaçınabileceğimizi gösteriyor.

Rastgeleliği anlamak zordur, çünkü zihnimiz, hayatta kalma mücadelesi içinde, dünyanın kaosunu süzmek ve az bilgiyle sonuçlar çıkarmak için evrilmiştir. Bu yüzden gerçek rastgeleliği kabul edemez, olayları düzenli bir kalıba oturtmak isteriz. Gökyüzündeki yıldızlarda aslan, koç, akrep biçimleri görürüz, başımıza gelenlerin bir ilahi plan içinde olduğu düşünmek isteriz. Bu yanılgının yol açtığı safsatalardan ikisi kumarbaz safsatası ve sürekli başarı safsatasıdır.

Diyelim yazı-tura atıyorsunuz, ve arka arkaya on sefer yazı geldi. “Demek ki” diyorsunuz, “artık tura gelecek, çünkü çok yazı geldi”. Oysa ki paranın hafızası yoktur, önceden kaç kere ne geldiğini bilemez, o yüzden tura gelmesi ihtimali, bütün önceki oyunlardaki gibi %50’dir. Bu yanılgıya kumarbaz safsatası denir; dünyada kaç kişinin bu safsata yüzünden malını mülkünü kaybettiğini tahmin etmek imkânsızdır.

“İyi ama” diye itiraz edebilirsiniz, “arka arkaya on bir kere yazı gelmesi ihtimali çok düşüktür.” Orası öyle, ama bu ihtimal parayı atmaya başlamadan önce geçerlidir. On kere attıktan sonra, artık öncekilerin ihtimali diye bir şey yoktur.

Sürekli başarı safsatası ise bunun tersi gibi görünür, ama aynı yanılgıya dayanır. Bir basketbolcunun arka arkaya sayı yapması, veya bir poker oyuncusunun arka arkaya oyun kazanmasında bir düzen görürüz, rastgelelikten kaynaklandığını düşünmeyiz. “Demek ki başarısı devam edecek” demeye meylederiz. Oysa, kişilerin başarıları rastgele süreçlere bağlıdır, ve ortalamanın üstü bir başarı uzun süre devam etmez. Elbette ortalama başarı oranı kişisel yeteneğe ve çalışmaya bağlıdır, ama gündelik performans ortalamanın etrafında dolaşacaktır.

Sürekli başarı safsatası, altta yatan rastgeleliğe gözümüzü kapadığımız için haksız sonuçlara götürür. Sözgelişi, her maçta ortalama on basket atan bir oyuncu, bir maçta on beş basket atabilir. Belki o gün keyfi iyidir, zihni biraz daha açıktır, salonun havalandırması daha iyidir, vs. Antrenörü onu tebrik eder. Sonraki maça çıkılır, bu sefer oyuncunun şansı ters gider ve toplam sekiz basket atar. Antrenör pişman olur “tebrik ettim, şımardı, gevşedi” diye düşünür, gider oyuncuyu azarlar. Bir sonraki maç gelir, oyuncumuz on iki basket atar. Antrenör memnundur, “demek ki” der, “tebrik etmek değil azarlamak lâzım.”

Bu senin için koç! (resimseli.net)

Aslında antrenörün yaptığı bir şey yoktur (oyuncunun moralini bozmak dışında). Ortalaması on basket olan oyuncu her maçta on basket atmaz, bazen daha az, bazen daha çok atar. On iki basket atma ihtimali ile sekiz basket atma ihtimali aşağı yukarı aynıdır. Bu yanılgı basit bir azardan çok daha kötü sonuçlar da doğurabilir. Sözgelişi birkaç kere ortalama üstü performans gösteren bir çalışan, ortalamanın altına geçtiğinde düşük performans nedeniyle işinden kovulabilir.

Rastgelelik bazen geçici düzen de doğurabilir. Meselâ beş yüzde bir ihtimalle, atılan bir paranın on kere aynı yüzü gelebilir. Ama zihnimizin bunu kabullenmesi zordur, parada bir dengesizlik olduğundan şüpheleniriz. Apple, iPod müzikçalarlarında bu yüzden bir sorun yaşadı: Şarkılar gerçek rastgelelikle seçildiğinde, ara sıra tekrarlamalar yaşanıyordu. Aynı şarkının, veya aynı şarkıcının tekrarlandığını gören kullanıcılar karıştırmanın rastgele olmadığını düşündüler. Böylece Apple iPod’a daha az rastgele olan, ama daha rastgele görünen bir seçme algoritması kurdu.

Olasılık teorisi tuzaklarla doludur; Mlodinow teorinin temellerini anlatırken bu tuzakların özellikle üstüne gidiyor. Meselâ en basit tuzak soru: İki çocuğum var, biri kız. İki kızım olması ihtimali nedir?

En yaygın cevap: İki çocuktan biri kızsa diğeri ise ya kızdır ya erkek, demek ki ihtimal %50 olmalı. Ne yazık ki bu cevap yanlış. Soru bir kızım olduğunu söylüyor, ama onun büyük veya küçük çocuk olduğunu söylemiyor. Bu fark, sonucu çok değiştiriyor.

Erkek adamın erkek kızı olur. (infomercantile.com)

İhtimal hesabı yapmanın püf noktası mümkün durumları tek tek saymak. İki çocuğum varsa cinsiyetlerini (E,E), (E,K), (K,E) ve (K,K) olarak sıralayabilirim. (E,K) ve (K,E) nin ayrı olarak bulunması önemli; birincide büyük çocuk erkek, diğerinde büyük çocuk kız. Bir kızım olduğunu baştan söylediğime göre elimde sadece üç mümkün durum kalıyor: (E,K), (K,E) ve (K,K). Bu üç durumun hepsi aynı ihtimalde olduğu için (bir çocuğun cinsiyeti kardeşlerinin cinsiyetine bağlı değildir), iki kızım olması ihtimali %33 olur.

Matematik eğitimi almamış olanların bu konularda bocalaması doğal. Olasılık teorisi ve istatistik, profesyonel matematikçilerin bile bazen kafasını karıştırabiliyor. Ancak, “istemeyen bilmeyiversin” deyip geçmek çok kötü sonuçlara yol açabilir. Mlodinow, Bayes teoreminin uygulamalarını anlattığı bölümde, bu teoremi bilmemenin tıp ve hukuk alanında nasıl kötü sonuçlar doğurduğuna dair örnekler veriyor.

Doktorunuza gittiniz ve bir kan testi yaptırdınız. Test sonuçlarını almaya gittiğinizde doktorunuzu neşesiz gördünüz. Sizi koltuğa oturttu, biraz kekeledi, sonra baklayı ağzından çıkardı: HIV testiniz pozitif çıkmış! Yüzünüzden kanın çekildiğini hissettiniz. Doktora “Emin misiniz?” diye sordunuz. “Evet, 1000’de 999 ihtimalle” cevabını aldınız.

Sakin kafayla düşünecek halde değilsiniz tabii, ama hemen vasiyetinizi yazmaya başlamayın. Doktor sağlıklı olma ihtimalinizin binde bir olduğunu söylerken yanılıyor. Doğrusu, kanınızda HIV yoksa, test binde bir ihtimalle pozitif çıkabiliyor. Aynı şey değil. Şöyle ki:

Kısaca söyleyeyim: Helvanızı yiycez! (dvdsetshop.com)

İstatistiklere göre, heteroseksüel, damardan uyuşturucu kullanmayan, beyaz, erkek Amerikalıların yaklaşık on binde birinde HIV var (Mlodinow kendi tecrübesini anlattığı için bu grubun istatistiğini kullanıyor). 10 000 kişilik bir grup alalım. Bu gruptan 1 tanesi gerçekten hasta olduğu için test sonucu pozitif çıkacak. 10 kişi de hasta olmamasına rağmen pozitif sonuç alacak, testin hatalı pozitif oranı binde bir olduğu için.

Pozitif test sonucu alan on bir kişiden sadece biri gerçekten hasta. Yani, elinizde pozitif test sonucu varsa, sağlıklı olma ihtimaliniz aslında on birde on, yani %91.

Doktorun yanlışı, hastalık varsa testin pozitif çıkması ihtimali (%99,9) ile, test pozitif ise hastalık bulunması ihtimalini (%9) birbirine karıştırması. Bayes teoremi, bu ihtimallerin birinden diğerine geçişi sağlar. Veya, yukarıdaki gibi bir akıl yürütme de kullanabilirsiniz. Eğer doktorlar Bayes teoreminden habersizlerse sadece hastaların moralini yerle bir etmekle kalmazlar, yanlış ihtimallerden yola çıkarak gereksiz tedaviler de uygulayabilirler. Sadece doktorlar değil yargıçlar da aynı hataya düşüyor, bu yanılgı sebebiyle haksız yere mahkum edilen çilekeşler var.

Hepimiz karmaşık dünyada bir düzen bulmak, yüzlerce ihtimal içinde doğru kararı verebilmek isteriz. Bilgimizin yeterli olmadığını hissettiğimizde uzmanların fikrine güveniriz. Uzmanlar kendi alanlarına ömürlerini vermişlerdir, muhakkak bizim görmediğimiz şeyleri görürler, doğru karar verirler.

Sözgelişi, kaliteli bir şişe şarap alacaksınız. Verdiğiniz paraya değip değmeyeceğini bilmek istiyorsunuz. ABD’deyseniz, şarapları puanlayan uzmanların çıkardığı dergilere bakar, elinizdeki şarabın yüz üzerinden kaç puan aldığına bakarsınız.

Bir şey sayılara döküldüğünde çok bilimselmiş gibi gelir bize, ama şarap tadı gibi sübjektif bir konuda puanlama çok sağlıklı olmuyor. Bir kere yüzlük bir ölçekte karar vermek imkânsız (75 ve 76 puan arasındaki fark nedir ki?) Dahası, Mlodinow’un atıf yaptığı araştırmalar gösteriyor ki, tadımcılar birçok sebeple sistematik hatalar yapıyorlar. Meselâ birbirlerinden etkileniyorlar veya beklentilerinin kurbanı oluyorlar: Bir deneyde uzmanlara içine az miktarda kırmızı gıda boyası karıştırılmış beyaz şarap veriliyor ve uzmanlar bu sahte roze şarabın, beyaz şaraptan daha tatlı olduğunu söylüyorlar. Beş farklı şişedeki şarapların tadıldığı başka bir deneyde, şarap tadıcılar 90 dolar etiketli bir şişedeki şarabı 10 dolar etiketli şişedekinden daha güzel buluyorlar, ama aslında deneyciler bütün şişelerde aynı şarabı koymuşlar.

Yok aslında birbirimizden farkımız… (wineworldspirits.com)

Haydi şarap neyse, ama para meseleleri gibi ciddi işlerde uzmanlara güvenebilmemiz lâzım. Kendi halinde birisi olarak hangi yatırım aracının en fazla kazanç sağlayacağını bilemezsiniz. Borsayı ve ekonomik göstergeleri takip edecek vaktiniz de yoktur. Bir uzmana sorarsınız.

Yazı tura atın daha iyi, uzmana vereceğiniz ücret elinizde kalır. Mlodinow’un atıf yaptığı araştırmalar, uzman geçinenlerin doğru hisseleri seçme konusunda kayda değer bir becerileri olmadığını gösteriyor. Akla yatkın aslında; doğru hisseyi seçebiliyorsan niye başkasına söyleyesin, kendin alır zengin olursun.

Peki neden bazı isimler çok başarılı yatırım danışmanı olarak öne çıkar? Yine basit olasılık. On binlerce kişiden arka arkaya doğru karar veren birkaç kişi çıkması kaçınılmazdır. Bunlar bir kere “guru” olarak tanındıktan sonra, başarı oranları düşse bile insanlar onlara güvenirler. “Teyit eğilimi” insan zihninin başka bir zaafıdır. Doğru varsaydığımız şeyleri destekleyen kanıtları görürüz, çürütenleri ise görmezden geliriz. Bu yüzden güvendiğimiz danışman kendini bir kere ispatladıktan sonra performansına bakmayız, hele de başka binlerce insan onun ağzına bakıyorsa.

Sen merak etme, bir yıl sonra on katına çıkaracağım parayı… (hedgeco.net)

Bu gözlemlerden Mlodinow bir ders çıkarıyor: Kişilerin başarısı veya başarısızlığı sadece kendi yeteneklerine ve çalışmalarına bağlı değildir. Karmaşık bir dünyada tahmin edilemeyecek bir yığın etki vardır. Talih, başarıyı veya başarısızlığı etkileyen en önemli faktörlerden biridir. Başarı ve performansa bakarak insanların kişiliği hakkında karar vermek yanlıştır.

Biz Doğu toplumları bunu kader ve kısmet olarak eskiden beri biliriz, ama özellikle ABD’liler için bu çok yeni ve önemli bir mesaj.

Ayyaş Yürüyüşü matematik, bilim tarihi, ve psikolojiyi ustaca harmanlıyor ve zor kavramları gündelik örneklerle açıklıyor. Kitabın İngilizce alt başlığının dediği gibi, rastgelelik hayatımızı yönetiyor. Olasılık kavramları ve istatistik bilgisi ile bu rastgeleliği azaltmak ve yanlış kararları biraz olsun engellemek mümkün.

Ne yazık ki istatistik ve olasılık hakkında fazla popüler kitap yok. Meraklısına bu kitabın tamamlayıcısı olarak İstatistik İle Nasıl Yalan Söylenir? (Darrell Huff) ve Şansın Matematiği (Enis Sınıksaran) kitaplarını tavsiye ederim.

Malcolm Gladwell’in Outliers (Çizginin Dışındakiler) kitabı başarı ile şansın yakın ilişkisine dair bir yığın örnek veriyor.

Zihnimizin bizi nasıl yanılttığına dair ilginç araştırmalar bir çok popüler psikoloji kitabında anlatılıyor. Akıldışı Ama Öngörülebilir (Dan Ariely, Optimist) ve Karar Ânı (Jonah Lehrer, Boğaziçi Üniversitesi Yayınları) bunlardan sadece ikisi. Bunların yanı sıra, iktisat psikolojisi alanında yaptığı çalışmalarla Nobel Ekonomi ödülü alan Daniel Kahnemann’ın Thinking, Fast and Slow kitabı tavsiye edilir. Ne yazık ki henüz Türkçeye çevrilmedi.

NEIL ARMSTRONG’UN ARDINDAN (1930 – 2012)

$
0
0

Test pilotu, havacılık mühendisi, astronot, Apollo 11’in komutanı, Ay’a ayak basan ilk insan Neil Armstrong 25 Ağustos 2012’de, kalp ameliyatından kaynaklanan komplikasyonlar sonucunda 82 yaşında hayatını kaybetti.

Neil Armstrong, Ay yürüyüşünü tamamladıktan sonra Ay modülünün içinde. (NASA)

Neil Armstrong 5 Ağustos 1930’da ABD’nin Ohio eyaletinin Wapakoneta şehrinde doğdu. Pilotluğa ilgisi çok genç yaşta başladı. Bölge havaalanında uçuş dersleri aldı ve 15 yaşında, henüz sürücü belgesi yokken, pilot sertifikası aldı. 1947’de Purdue Üniversitesi’nin havacılık mühendisliği bölümüne girdi. Kore Savaşı’nda görevlendirilmesi yüzünden ancak 1955’de mezun olabildi.

1949 başında askere çağrıldı ve 18 aylık bir eğitimden sonra Deniz Kuvvetleri pilotu oldu. 1951’de Kore Savaşı’nda görevlendirildi, 78 uçuş görevi tamamladı. 1952’de Deniz Kuvvetleri’nden ayrıldı ve eğitimini tamamlamak üzere Purdue’ya döndü.

Mezuniyetinin ardından deneme pilotu olarak çalışmaya karar verdi. NASA’nın selefi olan NACA (National Advisory Committee for Aeronautics) kurumuna katıldı. Birçok deneysel uçağın yanı sıra, ünlü X-15 roket uçağını da uçurdu. Mühendislik bilgisi ile deneysel araçların gelişimine katkıda bulundu. Kariyeri boyunca jetler, roketler, helikopterler ve planörler dahil olmak üzere ikiyüzden fazla değişik hava aracı kullandı.

Neil Armstrong X-15 uçağıyla. (NASA)

1962 yılında astronot statüsüne atandı. Gemini 8 görevinde komuta pilotu olarak 1966’da iki uzay aracının ilk başarılı birleşmesini gerçekleştirdi. Zor durumlarda soğukkanlı düşünebilme yeteneği, tecrübesi ve birikimi sayesinde Ay uçuşlarına katılacak küçük bir astronot grubuna dahil oldu. Apollo 8 uçuşu için yedek komutan görevinin ardından, insanlı ilk Ay inişi olacak olan Apollo 11 görevinin komutanlığına atandı.

Apollo 11 ekibi. Soldan sağa, Neil Armstrong, Michael Collins, Edwin Aldrin. (NASA)

Apollo 11 uçuşu 16 Temmuz 1969’da başladı. Armstrong, Edwin “Buzz” Aldrin ve Michael Collins’i taşıyan modül 20 Temmuz’da Ay’a vardı. Armstrong ve Aldrin Ay Modülü ile yüzeye indiler, Collins ise dönüşlerinde onları karşılamak üzere yörüngede kaldı.

Ay Modülü, inecek uygun bir yer aramanın uzun sürmesi yüzünden yakıtı bitmek üzereyken, UTC (Greenwich saati) ile 20:17’de Ay yüzeyine indi. Armstrong Dünya’ya “Houston, burası Sükûnet Üssü. Kartal kondu.” mesajını gönderdi. (“Sükûnet Üssü” ismini Armstrong uydurmuştu. Bu terim sonradan Uluslararası Astronomi Birliği tarafından bölgenin ismi olarak tanındı.)

Önceden kararlaştırıldığı şekilde modülden önce Armstrong çıktı. Merdivenin son basamağına gelince kısaca durup yüzeyi tarif etti: “Çok ince taneli, neredeyse pudra gibi. Şimdi iniyorum…” Sol ayağıyla attığı ilk adımın ardından, kendisini dinleyen yaklaşık 450 milyon Dünyalıya o ünlü sözünü söyledi: “Bir insan için küçük bir adım, insanlık için dev bir sıçrayış.

[video ogg="http://upload.wikimedia.org/wikipedia/commons/9/94/A11v_1092338.ogg"]

 

Yirmi dakika sonra Aldrin de Ay’a ayak bastı. Astronotlar iniş noktasına bir plaket bıraktılar, ABD bayrağını diktiler, 20 kg taş örneği topladılar ve üç tane bilimsel araştırma cihazı kurdular. Son olarak Armstrong 60 metre uzaktaki bir kratere yürüdü ve oraya, hayatını kaybeden Sovyet kozmonotları Yuri Gagarin ve Vladimir Komarov ile Apollo 1 astronotları Gus Grissom, Ed White ve Roger B. Chaffee anısına bir paket bıraktı. Astronotlar iki buçuk saati araç dışında olmak üzere ay yüzeyinde toplam 21 saat 37 dakika zaman geçirdiler.

Yürüyüş sırasında Armstrong ne ezan sesi duydu, ne de “iyi şanslar Bay Gorsky” dedi.

Dünyaya döndükten sonra Armstrong tekrar uzaya çıkmadı. Astronot olmadan önce başladığı lisansüstü çalışmalarını Apollo 11’in teknik özellikleri hakkında yazdığı bir tezle tamamladı ve 1970’de University of Southern California’nın Havacılık Mühendisliği bölümünden yüksek lisans derecesi aldı. 1970’de Apollo 13 arızasını inceleyen komisyona katıldı.

Kısa bir süre idari görevler üstlendikten sonra 1971’de NASA’dan emekli oldu. Doğduğu Ohio eyaletine döndü ve Cincinatti Üniversitesi’nde Havacılık Mühendisliği Üniversite Profesörü ünvanıyla ders vermeye başladı. 1979’da, sebebini açıklamadan bu görevden istifa etti. İş hayatına girdi.

1986’da Challenger faciasını inceleyen komisyona başkan yardımcısı olarak atandı. Ünlü fizikçi RichardFeynman da aynı komisyonun üyesiydi.

Hayatı boyunca birçok ödül ve ünvan kazandı. Dünyada birçok okul, cadde ve binanın yanı sıra, Apollo 11’in iniş noktasından elli kilometre uzaktaki Armstrong krateri ve 6469 Armstrong asteroidi onun adını taşır. 2010’da yapılan bir ankette en sevilen uzay kahramanı seçildi.

Hayatının sonuna kadar takdir edilerek yaşadı, fakat şöhreti onu rahatsız ediyordu. Her zaman alçakgönüllü ve sessiz olmayı tercih etti. Bir konuşmasında kendini “beyaz çoraplı, cep koruyuculu, termodinamiğin ikinci kanununa saygılı, buhar çizelgelerinde pişmiş, serbest cisim diyagramlarına aşık, Laplace ile dönüşmüş ve sıkıştırılabilir akışla güdülen bir inek mühendis” diye tarif etmişti.

Bu alçakgönüllüğüne rağmen, NASA yöneticisi Charles Bolden‘in dediği gibi, tarih kitapları var olduğu sürece Neil Armstrong onların içinde yer alacak ve dünyamızın ötesine insanlığın ilk küçük adımını atan kişi olarak hatırlanacak.

Ailesi, Armstrong’un ölümünün ardından yaptığı açıklamayı şöyle bitiriyor: “Neil’in hatırası için ne yapabileceğini soranlardan basit bir ricamız var. Onun hizmet anlayışını, başarılarını ve alçakgönüllüğünü örnek alın, ve bulutsuz bir gecede dışarıya çıkıp Ay’ın yukarıdan size gülümsediğini gördüğünüzde Neil Armstrong’u düşünün ve ona bir göz kırpın.

MARS KEŞİF SEFERLERİNİN KISA TARİHİ

$
0
0

Son olarak (ama kesinlikle sonuncu değil), 26 Kasım 2011’de gönderilen Mars Bilim Laboratuarı ve beraberindeki Curiosity gezgini, 5 Ağustos 2012’de Mars’a başarılı bir iniş yaptı.

Bu sayımızdaki başka bir yazıda ayrıntıyla ele alınan Curiosity, elli yıl önce başlayan Mars keşfi seferlerinin son halkası. Bu yazıda daha önceki başarılı ve başarısız Mars seferlerinin kısa, ama tam bir dökümünü vereceğiz.

Mars keşif araçlarının üç tipinden birincisi ve en eskisi, “flyby” tabir edilen, uzaklaşan açık bir yörüngede hareket ederken, gezegene mümkün olduğunca yaklaştırılan ve bu fırsatı kullanarak mümkün olduğunca veri toplayan uzay araçları. Bu veriler (fotoğraf, manyetik alan, parçacık yoğunluğu, kozmik ışın şiddeti,..) radyoyla Dünya’ya iletilir, uzay aracı ise uzay boşluğuna doğru yolculuğuna devam eder.

Keşif araçlarının ikinci tipi, “orbiter” denen, gezegenin yörüngesine oturtulan araçlar. Bunlar gezegenin çevresinde defalarca dönerek çok daha kapsamlı veri toplar, harita çıkarırlar.

Üçüncü tip ise “lander” ve “rover” (gezgin) tabir edilen, gezegenin katı yüzeyine iniş yapan, yüzeyden fotoğraf çeken, havayı ve toprağı analiz edecek araçları olan araçlar. “Lander”lar indikleri yerde kalırken, gezginler motorları sayesinde çevrede dolaşabiliyorlar.

Bir bütün olarak bakıldığında, Mars seferlerinin başarı oranı yaklaşık yarı yarıya. En iyi şartlarda beş altı ay, çoğunlukla onbir ay süren uzun yolda, haşin uzay ortamında, her türlü arıza çıkabiliyor. Bunları düzeltmek ise ancak Dünya’dan yollanan komutlarla mümkün. Önceden akla gelmedik bir sorun çıktıysa, milyonlarca dolarlık yatırımın üstüne bir bardak soğuk su içiyorsunuz.

1960’lar

Mars’ı insansız araçlarla keşfetmenin ilk denemeleri Sovyetler Birliği’nde başladı. 1960’da Korabl 4 ve 5 araçları hazırlandı, ama yerden havalanma sırasındaki bir arızayla tahrip oldular. 1962’de Korabl-11 aracı Dünya yörüngesine yerleşebildi, ama yörüngede parçalandı. Tam o sırada Küba krizi devam ediyordu. ABD’nin Alaska’daki balistik füze uyarı sistemi bu parçaları tespit edince bir an için Sovyetler’in nükleer saldırıya geçtiği düşünüldü.

Mars-1 aracı için 1964’de basılmış Sovyet pulu. (Wikimedia Commons)

Korabl-11’in hemen ardından, 1 Kasım 1962’de havalanan Mars-1 aracı daha başarılı oldu. Mars’ı yakın geçişle tarama amacıyla yola koyuldu ve uzay ortamı hakkında düzenli olarak değerli veriler gönderdi. Ancak 23 Mart 1963’de, Dünya’dan yüz milyon kilometre uzaktayken anteni bozuldu ve Mars-1 ile iletişim kesildi. Yoluna devam eden araç, 19 Haziran’da Mars gezegeninin 193.000 kilometre yakınından geçti, ardından Güneş etrafında yörüngeye oturdu.

Amerika’nın ilk Mars denemesi olan Mariner-3, aracın roketten ayrılması sırasında çıkan bir arıza yüzünden başarısız oldu. Üç hafta sonra, 28 Kasım 1964’de ikizi Mariner-4 başarıyla yola çıktı, yedibuçuk aylık bir yolculuktan sonra 14 Temmuz 1965’de Mars’a ulaştı. Gönderilen fotoğraflar ve diğer veriler sayesinde Mars’ın atmosferinin çok ince ve havanın çok soğuk olduğu, dolayısıyla bildiğimiz gibi bir hayat barındırma ihtimalinin çok düşük olduğu tahmin edildi. Mariner-4, geçişten sonra Güneş yörüngesine girdi ve beklenenden çok uzun bir süre çalışmaya devam ederek üç yıl boyunca Güneş rüzgarı hakkında veriler sağladı.

Mariner-4 (NASA)

Yine 1964’de, Sovyetler Birliği Zond programı kapsamında iki araç gönderdi, fakat araçların biri kalkış sırasında roketin arızalanması sebebiyle tahrip oldu. Diğeri yola çıkmayı başardı ama bir manevra sırasında araçla iletişim koptu. 1969’da hazırlanan iki yeni Sovyet aracı yine roket arızası sebebiyle kalkış sırasında tahrip oldu.

ABD’nin 1969’da birer ay arayla gönderdiği Mariner-6 ve Mariner-7 araçları Mars’a başarıyla ulaştılar. Biri ekvator, diğeri güney kutup bölgesinden geçti. Atmosferi ve yüzeyi uzaktan algılama sistemleriyle analiz ettiler ve ayrıca Dünya’ya iki yüz fotoğraf gönderdiler. Bu fotoğraflar sayesinde, Mars yüzeyinde gözlenen biçimlerin 1800′lerde ve 1900′lerin başında sanıldığı gibi kadim Marslı bir topluluk tarafından inşa edilmiş yapay kanallar olmadığı, doğal oluşumlar olduğu tespit edilebildi.

1970’ler

1971’de ABD, Mars yörüngesine yerleştirme amacıyla Mariner-8 ve Mariner-9 araçlarını hazırladı. Mariner-8, 8 Mayıs’daki kalkış sırasındaki bir arıza ile tahrip oldu, ama 30 Mayıs’da gönderilen Mariner-9 Mars’a başarıyla ulaştı ve Mars yörüngesine oturan ilk araç oldu.

Mariner-9 (NASA)

Mariner-9 Mars’a ulaştığında bütün gezegen dev bir toz fırtınası ile örtüdüğü görüldü. Bu fırtına tam bir ay sürdü, bu süre içinde fotoğraf çekimine başlanmadı. Fırtınadan sonra çekilen fotoğraflar Mars’ın devasa volkanlar, 4800 kilometre uzunlukta bir vadi, ve eski nehir yatağı gibi görünen yapılar barındırdığını gösterdi. Mariner-9 bir yıl boyunca yedi binden fazla fotoğraf çekerek Mars’ın bütün yüzeyinin haritasının çıkarılmasını sağladı.

Aynı ay içinde Sovyetler Birliği hem yörüngeye oturacak hem de yüzeye inebilecek şekilde tasarlanan Mars-2 ve Mars-3 araçlarını gönderdi. Her iki araç da Mars yörüngesine ulaşabildi, bol miktarda veri ve toplam 60 kadar görüntü sağladılar. Mars-2 yüzeye inerken bilgisayar arızasından dolayı atmosfere yanlış girerek parçalandı. Mars-3 ise Mars yüzeyine başarıyla inen ilk uzay aracı oldu. Fakat iletişimi sadece onbeş saniye sürdürebildiği için işe yarar veriler gönderemedi.

Sovyet Mars-3 yörünge ve ve iniş aracı. (NASA)

Sovyetler Birliği Mars programını devam ettirdi ve 1973’de dört araç daha yolladı. Mars-4 ve Mars-5 çifti yörünge araçları olarak, Mars-6 ve Mars-7 çifti ise geçiş (flyby) ve iniş aracı olarak tasarlanmışlardı. Mars-4, bir entegre devrenin arızalanması yüzünden fren roketlerini zamanında çalıştıramadı ve Mars’ı geçip gitti. Yine de bazı resimler çekebildi ve Mars’ın gece tarafında iyonosferin varlığını tespit etti.

Mars-5 başarıyla eliptik bir yörüngeye oturdu ve kısa bir süre güney bölgelerini fotoğrafladı, ancak dokuz gün sonra bozuldu. Mars-6 Mars yüzeyine inmeyi başardıysa da, dört dakikanın ardından iletişim koptu. Mars-7 aracı, entegre devrelerdeki bir hata yüzünden iniş sondasını çok erken bıraktı, sonda gezegenin yanından geçip gitti.

ABD sonraki hamlesini 1975’de Viking-1 ve Viking-2 araçlarıyla yaptı. Bu araçların her biri bir yörünge aracı ve bir yere iniş aracından oluşuyordu. Her iki iniş aracı da başarıyla Mars yüzeyinde farklı noktalara yerleşti.

Yer araçları Mars yüzeyinde fotoğraf çekmenin yanı sıra, özel otomatik deney düzenekleri ile toprağı analiz ederek hayat belirtisi aradılar. İniş noktalarında mikroorganizma tespit edilemedi. Araştırmacılar Güneş’in morötesi ışınları ile toprağın aşırı kuruluğu ve oksitleyici kimyası yüzünden Mars’ın tamamen cansız olduğunu düşünüyor.

Viking keşif gezisinin yer inişten itibaren 90 gün sürmesi planlanmıştı. Hem yörünge araçları hem de yer araçları bu sürenin çok ötesine geçtiler. Viking-1 yörünge aracı dört yıl, Viking-2 yörünge aracı ise iki yıl işlevini sürdürdü. Nükleer güç kaynaklı yer araçları ise, Viking-1 altı yıl ve Viking-2 dört yıl olmak üzere, uzun zaman yüzeyden veri ve fotoğraf göndermeye devam ettiler.

Viking araçlarının yörüngeden çektikleri fotoğraflarda büyük Mars Kanyonu – Valles Marineris (NASA)

1990’lar

Soğuk Savaş’ın bitmesiyle uzay yarışı yavaşladı. Yetmişlerde Mars’ın elverişli konumda olduğu neredeyse her dönemde süpergüçler keşif gezileri düzenlerken, seksenler durgun geçti. Bu dönemdeki tek Mars seferi Sovyetler Birliği’nin 1988’de gönderdiği Phobos-1 ve Phobos-2 araçları oldu. Bu sefer de başarısız oldu; birincisi Mars yolunda kayboldu, ikincisi ise inişe geçme hazırlığındayken araçla iletişim kesildi.

ABD 1992’de, Viking seferlerinden onyedi yıl sonra, Mars Observer (Gözlemci) isimli yeni bir yörünge aracı geliştirdi. Jeoloji, jeofizik ve iklim gözlemleri yapmak üzere tasarlanan araç Mars’a ulaştı, ama yörüngeye girmeden az önce araçla temas kesildiği için sefer başarısız oldu.

Mars Global Surveyor, temsili resim. (NASA)

Dört yıl sonra NASA yeni bir uydu olan Mars Global Surveyor aracını hazırladı. 1996 Kasım ayında yola çıkan araç başarıyla Mars yörüngesine yerleşti. Dairesel bir yörüngeye yerleşmesi Mart 1999’u buldu, ve o tarihten 2006’ya kadar çok ayrıntılı resimler göndermeye devam etti. Sonunda bilgisayar hatasından kaynaklanan bir sebeple bataryası bozulup işlemez olduğunda, projede planlananın dört katı kadar bir süre işler halde kalmıştı.

Mars Global Surveyor o zamana kadarki Mars seferlerinin hepsinden daha fazla bilgi topladı.  Lazer altimetresi ile Mars’ın çok ayrıntılı topografyasının çıkarılmasını sağladı. Güney kutbunda büyük bir karbondioksit buzu kütlesi tespit etti. Aracın küçük hızlanmalarından yerçekimi farklılıkları ölçülerek gezegenin iç yapısını tahmin etmek mümkün oldu. Radyo sinyalleriyle atmosferin dikey yönde sıcaklık ve basınç profilleri çıkarıldı. Manyetik ölçümler, Mars’ın Dünya gibi bir iç manyetik alan yaratmadığını, ama kabukta yer yer manyetik bölgeler olduğunu gösterdi.

Surveyor’ın Mars iklimi gözlemleri, Mars’da hava durumunun yıl içinde son derece düzenli olduğunu da gösterdi.

Surveyor ile çekilen delta biçimi oluşumlar ve yamaçlardaki akış yataklarının yüksek çözünürlüklü fotoğraflarına bakarak araştırmacılar Mars’ın yüzeyinin altında su bulunduğunu ve bu suyun ara sıra yüzeye çıkarak yamaç aşağı aktığını, sonra buharlaştığını tahmin ediyor.

Mars Global Surveyor fotoğraflarından, yamaç boyunca akış izleri. (NASA)

Pathfinder aracı, Global Surveyor’dan sadece bir ay sonra yola çıktı. Bu seferde ilk olarak hareketli bir aracı yüzeye indirmek denenecekti. İniş yöntemi öncekilerden çok farklıydı: Paraşütle aracın hızı kesildi, ve dev hava yastıkları düşüşün darbesini emdi, ve hem sabit yer aracı (lander) hem de hareketli araç (rover) salimen Mars yüzeyine ulaştı.

Pathfinder araçları planlanandan çok daha uzun bir süre, yaklaşık üç ay kadar çalışır durumda kaldılar. Araçların amacı uzun dönemli veri toplamak değil, bir robot sistemini emniyetle Mars’a ulaştırabilmekti. Buna rağmen binlerce fotoğraf, kimyasal analiz verisi, rüzgar ölçümü ve diğer veriler gönderdiler. Bu veriler, Mars’ın bir zamanlar sıvı su ve yoğun bir atmosferi bulunan ılık ve nemli bir gezegen olduğuna dair belirtiler taşıyor.

Sonraki birkaç yıldaki denemeler hüsranla sonuçlandı. Rusya’nın hazırladığı Mars-96 aracı fırlatma roketinin tam olarak yanmadığı için Dünya’ya geri düştü. Japonya uzay ajansı JAXA’nın ilk Mars denemesi olan Nozomi 1998’de fırlatıldı, ama elektrik sistemindeki arıza sonucu yörüngeye oturamadı.

Yine 1998 yılının sonunda NASA’nın gönderdiği Mars Climate Orbiter yörüngeye oturma aşamasında yanlış bir yol izleyerek atmosfere girdi ve parçalandı. Arızanın sebebinin bir programlama hatası olduğu ortaya çıktı: Yörüngeye girişi yöneten programda metrik ölçü birimleri yerine emperyal (pound, ayak, inç) birimler kullanılmıştı.

Keza, 1999 başında yola çıkan Mars Polar Lander ile gezegene iniş yaptıktan sonra iletişim kesildi. Mars Climate Orbiter başarısızlığının üzerinden sadece iki buçuk ay geçmişken gelen bu yeni arıza NASA’ya prestij kaybettirdi.

2000’ler

Fakat bu aksaklıklar uzun sürmedi ve 21. yüzyıl seferlerinin çoğu başarılı oldu. İsmini Arthur C. Clarke’ın romanından alan 2001 Mars Odyssey aracı yörüngeye yerleşti ve halen çalışıyor. Mars’ın iklimi, jeolojisi, mineral yapısı, yüzey sıcaklığı, ve gömülü buz tabakaları hakında veriler topluyor. Aynı zamanda, gezegenin çeşitli yerlerindeki gezgin araçların sinyallerini Dünya’ya aktaran bir istasyon görevi görüyor.

Odyssey Mars’ın güney kutbu üzerinde. Temsili resim. (NASA)

Avrupa Mars’a ilk seferini 2003’de gönderilen Mars Express ile başlattı. Bu seferde bir uydu aracı ile bir sabit yer aracı (lander) beraber gönderildi. İngiliz yapımı yer aracı Beagle Mars yüzeyinde biyoloji ve jeokimya deneyleri yapmak için tasarlanmıştı, ancak iniş başarısız oldu ve Beagle ile iletişim kesildi. Ancak Express’in uydu kısmı halen Mars yörüngesinde iklim, yeraltı yapıları, mineraloji hakkında veriler toplamakta.

ABD’nin ikiz Mars gezginleri Spirit ve Opportunity 2003’de fırlatıldılar ve 2004 başında 21 gün arayla Mars yüzeyine ulaştılar. Pathfinder ile kendini ispatlayan paraşüt ve hava yastığı sistemi burada yine başarıyla kullanıldı.

Üç kuşak Mars gezgini bir arada. Önde Pathfinder seferindeki Sojourner aracının yedeği, solda Spirit ve Opportunity’nin kardeşi olan test aracı, sağdaki Curiosity’nin eşi olan test aracı.

Spririt ve Opportunity gezginleri Mars arazisinin yanı sıra, kaya ve toprak yüzeylerinin de çok sayıda mikroskopik fotoğrafını çektiler. Taşıdıkları dört değişik spektrometre Mars toprağının kimyası ve mineral yapısına dair çok ayrıntılı bilgiler sağladı. İlk kez kullanılan zımparalama araçları ile kayaların yüzeyi kazınıp iç yapıları görüntülendi.

İki aracın da sadece üç ay çalışması planlanmıştı, ama bu süreyi çok aştılar. Opportunity sekizbuçuk yıldır çalışmakta, şimdilik 35 kilometre yol yapmış durumda, analizler yapmaya ve Dünya’ya veri göndermeye devam ediyor.

Opportunity’nin panoramik kamerasından 360 derecelik bir manzara. (NASA)

Spirit ise daha şanssız çıktı. 1 Mayıs 2009’da yumuşak toprağa takıldı. NASA sekiz ay boyunca durumu analiz etti, aracı kurtarmak için gerekli manevraları simülasyonlarla test ederek belirledi. Ancak uzaktan komutlar başarılı olamadı ve Spirit çakılı kaldı. 26 Ocak 2010’da NASA kurtarma çabalarını bıraktı ve Spirit olduğu yerde bilimsel veri toplamaya devam etti. Ancak 22 Mart 2010’a Spirit ile bütün iletişim kesildi ve iki aylık çabaya rağmen tekrar bağlantı kurmak mümkün olmadı.

Mars Reconnaissance Orbiter. (NASA/JPL-Caltech)

ABD aracı Mars Reconnaissance Orbiter 2006 Mart ayında yörüngeye oturdu. Orbiter çok hassas kamerası sayesinde Mars yüzeyinde bir metre büyüklüğündeki ayrıntıları bile görebiliyor. Bu görüntüler hem bilimsel veri olarak, hem de sonraki iniş seferlerinin emniyetini sağlamak için kullanılıyor. Ayrıca atmosferi, toprak yapısını ve yer altını inceleyecek uzaktan algılama cihazları taşıyor.

Orbiter’in başka bir görevi de diğer araçlar ve Dünya arasında iletişim sağlamak. İleriki yıllarda gönderilecek araçların oluşturacağı “gezegenlerarası internet”in ilk bağlantısını oluşturuyor.

NASA’nın sonraki aracı, sabit yer istasyonu Phoenix 25 Mayıs 2008’de Mars kutup bölgesine indi. Birçok bilimsel analiz aracı taşımakla beraber, seferin asıl amacı toprağı kazıp yer altında buz halinde su olup olmadığını araştırmaktı. Nitekim, toprağın hemen altında, 5-18 santimetre arasında değişen derinliklerde, bir buz tabakası bulundu.

Phoenix üç ay sürmesi planlanan görevini başarıyla tamamladı. Daha sonra, Mars kışının başlaması, ve fırtınalar yüzünden üstünün tozla kaplanması yüzünden yeterli güneş enerjisi alamadı. Araçla temas kesildi. Üstelik, Orbiter’dan alınan fotoğraflar Phoenix’in bulunduğu bölgenin kalın bir kuru buz (karbondioksit buzu) ile kaplandığını gösterdi. Ağır buzun kırılgan güneş panellerini tahrip ettiği anaşılınca iletişim kurma çabaları kesildi. Phoenix açlıktan ve soğuktan donarak ölmüştü!

Phoenix Mars’a inerken. Temsili resim. (NASA/JPL)

Mars’ta şansını tekrar denemek isteyen Rusya 2011 Kasım’ında Fobos-Grunt aracını fırlattı. Bu seferde daha önce yapılmamış bir şey amaçlanmıştı, Mars toprağından bir numuneyi Dünya’ya geri getirmek. Çin’in geliştirdiği Yinghuo-1 aracı da Mars yörüngesine oturtulmak üzere Fobos-Grunt ile beraber yola çıktı. Fobos-Grunt roketlerindeki bazı arızalar yüzünden Mars’a gidiş için gerekli ivme sağlanamadı, araç kısa bir süre Dünya yörüngesinde kaldıktan sonra Dünya’ya geri düşerek tahrip oldu.

Son olarak (ama kesinlikle sonuncu değil), 26 Kasım 2011’de gönderilen Mars Bilim Laboratuarı ve beraberindeki Curiosity gezgini, 5 Ağustos 2012’de Mars’a başarılı bir iniş yaptı.

DOKUMA TEZGÂHLARINDAN ANA BİLGİSAYARLARA: DELİKLİ KARTLARIN 250 YILI

$
0
0

Teknolojinin ilginç özelliklerinden biri geçmişin geleceği belirlemesidir. Yeni teknolojiler seleflerinden tamamen farklı olmazlar, hatta genellikle onlarla büyük ölçüde benzeşirler. İşe yarayan alışılmış yöntemler azıcık biçim değiştirerek yeni sistemlere uyarlanır ve hayatlarına devam eder. Bu açıdan teknolojinin evrimi biyolojik evrime çok benzer.

Bilgisayar programlamada kullanılan delikli kartları bugün bilen pek kalmadı. Şimdi ellili yaşlarını süren kuşaktan birkaç kişi son zamanlarına yetişmiştir ancak. Küçük ve önemsiz bir aksam gibi görünebilirler, ama delikli kartların bilgisayarlardan çok önceye, günümüzden üç asır geriye dayanan heyecanlı bir hikayesi var.

Delikli kartlar (Science Museum)

1. Dokuma tezgâhları

Onsekizinci yüzyılın başında Fransız dokumacılarının derdi büyüktü. Hani Allah başka dert vermesin derler ya, öylesinden: Karmaşık desenli ipekli kumaş talebine bir türlü yetişemiyorlardı.

Dokuma tezgahları, çözgü adı verilen, tezgâh boyunca gerili ipliklerin bir kısmının yukarı çekilmesi, ve arada oluşan boşluktan atkı denen enine ipliklerin mekikle geçirilerek örülmesi prensibiyle çalışır. Kumaşta istenen desen kareli kâğıda işlenerek desen patronu hazırlanır, sonra desenin her atkı sırası için farklı bir çözgü demetini bir kordona iliştirip, hep birlikte yukarı çekmek gerekir.

Bez ayağı dokuma denen desensiz dokuma usulü. A ve B çubukları sırayla ayrı ayrı yukarı çekilir. Açılan “ağızlık”tan mekiğe takılı atkı ipliği bir sağa bir sola geçirilir. Ortada görülen tahta aşağı çekilerek atkılar sıkıştırılır.

Düz renkli veya basit desenli kumaşlar oluşturmak nispeten kolaydı. 18. yüzyıl tezgahlarında bu işi çocuklar üstleniyordu. El tezgahlarında desenli dokuma hem yorucu hem de sıkıcıydı. Uzun saatler boyunca durmadan çalışan çocukların eninde sonunda yorularak yanlış ipleri çekmesiyle desen sık sık bozuluyordu. Dokuma ustası hatayı görene kadar çok geç oluyor, kumaş işe yaramaz hale geliyor, emekler boşa gidiyordu.

1725′te, Lyon’lu tekstil işçisi Basile Bouchon bu hataları giderecek bir sistem geliştirdi. Bir org imalatçısının oğlu olan Bouchon otomatik orgların çıkıntılı, dönen silindirlerinden ilham aldı. Önce desen patronunu geniş bir kağıt şeride aktardı ve boyalı noktalarda delikler açtı. Hazırladığı dokuma tezgâhında çözgü ipliklerini yatay şişlerin bulunduğu bir mekanizmaya bağladı. Şişler kâğıttaki deliğe denk geldiklerinde delikten içeri giriyorlar ve çözgüler arasında mekiğin geçirileceği bir boşluk kalmasına sebep oluyorlardı.

Bouchon’un (solda) ve Falcon’un (sağda) dokuma tezgâhları. (Oliver Seely, Jr.)

Üç yıl sonra Bouchon’un asistanı Jean-Baptiste Falcon kâğıt şeridi, kenarlarından iplerle bağlanmış delikli kart zinciriyle değişirdi. Bu değişiklik sayesinde zincire yeni kart ekleyerek var olan deseni genişletmek mümkün olabiliyordu. Ayrıca, bir yer yırtıldığında bütün şeridi atmaya gerek kalmadan sadece yırtık yeri değiştirmek yeterliydi.

Bouchon ve Falcon’un icadı desenin yanlış dokunmasını önleyebildiği için çok önemliydi, ama tam otomatik değildi. Bir işçi kâğıdı yavaş yavaş içeri kaydırmakla görevlendiriliyordu. Daha hızlı üretim için otomatik bir sistem gerekliydi.

1741 yılında Jacques Vaucanson kral tarafından Fransız ipek üretimini teftiş etmekle ve İtalyanlara göre geri kalmış olan Fransız ipek sanayiini yeniden düzenlemekle görevlendirildi. Vaucanson, çok gerçekçi şekilde hareket eden insan ve hayvan otomatları inşa etmekle ün yapmış bir mucitti. Teftiş görevine atandığında 32 yaşındaydı ve bir mekanik dâhisi olarak biliniyordu.

Müfettişlik görevi sırasında tekstil sanayiinin eksiklerini ve ihtiyaçlarını öğrendi ve mekanik dehasını kullanarak yenilikler yaptı. 1745′de düz renkli kumaşlar için otomatik bir tezgâh üretti. 1748′de Bouchon ve Falcon tezgâhını geliştirerek, desenli kumaşları elle müdahale gerekmeden dokuyabilecek bir sistem yarattı.

Vaucanson tezgâhı. (Brian Jepson (bjepson), Flickr)

Vaucanson’un makinesinde kumaşın deseni yine delikli bir kağıt ile belirleniyordu. Bu kağıt, üzeri düzenli açılmış deliklerle kaplı, dönen bir metal silindirin çevresine sarılıyordu. Kontrol çubuklarının silindirin içine girebildiği yerlerde çözgü iplikleri yukarı çekiliyordu. Vaucanson silindirin kenarına tek yönde ilerleyen bir dişli sistemi koymuştu. Böylelikle delikli kâğıdın elle itilmesi gerekmeden makine kumaşı otomatik olarak işliyordu. Ne yazık ki, zekice tasarlanmasına rağmen, silindirin çevre uzunluğunun kumaşın desenini sınırlaması Vaucanson’un tezgâhının yaygınlaşmasını engelledi.

Tasarıma son cilayı atmak başka bir Lyonlu tekstilciye, Joseph Marie Jacquard’a nasip oldu. Jacquard 1805′te Falcon’un delikli kart zinciri ile Vaucanson’un tek yönlü çark kullanan otomatik mekanizmasını birleştirdi. Kartların oluşturduğu şerit, bir silindir değil de bir dikdörtgen prizma tarafından itilerek mekanizmaya sokuluyordu. Uzun kart zinciri, istenen karmaşıklıkta desenlerin üretilmesine imkân sağlıyordu, ve ayrı bir işçiye ihtiyaç duymadan otomatik olarak çalışıyordu.

Jacquard tezgâhı. (George Williams (ghwpix), Flickr)

Jacquard’ın ipek kumaşa dokunmuş portresi, tezgâhın karmaşık dokumalarda ne kadar başarılı olduğunu gösteriyor. (Wikipedia)

Türkçede “karmaşık desenli kumaş” anlamındaki “jakarlı” terimi Jacquard’ın adından gelir.

Jacquard tezgâhı Lyon dokumacılarına çağ atlattı, Jacquard’ı zengin etti ve tekstil sanayiine damgasını vurdu. Dokuma işçileri işsiz kalma korkusuyla yeni sisteme karşı çıksalar da, Jacquard tezgâhı hızlı ve hatasız çalışması sayesinde on yıl içinde bütün Fransa’ya yayıldı. Ondokuzuncu yüzyılın ortasında hem Fransa’da hem İngiltere’de standart teçhizat haline gelmişti.

Ancak, Lyon’lu mucitlerin dehası, tekstil sanayiinin çok ötesinde yankı bulacaktı.

2. Charles Babbage ve “Analitik Makine”

Charles Babbage (1791-1871) bugün 19. yüzyılın en parlak bilimcilerinden biri olarak kabul ediliyor, fakat yaşadığı dönemde dar bir çevre dışında tanınmıyordu, hatta ölümünden sonra uzun bir süre unutulmuş olarak kaldı. Babbage gerçek anlamda “çağının ötesinde” denebilecek bir insandı. “Otomatik hesaplama” fikrini ortaya attı, ömrünü bunu gerçekleştirmeye adadı, ama çağının imalat teknikleri, mühendisliği ve vizyonuna sıkışıp kaldığı için hayalleri gerçekleşemedi ve çalışmaları unutuldu.

Charles Babbage, 1860. (Wikipedia)

Zengin bir aileden gelen Babbage Cambridge’de matematik okumuştu. Hareketli bir sosyal hayatı vardı, ama bilimsel ilgilerini de takip etmeyi ihmal etmiyordu. Birçok önemli başka şeyin yanı sıra, matematik tablolarına özel ilgisi vardı.

Matematik tabloları trigonometrik, logaritmik, ve diğer fonksiyonların değerlerinin listelendiği kitaplardı ve astronomi, mühendislik, denizcilik gibi amaçlarla yapılan karmaşık hesaplar için hayati önem taşıyorlardı. Ancak bu tablolar, elle hazırlandıkları için çok sayıda hata içeriyorlardı; çok kullanılan bir kitapta 1000′den fazla hata tespit edilmişti. Bu hataların her biri bir ölüm tuzağıydı, çünkü açık denizdeki bir gemide enlem-boylam hesabı yaparken hatalı bir sayı kullanmak rotanın kilometrelerce sapmasına ve mürettebatın ölümüne yol açabilirdi.

Bu hatalardan sıtkı sıyrılan Babbage, 1821′de astronom arkadaşı John Herschel’e “bu hesapların buharla yapılabilmesini isterdim” diye yakındı. Bu öylesine bir yakınma değil, ciddi bir tasarıydı. Babbage sonraki on yılını bu hayalini gerçekleştirecek bir makine yapmaya adadı.
Fonksiyon değerlerini farklar yöntemiyle hesapladığı için “Fark Makinesi” adını verdiği tasarımı başta heyecan uyandırdı, hatta İngiliz hükümetinden makineyi inşa etmek için ödenek bile aldı. Ancak Fark Makinesi asla çalışır hale getirilemedi. Makine o çağa göre çok karmaşıktı. Tahmin edilenden çok daha fazla masraflı olmuştu, ve on yıllık bir çalışmanın sonunda gösterilebilecek bir ürün çıkmamıştı. Hükümet para desteğini kesti. 1833′de Fark Makinesi projesi daha doğmadan öldü.

Her şeye rağmen Fark Makinesi tamamlanabilirdi, ama Babbage’ın yerinde duramayan, sürekli ileri gitmek isteyen zekâsı tasarıma yeni şeyler eklemeden duramıyordu. Fark Makinesi’nin özel amaçlı bir hesaplayıcı olduğunun farkındaydı. Çok daha genel amaçlı, her türlü formül için “programlanabilecek” bir makine yapabileceğini farketti. “Analitik Makine” adını verdiği yepyeni bir makine tasarladı, ancak bu makine de kâğıt üzerinde kaldı.

Babbage, Analitik Makine’yi iki bağımsız parça olarak tasarladı: Hesaplamaları yapan “değirmen” kısmı ve sayıları gösteren çark sütunlarından oluşan “depo” kısmı. Bu bağımsız parçalar bugünkü bilgisayarlarda “işlemci” ve “ana bellek” olarak mevcut. Babbage, 1940′larda deneme-yanılmalar sonucu tekrar icat edilen bilgisayar mimarisini, yüz sene önceden öngörüp kullanmıştı.

Tasarıma göre, Analitik Makine uygun talimatları arka arkaya gelen delikli kartlarla makineye aktarmakla “programlanacaktı” (o zaman bu terim yoktu elbette). Babbage döneminde Jacquard tezgâhı iyi biliniyordu, ve Babbage delikli kartların sadece dokumacılıkta değil, her türlü soyut enformasyonun aktarılmasında kullanılabileceğini idrak etmişti.

Analitik Makine için tasarlanan delikli kartlar. (Alan Levine (cogdogblog), Flickr)

Yetenekli matematikçi Kontes Ada Lovelace da bu benzerlikten hareketle, Analitik Makine hakkında yazdığı el kitabında “Jacquard tezgâhının çiçekler ve yapraklar dokuması gibi, [Analitik Makine'nin] cebirsel desenler dokuduğunu” yazıyordu. Babbage hayallerinin gerçekleştiğini görmeden öldü, ismi de makineleri de uzun süre unutuldu. Ölümünden yıllar sonra tekrar keşfedilen Babbage’ın icatları bugün ondokuzuncu yüzyılın en büyük entelektüel başarıları arasında sayılıyor.

3. Hollerith’in tablolama makinesi

Babbage’in icadının unutuluşundan elli yıl sonra, Atlantik’in diğer kıyısında delikli kartları genel amaçlı bilgi işleme için kullanma fikri yeniden keşfedildi. Bu keşfin arkasındaki itici güç akademik hesaplamalar veya sanayi otomasyonu değil, hızla büyüyen bir ülkenin nüfus istatistiklerini çıkarma ihtiyacıydı.

Anayasa gereği ABD’de on yılda bir ülke çapında nüfus sayımı yapılıyordu. Ülkenin ilk yüz yılında nüfus, sayımların sonuçlarının kolayca derlenebileceği kadar düşüktü, ancak ondokuzuncu yüzyılın yarısından sonra işler zorlaşmaya başladı. Ülke genişledi, göçler sonucu nüfus hızla arttı, dahası her sayımda eskisine göre daha ayrıntılı bilgi toplanır oldu. Böylece nüfus sayımını değerlendirip istatistikler çıkarma işi gitgide daha uzun zaman almaya başladı. 1880 sayımının derlenmesi tam yedi yıl sürmüştü. Görünüşe göre 1890 sayımının derlenmesi bitmeden yeni sayım zamanı gelecekti.

Hermann Hollerith. (Wikipedia)

1889′da sayımın derlenmesi işini hızlandıracak araçlar için bir ihale açıldı. Başvuran üç projeden ikisi, elle yapılan düzenlemelerin birazcık daha verimlileştirilmiş halleriydi. Üçüncüsü ise, 29 yaşındaki bir mühendis olan Hermann Hollerith’in tasarladığı, bireysel bilgilerin farklı noktalardaki deliklerle kodlandığı kartları yarı otomatik olarak işleyen bir makineydi. Üç proje, 10 491 kişilik bir mini sayımı derleyerek yarıştılar. Makinesinin olağanüstü işleme hızı sayesinde yarışmayı Hollerith kazandı.

Hermann Hollerith (1860-1929) New York’lu bir makine mühendisiydi. 19 yaşında Columbia üniversitesinden mezun olmasının ardından 1880 sayımındaki veri analizinde görev yapmıştı ve bu görevi ona sayımın inceliklerini ve derleme zorluklarını gözleme fırsatı vermişti. Sayımdaki görevinden sonra 1882′de MIT’de makine mühendisliği bölümünde okutman olarak, sonra da patent ofisinde patent inceleme memuru olarak çalıştı. 1884′de patent ofisinden istifa etti, bir mucit/girişimci olarak serbest çalışmaya başladı. Bu dönemde, sayımı kolaylaştıracak bir makine tasarlamakla uğraştı.

Hollerith’in nüfus sayımı dairesine sunduğu “tablolama makinesi”nin basit bir tasarımı vardı: Delikli kart cihaza yatırılır. Kartla aynı büyüklükte, ve deliklere rast gelecek şekilde ayarlanmış yaylı iğneler barındıran bir pres kartın üstüne indirilir. Kartın altında, delik olabilecek her yerin hizasında cıva dolu dikey tüpler vardır. Kartın delinmiş kısmına denk gelen iğneler cıvaya temas edince bir elektrik devresi kapanmış olur. Geçen akımla, cihazın üst kısmındaki kadranlardaki gösterge bir hane oynar.

Hollerith tablolayıcısının kullanımı. (Waldon Fawcett, ABD Kongre Kütüphanesi)

Hollerith makinesindeki kartın yapısı. (Wikipedia)

Makine, sayım işinin çok verimli yapılabilmesine imkân verdi. Dakikada kırk karta varan hızlarda işlem yapılabiliyordu. Sadece altı haftada toplam nüfus sayıları ilan edilmişti. Ardından, anket formlarındaki bilgiler delikli kartlara aktarıldı ve ayrıntılı tablolama işlemleri başladı. Altmış üç milyona yakın sayıda kart farklı istatistikler için yedi sefer makinelerden geçirildi. 1890 sayımının bütün işlemleri iki yılda tamamlandı. İş önceki sayıma göre çok daha hızlı bitirilmekle kalmamış, eskisine göre çok daha ayrıntılı tablolar oluşturulabilmişti. Bu sonuç Hollerith için büyük bir teknolojik ve mali başarı anlamına geliyordu.

Scientific American dergisinin kapağından Hollerith makinesi ile nüfus sayımı. Sağ üstte: Sayım sırasında doldurulan anketlerdeki bilgiler özel bir delgeçle kartlara aktarılıyor. Sol üstte ve ortada: Delinmiş kartlar tablolama makinesinden geçirilerek bilgiler toplanıyor. Büyütmek için tıklayın.

Hollerith’in delikli kart kullanma fikrini nereden edindiği net değil. Babbage’in tasarımını duymuş olması pek muhtemel değil, ama mühendislik eğitimi sırasında yüksek ihtimalle Jacquard tezgâhından haberdar olmuştur. Ayrıca, 1880′deki sayımda çalıştığı sırada tanıştığı başka bir mucit olan John Billings’in delikli kartlar ve mekanik işleme fikrini ortaya attığı biliniyor. Hollerith bir ifadesinde, tren biletlerinin yolcunun eşkalini (saç rengi, boyu, vs.) belirtecek şekilde farklı yerlerden delindiğini gözlediğini, delikli kart kullanma fikrini buradan aldığını söylüyor. Her halükarda, bu fikri uygulama aşamasına getirebilmek için Hollerith büyük çaba göstererek birçok teknik zorluğu aştı, ve bilgi işleme teknolojisinde önemli bir çığır açtı.

Hollerith, şirketini 1896′da Tabulating Machine Company (Tablolama Makinesi Şirketi) adıyla anonim şirkete dönüştürdü. 1900 sayımında da aynı makineler kullanıldı (o zamanlar sayımdan sorumlu kalıcı bir hükümet dairesi yoktu, her türlü cihaz geçici olarak kiralanıyordu). Aradaki dönemde Hollerith, tablolama makinelerini gitgide daha fazla otomatikleştirmiş, hızlandırmış ve kullanımını kolaylaştırmıştı. Özel sektöre yöneldi ve şirketini olağanüstü bir hızla büyüttü. 1911′e gelindiğinde yüzden fazla müşteriye hizmet veriyordu.

Zirveye çıktığı bu dönemde, mucit karakterli Hollerith şirketin gitgide karmaşıklaşan yönetimiyle uğraşmaktan bıktığını farketti. 51 yaşına gelmişti, sağlığı da çok iyi değildi. 1911′de şirketi devretti. Yeni yönetim altında şirket, ofis otomasyonu cihazları üreten başka iki şirket ile Computing-Tabulating-Recording Company adı altında birleştirildi.

IBM’in ilk logosu (IBM)

Birleşmenin ardından şirket büyümeye devam etti, uluslararası bir şirket haline geldi ve ürünlerini çeşitlendirdi. 1924 yılında ismini International Business Machines (IBM) olarak değiştirdi.

4. IBM kartları ve elektronik bilgisayarlar

1930′lara gelindiğinde delikli kart desteleriyle bilgi işleyen makineler iş dünyasında iyice yaygınlaşmıştı. Öyle ki, 1929′da başlayan ve etkisi yıllarca süren iktisadi buhran bile delikli kart makineleri sanayiini yıkamamıştı. Önde gelen iki şirket olan IBM ve Remington Rand arasındaki rekabet sonucunda tablolama makineleri gitgide karmaşıklaştı, gelişti, hızlandı.

Farklı şirketler farklı biçimlerde delikli kartlar kullansa da, IBM’in 1928′de geliştirdiği 80 sütunlu kart en yaygın ve en uzun ömürlü form oldu. Neredeyse elli yıl boyunca kullanıldı ve bilgisayar çağının ilk döneminin ikonu haline geldi. 1960′lardaki bilgisayar terminallerinin ekranlarının 80 harf genişliğinde olması bu kartların mirasıdır. Kartların hassasiyetle ve çok sağlam olacak şekilde üretilmesi gerekiyordu. Diğer üreticiler IBM kartlarını yeterli derecede taklit edemedikleri için, sarf malzemesi olarak kart satışı IBM’in önemli gelir kaynaklarından biri oldu. 1930′larda IBM yılda üç milyar kart satıyor, gelirinin %10′unu ve kârının %30-40 kadarını bu satıştan elde ediyordu.

Klasik 80 sütunlu IBM kartı. (IBM)

İkinci Dünya Savaşı’nın başlamasıyla ar-ge öncelikleri değişti, tablolama makinelerinin gelişimi durdu. Ama şirketler, özellikle IBM, yeni makineler üreterek talebe cevap vermeye devam ettiler. Bu makineler bir deste kartı alıp hepsine aynı işlemi uyguluyor, bütün kartları bir seferde işliyorlardı. Makineler belli bir amaca yönelik hazırlandıkları için genellikle kart destesini bir makineden diğerine elle taşımak gerekiyordu. Bu da hem zahmetli, hem de çalışmayı yavaşlatan bir işti. Dahası, büyük ölçekli şirketler o kadar çok işlem yapıyorlardı ki, depoları delikli kartlarla dolup taşmaya başlamıştı.

1951′de piyasaya çıkan ilk genel amaçlı, ticari, elektronik bilgisayar olan UNIVAC veri depolama için manyetik teypler kullanıyordu. Kullaıcılar açısından bu özellik UNIVAC’ın diğer devrimci niteliklerinden daha önemliydi, çünkü delikli kartlardan kurtulma imkânı sağlıyordu.

UNIVAC-I. (Wikipedia)

IBM elektronik bilgisayar işine girmekte tereddütlü davrandı. 1952 sonunda piyasaya sürdüğü IBM 701, birçok açıdan UNIVAC’dan geriydi, fakat IBM’in yerleşik müşteriler ve saldırgan bir pazarlamacı ordusu gibi avantajları vardı. “Devrim değil evrim” sloganıyla, varolan sistemlerle entegre edilebilecek modüler bilgisayarlar üretti. Varolan kartları okuyup işleyebilen arayüzler yarattı. 1957′de IBM bugünkü sabit disklerin atası olan manyetik diski icat etti, böylece manyetik teyplerden daha kullanışlı bir saklama ortamı yaratmış oldu.

IBM RAMAC manyetik disk. (IBM)

Elektronik bilgisayarların yayılması yavaş oldu. İş dünyası kartlardan, ve kendini ispatlamış tablolama makinelerinden hemen vazgeçmedi. Bu makinelerin üretimi 1960′ların sonlarına kadar devam etti.

Delikli kartların hükmü bir süre daha devam etti. 1960′lar ve 1970′ler boyunca, büyük bilgisayarların kullanılışı belli bir kalıba oturmuştu: Kullanıcılar programlarını yazıyorlar ve kartlarda delikler açarak işletilmeye hazır hale getiriyorlardı. Programı içeren kart destesi operatöre veriliyor, operatör bu kartları bir “yorumlayıcı” kısımdan geçiriyordu. Program işletiliyor, çıktısı sürekli form kâğıdına basılmış olarak programcıya geri veriliyordu. Kullanıcıların bilgisayara doğrudan bağlanamadığı, disket gibi taşınabilir veri saklama araçlarının bulunmadığı bir dönemde mecburi olan bu çalışma usulü, 1970′lerde çok kullanıcılı işletim sistemlerinin ortaya çıkmasına kadar devam etti. Disketlerin, terminallerin ve kişisel bilgisayarların ortaya çıkmasıyla da delikli kartlar tarihe karıştı.

Kaynaklar:

Janet Delve, “Joseph Marie Jacquard: Inventor of the Jacquard Loom”, IEEE Annals of the History of Computing, Vol. 29, No. 4, October-December 2007.

Janet Delve, “Jacques Vaucanson: ‘Mechanic of Genius’”, IEEE Annals of the History of Computing, October-December 2007.

Lars Heide, “Shaping a Technology: American Punched Card Systems 1880-1914″, IEEE Annals of the History of Computing, Vol. 19, No.4, 1997.

Martin Campbell-Kelly, “Punched-Card Machinery”. “Computing Before Computers”, Ed. William Aspray, Iowa State University Press, 1990 içinde.

Paul E. Ceruzzi, “A History of Modern Computing”, 2. ed., MIT Press, 2003.

Jon Palfreman, Doron Swade, “The Dream Machine: Exploring the Computer Age”, BBC books, 1993.

Türkçe dokumacılık terimleri: http://www.tekstilmuhendisi.net/

 

OTURDUĞU YERDE KÜL OLANLAR: CEHENNEM ATEŞİ Mİ METABOLİK BOZUKLUK MU?

$
0
0

2006 yılında, Fransa’nın bir köyünde yalnız yaşayan 57 yaşında bir adam, evinde yanmış halde bulundu. Başı, göğsü, kolları ve ayakları neredeyse sapasağlamdı, ama vücudunun karnından bacaklarına kadar olan kısmı tamamen kül olmuştu. Yanmış bedenin birkaç santim yanındaki gazeteler, hasır iskemle, ve diğer nesneler isten kararmış, fakat yanmamışlardı. Evin kapısı içeriden kilitliydi ve anahtar içeriden kilide takılmıştı. Kapıyı kırmaktan başka içeri girme yolu yoktu. [1]

(Kaynak: X_TremeBass, Flickr)

2006 yılında, Fransa’nın bir köyünde yalnız yaşayan 57 yaşında bir adam, evinde yanmış halde bulundu. Başı, göğsü, kolları ve ayakları neredeyse sapasağlamdı, ama vücudunun karnından bacaklarına kadar olan kısmı tamamen kül olmuştu. Yanmış bedenin birkaç santim yanındaki gazeteler, hasır iskemle, ve diğer nesneler isten kararmış, fakat yanmamışlardı. Evin kapısı içeriden kilitliydi ve anahtar içeriden kilide takılmıştı. Kapıyı kırmaktan başka içeri girme yolu yoktu. [1]

Yine 2006′da, 55 yaşında bir adam Cenevre’deki evinde ölü bulunduğunda bedeninin dizlerinden göğsüne kadar olan kısmı, kemikleri dahil, bütünüyle küle dönmüştü. Fakat başı, bacaklarının alt kısmı ve ayakları çok az zarar görmüştü, çorapları ve ayakkabıları hâlâ üzerindeydi. Ceset halının üzerindeydi ve halının sadece cesede temas eden kısmı yanıktı, vücudun etrafındakı kısmında hasar yoktu. Ahşap mobilyalar, kanepe, masa, çok yakında olmalarına rağmen yanmamışlar ama yağlı, sarımtırak bir maddeyle kaplanmışlardı. [2]

Bu vakalar, ve nice benzerleri, adli tıp araştırmacılarının alışık olduğu yanmalardan ve olağan ev kazalarından çok farklı özelliklere sahip. Geçmiş yüzyıllardan bu yana defalarca benzer nitelikte vakalar anlatılageldi. Bu olguya, 19. yüzyıldan kalma (ve artık yanlış bulunan) bir terimle Ani İnsan Yanması (Spontaneous Human Combustion) adı veriliyor.

Bu tür yanmalara dair bilinen en eski yayın 1663′de, Paris’te yatağında yanarak ölen, ama yatağının çoğu ateşten etkilenmemiş olan bir kadına dair bir rapordur. Ondan seksen yıl sonra, 1745′te Philosophical Transactions of the Royal Society‘de başka bir vaka aktarıldı: 62 yaşındaki zarif ve asil Cesena Kontesi Cornelia Baudi, 1731 yılında bir sabah yatağıyla penceresi arasında bir kül yığını olarak bulunmuştu. Kül haricinde geriye sadece çoraplı bacakları kalmıştı, odadaki eşyalar yangından etkilenmemişti. Makalede “En iyi açıklama, içten gelen bir ateşle yanmış olduğudur” diye yazıyordu. [3]

19. yüzyılda İngiltere ve Fransa’da yeni vakalar rapor edildi. 1832 yılında yazılan bir derleme, 1692 ve 1829 arasında gerçekleşen on dokuz ani yanma vakası listeledi. Kurbanların çoğunun sık sık veya sürekli olarak alkol aldığı belirtildi. Tartışmalar başladı, ama vakaların nadirliği yüzünden veriler yetersizdi. Ani yanma diye bir şey olmadığını, ifadelerin güvenilmez olduğunu söyleyenlerin yanı sıra, kurbanların çoğunun alkolik ve Viktoryen ahlâkın sınırlarını zorlayan insanlar olmasına işaret ederek, tanrının gazabı olduğunu ima edenler de vardı.

1888′de British Medical Journal’da yayınlanan bir raporda, samanlıkta uyurken yanarak kül olan bir adamdan bahsedildi. Elleri ve sağ bacağı kopup aşağıdaki ahıra düşmüştü. Doktor, yakındaki saman yığınının ateş almadığına bakarak, ateşin dış sebeplerden değil, kurbanın içinden başladığına kanaat getirdi. “Kurban aşırılığa kaçan davranışları ile bilinirdi” diye yazarak, arif olan anlar demeye getirdi.

Dönemin ruhçuluğa ve “paranormal”e yatkın romantik havasında, “cehennem ateşi” imgesi ve nokta vuruşlu ilahi gazap algısı, ani yanma olayını mistik bir hâleye büründürmüş olsa gerek. Nitekim ani yanma, dönemin edebiyatında Dickens, Zola, Balzac, Twain, Verne gibi yazarların eserlerinde yer bulur. Belki biraz da bu mistik hava yüzünden bilimciler ani yanma olaylarına bir süre sırt çevirdiler.

Ancak, 20. yüzyılda benzer vakalar görülmeye devam etti. Adli araştırma yöntemlerinin gelişmesi sayesinde daha ayrıntılı belgelemeler yapmak mümkün oldu.

Mary Reeser’in 1951’deki ölümü en iyi incelenen vakalardan biri oldu. Florida’da yaşayan Reeser, 2 Temmuz 1951 akşamı oğlunu ve torununu ziyaretine geldiğinde uyku haplarını almış, uyumaya hazırlanıyordu. Ertesi sabah bir komşusu onu uyandırmaya geldiğinde kapı kolunun tutulamayacak kadar sıcak olduğunu gördü. İçeri girildiğinde odanın dumanla kaplı olduğu görüldü. Odanın ortasında, içinden tek bir bacak çıkan bir kül yığını vardı. Tavandaki kiriş hâlâ küçük alevlerle yanmaya devam ediyordu, ama diğer eşyalar isle kararmalarına rağmen yanmamışlardı. [4]

Aynı korkunç kader başka yer ve zamanlarda tekrarlandı. 8 Kasım 1964′de Helen Conway, Pennsylvania’daki evindeki koltukta, bacakları sapasağlam ama geri kalanı kül olmuş olarak bulundu. 5 Aralık 1966′da Dr. John Irving Bentley aynı kadere Coudersport, Pennsylvania’daki evinin banyosunda yakalandı, geriye sadece bir bacağının dizden aşağısı ve giydiği ayakkabısı kalmıştı.

Bu şanssız insanların akıbetleri fotoğraflarla kayda geçti. Bu fotoğraflar çok itici ve korkunç olduklarından bu yazıya hiçbirini eklemedim. İlgilenenler verilen isimlerle internet araması yaparak veya kaynaklara bakarak resimleri görebilirler.

Jenny Randles ve Peter Hough, tarihi vesikaları tarayarak 1613 ve 1990 arasında 111 tane ani yanma vakası tespit etti. Bunların çoğu İngiltere ve Fransa’dandı. 1988-2000 arasında Fransa’da beş ayrı vaka [5], 2000-2011 döneminde ise Avrupa ve ABD’de oniki vaka bildirildi [3]. Tarih boyunca bildirilen ani yanma vakalarının toplam sayısı 150-200 arasında.

Uzunca bir zaman “ani yanma” diye birşeyin olmadığı söylenirdi, ama artık adli tıp bu olguyu gerçek olarak kabul ediyor [1,3]. Elbette “paranormal” veya “ilahi” değil, sadece yeterince açıklanamamış nadir ve şaşırtıcı bir olay.

 

Ortak özellikler

Ani yanma terimiyle tanımlanan olaylar, başka yanmalardan farklı özellikler taşıdıkları için şaşırtıcı ve ürkütücü. Bu vakaların hepsinde vücudun orta kısmı, kemikler dahil olmak üzere, tamamen kül oluyor, fakat kafa, kollar veya bacaklar sağlam kalmış olabiliyor. Alelade yangınların kurbanlarında ise tam tersine, en büyük zarar kafa, eller ve ayaklarda görülüyor.

Başka bir şaşırtıcı ortak özellik, cesedin yanı başındaki eşyaların hiç yanmamış olması.

Yanan vücuttaki yağın sıvılaşarak yere akmış olduğu görülüyor.

Kurbanların hiç birinin yanında şiddetli bir ısı kaynağı veya ateşleyici madde bulunmuyor; en fazla sigara, çakmak, su ısıtıcısı gibi basit nesneler var. Bu eksiklik garip, çünkü et, çoğunlukla su barındırmasından dolayı kolay ateş alabilen bir madde değildir.

Kurbanların hepsinin olmasa da birçoğunun kanında yüksek oranda alkol tespit edildi. Bu yüzden 19. yüzyılda alkolün dokuları yanıcı hale getirmiş olabileceği ileri sürüldü. Ancak, alkol safken bile yandığında güçlü bir ateş yaratmaz. Alkol alevinin içinden elinizi rahatlıkla geçirebilirsiniz. Ünlü kimyacı Justus von Liebig, bu hipotezi test etmek için 1851′de yaptığı bir deneyde, %70′lik alkol çözeltisi içinde muhafaza edilen numunelerin Bunsen ocağı alevinde bile tutuşmadıklarını gösterdi. Ne kadar alkol alırsanız alın, etiniz yanıcı hale gelmez.

Kurbanların neredeyse hepsi orta yaşın üstünde, sağlıkları çok iyi değil, ve yalnız yaşıyorlar. Bir kısmı multipl skleroz veya kalp-damar hastalıklarından muzdarip, bir kısmı da sigara ve alkol bağımlısı.

Vakaların kundakçılık ve cinayet olduğuna dair hiçbir delil yok.

Kendini yakarak intihar muhtemel değil, çünkü kendini yakanların giysilerinde yakıt kalıntısı gözlenir, yakıt kabı da cesedin yakınında bulunur.

En büyük acayiplik kemiklerin bile kül olması. Şiddetli yangınlarda veya cenaze ateşlerinde, yumuşak doku tamamen kül olsa da, kemikler geriye kalır. Krematoryumlar, cenazeyi çok yüksek sıcaklıklarda bir iki saat yakarak tamamen külleştirebilirler, ki o zaman bile geriye birkaç küçük parça kalır.

Kemikleri külleştirecek kadar güçlü, ama birkaç santim uzaktaki eşyalara zarar vermeyecek kadar zayıf bir ateş nasıl ortaya çıkabilir?

 

Fitil teorisi

Vücut yağının ateşi devam ettirecek muhtemel bir yakıt olabileceği 1830′da ortaya atılmıştı, ama daha kapsamlı bir açıklama 1965′te geldi. Adli tıp uzmanı D. J. Gee, yanan bir insanın elbiselerinin vücuttaki yağın tutuşmasını kolaylaştırdığını, böylece uzun süreli, dokuları tamamen tüketen bir ateşin idame ettirilebileceğini ileri sürdü.

Bir kap dolusu zeytinyağının içine attığınız bir kibrit söner gider; yağı bütün halde tutuşturmak zordur. Oysa kabın içine bir fitil koyarak onu bir kandil haline getirirseniz, saatlerce yavaş yavaş yanan bir ateş yaratabilirsiniz. Gee’nin “fitil teorisi” insan yağının da aynı şekilde yandığını öne sürüyor.

Eğer vücudun bir noktasında deri altına inen bir yara veya yanık varsa, oradan çıkan yağ (ki vücut sıcaklığında sıvı haldedir) giysiye bulaşır. Yanarak kömürleşen pamuk veya yün dokuma, yağı azar azar çeken ince gözenekli bir malzemeye dönüşür. Bu ateş çok kuvvetli değildir, ama uzun saatler boyunca yavaş yavaş yanarak bütün vücudu tüketebilir.

Fitil teorisi ani yanma olaylarının birçok ortak özelliğini açıklayabiliyor. İnsan yağı epeyce su barındırdığı için, yandığında fazla ısı vermiyor. Bu yüzden şiddetli alev görülmüyor ve yakındaki eşyalar tutuşmuyor. Deri altında fazlaca yağ barındıran göğüs-karın-kalça bölgesi kül olurken, daha az yağ barındıran veya giysiye temas etmeyen kısımlar etkilenmiyor. Ateşin hükmü sınırlı kalıyor [6].

Bu teoriyi denemek için yapılan ilk deneylerde, bir parça insan yağı, önce bir parça insan derisine, sonra birkaç kat kumaşa sarıldı ve açık alevle tutuşturuldu. Yağ, açık alev olmadan bir saat için için yanarak tükendi.

Harici bir ateşleyici fitil teorisinde kilit rol oynuyor. Ama ev şartlarında böyle bir ateşin nasıl oluştuğu konusunda görüş birliği yok. Bazıları, kurbanların sigara alışkanlığından yola çıkarak düşen bir izmaritin tutuşmaya yol açtığını söylüyor, ama bir sigara yanığının deri yağını açığa çıkarabilecek kadar derin bir yara açıp açmayacağı meçhul. Başka vakalarda yakındaki bir odun sobası, hatta cesetten altı metre uzakta bulunan bir su ısıtıcısı, ateşleme kaynağı olarak gösterildi. Görünüşe göre, her türlü basit ısı kaynağını ateşleyici olarak görme hevesi var.

Adli araştırmacı John DeHaag, fitil teorisini daha gerçekçi şartlarda denemeye tabi tuttu. Domuzların doku ve yağ yapısı insanınkine benzediği için, ilk deneylerinde, temizlenmiş ve buzdolabında saklanmış bir domuz bedenini kullandı. Yeni bir çalışmasında ise insan kadavraları kullandı [7]. Her iki deneyde de, bedendeki yağ yanmanın çok uzun süre devam etmesini sağlıyor, yanan bedene temas etmeyen eşyalar zarar görmüyor. Tavanda, bedenin üstüne denk gelen yerde çok yüksek sıcaklıklar oluşabiliyor. Bu gözlem, tavanın nasıl ateş aldığını açıklayabiliyor.

Böylece, “ani yanma” olaylarının adli tıpta genel kabul gören açıklaması ortaya çıkıyor: Genellikle kurbanlar kalp krizi vb. “doğal” bir sebeple can veriyorlar, ya da uyku ilacı veya aşırı alkol alımından dolayı hissizleşiyorlar. Yakındaki bir ısı kaynağından (izmarit, soba vs) gelen bir tutuşturma sonucu deri deliniyor, yağ açığa çıkıyor. Kurbanların giydikleri veya örttükleri kumaşlar bu yağı emiyor, ve yağın yavaş yavaş yanmasına, bedenin kül olmasına yol açıyor. Vücudun giysili olmayan baş, el gibi kısımları bu yüzden zarar görmüyor. Yakıt vücudun içinden dışarı çıktığı için ve büyük alevler oluşmadığı için çevreye zarar gelmiyor.
Bu açıklamanın kabulünden sonra “ani yanma” terimi artık kabul edilmiyor, onun yerine “devam eden yanma” (sustained combustion) terimi teklif ediliyor. Zaten yanmanın “ani” olduğunu gören kimse yok; tarihteki hiç bir vakada bedenler alevler içinde gözlenmemiş.

Gel gör ki, kadavralı deneylerde ortaya çıkan manzara, olay yeri fotoğraflarındakilere hiç benzemiyor. Gerçek vakalarda eller ve bacaklar bir vitrin mankeninden kesilip konmuşçasına sağlam kalabiliyorken, DeHaag’ın deneyinde bütün vücudun kömürleştiği görülüyor [7]. Bu muhtemelen kadavranın bir yatağa yatırılmış olması ve yatağın dokumasının fitil etkisi yapmasından ileri geliyor. Ancak, daha önemli olan nokta, deneylerde kemiklerin sağlam kalmış olması. Oysa ki olay yeri raporlarına göre kemiklerin kül olması gerekiyor.

 

Aseton teorisi

Araştırmacı Brian J. Ford, etin tutuşturulmasının çok zor olduğuna, ve fitil etkisiyle bile kemiklerin sağlam kaldığına dikkat çekti ve alternatif bir teori teklif etti [4]. Ford, çok daha hızlı ve kuvvetli bir yanma gerektiğini savunarak, metabolizmadaki bir dengesizliğin böyle bir yanıcılık sağlayabileceğini ileri sürdü.

Karbonhidrat içeren gıdalar aldığımızda kanımızdaki glikoz (şeker) artar. İnsulin hormonu, bu glikoz moleküllerinin başlıca karaciğerde bir zincir haline yani glikojene dönüştürülmesini sağlar. Karaciğerde depolanan glikojen gerektikçe parçalanır ve glikoz olarak kana salınır.

Glikojen depoları tükendiğinde, vücut enerjiyi yağlardan elde etmeye yönelir. Yağlar metabolize edilirken hücrelerin enerji üretmekte kullandığı çeşitli moleküller ortaya çıkar. Uzun süren bir açlığın sonunda karaciğerde bu moleküllerin bazıları, “keton cisimleri” adı verilen moleküllere dönüştürülür ve hücreler enerji üretiminde bu molekülleri kullanırlar. Metabolizmanın bu acil durum planına “ketoz” adı verilir. Keton cisimleri vücutta beş saat içinde kullanılmazlarsa kendiliklerinden parçalanarak asetona dönüşür. Bu aseton idrarla ve nefesle vücut dışına atılır. [16]

Ketoz, uzun süren açlık (sözgelişi oruç) ile ortaya çıkabilir. Nefesle atılan aseton açlıktan nefesimizin kokmasına sebep olur. Ayrıca uzun süren egzersiz, Atkins gibi karbonhidratsız diyetler, aşırı alkol alımı, ve tip-1 diyabet ketoza yol açabilir. Ketosis durumunun sağlığa zarar verdiği düşünülmüyor, ancak aşırı olması kandaki asit-baz dengesini bozacağı için zararlı olabilir.

Ford’a göre, ketoz durumunda vücudun her yerinde çok miktarda aseton bulunacağı için, etin alev alması mümkün olabilecekti. Ani yanma olaylarının ortak özelliği olan bütünüyle külleşme bu şekilde sağlanabilirdi. Dahası, Ford ani yanma raporlarında güçlü mavi alevlerden bahsedildiğini, fitil teorisinin bunu vermediğini söyledi.

Ford, bu teorisini denemek için, bir domuzun karnından, bir insanın 1/12 ölçeğinde biçimlendirilmiş bir parça aldı ve beş gün aseton içinde bekletti. Asetonu iyice emmiş olan et parçası, bir alevin yaklaştırılmasıyla hemen ateş aldı. Yaklaşık bir saat içinde numune kül oldu, fakat iskemleye oturur şekilde yerleştirilen modelin ayakları sağlam kalmıştı.

Sonuç Ford’u çok etkiledi. Eldeki ceset modelinin bacakları sağlam kalmış, üst kısmı kül olmuş görünüyordu. Beklediği gibi, çok hızlı bir yanma gerçekleşmiş ve mavi alevler çıkmıştı.

Bununla beraber, aseton teorisinin açıkları ve eksikleri, alternatifi olmayı iddia ettiği fitil teorisine göre çok daha fazla.

Ford aseton yanışındaki yüksek hızın ve mavi alev fışkırmasının ani yanma raporlarına uygun olduğunu, fitil etkisinde böyle alev görülmediğini, dolayısıyla kendi teorisinin daha doğru olması gerektiğini iddia ediyor. Oysa bilimsel makalelerde ve tarihi kaynaklardaki vakalarda böyle bir gözlem yok. Ford’un verdiği mavi alevli yanma örneklerinden birinin ani yanma olduğu şüpheli, diğeri için ise literatüre değil, bir TV haber programına atıf yapıyor.

Ford’un deneyinde modelin bacakları, alevler yukarı doğru uzandığı için sağlam kalıyor. Eğer yatar durumda olsaydı tamamının kül olması beklenirdi. Aseton teorisi kol, bacak ve kafanın neden sağlam kaldığını açıklamakta yetersiz kalıyor.

Ford yanlış olarak, 1/12 ölçekli model ile gerçek bir kadavranın aşağı yukarı aynı sürede yanacaklarını iddia ediyor. Bu, bir ağaç kütüğü ile ince bir çıtanın aynı sürede yanacağını söylemek gibi birşey. Tam ölçeğe taşındığında hem yanma süresi, hem de yanmanın biçimi çok değişecektir.

Daha da önemlisi, yaşayan insan dokusunda bulunabilecek azami aseton miktarının bu tür bir yanma için yeterli olup olmayacağını bilmiyoruz. Ford beş gün “marine ettiği” on beş santimlik et parçasının içinde ne miktarda aseton bulunduğunu ölçmemiş, ama canlı dokuda bulunabilecek miktardan çok fazla olduğunu tahmin edebiliriz.

Yani, aseton teorisi fos çıktı.

 

Kötü bilim

Biraz konu dışına çıkıp, “bilimsel” görünen her şeye inanmamak hakkında ahkâm keselim.

Aseton teorisini Ford 2011’de ortaya attı, deneyini ise 2012’de yayınladı. Teori, muhtemelen zayıf noktaları yüzünden, bilimsel çevrelerde pek bir tesir yaratmış gibi görünmüyor.

Ford’un yazdığı makalenin, bilimsel dergilerdeki başka makalelerin aksine, hakem incelemesinden geçmediği çok açık. Bağımsız gözlerle değerlendirilseydi, kolayca bulunabilecek hatalarla yayınlanamazdı. Ford’un The Microscope isimli, pek tanınmayan bir dergide, serbestçe yazabildiği düzenli bir “köşesi” bulunduğu anlaşılıyor, bu hipotez de bu köşede yayınlanmış [4].

Ford’un hipotezi, popüler bilim dergisi New Scientist‘te yayınlanmasından sonra internete ve çeşitli haber sitelerine yayıldı [8, 9]. Konuya meraklı olup da bir internet araması yaptığınızda öncelikle bu haberlere ulaşırsınız. Teorik bir mekanizma belirlemiş, deneyini de yapmış, demek ki şüpheye yer bırakmadan ispatlamış diye düşünebilirsiniz. Oysa bu iddiaya, önceki çalışmaların da ışığında, eleştirel bir gözle baktığınızda açıklarını görmeniz kolaylaşıyor.

İnternette sık sık “Cambridge profesörü” olarak anılsa da, Ford aslında profesör filan değil (İngilizcede “professor”, “öğretmen” anlamına da gelebiliyor). Herhangi bir konuda uzmanlık diploması yok, hatta üniversite diploması da yok. Cambridge ile tek bağlantısı Sürekli Eğitim Enstitüsü’nde mikroskop meraklılarına üç günlük bir ders vermiş olması [10].

Ford iki yıl Cardiff Üniversitesi’nde biyoloji okumuş, sonra da kendi ifadesiyle “bilimin gidişatı onu tatmin etmediği için [...] üniversiteyi bırakıp bilimsel araştırmaya yeni bir disiplinlerarası yaklaşım getirmek için kendi laboratuarını” kurmuş [11]. Bunda kötü birşey yok, ama bağımsız çalışan bir bilimci de genel bilimsel kriterlere uymak zorundadır.

Ford’un yazdığı çeşitli kitaplar, bilimsel konulara dair hazırladığı radyo ve TV programları var, ama kendisini bir bilim yazarından çok araştırmacı gibi göstermeyi tercih ediyor. Birçok değişik alanda spekülasyon yapmaya bayılıyor, ancak hepsine yabancı olduğu için temel hatalar yapıyor. Sözgelişi, büyük dinozorların karada değil suda yaşamış olması gerektiğini iddia ediyor. Bu iddia paleontologlar arasında yüz küsur sene önce yaygındı, ama artık çürütüldü. Alandaki temel bilgilere sahip olmadan özgüvenli iddialarda bulunması yüzünden epeyce tepki çekti. Ford ayrıca hücrelerin bireysel zekâya sahip oldukları, Darwinizm’in bir din haline geldiği gibi spekülasyonlar yapıyor. Aseton teorisinin de diğerleri gibi kafasına esiveren bir fikir olduğu anlaşılıyor.

Skepticblog’dan Donald Prothero, Ford’u “abartılmış amatör bilim meraklısı ve medya meşhuru” olarak tanımlıyor. “İngiliz bilim camiasında, hiç bir alanda ileri seviye eğitimi veya niteliği olmayan bir çatlak olarak biliniyor. Anlaşılan bütün olayı, pek bilgi sahibi olmadığı farklı bilim alanlarına bulaşıp parlak birşeyler ortaya atarak medyaya konu olmak, ve sonra başka bir şeye geçmek.” [12]

Yani, bilimsel terimler kullanan, bilimsel görünen her şey bilimsel değildir. Bilim disiplininin gerektirdiği özenle yapılıp yapılmadığına bakmak gereklidir. Bu elbette kolay bir şey değil. Ani yanma olayını merak edip okumaya başladığımda aseton teorisine rastlayıp ondan çok etkilenmiştim, ama biraz daha düşünmeye vaktim olması sayesinde açıklarını görebildim. Herkesin bu kadar vakti olmayabilir, veya daha derin inceleme hevesi olmayabilir. O yüzden Yalansavar gibi siteleri takip etmeniz, ve Palavra Tespit Kiti’ni aklınızın bir köşesinde bulundurmanız çok faydalı olur. [13]

 

Kaynaklar

[1] Thierry W. Levi-Faict, Gerald Quatrehomme. So-called Spontaneous Human Combustion, J. Forensic Sci, September 2011, Vol. 56, No. 5.

[2] Cristian Palmiere, Christian Staub, Romano La Harpe, Patrice Mangin. Ignition of a human body by a modest external source: A case report. Forensic Science International, 188 (2009), e17-e19.

[3] Virve Koljonen, Nicolas Kluger. Spontaneous Human Combustion in the Light of the 21st Century, J. Burn Care & Research, Vol. 33, No. 3, May/June 2012, e102-e108.

[4] Brian J. Ford. Solving the Mystery of Spontaneous Human Combustion. The Microscope, Vol. 60:2, 63-72 (2012)

[5] S. Gromb, X. Lavigne, G. Kerautrut, N. Grosleron-Gros, P. Dabadie. Spontaneous Human Combustion: A sometimes incomprehensible phenomenon. J. Clinical Forensic Medicine (2000), 7, 29-31.

[6] John D. DeHaan. Commentary on: So-called Spontaneous Human Combustion, J. Forensic Sci, September 2012, Vol. 57, No. 5.

[7] John D. DeHaan. Sustained Combustion of Bodies: Some Observations, J. Forensic Sci, November 2012, Vol. 57, No. 6.

[8] SmartPlanet: Spontaneous combustion might be real, and pigs might help us figure out why it happens. http://www.smartplanet.com/blog/science-scope/spontaneous-combustion-might-be-real-and-pigs-might-help-us-figure-out-why-it-happens/13542

[9] Cambridge News: Professor’s breakthrough on human combustion theory http://www.cambridge-news.co.uk/News/Professor-gets-crackling-on-human-combustion-theory-21082012.htm

[10] Institute of Continuing Education, Cambridge University http://www.ice.cam.ac.uk/components/tutors/?view=tutor&id=1955&cid=4036

[11] Brian J. Ford, özgeçmiş http://www.brianjford.com/wcvgen.htm

[12] Skepticblog: Bad Science Journalism 101
http://www.skepticblog.org/2012/04/04/bad-science-journalism-101/

[13] Yalansavar: Palavra Tespit Kiti http://yalansavar.org/2012/08/22/palavra-tespit-kiti/

[14] How Stuff Works: How Spontaneous Human Combustion Works http://science.howstuffworks.com/science-vs-myth/unexplained-phenomena/shc.htm

[15] io9: 10 Cases of Spontaneous Human Combustion http://io9.com/5855700/10-cases-of-spontaneous-human-combustion

[16] Wikipedia: Ketosis http://en.wikipedia.org/wiki/Ketosis

MONTY HALL PROBLEMİ

$
0
0

Matematik zordur dersem, herhalde çok şaşırtıcı bir şey söylemiş olmam. Soyutlanıp saf özüne indirilmiş düşünceyi evirip çevirmeyi öğrenmek çok çetin bir iştir. Tabii ki imkânsız değil. Ne de olsa dünyada onbinlerce profesyonel matematikçi var, ve başka insanlardan hiç farkları yok. Çalışınca her şey öğrenilir. Öte yandan matematikte öyle şeyler çıkabiliyor ki karşınıza, “uzmanım” diyenleri bile ters köşeye yatırabiliyor. Monty Hall problemi de masum görünen, ama adamı iki seksen yere yatırabilen bir olasılık problemi.

Problemin kaynağı bir yarışma programı. ABD televizyonlarında 1963’den 1977’ye kadar yayında kalan Let’s Make A Deal (Bir Anlaşma Yapalım) isimli programda sunucu Monty Hall konuklarla çeşitli oyunlar oynuyordu. Bu oyunların ortak özelliği, yarışmacıların küçük bir ödülü alıp gitmek veya riske girerek büyük bir ödül kazanmak (veya hiç bir şey almamak) arasında karar vermelerinin gerekmesiydi.

Monty Hall’un sunduğu oyunlardan birisi, 1975’de The American Statistician isimli akademik dergide Kaliforniya Üniversitesi, Berkeley’de çalışan matematikçi Steve Selvin tarafından bir olasılık problemi halinde sunuldu. Makalede Monty Hall Problemi olarak anılan bilmece şöyle:

Önünüzde üç tane kapalı kapı var. Bunlardan birinin arkasında son model bir otomobil, diğer ikisinin arkasında ise birer keçi var. Kapılardan birini seçiyorsunuz, ama henüz açılmıyor. Monty Hall hangi kapının arkasında araba olduğunu biliyor. Seçmediğiniz iki kapıdan birini açıyor ve o kapının arkasındaki keçiyi görüyorsunuz.

Monty Hall isterseniz tercihinizi değiştirip, açılmamış diğer kapıyı seçebileceğinizi söylüyor. Arabayı kazanma ihtimalinizi artırmak için ne yapmalısınız? Başka bir deyişle, tercihinizi değiştirmekle araba kazanma ihtimaliniz artar mı, azalır mı, yoksa hiç mi değişmez?

montyhallcartoon
Bu problemi duyan çoğu kişinin, uzmanlar dahil, ilk tepkisi “Değişmez” demek. Başta doğru kapıyı seçme ihtimali ⅓ idi. Şimdi iki kapalı kapı var, ve oyuncunun seçtiği kapının arkasında araba bulunması ihtimali ½. Yani tercihi değiştirmek kazanma ihtimalini artırmayacaktır. Fakat işler o kadar basit değil; Monty’nin arabanın hangi kapı arkasında olduğunu bilmesi ve özellikle keçili kapıyı açıyor olması problemi değiştiriyor. Oyuncu için doğru strateji kapıyı değiştirmek. Nasılını sonraya bırakalım, böylece biraz düşünmeye zamanınız olsun.

Olasılık tuzakları

Monty Hall probleminin, ve genel olarak şans ve risk içeren bütün karar problemlerinin, kesin kazanç getiren stratejileri yok. Yapabileceğimiz tek şey kazanma ihtimalimizi mümkün olduğunca yükseltmeye çalışmak. Bu her zaman kolay değil, çünkü insan zihni için olasılıklarla düşünmek çok zor. Birçok kez, varsayımlarımız ve ön kabullerimiz bizi yanıltıyor.

Psikologlar olasılık problemlerinin algılanışı ve cevaplanmasıyla yakından ilgileniyorlar, çünkü bu konudaki düşünce tarzımız zihnimizin nasıl çalıştığına ve ne tür hatalara yatkın olduğuna ışık tutuyor.

En basitinden, şöyle bir soru düşünelim:

İki çocuğumdan biri erkek. Diğerinin de erkek olması ihtimali nedir?

Çoğu kişi gibi bu soruya %50 cevabını vermiş olabilirsiniz. Ne de olsa bir çocuğun cinsiyeti, ailenin diğer çocuğunun cinsiyetine bağlı değildir. Sorudaki ilk bilgi aslında gereksizdir, tuzağa düşmemiş olmanın haklı gururu ile gülümsersiniz.

Maalesef yanlış. Doğru cevap %33. Bunu görmek için durumları tek tek saymak gerekir. Erkek çocuğu E, kız çocuğu K ile gösterelim. İki çocuklu bir ailenin çocuklarının ikisi de erkek (EE), büyüğü erkek küçüğü kız (EK), büyüğü kız küçüğü erkek (KE), veya ikisi de kız (KK) olabilir. Soruda çocuklardan birinin erkek olduğu söylenmiş, yani mümkün olan durumlar sadece EE, EK, KE (“olay uzayı” diye de bilinir). Bunlardan da sadece birinde diğer çocuk erkek olduğuna göre, ihtimal ⅓, yani %33 olur.

Yani sorudaki bilgi şaşırtmaca değil, gerekli. İşin püf noktası, soruda erkek çocuğun büyük mü küçük mü olduğunun söylenmemiş olması. Eğer soru “İki çocuğum var, büyüğü erkek.” diye başlasaydı %50 cevabı doğru olurdu.

Şimdi, psikoloji araştırmalarında sıkça rastlanan bir probleme göz atalım.

Bir şapkada üç kart var. Birinin iki tarafı kırmızı (KK), birinin iki tarafı beyaz (BB), sonuncusunun ise bir tarafı kırmızı bir tarafı beyaz (KB). Gözlerimizi kapatarak şapkadan bir kart seçiyoruz ve masaya koyuyoruz. Gözlerimizi açtığımızda kartın yukarı bakan yüzünün kırmızı olduğunu görüyoruz. Kartın altta kalan yüzünün de kırmızı olması ihtimali nedir?

Bu soruya ezici çoğunluğun (yaklaşık yüzde yetmiş) cevabı %50’dir. BB kartının çekilmediği belli, o zaman masadaki kart ya KK ya da KB’dir. Rastgele çektiğimiz için ikisinin de ihtimali aynı olmalı.

Ancak doğru cevap %66. Önümüzde gördüğümüz yüz KK’nin iki kırmızı yüzünden biri olabilir, veya KB’nin tek kırmızı yüzüdür. Yani, diğer yüzün kırmızı olduğu iki durum varken, beyaz olduğu bir durum var. Bu yüzden aranan ihtimal ⅔ olur.

Her iki soruda da düşülen bilişsel hata aynı: Sezgilerimizle düşünüyor, ortaya çıkan gözlemin gerçekleşme ihtimalini hesaplamaya çalışıyoruz. Oysa, sorularda bize verilen bilginin mümkün durumların sayısını azalttığını hesaba katmak gerekiyor.

Kapıyı değiştirmek

Monty Hall probleminde oyuncu için kapıyı değiştirmenin neden daha avantajlı olduğunu anlamak için oyunda üç değil, bin tane kapı olduğunu hayal edelim. Oyuncu yine kapılardan birini seçer. Binde bir ihtimalle araba seçtiği kapının arkasındadır, 999/1000 ihtimalle seçmediği bir kapının arkasında.

monty1

Monty oyuncunun seçtiği kapı haricindeki kapılardan 998 tanesini açar, hepsinin arkasında bir keçi olduğunu gösterir. Geriye iki kapalı kapı kalır: Oyuncunun seçtiği, ve Monty’nin kapalı bıraktığı.

monty2

Arabanın 999/1000 ihtimalle, seçilmeyen bir kapı arkasında olduğunu biliyoruz, ve açılmadık tek kapı kaldı. Yani oyuncu tercihini değiştirirse arabayı kazanma ihtimali birdenbire 999/1000’e yükselir.

Bin yerine üç kapı varsa, aynı akıl yürütmeyle oyuncunun arabayı kazanma şansı başta ⅓ iken, tercihini değiştirirse ⅔’e yükseleceğini görebiliriz. Kapıyı değiştirmek her zaman daha avantajlı.

İkna olmadıysanız, etkileşimli bir simülasyonu tekrar tekrar oynayarak her iki stratejinin ne sıklıkta kazandırdığını görebilirsiniz. “Let’s play”e tıklayıp oyunu başlatın. Üç kapalı kapıdan birine tıklayın. Bundan sonra “Continue”ya bastığınızda Monty arkasında keçi bulunan başka bir kapıyı açacak. Bu aşamada kapı tercihinizi değiştirmek (“Switch”) veya değiştirmemek (“Don’t switch”) kararı vereceksiniz. Kararınızdan sonra seçtiğiniz kapı açılacak. “Try Again” ile oyunu istediğiniz kadar tekrarlayabilirsiniz. Sağ taraftaki çizelgenin en altındaki “% Won” satırında, yaptığınız oyunlar arasında, karar değiştirerek ve değiştirmeyerek ne oranda başarı kazandığınızı görebilirsiniz. Oyun sayınız arttıkça (“Attempts”) bu oranlar yavaş yavaş %66.7 ve %33.3′e yaklaşacak. Tarayıcınız çerezleri kabul ediyorsa siteye daha sonra tekrar gittiğinizde kaldığınız yerden devam edebilirsiniz.

Kapı değiştirmenin kazanma garantisi demek olmadığına dikkat edin. “Kapıyı değiştirdim ama yine keçi çıktı!” diye şikâyet etmeyin, olabilir, şans bu. Şansa ve riske dayalı işlerde hiç bir strateji kazanma ihtimalini yüzde yüze çıkarmaz. Kazanma ihtimalinin ⅔ olması, mesela üç milyon kere bu oyunu oynasanız, tercihinizi değiştirdiğinizde yaklaşık iki milyon seferinde arabayı kazanabileceğiniz anlamına gelir.

Ters köşeye yatan uzmanlar

VosSavant2Steve Selvin Monty Hall probleminin şaşırtıcı çözümünü 1975’de yayınlamıştı, ama bu çözüm onbeş sene akademik kütüphane raflarında unutuldu. 1990’a gelindiğinde ana akım medyada ortaya çıktı. Ardından kopan fırtınayla Monty Hall problemi matematiğin unutulmuş köşelerinden çıkıp popüler kültürün bir parçası haline geldi.

Marilyn Vos Savant “dünyanın en zeki kadını” olarak bilinir. 190 IQ puanıyla “kadınlarda en yüksek IQ” kategorisinde Guinness Rekorlar Kitabı’na girmişti. (Kadın ve erkek IQ’larının ayrı sınıflandırılması eski önyargıların kalıntısı olsa gerek. Zaten Rekorlar Kitabı IQ kategorisini 1990’da kaldırdı).

Vos Savant 1986’da magazin dergisi Parade’de “Marilyn’e Sorun” isimli bir köşe yazmaya başladı. Okurlar merak ettikleri soruları gönderiyorlar, o da cevap yazıyordu. Soruların çoğu basit gündelik konularla ilgiliydi, ama arada bir akademik sayılabilecek sorular da geliyordu. 9 Eylül 1990 günü yayınlanan soru Monty Hall problemini tarif ediyordu. Vos Savant takdire şayan bir öngörü ile şu cevabı verdi.

Evet, tercihi değiştirmelisiniz. Birinci kapının kazanma şansı ⅓, ama ikinci kapının şansı ⅔. Olan biteni şöyle gözünüzde canlandırabilirsiniz: Varsayalım ki bir milyon kapı var ve siz 1 numaralı kapıyı seçtiniz. Kapıların arkasında ne olduğunu bilen ve ödüllü kapıya dokunmayan sunucu bütün kapıları açıyor, bir tek 777 777 numaralı kapıya dokunmuyor. Hemencecik o kapıya dönerdiniz, değil mi?

Sen misin böyle diyen! Parade dergisine binlerce eleştiri mektubu yağdı. Birçok matematikçi bu kadar “basit” bir meseleyi bile doğru bilemeyen magazin dergisi yazarını hizaya getirmek için seferber oldu. Matematikçilerin yazdığı mektuplardan biri şöyle:

Karıştırmışsınız! Açıklayayım. Bir kapının yanlış olduğu gösterildiğinde, bu bilgi geri kalan tercihlerin ihtimalini ½ değerine getirir, kapıların birinin diğerinden daha muhtemel olması için bir sebep yoktur. Profesyonel bir matematikçi olarak halkın matematik bilgisinin eksikliğinden çok rahatsızım. Lütfen hatanızı itiraf edin ve ileride daha dikkatli olun.

Başka biri:

Karıştırdınız, çok fena karıştırdınız! Buradaki temel ilkeyi kavramakta zorluk çeker gibisiniz, açıklayayım. Sunucu bir keçi gösterdikten sonra doğru seçim yapmış olma şansınız bire ikidir. Tercihinizi değiştirseniz de değiştirmeseniz de bu şans aynıdır. Bu ülkede yeterince matematik cahilliği var, ve dünyanın en yüksek IQ’sunun bunu yaygnlaştırmasına ihtiyacımız yok. Utanın!

Bu ve benzeri mektuplara cevaben Vos Savant biraz daha teknik bir çözüm yayınladı, ama bu da tartışmayı bitiremedi. Görünüşe göre koca koca matematikçiler bir magazin dergisi yazarının haklı olabileceğini kabul etmeye hazır değildiler.

1991 Şubat’ında Vos Savant aynı konuya tekrar değindi ve yine mektuplar yağdı.

Bir daha bu tipte bir soruya cevap vermeye yeltenmeden önce ihtimal hesabına dair bir ders kitabı edinmenizi tavsiye edebilir miyim?

Bir başkası:

Yarışma sorusu açıklamanız tamamen hatalı, umarım bu tartışma matematik eğitimindeki ciddi milli krizimize kamuoyunun dikkatini çekmeye yarar. Hatanızı kabul ederseniz rezil bir durumun çözümüne yapıcı bir katkınız olur. Fikrinizi değiştirmeniz için kaç kızgın matematikçi gerekli?

Bir diğeri:

Bir hata yaptınız, ama olaya olumlu açıdan bakın. Bütün bu doktoralılar hatalı olsalardı ülke çok ciddi bir derde batmış olurdu.

Sahi mi?

Öte yandan, bu problemin özellikle kafa karıştırıcı olduğunu da kabul etmek lâzım. Yirminci yüzyılın en büyük matematikçilerinden biri, ihtimal hesabı teorisini çok iyi bilen Paul Erdös bile, tercihi değiştirmenin kazanma ihtimalini artıracağını inatla reddetmiş, doğru çözümün ispatı gösterildiğinde bile fikrini değiştirmemişti. Ancak daha sonra bilgisayar simülasyonlarını görünce ikna oldu (muhtemelen o zamana kadar zihnini bu aykırı çözüme alıştırmıştı, yoksa simülasyonları da reddederdi).

Vos Savant cevabında sebat etti. Zamanla gelen tepkiler değişmeye başladı. Öğretmenler sınıflarında simülasyonlar yaptılar. Öğrencilerini iki gruba ayırdılar, grupların biri her zaman tercihini değiştirirken diğer grup hiç değiştirmedi.

Sekizinci sınıf öğrencilerimle teklif ettiğiniz deneyi yaptık. Teoriniz için bir denklem nasıl kurulabilir anlamıyorum, ama kesinlikle işe yarıyor. Olasılık kitaplarının tekrar yazılmasına katkıda bulunmanız gerekecek.

Los Alamos Laboratuarı’ndaki araştırmacılar aynı simülasyonu bilgisayarla yaptılar.

Los Alamos laboratuarında epeyce tartışma ve kararsızlık yaşadıktan sonra iki meslektaşı birbirlerinden ayrı olarak problemin programını yazdılar. Bir milyon deneme içinde, karar değiştirmek %66,7 oranında başarılı oldu.

Şamata dindiğinde Vos Savant’ın ününe yakışır bir öngörüye sahip olduğu teslim edilmişti. Monty Hall problemi akademik makalelerde etraflıca incelendi. Matematikçiler ve istatistikçiler, problemin çeşili varyasyonlarını analiz ettiler. Psikologlar ve bilişçiler insanların neden bu ve benzeri olasılık sorularında bu kadar zorluk çektiklerini sorguladılar. İktisatçılar bu problemdeki yanılgının iktisadi davranışa ve karar verme işlemlerine nasıl yansıdığını araştırdılar. Parade olayı ise, uzmanların da ara sıra yanılabileceğinin ispatı olarak matematik tarihine geçti.

Kaynaklar

  • Jason Rosenhouse. The Monty Hall Problem. Oxford, 2009.
  • Maya Bar-Hillel, Ruma Falk. Some teasers concerning conditional probabilities. Cognition, 11 (1982), 109-122.
  • Wikipedia. The Monty Hall Problem.

YENİ YIL KİTAPLARI

$
0
0

Yeni yıl kararlarınız arasında daha çok kitap okumak varsa, işte size kitapçı raflarından bir seçme. Bol okumalı bir yıl dileğiyle.

kitaplar0

Gerçeğin Büyüsü – Richard Dawkins

(Kuzey Yayınları. Çeviren İstem Fer. Editör: B. Duygu Özpolat.)

gerceginbuyusu

Richard Dawkins’in yazdığı ve Dave McKean’in resimlediği Gerçeğin Büyüsü geçtiğimiz Ekim ayında Türkçe yayınlandı. Bu kitabı geçen Şubat ayında etraflıca tanıttığımız için, burada fazla ayrıntıya girmeyeceğim.

Ama, kitabın çevirisinde ve üretimindeki özeni alkışlamadan geçemeyeceğim. Fiyatına (30TL) göre çok kaliteli bir baskı ile hazırlanmış. Okuduktan sonra salonunuza süs diye koyabilirsiniz.

Çeviri bilim kitaplarının önemli bir kısmının Türkçesi çok bozuk, hatta yanlış olur, insanı okuduğuna pişman eder. Gerçeğin Büyüsü ise tam tersine, çok güzel ve akıcı şekilde Türkçeleştirilmiş. Türkçeleştirme sadece cümleleri aktarmaktan ibaret değil. Sözgelişi, Dawkins, dillerin de türler gibi evrilip farklılaştığını anlatırken ortaçağ metinlerinden örnek vermiş, çeviride bu örnek Yunus Emre’den alınan bir şiirle karşılanmış. Lehçelerden bahsedilen paragrafta İstanbul, Karadeniz, Ege ağızlarından bahsediliyor. Başka dillerden geçen kelimelerden bahsedilirken Türkçeye geçen kelimeler örnek veriliyor. Bu tercihler sayesinde kitap tercüme edilmekle kalmamış, gerçekten “Türkçe”leşmiş.

Fizik Aşkına – Walter Lewin

(Metis Yayınları. Çeviren Nedim Çatlı)

fizikaskina

Walter Lewin, MIT’deki dersleriyle ünlü bir fizikçi. Fiziğe giriş derslerinde, matematiksel formülleri gündelik hayatta gördüklerimize bağlayarak anlatıyor ve derste yaptığı deneylerle fiziksel kavramların dinleyicilerin kafasına kazınmasını sağlıyor.

Popüler fizik kitaplarının çoğu sicim teorileri, parçacık fiziği, kozmoloji gibi genel okuyucu için egzotik sayılabilecek konuları işlerken, Lewin çoğu kişinin liseden ve üniversiteden aşina olduğu mekanik, optik, elektrik, manyetizma gibi konulardan bahsediyor. Bunları anlatmaya çok temelden başlıyor ve kavramları günlük hayat tecrübelerimize bağlıyor.

Sözgelişi, basınç kavramını anlatan bölümde, dalgıçların neden çok uzun bir şnorkel kullanamayacağını öğreniyorsunuz. Optik konusunda gökkuşağı, titreşimler konusunda da müzik aletleri örnek olmuş. Elektrik ve manyetizma konuları kutup ışıklarına, motorlara ve manyetik trenlere bağlanmış. Enerji korunumu kanunu ve enerji kavramı, metabolizma, diyet, enerji santralleri ve füzyon reaktörleri ile genişletiliyor.

Alex Sayılar Diyarında – Alex Bellos

(Pegasus Yayınları. Çeviren Köksal Gülerkaya)

Alex Bellos, Oxford’da matematik ve felsefe okumuş bir gazeteci. İngilizcede 2010′da yayınladığı bu kitap birçok olumlu eleştiri aldı. Türkçede geçtiğimiz Eylül ayında yayınlandı.

alexsayilar

Alex Sayılar Diyarında matematiğe genel bir bakış. Matematiksel konular, matematik tarihi, kültürü ve etnolojisi ile beraber sunuluyor. Rahatlıkla okunuyor, ilginç ve eğlenceli. Her okuryazarın sahip olması gereken matematik genel kültürünü edinmek için çok uygun bir kitap.

İlk bölümde sayı kavramı, rakamlar, ve çeşitli insan gruplarının icat ettiği sayma yöntemleri konu ediliyor. Sonraki bölüm geometri üzerine; Öklid, düzlem geometrisi, mozaikler, ve origami konu ediliyor. Daha sonra aritmetiğin tarihi, toplama ve çarpma için kullanılan parmak hesabı, ve Hint-Arap rakamlarının hesap yapmayı nasıl kolaylaştırdığını okuyabilirsiniz.

Matematiğin en büyülü kısımlarından biri olan pi sayısına bir bölüm ayrılmış. Bu bölümde pi’yi hesaplamak için kullanılan formüller, pi’nin basamaklarını ezberleme yarışları, süperbilgisayarların sınırlarını zorlamak için pi’nin nasıl kullanıldığı konu ediliyor. Ardından cebrin gelişimi, sembolik hesabın icadı, x değişkeni, logaritma, ve analitik geometriyi konu eden bir bölüm geliyor.

Sonraki bölümlerde matematiksel oyunlar, sudoku, tangram, sabır küpü, sayı dizileri, asal sayılar konu ediliyor. Altın oran ve Fibonacci dizisi de tabii ihmal edilmemiş. Olasılık, şans oyunları, kumar stratejileri, istatistik, çan eğrisi gibi konuların da eklenmesiyle, dört başı mamur bir popüler matematik kitabı ortaya çıkmış.

Matematik ve Sanat – Ali Nesin

(Nesin Yayıncılık)

matematikvesanatTürkiye’de matematik eğitimi ve popüler matematik denince ilk akla gelen isim elbette Ali Nesin. Olağanüstü üretkenliği ile yazdığı kitaplardan en yenisi Matematik ve Sanat bir dizi düşündürücü matematik yazısının derlemesi. Yazılar genel olarak popüler matematik kategorisine giriyor, ama benzerlerinden, sözgelişi Alex Sayılar Diyarında‘dan daha fazla çaba gerektiriyor.

Ali Nesin’in en büyük ustalığı, ileri matematik bilgisi gerektirmeyen problemler sunarak okurlarını bir matematikçi gibi düşünmeye sevketmek. Nesin çözüm bulmayı değil, ispatlamayı ön planda tutuyor. Sunduğu problemlerin küçük halini açıkladıktan sonra, daha genel çözümlerin nasıl bulunabileceğini de anlatıyor.

Matematiğin hesap yapmaktan öte bir şey olduğunu bilen, matematiksel problemlerle oynamasını seven, kağıt kalemle uzun süre düşünmeye zaman ayırabilen okurlar için Nesin’in bütün kitapları mükemmel bir zihin gıdası sağlıyor.

Logicomix

Apostolos Doxiadis, Christos H. Papadimitriou, Alekos Papadatos, Annie Di Donna.

Albatros Kitap. Çeviren Özge Özgür.

Felsefe ve matematiğin kesiştiği yerde bulunan mantık bilimi, 19. yüzyıl sonu ve 20. yüzyıl başı arasında kalan dönemde bir devrim yaşadı. Matematiğin temelleri kısmen daha sağlam bir zemine oturtuldu, kısmen de zeminin sağlam olmadığı ispatlandı. Logicomix bu devrimci dönemin kavramlarını hikaye eden bir çizgi roman.

Logicomix_cover

Hikâye, matematiksel mantığın en büyük isimlerinden Bertrand Russell’ın ağzından anlatılıyor. Russell’ın gençliği, eğitimi, ve matematiğin sınırlarını zorlamasıyla başlıyor, diğer bir büyük mantıkçı olan Alfred North Whitehead ile tanışması ve işbirliğine başlamasıyla devam ediyor. Russell ve Whitehead’in yıllar süren zor işbirliği, Hilbert’in aksiyomatik yaklaşımına karşı Poincare’nin “sezgici”liği, Frege’nin çalışmaları, hatta Russell’ın özel hayatındaki fırtınalar hikâyeye dahil edilmiş. Soyut mantığın en büyük eserlerinden birini yazan Wittgenstein, ve “eksiklik teoremi” ile matematiğin asla cevaplayamayacağı sorular bulunduğunu ispatlayan Gödel de kitapta uzun yer bulan kahramanlardan.

Logicomix pek kolay bir okuma sayılmaz, ama matematiğe veya felsefeye ilginiz varsa zevk alacağınız bir eser.

Evrenin Çizgi Tarihi 1, 2 – Larry Gonick

Derin Kitap. Çeviren Şirin Okyayuz Yener.

evrenincizgi1

Üretken bir çizer olan Larry Gonick‘in en büyük ustalığı derin konuları çizgi kitaplar biçiminde sunmak. Harvard’dan matematik alanında lisans ve yüksek lisans derecesi almış. Uzun yıllar güncel bilimsel konularda kısa çizgi açıklamalar hazırlamış. Bilgisayar, fizik, kimya, matematik, istatistik, genetik, çevre gibi konularda kitaplar hazırlamış. Evrenin Çizgi Tarihi ise adının en çok duyulmasını sağlayan eseri.

Gonick Evrenin Çizgi Tarihi projesini uzun zamanda tamamladı. İlk cilt 1990′da, son cilt ise 2011′de yayınlandı. Bunlar resimli kitap değil, çizgi roman formatında hazırlanmış kitaplar. Bu format sebebiyle kalın bir kitapta bile çok fazla ayrıntıya girmek mümkün değil. Bu yüzden Gonick çok kapsamlı bir araştırmayla en önemli ana hatları aktarmaya çalışmış. Bunu yaparken her kareye ince bir mizah katmayı da ihmal etmemiş. evrenincizgi2

Gonick’in üslubunun en sevdiğim tarafı hürmetsizliği. Tarihte geçen “büyük” isimleri insani ölçeğe indiriyor, abartılmış kahramanlıkları basit çıkar ilişkileri şeklinde sunuyor. Kahramanlar, krallar, peygamberler, Gonick’in fırçasında haris ve uzlaşmaz tipler olarak hayat buluyor.

Evrenin Çizgi Tarihi’nin şimdiye kadar iki cildi Türkçeleştirildi. Birinci ciltte hayatın oluşumu, insanın evrimi, tarihöncesi dönemler, Mezopotamya uygarlıkları, Mısır, İsrail, Pers imparatorluğu, Yunanistan yer alıyor. İkinci cilt Hint ve Çin uygarlıkları, Roma’nın kuruluşu ve çöküşünü konu ediyor.

Darwin’den Dersim’e Cumhuriyet ve Antropoloji – Zafer Toprak

(Doğan Kitap)

Boğaziçi Üniversitesi’nde çalışan tarihçi Prof. Zafer Toprak bu çalışmasında, bilim tarihi ile siyasi tarihin kesiştiği noktalardan birini, 1930′larda Türkiye’de antropoloji biliminin bir “devlet bilimi” olarak gelişmesini inceliyor. Toprak’ın kendi ifadesi ile bu kitap, “Atatürk’ün 30′lu yıllarda gerçekleştirdiği bilimsel ve kültürel devrimi yorumlamaya yönelik bir girişim.

darwindersim

Kitabın merkezinde antropoloji var, çünkü Cumhuriyet okullarında eğitimin çağdaşlaştırılması ve laikleştirilmesi antropoloji ile başlamıştı. O döneme kadar okullarda insanın gelişimi Adem ve Havva’ya, insan çeşitliliği ise Nuh’un oğullarına dayandırılan efsanelerden ibaretken, 1930′lardan itibaren evrimsel kavramlara dayandırılan kitaplar yazılmaya başlandı. Dönemin ilk ve orta seviye okul kitaplarında Darwin ve evrim teorisine atıf yapılarak “hayat zinciri”nden bahsedildiği görülüyordu. Ancak Atatürk’ün ölümünden hemen sonra “hayat zinciri”nin ve evrimsel bakışın ders kitaplarından çıkarıldığını öğreniyoruz.

Toprak, o çağda dünyada hakim olan bilimsel bakışı kitaba dahil ederek bir karşılaştırma yapabilmemizi sağlıyor. İki savaş arasındaki dönemde antropolojide ırk kavramının önemli bir yer kapladığını öğreniyoruz. Çeşitli vücut özelliklerinin, sözgelişi kafatası biçiminin, ırkların niteliğini ölçmekte kullanılabileceği varsayılıyordu. Ve tabii, Avrupalıların fiziksel özelliklerinin üstünlük belirtisi olduğu kabul ediliyordu (“üstün”lük kriterlerinin ortak özelliği, kriterleri hazırlayanların kendilerinin hep “üstün” çıkmasıdır).

Cumhuriyet’in ilk yıllarında antropoloji, saf bilimsel merakın ötesinde, bir siyasi program olarak da destekleniyordu. Bunun temel sebebinin Türk milletinin Batı’ya kabullendirilme çabası olduğu anlaşılıyor. O dönemdeki uygulamalar “kafatasçılık” olarak nitelense de, özellikle ırkçılık amacını taşımıyorlardı. Nitekim 1940′ların ortasından sonra “ırk” temelli tartışmalar devam ettirilmedi. Toprak’a göre “son kertede Erken Cumhuriyet’in ‘ırk sorunu’ ‘defansif’ti. İçe değil, dışa dönüktü. Batı’daki önyargılara, kalıtımsal mitlere karşı direnişi simgeliyordu. Türkler de Avrupalılar gibi ‘uygar’ bir ‘ırk’tan geliyordu.

Antropoloji tartışmaları çerçevesinde ortaya atılan Türk Tarih Tezi de, Toprak’tan öğrendiğimize göre, benzer bir amaç güdüyordu. Dahası, bu tür tezler Türk entelektüel hayatının laikleşmesi için çok önemli adımlar olmuşlardı.

Kitabın bir bölümü, Atatürk’ün uydurma Mu kıtasına olan ilgisinin nasıl gelişip sona erdiğini inceliyor. 1920′lerde James Churchward isimli bir İngiliz albay, eski Atlantis efsanesine karşılık, Pasifik okyanusunda bulunan Mu isimli bir kıta, ve aynı adda bir uygarlık hayal etmişti. Bu fikre göre, Atlantis gibi Mu da sulara batmış, ama üzerindeki eski uygarlık bugünkü diller ve dinlerde iz bırakmıştı. Meksika büyükelçisi Tahsin Bey, Mu hikayesini bazı eski Maya eserleri ile bağlantılandırmış, biraz da hayal gücü ile Türkçe ile Maya dili arasında bağlantılar kurmuş, fikirlerini raporlarla Atatürk’e bildirmişti. Mu varsayımı Türk Tarih Tezi ve Güneş-Dil Teorisine yakın geldiği için Atatürk’ün başta ilgisini çekmişti. Ancak Toprak, Mu konusundaki kitapların geniş ölçekte basılıp yayılması talimatı vermemesine bakarak, bu uçuk teorinin Atatürk’ün aklına yatmadığı sonucunu çıkarıyor.

Halkın Bilim Tarihi – Clifford D. Conner

TÜBİTAK Popüler Bilim Kitapları. Çeviren Zeynep Çiftçi Kanburoğlu.halkinbilimtarihi

Bilim tarihi konusundaki birçok kitap bir kahramanlar geçidi gibidir. Bu kitaplarda bilimin Galileo, Newton, Einstein, Pasteur, Gauss gibi birkaç nadir dâhi tarafından inşa edildiği izlenimine kapılırsınız. Bilimsel literatürdeki Pisagor teoremi, Newton yasaları, Maxwell denklemleri, Coulomb kanunu, Gauss dağılımı gibi isimlendirmeler de bu izlenimi pekiştirir.

Halkın Bilim Tarihi bu yaklaşımı eleştiriyor, ve bilimsel bilginin çoğunlukla, bilimci sayılmayan isimsiz bireyler tarafından biriktirildiğini savunuyor. Madenciler, demirciler, otları toplayan kadınlar, denizciler, makine ustaları, saatçiler, ve benzeri el işçilerinin çok üst seviyede biimsel bilgi ürettiğini, bu bilgilerin meslek sırları olarak grup içinde aktarıldığını anlatıyor. Dahası, “elit” bilimcilerin, bu meslek gruplarının getirdiği bilgiler veya yarattıkları teknik beceri sayesinde bilim geleneği oluşturabildiklerini savunuyor. Conner’a göre “bilim dediğimiz şey tamamen halktan ve zanaatten elde edilen bilgilerden oluşturulmuştur, bugünkü haline de bu kaynaklardan beslenerek ulaşmıştır.

Conner, bu savını desteklemek için birçok örnek veriyor. Dahası, ilkel toplulukların zannedilenin aksine son derece yetenekli olduklarını, bilimsel düşünmeye dayalı teknikler geliştirdiklerini anlatıyor. Büyük Okyanus adalarında yaşayanların, kuşaklar boyunca aktarılan gözlemlere dayalı olağanüstü yön bulma bilgileri buna bir örnek. Özünde uygulamalı genetik bilimi olan tarımın büyük bir hızla gelişmesi de tarihöncesi insanların bilimsel yeteneğine başka bir örnek.Dünyadaki yenebilecek bitkilerin tamamının tarihöncesi çağlarda yapay seçilimle evcileştirilmiş olması bu üstün başarının ispatı.

Halkın Bilim Tarihi dünya hakkındaki bilginin tarihine değişik bir açıdan bakmayı sağlayan, içeriği çok zengin bir kitap. Zanaatkârların bilgi birikimine dair listelediği ilginç ayrıntılar toplumsal tarihle ilgilenen herkesin ilgisini çekebilir.

YAKAN SOĞUK: NEGATİF SICAKLIKLAR

$
0
0

iceflame

Geçtiğimiz haftalarda Münih’deki Ludwig Maximilan Üniversitesi ve Max Planck Kuantum Optiği Enstitüsü’nde çalışan araştırmacılar, özel şekilde hazırlanmış bir atom öbeğini sıfırın altında mutlak sıcaklık değerlerine ulaştırdı. Ama mutlak sıfırın altına nasıl inilebilir? Yoksa termodinamik kanunları mı değişti?

iceflame
Resim: 4ever.eu

Günlük hayatta kullandığımız Celsius ölçeği rastgele belirlenmiş bir birimdir. Suyun donma noktasını sıfır, kaynama noktasını da yüz derece kabul edip, arasını eşit parçalara bölerek oluşturulmuştur. Celsius ölçeği kullanıldığında, soğuk kış günlerinde negatif sıcaklıklar görmek hiç şaşırtıcı değildir.

Keyfe keder sıcaklık ölçeklerinin yanı sıra, fiziksel süreçlere dayalı “mutlak” sıcaklık ölçeği de var. 18. yüzyıl sonu ve 19. yüzyıl başında yapılan deneylerde, bir gazın sabit basınç altında (meselâ hava geçirmeyen bir pistonun altında) soğutulduğunda , kapladığı hacmin düzenli olarak azaldığı görüldü. Bu doğrusal azalma çizgisini devam ettirdiğinizde, -273.15°C sıcaklıkta hacmin sıfır olması gerektiğini görürsünüz. Elbette atomların küçük de olsa bir hacmi olduğundan gazın hacmi hiç bir zaman sıfıra düşmez, ama bu matematiksel değer, sıcaklık için doğal bir başlangıç noktası sağlar. Mutlak sıcaklık “Kelvin” birimiyle ölçülür. Bir Kelvinlik sıcaklık farkı bir Celsius dereceye eşittir.

Termodinamiğin üçüncü kanunu, mutlak sıfır dereceye asla erişilemeyeceğini ispatlar. Nitekim bugün dünyanın en donanımlı laboratuarlarında çeşitli yöntemlerle mutlak sıfıra milyarda bir derece kadar yaklaşılabiliyor, ama tam sıfıra ulaşmak mümkün değil. Uzayın derinliklerinin bile 4 Kelvin sıcaklıkta olduğu dolaylı yollardan tespit edildi.

Bir cismin mutlak sıcaklığı, onun atomlarının ortalama enerjisine denk olduğu için, mutlak sıfır aynı zamanda hareketin durduğu yer olarak da yorumlanır.

Peki mutlak sıcaklık nasıl negatif olabilir? Mutlak sıfıra hiç ulaşamıyorsak, onun altına nasıl inebiliriz? Termodinamik kanunları yanlış mı? Mutlak sıfırda hareket duruyorsa, sıfırın altında atomların hareketi nasıldır?

Aslında negatif sıcaklıklara inme deneyleri yeni değil; 1951′den beri yapılıyorlar. Bu deney o zincirin sadece son halkası. Deneyin altında yatan teorik çerçeve, yüz yıldan fazla zaman önce oluşturulmuş termodinamik teorisiyle tam bir uyum içinde. Bu deneyde mevcut teorinin özel durumlarda sezgimize aykırı bir sonucunu görüyoruz. Negatif sıcaklık elde etmek için deneysel sistemin dikkatle hazırlanması ve uygun şekilde ayarlanması gerekiyor. Gündelik hayatımızda negatif sıcaklıkta bir nesne görmemiz pek muhtemel değil.

Sıcaklık nedir?

Oturduğunuz odadaki havada, içtiğiniz suda, dokunduğunuz bilgisayarda bulunan toplam enerji, atomların hepsine eşit olarak dağılmamıştır. Düşük enerjilere sahip olan atomlar çoğunluktadır, yüksek enerjilere sahip olanlar azdır.

Cismi ısıttığınız zaman bu dağılım eşitlenmeye yaklaşır. Sıcak cismin atomlarının çoğu yine düşük enerjidedir, ama diğerlerinin enerjisi de az değildir. Isıtmaya devam ederseniz, çok yüksek sıcaklıkta değişik enerjilerdeki atomların sayıları birbirine yakın olur.

sicaklik
Bu eğrilerin matematiksel formülü e^{-E/kT} olarak yazılır. Burada e sembolü 2.718… diye giden bir sabit sayı, E enerji, T mutlak sıcaklık, k ise birimlerin uyuşması için kullanılan bir fizik sabitidir.

Tabii bu dağılım dinamik bir dengedir: Atomların birbiriyle çarpışmaları (genel terimle “etkileşmeleri”) sonucunda enerji değiştokuşu yapılır. Tek tek atomların enerjileri sürekli değişse de, enerjinin dağılımı aynı kalır.

Atomlarla deney yaparken, elinizdeki atom grubunun sıcaklığını termometre değdirerek ölçemezsiniz. Bunu yapmak sistemin tamamen bozulmasına yol açar. Bu yüzden, sıcaklığı ölçmek için enerjinin dağılımının biçimine bakılır. Atomların tepeden fotoğrafı çekilir, çeşitli enerji seviyelerine göre atomların nasıl dağıldığı sayılır, ve yukarıdaki eğrilerden hangisine uyduğuna bakarak sıcaklık tahmin edilir.

Bunu gözde canlandırmak için, atomların engebeli bir arazide yuvarlanan bilyeler olduğunu hayal edelim. Çukurlar düşük enerjiye, tepeler yüksek enerjiye tekabül etsin.

atomsatnegat

Düşük sıcaklıkta atomların çoğu çukur yakınlarında bulunur; yüksekte bulunmaları ihtimali azdır. Sıcaklığı artırdıkça, atomları yüksek enerjide yani tepede bulma ihtimali de artar. Çok yüksek sıcaklıklarda atomların tepede veya çukurda bulma ihtimali neredeyse aynıdır. Yolda yürürken yerdeki küçük girinti çıkıntılardan etkilenmememiz gibi, sıcaklık çok yüksek olduğunda atomlar için çukurlar ve tepeler önemsiz olur. Atomlar düz bir masadaymışçasına, düzgün olarak dağılmışlardır.

Peki, ısıtmaya devam ederek atomları yüksek enerji tepelerinde toplamak mümkün mü? Alışageldiğimiz madde için mümkün değil. Atomlar bir an için orada toplansalar bile hemen tepe aşağı inip etrafa dağılacaklardır. Eğer atomların kendiliklerinden en yüksek enerji bölgesinde toplanmasını sağlayabilseydik, bu atom topluluğunun sıcaklığının negatif olması gerekirdi, çünkü dağılım eğrisi şöyle olurdu:

dagilim2

Eğrinin formülü e^{ -E/kT} olduğundan, yükselen bir eğri elde etmek için sıcaklığın negatif olması gerekir.

Negatif sıcaklıkta bir sistem elde etmenin en önemli şartı, atomların alabileceği enerjinin bir üst sınırı bulunması. Yoksa atomların enerjilerinin toplanabileceği bir seviye mevcut olmaz. Burada sınırla kastedilen dışarıdan verilen enerjinin sınırlanması değil, sistemin emebileceği enerjinin üst sınırı olması. Bunu sağlamak için sistemin özenle tasarlanması gerekiyor. Gündelik hayatımızdaki malzemelerde böyle bir üst sınır yok.

Sonsuz sıcaktan daha sıcak

Peki negatif sıcaklık gerçekten mutlak sıfırdan daha mı soğuk? Hayır, değil. “Soğuk” ve “sıcak”ı, doğal olarak, enerji akışı türünden tanımlarız: Birbirine temas eden iki sistemden hangisi diğerine enerji aktarıyorsa, o daha sıcaktır. Bu da bizi garip bir sonuca götürüyor: Negatif sıcaklık, pozitif sonsuz sıcaklıktan daha sıcaktır.

Bunun nasıl olabildiğini anlamak için, sistemi yavaş yavaş ısıttığınızı düşünün (bu sistemin alabileceği enerjinin bir üst sınırı da olmalı, aksi takdirde karşılaştırma yapabileceğimiz bir negatif sıcaklığa sahip olamaz). Isıttınız, ısıttınız, ve sonunda atomların her yerde eşit ihtimalle bulunmasını sağladınız. Bazıları düşük enerjide, bazıları yüksek enerjide, bazıları da ortada olur. Bütün atomların olabilecek en dağınık halde bulunduğu durumda, pozitif sonsuz sıcaklıkta olursunuz.

Buna karşılık, negatif sıcaklıkta atomlar olabileceği kadar yüksek enerjide toplanırlar. Bu yüzden negatif sıcaklıkta sistemin toplam enerjisi daha fazladır. Sonsuz pozitif sıcaklıkta bulunan benzer bir sisteme temas ettirilirse ona enerji aktarır, dolayısıyla sezgisel olarak daha “sıcak”tır.

Negatif sıcaklığın sonsuz pozitif sıcaklıktan daha “sıcak” olması, sıcaklık kavramının klasik tanımının egzotik sistemlere has bir cilvesi sadece. Termodinamik kanunları ders kitaplarında yazıldığı şekliyle aynen geçerli.

Pusulaların negatif sıcaklığı

Negatif sıcaklık için, sistemin alabileceği enerjinin bir üst sınırı olması gerektiğini yazmıştık. Bunun bir örneği olarak, yanyana dizilmiş pusula iğnelerini düşünün. Bunların her biri küçük mıknatıslardır, ve dışarıdan uygulanan bir manyetik alana (meselâ Dünya’nınkine) göre yönlenirler. Sistemin en düşük enerjili hali bütün pusulaların kuzeyi gösterdiği durumdur. Bazılarının güneyi göstermesini istiyorsanız onları ters yöne çevirmek için Dünya’nın manyetik alanının uyguladığı kuvvete ters bir kuvvet uygulamak, yani enerji eklemek zorundasınız. Sistem en yüksek enerjiye bütün pusula iğnelerinin güneyi gösterdiği durumda ulaşır.

1950′lerde yapılan deneylerde, pusula iğnesi yerine, güçlü bir manyetik alana yerleştirilmiş saf bir lityum florür (LiF) kristalindeki atom çekirdekleri kullanıldı. Atom çekirdeği mıknatıslarının enerji emmesi normal ölçeğimizdeki pusula iğnelerinden farklı olur. Gündelik pusula iğnelerine azıcık enerji verebilirsiniz; o zaman iğneler kuzey yönünün etrafında sallanır. Ancak kuantum mekaniğinde enerjinin ayrıklığı sebebiyle, atom çekirdeğine azıcık enerji veremezsiniz. Ya pusulayı tam olarak güneye çevirecek kadar enerji verirsiniz, ya da verdiğiniz enerji topyekün reddedilir. (Deneyde “kuzey” ve “güney” doğrultusunu laboratuarda kullanılan güçlü mıknatıs belirler.)

Bu sistemi başlangıçta en soğuk, yani bütün atom çekirdeği pusulalarının “kuzeye” baktığı en düşük enerji durumuna getirdiğinizi varsayın. Ondan sonra, laboratuardaki manyetik alanınızı birdenbire tersine çevirin, kuzeyle güney yer değiştirsin. Böylece atom çekirdeği pusulaları birdenbire kendilerini tepede, en yüksek enerjili durumda bulurlar.

Tam söylemek gerekirse, bu yüksek enerjili durum istikrarsızdır, yani bir zaman sonra pusulacıklar kendilerini yeni manyetik alana uygun şekilde yönlendireceklerdir. Tıpkı elinizle bir tepeye bıraktığınız bir avuç bilyenin aşağı, düşük enerjilere inmesi gibi. Böyle bir sistem dengede olmadığı için, sistemin sıcaklığından bahsetmek mümkün olmaz. Fakat, kuantum etkileri bu aşağı düşüşü çok yavaşlatır, çünkü atomdaki pusulacığın, kristaldeki diğer atomlar veya elektronlarla çarpışırken tam uygun miktarda enerjiyi vermesi gereklidir. Bu sebeple, fazla enerjinin dışarı çıkması beş dakika gibi uzun bir süreyi bulur. Buna karşılık, pusulacıkların kendi aralarındaki enerji dengelenmesi saniyenin yüzbinde biri gibi çok daha çabuk bir sürede gerçekleşir. Böylelikle, birkaç dakikalığına pusulacıkların negatif sıcaklıkta olduğu söylenebilir.

Bu tür deneylerin ilginç bir cilvesi, kullanılan kristal oda sıcaklığında iken, içindeki pusulacıkların negatif sıcaklıklarda olabilmesidir. Birçok fiziksel sistemde enerjinin gidebileceği birçok yer vardır: Atomların veya moleküllerin doğrusal hareket hızı, kendi içlerinde yaylanmaları, dönmeleri, elektronların kopması gibi ayrı “bütçe kalemleri” bulunabilir. Yani, atom çekirdeklerinin manyetik sistemi negatif sıcaklıkta diye, malzemenin tamamının negatif sıcaklıkta olması gerekmez.

Negatif sıcaklıkta bir kuantum gazı

Hareket enerjisinin bir üst sınırı yoktur, o yüzden kristaldeki gibi yerinde durmayan, hareketli atomlardan oluşan sistemlerde negatif sıcaklık oluşturulamayacağı düşünülüyordu. Oysa geçen yılın sonunda Münih’deki Ludwig Maximilan Üniversitesi ve Max Planck Kuantum Optiği Enstitüsü’nde çalışan araştırmacılar, hareketli atomların kendi kendilerine yüksek enerjiye toplaştıkları, dolayısıyla da negatif sıcaklıkta bulundukları bir deneyi gerçekleştirdiler.

Bu deneyde potasyum atomları, kesişen lazer ışığı demetleriyle oluşturulan bir “örgü“ye yerleştirildiler. Böyle bir örgü, yumurta kartonunun yumurtaları tutması gibi, atomları düzenli bir şekilde tutar ama çok zayıf bir bağlayıcı kuvveti vardır. Bu yüzden deneyin başarılı olması için çok özel şartlara ihtiyaç duyuldu.

Öncelikle deney sisteminde, deneyde kullanılacak atomlar hariç, mükemmele yakın bir boşluk oluşturuldu. Bu boşluk hem örgünün bozulmasını engelliyor, hem de atomların çevreden yalıtılmasını sağlıyordu. Atomların örgüden ayrılmamaları için önce mutlak sıfırın milyarda bir derece (0.000 000 001 Kelvin) yakınına kadar soğutulmaları gerekiyordu. Ayrıca, deneyde kullanılan bir manyetik alan çeşitli şekilde ayarlanarak atomların çukurda veya tepede olmalarını sağlanabildi.

Asıl önemli nokta enerjinin bir üst sınırının bulunması, yoksa negatif sıcaklık elde edilemez. Normalde hareket enerjisinin üst sınırı yoktur; sonsuza dek artabilir. Ancak örgü şeklinde dizilmiş atomlardaki kuantum etkileşmeleri, hareket enerjisinin “bant”lar şeklinde olmasını sağladı, böylece hareket enerjisine bir üst sınır koyulabildi. Elbette atomlara büyük bir enerji vererek bu sınırı aşmak mümkün, ama o zaman da örgüyü bozmuş oluruz.

Benzer bantlar katı haldeki gündelik nesnelerde de görülür. Katılardaki elektronların hareket enerjisi sıfırla sonsuz arasında sürekli değildir, bazen aralarda kuantum etkilerden dolayı izin verilmeyen aralıklar olabilir. Sözgelişi, yalıtkan malzemelerde elektronun serbest dolaşması bu türden geniş boşluklar tarafından engellenir.

Deneyin başında atomların hareket enerjileri, olabilecek en yüksek değere çıkarıldı. Atomlar örgü deliklerine yerleşmiş durumda başladılar ve bir delikten öbürüne kuantum tünelleme etkisiyle sürekli geçmekteydiler, ama manyetik alan sayesinde, dağılmadan birarada kalıyorlardı.

Ardından deneyciler manyetik alanı birdenbire tersine çevirdiler. Böylece atomlar daha önce “çukur”dayken, kendilerini “tepe”de buldular. Normal olarak atomların tepeden aşağı düşmeleri beklenir, ve bildiğimiz gibi yokuş aşağı düşen cisimlerin hareket enerjileri artar. Fakat atomların hareket enerjisi zaten izin verilen en yüksek değere getirilmiş, o yüzden atomlar düşmeden tepede kaldılar. Böylece, mutlak sıfırın milyarda bir Kelvin altında sıcaklığı olan bir kuantum gazı elde edildi.

Atom çekirdeği pusulaları ile yapılan deneyin aksine, bu kuantum gazı istikrarsız değil. Deney düzeni devam ettirilebildiği sürece atomlar negatif sıcaklıkta kalmaya devam ediyorlar.

Bu deneysel başarı için şimdilik herhangi bir teknolojik uygulama öngörülmüyor, ama atom fiziği deneylerinde yeni ufuklar açma ihtimali yüksek. Bildiğimiz termodinamik kanunları, negatif sıcaklıklardaki ısı makinelerinin veriminin %100′ün üzerinde olması gerektiğini öngörüyor. Bu, enerjinin yoktan yaratılacağı değil, enerjinin alışılmadık şekilde sadece sıcak cismin daha da ısınacağı şekilde aktarılacağı anlamına geliyor. Bu tür bir “mikromotor” başka kuantum sistemleriyle birleştirilerek yepyeni etkilerin gözlenmesine imkân verebilir.

Dahası, deneydeki sisteme benzer bant yapısının katı haldeki malzemelerde de bulunduğuna bakarak, özel olarak hazırlanmış kristallerin içinde negatif enerjili alt sistemler oluşturulması, ve gelecekte bunlarla yepyeni elektronik elemanlar üretilmesi mümkün olabilir.

Kaynaklar

Pİ GÜNÜ KUTLU OLSUN

$
0
0

pigraphic

pigraphic

Pi (\pi) için kaç basamak sayabilirsiniz? “Pi’yi üç alalım” diyenlerden misiniz, 3,14 diyen orta yolculardan mı, 3,14159 diyen mükemmeliyetçilerden mi?

Çinli kimya öğrencisi Çao Lu kadar olamazsınız. Lu, dört yıllık bir çalışmanın ardından, Pi’yi 67 890 basamağa kadar ezberlemeyi başardı. Guinness rekorlar kitabı hakemlerinin önünde Pi’yi ezberden okuması tam 24 saat 4 dakika sürdü.

Pratik amaçlar için bu derecede bir takıntıya elbette lüzum yok. Bilinen evrenin çevresini sadece bir hidrojen atomu genişliği kadar bir hatayla hesaplayabilmek için Pi’yi 39 basamağa kadar bilmek yeterli: 3,141592653589793238462643383279502884197

Ama Pi’nin bizim için değeri pratik amacının çok ötesinde. Bugün uzmanlar bilgisayarların ve algoritma teorisinin sınırlarını zorlayarak Pi’yi trilyonlarca basamağa kadar hesaplamış durumdalar. Ancak, bilgisayarların sağladığı imkânların bulunmadığı dönemlerde bile matematikçiler ve hesap meraklıları, elle hesap yaparak Pi’yi yüzlerce basamağa kadar belirlemişlerdi.

Sonsuz değişik sayı içinde, neden Pi bizim için bu kadar önemli? Neden matematikte aynı derecede yaygın olan e‘nin basamaklarını ezberlemeyi iş edinmiyoruz? Neden \sqrt{3}‘ü trilyon basamağa kadar hesaplamıyoruz?

Pi’nin karizması yüksek, albenisi çok. Filmlere konu olan, romanlarda, öykülerde başrol oynayan tek sayı. Pi’nin özel önemi düşünüldüğünde bu pek şaşırtıcı değil. Dünya’ya bir uzaylı gelse belki değer verdiğimiz birçok şeyi rastgele ve anlamsız bulabilir, ama Pi hayranlığı konusunda bize hak verecektir.

14 Mart, yani 3. ayın 14. günü, bilimciler ve eğitimciler tarafından Pi günü olarak kutlanıyor. Biz de Açık Bilim’de bu kutlamaya bu yazıyla katılıyoruz. “Tüm yurtta ve dış temsilciliklerimizde törenlerle kutlandığı” günleri de görürüz belki.

728416191

Çapı bir birim uzunlukta olan bir dairenin çevresi Pi birim uzunlukta olur. (Wikimedia Commons)

 


Pi sayısı pratik önemi sebebiyle uygarlığın en erken dönemlerinden beri kullanılmış ilk matematik sabiti. Daire ve çemberlerle işi olan her medeniyet bu sayıyı tanımış, çeşitli yaklaşık değerler vererek kullanmış. Mısır’da MÖ 1650 yılında yazılan ünlü Rhind papirüsünde, dairenin alanının, çapın 8/9′unun karesini alınarak bulunabileceği yazılmış, ki bu Pi için 3.16049.. gibi bir değer varsayıldığı anlamına geliyor.

Mezopotamya’da ise Babil uygarlığının Pi için 3.125 gibi daha hatalı bir değer kullandığı biliniyor.

Bu yaklaşık değerler, diğer uzunluk ölçümlerinde de hassasiyet pek yüksek olmadığından, o dönemin kadastro ve inşaat işlemleri için yeterli oluyordu. Antik Yunanistan ve İyonya’daki soyut geometri tutkusu Pi’nin pratik amaçların çok ötesinde, yüksek hassasiyetle belirlenmesi isteği doğurmuş olmalı, ama Arşimet’in (MÖ 287 – MÖ 212) dönemine kadar daha doğru bir hesaplama yapılıp yapılmadığı bilinmiyor.

Arşimet’in Pi’yi hesaplamak için kullandığı yöntem, daireyi yaklaşık olarak düzgün bir çokgen kabul etmeye dayanıyor. Arşimet önce bir birim yarıçaplı bir daire aldı. Bu dairenin çevresi de 2 Pi birim olur. Sonra köşeleri bu daireye değen bir iç altıgen çizdi. Ardından kenarları aynı daireye teğet olan, öncekinden biraz daha büyük, bir dış altıgen ekledi. Dairenin çevresi iç altıgenin çevresinden daha uzun, dış altıgenin çevresinden ise daha kısa olmalıdır. Böylece Pi için bir alt ve üst sınır elde edilir.

Arşimet, kenar sayısını artırdıkça daireye daha fazla yaklaşacağını bilerek, kenarları her seferinde ikiye bölerek altıgenleri onikigenlere, onikigenleri yirmidörtgenlere, sonra kırksekizgenlere, sonunda da doksanaltıgenlere çevirdi.

ArchimedesRecurrence_800

Solda: Dairenin iç ve dış altıgenleri. Sağda: Dairenin iç ve dış onikigenleri. (Wolfram MathWorld)

Arşimet aslında bu çokgenleri açıkça çizmedi; bunun yerine, çokgenlerin çevre uzunlukları için bir formül üretti. Birim yarıçaplı bir daireye dışarıdan değen n kenarlı bir düzgün çokgen (n-gen) çizilmiş olsun;  bunun çevre uzunluğuna a_n diyelim. Köşeleri aynı daireye içeriden değen n-genin çevre uzunluğu da b_n olsun. Bu n-genlerin her kenarını ikiye bölerek, dairenin dışına ve içine birer 2n-gen çizelim. Bunların çevreleri de sırayla a_{2n} ve b_{2n} olsun. Arşimet’in formülleri şöyleydi:

a_{2n} = 2 a_n b_n/(a_n + b_n)

b_{2n} = \sqrt{a_{2n} b_n}

Altıgen için a_6 = 4\sqrt{3}, b_6 = 6 olur, bu değerlerden sırayla 12, 24, 48, 96 kenarlılara geçebiliriz. Bugün bir hesap makinesi veya bilgisayarınızdaki hesap tablosu yazılımı ile bu işlemi birkaç dakikada kolaylıkla yapabilirsiniz. Ama Arşimet’in hesap makinesi yoktu, ve bütün dehasına rağmen, hesaplama konusunda yaşadığı dönemden kaynaklanan handikaplara sahipti. O dönemde elle yüksek hassasiyette karekök almak çok zordu. En önemlisi, modern aritmetik notasyonunun ve Hint-Arap rakamlarının bize sağladığı kolaylıklardan yoksundu. Buna rağmen, Pi’nin 3 10/70 ve 3 10/71 arasında olduğunu belirleyebildi. Bu iki sınırın ortalamasını aldığınızda, dört basamak doğrulukla 3.14185… değeri elde edilir.

Arşimet’ten bir kuşak sonra Pergeli Apollonius’un Pi için 3.1416 değerini kullandığı ikincil kaynaklar aracılığıyla biliniyor, ancak orijinal eser kaybolduğu için Apollonius’un bu sonuca nasıl ulaştığı bilinmiyor. Ondan yüz yıl kadar sonra Batlamyus’un Almagest’inde de kullanılan bu yaklaştırım, yaklaşık bin yıl boyunca Avrupa’daki en hassas Pi değeri olarak kaldı.

Bu arada Çin’deki matematikçiler, muhtemelen batıdaki çalışmalardan bağımsız olarak, Pi’yi daha büyük doğrulukla hesaplama çabasını ileri götürdüler. Üçüncü yüzyılda Liu Hiu 3072 kenarlı bir çokgen kullanarak 3.14159 değerini elde etti. İki asır sonra Zu Chongzhi iki basamak daha ekleyerek Pi ‘nin 3.1415926 ve 3.1415927 arasında olduğunu bildirdi. Bu dâhi matematikçinin eserleri bugün kayıp olduğu için kullandığı yöntem bilinmiyor, fakat 12288 (3\times2^{12}) kenarlı bir çokgen kullandığı tahmin ediliyor.

1400′lerin başında Semerkant’taki Uluğ Bey rasathanesinde çalışan hesap dâhisi Cemşit el-Kaşi’nin çalışması çıtayı çok yükseltti. El Kaşi 3\times 2^{28} (805 milyon küsur) kenarlı bir çokgen kullandı, ki bu altıgenden başlayarak formülleri 27 kere ilerletmek demekti (Arşimet 4 kere ilerletmişti). Bu ağır hesabın sonucunda Pi için 3.14159265358979 değerini elde etti. Virgülden sonra onbeş basamağa kadar doğru olan bu değerle, en uzak gezegen olan Neptün’ün yörüngesinin çevresini sadece bir santimetrelik hata payıyla belirlemek mümkündür (diğer ölçümlerin hata payının daha az olduğu varsayılarak). El Kaşi’nin başarısı o kadar büyüktü ki, neredeyse iki yüzyıl boyunca Pi için daha hassas bir değer üretilemedi.

Pi’nin sonraki rekoru Avrupa’da kırıldı. Ludolph van Ceulen (1540-1610), 15 kenarlı bir çokgenden başladı ve kenar sayısını otuzyedi defa iki katına çıkardı. 1596′da yayınladığı Pi değeri 20 haneye kadar doğruydu. Daha sonra kenar sayısını artırarak 35 hanelik hassasiyet sağladı. Öldüğünde bu sonuç mezar taşına yazıldı. Bu başarının etkisiyle bir dönem Almanya’da Pi sayısı “Ludolph sabiti” olarak anıldı.

Ludoph’un sonucu Arşimet yönteminin zirvesi oldu. Öğrencisi olan ünlü matematikçi ve fizikçi Willebrord Snell (1580-1626), dış çokgenlerin çevresinin çembere iç çokgenlerin iki katı hızla yakınsadığını gözledi. 1612′de yaptığı bir hesapta, 2 Pi’yi bulmak için iç ve dış çokgenlerin basit ortalamasını almak yerine, iç çokgen çevresinin 1/3′ü ile dış çokgen çevresinin 2/3′ünü topladı. Bu yöntemle Snell, bir 96-gen kullanarak Pi’yi dört basamak yerine yedi basamağa kadar doğru olarak hesaplayabildi.

Bu döneme kadar Pi için kullanılan algoritmik hesap yöntemi teorik analizde kullanmaya elverişli değildi. 1596′da Fransız matematikçi François Viète’nin Pi için verdiği formül yeni bir yaklaşımın habercisi oldu:

\frac2\pi=    \frac{\sqrt2}2\cdot    \frac{\sqrt{2+\sqrt2}}2\cdot    \frac{\sqrt{2+\sqrt{2+\sqrt2}}}2\cdots

Bu formülün önemi, hesaplama kolaylığından ziyade Pi için teorik bir ifade sağlamasındadır. Analiz ve trigonometrideki ilerlemeler sayesinde Pi için yeni formüller üretilmesiyle, çokgenler yönteminin miadı dolmuş oldu.

1655′de John Wallis Pi için bir sonsuz çarpım ifadesi yayınladı:

\frac{\pi}{2} = \frac{2}{1} \cdot \frac{2}{3} \cdot \frac{4}{3} \cdot \frac{4}{5} \cdot\frac{6}{5} \cdot\frac{6}{7} \ldots

Bu dönemde trigonometri işlemlerine dair sonsuz seri açılımları da keşfedilmişti. Sözgelişi, arktanjant (tanjantın tersi) fonksiyonunun şu ifadesi biliniyordu:

\arctan x = x - \frac{x^3}{3} + \frac{x^5}{5} - \frac{x^7}{7} + \frac{x^9}{9} - \ldots

Bu ve benzeri trigonometri fonksiyonlarının açılımı çok daha önce, Hint matematikçi ve astronom Madhava (1340-1425) tarafından keşfedilmişti. Radyan cinsinden \pi/4 (45 derece) açısının tanjantı 1 olduğundan, yukarıdaki seride x yerine 1 konularak Pi için bir sonsuz toplam bulunabileceği de Madhava’nın gözünden kaçmamıştı.

\frac{\pi}{4} = 1 - \frac{1}{3} + \frac{1}{5} - \frac{1}{7} + \frac{1}{9} - \ldots

Madhava sadece bunu değil, hesaplama açısından daha kolaylıklı olan başka formülleri de keşfetmişti. Madhava’nın çok üstün nitelikteki çalışmalarının Avrupa matematikçilerini ne kadar etkilediği kesin olarak bilinmiyor, fakat bu çalışmaların Cizvit misyonerleri tarafından tercüme edilip Avrupa’ya aktarılmış olması kuvvetle muhtemel. Bu yüzden yukarıdaki ifadeye bugün Madhava-Gregory-Leibniz serisi adı veriliyor.

Bu serinin teorik çalışmalar için önemi var, ama hesaplama için pek faydalı değil. Ardışık terimler birbirlerine çok yakın büyüklükte olduklarından, toplamın Pi’ye yeterince yaklaşması için yüzbinlerce toplama yapmak gereklidir. Ama arktanjant serisi 1′den küçük değerler için çok daha çabuk yakınsar. Bu özelliği kullanarak, 1706′da John Machin verimlilik bakımından önceki bütün yöntemleri gölgede bırakan formüller yayınladı:

\pi = 4 \arctan \frac{1}{2} + 4 \arctan \frac{1}{3}

\pi = 16 \arctan \frac{1}{5} - 4 \arctan \frac{1}{289}

Bu formüllerde arktanjant fonksiyonu yukarıdaki seride belli sayıda terim kullanılarak hesaplanır. Yüksek hassasiyet için daha fazla terim eklenmesi gerekir. Bu yöntemle Machin Pi’yi 100 basamağa kadar hesaplayabildi.

Bundan sonra Pi’yi hesaplamak pratik bir ihtiyaç olmaktan çıkmıştı, ama Pi’nin çekiciliği azalmadı. Hesapçılar seri açılıma dayalı formülleri kullanarak yeni ve daha doğru değerler sunmaya devam ettiler. Johann Dase (1824-1861) Pi’yi 200 basamağa kadar hesapladı. 1853′de amatör matematikçi William Shanks 707 basamağa ulaştığını ilân etti. Bir hesap hatası yüzünden bulduğu sonucun sadece ilk 527 basamağı doğruydu, ama bu hata 1945′de mekanik hesap makineleri kullanılana kadar farkedilmedi.


Yirminci yüzyılın ortasından itibaren, bilgisayar teknolojisinin ortaya çıkması sayesinde Pi tutkusu çok ilerilere götürülebildi. Ünlü ENIAC bilgisayarı ile 1949′da 2 037 basamağa ulaşıldı, ve basamak sayısı düzenli olarak artırıldı. Özellikle 1980′lerde her yıl birkaç kez rekor kırılıyordu. Ayrıntılı bir dökümü Wikipedia’da bulabilirsiniz.

Otomatik hesaplama imkânının yanı sıra, daha az terimle daha yüksek doğruluklu değerler veren formüllerin geliştirilmesi de Pi’nin hesaplanmasını ileriye götürdü. Sözgelişi, Hint matematikçi Ramanujan’ın 1910′da keşfettiği formül gibi:

\frac {1}{\pi} = \frac{2\sqrt{2}}{9801} \sum_{k=0}^\infty \frac {(4k)!(1103 + 26390k)}{(k!)^4 396^{4k}}

Bu formülün her terimi, sonuca yaklaşık sekiz basamak doğruluk ekliyordu. 1985′de Bill Gosper bu yöntemle Pi’yi 17 milyon basamağa ulaştırdı.

Ramanujan formülü, Machin formülü, ve diğer seri toplamlarına dayanan “klasik” algoritmalarda, doğruluğu iki katına çıkarmak için algoritmadaki adım sayısını iki katına çıkarmalısınız. 1976′da keşfedilen Salamin-Brent algoritması ise, her adımda doğru basamak sayısını iki katına çıkarabiliyordu, yani sonuçlar çok daha hızlı bir şekilde Pi’ye yaklaşıyordu. Bunun ardından her adımda doğru basamak sayısını üçe katlayan bir algoritma, dörde katlayan bir algoritma, ve dokuza katlayan bir algoritma keşfedildi.

Bir milyar basamak eşiği 1989′da Chudnovsky kardeşler tarafından kırıldı. Chudnovsky’ler kendi keşfettikleri, Ramanujan tarzı, “klasik” denebilecek bir formül kullandılar. Sonraki hesaplarını evlerinde kurdukları kendi süperbilgisayarlarında çalıştırdılar ve 1991′de 2 milyar, 1994′de ise 4 milyar basamağı geçtiler.

Tokyo Üniversitesi’nden Yasumasa Kanada, çalışma arkadaşlarıyla birlikte 1980′lerden beri Pi’nin birçok rekor hesaplamasına imza atmıştı, 2002′de bir trilyon basamağa ulaşan da o oldu.  2009′da Daisuke Takahashi 2,5 trilyon basamağı geçti.

Bu aşamaya kadar bütün rekor hesaplamalar süperbilgisayarlarla yapılmıştı. Daha sonraki üç rekor ise piyasada yaygın olarak bulunan donanımla hesaplandı. 2009 sonunda Fransa’da Fabrice Bellard, alelade bir masaüstü bilgisayar kullanarak Pi’yi 2,7 trilyon basamağa ilerletti. Shigeru Kondo, özel olarak hazırladığı güçlü bir bilgisayarda Alexander Yee’nin yazılımını çalıştırarak 2010 ortasında 5 trilyon basamağa çıktı. Kondo ve Yee 2011 Ekiminde 10 trilyon basamağa ulaştıklarını ilân ettiler.

Neden bu kadar ileri gidiliyor? Her türlü uygulama için 39 basamak yeterliyken, 10 trilyona çıkma takıntısı neden?

Pi hevesinin bir kısmı her insanın içindeki ileri gitme arzusu. Everest’e neden çıktıysak, Güney Kutbu’na ve Ay’a neden ayak bastıysak, Pi’yi de aynı sebeple kovalıyoruz. Ancak pratik sebepler de önemli rol oynuyor: Pi’yi bu akılalmaz hassasiyette hesaplamak için çok büyük sayıların doğru şekilde saklanması, işlenmesi, dönüştürülmesi gibi işlemler gerekiyor. Bu ağır işler süperbilgisayarların bile sınırlarını zorluyor, dolayısıyla da onların performansını test etme imkânı veriyor. Programları hazırlarken de büyük hesaplama işlerini yapabilmek için bilgisayarları nasıl verimli kullanabileceğimizi öğreniyoruz ve bu bilgiyi başka hesaplama problemleri için kullanabiliyoruz.

Pi’yi hesaplatarak bir bilgisayarda üretim hatası olup olmadığını da test edebiliriz. En ufak bir hata hesabın sonucunun yanlış olmasına yol açacaktır. Elde edilen sonucu bağımsız bir hesabın sonucuyla karşılaştırdığımızda arada fark görüyorsak, işlem birimlerinde bir sorun olduğundan şüphelenebiliriz. Sözgelişi 1986′da Cray-2 süperbilgisayarlarındaki bir donanım hatası Pi hesaplamaları ile ortaya çıkarıldı.

Pi için gereken trilyonlarca basamaklık aritmetik işlemleri, verimli aritmetik algoritmaları üretilmesine de vesile oldu. Sözgelişi, büyük sayıların çarpımı için, Fourier dönüşümüne dayalı özel bir algoritma, ilkokulda öğrendiğimiz çarpmaya göre çok daha hızlı sonuç veriyor. Bu ve benzeri algoritmaların bilimsel hesaplamada Pi’nin ötesinde birçok kullanım alanı var.


Pi, matematiksel bilimlerde sık sık, bazen de çok şaşırtıcı bir şekilde karşımıza çıkar. İşte bunlardan bir seçki.

  • Kare sayıların terslerinin toplamı: \frac{1}{1^2} + \frac{1}{2^2} + \frac{1}{3^2} + \ldots = \frac{\pi^2}{6}
  • Rastgele seçilen iki tamsayının ortak böleni olmaması ihtimali, yukarıdaki toplamın tersine, yani \frac{6}{\pi^2} \approx 0.61 değerine eşittir.
  • Sadece tek sayıların karelerinin terslerinin toplamı: \frac{1}{1^2} + \frac{1}{3^2} + \frac{1}{5^2} + \ldots = \frac{\pi^2}{8}
  • Benzer şekilde
    \frac{1}{1^4} + \frac{1}{2^4} + \frac{1}{3^4} + \ldots = \frac{\pi^4}{90}
    \frac{1}{1^6} + \frac{1}{2^6} + \frac{1}{3^6} + \ldots = \frac{\pi^6}{945}
    ve saire. Genel olarak, tamsayıların çift kuvvetlerinin terslerinin toplamı, Pi’nin aynı kuvvetine orantılıdır. Bu toplamların genel hali Riemann zeta fonksiyonu olarak bilinir.
  • İstatistikteki ünlü çan eğrisinin altında kalan alan Pi’nin kareköküne orantılıdır:
    \int_{-\infty}^{\infty} e^{-x^2} \mathrm{d}x = \sqrt{\pi}

    canegrisi

    Çan eğrisi ve altında kalan alan.

  • Matematiğin en güzel formüllerinden biri dört temel sayıyı birleştirir
    e^{i\pi} + 1 = 0
    Burada i birim sanal sayı, yani \sqrt{-1}, e=2.718.. ise neredeyse Pi kadar meşhur başka bir matematiksel sabittir.
  • Buffon iğnesi: Zemine düzgün aralıklarla paralel çizgiler çizdiğinizi varsayın, ve uzunluğu çizgiler arasındaki mesafe kadar olan bir iğneyi yere atın. İğnenin çizgilerden biriyle kesişme ihtimali 2/\pi olur.

    BuffonNeedle_700

    Buffon iğnesi: Rastgele fırlatılan iğnelerin kaç tanesinin çizgileri kestiğine bakarak Pi sayısı tahmin edilebilir. (Wolfram MathWorld)


Pi’nin ortaya çıktığı belki en garip yer, bir duvarda sonlanan bir hat üzerinde hareket eden iki topun çarpışmalarının sayısındadır. Topların biri ağır, öbürü daha hafif olsun. Hafif top başlangıçta durmaktadır, ağır top ise ona doğru hızla gelmektedir. Çarpıştıklarında hafif top hızla ileri itilir, ağır top ise biraz yavaşlar. Hafif top duvara çarparak geri gelir, ağır topla tekrar çarpışır, geri yansır, ağır top birazcık daha yavaşlar. Ardarda gelen çarpışmalardan sonra ağır top sonunda duracak ve geri dönecektir.

carpisantoplar

Çarpışan toplar: Ağır top (yeşil) sağdan gelip duran hafif (kırmızı) topa çarpar. Hafif top ilerler, duvardan seker, ağır topa tekrar çarpar, tekrar duvara doğru döner.

Ağır topun durmasına kadar kaç çarpışma gerektiği tabii topların kütle oranlarına bağlı. İki topun kütlesi eşitse sadece üç çarpışma olacaktır: Toplar çarpışır, birinci top durur; ikinci top duvara çarpıp döner; iki top yine çarpışır, ikinci top durur, birincisi ters yöne uçar gider.

Matematikçi Gregory Galperin, çok özel kütle oranları kullanılırsa, çarpışma sayılarının Pi’nin rakamlarını verdiğini ispatladı. Eğer birinci cisim ikincinin 100^N katı kütleye sahipse, çarpışma sayısı Pi’nin ilk N+1 basamağıyla yazılan sayı kadar olur.

Sözgelişi, kütleler aynıysa (yani N=0 ise), toplam 3 çarpışmadan sonra birinci top uzaklaşıp gider. Ağır top hafifin 100 katı ağırlıktaysa (yani N=1) ise toplam 31 çarpışma, 10 000 katı ağırlıktaysa toplam 314 çarpışma gerçekleşir, ve böyle gider.

Ağır top olarak Dünya’yı, hafif top olarak da küçük bir kum tanesini alsak, Pi’nin ancak ilk onbeş basamağını elde ederiz, yani bu yöntem Pi’yi hesaplamak için kullanılamaz. Yine de sonucun güzelliği hayranlık uyandırıcı.

Kaynaklar

KELVIN DARWIN’E KARŞI – DÜNYA’NIN YAŞI TARTIŞMASI

$
0
0

kelvindarwin

Charles Darwin’in 1859′da Türlerin Kökeni‘ni yayınlamasının ardından evrim teorisi şiddetli saldırılara maruz kaldı. Bu saldırılar sadece muhafazakâr kesimden gelmiyordu. Dönemin en önde gelen fizikçileri, Dünya’nın sadece 20 milyon yıl yaşında, yani evrime imkân vermeyecek kadar genç olduğunu hesaplamışlardı. Biyolog ve jeologlar ile fizikçiler arasındaki uyuşmazlık 20. yüzyılın başına kadar sürdü.

kelvindarwin

William Thomson/Lord Kelvin (solda) ve Charles Darwin. (Wikipedia)

Lord Kelvin

Ondokuzuncu yüzyıl İngiltere’sinde, isimleri bugün temel ders kitaplarımıza yerleşmiş birçok bilimci yetişti. Bunlardan en önde gelenlerinden biri, ömrünün sonuna doğru Lord Kelvin ünvanını alacak olan William Thomson (1824-1907) idi.

Thomson 10 yaşında, babasının da hocalık yaptığı Glasgow Üniversitesi’nde eğitime başladı. O dönemde İskoçya üniversitelerinde küçük yaşta eğitime başlamak yaygındı. Genç Thomson Glasgow’da Fransız matematiği ve fiziğini öğrenme fırsatına dört elle sarıldı. Özellikle Fourier’nin Isının Analitik Teorisi kitabını hatmetti. 1841′de, 17 yaşındayken yazdığı ilk makaleleri Fourier’nin çalışmalarıyla ilişkiliydi.

Thomson 1841′den 1845′e kadar Cambridge’de matematik eğitimi gördükten sonra Paris’e kısa bir ziyaret yaptı. O dönemde İngiliz üniversiteleri çok içe kapalıydı ve özellikle Fransa’da geliştirilen güçlü analiz yöntemlerinden habersizdiler. Thomson bu matematiksel yöntemlerin Britanya’ya aktarılmasında kilit rol oynadı. Paris’teyken Sadi Carnot’nun (1796-1832) termodinamik biliminin başlangıcı sayılan çalışmasından haberdar oldu.

Paris’ten döndükten sonra hayatının geri kalan elli üç yılını geçireceği Glasgow Üniversitesi’nde çalışmaya başladı. 1849′da ilk büyük çalışması olan Manyetizmanın Matematiksel Teorisi ‘ni yayınladı. 1851′de yayınladığı Isının Dinamik Teorisi‘nde termodinamiğin yasalarını listeledi, maddenin hareketinin durduğu bir mutlak sıfır sıcaklığı kavramını ortaya attı ve bugün onun adıyla Kelvin ölçeği dediğimiz sıcaklık ölçeğini geliştirdi. 1867′de Tait’le birlikte yazdığı Doğa Felsefesi İncelemesi fiziğin derli toplu olarak sunulduğu bir ders kitabı olarak klasikleşti.

Thomson parlak bir matematikçi olduğu kadar da pratik zekâlı bir uygulamacıydı. Britanya’daki ilk araştırma laboratuvarını kurdu ve deneysel çalışmalar başlattı. Zırhlı gemilerde kullanılabilecek bir mıknatıs başta olmak üzere birçok icat yaptı. İngiltere ve Amerika arasına telgraf döşeme projesinin baş aktörlerinden ve beyinlerinden biriydi, ki bu projeye katkısından dolayı 1866′da şövalye ünvanı aldı. 1892′de asalet ünvanı aldı; üniversite arazisinden geçen Kelvin ırmağının ismini ünvan olarak benimseyerek Lord Kelvin olarak anılmaya başladı. Hayatı boyunca 650 bilimsel makale yazdı, 70 patent başvurusu yaptı.

Kısaca, Lord Kelvin 19. yüzyılın en büyük ve saygın bilimcilerinden biri, fizik konusunda önünde durulmaz bir otoriteydi. Kelvin için bilim sayılara ve sağlam verilere dayanmalıydı. 1883′deki bir konuşmasında yaklaşımını şöyle özetlemişti:

Fizik biliminde herhangi bir konuyu öğrenme yönünde ilk asli adım, sayısal işlem yapma prensiplerini, ve olguyla ilişkili nitelikleri ölçebilmek için uygulanacak yöntemleri bulmaktır. Hakkında konuştuğunuz şeyi ölçebiliyorsanız ve sayılarla ifade edebiliyorsanız onun hakkında birşeyler biliyorsunuzdur. Ama ölçemiyor ve sayılarla ifade edemiyorsanız, bilginiz zayıftır ve tatmin edici olmaktan uzaktır. Bu bilginin başlangıcı olabilir, ama düşüncelerinizde bilim aşamasına ilerlemiş olmazsınız.

Dünya kaç yaşında?

19. yüzyılda yeni yeni serpilmeye başlayan jeoloji bilimi, Dünya’nın kaç yaşında olduğu sorusuna cevap bulamıyordu. 1778′de Fransız doğabilimci Buffon, erimiş demirin soğuma hızının ölçümlerini esas alarak, Dünya’nın 75 000 yaşında olduğunu ileri sürmüştü, ama o zamandan 19. yüzyıl ortasına kadar birbirini tutmayan birçok başka tahmin mevcuttu. Jeolojik süreçlerin yavaşlığına bakarak Dünya’nın çok çok yaşlı olması gerektiğinde herkes hemfikirdi, ama birçok jeolog Dünya’nın yaşını tespit etmenin mümkün olduğundan bile şüphe duymaya başlamıştı.

Thomson gençlik döneminde Dünya’nın yaşı problemini temel fizik prensipleriyle çözmeye girişti. Fikri basitti: Başlangıçta erimiş halde bulunan Dünya zamanla soğuyacaktır. Fırından çıkmış bir patates gibi, dış kabuğunun serinlemiş olmasına rağmen iç kısımları çok sıcak kalmış olacaktır. Derin madenlerde aşağı inildikçe sıcaklığın arttığı zaten bilinen bir şeydi. Eğer Dünya çok çok yaşlıysa, çok uzun zaman boyunca ısı kaybetmiş olacağından derine gittikçe sıcaklık çok az artacaktı. Genç ise tam tersine, sıcaklık metre başına daha çok artacaktı.

1846′da Thomson, madenlerde değişik derinliklerden toplanan verileri bir araya getirerek Dünya’nın 100 milyon yaşında olduğunu ilân etti. Ölçümlerdeki hata paylarını hesaba katınca, bu sayının 20 ila 400 milyon yıl arasında değişebileceğini de ekledi.

Thomson önceden, bağımsız bir yöntemle Güneş’in yaşını da hesaplamıştı. Güneş’in ışımasının (başka bir mekanizma bilinmediğinden) maddenin merkeze doğru çökmesi ile enerji kazanan kimyasal reaksiyonlardan kaynaklandığını varsaydı. Bu yaklaşımla Güneş en fazla 100 milyon yaşında olabileceğini hesapladı. İki ayrı hesabın sonuçları birbirini tutuyordu.

Türlerin Kökeni‘nin yayınlanmasının ardından kopan fırtınaya Thomson da dahil oldu. Elde ettiği sonuçlara göre doğal seçilim ve evrim mekanizması ile bugünkü çeşitliliğe ulaşmak için yeterli zaman olmadığını savundu.

Thomson evrime inanmıyordu, ama o dönemin yaratılışçılarıyla aynı kafada olduğunu söylemek doğru olmaz. Her şeyden önce, yaratılışçılar Dünya’nın sadece 6000 yaşında olduğuna inanıyorlardı. Thomson’a göre hayat cansız maddeden ortaya çıkamazdı, ama belki uzaydan düşen meteorlar ilk tek hücreli canlıları Dünya’ya taşımış olabilirdi. Thomson’ın Darwin’e itirazları dine değil, fiziğe ve ölçümlere dayanıyordu.

Thomson’ın yüz milyon yıllık tahmini sadece evrimsel gelişim için değil, jeolojik süreçler için de çok yetersiz bir süreydi. Biyolog olmanın yanı sıra seçkin bir jeolog olarak da isim yapmış olan Charles Darwin, İngiltere’deki Weald vadisinin aşınması için üç yüz milyon yıl gerektiğini hesaplamıştı; elbette Dünya çok daha yaşlı olmalıydı.

1860′lardan sonra fizikçiler ve natüralistler (doğabilimciler) arasında bir uçurum oluştu. Taraflar sözlü ve yazılı tartışmalarla fikirlerini çarpıştırdılar. Doğabilimciler gözlemlerine güveniyorlardı, ama mükemmel bir matematikçi olan Thomson’ın çalışmasında bir hata da bulamıyorlardı. Bazıları jeolojinin basit bir matematiksel modele uydurulamayacak kadar karmaşık olduğunu ileri sürdüler (tamamen haksız da sayılmazlardı).

Darwin 1869′da Alfred Wallace’a şöyle yazdı: “Thomson’ın Dünya’nın yaşına dair görüşleri uzun zamandır en büyük dertlerimden biridir.” 1871′de aynı sıkıntı devam ediyordu: “Eksik halkalar hakkında şimdiye kadar söylediklerimden daha fazla birşey söyleyemem. Silüryen öncesi zamanlara bel bağlasam, Sir W. Thomson korkunç bir hayalet gibi karşıma dikiliyor.

Evrimsel biyologların sözcüsü Thomas Huxley ise basitçe, Dünya yüz milyon yaşındaysa, evrimin daha hızlı işlemesi gerektiğini söyledi. Herkes bu çözümü kabul etmedi. Zaten, yeni verilerle Thomson Dünya’nın yaşı konusundaki tahminini gitgide aşağı çekti, ta ki sonunda 20 milyon yıla inene kadar. Bu kadar genç bir Dünya ile jeolojik verileri bağdaştırmak mümkün değildi.

Radyometrik tarihleme

Dünya’nın yaşı tartışması bir sonuca ulaşmadı, hatta yirminci yüzyılın başına kadar sürüp gitti. Ancak yeni yüzyılın keşifleri yepyeni yöntemler geliştirilmesini sağladı.

Bugün, Dünya’nın yaşı için kabul edilen değer dört milyar beşyüzkırk milyon. Thomson’un en cömert tahmininden kat be kat fazla. Bu önemli sonucu elde etmek ancak 19. yüzyılın sonunda radyoaktivitenin keşfedilmesiyle mümkün oldu.

Radyoaktivite bazı elementlerin atom çekirdeklerinin, istikrarsız olmaları sebebiyle parçalanıp, yeni ve daha hafif elementlere dönüşmeleridir. Radyum, uranyum gibi birçok ağır element radyoaktiftir. Ama karbon gibi hafif elementlerin de bazı izotopları (aynı kimyasal özelliğe sahip ama çekirdeğindeki nötron sayıları farklı olan halleri) radyoaktif olabilir. Radyoaktif bir atom çekirdeğinin ne zaman parçalanacağını bilemesek de, elimizde birçok atom varsa, bu atomların belli bir zaman sonra ne kadarının ortadan kalkacağını bilebiliriz. Her radyoaktif maddenin azalması yarı ömür denilen bir sayıyla gösterilir. Sözgelişi karbon elementinin 14 ağırlıktaki izotopunun yarı ömrü 5370 yıldır. Bunun anlamı, bugün elinizde bir milyar karbon-14 atomu varsa, 5370 yıl sonra beşyüz milyon, 10740 yıl sonra ikiyüzelli milyon tane atom kalacağıdır.

Başka elementlerin yarı ömürleri çok daha uzun olabilir. Sözgelişi, uranyumun en yaygın izotopu olan uranyum-238′in yarı ömrü 4.5 milyar yıl, daha nadir bir izotopu olan uranyum-235′in yarı ömrü ise 704 milyon yıldır.

Radyoaktif bozulma dış etkilerden tamamen bağımsızdır, bir atom takvimi gibi işler. Elinize aldığınız bir taş parçasında belli bir radyoaktif elementten başlangıçta kaç tane atom olduğunu biliyorsanız (veya tahmin edebiliyorsanız), ve şu anda kaç tane kaldığını ölçerseniz, taş parçasının kaç yaşında olduğunu tespit edebilirsiniz.

Veya tersine, radyoaktif bozulma sonucunda ortaya çıkan elementten kaç tane atom olduğunu da sayabilirsiniz. Bazı izotoplar sadece radyoaktif bozulmayla elde edilebildiği için, başlangıçta kaç atom olduğunu bilmenize bile lüzum kalmaz.

Yeryüzünün çeşitli yerlerinden toplanan kayaların ve göktaşlarının, radyometrik analizle incelenmesi sonucunda Dünya’nın milyarlarca yıllık bir tarihi olduğu artık oybirliğiyle kabul edildi. Ay’dan getirilen taş numuneleri de bu sonucu destekledi. Böylece konu kapandı, tartışma bitirildi. Artık Dünya’nın gözlenen jeolojik ve biyolojik süreçlere bol bol fırsat verebilecek kadar yaşlı olduğunu biliyoruz. Hatta, Dünya tarihinde birçok kitlesel yokolma yaşandığını (dinozorlarınki bunlardan sadece bir tanesiydi), ve hayatın bu yokolmaların ardından tekrar tekrar çeşitlenip yayıldığını da biliyoruz.

Kim haklı çıktı?

Bilimsel tartışmalara bir boks maçı gibi bakarsak, Kelvin’in haksız olduğunu, jeolog ve biyologların ise öngörülü davranıp haklı çıktıklarını düşünebiliriz, ama bu yanlış bir değerlendirme olur. Bugünden geriye baktığımızda, Kelvin’in hakikaten bazı yanlış varsayımlarda bulunduğunu görüyoruz (aşağıda bunlardan bahsedeceğim), ama Kelvin daha sonra yapılacak keşifleri tahmin edemezdi. Zamanının fizik bilgisi (ki tamamına hakimdi) sınırlarında çalışmak zorundaydı.

Kelvin çok daha önemli ve çığır açıcı bir iş yaptı: Temel fizik prensiplerini uygulayarak karmaşık bir sistemi basitleştirilmiş bir teorik model ile tasvir etti, ve modeli elindeki verilere göre ayarlayarak matematiksel bir sonuç elde etti. Neden olduğu tartışma jeologları da benzer yöntemler kullanmaya teşvik etti. Sonuç olarak bilimsel çalışmaların çıtasını yükseltmiş oldu, ki bu haklı veya haksız çıkmasından daha önemliydi.

Kelvin radyoaktiviteyi bilseydi fikri değişir miydi?

Olan biten bu kadar, ama yeri gelmişken, bilimsel tartışmaların bugünden geçmişe bakarak hikâye edilmesi hakkında da birkaç söz etmeye değer.

Bu tür tartışmalarda sık sık “efsane”ler yaratılır ve gerek ders kitaplarında, gerekse popüler kitaplarda tekrar tekrar anlatılırlar. Bu efsanelerden biri de, Kelvin döneminde bilinmeyen radyoaktivitenin yerküreyi ısıtacağını hesaba katarsak Kelvin’in tahminini düzeltebileceğimizi ve milyarlarca yıllık bir sonuç elde edeceğimizi söyler. Dünya’nın yaşı tartışmasını aktaran birçok kitapta bu ifadeyi görürsünüz.

richter_frank-127x153

Frank M. Richter. (Kaynak: American Geophysical Union)

1986′da jeolog Frank M. Richter (Richter ölçeğinin isim babası olan değil) bu efsanenin yanlışlığını gösterdi. Richter, dünyadaki bütün radyoaktif elementlerin yerküreye düzgün olarak dağıldığını varsayarak Kelvin’in hesabını tekrarladı. Elde ettiği sonuca göre, radyoaktivite Kelvin’in yüz milyon yıllık tahminini sadece önemsiz bir miktarda değiştirebilirdi.

Yani Kelvin radyoaktif elementler hakkında bugünkü bilgimize sahip olsaydı da tahminini değiştirmezdi.

Zaten Kelvin radyoaktiviteden habersiz değildi. Ömrünün sonuna kadar yeni keşifleri takip etti. Ünlü atom fizikçisi Ernest Rutherford, radyoaktif atomların parçalanmasıyla, atom içinde saklı enerjinin açığa çıktığını ilk keşfedenlerdendi. 1904′de, Kelvin’in de katıldığı bir toplantıda bazı güncel sonuçları sundu. Rutherford o günü şöyle aktarıyor:

Loş odaya girdiğimde, dinleyiciler arasında Lord Kelvin’i hemen farkettim ve Dünya’nın yaşına dair konuşmamın son kısmındaki, onunla çelişen görüşlerim yüzünden başıma iş açılacağını idrak ettim. Derin uykuya dalmasıyla rahatladım ama önemli noktaya geldiğimde ihtiyar kuş doğruldu, bir gözünü açtı ve bana kötü bir bakış fırlattı! Ani bir ilhamla, Lord Kelvin’in yeni bir ısı kaynağı keşfedilmemesi şartıyla Dünya’nın yaşını belirlediğini söyledim. Bu kehânet bugün konuştuğumuz konuyla, radyumla ilgili. Ve gördüm ki ihtiyar delikanlı bana gülümsedi.

Doğru cevabın radyoaktivitede gizli olduğuna dair efsane, Rutherford’un sık sık aktarılan bu anısından kaynaklanmış gibi görünüyor.

Ancak Kelvin radyoaktiviteden haberdar olduktan sonra hesaplarını baştan yapmadı. Dünya’daki radyoaktif malzemenin Dünya’yı ısıtmakta yeterli olmadığını savundu. O zamanki bilgiler çerçevesinde haklıydı. Radyum hem çok nadirdir, hem de yarı ömrü sadece 1600 yıldır, milyonlarca yılın yanında bir göz açıp kapama süresi. Uranyum ve toryum gibi daha uzun yarı ömürlü ve daha yaygın, dolayısıyla yeryüzünü ısıtmakta daha fazla rol oynayan elementler daha sonra keşfedildi. Öte yandan, Richter’in gösterdiği gibi, radyoaktif elementler Dünya’yı yeterince ısıtmayacaktır.

Peki Kelvin’in yanlışı burada değilse neredeydi?

Hatalı varsayım

Kelvin’in asıl hatası yerküreyi kaldırım taşı gibi tekdüze bir cisim olarak ele almasıydı. Bugün biliyoruz ki, yerkabuğunun altında çok kalın bir manto tabakası mevcut. Bu manto tabakasında bulunan malzeme çok koyu bir sıvı gibi, uzun zaman ölçeklerinde akar ve hareket eder. Merkezdeki yüksek sıcaklık sebebiyle mantodaki magma, bir tencerede ısınan süt gibi yukarıya doğru yükselir, yerkabuğuna gelince daha yükselecek yeri kalmadığı için yanlara döner, ve tekrar aşağı iner. Yerkabuğu plakalarını hareket ettiren, depremlere sebep olan mekanizma da budur.

manto_akisi

Mantodaki konveksiyon akışının şematik görüntüsü. Kaynak: Wikipedia.

Magmanın aşağı yukarı hareketi mantoyu karıştırır, ve manto içinde sıcaklığın düzgün dağılmasını sağlar.

Kelvin ısı iletiminin bu karışmayla sağlanabileceğini hesaplarına dahil etmemişti, o yüzden onun matematiksel modelinde sıcaklık Dünya’nın merkezinden dışına doğru düzenli olarak azalıyordu. Ama eğer yerkabuğunun altındaki malzeme sürekli karışıyorsa, çekirdek ile yerkabuğu arasındaki derinliklerde sıcaklık değişmemeliydi. Bu da işleri çok değiştirebilirdi.

Bu durumu incelemeyi Kelvin’in eski asistanlarından John Perry akıl etti. Perry, Kelvin ile aynı verileri kullanarak gerekli hesaplamaları yaptığında Dünya’nın iki milyar yaşında olmasının mümkün olduğu sonucuna vardı. Sonuçlarını 1895′de Nature dergisinde yayınladı.

kelvinvsperry

Kelvin ve Perry’nin varsayımlarıyla sıcaklığın derinliğe göre değişimi. Görünürlük için kabuğun kalınlığı abartıldı. Solda: Kelvin’in varsaydığı gibi Dünya yekpare bir kaya parçası ise merkez çok sıcak, yüzey daha serin olmalı, ve sıcaklık derinlikle düzgün olarak artmalı. Sağda: Perry’nin varsaydığı gibi yerkürenin içinin sürekli karışan bir sıvı olması halinde sıcaklık iç kısımlarda sabit olur, katı dış kabukta ise yüzeye çıktıkça azalır. Bu durumda Dünya uzun bir geçmiş boyunca daha fazla ısı kaybetmiş olur.

Perry’nin yeni hesabı ve eleştirisi çok önemli idi, ama döneminde fazla ses getirmedi ve sonradan unutuldu. Jeologların çoğu basitleştirilmiş matematiksel modellere sırt çeviriyordu; onlara göre jeoloji bu tür modellerle açıklanamayacak kadar karmaşıktı. Bu yüzden Perry’nin çalışması jeologlara ulaşamadı.

John Perry (1850-1920) - Wikipedia

John Perry (1850-1920) – Wikipedia

Perry’nin hesabı fizikçiler arasında da yankı uyandıramadı. Yerkürenin içinin yumuşak ve akışkan bir malzemeyle dolu olması Kelvin’in aklına yatmadı. Kelvin büyük bir otorite olduğundan, onun bir fikre inanmaması başkalarının da inanmaması için yeterli bir sebepti.

Kelvin elbette Perry’nin varsayımını körcesine değil, bilimsel sebeplerle reddetti. Perry karşı argümanlar sunsa da Kelvin’in fikri değişmedi. Kelvin muhafazakârca inatçılık mı yapıyordu, yoksa Perry’yi ikna edici bulmuyor muydu, orasını bilemiyoruz.

Bilinen şu: Dünya’nın yaşı tartışması, jeologların Kelvin’in hesabında bir yanlışlık bulmaları ile sona ermedi. Apayrı bir yönden gelen bir keşif sayesinde değişik bir tarihlendirme yöntemi geliştirildi, ondan sonra da Kelvin’in hesabının nerede yanlış olduğunun önemi kalmadı. Yorgan gitti ve kavga bitti. Gavroğlu’nun yazdığı gibi “Bilimsel tartışmaların karakteristik özelliği, hiç bir tartışmanın “açık” şekilde sonuçlanmamasıdır“.

Bilim kendini düzeltir ve gerçek eninde sonunda ortaya çıkar, ama bu kendini düzeltme mekanizması her zaman soğukkanlı değerlendirmeler sonucunda haklı olanın tezinin kabul edilmesi şeklinde çalışmaz. Bilginin sınırında çalıştığınızda belirsizlikler çoktur ve kimin haklı kimin haksız olduğunu anlamak o kadar kolay değildir.

Max Planck’ın sözleri ister istemez akla geliyor:

Yeni bir bilimsel gerçek, muhaliflerini ikna edip doğruyu görmelerini sağlayarak değil, bu muhaliflerin eninde sonunda ölüp, o gerçeğe alışık olan yeni bir neslin gelmesiyle kabul edilir.

Kaynaklar

NASA UZAY YOLU’NA MI HAZIRLANIYOR?

$
0
0

Yıldız gemisi Atılgan (Kaynak: Flickr)

Yıldız gemisi Atılgan (Kaynak: Flickr)

Yıldız gemisi Atılgan (Kaynak: Flickr)

Açık Bilim okuru Caner Telimenli, NASA’nın EagleWorks laboratuvarında bir “büküm motoru” (warp drive), yani Uzay Yolu dizisindeki Yıldız Gemisi Atılgan gibi uzayın yapısını bükerek hızlanma sağlayan ışıktan hızlı motorlar üzerinde çalışıldığına dair söylentilerin doğru olup olmadığını sormuş.

NASA web sayfalarında büküm motoru ile ilgili pek fazla doğrudan bilgi bulamıyoruz. Bir süre önce NASA Glenn Araştırma Merkezi’nde “Breakthrough Propulsion Physics” (Çığıraçıcı İtme Fiziği) isimli bir proje sürdürülüyormuş. Bu proje bağlamında yapılan konferanslar ve yayınlarda, ışıktan hızlı ilerlemek için birkaç farklı fikir ortaya atılmış. Fakat pratik uygulama bulunamamış olsa gerek ki, 2008 yılında NASA bu projeyi noktalamış.

Uzay yolculuğu yapmanın en sıkıcı tarafı şu: Yıldızlar birbirinden çok, ama çok uzak. Bir ışık huzmesinin bile birinden diğerine gitmesi binlerce yıl alabiliyor; üstelik hiç bir madde ışıktan daha hızlı gidemez. Eğer uzay yolculuğu yapacaksak, binlerce ışıkyılı mesafeyi kısa zamanda (mesela günler içinde) katetmenin yolunu bulmalıyız. Bilim-kurgu eserlerinde “hipermotor” veya “büküm motoru” denen hayali icat işte bu işe yarar.

Mesele sadece hızlı gitmek de değil, bir inceliği daha var: Göreliliğe göre başta dünyada bulunan iki kişiden biri uzay gemisine binip ışık hızına yakın hızlara çıkarsa, o kişi için zaman dünyada kalana göre daha yavaş geçer. Geri döndüğünde kendisi birkaç yıl yaşamıştır, ama dünyada belki binlerce yıl geçmiştir. Yolculuk yöntemimiz bu “zaman açılması” problemini de ortadan kaldırmalı.

NASA’da bir araştırmacı büküm motorunun yapılmasının mümkün olduğunu savunuyor. Houston’daki Johnson Uzay Merkezi’nde çalışan Harold White, çalışan bir ışıktanhızlı büküm motoruna henüz uzak olsak da, bu motoru mümkün kılacak bir etkiyi küçük ölçekte üretebileceğimize inanıyor.

Dr. Harold "Sonny" White (Kaynak: Wikipedia)

Dr. Harold “Sonny” White (Kaynak: Wikipedia)

Bilim-kurguda hayal edilen büküm motorunun nasıl mümkün olabileceğinin teorisini 1994’de Meksikalı fizikçi Miguel Alcubierre (Uzay Yolu dizisinden ilham alarak) ortaya attı. Genel görelilik denklemlerine dayanan bu teoriye göre, bir uzay gemisi etrafındaki uzay-zaman dokusunu özel bir biçimde “bükebilir”, ve bunun sonucunda uzayda ilerleyen bir “kabarcık” oluşur. Bükümü oluşturan gemi, dalgayla ilerleyen bir sörfçü gibi, bu kabarcığın içinde kalır. Kabarcık, ön kısımdaki daralma ile arka taraftaki genişlemenin oranına göre değişen hızlarda ilerler. Yeterli büküm sağlanırsa ışık hızını da aşabilir. Ancak, kabarcık içinde kalan maddenin hareketi kabarcığın içinde ışık hızını aşmadığı için, özel görelilik ihlâl edilmez.

Dört boyutlu büküm alanının iki boyutlu temsili (Kaynak: Wikipedia)

Alcubierre’nin denklemlerine göre bu şekilde yaratılan bir büküm yapısı zaman açılması sorununu da ortadan kaldırır. Uzay gemisinin takvimi gezegenlerin takvimine uyacaktır. Kaptan Kirk yolda bir ay geçirdikten sonra dünyaya döndüğünde, dünyada da sadece bir ay geçmiş olduğunu görecek.

Harika, değil mi? Ama bir sorun var: Alcubierre motorunu oluşturabilmek için “negatif enerji” oluşturmak gerekiyor. Bu, reikicilerin çakracıların “negatif enerji”si değil; kuantum fiziğine dayalı bir kavram. Kütle çekiminde negatif enerji, maddelerin birbirini çekmesi yerine itmesi demek oluyor. Uzayı genişleterek uygun bükümün oluşması için inanılmayacak kadar büyük miktarda negatif enerjiye ihtiyaç var. Öyle böyle değil; evrenin kütlesinin tamamını E=mc^2 uyarınca negatif enerjiye çevirirseniz, küçük bir gemiyi galaksinin öbür tarafına götürmek için gereken enerjinin trilyonda birini sağlarsınız ancak. O yüzden Alcubierre motorunu uygulamanın imkânsız olduğu kabul ediliyor.

Ancak Harold White bu işi çok daha düşük enerjilerle başarabileceğine inanıyor. Bir geminin taşıyabileceği kadar küçük, bir tonluk bir motor ile uzayın bükülebileceğine kâni. Yaptığı küçük ölçekli laboratuvar deneylerinin amacı şimdilik çalışan bir büküm motoru inşa etmek değil, çevresindeki uzayı belli belirsiz bükebilmek sadece. Bunu başarabilirse yöntemin işe yaradığını ispatlamış olacak ve muhtemelen bir mühendis ordusunun başına geçerek prototip bir gemi yapmaya koyulacak.

Proje şimdilik gizli yürütülüyor. White, basına konuşsa da yaptığı işin ayrıntılarını paylaşmamaya dikkat ediyor. Geçen yıl yaptığı bir konuşmada deneyiyle ilgili bazı bilgiler vermişti ve çalışmayı özetleyen makalesine NASA’nın teknik raporları sitesinden ulaşılabiliyordu. Bugün o link çalışmıyor, yerine “makalenin içeriğinin ABD’nin ihracat yasalarına aykırı olup olmadığının incelendiğine” dair bir not çıkıyor. Ama burası internet, açıklanmış bir şeyi tekrar gizleyemiyorsunuz. Merak edenler, raporu şuradan okuyabilir.

Büküm motoru projesi bir esrar perdesi altında. NASA bu projeyi gerçekten bir yere varacağını düşündüğü için mi gizli tutuyor, yoksa uçukluğu yüzünden alay konusu olmamak için mi, bilemiyoruz. Ama teorik fizikçiler bu projeye pek fazla şans vermiyorlar. Gerçekleştirmenin imkânsıza yakın olmasını bir yana bıraksak bile, çalışan bir büküm motorunun başka felaketlere yol açabileceği öngörülüyor. Söz gelişi, kabarcığın içindekilerin dışarıyla iletişimlerinin kesileceği, dolayısıyla hedeflerine vardıklarında duramayacakları düşünülüyor. Dahası, kabarcık hedefe vardığında yavaşlamaya geçse bile, uzun yolu boyunca üzerinde biriken atomlar ve parçacıklar kuvvetli bir radyasyon sağanağı olarak ileri doğru fışkıracak ve muhtemelen önünde bulunan canlıları yok edecek. Yabancı bir uygarlığa merhaba demek için daha kibar bir yol bulsak iyi olur.

Kaynaklar

  1. Miguel Alcubierre, The warp drive: hyper-fast travel within general relativity.
  2. Harold White, Warp Field Mechanics 101.
  3. Warp Factor – Popular Science, Nisan 2013.
  4. How NASA might build its very first warp drive – io9
  5. Alcubierre Drive – Wikipedia

ÜÇ AŞAĞI BEŞ YUKARI: FERMİ TAHMİN SANATI

$
0
0

uzum

Dünyanın ilk atom bombası 16 Temmuz 1945 sabahı şafak sökmeden hemen önce, ABD’de bir çölün ortasında patlatıldı. Sabahın alacakaranlığını birdenbire aydınlatan korkunç patlamanın ürettiği olağanüstü enerji ile aniden ısınan hava, dışarıdaki soğuk havada hızla ilerleyen bir şok dalgası oluşturmuştu. Denemeyi izleyen asker ve bilimci grubunun içindeki ünlü fizikçi Enrico Fermi, avucunda tuttuğu kağıt kırpıntılarıyla şok rüzgârının gözlem yerine ulaşmasını bekliyordu.

Patlamadan yaklaşık 40 saniye sonra hava darbesi bana ulaştı. Şok dalgasının geçmesinden önce, geçişi sırasında, ve sonrasında yaklaşık 180 cm yüksekten küçük kâğıt parçaları bırakarak dalganın şiddetini tahmin etmeye çalıştım. O sırada rüzgâr olmadığı için şok dalgasının geçişi sırasında kâğıt parçalarının düşene kadar ne kadar ilerlediklerini açıkça gözleyip ölçebildim. Yaklaşık 2 ½ metre kadar ilerlediler ve bu bilgiyle şok dalgasını üreten patlamanın on bin ton TNT gücünde olması gerektiğini tahmin ettim.

Fermi bu tahmine ulaşmak için önceden kaba bir hesap yapmış ve bir sayı tablosu hazırlamıştı, böylelikle bu basit deneyle bombanın ürettiği enerjinin ne kadar olduğunu hemen söyleyebilmişti. Patlamadan sonra çevreden alınan numunelerin ayrıntılı analizi sonucunda bombanın 18,6 bin ton TNT gücünde olduğu ortaya çıktı.

Enrico Fermi tahta başında (Wikimedia Commons)

Fermi, fiziki bilimcilerin “mertebe hesabı” dediği yöntemin ustalarındandı. Mertebe hesabının amacı virgülden sonra bilmemkaç basamak doğrulukta sonuçlar üretmek değil, belli bir sayının “üç aşağı beş yukarı” ne büyüklükte olacağını hızlı bir şekilde tahmin edebilmektir. Bu tür akıl yürütmede meselâ 1 ve 3 aynı mertebededir, fakat 1 ve 10 arasında mertebe farkı vardır. Atom bombası örneğinde Fermi’nin basit hesabı ve kaba ölçümleri, doğru cevaba mertebe olarak yakın (iki çarpanı içinde) olduğu için başarılıdır.

Mertebe hesabı matematiksel kesinliği olmayan, biraz keyfi bir yöntem olsa da, araştırmaya başlarken bir yol gösterici olarak çok yararlıdır: Bir araştırma probleminde beklenen sayıların hangi ölçekte olduğunu kestirmemizi sağlar; böylece deney araçlarını nasıl ayarlayacağımıza, simülasyonlarda parametrelerin ne civarda olacağına, analizde hangi matematiksel yöntemleri kullanmamız gerektiğine karar verebiliriz.

Hızlı mertebe hesabı yapma yeteneği en çok, birçok değişik alandan temel bilgileri bir araya getirebilen çok tecrübeli araştırmacılarda bulunur. Sadece azıcık abartarak diyebiliriz ki, yaşlı profesörler kahve içerken bir parça kağıda mertebe hesabı yaparlar, sonra o kâğıdı bir doktora öğrencisine verirler, o da ondan bir tez çıkarır.

Chicago’da kaç piyano akortçusu var?

Fermi, tahmini hesap yeteneğini fizik dışı problemlere de uygulamayı severdi. Chicago Üniversitesi’ndeki derslerinde, makul tahminlerde bulunma sanatına dair kullandığı tipik bir örnek vardı: Chicago’da kaç piyano akortçusu vardır?

640px-Grand_piano_tuner

Piyano akortçusu (Wikimedia Commons)

Elbette bunu bilmek zor; hesaplanabilecek birşey değil. Ama bir dizi makul varsayımla, üç aşağı beş yukarı doğru bir tahminde bulunabiliriz.

Chicago’da beş milyon kişi yaşadığını varsayalım. Her ailede ortalama dörder kişi olsa, 1 250 000 aile vardır. On aileden birinin evinde piyano var desek, 125 000 piyanomuz olur, ve bunların her yıl akort edilmesi gerekir.

Bir piyano akortçusu yılda 50 hafta, haftada 5 gün çalışıyor olsun. Yolda geçirdiği zamanı da hesaba katarak günde 4 piyano akort edebildiğini varsayalım. O zaman bir akortçu bir yılda 50×5×4 = 1000 piyano akort eder. Demek ki talebe yetişebilmek için Chicago’da 125 akortçu olması gerekir.

Bu sonuç kesin değil elbet; elli de olabilir, iki yüz de. Ama meselâ ondan fazla, beş yüzden az olacağı kesin. Tamamen yararsız bir sonuç değil; sözgelişi, akortçular için malzeme satan bir dükkan açacaksanız, dükkânın kendini döndürüp döndüremeyeceğini basitçe tahmin edebilirsiniz.

Piyano akortçusu sayısı gibi sorular Fermi problemleri diye bilinir. Tek bir doğru çözümleri yoktur, cevapları belirsizdir. Zincirleme varsayımlar yapılır, bu varsayımlardaki hataların birbirini götürdüğü umulur. Uzmanlık bilgisinden çok, temel bilgileri yaratıcılıkla birleştirmek gereklidir. Bu yüzden işe alma mülakatları yapanlar bu tür soruları severler.

İşte size teknik alanlara fazla girmeyen Fermi problemlerinden bir seçme.

Zırhlı banka araçları ne kadar para taşır?

Bu belirsiz sorunun tek bir cevabı yok. Aracın ne kadar dolu olduğu, para balyalarının ne kadar sıkı paketlendiğine, banknotların değerine bağlı olarak değişir. Ama diyelim ki para nakil araçlarını sigortalayan bir şirkette çalışıyoruz, ve tahmini bir değer belirlememiz gerekiyor.

639px-Brinks_Geldtransporter_04

(Wikimedia Commons)

Bunun bir yolu aracın iç hacmini kestirmek, taşınan paranın hacmini kestirmek, toplam para hacmini bir banknotun hacmine bölerek kaç banknot taşıdığını bulmak, ve bu sayıyı “tipik” bir banknot değeri ile çarpmak.

Aracın para taşınan kısmının hacmini tam olarak belirlemek zahmetli, ve zaten gereksiz. Diğer varsayımlarımızın hataları da büyük olacak zaten. Amacımız hızlı bir şekilde, doğru mertebede bir cevap elde etmek.

Aracın içine paranın yanı sıra bir veya iki güvenlik görevlisi de gireceğine göre, boyutları bir metreden fazla olmalı. Öte yandan otobüs kadar büyük olmayacak, yani boyutları on metreye çıkmıyor. Yaklaşık olarak 2m × 2m × 2m boyutlarında olduğunu varsayabiliriz, o zaman iç hacim 8 m3 olur.

Paralar genellikle bu hacmin tamamını kaplamayacaktır. Meselâ sekizde birini kaplıyor olsun (iç hacmi boydan, enden ve derinlikten ikiye bölün, paralar parçalardan birini doldurur); yani taşınan paranın hacmi 1 m3 = 106 cm3.

106 cm3 hacme kaç banknot sığacağını bulmak için bir banknotun hacmini kestirelim. Banknotlar yaklaşık 16 cm boyunda ve 6 cm enindedir. Ya kalınlıkları?

Yanımdaki yazıcıya koyduğum  bir top kâğıtta 500 yaprak var, ve yüksekliği yaklaşık 5 cm. O zaman bir yaprak kâğıdın kalınlığı 0,01cm olur, banknot da yaklaşık olarak aynı kalınlıktadır. Böylece bir banknotun hacmi 15 cm × 6 cm × 0,01 cm ~ 1 cm3 olacaktır.

Burada 0,9 değerini 1′e yuvarladım. Mertebe hesabında küsuratla yorulmaya lüzum yok.

Böylece 106 cm3 / 1cm3, yani bir milyon banknot taşındığını kestirebiliriz. Peki bu kaç para ediyor? Banknotların ortalama değerini kestirmeliyiz.

Banka nakil aracının 5 TL’lerle dolu olduğunu düşünmek pek makul değil, bankaların daha büyük kupürlere ihtiyacı olur. Tamamen 200 TL’lerle dolu olması da akla yakın gelmiyor. İşlemler için her türlü kupürden bulunması lâzım. Üstelik 20 TL ve 50 TL’lik banknotlar, 100 TL ve 200 TL’liklerden daha çok kullanılır. Tipik bir banknotun 20 TL olduğunu varsayarsak, araçta 20 milyon TL taşındığını tahmin ediyoruz. Büyük para!

Tahminimizin doğru mertebede olup olmadığını nasıl kontrol ederiz? Meselâ Türkiye’de 2011 yılında gerçekleşen bir zırhlı araç soygununda çoğu Avro ve ABD doları olmak üzere iki milyon TL‘lik para çalınmış. Yirmi milyondan çok az. Tahminimiz aşırıya mı kaçtı acaba?

Habere göre soygunu yapan kişi yaya olarak kaçmış, yani parayı üstünde taşımış. 1 m3 hacminde paranın ağırlığı ne kadardır? Elde taşınabilir mi?

Kütleyi bulmak için hacmi yoğunlukla çarparız. Paranın yoğunluğu yaklaşık suyun yoğunluğu kadardır, yani 1000 kg/m3. (Nereden biliyoruz? Kağıt kuruyken suda yüzer, ıslanınca yavaşça batar.) Yani 1m3 paranın kütlesi yaklaşık bir tondur. Bir insan bu ağırlığı bırakın alıp götürmeyi, kaldıramaz bile.

O zaman ya araç tam dolu değildi, ya da hırsız sadece taşıyabileceği kadarını aldı. Çalınan paranın en fazla 50 kg olduğunu düşünelim (araçta tahmin ettiğimiz miktarın yirmide biri). Dahası paraların çoğu döviz ve muhtemelen büyük kupürler, yani yükte hafif pahada ağır. TL olsalardı değerleri iki milyon değil de, belki bir milyon olurdu. Yirmiyle çarparsak, ilk tahminimiz olan yirmi milyon TL’ye ulaşırız.

Bir kilo üzümde kaç üzüm tanesi vardır?

uzum

(Kaynak: freedigitalphotos.net, image ID: 10039433)

Bunda da yoğunluktan gidebiliriz: Organik maddelerin çoğu sudur. Diğer organik malzemenin de yoğunluğu suya yakın değerdedir. O zaman üzümün yoğunluğunun 1 g/cm3 olduğunu varsayabiliriz.

Bir üzüm tanesinin 2cm çapında bir küre olduğunu varsayalım. Hacim formülünde (4 π r3 / 3)  π’yi 3 alıp, yarıçap r = 1 cm aldığımızda, bir üzüm tanesinin hacmini 4 cm3 olarak buluruz.

Hacim formülünü hatırlamıyorsanız, kürenin hacminin, içine tam oturduğu küpün hacminin yaklaşık yarısı olduğu bilgisini kullanabilirsiniz.

Yoğunluk 1 g/cm3 olduğundan, üzüm tanesinin kütlesi 4 gram olur. Böylece bir kg üzümde yaklaşık 1000g/4g = 250 üzüm tanesi olduğu sonucuna varırız.

Bu sonuç makul mü? Diyet listelerinde 90 gramlık bir porsiyon üzüm 15 iri tane olarak açıklanır, yani tanesi 6 gram. Hesabımız doğru mertebede.

Kitapları rafa yerleştirmek

Büyük bir depremde bir üniversite kütüphanesindeki iki milyon cilt kitap raflardan düştü. Bütün kitapları üç haftada yerine yerleştirebilmek için kaç öğrencinin çalışması gerekli?

Kaynak: Flickr

(Kaynak: Flickr)

Öğrenciler kitapları öylesine kaldırıp koymayacaklar; kataloglama sistemine göre doğru sırada koymaları gerekiyor. O yüzden her kitap için biraz zaman harcayacaklar. Öte yandan, kitapların düştüğü yer bulunmaları gereken raftan çok uzakta değil, o yüzden dolaşmakla zaman kaybetmeyecekler. Bir öğrencinin bir kitabı yerine koymasının birkaç saniye ile bir dakika arasında vakit alacağını kestirebiliriz. O zaman, bir öğrenci bir saatte 60 ilâ 600 kitabı rafa yerleştirebilir demektir.

Bir öğrencinin yaklaşık olarak saatte 200 kitap yerleştirdiğini varsayalım. Bu sayı 60′ın üç katı, 600′ün üçte biri (tahmin sanatında püf noktası iki sınır durumun geometrik ortalamasını almaktır). Günde sekiz saat, haftada beş gün çalışan bir öğrenci üç haftada 3 × 5 × 8 × 200 = 24 000 kitap yerleştirir. Yuvarlak hesap 20 000 diyelim.

İki milyon kitabı üç haftada yerine yerleştirebilmek için 2 000 000 / 20 000 = 100 kişinin çalışması gerekir.

Yaklaşımımızın doğru olup olmadığını nasıl anlarız? Küçük ölçekli benzer bir durum 23 Ağustos 2011 günü ABD’de yaşandı. Güçlü bir depremde, Maryland Üniversitesi kütüphanelerinden birinde 27 000 kitap raflardan düştü . Kütüphaneciler bir gün içinde kitapları yerden toplayıp, zarar görüp görmediklerini kontrol etmek üzere arabalara yerleştirdiler. Bu durumda kitapların uygun sırayla yerleştirilmesi gerekmediği için her kitabın birkaç saniyede kaldırıldığını varsayabiliriz. O zaman bir kişi bir saatte 600 kitap, sekiz saatte 5 000 kitap kaldırabilir. Yoğun çalışan beş altı kişi, veya dinlenerek çalışan on kişi 27 000 kitabı bir iş günü içinde toplayabilir. Bir kütüphanede bu sayıda çalışan bulunması da normaldir.

Bir insandan ne kadar enerji yayılır?

Vücudumuzdan sürekli olarak ısı yayarız. Bu ısı çıktısı, bildiğimiz diğer ısı kaynaklarına göre az mıdır çok mudur? Bir cismin (motor, ampul, ısıtıcı, insan) bir saniyede ürettiği (veya tükettiği) enerji Watt ile ölçülür. Bir cihaz olsaydık, paketimizin üzerine kaç Watt yazarlardı?

(Kaynak: Flickr)

(Kaynak: Flickr)

Tabii gün içinde sürekli hareket eden, bir şeyler taşıyan insanlar daha fazla enerji kullanacaklardır. Ancak, fazla hareket etmeden sakince otursak bile vücudumuz hayati işlemler için bol miktarda enerji kullanır. Bazal metabolizma denen bu enerji kullanma oranı kişiden kişiye değişir, ama yaklaşık bir değer olarak 2000 kalori varsayabiliriz. Diyetisyene gidenler bu sayıya aşina olabilirler.

Gündelik dilde “kalori” denen birim aslında fizikteki kilokaloridir. Yani günlük enerji girdimiz 2 milyon kalori. Bu enerji eninde sonunda ısı olarak dışarı çıkacaktır, böylece ısı çıktımız da günde 2 milyon kalori demektir. Bu az mı çok mu? Başka ısı kaynaklarıyla karşılaştırabilmek için Watt birimine çevirmeliyiz, yani saniyede kaç Joule harcadığımızı belirlemeliyiz.

Bir kalori yaklaşık 4 Joule enerjiye eşittir. Yani toplam enerji çıktımız 8 milyon Joule. Bunu bir gündeki saniye sayısı olan 24×60×60 = 86 400′e bölmeliyiz. Hesap makinesi aramanıza gerek yok, yaklaşık bir hesap yeterli:

8 000 000 / 86 400 ~ 8 000 000 / 80 000 = 100 Joule/saniye = 100 Watt

Yani vücudumuz parlak bir akkor ampul kadar enerji yayıyor. Bir odada oturan onbeş kişi, havayı 1500 Watt’lık bir elektrikli soba kadar ısıtabilir.

Vücudumuzda kaç hücre var?

Kan hücreleri (Kaynak: Flickr)

Kan hücreleri (Kaynak: Flickr)

Vücudumuzun hacmini tahmin etmekle işe başlayalım. Bunu iki şekilde yapabiliriz. Tatlı su dolu bir havuza girdiğimizde vücudumuz hafifçe batar, ama taş gibi batmaz, kolaylıkla suyun yüzünde durabiliriz. Buradan da vücudumuzun yoğunluğunun suya yakın olduğunu, yani 1 g/cm3 olduğunu çıkarabiliriz.

Yoğunluk, kütlenin hacme bölümüne eşit olduğundan, yuvarlak hesap 100 kg’lik bir kütlenin hacmi 100 000g/ (1 g/cm3) = 105 cm3 olur. Yani 0.1 m3.

Başka bir yöntem olarak üç boyuttaki ortalama uzunluklarımızla vücudumuzu bir dikdörtgen prizması olarak görebiliriz. Ortalama boy 170cm, ortalama genişlik 30 cm (kafa, boyun, karın ve bacakların ortalamasını alıyoruz), ortalama derinlik ise 20 cm diyelim. Böylece 170 × 30 × 20 = 102000 cm3 ~ 105 cm3, tekrar aynı sonucu elde ederiz.

Şimdi bir hücrenin büyüklüğünü, oradan da hacmini tahmin edelim.

Gözlerimiz milimetrenin onda biri büyüklükte noktaları seçebilir. Hücreleri göremediğimize göre 0.1mm’den daha küçük olmalılar. Buna karşılık, fazla gelişkin olmayan ilk mikroskoplarla hücreleri görmek mümkün oldu, demek ki çok da küçük değiller. İlk mikroskopların 10 kat ilâ 100 kat büyütme sağladıklarını düşünürsek, hücreler 0.01 mm ilâ 0.001 mm büyüklükte olmalı. Büyük sınırı alalım ve hücrenin 0.01 mm = 10-3 cm olduğunu varsayalım.

O zaman bir hücrenin hacmi yaklaşık 10-3 × 10 -3 × 10-3 = 10-9 cm3 olur. Hücre küre biçimindeyse bu değerin yarısını alırız, ama mertebe hesabında 2 gibi çarpanları hesaba katmıyoruz.

O zaman hücrelerimizin toplam sayısını yaklaşık 105 cm3 / 10-9 cm3 = 1014 olarak buluruz. Her birimizin yüz trilyon mertebesinde hücresi var. Ufak tefek bir kadınsanız belki elli trilyondur, iki metrelik kaslı bir basketbol oyuncusuysanız belki 150 trilyon.

Hücreleri küp değil küre biçimli varsaysaydık yüz değil ikiyüz trilyon bulurduk. Her halükârda büyük bir sayı.

Astronomlar Samanyolu galaksisinde 200 ilâ 400 milyar yıldız bulunduğunu tahmin ediyorlar. Yani, bir bebeğin vücudunda bile yüzlerce galaksideki yıldız sayısı kadar hücre yaşıyor.

Dünyanın kütlesi ne kadar?

NASA/GSFC

(Kaynak: NASA/GSFC)

Dünyanın kütlesini tam olarak belirlemek için etraflı jeoloji ve astronomi gözlemlerinden elde edilen verileri kullanmak gerekli, ama “üç aşağı beş yukarı” taktiğiyle bir tahminde bulunabiliriz.

Dünyanın kütlesini belirlemek için, Dünyanın ortalama yoğunluğu ile hacmini çarpalım.

Suyun yoğunluğu 1 g/cm3, yani 1 cm3 hacimdeki suyun kütlesi 1 gramdır. Her türlü kaya suda batar, yani aradığımız yoğunluk değeri suyunkinden yüksek olmalı. Ne kadar yüksek? Bir sonraki mertebede 10 g/cm3 değeri var. Bu yoğunluğa sahip bir su bardağı (200 cm3) büyüklüğünde bir taşın kütlesi 2 kg olur. Gündelik tecrübemizden bu hacme göre bu kütlenin çok fazla olduğunu biliyoruz. Bu iki mertebe arasında bir değer alalım ve Çok fazla. Bunun yarısını alalım, Dünyanın ortalama yoğunluğunu 5 g/cm3 = 5000 kg/m3 olarak varsayalım.

Eskiden pazarcıların askılı terazide demirden ağırlıklar kullandıklarını hatırlarsınız. Bir kiloluk ağırlık, yaklaşık bir su bardağı büyüklüğündeydi, ki bu da tahminimizi doğruluyor.

Dünya’nın hacmini 4 × R3 formülünden bulalım (π ve 3 birbirini götürdü). Dünyanın yarıçapı R’nin değerini bulmalıyız. Dünya’nın çevresini tahmin edebilirsek, bu değeri 6′ya (yaklaşık 2π) bölüp yarıçapı bulabiliriz.

Okuldaki derslerden Ekvator çevresinin yaklaşık 40 000 km olduğunu hatırlıyorsanız mesele yok. Hatırlamıyorsanız, Türkiye’nin doğu-batı uçları arasının yaklaşık 1500 km olduğunu hatırlıyor olabilirsiniz. Peki bu mesafe Dünya’nın kaçta kaçıdır?

Ramazanda iftar vaktini beklerken, doğu illeri ile batı illeri arasındaki farkın bir saati bulduğunu görmüşsünüzdür. Yani Dünya’nın dönüşü sonucu batı bölgesinin gölgeye girmesi doğudan bir saat sonra gerçekleşiyor. Bir saatlik fark 1500 km ise, 24 saatlik fark 24 × 1500 = 36 000 km olur. Yarıçap da 36 000 / 6 = 6 000 km = 6 × 106 m olarak bulunur.

Böylece hacmi 4 × 63 × 1018 ~ 8 × 1020 m3 olarak buluruz. Yoğunlukla çarparsak Dünya’nın kütlesini 5000 × 8 × 1020 ~ 4 × 1024 kg olarak tahmin ederiz.

Kaynaklardan doğru değerin 5,97 × 1024 kg olduğunu öğreniyoruz, tahminimize çok yakın. Bu kadar fazla varsayım içeren bir hesaba göre fena bir sonuç değil.

Meraklısına sorular

  1. Şu anda oturduğunuz odaya kaç tane pinpon topu sığar?
  2. Bütün ülkede günde kaç bebek bezi kullanılıyor?
  3. Bütün İstanbul’da kaç sokak kedisi yaşıyor?
  4. Bir havlunun, liflerini de hesaba katarsak, toplam yüzey alanı ne kadardır? Evinizin yüzölçümü ile karşılaştırın.
  5. Diyelim ideal kilonuza göre 20 kg fazlanız var. Bu fazla yağla, kaç litre suyu oda sıcaklığından kaynama sıcaklığına kadar ısıtabilirsiniz? (Bir gram yağda 37 000 Joule enerji vardır)
  6. Bir otomobil kullanıldığı süre boyunca (hurdaya çıkana kadar) kaç litre benzin yakar? Bu hacmi bir yüzme havuzuyla karşılaştırın.
  7. Ortalama bir kadının başındaki saçların toplam uzunluğu ne kadardır?
  8. Bir futbol sahasında kaç yaprak çim vardır?
  9. 30 ışıkyılı uzaktaki bir yıldız süpernova haline gelip patladı, ve kütlesinin tamamını her yöne doğru düzenli olarak saçtı. Bu yıldızdan Dünya’ya ulaşan malzemenin ağırlığı ne kadardır?
  10. Ülke çapında işe gidiş-gelişlerde bir günde toplam kaç kilometre yol katediliyor? Bir günde kaç litre yakıt harcanıyor?

Kaynaklar

  1. Lawrence Weinstein ve John A. Adam, Guesstimation. Princeton University Press, 2008.
  2. Peter Goldreich, Sanjoy Mahajan, Sterl Phinney. Order-of-Magnitude Physics: Understanding the World with Dimensional Analysis, Educated Guesswork, and White Lies.
  3. Maryland Üniversitesi Fermi Problemleri sitesi
  4. Richard Rhodes, The Making of the Atomic Bomb. Touchstone, 1986.

ÇIĞLAR, DEPREMLER, DEVRIMLER: KARMAŞIK SİSTEMLER VE GEZİ PARKI

$
0
0

sandpile

Mayıs sonunda başlayan Gezi Parkı Hareketi kısa zamanda bütün ülkeye yayılan bir protesto zinciri haline dönüştü. Milyonlarca insan sokağa çıktı. Polisin şiddetli cevabı sonucunda dört kişi hayatını kaybetti, on bir kişinin bir gözü kör oldu, 60′ı ağır olmak üzere en az 7832 insan yaralandı. Bu satırları yazdığım sırada Gezi Parkı dışında ülke çapında çeşitli barışçı eylemler  devam etmekte.

BM6eJLWCIAAjqMf

Büyük ölçekli olaylar insanları hazırlıksız yakalar. Olayların neden ve nasıl olduğunu anlamaya çalışırız, ama daha önce tecrübe edilmemiş olayları anlamlandırabilmek için yeterli bilgimiz yoktur. Yapabileceğimiz tek şey, gördüklerimizi eski tecrübelerimizle oluşturulan kalıplara sokmaya çabalamaktır, gerekirse olayları bükerek ve budayarak.

Sözgelişi, ilk tepkimiz “üç beş çapulcu” olarak küçümsemek olabilir, çünkü daha önce protestocuların çoğunun küçük ve tesirsiz bir gruptan ibaret olduğunu görmüşüzdür. Tahminimizden daha kalabalık olduklarını farkedersek de, arka planda ipleri çekip çeviren bir kuklacı ararız, “faiz lobisi” veya “büyümemizi istemeyen güçler” gibi. Hiyerarşik örgütlenmeye ve merkezi düşünme tarzına alışıksak, “Bunun arkasında kim var?” gibi, aslında yanlış bir soru sorarız.

Başka yanlış sorular da vardır, meselâ “Yüzbinlerce insan birkaç ağaç için mi eylem yapıyor?” sorusu (ki herkes buna hayır cevabı verir), ve bunun akla getirdiği “Neden daha önce bir şey demediler?” sorusu. Bu iki yanlış soruyu arka arkaya sormak, otomatikman “Demek ki maksat çevre koruma değil; kirli bir amaç var” sonucunu düşündürür. Bu sorular, benzer sebeplerin benzer sonuçlar doğurduğu varsayımıyla sorulur, fakat bu varsayım her zaman doğru değildir.

Bu yazıda, bazı matematiksel modellerden yola çıkarak insan toplumu gibi bir “karmaşık sistem”de bu soruların neden yanlış olduğunu açıklamaya çalışacağım. Yanlış soru ile kastım, sistemin tabiatını anlamamaktan kaynaklanan, yanlış kabullerle oluşturulmuş sorulardır. Meselâ, “atomun çevresindeki elektronun yörüngesi elips midir?” veya “Amerika’ya gitmek için hangi otobüse binmeliyim?” gibi sorular, yanlış sorulardır.

Küçük sebeplerden devasa sonuçlara

Gezi Parkı Eylemleri, küçük ve önemsiz gibi görünen bir konunun çığ gibi büyümesine ilk örnek değil. Brezilya’da hâlâ devam eden büyük protestonun başlamasının çıkış sebebi otobüs ücretinin 3 Real’den 3.20 Real’e çıkarılmasıdır, yani bizim paramızla sadece 17 kuruşluk bir artış. Asıl sebepler ise daha derin: Brezilya halkının süregelen fakirliği, yolsuzluğun bitmemesi, devletin eğitim ve sağlığa yeterli yatırım yapmaması, buna karşılık Dünya Kupası için çok büyük miktarda para harcaması [1]. Benzer şekilde, 2005′teki Paris isyanı, iki göçmen çocuğun polisten kaçarken sığındıkları trafo kulübesinde çarpılıp ölmesiyle başlamıştı [2].

Daha çarpıcı bir örneği hepimiz okul kitaplarından biliyoruz: Avusturya-Macaristan veliahtı Franz Ferdinand’ın 28 Haziran 1914′de suikaste uğraması ile tarihin o zamana kadar gördüğü en kanlı savaş başladı. Ardından gelen gergin barış dönemi sadece yirmi yıl sürdü; ardından dünya ikinci bir vahşetin pençesine düştü. Sonunda barış sağlandığında siyasi güç dengeleri tamamen değişmiş, haritalar yeniden çizilmişti. [5]

sarajevo-murder

Kaynak: Smithsonian Institution

Türkiye’de daha önce de birçok ağaç kesildi. Brezilya’da daha önce de otobüslere zam yapıldı. Paris’te daha önce de göçmenler kaza geçirerek öldü. Devlet adamları daha önce de suikaste kurban gitti. Neden o zaman böyle büyük olaylar olmadı? Brezilya halkı 17 kuruş için mi sokaklarda? Milyonlarca insan, bir veliahtın intikamını almak için mi öldü? Bunların yanlış sorular olduğu bariz.

Neden daha önce olmadı?” sorusunu çağrıştıran da pek çok örnek var. Sözgelişi, Amerika kıtasına 1492′den önce Vikinglerin (ve belki de Çinlilerin) ulaştığını biliyoruz. Neden önceki keşifler, 1492 ile aynı etkiyi yaratmadı? İskenderiyeli Hero 1. yüzyılda buharla çalışan makineler inşa etmişti, 12. yüzyılda El Cezeri gayet karmaşık mekanik cihazlar tasarlamıştı. Neden Sanayi Devrimi çok daha önce başlamadı? Çin’de çok eski zamanlardan beri kullanılan matbaa ve barut, neden sadece Avrupalıların eline geçince dünyayı değiştirdi? Bunlara verilebilecek kısa cevap “Ortam uygun değildi”. Ama ortamı uygun kılan şeyi, olay gerçekleşmeden öngörebilen de yok.

Kritiklik ve Kum Yığını Modeli

Fizikte “karmaşık sistem” terimiyle, birbiriyle etkileşen çok sayıda basit bileşenin toplamı kastedilir. Bu terimin çok kesin bir tanımı yok. Sözgelişi, bir balonun içindeki çok sayıda hava molekülü genellikle bir karmaşık sistem olarak anılmaz. Keza, yüz milyar yıldız içeren bir galaksi de bir karmaşık sistem olarak düşünülmez. Buna karşılık, bir arada uçan kuşlar, yürüyen insanlar, otoyoldaki trafik, Twitter’deki arkadaşlık ağı, beynimizdeki nöron şebekesi karmaşık sistemlerdir. Bir sistemi “karmaşık” yapan şeyin, sistemin bir bütün olarak, bireysel bileşenlerden beklenmeyen davranışlar sergilemesi olduğu kabul edilir.

Karmaşık sistemlerin ilginç modellerinden birisi 1988′de Per Bak, Chao Tang ve Kurt Wiesenfeld tarafından ortaya atıldı [3]. Araştırmacıların amacı, kendi kendini “kritik” adı verilen özel bir duruma getiren sistemleri incelemekti. İlhamlarını şöyle özetlediler:

Basit bir “kum yığını”nı ele alalım. Sıfırdan başlayalım ve kumları tek tek rastgele yerlere koyarak yığına ekleyelim. Yığın büyüdükçe yamacının eğimi artacak. Sonunda eğim kritik bir değere ulaşacak; eklenen kum aşağı kayacak. Diğer taraftan, yığının çok dik olduğu bir durumdan başlarsak yığın kritik açıya ulaşana kadar çökecektir, böylece yığın her an ucu ucuna dengede olacaktır. … Yığın büyüdükçe, çığların azami büyüklüğü de artacak, ta ki kritik noktaya ulaşılıp, sistemin büyüklüğüne varana kadar her büyüklükte çığlar görülene kadar. [3]

sandpile

Bazı fiziksel sistemler, bazı dış parametrelerin değerine göre iki ayrı davranış gösterirler; sıcaklığa göre bir maddenin sıvı ya da gaz olması gibi. Bir demir parçasının mıknatıs özelliği göstermesi veya göstermemesi de, sıcaklığa bağlı olan iki ayrı davranış halidir. Mıknatıslanma için demir atomlarının manyetik momentlerinin birbirine göre aynı hizaya gelmesi gerekir. Yüksek sıcaklıklarda atomlar çok hareketli olduğundan bu hizalanma gerçekleşemez. Başka bir deyişle, atomların hareket enerjisi manyetik momentler arasındaki çekim enerjisinden yüksektir. Sıcaklık düştükçe atomların hareket enerjisi azalır, Curie sıcaklığının (demir için 1043 K) altına düşünce manyetik momentler arasındaki çekim gücü baskın çıkar ve bütün cisim bir anda yekpare bir mıknatıs haline gelir.

Bu iki halin arasında, tam Curie sıcaklığında olanlar da ilginçtir. Sistemde, mıknatıslanması aynı yönde olan bir yığın küçüklü büyüklü öbek oluşur. Bu öbekler birbirine girmiştir, ve her büyüklükte bulunabilirler. Sabit kalmazlar, sürekli olarak değişim içindedirler, ama büyüklüklerinin istatistiği değişmez. Birkaç tane büyük öbeğin yanı sıra, pek çok küçük öbek de bulunur. Bu, mıknatıslanan demirin kritik halidir.

ising

Kritik sıcaklıkta manyetik sistem. İki değişik yönde mıknatıslanan bölgeler siyah ve beyaz ile gösteriliyor. Her büyüklükte öbekler mevcut.

Ancak kritik mıknatıslanma elde etmek için sıcaklığın tam olarak belli bir değere ayarlanması gereklidir, bu da bir kalemi sivri ucunda dengelemek kadar imkânsızdır. Bak, Tang ve Wiesenfeld, idealize bir kum yığınının kendi kendini kritik duruma ayarlayabileceğini düşündüler. Teorik fizikçilerin âdeti olduğu üzere, sadece en önemli özellikleri içeren, karikatür derecesinde basitleştirilmiş bir kum yığını modeli kurdular:

Çok büyük bir satranç tahtası alın (idealde sonsuz, pratikte ise elverdiğince büyük) ve her karesine 0 ve 3 arasında rastgele sayılar atayın. Bu sayılar o noktada kum yığınının ne kadar dik olduğunu temsil eder. Değeri 3 olan kareler “hassas dengede”dir, bir tane daha eklenirse devrilirler.

Rastgele bir kare seçin ve karedeki sayıyı bir artırın. Bu işlem o noktaya kum dökmeye karşılık geliyor. Eğer karedeki sayı 3 ise, o kareye bir eklemek orayı dengesiz hale getirir. Karedeki sayı 0 değeri alır, ve dört yöndeki komşularının her birine 1 eklenir. Bu kural yamaçtaki eğimin belli bir eşiği aşmasıyla kumların dökülmesini ve bir çığın başlamasını temsil eder.

İlk devrilen karenin komşuları da hassas dengedeyse (3 değerindeyse) onlar da devrilir, ve böyle böyle bir zincirleme reaksiyon oluşabilir. Tahtanın kenarındaki karelerden dışarı çıkan taneler kaybedilmiş sayılır.

Bir çığ tamamen bittikten sonra, yeni bir rastgele noktaya bir kum eklenir, aynı işlem tekrarlanır.

Aşağıdaki şekil bir çığın nasıl yayıldığını adım adım gösteriyor. Başlangıçta rastgele dağılmış değerler var, ve bir sonraki ekleme tam ortadaki kareye düşüyor (gri renkli). Ardından bu karedeki değer sıfırlanıyor ve komşularına 1 ekleniyor. Bunun sonucunda doğu ve güney komşular dengesiz hale geliyorlar (üçüncü resimdeki gri kareler). Onlar da sıfırlanıyor ve komşularına bir ekleniyor, ve dengesiz hiç bir kare kalmayana kadar çığ devam ediyor. En son resimdeki siyah bölge dengesiz hale gelip “devrilmiş” kareleri gösteriyor [4].

btwmodeli

Bu idealize modeli daha iyi anlamak için NetLogo ile hazırlanmış kum yığını simülasyonuyla oynayabilirsiniz. Sayfada “Run Sandpile in your browser” linkine tıklayın. Bilgisayarınızda Java (5 veya üstü versiyon) kuruluysa program doğrudan tarayıcınızda çalışacaktır. Önce “Setup Random” düğmesine tıklayarak rastgele bir başlangıç durumu yaratın. “Animate-avalanches” düğmesini “On” durumuna getirin, böylece çığların kolay görülmesini sağlarsınız. “Go” düğmesine basarak bir süre (5-10 dakika) çalıştırın. Özellikle 6000 “ticks”den sonra kum yığını “kritik durum”a ulaşır ve onu bu kritik durumda tutmaya yarayan büyüklü küçüklü birçok çığ görmeye başlarsınız.

netlogo-sandpile

Simülasyonu “Go” düğmesine tekrar basarak durdurabilir, “Go once” düğmesiyle de tek tek kum eklenmesini sağlayabilirsiniz. Yeterli bir süre geçtikten sonra sağ alttaki grafikte, küçük çığların çok, orta boyların daha az, en büyüklerin ise sadece birkaç kere gerçekleştiğini görebilirsiniz (eksenlerde sayıların logaritmaları yazıldığı için “0”ın karşılığı 1, “2”nin karşılığı 100, “4”ün karşılığı ise 10 000 olur).

Modeldeki en önemli nokta şu: Bir yere rastgele eklenen kum çoğunlukla küçük ve önemsiz bir döküntü yaratırken, arada bir, bütün yığın boyunca yayılan devasa bir heyelana yol açıyor. Yeni kum tanesinin nereye düşeceğini bilmediğimizden, her an her şey olabilir.

Kum yığını bize ne söylüyor?

Kum yığını modelinin davranışı üç özelliğe dayanıyor:

  1. Eşik: Her karenin belli bir dayanma eşiği var. Gerçek bir kum yığınında bunun kaynağı taneler arası sürtünmedir. Ama sözgelişi bir insan topluluğunda bu eşik tahammül, çekingenlik veya korkudan kaynaklanıyor olabilir.
  2. Yavaş birikim: Yığına yavaş yavaş kum ekleyerek belli bir “gerilim birikimi” oluştururuz. Çığların oluşma sebebi bu birikimdir.
  3. Etkileşimin ağırlıklı rolü: Her kare, sadece komşusu olan karelerden etkileniyor ve onlardan aldığı “kum taneleri” ile harekete geçme eşiğine ulaşıyor. Dış etkiler modele katılmıyor.

Bu özellikleri birçok başka sistemde de görürüz. Sözgelişi, yerkabuğunu oluşturan plakalar arasında bulunan sürtünme, harekete geçmeden önce aşılması gereken bir eşik oluşturur. Plakaların hareketi yavaş yavaş bir gerilim biriktirir, ve gerilim belli bir eşiği aşınca bir yerel deprem oluşur. Depremin oluşma noktasının hemen yakınındaki noktalarda da gerilim kritik noktadaysa, o noktalarda da deprem olur. Depremleri incelemek için basitleştirilmiş, kum yığını modeline benzer modeller kullanıldı ve bunların simülasyonlarında, depremlerin büyüklüklerine göre ihtimallerinin ne kadar olduğunu veren Gutenberg-Richter yasasıyla matematiksel olarak aynı formda sonuçlar elde edildi. Yani, yerkabuğu kendi kendisini kritik duruma örgütlüyor gibi görünüyor.

Kum yığını modeli, daha genel ifadesiyle “kritik duruma örgütlenme” (self-organized criticality), birçok duruma uygulanabilir gibi görünen, güzel ve çekici bir teori. Per Bak hevesle bu teorinin “doğanın nasıl çalıştığı”nı açıkladığını iddia etmişti [4]. Fakat karmaşık sistemler, adı üstünde, “karmaşık”, ve şimdilik tek bir teoriye sığdırılamıyor. Kritik duruma örgütlenme fikri herhangi bir fiziksel veya toplumsal olayı, meselâ Maxwell denklemlerinin elektromanyetizmayı açıkladığı kuvvette açıklayamıyor.

Bununla beraber, tamamen faydasız bir zihin cimnastiği zannetmek de haksızlık olur. Bu teori, yakın komşularıyla etkileşen, belli bir tahammül eşiğine sahip bireylerden oluşan ve zamanla biriken bir gerilim altında bulunan toplulukların davranışlarına dair bir kavramsal çerçeve sağlar. Bize kesin cevaplar vermese bile, en azından bazı yanlış sorulardan kaçınmamıza yardımcı olur.

Toplumsal tepkilerin kum yığını modelindeki çığlara benzediğini, toplumun “kritikliğe örgütlenen” bir halde bulunduğunu varsayarak, yazının başında sorduğumuz sorulara dönelim.

Daha önce de ağaç kesildi, niye ayağa kalkmadılar?” veya “X olduğunda neredeydiniz?”: Kum tanesinin düştüğü yere göre çığlar küçük veya büyük olur. Daha önceki kum tanelerinin çığ yaratmamış olması etkisiz oldukları, unutuldukları anlamına gelmiyor. Gerilim birikmeye devam etti, ve başka bir kum tanesinin eklenmesiyle daha büyük bir tepki ortaya çıktı.

Bu büyük bir olay, arkasında kim var?”: Birisinin olması gerekmiyor. Eğer birbirinin komşusu olan birçok birey tahammül sınırına gelmişse, birinin “patlaması” diğerlerine de hızla yayılır ve birdenbire büyük bir sosyal hareket başlayabilir. Sosyal gruplarda çığların yayılması satranç tahtası gibi dört yönde değil de, tanışıklık ağları üzerinden olacaktır ve insanların arkadaşları çoğunlukla kendileriyle aynı kafadadırlar. Belli bir kesimin rahatsızlığının sürekli arttığı bir politik ortamda, büyük bir çığın sadece komşular arası etkileşimle oluşması ihtimal dışı değildir.

Bunların hepsi birkaç ağaç için mi?”: Büyük olsun küçük olun bütün çığlar bir tek kum tanesiyle başlıyor, ama devam etmelerini sağlayan şey tanenin düştüğü yerde tahammül sınırına gelinmiş olması. Ağaçlar sadece bardağı taşıran damla.

Gezi Parkı olaylarının kum yığını modelinden bir farkı var: Modelde bir çığ bitmeden yeni bir kum tanesi düşmüyor, ayrıca çığ geçtikten sonra noktaların çoğunun gerilim seviyesi azalıyor. Oysa Gezi Parkı’nda ilk (küçük) çığ daha devam ederken ardarda gelen polis şiddeti yeni çığları tetikledi. Hükümetin sert beyanları da, bireylerin gerilim seviyesini tekrar tahammül sınırına çekti. Bu iki etkenin eylemlerin büyüyerek yayılmasına sebep olduğunu söylersek, sosyal bilimcilerin analizlerine pek fazla ters düşmüş olmayız.

Kaynaklar

[1] Franco A., In Brazil, the mask of democracy is falling

[2] Wikipedia, 2005 civil unrest in France

[3] Bak, Tang, Wiesenfeld, Self-organized criticality. Phys. Rev. A, 38 (1), 1988.

[4] Per Bak, How Nature Works: The Science of Self-organized Criticality. Copernicus, 1999.

[5] Mark Buchanan, Ubiquity: Why Catastrophes Happen. Three Rivers Press, 2001.


BİLGİSAYAR TARİHİNDE ÇIĞIR AÇAN 10+1 İCAT (1.BÖLÜM)

$
0
0

Triode_with_filament_and_cathode_labeled.svg

Bilgi çağının keskin bir başlama çizgisi yok. 19. yüzyılda telgraf ile hızlı bir iletişim ağı oluşturulmuş, ofislerde otomatik tablolama makineleri kullanılır olmuştu. Mühendislik, astronomi ve fizikte kullanılan hesaplama cihazlarının tarihi ortaçağa, hatta antik çağa kadar uzanır. Yine de yirminci yüzyılın önemli bir farkı var: Geçtiğimiz yüzyılda malzeme teknolojisi ve fizikteki keşifler sayesinde, daha önceki özel amaçlı analog ve mekanik cihazların yerini  dijital ve elektronik cihazlar aldı. Bu şekilde genel amaçlı bilgi işleme makineleri büyük ölçekli olarak imâl edilebildi, ve bugünkü bilgi toplumuna yol açılmış oldu.

Bu yazı dizisinde, dijital elektronik bilgisayarların bugünkü haline gelmesini sağlayan bazı önemli kilometre taşlarını listeleyeceğiz.

1. Röle

Röleler, 19. yüzyılın ilk yarısında, uzaklıkla zayıflayan telgraf sinyallerini güçlendirme amacıyla icat edildi. Bir rölenin içindeki elektromıknatıs, terminallerine bağlı kablodan elektrik akımı geçerse manyetik alan üretir. Bu manyetik alan, yakına yerleştirilmiş bir metal kontağı oynatır ve başka bir devrenin kapanarak akım geçirmesini sağlar. Böylece mesafeyle zayıflayan elektrik sinyalleri röle ile yeniden üretilerek ileri doğru aktarılır.

relay

Bobinde akım yokken (solda) 1 ve 5 numaralı terminaller arasında bağlantı yoktur. Bobine akım verildiğinde (sağda) oluşan manyetik alan 8 numaralı ucu bobine doğru çeker, 9 numaralı ucun itmesiyle 10 ve 12 numaralı metaller birbirine değer ve 1 ve 5 numaralı terminaller arasında bağlantı sağlanır. (Kaynak: history-computer.com)

Röleler özünde, uzaktan kumanda edilebilen birer açma-kapama düğmesidir. Birkaç röle uygun şekilde birleştirilerek mantık işlemleri (“ve”, “veya”, “değil”, vs.) yapan elektrik devreleri inşa edilebilir. Bu mantıksal işlem devrelerini kullananarak da 0 ve 1’lerden oluşan dizileri çeşitli şekilde manipüle eden, yani bilgi işleyen yeni devreler ve ayrıca bilgiyi saklamak için bellek devreleri oluşturulabilir. Sayıların 0’lar ve 1’ler ile nasıl kodlanacağı kararlaştırıldıktan sonra, bu sayılarla aritmetik işlemler yapan, iki sayıyı birbiriyle karşılaştıran devreler de yapılabilir.

Bu prensipten hareketle 1930’larda birkaç araştırmacı, birbirlerinden habersiz olarak, röle kullanan hesaplama makineleri yapmaya giriştiler. Bu projelerden birine Bell Laboratuvarları’nda çalışan matematikçi George Stibitz öncülük ediyordu. Stibitz, 1937 yılında rölelerle hesaplama makinesi kurma fikrini geliştirmiş, hatta çok basit prototipler hazırlamıştı. Fikrini Bell yöneticilerine aktardı, ancak fikri pek hevesle karşılanmadı: Röleli bir hesaplama makinesi, o zamana kadar kullanılan mekanik hesaplayıcılara göre çok daha büyük ve hantal olacaktı. Yine de bir prototip oluşturma fırsatı yakaladı. Ortaya çıkan Karmaşık Sayı Hesaplayıcı başarılı oldu ve on yıl boyunca daha ileri modellerle gitgide geliştirildi.

stibitz_portrait2

George Stibitz (Kaynak: history-computer.com)

Harvard’lı fizikçi Howard Aiken, Stibitz’ten bir yıl kadar önce aynı düşünce ile yola çıkmıştı. Aiken’in projesini gerçekleştirmek için Harvard ve IBM arasında 1939’da bir anlaşma yapıldı, ama Harvard Mark I adı verilen cihazın çalışır hale gelmesi 1944’ü buldu. O sırada askere alınmış olan Aiken, donanma tarafından Mark I’i kullanarak hesaplamalar yapmakla görevlendirildi. Grace Hopper ve Richard Bloch gibi bilgisayar tarihine geçmiş isimler, programcılık kariyerlerine o dönemde başladılar. Sonraki yıllarda Aiken donanma ve hava kuvvetleri için daha gelişkin modeller üretti. Bu süreçte Harvard, bilgisayar mühendisliğinde öncü merkezlerden biri haline geldi.

Aiken

Howard Hathaway Aiken (Wikipedia)

Dehasına rağmen şartların elverişsizliğiyle önü kesilenler de vardı. Berlinli genç mühendis Konrad Zuse, röleli bilgisayar tasarımına kafa yormaya 1935’de başladı ve 1938’de ilk çalışan prototipini (Z1) tamamladı, böylece dünyadaki ilk röleli bilgisayarı geliştiren kişi olarak tarihe geçti. Zuse’nin tasarımları ABD’deki benzerlerine göre daha ileride, bugünkü prensiplere daha yakındı. Üçüncü model olan Z3 dünyanın ilk programlanabilir bilgisayarı ünvanını taşır. Aynı dönemde Zuse, ilk yüksek seviye (donanımın ayrıntılarına bağlı olmayan) programlama dili olan Plankalkül’ü geliştirdi. Sonraki model olan Z4’ün geliştirilmesi Almanya’nın savaşta yenilmesi ve Zuse’nin açlıkla mücadele ederek İsviçre’ye kaçmaya çalışması sebebiyle gecikmeye uğradı. Bu zorluklara rağmen Z4 modeli 1950’de ETH-Zürih’de işler hale getirildi. Sonraki yıllarda Zuse yeni tasarımlar üretmeye devam etti.

zuse

Konrad Zuse (Kaynak: computerhistory.org)

2. Elektron tüpleri

En sade halinde, bir elektron tüpü (triyot) basit bir araçtır: Havası boşaltılmış bir ampul içinde bir metal parçası ısıtılır, böylece bazı elektronlar metalden ayrılır. Tüpte ayrıca, ince tellerden oluşan küçük bir ızgara da bulunur. Bu ızgaraya uygulanan gerilim negatifse elektronlar katottan anoda doğru hızlanarak giderler. Gerilim pozitifse ızgara elektronları iter ve ilerlemelerini engeller.

Triode_with_filament_and_cathode_labeled.svg

Elektron tüpünün şematik resmi. Güç kaynağıyla ısınan filament (F) katodu (C) ısıtarak elektron salınmasına yol açar. Grid (G) elektronları anot plakasına (P) doğru hızlandırır, veya ters kuvvet uygulayarak önlerini keser. (Wikipedia)

364px-Dubulttriode_darbiibaa

1960′larda radyo ve TV’lerde kullanılan bir elektron tüpü. (Wikipedia)

Elektron tüpü 1906’da icat edildi, ve takip eden yıllarda radyo haberleşmesinde sinyal güçlendirici olarak yaygın şekilde kullanılmaya başlandı. Yaşı yetenler hatırlar: 1970’lere kadar radyolar kocamandı ve içlerinde “lamba” tabir edilen elektron tüpleri vardı. Tüpler de röleler gibi, uzaktan kumanda edilen açma-kapama anahtarı olarak kullanılabilirdi ve mantık devreleri içeren bilgisayarları inşa etmek için kullanılabilirlerdi.

Aiken ve Stibitz gibi 1930’ların bilgisayar öncüleri elektron tüplerinden habersiz değillerdi, ama o dönemde röleler tüplere göre daha kolay bulunuyordu, daha ucuzdu, ve oturmuş bir teknolojiye sahipti. Üstelik tüpler fazla ısınıyorlardı. Bir bilgisayarda onbinlerce tüp kullanılması gerektiğinden, bulunduğu mekânın soğutulması ciddi bir problemdi. Tüplerin arızalanmaya yatkın olması da hesabın sık sık bölünmesi riskini doğuruyordu.

Bu dezavantajlara rağmen elektronik tasarımın çekiciliği büyüktü. 1937’nin sonunda, Iowa State Üniversitesi’nde çalışan fizikçi John Atanasoff tüplerle çalışan ve ikili sayı sistemine dayalı bir elektronik hesaplama makinesi tasarladı. Parlak zekâlı bir elektrik mühendisi olan Clifford Berry’yi asistan olarak işe aldı ve 1940 yılı başında fizik binasının bodrumunda makineyi inşaya başladılar. Atanasoff-Berry Computer (ABC) olarak bilinen cihaz 1941 sonunda bitirildi. ABC’nin hesaplama kısmı mükemmel çalışıyordu, fakat delikli kartları okuyan ve yazan kısım on bin seferde bir hata yapıyordu, bu da büyük ölçekli hesaplamalarda cihazı güvenilmez kılıyordu. Bu arada ABD 2. Dünya Savaşı’na girdi, Atanasoff ve Berry ABC’nin bu eksiğini giderme fırsatı bulamadan askere alındılar. Atanasoff savaştan sonra 1948’de üniversiteyi ziyaret ettiğinde, ABC’nin kendisine haber verilmeden sökülüp atılmış olduğunu gördü.

berry_abcfull

Clifford Berry ABC’nin başında (Kaynak: Iowa State University)

Atanasoff ABC üzerinde çalışırken onu ziyaret edenlerden biri, Pennsylvania Üniversitesi’nde çalışan fizikçi John Mauchly idi. Mauchly 1942’de elektron tüpleri ile hesaplama yapmaya dair bir teklif yazmıştı, ama üniversite yönetiminin ilgisini çekememişti. Ancak, Balistik Araştırma Laboratuvarı’nın başındaki matematik doktoralı genç teğmen Herman Goldstine bu projeden haberdar oldu. Laboratuvar, top güllelerinin menzillerini veren tablolar oluşturmakla görevliydi. Yeni toplar imâl edildikçe, bu tabloların hemen hazırlanması ve savaş meydanına gönderilebilmesi gerekiyordu. Bu tablolar fırlatma açısı, hava direnci, rüzgâr yönü, vs. gibi birçok karmaşık faktör içeren zor hesaplamalar gerektiriyordu ve elle yapılan işlemler ihtiyacı karşılamayacak kadar yavaş ilerliyordu. Hızlı ve otomatik hesaplamaya ihtiyaç duyan Goldstine Mauchly’ye ihtiyaç duyduğu kaynakları vermeyi teklif etti.

MauchleyAndEckert

Presper Eckert (solda) ve John Mauchly (history-computer.com)

Mauchly, olağanüstü yetenekli bir elektrik mühendisi olan Presper Eckert ile beraber ENIAC (Electronic Numerical Integrator And Computer) adını verdikleri bilgisayarı inşa etmeye başladı. Eckert, tüplerin ömrünü uzatmak için birçok yöntem icat etti ve güvenilir bir tasarım oluşturmayı başardı. ENIAC’ın tamamlanması 1946’yı buldu, o yüzden savaşta çok işe yaramadı, fakat sonraki bilgisayar teknolojisini oluşturan bir okul olarak tarihteki yeri çok önemlidir.

Mauchly ve Eckert, ENIAC’daki tecrübelerine dayanarak, iş dünyasının bilgi işlem ihtiyaçlarına yönelik hizmet verecek bir şirket kurdular ve ilk ticari bilgisayar olan UNIVAC’ı ürettiler. İkili, iş idaresinde çok başarılı olamadı ve 1950’de şirketlerini Remington Rand’e devrettiler. Ancak UNIVAC bilgisayarı çok popüler oldu ve “elektronik beyin” imajının popüler kültüre girmesini sağladı. UNIVAC’ın başarısı, o zamana kadar mekanik ofis ekipmanları üreten IBM’in de bilgisayar işine girmesine vesile oldu.

3. Yazılım ve donanımın ayrılması

Elektron tüpleri ile işlem yapan ENIAC gerçekten hızlıydı. O kadar hızlıydı ki, bilgisayarın çalışmasındaki darboğaz tamamen başka bir yerde ortaya çıktı: Programın hazırlanmasında.

ENIAC’ı bir matematiksel problemin çözümüne hazırlamak, yer yer yoğun fiziksel çaba gerektiren zor bir işti. Sayıların ve belleğin kağıt üzerindeki tasarımının ardından, yüzlerce anahtarın konumunun ayarlanması, yüzlerce kablonun bağlantılarının değiştirilmesi gerekiyordu. ENIAC’ı programlamak, bilgisayarın devre bağlantılarını ve iç yapısını değiştirmek demek oluyordu. Bu işlem haftalarca sürebiliyordu. Hazırlıklar bitince ENIAC gerekli tabloları yarım saatte üretiyor, ardından yeni bir problem için aynı maraton tekrar başlıyordu.

top_secret_rosies

ENIAC’ın programlanmasında altı kadın teknisyen görev alıyordu.

Mauchly ve çalışma arkadaşları bu sorunun farkındaydılar ve sonraki tasarımlarda çözülmesi gerektiğini biliyorlardı. ENIAC takımını ziyaret eden ve başka bilgisayar projelerini de yakından takip eden ünlü matematikçi John von Neumann, yazdığı bir makalede “yüklenen program mimarisi” veya “von Neumann mimarisi” adı verilen bir fikir yayınladı. Bu fikre göre, bilgisayarın yapacağı işlemlerin talimatları önceden belirlenmiş ikili kodlamalarla ana bellekte saklanmalı ve bilgisayar bu talimatları sırayla işlemelidir.

Bu yaklaşım, talimatları kodlamak ve kodu çözmek için yeni devreler gerektirdiği için bilgisayar tasarımını biraz karmaşıklaştırıyor da olsa, sağladığı müthiş esneklik sayesinde hızla kabul gördü. Yüklenen program mimarisi ile kendi kendini değiştiren programlar yazılabilir, başka programları işleyen programlar oluşturulabilirdi. Genel amaçlı olacak şekilde tasarlanan bilgisayar donanımı, uygun programların yüklenmesiyle farklı işler yapmaya yönlendirilebilirdi. Yüklenen program mimarisi sayesinde Fortran, Java gibi yüksek seviye programlama dillerini, ve Linux, Windows gibi işletim sistemlerini yaratmak mümkün oldu. Programcılar bilgisayarın elektroniğine bulaşmadan yazılım geliştirebilir oldular, böylece bilgisayar kullanımı gitgide kolaylaşarak yaygınlaştı.

4. Transistör

Elektron tüplerinin rölelere göre avantajları tartışılmaz; fakat onların da kendilerine göre sorunları vardı. Her biri başparmak büyüklüğünde binlerce tüp barındıran bir bilgisayar çok büyük ebatlarda olmak zorundaydı. Bu tüplerin yaydığı ısıyı dağıtmak bir dert, bozulanları değiştirmek ayrı bir dertti. Elbette taşınabilirlik diye birşey sözkonusu değildi.

Katı hal fiziğindeki gelişmeler bu soruna çözüm bulmakta gecikmedi. Yarı iletken denen bazı malzemelere (sözgelişi, silisyum ve germanyum elementleri) uygun miktarda yabancı atomun eklenmesi ile farklı iletkenliklerde kristaller ortaya çıkarılabildiği keşfedildi. 1947 sonunda Bell Laboratuvarları’nda çalışan deneysel fizikçiler John Bardeen ve Walter Brattain, yarı iletkenleri birleştirerek bir sinyalin güçlendirilebileceğini, veya açılıp kapatılabileceğini keşfettiler. Bu icat elektron tüplerinin yerine kullanılabilirdi; üstelik çok daha az güç kullanacak, ısınma derdi olmayacak, devreler çok daha küçük ve hafif olabilecek, bozulma ve kırılma riski çok azalacaktı. Bardeen, Brattain ve laboratuar yöneticisi William Shockley, transistör adı verilen bu icatları için 1956 Nobel Fizik Ödülü’ne hak kazandılar.

Bardeen_Shockley_Brattain_1948

Soldan sağa: Bardeen, Shockley, ve Brattain. Shockley’in icada doğrudan katkısı olmamıştı, patent başvurusunda adı da yoktu. Fakat Bell laboratuarı yönetimi kamuya dağıtılacak fotoğraflarda üçünün de bulunmasını şart koşmuştu. (Wikipedia)

transistor

Transistör üreten Mallory şirketinin 1953′de Time dergisinde yayınlanan reklamı (Flickr, kullanıcı: transistor_radios)

5. Entegre devre ve mikroişlemci

Transistörler bilgisayarların epeyce küçülmesini sağladıysa da, bu küçülmenin bir sınırı vardı. Elektronik devrelere transistörlerin tek tek elle lehimlenmesi gerekiyordu. Bu da hem üretimi yavaşlatıyordu, hem de insan elinin giremeyeceği küçük ölçeklerde çalışmayı engelliyordu.

Katı hal fiziği, özellikle de yarıiletkenler, 1950’lerden itibaren müthiş imkânlara kapı açmaya başlamıştı. 1958’de Texas Instruments’da çalışan Jack Kilby, yekpare bir yarıiletken üzerinde bir entegre devre inşa edilebileceğini düşündü. Sinüs dalgası üreten bir yarıiletken devre üretti ve fikrinin gerçekleşebileceğini gösterdi. Fairchild Semiconductors şirketinden Robert Noyce da bağımsız olarak aynı icadı geliştirdi, ama kısa bir zaman farkıyla patenti kaçırdı. Kilby ve Noyce beraberce entegre devrelerin mucidi olarak anılırlar. Kilby, öncülüğü sebebiyle 2000 Nobel Fizik Ödülü’nü aldı.

Kilby_solid_circuit

Jack Kilby’nin ürettiği ilk deneysel entegre devre (Wikipedia)

1960’larda entegre devre üretimi yaygınlaştı. ABD’de elektronik şirketlerinin toplandığı bölge Silikon Vadisi olarak benimsendi. Noyce Fairchild’dan ayrılıp Intel isimli bir şirket kurmuştu. Stanford’dan elektrik mühendisliği doktorasına sahip Intel çalışanı Ted Hoff, entegre devre fikrini iyice ileri götürdü: Bir mikroçipin üzerine tam bir bilgisayar sığdırılabileceğini savundu. Bu vizyonu takip ederek, 1971’de Intel 4004 mikroişlemcisinin geliştirilmesini sağladı. Bu öncü mikroişlemciyi birçok başka model takip etti.

Intel 4004 mikroişlemcisi (Wikipedia)

Takip eden yıllarda üretim teknikleri gitgide geliştirildi, çok daha küçük yarıiletken yapılar imal etmek mümkün oldu ve birim alana daha da fazla sayıda transistör sığdırılabildi. Daha çok sayıda transistör bulunması, genel olarak işlemcinin yeteneklerinin daha fazla olması demektir. Böylece cep telefonlarımızda bile olağanüstü güçlü bilgisayarlar taşımamız mümkün hale geldi. Intel 4004 çipinde 2300 transistör varken, 2014 yılında piyasaya çıkacak olan Xbox One oyun konsolunun işlemcisi yaklaşık beş milyar transistör barındırıyor.

Intel’in kurucularından Gordon Moore, 1965′de yayınladığı bir makalede entegre devrelerdeki transistör sayısının her iki yılda iki katına çıktığını yazmıştı. Yani, çiplerdeki transistör sayısı zamanla üstel (veya, geometrik) olarak artmaktadır. Bugün bu gözlem Moore yasası olarak bilinir. Elbette bir doğa yasası veya teorem değil, sadece yaklaşık bir ifade, ama değişen teknolojiye rağmen elli senedir doğru kalması şaşırtıcı (veya belki de, bir numaralı mikroişlemci üreticisi olan Intel, çiplerini özellikle bu yasaya uyacak şekilde piyasaya sürüyordur (!)).

Transistor_Count_and_Moore's_Law_-_2008.svg

1971-2008 arasında üretilen mikroişlemcilerin transistör sayıları (noktalar) ve Moore yasası (kesik çizgi). Dikey eksenin logaritmik olması sebebiyle bu artış üsteldir. (Wikipedia)

Gelecek ay devam edeceğiz.

Kaynaklar

  • Michael R. Williams, A History of Computing Technology. IEEE Computer Society Press, 1997.
  • History of Computers: Hardware, Software, Internet,… http://history-computer.com/index.html
  • John Vincent Atanasoff and the Birth of Electronic Digital Computing. Iowa State University. http://jva.cs.iastate.edu/index.php

BİLGİSAYAR TARİHİNDE ÇIĞIR AÇAN 10+1 İCAT (2. BÖLÜM)

$
0
0

CBS habercisi Charles Collingwood seçim gecesi stüdyoda kurulan sahte UNIVAC konsolunda.

Dizimizin önceki bölümünde rölelerden lambalara, lambalardan transistörlere ve  mikroişlemcilere kadar gelmiştik. Hızlı, güçlü ve elde taşınabilecek kadar küçük bilgisayarlarımız olmasını bu gelişime borçluyuz. Bu inovasyonların çalışan bilgisayarlara dönüştürülmesi, ve bu bilgisayarların toplumda yaygın olarak kullanılması ise bambaşka bir meseleydi ve kendi gelişim çizgisini izlemişti.

6. Ticari mainframe bilgisayarlar

1940’ların sonu gelirken, bilgisayarların işe yarayan cihazlar olduğu anlaşılmıştı. Gerek askeriye, gerek üniversiteler ve diğer araştırma kurumları büyük masrafları göze alarak kendi bilgisayarlarını inşa etmeye başladılar. Ancak, bilgisayarların tam potansiyeli henüz anlaşılamamıştı. İngiltere’nin Ulusal Fizik Laboratuarı’nı yöneten Sir Charles Galton Darwin (“Türlerin Kökeni” yazarının torunu) bile, 1946’da bir ülkenin ihtiyaç duyduğu bütün hesaplama problemlerinin bir tek bilgisayar tarafından çözülebileceğini söylüyordu. Bugün bu düşünce bize garip geliyor; ama o zamanlar bilgisayarların amaçlarının matematiksel tablolar oluşturmakla sınırlı tutulduğunu hatırlarsak, anlaşılabilir bir varsayımdı. “Mainframe” veya “ana bilgisayar” olarak bilinen ilk ticari bilgisayarlar bu algıyı birkaç yıl içinde kıracaktı.

ENIAC projesi tamamlandıktan sonra John Mauchly ve Presper Eckert, Pennsylvania Üniversitesi’ndeki görevlerinden ayrıldılar ve iş dünyasına yönelik bilgisayarlar üretmek amacıyla 1946’da kendi şirketlerini kurdular. Akademik dünyanın dışında vizyonlarını paylaşan neredeyse kimse yoktu. Sermaye bulmakta zorlandılar, üstelik iş yürütme konusunda çok da becerikli değillerdi. Buna rağmen Nüfus Sayımı Bürosu’yla bir anlaşma yapabildiler ve UNIVAC (UNIVersal Automatic Computer) adını verdikleri yeni bilgisayarı inşa etmeye başladılar.

Ancak UNIVAC’ın inşa edilmesi tahmin edilenden daha zor oldu. Kâğıt üzerindeki tasarımı, kolay kullanılan bir cihaza dönüştürmek -özellikle de hazır bileşenlerin yokluğunda- olağanüstü bir mühendislik çabası gerektiriyordu. Proje teslim tarihleri hep gecikti, yine de şirket birkaç yeni siparişin avansı ile ayakta durabildi. İnişli çıkışlı dört yılın ardından, mali sorunlar yüzünden Mauchly ve Eckert şirketlerini Remington Rand’e satmak zorunda kaldılar. Ancak projeden ayrılmadılar, Remington Rand çalışanı olarak UNIVAC’ı geliştirmeye devam ettiler.

UNIVAC 1952’deki ABD başkanlık seçimleri sırasında popüler kültüre yerleşmeyi başardı. Remington Rand, CBS televizyon kanalıyla seçim sonuçlarını tahmin etmek üzere anlaştı. Kilit eyaletlerden gelen kısmi seçim sonuçlarını istatistiksel olarak işlemek üzere bir program hazırlandı ve seçim gecesi canlı yayında işe başladı. Asıl iş UNIVAC merkezinde yapılıyordu, stüdyoya dekor olsun diye içi boş bir UNIVAC kutusu kurulmuş, içine yanıp sönen Noel ışıkları döşenmişti. Sonraki yıllar boyunca popüler kültürde ve bilim-kurgu filmlerinde bilgisayar yanıp sönen ışıkları bulunan bir kutu olarak gösterilmesinin kaynağı bu programdır.

CBS habercisi Charles Collingwood seçim gecesi stüdyoda kurulan sahte UNIVAC konsolunda.

CBS habercisi Charles Collingwood seçim gecesi stüdyoda kurulan sahte UNIVAC konsolunda. Kaynak: Computer History Museum

UNIVAC’in ilk tahmini Eisenhower’ın büyük farkla (438’e karşı 93 oy) kazanacağı yönündeydi. Bu büyük bir şaşkınlık yarattı, çünkü bir gün önce kamuoyu araştırmaları aradaki oy farkının çok küçük olacağını tahmin etmişlerdi. UNIVAC takımı bu sonucu olduğu gibi vermekten çekindi; programın parametreleriyle oynayarak elde ettikleri daha başabaş bir tahmini yayınlattılar. Ancak daha sonra elde edilen nihai sonuçlar UNIVAC’ı (daha doğrusu, onu programlayan istatistikçiyi) mükemmelen haklı çıkardı: Eisenhower 442’ye karşı 89 oyla kazandı. Daha sonra CBS spikeri UNIVAC’ın gözardı edilen ilk şaşırtıcı tahminini açıkladı. Bu olay bilgisayar tarihinde bir dönüm noktası oldu ve bilgisayarları popüler kültüre yerleştirdi.

IBM’in bilgisayar üretimine girişmesi de bu zamanlara rastlar. Çok sayıdaki uzman mühendisi ve büyük sermayesi sayesinde UNIVAC’la aralarındaki beş yıllık araştırma-geliştirme açığını bir yılda kapatabildi. 1952 Aralık ayında “Model 701” isimli bilgisayarı tantanayla piyasaya tanıttı. Model 702 ise 1953’ün Eylül ayında lanse edildi, ama ilk siparişlerin teslim edilmesi 1955’i buldu. Remington Rand o zamana kadar daha fazla UNIVAC satmış olmasına rağmen, IBM kurnaz pazarlama taktikleriyle sonraki yıllarda öne geçti: Sözgelişi, hafifletilmiş bir sistem olan Model 650’yi üniversitelere, programlama dersi açmaları şartıyla, yüzde altmış indirimle sattı. Böylece IBM ürünlerine alışık bir neslin yetişmesini sağladı, ve ilk bilgisayar bilimi bölümlerinin kurulmasını teşvik etti.

Bu şekilde mainframe bilgisayarlara talep arttı ve başka teknoloji şirketleri de sahaya çıktı. 1960’a gelindiğinde IBM %60’lık pazar payıyla en büyük üreticiydi. Onun yanı sıra Sperry Rand, Burroughs, NCR, RCA, Honeywell, GE, ve CDC şirketleri de pazarda pay sahibiydi. Bunlara topluca Pamuk Prenses ve Yedi Cüceler demek âdet olmuştu.


Mainframe bilgisayarlar büyük bir yatırımdı. Milyon dolarlara varan fiyatlarının (veya onbinlerce dolarlık kira ücretlerinin) yanı sıra, düzenli bakım ve işletim elemanlarına ihtiyaç duyuyorlardı. Yapılan masrafın boşa gitmemesi için bilgisayarların boş bırakılmaması, sürekli işletilmesi şarttı.

Sözgelişi, bir üniversitede veya araştırma kurumunda programcılar bilgisayarı kullanmak için rezervasyon yaparlar ve o süre boyunca makine tamamen onlara ait olurdu. Ancak o dönemde programlama zahmetli ve hata yapmaya çok yatkın bir işti. Rezerve edilen zamanın çoğu programcının, yazıcıdan aldığı dökümleri incelemesi ve yaptığı hataları düzeltmeye çalışmasıyla geçer, bu arada bilgisayar boşta beklerdi.

Bu usulün verimsizliğini gidermek amacıyla 1950’lerde programcı ve bilgisayarın birbirinden ayrıldığı bir düzen kuruldu. “Yığın halinde işleme” denilen bu usulde bilgisayarı işletmek için özel bir operatör görevlendirildi. Programcı, önceden hazırladığı programını (bazen bir yığın delikli kart, bazen bir basılı forma elle yazılmış olarak) bilgisayar merkezinin kabul kapısında operatöre teslim ederdi. Operatör, programları bilgisayarın kart okuyucusuna yerleştirir veya terminalde yazar, gerekiyorsa yardımcı programların (sözgelişi FORTRAN veya COBOL derleyicisi) teyplerini yükler, programı çalıştırır, ve iş bitince bilgisayarın çıktı dökümünü programcıya teslim ederdi.

Operatör manyetik teyp bantlarını mainframe bilgisayara yüklüyor. Kaynak: Jerry Mason / Science Photo Library

Bugün bilgisayarlarımızı yöneten Linux, Windows gibi “işletim sistemleri” doğrudan doğruya bu operatörün otomatikleştirilmiş halidir. Bilgisayar donanımıyla aramızda köprü kuran bu yazılım, çalıştırmak istediğimiz programı sabit diskte bulur, ana belleğe (RAM) aktarır, çalışan diğer programlarla çatışmasını engeller, klavye, fare ve ekranla etkileşim kurmasını sağlar.

Ancak, bugünün bilgisayarlarının aksine, 1960’ların ortasına kadar bilgisayarlarla “samimi” bir ilişki kurulamıyordu. Yığın işleme usulü programcının anında geri dönüş almasını engelliyordu. Bu da hem basit bir programın bile tamamlanmasının günler alması, hem de deneme-yanılma ile programlama öğrenmenin mümkün olmaması demekti.

Mesele sadece programcıların kullanım keyfi değildi; verimlilik boyutu da vardı. 1960’larda transistör ve entegre devreler sayesinde hesaplama hızı çok artmıştı. Yığın işleme ile bile bilgisayarın ana işlemcisinin boş zamanı çok fazla olabiliyordu. Operatörün programı hazırlaması, teypleri yüklemesi, hatta bilgisayarın teyplerden bilgi okuması veya yazması bile merkezi işlem birimi için çoğunlukla boşa harcanan zaman demekti.

1960’ların ortalarından itibaren, mainframe bilgisayarların birden fazla kullanıcı tarafından işletilebilmesi yönünde araştırmalar başladı. “Timesharing” (paylaşımlı) tabir edilen bu sistemlerde kullanıcılar ana bilgisayarın yanında olmak zorunda değillerdi. Uzaktaki terminallerdeki klavyeler aracılığıyla programları çalıştırabiliyorlar, bilgisayar da onlara anında cevap verebiliyordu. Kullanıcılar ne yazacaklarını düşünürken, hatta yazma sırasında iki tuşa basmaları arasındaki süre içinde bile, bilgisayar birçok talimatı işleyebilecek kadar hızlıydı. Kullanıcıların her biri için sanki bilgisayar sadece kendilerine hizmet veriyormuş gibi görünse de aslında bilgisayar, her programa kısa zaman aralıkları ayırarak, bütün kullanıcıları sadakatsiz bir aşık gibi aynı anda idare edebiliyordu.

Paylaşımlı bilgisayar sistemleri programlama kültürünü demokratikleştiren ilk adımlardan biriydi. Artık bilgisayarlara “doğrudan” erişim mümkündü. Öğrenciler deneme yanılma yoluyla programlama öğrenebilecek, ve “ciddi” olmayan programlar üreterek yeni bilgiişlem imkânlarını keşfedebileceklerdi. Yayılma MIT, Stanford gibi büyük üniversitelerdeki öğrencilerden başladı.

Aynı dönemde entegre devrelerin ortaya çıkmasıyla, daha küçük ve ucuz olan, ama bilgi işleme kapasitesi yüksek paylaşımlı “minibilgisayarlar” (özellikle de DEC şirketinin ürettiği PDP serisi) piyasaya çıktı. Orta ölçekli üniversiteler bile en az bir bilgisayar satın alabilir oldular. Bunun doğrudan sonucu bilgisayar eğitiminin patlaması ve programlama bilgisinin daha çok kişiye yayılması oldu. Ünlü BASIC programlama dili bu dönemde Dartmouth üniversitesinde geliştirildi ve bilgisayar eğitiminin temel taşlarından biri haline geldi.

1964’de General Electric, Bell Laboratuvarları ve MIT ile beraber, “Multics” adını verdikleri paylaşımlı bir işletim sistemi projesine başladı. Projede işletim sistemleri ve paylaşımlı kullanıma dair birçok yenilik üretilmişti, ama zaman geçtikçe proje gitgide karmaşıklaştı ve başedilemez hale geldi. 1969’da Bell Laboratuvarları projeden ayrıldı.

Multics fazla başarılı olmayan bir ürün olarak tarihe gömüldü. Bugün daha ziyade, UNIX işletim sisteminin ilham kaynağı olarak anılır. O dönemde Multics projesine dahil olan iki Bell Laboratuvarı araştırmacısı, Ken Thompson ve Dennis Ritchie, projedeki bazı fikirleri kullanan, ama büyük ölçüde bağımsız ve daha verimli olan çok kullanıcılı bir işletim sistemi oluşturdular. Ürettikleri yazılıma, sadeliğini vurgulamak için, Multics’e nazire olarak UNIX adını verdiler. UNIX, hem nispeten basit oluşu, birçok bağımsız küçük komuttan oluşması ama  komutların yanyana eklenerek karmaşık işler yapmaya imkân vermesi sayesinde çok popüler hale geldi. Bugün çok yaygın kullanılan C programlama dili de UNIX’i yazma amacıyla geliştirildi.

Ken Thompson ve Dennis Ritchie (ayakta) Bell Laboratuarında (1972). Kaynak: Computer History Museum

Ken Thompson ve Dennis Ritchie (ayakta) Bell Laboratuarında (1972). Kaynak: Computer History Museum

Bell Laboratuarının sahibi AT&T şirketi, antitröst yasaları sebebiyle bilgisayar işine giremiyordu. O yüzden UNIX isteyen herkese bedava olarak verildi. 1970’ler boyunca yaygınlaştı ve çeşitli versiyonları üretildi. 1990’larda GNU ve Linux projeleri ile kişisel bilgisayarlara aktarıldı. Bugün internetteki sunucuların büyük çoğunluğu Linux, yani UNIX kullanmaktadır.

1946-1980 arasındaki mainframe bilgisayar dönemi, bugün kullandığımız birçok teknik çözümün ortaya çıktığı, bilişim teknolojisinin çok hızlı geliştiği, daha da önemlisi programlama hevesinin birçok insana bulaştığı bir dönemdi. Bilgisayar aşırı özelleşmiş pahalı bir araçtan, her iş için kullanılan, nispeten erişilebilir bir hesaplama cihazına dönüştü. Piyasanın talebi bilgisayarların hem daha hızlı ve ucuz, hem de daha kolay kullanılabilir olmasını sağladı. Bu dönemde kazanılan momentum sayesinde gelişen ve sermaye biriktiren bilgisayar teknolojisi, bugün herkesin masasında, hatta cebinde bir bilgisayar bulundurabilmesini mümkün kıldı.

7. Manyetik veri depolama

İlk mainframe’lerden bugünkü akıllı telefonlara kadar, bütün bilgisayarlarda iki çeşit veri deposu mevcuttur: Bir programı çalıştırırken merkezi işlem biriminin doğrudan eriştiği ana bellek (RAM) ile, o anda kullanımda olmayan programların ve verilerin saklandığı ikinci depolama birimi. Genellikle ana bellek “uçucu” olarak tanımlanır, çünkü gücü kestiğiniz anda sakladığı veriler “uçar”. Bilgisayarı tekrar başlatırken ilk programların uçucu olmayan ikinci depolama aracından okunması şarttır.

Bugün bilgisayarın ana belleği olarak yarı iletken çipler kullanıyoruz. Bunlar merkezi işlem biriminin çalışmasına ayak uydurabilecek kadar hızlı ve birden fazla karmaşık programı aynı anda barındırabilecek kadar geniş. Ancak yarı iletken teknolojisi gelişmeden önce ana bellek olarak çok farklı yöntemler kullanıldı; bunlardan biri de manyetik kayıt yöntemiydi.

1940’ların sonunda “manyetik tambur bellekler” icat edildi. Bunlar ekseni çevresinde hızla dönen, dışı manyetik bir malzemeyle kaplı silindirlerdi ve bilgisayarların ana belleği olarak görev yapıyorlardı. Bu manyetik bellekler ucuz ve güvenilir parçalardı, ancak yavaş çalışıyor, merkezi işlem birimine yeterince hızlı cevap veremiyorlardı. Buna karşılık dönemlerine göre yüksek kapasiteye (yaklaşık 4-5 KB) sahiptiler. 1950’lerin ortasına kadar tambur bellekler kullanan çeşitli bilgisayarlar geliştirildi.

102626694p-03-01

Electronic Research associates şirketi ürünü bir manyetik tambur bellek. Okuma-yazma kafaları dış kapağa bağlı. Tamburdaki çizikler ayarı bozulan kafalardan kaynaklanıyor. Kaynak: Computer History Museum

Tambur belleklerle aynı dönemde, ana bellek olarak manyetik halkalar dizisi (“çekirdek bellek”) kullanımı da yaygındı. Bunlar bir veya birkaç düzlem üzerinde döşenmiş kabloların kesişim noktalarına yerleştirilmiş demir halkalardan oluşuyordu. Her bir halka geçen akımla mıknatıslanıyor, mıknatıslanma yönüne göre 0 veya 1 değeri kodlanmış oluyordu. Yani her halka bir bilgi barındırıyordu. Bu bellekler tamburlara göre epeyce hızlılardı ve milyonlarca bite varabilen yüksek kapasiteye sahiptiler. Yüksek güvenilirlikleri sayesinde, Ay’a iniş seferinde kullanılan Apollo Yönlendirme Bilgisayarı’nda manyetik çekirdek bellekler tercih edilmişti.

corememory

256 bit barındırabilen manyetik çekirdek bellek. Sağda aynı belleğin daha yakından görünümü. Demir halkalar arasındaki mesafe yaklaşık 1mm. (Wikipedia)

Manyetik çekirdek bellekler 1970’lere kadar kullanıldı. Daha sonra yerlerini entegre devrelere bıraktılar.


Bir bilgisayarda ana belleğin yanı sıra, büyük kapasiteli bir depolama aracına da ihtiyaç vardır. Bu amaçla önce delikli kartlar kullanıldı. Programcı veya veri işleyen kişi önceden belirlenmiş bir şekilde kartlarda delikler açıyor, böylece her kart  bir komut veya bir bilgi parçası barındırıyordu. Orta halli bir program için genellikle yüzlerce, belki binlerce kart gerekiyordu. IBM, bilgisayar öncesi dönemde delikli kart işleyen çeşitli otomatik makineler satmıştı ve birçok büyük işyerinin arşivi delikli kartlarla doluydu. İlk bilgisayarlar delikli kartları kullanarak hem hazır teknolojiyi kullanmış oluyorlar, hem de hazır müşteri kitlesine büyük değişiklik gerektirmeyen bir çözüm sunuyorlardı.

FortranCardPROJ039.agr

Fortran’la yazılmış bir program içinde Z(1) = Y + W(1) komutunu kodlayan bir delikli kart. (Wikipedia)

Ama delikli kartlar kullanışsızdı: Çok yer tutuyorlardı, işlenmeleri yavaştı, ve doğru sırada tutulmalarına özen göstermek gerekiyordu. Eckert ve Mauchly, 1947’deki UNIVAC tasarımında manyetik teypler kullanmaya karar vererek bir çığır açtılar. Aynı dönemde IBM de manyetik teyp üzerine araştırma yapıyordu, rakiplerinin hamlesini duyunca işi hızlandırdı, ancak 1950’lerin ortasına kadar teyp kullanan bilgisayarları piyasaya sürmedi. UNIVAC’ın ve IBM’in öncülüğünde manyetik teyp bütün mainframe bilgisayarlarda yaygın olarak kullanılmaya başladı, hatta popüler kültürde “elektronik beyin” imajının ayrılmaz parçası haline geldi.

6084988_orig

1953 tarihli UNIVAC reklamı, manyetik teybin delikli kartlara göre %90 yer tasarrufu sağladığını vurguluyor. Kaynak: Modern Mechanix


Ne Mauchly ve Eckert, ne de IBM manyetik teypleri sıfırdan icat etmediler elbette. Manyetik malzeme kullanarak veri saklama teknolojisinin ilk adımları 1898’de, Danimarka telefon şirketinin mühendisi Valdemar Poulsen tarafından atıldı. Poulsen, uzun bir çelik tel üzerinde yanyana noktaları farklı şekilde mıknatıslayarak sesleri kodlamayı başardı. “Telegrafon” adı verilen bu icat 1900 yılındaki Paris Fuarı’nda Avusturya İmparatoru Franz Josef’in sesini kaydetmekte kullanıldı. Bu kayıt, dünyadaki en eski manyetik ses kaydıdır.

Sonraki yıllarda manyetik yöntemle ses kaydı tekniği Avrupa’da, özellikle de Almanya’da ilerletildi. 1920’lerde uzun çelik şeritler kullanılıyordu ama bunlar ağır ve bükülmez oldukları için kullanışsızdılar. 1928’de Fritz Pfleumer kağıt şeritlerini bir demir oksit tabakayla kaplayarak hafif bir teyp bandı üretti. 1930’larda AEG ilk teyp kayıt cihazını geliştirdi ve ardından IG Farben (sonradan BASF) şirketinde bugünkü hafif plastik teyp bantları icat edildi. O dönemde savaş havasına girildiği için bu icatlar gizli tutuldu. Savaştan sonra Almanya’nın işgal edilmesiyle teyp teknolojisi Amerika’ya taşındı. 1950’lerde müzik, TV, sinema sanayii tamamen manyetik teyp kullanılır olmuştu.


Bilgi depolama teknolojisinde gerçek devrim, IBM’in 1956’da geliştirdiği RAMAC’la başladı. RAMAC iki yüzü de manyetik bir malzemeyle kaplı birkaç metal diskten oluşur. Bu diskler eksenleri boyunca beraberce dönerler. Her diskin her bir yüzündeki veriler, bir pikap iğnesi gibi içeri dışarı oynayan bir “kafa” ile okunur ve yazılır. Bugün bilgisayarlarımızda bulunan sabit diskler de tamamen aynı prensiple çalışır (hızla dönmesine rağmen “sabit disk” denmesi bilgisayara bir kere takıp bırakmamızdan, taşınabilir disklerden olmamasındandır)

l2009.1.1p-03-07

İlk sabit disk RAMAC’ın iç yapısı. Veriler dakikada 1200 tur hızla dönen 24 inç (61 cm) çapında elli tane diskin alt ve üst yüzeylerinde barındırılır. Kaynak: Computer History Museum

RAMAC’ın en önemli özelliği hem büyük kapasiteli (5 megabayt) olması, hem de “rastgele erişimli” olmasıydı. Yani, istenilen bir veriye hemen disk üzerinde ulaşılabiliyordu. Disklerin en yakın rakibi olan manyetik teyplerde böyle bir lüks yoktu; istenen bir veriye ulaşmak için bandı ileri veya geri sarmak gerekiyordu. Rastgele erişim sadece zaman kazandırıcı bir özellik olmanın çok ötesindeydi: Bu sayede bir bilgisayarda etkileşimli çalışmak, farklı kullanıcıların talep ettiği farklı dosyaları yüklemek, paylaşımlı bir bilgisayar sistemi yaratmak mümkün olabilmişti.

Sabit disklerin kapasitesi (birim alana sığdırılan bit sayısı), işlemcilerdeki transistörler için geçerli olan Moore yasası gibi, geçen yıllar içinde geometrik olarak arttı. Bu artış kısmen fiziken daha küçük bir alana bilgi sıkıştırma kabiliyetinden, kısmen de disklerin, depolama alanını daha verimli kullanan algoritmalar ile programlanmış olmasından kaynaklanıyor.

areal_1

İnçkare başına gigabayt olarak sabit disk kapasitesinin yıllar içinde değişimi. Barry Whyte, IBM developerWorks.

Sabit diskler hâlâ büyük ölçekli veri depolama için en iyi, hatta bazen tek çözüm. Yarıiletken teknolojisine dayalı flash bellekler ve SSD’ler gibi depolama araçları hızla gelişiyor ama hem kapasiteleri hâlâ manyetik disklerin çok altında, hem de kullanıldıkça bozuluyorlar.

Manyetik depolama cihazlarının veya diğer teknolojilerin belli yıllar arasında sırayla hüküm sürdüklerini, yenisi çıkınca eskisinin bırakıldığını düşünmek hatalı olur. Yeni teknolojiler bazı konularda avantaj sağlasa da, eski teknolojiler bazen denenmişlikleri, bazen ucuzlukları, bazen de alışılmış olmaları sebebiyle uzun zaman daha yaşamaya devam ettiler. 1980′lerde üniversiteye gidenler size delikli kartlarla nasıl program yazdıklarını anlatabilirler. Manyetik teypler yakın zamana kadar büyük kapasiteleri sebebiyle kullanımda kaldılar. Teknolojik gelişim ve bir icadın bir diğerinin yerini alması uzun yıllara yayılan bir süreç olabiliyor.

Manyetik depolama, özellikle de rastgele erişimli sabit disk teknolojisi, bilgisayarlarda önceden mümkün olmayan gelişmelere yol açtı. Bilgisayarların birden fazla kullanıcı tarafından etkileşimli olarak kullanılabilmelerini sağladı. Yüksek kapasitesiyle, karmaşık programların kullanılabilmesine imkân verdi. Verilerin büyük miktarlarda biriktirilmesi ve daha sonra büyük ölçekte işlenmesi mümkün oldu.

Sabit diskler olmasaydı bilgisayarlarımızı göze hoş görünen bir pencereli grafik arayüzle kullanamaz, bir fareye tıklayarak anında bir program çalıştıramaz, fantastik bir dünyanın içine gömüldüğümüz oyunlar oynayamazdık. Gerçekçi görsel efektler kullanan filmler yapılamazdı. Veri madenciliği ve “büyük veri” kavramları düşünülemezdi. Google, Youtube, Wikipedia’yı bırakın, Web bile mevcut olmazdı.

Kaynaklar

  • Computer History Museum
  • Martin Campbell-Kelly, William Aspray. Computer: A History of the Information Machine. 2nd edition, Westview Press, 2004.
  • Paul E. Ceruzzi. A History of Modern Computing. 2nd edition, MIT Press, 2003.
  • Barry Whyte. A Brief History of Areal Density. 18 Eylül 2009.

BİLGİSAYAR TARİHİNDE ÇIĞIR AÇAN 10+1 İCAT (3.BÖLÜM)

$
0
0

Apple1WozniakJobs

1970′lere kadar “bilgisayar” dendiğinde sadece kurumların satın alabileceği büyük ve pahalı cihazlar akla geliyordu. Yarı iletken teknolojisindeki gelişmeler sayesinde bilgisayarların fiyatları düşse de, hâlâ bireylerin satın alma gücünün üzerindeydiler. Bilgisayarların “kurumsal yatırım” olarak değil de bireysel bir üretim, eğlence ve iletişim aracı olarak görülmesi nasıl mümkün oldu? En iyi bilim kurgu yazarlarının bile öngöremediği bu devrimsel dönüşüm 1970′lerin ortasında başladı. 1980′lerin başına gelindiğinde dünya kendini bilgisayar çağının içinde buldu.

8. Kişisel Bilgisayarlar

Bilgisayarların kişiselleşmesi teknolojik bir devrim sayılmazdı. Mikroişlemciler, klavye, ekran, manyetik depolama, yazıcı vb. bileşenler zaten geliştirilmiş durumdaydı. Bu bileşenlerin bir “mikrobilgisayar” şeklinde ucuz şekilde üretilmesi teknik olmaktan çok ekonomik bir başarıydı. Bu yenilik, bilgi işlemenin bireysel bir hak olması fikrini doğuracak, uygarlığın her alanında büyük bir devrim yaratacaktı.

Hesaplama hevesi

1970 yılına gelindiğinde, entegre devre teknolojisi sayesinde nispeten ucuz (400$) ve küçük (kitap boyunda) hesap makineleri piyasaya çıkmıştı. Birkaç yıl içinde daha da küçülüp ucuzlayacaklar, 1976′da cebe sığan bir hesap makinesini 50$’a almak mümkün olacaktı. Küçük makine pazarına Casio ve Sharp gibi Japon şirketleri hâkim olurken, Hewlett-Packard, Texas Instruments gibi daha eski şirketler farklı bir pazara yöneldiler ve bilimsel işler için tasarlanmış logaritma, trigonometri gibi matematiksel işlemler yapabilen hesap makineleri üretmeye başladılar. Hewlett-Packard, 1974′de bir “personal computer” (kişisel bilgisayar/hesaplayıcı) olarak tanıttığı HP-65 bilimsel hesap makinesini 795 dolar fiyatla piyasaya sürdü. Bu makine tuş vuruşlarını kaydedebilme özelliğine sahipti, böylece küçük programlar yazmaya imkân veriyordu. 1975′e kadar 25 000′den fazla HP-65 satılmıştı. Kullananlar çoğunlukla mühendisler, finansçılar gibi meslek sahipleriydi; yüksek fiyatı öğrenciler ve öğretim elemanlarının elini yakıyordu.

hp65

HP-65 hesap makinesi (flickr, Jürgen Keller)

Tarihçi Paul Ceruzzi’ye göre hesap makineleri iki açıdan kişisel bilgisayarların yolunu açtı: Birincisi, entegre devre üreticileri için düzenli bir pazar yarattılar. Entegre devreler büyük ölçekte üretilebildi ve fiyatları düştü. Küçük ölçekli girişimciler, elektronik bileşenleri toptan satın alıp yeni cihazlar üretme imkânı buldular.

İkincisi, programlanabilen bilimsel hesap makineleri insanların keyiflerine göre “bilgi işleme” heveslerini ateşledi. Bu makineleri kullananlar matematiksel eğitim almış, açık zihinli uzmanlardı. Hesap makineleri küçüktü, mesai bittikten sonra cebe atılıp kurcalamak üzere eve götürülebilirlerdi. Bu kullanıcıların bir kısmı makineleriyle yaratıcı işler yapmanın yollarını araştırdılar. Bu amaçla kulüpler kuruldu, dergiler, kitaplar yayınlandı, düzenli buluşmalarda yüzyüze bilgi alışverişi yapıldı.

Hobi elektroniği meraklıları benzer bir örgütlenmeyi çok uzun zaman önce gerçekleştirmişlerdi. İkinci Dünya Savaşı öncesinde radyo ve telsiz yapıp çalıştıran meraklılar, 1960′larda dijital tasarıma yönelmiş, yeni çıkan entegre devrelerle oynuyor, yeni uygulamalar icat ediyorlardı. Popular Electronics ve Radio-Electronics gibi yaygın dağıtımlı dergiler ile bilgi paylaşılıyordu.

İlk mikroişlemci olan Intel 8008 1972′de, onun daha ileri modeli olan Intel 8080 ise 1974′de piyasaya sürüldü. Hobi elektroniği dergileri bu işlemcileri kullanarak basit bilgi işlem cihazlarının nasıl inşa edilebileceğine dair yazılar yayınladılar Bu yazılar aydınlatıcıydı, ama mikroişlemciler perakende satılmıyordu ve parçaları satın almak da kurmak kadar zahmetliydi. Bu zorluklara rağmen, sıfırdan bir bilgisayar inşa edip kullanma hevesinde olan belli bir kitle oluşmuştu.

Kendi bilgisayarını kendin yap: Altair

Albuquerque şehrinde bulunan MITS, 1969′dan beri çeşitli elektronik kitler (kısmen inşa edilmiş elektronik cihazlar) üretip satan küçük bir şirketti; önce model roketler için radyo araçları, 1971′den sonra da hesap makinesi kitleri satmıştı. Hesap makineleri fiyatlarının ani düşüşü sonucunda şirket borca battı. Şirketin sahibi Ed Roberts bir bilgisayar kiti üretmeyi düşündü ve 1974′de piyasaya çıkan Intel 8008 mikroişlemciyi kullanarak basit, ama çalışan bir bilgisayar tasarladı. Altair 8800 adı verilen bu cihaz perakende olarak 397 dolara satışa sunuldu. Siparişler postayla gönderiliyor, kullanıcı pakedi açıp bileşenleri kendisi monte ediyordu. Altair’in geniş bir kitle tarafından okunan Popular Electronics dergisinin Ocak 1975 sayısının kapağında “Çığır Açan Proje! Ticari Modellere Rakip Olabilecek İlk Minibilgisayar Kiti” üst başlığı ile tanıtılması, o zaman farkedilmese de, kişisel bilgisayar çağını başlatan olay olacaktı.

800px-Altair_8800,_Smithsonian_Museum

Smithsonian Müzesi’nde bulunan Altair 8800 bilgisayar. (Wikimedia Commons)

Altair alışıldık şekilde bir bilgisayar değildi. Klavyesi, ekranı, depolama aracı yoktu. Veri girişi sadece ön paneldeki anahtarların açık veya kapalı hale getirilmesiyle sağlanıyordu. Programlar ikili kod ile zahmetli bir şekilde yazılmak zorundaydı (zaten belleğin sadece 256 bayt olması “sayesinde” programlar fazla uzun olamıyordu). Program çalıştığında elde edilen sonuçlar paneldeki lambalardan ikili kod olarak okunabiliyordu.

Yine de Altair gerçek bir genel amaçlı bilgisayardı. Hobi elektroniği camiası için, Altair’in kısıtlı özellikleri yıldırıcı değil heveslendirici olmuştu. Popular Electronics kapağından sonra siparişler yağdı, MITS talebe yetişemez oldu.

MITS, Altair’in elektronik mimarisini ticari sır olarak saklamamış, açıkça yayınlamıştı. Bu sayede gerek kullanıcılar, gerekse başka şirketler Altair için yan ürünler (delikli şerit okuyucular, fazladan bellek, hatta disket sürücüler) geliştirdiler. Bill Gates ve Paul Allen, Altair için bir BASIC yorumlayıcısı yazdılar ve delikli şerit halinde sattılar. Altair kullanıcıları kulüpler, düzenli buluşmalar, dergiler aracılığıyla bilgilerini ve yeni tasarımlarını paylaştılar. Altair’in çevresinde geniş bir ekosistem oluştu.

MITS 1977′de 6 milyon dolar ciro yapar hale gelmişti. Aynı yıl Pertec Computer şirketi tarafından satın alındı. MITS markası ortadan kalktı. Altair’in henüz otuzlu yaşlarını süren mucidi Ed Roberts köşesine çekildi, bir çiftlik satın aldı. 41 yaşında tıp fakültesine kaydoldu ve hayatının geri kalanını küçük bir kasabada hekimlik yaparak geçirdi.

Jobs, Wozniak ve Apple

1975′de kurulan Homebrew Computer Club (Ev Yapımı Bilgisayar Kulübü) Altair’in ilham verdiği kullanıcı gruplarından biriydi. Grup düzenli olarak Stanford üniversitesinin salonlarından birinde toplanır, gerek Altair’le gerek başka mikroişlemcilerle yaptıkları devreler hakkında konuşurlardı. Kulübün müdavimleri arasında Steven Wozniak ve Steve Jobs isimli iki genç de vardı.

25 yaşındaki Wozniak Hewlett-Packard’da çalışan çok yetenekli bir elektronik mühendisiydi. Lise yıllarında, bir arkadaşıyla beraber hurda elektronik parçalarından basit bir bilgisayar inşa etmişti. Ondan beş yaş küçük olan Steve Jobs üniversiteyi bırakmış, Atari’de çalışmaya başlamış, arada Hindistan’da kısa bir Zen Budizmi eğitimi almıştı. Onun da çok küçük yaştan beri elektroniğe büyük bir yeteneği vardı; Wozniak’la da bu ortak ilgileri sayesinde tanışmıştı. Üstelik tasarım ve pazarlama konusunda da üstün yetenekliydi, ve bu sayede birkaç yıl içinde Apple’ı dünyaca tanınan bir marka haline getirecekti.

Homebrew toplantılarının verdiği hevesle Wozniak bir mikrobilgisayar tasarlamaya niyetlendi. Bunun için, Intel ve Motorola’nın işlemcilerine göre çok daha ucuz (25 dolar) olan MOS 6502 mikroişlemcisini kullanmaya karar verdi. Tamamlandığında Wozniak’ın bilgisayarı bir elektronik devreden ibaretti, ama uygun kontrol devreleri barındırdığı için, bir ekran ve klavye ile kullanılabiliyordu. Wozniak icadını 1976 Nisanında Homebrew üyelerine gösterdi, ancak çoğunluk Intel 8080 çipiyle çalışmayı tercih ettiği için kulüpte büyük heyecan yaratmadı.

Jobs, Wozniak’ı ürününü ticari olarak pazarlamaya ikna etti ve ikisi bir ortaklık kurdular. Bilgisayara “Apple I” ismi verdiler. Üretim masraflarını karşılamak için Wozniak HP hesap makinesini, Jobs da Volkswagen minibüsünü sattı. Apple I, bugün “ana kart” dediğimiz elekronik devreden ibaretti. Klavye, ekran, güç kaynağı, kasa gibi kısımları alıcı tamamlıyordu. Yine de o zamana kadar satılan kitlere göre daha az emekle çalışır hale getirilebiliyordu. Üstelik, bir klavye ve ekrana doğrudan takılarak çalıştırılabilmesi o zamana kadar mikrobilgisayarlarda görülmeyen bir özellikti.

Apple1WozniakJobs

Steven Wozniak (solda) ve Steve Jobs, Apple I anakartı ile.

Apple I meraklılar arasında yoğun ilgi gördü. Jobs ve Wozniak 1976′da Apple Computer şirketini kurdular ve hemen yeni bir bilgisayar tasarlamaya başladılar. Bu yeni bilgisayar hobicilere değil son kullanıcılara yönelik, tak-çalıştır bir bilgisayar olacaktı. Apple II adı verilen yeni sistem 1977 Mayısında 1298 dolar fiyatla piyasaya çıktı. Yılın sonu geldiğinde tam yedi bin Apple II satılmıştı. Ertesi yıl 5 ¼ inçlik disket sürücüsünün piyasaya çıkması Apple II’nin genel uygulamalar için çekiciliğini katbekat arttırdı. Apple II için çeşitli yazılımlar geliştirildi. Bunlardan en ünlüsü ilk hesap tablosu yazılımı olan VisiCalc idi. Birçok kişi sırf VisiCalc kullanabilmek için Apple II satın aldı.

480px-Apple_II_IMG_4212

Apple II bilgisayar (Wikipedia)

Apple rakipsiz değildi elbette. Aynı dönemde başta Commodore, Atari, Tandy/Radio Shack gibi markalar olmak üzere, başka “tak-çalıştır” bilgisayar modelleri de piyasaya çıkmıştı. 1970′ler ve 1980′lerde bilgisayar dergilerinin ilanlarında müthiş bir marka ve model çeşitliliği mevcuttu. Bugünkünden farklı olarak o dönemdeki mikrobilgisayarlar çoğunlukla birbiriyle uyumsuzdu; bir markanın yazılımı diğerinde çalışmazdı.

1975-1977 arasındaki kısa dönemde göz açıp kapayana kadar bir devrim gerçekleşti. Sadece iki yıl içinde, kişisel bilgisayarlar bir oyuncaktan ticari bir ürüne dönüştü ve kitlelere yayılmaya başladı. Elbette bu hızlı gelişme, önceki otuz yılda biriken bilgi sayesinde mümkün olmuştu. Kişisel bilgisayar, önceden tasarlanıp hazırlanmış klavye, ekran, depolama aracı, bellek çipleri, mikroişlemciler gibi hazır parçaların nispeten küçük uyarlamalarla birleştirilmesiyle yaratılmıştı. Kişisel bilgisayarların bir teknoloji devriminden ziyade bir zihniyet devrimi, bir “paradigma kayması” olduğunu söylemek abartılı olmaz.

IBM PC

IBM’in mikrobilgisayar pazarına geç girdiği düşünülür. Oysa şirket ta 1975′de, bilimsel işlere yönelik bir mikrobilgisayar olan 5100 modelini piyasaya sürmüştü, ama bu makine pek fazla satılmadı. 1980′e gelinip kişisel bilgisayarların iş dünyasında önemli bir yer tutacağı görüldüğünde IBM tekrar harekete geçti. Üstelik bu sefer “çeşit olsun” diye değil, mikrobilgisayarları işinin merkezine alacak şekilde plan yaptı. IBM’in kurumsal bürokrasisini bilenler için şirketin bu konudaki çevik davranışı şaşırtıcı olmuştu.

Yeni kuşak 16 bitlik mikroişlemciler, önceki 8 bitlik çiplerden daha hızlı çalışıyorlardı. Geç başlama, ve sıfırdan başladığı için yeni bir dizayn hazırlama imkânı olan IBM, Intel 8088 çipini seçerek piyasadaki en hızlı bilgisayarı üretme şansı buldu. Bu karar aynı zamanda Intel’in mikroişlemci pazarındaki hakimiyetini kalıcı kıldı. Proje 1980 Temmuz ayında IBM üst yönetim tarafından onaylandı ve prototipi sonbaharda hazır edildi. Üretime başlandı ve IBM Model 5150 (“PC”) 1981 Ağustos ayında mağazalarda yerini aldı.

518px-Ibm_pc_5150

IBM 5150 “PC” bilgisayar (Wikipedia)

IBM PC paketten çıkarılp hemen kullanılabilecek bir sistemdi. Siyah-beyaz metin ekranı, klavye, Epson nokta vuruşlu yazıcı, teyp, ve 16 KB (kilobayt) bellek bulunduran bir IBM PC’nin fiyatı 1565 dolardan başlıyor, 256 KB bellekli ve disket sürücü kullanan tam teçhizatlı modeller ise 3000 dolara varıyordu. Ayrıca BASIC yorumlayıcısı, VisiCalc hesap tablosu, EasyWriter kelime işlemci gibi yazılımlar da PC’nin beraberinde geliyordu.

Teknolojik olarak büyük bir sıçrama sayılmasa da, IBM PC ile mikrobilgisayarlar kalıcı olarak hayatımıza girdi. Apple, Commodore gibi markaları almaya çekinenler, IBM markasını tereddütsüz benimsediler. Üretim talebe yetişemiyordu. Birkaç gün içinde IBM üretimi dört kat arttırmaya karar verdi. 1982 sonunda her dakika IBM markalı bir bilgisayar satıldığı söyleniyordu. IBM PC mikrobilgisayarlarda bir endüstri standardı haline gelmiş, “PC” terimi bir cins isim haline gelmişti.

Microsoft

PC’nin disket sürücülü modeli, bir disk işletim sistemine ihtiyaç duyuyordu. IBM önce tanınmış bir şirket olan Digital Research’e yöneldi. Onunla anlaşma sağlanamayınca, Seattle’da bulunan otuziki çalışanlı küçük bir yazılım şirketi olan Microsoft’la görüştü. Microsoft’un yöneticileri Bill Gates ve Paul Allen, ellerinde hazır bir ürün bulunmamasına rağmen hemen anlaşmayı yaptılar. Başka bir yerel yazılım şirketinin hazırladığı bir işletim sistemini 30 000 dolara satın aldılar ve geliştirerek MS-DOS’u hazırladılar.

Bill-Gates-and-Paul-Allen-1981

Paul Allen (solda) ve Bill Gates, 1981.

IBM’le yaptığı işbirliği Microsoft’a büyük bir başarı getirmişti. Satılan her PC, MS-DOS işletim sistemiyle çalışıyordu. Gates ve Allen makine başına 10 ila 50 dolar telif hakkı almakla kalmadılar; IBM’le anlaşmaları gereği yazılımın haklarını ellerinde tuttukları için başkalarına da pazarlama imkânı bulabildiler. “IBM uyumlular”ın da piyasaya çıkmasıyla, Microsoft’un işletim sistemi dünyadaki milyonlarca bilgisayara hâkim oldu. Gates, bu alışılmadık tekeli çok iyi kullanarak şirketini büyütecek ve on yıl içinde dünyanın en zengin adamı haline gelecekti.

IBM uyumlular

IBM PC piyasada kolayca bulunabilen elektronik bileşenler kullanıyordu. İsteyen ve yeterli uzmanlığa sahip olan her şirket Intel’den mikroişlemcileri, diğer üreticilerden diğer donanım bileşenlerini, Microsoft’tan disk yazılımını alarak kendi PC markasını ortaya çıkarabilirdi. IBM’e özgü olan tek şey, ROM (sadece okunabilen bellek) çipindeki BIOS (temel giriş-çıkış sistemi), yani bilgisayarın işleyişini yöneten yazılımdı. IBM BIOS yazılımının her hakkını elinde tutuyordu ve izinsiz kullanan şirketlere dava açıyordu.

IBM PC’nin piyasaya çıktığı aylarda, Texas Instruments şirketinde çalışan üç mühendis PC’ye tamamen uyumlu, yani PC’de çalışan bütün programları aynen çalıştırabilecek bir bilgisayar yapmayı planladılar. Bu amaçla işlerinden ayrılıp Compaq şirketini kurdular. Tasarım aşamasında karşılarındaki en büyük engel BIOS yazılımının yayın hakkıydı, onu da “ters mühendislik” ile (bilgisayarın çalışmasına bakıp, aynı işlevleri yapacak bir yazılım üretmekle) aşmayı planladılar. IBM’in BIOS programına aşina olmayan bir grup mühendisi bir odaya kapattılar ve her türlü etkiden uzak tutarak sıfırdan yeni bir BIOS yazdırdılar. Hukuki engeli böyle aşan Compaq “IBM uyumlu” ilk PC’yi üretmiş oldu. Şirket hızla büyüdü ve kısa zamanda bilgisayar devleri arasına katıldı.

1984 yılında Phoenix Technologies şirketi IBM’in BIOS yazılımını yine ters mühendislik kullanarak sıfırdan yarattı ve bu BIOS’u arındıran bir ROM çipini piyasaya çıkardı. Böylece HP, Dell ve daha birçok şirket Phoenix çiplerini  kullanarak IBM uyumlu PC üretimine başladılar. Kişisel bilgisayarlar çoğaldı, ucuzladı, ve gitgide güçlendi.

O günden bu güne kişisel bilgisayarlar toplumu değiştirdi. Teknolojik gelişmeler birbirini izledi. 1984′de grafik arayüzlü Apple Macintosh’un piyasaya çıktı ve uzun bir zaman kullanışlılığın simgesi olarak kaldı. 1990′larda PC’lerde Windows grafik arayüzü standart hale geldi ve bilgisayar kullanmak daha doğal hale geldi. Evindeki veya okulundaki bilgisayarı özgürce kurcalayarak programlama öğrenen bir programcı kuşağı yetişti.

1960′lardan beri sözü edilen “bilişim özgürlüğü” kavramı kişisel bilgisayarlar sayesinde gerçekleşti. 1980′lerde “özgür yazılım” kavramı geliştirildi ve GNU Projesi başladı. 1990′ların başında UNIX işletim sistemi özgür yazılım modeli kullanılarak Linux adıyla PC’ler için tekrar yazıldı. Linux’un varlığı, ucuz PC’lerin internet sunucusu olarak kullanılabilmesini sağladı ve internet geometrik şekilde büyüdü.

Kaynaklar

VENÜS GEÇİŞİ

$
0
0

Bu ayki gök olaylarından biri çok özel: Ömrümüz boyunca bir daha şahit olamayacağımız kadar nadir, ama bilim tarihinde “18. yüzyılın Apollo programı” olarak anılacak kadar önemli bir yeri var.

6 Haziran sabahı Venüs gezegeni Dünya’yla Güneş’in arasından geçecek ve Güneş’in küçük bir kısmını kapatacak. Yani Dünya’ya Venüs’ün gölgesi düşecek. Ancak Venüs çok uzakta olduğu için, özel araçlarla gözlenmezse farkında bile olamayacağımız kadar küçük bir gölge bu.

Resim: 2004 yılındaki Venüs geçişi. (Wikipedia)

Venüs geçişi tabir edilen bu olay teleskoplu gözlemlerin başlamasından bu yana sadece yedi sefer gözlendi (1631, 1639, 1761, 1769, 1874, 1882 ve 2004 yıllarında). Elbette bu geçişler aksak da olsa bir düzene sahip. Hesaplara göre iki geçiş arasında 8, 121.5, 8, ve 105.5 yıl geçmesi gerekiyor; sonrasından aynı kalıp tekrarlanıyor. Geçişler sadece Haziran başı veya Aralık başında olabiliyor.

Bu ay, sekiz yıl farkla gerçekleşen bir çiftten ikincisini yaşayacağız. Bir sonraki geçiş ancak 2117 yılının 11 Aralık günü görülebilecek.

Kozmik cetvel Venüs

Venüs geçişi sadece ilginç bir olay olmakla kalmıyor, astronomi tarihinde önemli bir yeri var. Çeşitli tarihlerdeki bu geçişler Güneş sisteminin boyunu ölçmek için bir “cetvel” gibi kullanıldı, Dünya-Güneş mesafesinin yaklaşık 150 milyon kilometre olarak belirlenmesini sağladı.

Onsekizinci yüzyıla gelene kadar, her gezegenin Güneş çevresinde attığı turun kaç yıl sürdüğü hassasiyetle ölçülmüştü. Dönme süresi bilindiğinde de, Kepler’in üçüncü kanunu sayesinde gezegenin Güneş’ten mesafesi bulunabiliyordu. Ama Kepler yasası bu mesafeleri kilometre olarak değil, Dünya-Güneş mesafesinin oranı olarak vermeye uygundu sadece. Eğer Dünya-Güneş mesafesi ölçülebilirse, bütün diğer gezegenlerarası mesafelerin kaç kilometre olduğu hesaplanabilecekti.

1677′deki Merkür geçişini izleyen astronomlardan 21 yaşındaki Edmond Halley (daha sonra kendi adıyla anılan kuyrukluyıldızı keşfedecek olan), gezegenlerin Güneş önünden geçişlerinin Güneş-Dünya mesafesini hesaplamak için kullanılabileceğini farketti.

Resim: Venüs’ün geçişi yeryüzünün farklı yerlerinden gözlenince değişik yollar izler gibi görünür. (Wikipedia)

Halley Venüs geçişini Dünya’nın birbirinden uzak bölgelerinden gözlemeyi teklif etti. Kolunuzu ileri uzatarak başparmağınızı havaya kaldırın ve önce bir gözünüzle, sonra öbür gözünüzle bakın; arkada kalan cisimler başparmağınızın bir soluna bir sağına geçecektir. Bu etkiye “paralaks” adı verilir. Paralaks sebebiyle Venüs’ün Güneş üzerinde takip ettiği yol, değişik gözlem noktalarından çok az da olsa farklı görünecektir. Geçişin başlama ve bitme zamanları da farklı olacaktır. Bu farkları kaydederek Dünya-Güneş mesafesini, oradan da Venüs’ün ve Güneş’in büyüklüğünü hesaplamanın mümkün olduğunu farkeden Halley, bir sonraki Venüs geçişi zamanında uzak bölgelere bilim seferleri düzenlenmesini teklif etti. 1761′de gerçekleşecek olan geçişe ömrünün yetmeyeceğinin bilse de, gözlemleri işleyecek gerekli teorik hesaplamaları yaparak gelecek nesil astronomları gerekli gözlemleri yapmaya teşvik etti.

Resim: 2004 geçişinde Hindistan (kırmızı), Avustralya (yeşil) ve İspanya (mavi) gibi uzak noktalardan yapılan ölçümlerin üstüste bindirilmiş hali. Paralaksın ne kadar küçük olduğu görülebiliyor. (National Solar Observatory, ABD.)

Venüs şart değil tabii; Merkür’ü gözleyerek de aynı iş yapılabilir, hem de Merkür’ün geçişleri daha sık (yüz yılda 13-14 kere) olduğu için daha çok fırsat bulunur. Ama Merkür Venüs’e göre epeyce hızlı hareket ettiği için geçiş daha çabuk biter, gözlem için zaman daha dardır. Ufaklığından dolayı Merkür’ü gözlemek daha zor olacaktır. Üstelik Merkür Güneş’e daha yakın olduğu için zaten küçük olan paralaks etkisi iyice küçülecektir. Bu sebeplerle Venüs geçişi kaçırılmayacak bir fırsat olarak görüldü.

1761 ve 1769 geçişleri

1761′i görmeye Halley’in ömrü yetmese de, önayak olduğu bilimsel hazırlıklar tamamlanmıştı. Ancak o dönemde dünya Yedi Yıl Savaşları ile kaynamaktaydı. Avrupalı güçler arasındaki savaş Amerika, Afrika ve Hindistan’daki kolonilere yayılmış, deniz yollarının emniyeti ortadan kalkmıştı. Yine de çeşitli ülkelerden bilim adamları yola çıkmaktan çekinmediler. Bazıları hedeflerine ulaşamadı, bazıları ise astronominin o zaman bugünkünden çok daha heyecanlı bir meslek olduğunu düşündüren maceralar yaşayarak gözlemlerini yapmayı başardı. Bu ekipler Sibirya, Kanada, Güney Afrika, Hindistan, ve tabii Avrupa’nın çeşitli yerlerinde 62 ayrı ölçüm yaptılar.

Fakat sürpriz bir fenomen ölçümlerin isabetliliğini azaltmıştı. Halley’in teklif ettiği yöntem, Venüs’ün yuvarlağının kenarının Güneş’in kenarına temas anının bir saniyelik hassasiyetle kaydedilmesini gerektiriyordu. Fakat Venüs ve Güneş’in kenarları değmeye yaklaşınca iki dairenin arasında damla biçimi bir yayılma görülüyor, temas anı ancak otuz saniyelik bir hata payı ile ölçülebiliyordu. Bu “Kara Damla” etkisi, başka açılardan çok hassas olan ölçümlerin hata payını büyük miktarda artırıyordu.

Resim: 2004 Venüs geçişinde kara damla etkisi. (© Kevin Wigell)

Sekiz yıl sonra bir şansları daha olduğunu bilen astronomlar, kara damla etkisini hesaba katarak tekrar hazırlıklara başlamışlardı. 1769’da, savaş bittiği için nispeten emniyetli hale gelen bir ortamda, İngiliz, Fransız, İspanyol, Rus, ve kolonilerden Amerikalı bilim adamları yine dünyanın dört bir tarafına dağıldılar. Uzak coğrafyalardaki tehlikeler yüzünden gerçek birer maceraya dönüşen bu geziler sonucunda tam 77 değişik konumdan rasatlar yapıldı.

Bu seferlerden biri, daha sonra ün kazanacak kaptan James Cook’un ilk keşif gezisiydi. Geçişi Tahiti’de kaydeden Cook’a, geri dönmeden önce, o zamanlar mevcut olduğu zannedilen büyük güney kıtasını araması emredilmişti. Böyle bir kıta bulunamadı, ama Cook, Venüs geçişi için çıktığı yolculuk sırasında Avustralya’nın doğu kıyılarını, Yeni Zelanda’yı, ve sayısız Pasifik adasını keşfetti.

Resim: Norfolk Adası’nın Cook’un seferinin 200. yılı anısına bastığı pul.

Sonraki yıllarda Fransız astronom Jerome Lalande, 1761 ve 1769 geçişlerinde yapılan ölçümleri birleştirerek Dünya-Güneş arası mesafeyi 153 milyon kilometre olarak açıkladı. Kara damla etkisi yüzünden bu tahmindeki hata payı 1 milyon kilometre gibi yüksek bir değerde çıktı.

Kara damla etkisine neyin sebep olduğuna dair çeşitli tahminler yapılsa da, yakın zamana kadar kesin bir cevap bulunamamıştı. 1999’da astronom Jay Pasachoff, TRACE uydusuyla yapılan Merkür geçişi gözlemlerini inceledi. Kara damla yine mevcuttu, ama Merkür’ün atmosferi olmadığı, gözlem de uzaydan yapıldığı için, etkinin atmosferlerden kaynaklanmadığı anlaşıldı.

Pasachoff’un analizine göre kara damlanın sebeplerinden biri her teleskopta az veya çok bulunan bulanıklaştırma etkisi. Diğer sebep ise Güneş’in bir gaz topu olması, keskin bir bitiş yerinin bulunmaması. Güneş diskinin hemen dışı siyah görünse de, orası boşluk değil, nispeten daha soğuk olduğu için karanlık görünen gazla dolu bir bölge. Bu iki etkinin birleşimi kara damlaya yol açıyor. Bugün gelişkin teleskoplar ve uydular sayesinde çok daha temiz gözlemler yapılabiliyor, veri işleme yöntemleri sayesinde kara damla tamamen ortadan kaldırılabiliyor.

1874 ve 1882 geçişleri

Aradan geçen 105 yılda hassas rasat araçları barındıran gözlemevleri yerkürenin birbirinden uzak bölgelerine yayılmıştı. Yeni Venüs geçişleri zamanı geldiğinde eskisi kadar çok sayıda ekipler oluşturmak gerekmedi. Kerguelen adası gibi özel yerlere bilimsel seferler yine düzenlendi, ama çoğu gözlem yerleşik astronomlar tarafından yapıldı. Telgraf, demiryolları ve buharlı gemiler sayesinde iletişim çok hızlanmıştı ve koordinasyon çok daha rahat sağlandı. Dahası o dönemde fotoğrafçılık icat edilmiş, insan gözüne güvenmek gerekmeden geçişin kayıt altına alınması mümkün olmuştu.

Kara damla yine mevcuttu, ama gelişmiş teleskoplar ve fotoğraflama tekniği sayesinde hata payı azaltılabilmişti. Bu geçişlerde ve 1761-1769 geçişlerinde elde edilen verilerin birleştirilmesiyle Dünya-Güneş mesafesi 149.59 milyon kilometre olarak tespit edildi, 0.31 milyon kilometrelik bir hata payıyla.

Resim: Eros göktaşı. (Wikipedia)

Venüs’ün verebileceği bilgi bu kadardı. Kısa süre sonra 1898’de keşfedilen göktaşı Eros, aynı ölçümü daha hassas yapma imkânı sağladı. Dünya’ya yakın geçmesi sayesinde Eros daha büyük bir paralaks sağlayacak, atmosferi olmadığı için çeperinde bulanıklık görülmeyecek, dolayısıyla hata payı çok azalacaktı. Bilimciler yeni bir rasat seferberliğine girişti, ve Eros rasatları sayesinde 20. yüzyılda Dünya-Güneş mesafesi sadece birkaç bin kilometrelik hata payıyla belirlenebildi. Bu sonuç ne kadar etkileyici olsa da, sadece otuz yıl sonra aşıldı.

Sonraki yıllarda yakın gökcisimlerinin mesafelerinin radarla tespit edilebilmesi, Dünya-Güneş mesafesini çok büyük bir hassasiyetle belirleme imkânı verdi. Bugün kabul edilen değer 149,597,870,691 metre. Hata payı ise sadece 30 metre. Bu, bir insanın boyunu sadece bir atomun büyüklüğü kadar bir hata payıyla ölçmeye denk bir hassasiyet.

Halley torunları ile kesinlikle gurur duyardı.

Yeni bir amaç

Geçişler hâlâ astronomi camiasi için önemli gözlem fırsatları sağlıyor, ama bu seferki amaç değişik. Astronomlar, bir yıldızın önünden bir gezegenin geçmesinin ne çeşit görünür etkiler yarattığını ölçmek istiyorlar.

Son yirmi yılda astronomlar uzak yıldızların çevresindeki gezegenleri tespit edebilmeye başladılar. Olağanüstü hassas ölçümler gerektiren bu gözlemler için çeşitli yöntemler kullanılıyor. Bunlardan biri gezegen geçişi yöntemi. Bir gezegen, yıldızının önünden geçerken yıldızın ışığı birazcık azalır, sonra eski haline gelir. Gezegenin kendisi görülemese de, yıldızın ışığının değişimi ile gezegenin büyüklüğünü ve periyodunu, dolayısıyla yıldızdan uzaklığını, yaşamaya uygun sıcaklıkta olup olmadığını tahmin etmek mümkün olur.

Resim: Kepler programı, yıldızların ışığındaki periyodik azalmaları gözleyerek yörüngelerindeki gezegenleri tespit etmeyi amaçlıyor. (NASA Ames Research Center/Kepler Mission)

Gezegen geçişi yöntemi her zaman işlemez. Öncelikle, gezegenin yörüngesinin Dünya’dan bakış çizgimizle hizalanmış olması lâzım, yoksa gezegenin “gölgesi” üzerimize düşmez. Ayrıca algılamanın çok hassas olması gereklidir (binlerce kilometre ötedeki bir ateşböceğine bakarak, yanıp sönmesini değil, ışığındaki küçük oynamaları algılamaya çalıştığınızı düşünün). Bu sebepler yüzünden geçiş yöntemi ile Dünya benzeri küçük gezegenler değil, yaklaşık Jüpiter büyüklüğündeki dev gezegenler algılanabiliyor. Bu zorluklara rağmen yöntem başarılı oluyor.

NASADışGezegenKataloğu’na göre, şimdiye kadar tespit edilmiş olan 691 dış gezegenden 188’i geçiş yöntemiyle saptanmış.

Gezegen geçişi sırasında yıldız ışığı sadece azalmakla kalmıyor, gezegenin atmosferinden geçerek geldiği için spektrumu, yani renkleri de değişiyor. Değişen spektruma bakarak gezegenin atmosferinde hangi gazlar bulunduğunu kestirmek mümkün.

Venüs geçişi burada devreye giriyor. Geliştirilen bu hassas tekniklerin doğru işleyip işlemediğini anlamak, varsa hatalarını ortaya çıkarmak için bir deneme sürüşü yapmak lâzım. Venüs’ün atmosfer yapısını zaten biliyoruz. Geçiş sırasında yapılacak gözlemler bildiklerimize uyan sonuçlar verirse ne âlâ, yoksa araçları tekrar gözden geçirmek gerekecek.

İşi zorlaştıran bir etken daha var. Bu gözlem Hubble teleskobu ile yapılacak, ama Hubble doğrudan Güneş’e bakamaz, yoksa hassas alıcı devreleri şiddetli Güneş ışığı ile kavrulur. Bu yüzden astronomlar geçiş günü Hubble’ı ters yöne, Ay’a doğrultacaklar ve Ay’dan yansıyan zayıf ışığı kaydedecekler.

Nasıl gözlemeli?

Geçiş, Türkiye saatiyle 6 Haziran 01:05’de başlayacak, 07:55’de sona erecek. Venüs Güneş’in üst kısmından geçtiği için Güneş tam yükselmeden de görebilirsiniz. Fotoğraf çekmek için gündoğuşu güzel bir enstantane sağlayabilir, ama daha sonra güçlü bir Güneş filtresi gerekir.

KESİNLİKLE ÇIPLAK GÖZLE, GÜNEŞ GÖZLÜĞÜYLE, İSLİ CAMLA VEYA DÜRBÜNLE GÜNEŞE BAKMAYIN. Eğer 1999 veya 2006 güneş tutulmaları için özel gözlüklerden almış ve bir köşede saklamışsanız onları kullanabilirsiniz. 14 numara (en koyu renklisi) kaynakçı camı kullanmak da güvenlidir.

Teleskobunuz varsa, Güneş’e yönlendirip (içine ASLA bakmadan), göz kısmının arkasına bir beyaz kâğıt tutarak Venüs’ün gölgesini görebilirsiniz.

Resim: Venüs geçişinin görülebileceği bölgeler. Geçiş, Türkiye’nin de dahil olduğu yeşil renkli alanda 6 Haziran sabahı gün doğumundan önce başlamış olacak. (NASA)

Tavsiye edilen başka bir yol “kutu kamera” yapmak. Bir tarafı uzunca bir kutu alın. Küçük yüzlerini kesip atın. Yüzlerden birini alüminyum folyoyla kaplayın. Folyonun ortasına, bir toplu iğnenin ucuyla küçük bir delik açın. Delik ne kadar küçük olursa o kadar iyi. Kutunun öbür ucuna yakın bir yerde yanına bir pencere kesin. O pencereden kutunun kapalı yüzüne düşen güneş görüntüsünü seyredebilirsiniz. Uzun bir kutunuz varsa Güneş daha büyük gözükecektir. Ayrıntılar için Exploratorium websitesindeki resimlere bakabilirsiniz.

Daha profesyonel bir ortam arzu ediyorsanız, geçiş sırasında halka açık olan AnkaraÜniversitesiRasathanesi‘ni ziyaret edebilirsiniz. İmkânınız yoksa, bulunduğunuz yerde hava bulutlu ise, veya sabahın köründe açık alana gidemiyorsanız, NASAnıninternettenyapacağınaklenyayını seyredebilirsiniz.

Her halükarda 6 Haziran sabahı işe giderken Güneş’e yan gözle bir anlığına bakın, bu tecrübeyi hiç olmazsa hayalinizde canlandırarak yaşayın ve astronomların yüzlerce yıllık heyecanına ortak olun.

Kaynaklar

○     http://transitofvenus.nl/wp/

○     http://www.transitofvenus.org/

Kevin Wigell http://www.kwastronomy.com/Venus_Transit_2004.htm

BİLGİSAYAR TARİHİNDE ÇIĞIR AÇAN 10+1 İCAT (4.BÖLÜM)

$
0
0

Firstmouseunderside

9. Fare

Bilgisayarlarımızın neredeyse ayrılmaz parçası olan “fare” ilk olarak 1968′de San Francisco’da düzenlenen bilgisayar konferansında sahneye çıktı. Stanford Research Institute’da insan faktörleri araştırma grubunu yöneten Douglas Engelbart (1925-2013), insanların bilgisayarlarla verimli bir şekilde çalışabilmeleri için geliştirdiği yeni teknikleri kuru bir konuşma yerine canlı bir gösteriyle sunmaya karar vermişti. Önceden hazırlanmış bir terminalin başına oturdu ve mikrodalga TV bağlantısıyla 50 km uzaktaki laboratuvarında bulunan bilgisayarla bağlantı kurdu. Terminale harcıalem bir klavyenin yanı sıra, alışılmadık bir araç iliştirilmişti: Arkasından kuyruk gibi bir kablo çıkan bir kutucuk.

Prototip fare Douglas Engelbart'ın elinde.

Prototip fare Douglas Engelbart’ın elinde. (Wikipedia)

Engelbart, görüntüsünden dolayı “fare” adını verdikleri bu işaretleme cihazını kullanarak uzaktaki bilgisayarda basit bir kelime işlemci, basit bir hipermetin belgesi (bağlantılara tıklayarak başka belgelere ulaşma imkânı veren bir belge), ve başka etkileşimli yazılımlar çalıştırdı.

Dinleyicilerin ne kadarı farkındaydı bilinmez, ama Engelbart onlara geleceğin bilgisayarını göstermişti.

Fare deyip geçmemek gerekiyor. Fare, veya daha genel bir terimle “işaretleme cihazları”, büyük bir vizyonun, bilgisayar teknolojisinin insan zihnine eklemlenmesi tasarısının bir parçasıydı. Bu vizyonu ilk ifade eden kişi, bir psikolog olan ama ömrünü bilgisayar sanayiinin içinde geçirmiş olan Joseph Carl Robnett Licklider (1915-1990) idi.

Licklider disiplinlerarası çalışma için doğmuş biriydi. Matematik, fizik, ve psikoloji alanında üç lisans diploması alıp psikolojide yüksek lisans yaptıktan sonra uzmanlıklarını birleştirebildiği psikoakustik (seslerin algılanması) alanında doktora yaptı. 1950′de MIT’de elektrik mühendisleri için bir psikoloji programı oluşturdu. 1957′de yüksek teknoloji şirketi Bolt, Beranek & Newman’da başkan yardımcısı olarak çalışmaya başladı. 1960′da yayınladığı “İnsan-Bilgisayar Simbiyozu” başlıklı makalesinde insanların hayatlarının bilgisayarlarla içiçe geçtiği bir gelecek tasvir etti, ki o dönemdeki bilgi işleme usulü bu hayalin çok uzağındaydı.

J. C. R. Licklider'ın portresi

J. C. R. Licklider (Wikipedia)

1958′de ABD Savunma Bakanlığı’nın desteklediği DARPA (Defense Advanced Research Projects Agency – Savunma İleri Araştırma Projeleri Kurumu) tesis edildi. 1962′de Licklider DARPA’nın Bilgi İşleme Teknikleri Dairesi’nin başına geldi. İsmine rağmen DARPA doğrudan savunma projelerinden ziyade, kısa vadede uygulaması olmayan araştırmaları destekliyordu. Böylece Licklider’ın hayal ettiği şekilde bilişimi insanlarla birleştirecek araştırmalara kaynak sağlama imkânı doğdu. Engelbart’ın araştırmaları da DARPA’dan mali destek almıştı.

Fare güzel bir oyuncak olabilir, ama neden çığır açan bir buluş olsun? Elbette tek başına farenin pek faydası yoktu, ama fare bir grafik arayüzün parçasıydı, bu da radikal derecede farklı bir kullanım tarzı demekti. O zamana kadarki bilgisayar kullanımı çok üst seviyede bir soyutlama ve komut ezberleme gerektiriyordu. Oysa işaretleme cihazları, grafik arayüzlü bilgisayarların insan beyninin en kuvvetli özelliklerinden biri olan el-göz koordinasyonu ile yönetilmesini sağlıyordu. Böylece bilgisayar kullanımının insanileşmesi, kolaylaşması, kitlelere uygun hale gelmesinin kapısı aralanmıştı. Engelbart insan-bilgisayar etkileşimi denen araştırma alanına öncülük etmişti. Bugün kullandığımız grafik arayüzlerin temel prensipleri o dönemde belirlendi.

Ne var ki, Engelbart’ın sunumu kısa vadede hakettiği ilgiyi görmedi. Bilgisayar donanımı pahalıydı, yüzbinlerce dolarlık bir bilgisayarın işlem kapasitesinin bir kısmını grafik işlemleriyle harcamak makul değildi. Ancak 1970′lerde elektroniğin ucuzlaması ile işler değişti. Güçlenen ve ucuzlayan bilgisayarlarda, grafik arayüz teknolojisi sıçraması beklenmedik bir yerden, bir fotokopi makinesi üreticisinden geldi.

Xerox şirketi, yükselen Japon firmalarının rekabeti karşısında ürünlerini çeşitlendirme isteğiyle, 1969′da bilgisayar konusunda çalışacak bir ar-ge bölümü kurmuştu. Palo Alto Research Center (PARC) olarak bilinen bölümün amacı “geleceğin ofisi”ni kurmaktı. PARC’ın başına eski bir DARPA yöneticisi olan Robert Taylor (1932-) getirildi. Taylor, Licklider’la beraber çalışmıştı ve onun vizyonunu PARC’a taşıdı. Bu vizyonu Alto adı verilen bir bilgisayar sistemi üreterek somutlaştırdılar.

1973′de hazırlanan Alto çağının çok ötesinde bir bilgisayardı. Herşeyden önce, bir mainframe değil kişisel bir bilgisayardı. Bir dosya kâğıdı büyüklüğünde, dik duran ekranı grafik çıktıya uygun olarak hazırlanmıştı. Fare aracılığıyla bir grafik arayüzle çalışılıyordu. Alto’lar birbirlerine Ethernet standardı kullanan bir ağla bağlanabiliyorlardı. Alto’ları lazer yazıcılarla kullanmak da mümkündü.

Xerox Alto bilgisayarı

Xerox Alto bilgisayarı. (Wikipedia)

Yaklaşık bin adet Alto üretildi, fakat bunlar satışa sürülmeyip Xerox içinde kullanıldılar. Henüz kişisel bilgisayar devrimine birkaç yıl vardı, ve çoğu insan koca bir bilgisayarın tek kişinin kullanımına adanmasını abes buluyordu. Zaten maliyeti 18 000 doları bulan bir kişisel bilgisayarın alıcı bulması çok zordu. Kişisel bilgisayar pazarının açılmasından sonra 1981′de ticari bir model hazırlandı ve Xerox Star adıyla piyasaya sürüldü. Ancak, çok üstün teknik özelliklerine rağmen çok yüksek fiyatı ve şirketin pazarlama başarısızlığı yüzünden piyasada tutunamadı.

Yine de Alto bilgisayar tarihini dolaylı yoldan etkiledi. 1979′da Steve Jobs PARC’ı ziyaret ettiğinde Alto’yu inceledi ve hayran kaldı. Fare ve grafik arayüz kullanımının bilgisayarların yaygınlaşmasının anahtarı olacağını tahmin etti ve yeni Apple modellerinin tasarımını buna göre yönlendirdi. Lisa adlı başarısız bir modelden sonra 1984′de ünlü Macintosh piyasaya çıktı. PC dünyasında aynı gelişme birkaç yıl sonra Microsoft’un Windows yazılımı ile sağlandı.

Fare çoğu insanı yıldıran siyah komut ekranını ortadan kaldırdı ve daha çok kullanıcının bilgisayara ısınmasına vesile oldu. Grafik arayüz görsel ve daha anlaşılır bir çalışma ortamı sağladı. Zamanla fareler gelişti, kolay bozulan toplu fareler yerine dayanıklı ve hassas optik fareler gelişti. Sürükleme topu (trackball) ve dizüstü bilgisayarlardaki touchpad gibi alternatif işaret cihazları icat edildi. Artık akıllı telefon ve tabletler ile sadece dokunmatik ekranlarıyla, yani işaretleme ile etkileşim kuruyoruz. Masaüstü bilgisayarların yakında yerlerini mobil cihazlara bırakacağı söyleniyor. Yakında bilgisayarlarla bilimkurgu filmlerindeki gibi boşlukta el hareketleri ile etkileşmeye başlayabiliriz. Bütün bunlar 45 yıl önce Douglas Engelbart’ın elindeki gösterişsiz tahta kutunun içinden çıktı.

"Azınlık Raporu" filminden bir sahne

“Azınlık Raporu” filmindeki gibi el hareketleriyle yönetilen bilgisayarlar çok uzak değil.

10. Web 2.0

Son maddeye başlamadan önce bir durup, çığır açıcı bulma kriterlerimizi gözden geçirelim.

Başka icatları yaratan bir kök icat, çığır açıcı olarak düşünülebilir. “Y olmasa Z olmazdı, X olmasa da Y olmazdı” mantık zinciriyle gidebildiğimiz kadar geriye giderek bir alandaki en önemli icadı bulabiliriz. Ama bunda iki sorun var. Birincisi, icatlar genellikle birden fazla kaynaktan beslenirler, doğrusal bir çizgi takip etmezler, hatta bazen birbirlerini aynı anda geliştirirler. İkincisi de, hiç bir icat gökten inmediği için, bu zincirin sonunda nihai çığır açıcı icat olarak “ateş yakma”ya varırız. Bu kadar geriye gitmek de abes olur elbet.

Bu listedeki icatları seçerken mihenk taşım şu oldu: Daha önceki teknolojilerden ciddi şekilde farklı olan inovasyonlar (meselâ transistörler), veya varolan teknolojileri biraraya getiren, büyük bir inovasyon içermeyen, ama öngörülemeyen büyük sonuçlar yaratanlar (meselâ kişisel bilgisayarlar).

Büyük bir sonuç olarak önümüzde bilgisayar ağları var. Hayatımızın her alanına entegre olmuş durumda. Peki, “ağ toplumu”nun çığır açıcı adımı nerede atıldı?

Teknoloji olarak bakıldığında bu adımın, yukarıda bahsettiğim DARPA kurumunun fonlarıyla desteklenen ARPANET projesi ile atıldığı söylenebilir. 1960′ların başında tasarlanmaya başlayan ve 1970′de devreye giren ARPANET’in amacı, coğrafi olarak birbirinden uzak mainframe bilgisayarları iletişim hatlarıyla birbirine bağlamaktı. Bu sayede bir bilgisayarın yoğun olduğu durumlarda iş yükünü başka bir bilgisayara aktarmak, böylece kaynakların daha ekonomik kullanılmasını sağlamak amaçlanıyordu.

ARPANET’i oluşturmak kolay olmadı. O dönemin birbirinden çok farklı iç yapıya sahip ve değişik veri kodlama usülleri olan bilgisayarlarının kullanabileceği güvenilir bir platform yaratmak gerekiyordu. Bu amaçla, verilerin parçalara bölünüp ağ üzerinden gönderilmesi, kaynaktan hedefe doğrudan bağlantı yoksa aradaki bilgisayarların veriyi yönlendirmesi gibi yöntemler geliştirildi. Ağdaki bilgisayarların iletişim kurma kurallarını belirleyen “protokol”ler, TCP (Transmission Control Protocol – İletim Yönetimi Protokolü) ve IP (Internet Protocol – Ağlar arası protokol), yine ARPANET himayesinde gelişti. Bugünkü internet altyapısı hâlâ bu teknolojilerin üzerinde durduğu için ARPANET’in çığır açıcı olduğu söylenebilir.

ARPANET haritası, 1971.

ARPANET’in 1971 yılı itibariyle kapsamı. (Richard Griffiths)

Başka bir açıdan bakıldığında ise asıl büyük adımın Ethernet teknolojisi olduğu söylenebilir. Bu teknoloji 1973′de, Xerox PARC’da Alto bilgisayarı ile beraber geliştirildi. Buradaki amaç yerel olarak bağlı bilgisayarların bilgi alışverişi yapmasını sağlamaktı. Bir ofiste veya laboratuvardaki bilgisayarlar ortak bir aktarım kablosuna bağlanır, ve her biri diğerine sinyalleri aynı hat üzerinden gönderir. Sinyallerin karışmasını engellemek için, bir odadaki sohbette insanların kullandığı nezaket protokolüne benzer kurallar uygulanır. Sözgelişi, her bilgisayar iletişimi dinler, kanal boşsa kendi sinyalini gönderir. İki bilgisayar aynı anda sinyal gönderdiyse ikisi de durur, rastgele bir süre sonra tekrar denerler.

ARPANET birbirinden uzak ana bilgisayarlar arasında çalışan bir iletişim omurgasıydı, Ethernet ise yakın mekândaki kişisel bilgisayarları bağlayan bir yerel ağ oluşturuyordu. Birbirini tamamlayan bu iki teknoloji 1970’lerde ortak protokollerde birleşti ve bu protokoller bugüne kadar geldi. Bu yazıyı okuduğunuz bilgisayar Ethernet kurallarına göre çalışan bir devreyle ağınızın “router”ına bağlandı, o da TCP/IP kurallarıyla Açık Bilim sunucusundan bu sayfayı talep etti, ve sizin bilgisayarınıza aktardı.

Ancak, fiziksel bir ağ yapısı o kadar da orijinal bir fikir değildi. İletişim ağı olarak telefon şebekesi örneği vardı. Hatta önceki yüzyılda geliştirilen telgraf şebekesi bile “Victoria devri interneti” olarak anılmayı hakedecek derecede yoğun bir bilgi aktarımı sağlamıştı. Bu yüzden, biraz da cüretkâr davranarak, çığır açıcı olan gelişmenin bağlantı kurabilmek değil, aktarılan bilgilerin anlamlı şekilde organize edilmesi olduğunu savunacağım.

1980′lerde, varolan internet altyapısı üzerinde çeşitli bilgi alışverişi yöntemleri gelişti. Dosya paylaşımı, e-posta, ilan tahtası sistemleri (BBSler), listserv haberleşme grupları gibi. Bunlar küçük meraklı gruplarına hitap ediyordu, geniş kitlelere yayılmamıştı (kişisel bilgisayarların ilk aşamalarının da böyle olduğunu geçen ayki yazıdan hatırlarsınız).

World Wide Web beklenmedik bir yerden çıkageldi. 1990′da, İsviçre’deki uluslararası yüksek enerji fiziği laboratuarı CERN’de çalışan İngiliz fizikçi ve yazılım mühendisi Tim Berners-Lee (1955-), değişik bilgisayarlara dağılmış verilerin, hipermetin tıklamalarıyla birleştirilebileceği bir belge sistemi tasarladı ve Belçikalı yazılım uzmanı Robert Cailliau (1947-) ile işbirliği yaparak geliştirdi. Her Web adresinin başında gördüğünüz http (HyperText Transfer Protocol – Hipermetin Aktarma Protokolü) ve web sayfalarının görüntülenmesi için kullanılan kodlama dili HTML (Hypertext Markup Language – Hipermetin İşaretleme Dili), Berners-Lee tarafından icat edildi.

Tim Berners-Lee fotoğrafı

Tim Berners-Lee. (World Wide Web Foundation)

WWW kısa zamanda CERN sınırlarını aştı ve dünya çapında bir bilgi paylaşımı sistemi haline geldi. Berners-Lee’nin 1991′de yaptığı bir konferans sunumundan sonraki iki yıl içinde Web standardıyla hazırlanmış belgelerin sayısı hızla arttı. Berners-Lee Web yapısının ticari sır haline getirilmemesi, herkese açık bir geliştirme platformu olmasını istiyordu; CERN’i Web teknolojisini halka açmaya ikna etti.

İlk yıllarda Web sayfalarına metin temelli tarayıcılarla (örneğin Lynx) erişiliyordu. 1990′ların ortalarında iki gelişme Web’in akademik çevrelerden topluma hayata yayılmasını sağladı. Birincisi, 1994 sonunda hazırlanan grafik arayüzlü Netscape tarayıcısıydı. Netscape ile Web sayfalarında resim, müzik ve video gösterilebiliyor, sayfa düzeni şık bir şekilde düzenlenebiliyordu.

İkinci önemli gelişme Web’in ticarileşmesiydi. ARPANET ve 1990′da onun yerine geçen NSFNET internet omurgalarının masrafları ABD hükümeti tarafından karşılandığı için ticari amaçla kullanılmaları yasaktı. 1995′de NSFNET kapatıldı, yerini o zamana kadar serpilmiş özel internet servis sağlayıcıları aldı. Böylece mal ve hizmet satan kâr amaçlı Web siteleri kurulabildi ve e-ticaret hacmi hızla arttı. Ticarileşmeyle beraber Web sayfalarının profesyonelliği arttı, programcılar gitgide daha güzel görünen sayfalar hazırlamayı, ve karmaşık bilgilerin organize edilebildiği site düzenleri kurmayı öğrendiler.

Web’in ani patlamasının hikâyesini hepimiz biliyoruz. Ne oldu demeye kalmadan Web, banka işlemlerimiz, alışverişimiz, haberleşmemiz ve sosyalleşmemizde merkezi duruma geldi.

O zaman, Tim Berners-Lee’nin aklının ürünü olan WWW’nin çığır açıcı olduğunu söylemek doğru olur. Bununla beraber, 2000′lere gelene kadarki Web ile, son on yılın Web’i arasında büyük farklar olduğu da iddia edilebilir.

2000′lerin başında Web sayfalarının altyapısında olmasa da, görünüşü ve kullanılışında radikal bir değişiklik yaşandı. Eskinin statik (her açılışta aynı kalan, yeni içeriğin ancak sayfa tasarımcısı tarafından eklenmesiyle görülebilen, zayıf etkileşimli) Web sayfalarının yerini dinamik sayfalar aldı. Bu siteler kullanıcıya özel şekilde oluşturulabiliyor, anlık değişiklikleri gösterebiliyor, içinde başka uygulamaları barındırabiliyordu. Bu yeni yaklaşıma, yazılım sürümlerinin numaralanmasından ilham alarak, Web 2.0 adı yakıştırıldı.

Web 2.0 kavramı teknolojik altyapıda fazla bir değişiklik içermez. Bitler ağ üzerinde kırk yıllık TCP/IP protokolüyle aktarılır, web uygulamaları HTTP protokolüyle açılır, sayfalar HTML sayfalarıyla görüntülenir ve 1990′larda kullanılan aynı programlama dilleriyle programlanır. Asıl önemli fark, bu sayfaların sunduğu hizmetlerdedir.

1990′ların Web’i (“Web 1.0”) çok önemli bir devrim yapmış, isteyen herkesin kendi web sayfasını oluşturabileceği araçlar sunmuştu. Yine de bu araçlar belli bir teknik zorluğa göğüs germeyi gerektiriyordu, sayfayı barındıracak bir internet hizmeti (“hosting”) ve alan ismi satın almak, HTML kodlaması yapmak gibi. Bireylerin söz hakkı bir miktar artmıştı, ama ifadenin önündeki bariyerler tamamen kalkmamıştı.

Web 2.0 ise kişiler arası bağlantıları, iletişimi, ortak çalışmayı, içerik üretimini ön planda tutar. Sözgelişi, Web programlama zahmetine girmek istemeyenler ücretsiz olarak, hazır kalıpların bulunduğu Web alanları oluşturabilirler. Bunlar statik sayfalar da olabilir, bloglar gibi belli usullerde dinamik hizmet veren siteler de. “İçerik yönetim sistemleri” denen üst düzey Web programlama araçları, tam teşekküllü bir site oluşturmayı çok kolay hale getirerek site sahibinin, yazacağı içeriğe odaklanmasını sağlıyor.

Web 2.0 uygulamaları şeması

Web 2.0 uygulamaları iki boyutta, içerik paylaşımından paylaşma/filtrelemeye, ve Web uygulamasından sosyal ağa, değişik noktalarda yer alırlar. (Future Exploration Network)

Örnek vermek gerekirse, son yılların belki de en büyük uygarlık adımı olan Wikipedia “wiki” adı verilen özel bir içerik yönetim sistemi kullanır. Ama ne okuyucuların, ne de madde yazarlarının bunun ayrıntısını bilmesi gerekmez. Bazı basit kuralları kullanarak içerik yaratmak esastır. Wikiler ve benzeri internet imecelerinin (“crowdsourcing”) devrimsel yanını anlatmak buraya sığmaz. Web 2.0′ın sağladığı araçların temel yararını Clay Shirky’nin ifadesiyle şöyle özetleyebiliriz: “Bir örgüt olmanın minimum maliyeti nispeten yüksek olduğu için, bazı faaliyetler, belli değerleri olsa da, örgütlü şekilde yürütülmeye değecek kadar değerli değildirler. Yeni sosyal araçlar, grup eylemini koordine etmenin maliyetini düşürerek bu denklemi değiştirir.

Sosyal ağlar, Facebook, Twitter, FriendFeed, LinkedIn, Google+, ve daha niceleri, Web 2.0 kapsamındaki araçlar ve kavramlar ile ortaya çıktı. Bunlar bireylere hızlı ve ücretsiz olarak içerik üretme imkânı vermekle kalmadı, paylaşma ve tartışma ortamı da doğurdu. İfade bariyerleri daha da aşağı indi.

Sosyal ağlar toplumsal ve siyasi değişimde de kilit rol oynuyor. Eskiden kolayca örtbas edilen kabahatler sosyal medyada fırtına gibi esiyor, hafızalara yerleşiyor. İletişimin kolaylaşmasıyla örgütlenme imkânı artıyor, Arap Baharı veya Gezi Direnişi gibi kitle hareketleri bir anda ortaya çıkıveriyor.

Coursera, EdX, KhanAcademy gibi sitelerin sunduğu çevrimiçi dersler, geleneksel eğitimi ortadan kaldırmasa bile, muhtemelen değişik bir biçime sokacak. Yeni Web araçları bilimsel araştırmaya da damgasını vuruyor; eski yayıncılık modeli değişiyor, makalelerin “müsvedde”lerini barındıran arşivler en çok kullanılan yayın mecraı haline geldi. Bilimsel araştırmanın her aşamasının paylaşılmasından bahsediliyor.

Web 2.0, bilgiye bakışımızı kökten değiştirdi. Eski medyada gazeteler, basılı ansiklopediler, televizyonlar, tek yönlü ve tartışmasız bir otorite oluştururlardı. Yeni medya ise bunların çoğunun üzerinden atlayıp geçiyor. Tek taraflı değil, kişilerin karşılıklı tartışmaları ve paylaşmalarından ortaya çıkan yeni bir resim çiziyor. Bu yeni tavır, eskiye alışık olanların tepkisini çekiyor. Sosyal ağlarda yayılan yalan haberleri ve abartıları kötü örnek olarak göstermek yaygın, fakat buna karşılık geleneksel medyada da yalanlar ve çarpıtmaların çok sayıda olduğunu gördük, özellikle de Gezi direnişi ve daha sonraki olaylarda. Web 2.0 araçlarını kullandıkça görüyoruz ki, kitlesel katılımla hazırlanan içerikte, Wikipedia sayfası olsun, twitter haberleri olsun, gerçeğin daha kapsamlı ve doğru bir ifadesine ulaşmak mümkün.

Toplum hayatında devrim yaratan kişisel bilgisayarların bir teknolojik atılımdan çok, varolan teknolojinin farklı bir kullanım tarzı olduğunu görmüştük. Aynı şekilde Web 2.0 da, mevcut yazılım ve donanım sistemlerinin kitlesel kullanıma uygun hale getirilmiş paketlemelerinden başka birşey olmasa da, hayatımızda olağanüstü değişiklikler yaptı ve yapmaya devam ediyor.

11. İkili sistem

Dünyada 10 çeşit insan vardır: İkili sistemi bilenler ve bilmeyenler.” – Anonim

Buraya kadar, aşağı yukarı kronolojik sırayla, on değişik çığır açıcı teknoloji gördük. Bunların bir kısmı diğerlerine temel oldu, bir kısmı varolanların değişik bir bakış açısıyla kullanılması ile gerçekleşti.

Ancak açıkça görünür olmasa da bütün bilgisayar teknolojisinin altında yatan bir teorik kavram var: Bilgiyi ikili sistemde, sıfırlar ve birler dizisi olarak kodlamak ve işlemek. Bilişim teknolojisi tamamıyla bu matematiksel teorinin görünmez temeli üzerinde durur.

İkili sistemde yazılan her işaret bir bit (“binary digit” – ikili rakam) olarak anılır ve sadece 0 veya 1 değerlerini alır. 1950′lerden bu yana bütün bilgisayarlar ve diğer dijital araçlar bilgiyi bitler dizisi olarak saklar, kullanır ve aktarır. Ancak eski bilgisayar tasarımlarının hepsi ikili sistem kullanmıyordu. Howard Aiken’in Harvard Mark I cihazı (1943), hatta daha sonraki ENIAC (1946) bile sayıları onlu tabanda saklıyor ve işliyordu. Daha öngörülü tasarımlar olan Konrad Zuse’nin mekanik Z1 (1937) makinesi ile, John Atanasoff ve Clifford Berry’nin lambalı ABC’si (1942) ikili tabanda çalışıyorlardı.

Bitler ve ikili sistem neden bu kadar önemli? Biri teknik, biri matematiksel olmak üzere iki sebebi var. Teknik sebep, ikili sistemde kodlanmış verilerdeki aktarımındaki hataların ortadan kaldırılabilmesinin kolay olması. Sözgelişi, antenle dinlediğimiz radyo ile, Açık Bilim’in cepyayınını karşılaştıralım. Birincisi radyo vericisinden aktarılan analog sinyallerle bize ulaşır. Radyoda ses, radyo dalgasının frekansının an be an küçük miktarlarda değiştirilmesiyle kodlanır. Ancak etrafımızı saran başka elektromanyetik dalgalar da vardır: Başka radyo kanalları, TV veya telsiz yayınları, cep telefonu sinyalleri, az da olsa evimizdeki ampullerden çıkan radyo dalgaları, hatta şimşekler. Bu dalgaların bazıları alıcımızda sinyale karışır ve sinyali az da olsa değiştirir. Radyodaki “parazit”in sebebi budur. Antenli televizyonlarda aynı etki kumlu görüntü olarak kendini belli eder.

Açık Bilim’in cepyayınındaki ses ise ikili sistemde kodlanmıştır. Bu kodlamada ses dalgasından sık aralıklarla “numune” alınır, ve her numunedeki dalga büyüklüğü ikili sistemde (genellikle çok sayıda bitle) ifade edilen bir sayıya dönüştürülür. Bunlar arka arkaya eklemlenerek dijital ses dosyasını oluştururlar (genellikle de dosya boyunun küçülmesi için sıkıştırma uygulanır).

Dijital bilgi aktarılırken de elbette yukarıda saydığım elektromanyetik parazit yine sinyale eklenir. Ancak, genellikle parazit dijital sinyalin 0 ve 1′lerini ayıran aralıktan daha zayıftır. Dijital alıcı belli bir eşiğe kadar olan dalgalanmaları düzeltebilir, meselâ 0.7 değerini 1 olarak, 0.2 değerini 0 olarak alır. Bu yüzden parazit, çok kuvvetli olmadıkça, dijital sinyali bozmaz.

Analog ve dijital sinyale parazitin etkisi.

Solda: Bir analog dalgaya parazit eklendiğinde sinyal bozulur. Sağda: Bir dijital sinyale eklenen parazit alıcının aldığı sinyali değiştirmez. (Yamaha Corp.)

Aynı avantaj kopyalamada da geçerlidir. Analog kayıt yapan eski tip bir manyetik teyp kasetini başka bir kasete kopyaladığınızda az da olsa bazı sesleri kaybedersiniz. Kopyanın kopyasını yaparsanız biraz daha bilgi kaybedersiniz. Dijital kopyalamada ise, hem dijital sinyalin ayrıklığından, hem de çeşitli hata düzeltme algoritmaları kullanıldığından, bilgi kaybı yok denecek kadar azdır.

Teknik avantajının yanı sıra ikili sistem, dijital devrelerin temel matematik ile tasarlanıp analiz edilmesine de elverişlidir. Bitler 1-0 yerine bazen doğru-yanlış veya evet-hayır şeklinde de yorumlanırlar. Bu onları, temel önermeler mantığına bağlar. Önermeler de bitler gibi iki değerlidir, ya doğrudurlar ya yanlış, üçüncü bir şık yoktur. Önermelere ve, veya, değil gibi işlemler uygulanarak yeni önermeler üretilebilir. Karmaşık mantık işlemleri, Boole cebrinden türetilen bazı bağıntılarla basitleştirilebilir.

Bu matematiksel/mantıksal kavramlar dijital elektroniğe birebir aktarılabilir. İkili veriler, bunlarla ve, veya, değil işlemi yapan elektronik devrelere (mantık kapıları) bağlanır. Mantık kapıları ise birleştirilerek aritmetik, bellek erişimi, veri saklama gibi işlemler yapan devrelere dönüştürülebilir. Bunların hepsinin işleyişi Boole cebri ile analiz edilebilir. Dahası, devre tasarımı ve analizi bu matematiksel araçlar yardımıyla otomatik hale getirilebilir, yani devre tasarımı yapan programlar üretilebilir.

Bugünkü bilgisayar devrimimizin kökü temel matematikten beslenir. Eğer verileri ikili sistemle kodlamasaydık elektronik parazit gibi teknik bir sorunu aşmamız belki yine mümkün olurdu, ama devreleri temel mantık ve Boole cebri kullanarak analiz etmemiz mümkün olmayacaktı ve muhtemelen elektronik devreleri bugünkü karmaşıklığına ulaştıramayacaktık.

Bence bu, temel bilimlerle sağlanan bilgi birikimi olmadan teknolojik gelişmenin mümkün olmayacağını ispatlayan en güzel örneklerden biri.

Kaynaklar

  1. Paul E. Ceruzzi, A History of Modern Computing, 2nd ed., MIT Press, 2003.
  2. Martin Campbell-Kelly, William Aspray. Computer: A History of the Information Machine, 2nd ed., Westview Press, 2004.
  3. Michael R. Williams, A History of Computing Technology, 2nd ed., IEEE Computer Society Press, 1997.
  4. Clay Shirky, Herkes Örgüt, çev. Pınar Şiraz, Optimist, 2010.
  5. Yamaha Corp., The Merits of Digital Sound.
  6. Minority Report, yön. Steven Spielberg, 20th Century Fox, 2002.
  7. Richard T. Griffiths, History of the Internet Chapter Two: From ARPANET to World Wide Web.
Viewing all 28 articles
Browse latest View live