İlk Arama Motoru neydi?



Bir arama motoru, kullanıcı tarafından tanımlanan belirli kriterlere dayanarak bir veritabanından bilgi alma yöntemi olarak çalışan bir bilgisayar programıdır. Modern olanlar, World WideWeb'den, haber gruplarından ve dizin projelerinden toplanan büyük düşük faizli ihtiyaç kredisimiktarda veri içeren veritabanlarını araştırır.
Dünya Çapında Ağın varlığından önce, ancak İnternetin gelişinden ve üniversite devresindeki popülerliğinden sonra, ilk arama motoru oluşturuldu. Tarihin bu noktasında - 1980'lerin sonlarında ve 1990'ların başında - İnternette kullanılan ana protokollerden biri dosya transfer protokolü (FTP) idi. FTP sunucuları dünya genelinde, genellikle üniversite kampüslerinde, araştırma tesislerinde veya devlet kurumlarında mevcuttu. Montreal'deki McGill Üniversitesi'ndeki bazı öğrenciler , çeşitli popüler FTP sunucularında bulunan merkezi bir dosya veri tabanının zamandan tasarruf etmesine ve başkalarına harika bir hizmet sunmasına yardımcı olacağına karar verdi . Bu Archie arama motorunun kaynağıydı.
Arşiv için kısa olan Archie, listesindeki FTP sunucularına düzenli olarak giriş yapan bir programdı ve sunucuda hangi dosyaların olduğuna dair bir dizin oluşturdu. İşlemci süresi ve bant genişliği hala oldukça değerli bir ürün olduğu için, Archie her ay güncellemeleri kontrol etti. İlk olarak Archie'nin oluşturduğu dizin, Unix komutu grep kullanılarak kontrol edilmek istendi , ancak endeksin kolayca aranmasını sağlamak için daha iyi bir kullanıcı arayüzü geliştirildi. Archie'yi takiben, bir avuç arama motoru, en ünlü Jughead ve Veronica olmak üzere, iki tane benzer Gopher protokolünü araştırdı. Archie, World WideWeb'in ve sonraki arama motorlarının ortaya çıkmasıyla nispeten eski bir hal aldı, ancak Archie sunucuları hala var.
1993 yılında, World WideWeb'in oluşturulmasından çok geçmeden, MatthewGray ilk web robotu olan World Wide Web Wanderer'ı geliştirdi. World Wide Web Wanderer, İnternet'te var olan tüm web sitelerini, URL'lerini yakalayarak dizine ekledi, ancak web sitelerinin gerçek içeriğinden hiçbirini izlemedi. Erken bir arama motoru olan Wanderer ile ilişkili dizin Wandex olarak adlandırıldı.
Modern arama motoruna yaklaşmaya başlayan Wanderer'dan sonra birkaç küçük proje büyüdü. Bunlar World Wide Web Worm, Depola Dayalı Yazılım Mühendisliği (RBSE) örümcek ve JumpStation'ı içeriyordu. Bu üç bilginin tümü, kullanıcılara bu bilgileri KBB notu düşüklere kredi veren bankalardöndürmek için web robotları tarafından toplanan verileri kullanmıştır. Yine de, RBSE, sayfaların değerini sıralamak için girişimde bulunmuş olsa da, bilgiler çoğunlukla filtrelenmemişti.
1993'te bazı Stanford öğrencileri tarafından kurulan ve Excite adlı bir şirket, sayfa içeriğinin analizini gerçek anlamda birleştiren ilk arama motoru olan tartışmayı yayınladı. Bu ilk teklif, bir sitenin içinde arama yapmak anlamına geliyordu, ancak bir bütün olarak web'de arama yapılmadı.
Ancak 1994 yılında, arama motorunun dünyası büyük bir atılım yaptı. WebCrawler adında bir şirket, yalnızca İnternet'teki sayfaların başlığını ve başlığını yakalamayan, aynı zamanda tüm içeriği de yakalayan bir arama motoruyla yayına geçti. WebCrawler muazzam derecede başarılıydı - bu kadar başarılı oldu ki, sistem kaynaklarını kullanması nedeniyle çok fazla zaman harcayamayacak kadar başarılı oldu.
O zamandan biraz sonra, WebCrawler gibi aynı özelliklerin birçoğu da dahil olmak üzere Lycos piyasaya sürüldü. Lycos sonuçlarını alaka düzeyine göre sıraladı ve kullanıcının daha iyi uyan sonuçlar elde etmek için bir dizi ayarı değiştirmesine izin verdi. Lycos da çok büyüktü - bu yıl içinde bir milyondan fazla web sitesinin arşivlenmesi vardı ve iki yıl içinde 60 milyona ulaştı.


Yorumlar

Bu blogdaki popüler yayınlar

Sıkıştırılmış Klasör Nedir?

Sunucu Anakartı nedir?

Toplu Dosya nedir?