Obserwatorzy

Kilka słów o blogu

Trochę historii komputeryzacji & ciekawostek; dowiecie się także, kiedy komputer stał się przenośny...
Proszę nie używać mojej pracy bez pytania - to niegrzecznie

28 lutego 2010

XXI wiek

W dzisiejszych czasach cały czas trwa rozwój komputerów. Obecnie prędkośc traktowna procesorów przekroczyła już 3 GHz. Powstają coraz to lepsze karyt greficzne i dyski twarde ale prototyp pozostaje bez zmian. Produkowane w dzisiejszych czasach komputery to w dalszym ciągu PC-y. Nawet już komórki zawierają kamery cyfrowe ! Kiedy na scenie pojawiły się układy scalone, nastąpił ogromny przełom. Komputery zaczynały stale zmniejszać swoje rozmiary, rozpoczęła się ich minimalizacja przy jednoczesnym rozwoju funkcji. Dziś komputery zajmują naprawdę niewielką powierzchnię, a nadal trwają prace nad zmniejszeniem ich rozmiarów i poprawie mocy i wydajnośc. XXI wiek to rozwój laptopów, palmtopów, iPod-ów, iPhone-ów.

XX wiek

Upojony odniesionym sukcesem w 1896 Hollerith założył przedsiębiorstwo Tabulating Machine Company, które w 1917 przekształciło się w International Business Machine, czyli dzisiejszą firmę IBM. Karty perforowane przez wiele dziesięcioleci stały się uniwersalnym nośnikiem informacji: danych do obliczeń, programów i wyników.

W 1936 roku w Niemczech, Konrad Zuse tworzy maszynę liczącą Z1. W następnych latach powstają jej udoskonalone wersje - Z2 i Z3 (na rysunku obok)oraz Z4. Maszyny te przeznaczone były oczywiście dla potrzeb militarnych. Obliczenia wykonywane były na liczbach zapisanych w systemie dwójkowym w tak zwanej reprezentacji zmiennoprzecinkowej. Sterowanie maszyną realizował program zapisany na taśmie perforowanej. W maszynach tych nie było części mechanicznych, były natomiast przekaźniki elektromagnetyczne. Ostatni model maszyny Zusego, Z4 działał aż do końca lat pięćdziesiątych.

W 1944 roku IBM buduję pierwszy kalkulator elektromechaniczny. Programowanie kalkulatora polegało na odpowiednim łączeniu przewodami gniazd w tablicy sterującej. Dane wprowadzane były za pomocą dziurkowanych kart, wyniki wyprowadzano na taśmę perforowaną lub drukowano za pomocą elektrycznych maszyn do pisania. Ów kalkulator, o nazwie MARK I, liczył sobie 17 metrów długości i 3 metry wysokości, był więc całkiem spory. Do jego budowy użyto prawie 18000 lamp elektronowych. Obsługiwało go aż 10 osób. Kalkulator potrafił w ciągu 2 sekund dodać 7 liczb, a dzielenie zajmowało mu aż 11 sekund. Częstotliwość taktowania wynosiła 100 kHz. Mimo pozornie powolnego działania zastępował on pracę 100 rachmistrzów wyposażonych w klasyczne arytmometry.Obok mamy przykład MARK I


Wreszcie w 1942 naukowcy amerykańscy budują pierwsze urządzenie zasługujące na nazwę komputera. Jest to ENIAC (ang. Electronic Numerical Integrator And Computer), który został przedstawiony na obrazku obok. Jest to pierwsza maszyna w której użyto wyłącznie elementy elektroniczne (lampy elektronowe). Jest to pierwsza maszyna w której zastosowano wyłącznie elementy elektroniczne (lampy elektronowe). Mimo, że w 1976 roku okazało się, że wcześniej w Anglii powstały maszyny Colos I i Colos II, ENIAC-a uznaje się dzisiaj za pierwszy komputer. ENIAC-a programowało się ręcznie poprzez ustawianie przełączników i wymianę specjalnych tablic programowych. Jego długość wynosiła 15 metrów, a szerokość 9. Maluch ten ważył 30 ton i składał się z około 18000 lamp elektronowych. Ciekawostką był fakt, że liczby zapamiętywane były w układzie dziesiętnym, a nie dwójkowym jak to odbywa się dziś. ENIAC potrafił wykonać 5000 dodawań oraz od 50 do 360 dzieleń na sekundę. ENIAC był urządzeniem bardzo awaryjnym, a jego programowanie było bardzo uciążliwe.

W 1946 roku John von Neumann zaproponował architekturę, według której są budowane komputery do dnia dzisiejszego. Została ona nazwana architekturą von neumannowską. W pamięci komputera przechowywane miały być zarówno dane podlegające danych przetwarzaniu, jak i program, który te dane miał przetwarzać. Dzięki temu porzucono wreszcie programowanie sprzętowe (przełączanie kabli, czy zworek) i zastąpiono je programowaniem wewnętrznym, poprzez umieszczenie w pamięci maszyny programu sterującego przetwarzaniem danych. Architektura von neumannowska wyróżniała następujące elementy składowe: pamięć złożoną z elementów przyjmujących stany 0 i 1, arytmometr wykonujący działania arytmetyczno-logiczne oraz jednostkę sterującą. Wszystkim sterował program umieszczany w pamięci. Stanowiło to całkowity przełom w stosunku do wcześniejszych koncepcji, w których program był zapisywany na kartach perforowanych i bezpośrednio z nich odczytywany i uruchamiany. W maszynie von neumannowskiej program i dane znajdowały się w pamięci fizycznej, a program mógł modyfikować zawartość pamięci i samego siebie. Program był ciągiem instrukcji pobieranych i rozpoznawanych przez jednostkę sterującą w takt zegara. Praca maszyny oparta była na modelu maszyny Turinga, Neumann znał jej schemat teoretyczny. W 1949 roku w oparciu o tę architekturę powstaje komputer EDSEC


Pierwszą maszyną cyfrową, która była przeznaczona do zastosowań cywilnych był komputer UNIVAC. Program na nim uruchomiony przewidział zwycięstwo Eisenhowera w wyborach prezydenckich w 1952 roku.

Milowym krokiem w rozwoju komputerów było powstanie komputerów osobistych. Pierwszym komputerem osobistym był Altair wyprodukowany w 1975 roku przez firmę MITS. Altair posiadał 8-bitowy procesor Intel 8080 i 256 bajtów pamięci (tak, tak, bajtów), nie miał ani klawiatury, ani monitora, ani jakiegokolwiek napędu. Znany nam wszystkim Bill Gates napisał dla niego język BASIC (ang. Beginner's All Purpose Symbolic Instruction Code). Altair zyskał ogromną popularność i był prekursorem całej serii komputerów ośmiobitowych. Praktycznie wszystkie komputery ośmiobitowe działały pod kontrolą systemu operacyjnego nazywanego CP/M (ang. Control Program/Monitor lub Control Program for Microcomputer), wyprodukowanego przez firmę Digital Research. Jednak absolutnym przełomem w historii komputerów, którego konsekwencje widoczne są po dziś dzień było powstanie w 1980 roku komputera IMB PC (ang. Personal Computer), czyli popularnie mówiąc dzisiejszego peceta. Warto jednak pamiętać, że wcześniej, przed powstaniem IBM PC powstał inny komputer domowy. Był to Apple I, który był prekursorem tak dziś popularnych, choć głównie w USA jabłuszek. Komputery Apple, które zmieniły nazwę na Macintosh jako pierwsze posiadały interfejs graficzny. Miały też inną architekturę. Jakkolwiek pecety dominują dziś na światowym rynku komputerów, macintoshe przewyższają je niezawodnością pracy i wygodą obsługi.

Pierwszy komputer domowy - Altair 8800

Pierwszy komputer domowy - Altair 8800

Microsoft
W kwietniu w 1975 roku Bill Gates i Paul Allen założyli firmę Microsoft, a w lipcu tegoż roku firma MITS ogłosiła dostępność interpretera Basic 2.0 dla swojego komputera Altair 8800. Ten interpretez napisany przez Gatesa i Allena, był pierwszym z prawdziwego zdarzenia komputerowym językiem wysokiego poziomu dostępnym dla domowego komputera. Firma sprzedała w tym roku 2000 systemów co było wielkim krokiem do dominacji na świecie!

Apple I
W marcu 1976 roku dwóch facetów o nazwiskach Steve Woźniak i Steve Jobs skończyło pracę nad komputerem domowej roboty opartym o układ 6502, który nazwali Apple I(kilka tygodni puźniej założyli oni firmę Apple Computer Company).

Apple II
Chociaż mikrokomputer Apple I nie był zbytnio skomplikowany, to i tak wywołał zainteresowanie aby powstał jego następnik Apple II, który za wielu uważany jest za pierwszy osobisty komputer. Apple II, który pojawił się na rynku w 1977 roku w cenie 1300 dolarów zawierał 16 KB pamięci ROM oraz 4KB pamięci RAM, klawiaturę i kolorowy monitor.

Commodore Pet
Również w kwietniu 1977 roku firma Commodore Business Machines zaprezentowała swój komputer oparty na mikroprocesorze 650 zawierający 14 KB pamięci ROM, 4KB pamięci RAM, klawiaturę oraz pamięć kasetową, a to wszystko za jedyne 600 dolarów.

PC
Gdy zaczęły pojawiać się komputery domowe, producenci innych komputerów zaczęli traktować je z pogardą. Jednak już po krótkim czasie widok zarabianych pieniędzy obudził ich zainteresowanie. W roku 1981 firma IBM wypuściła swojego pierwszego PC-ta w cenie 1365 dolarów, co dało sygnał całemu światu, iż komputery domowe tak szybko nie odejdą.

Najważniejsze daty w historii komputerów:

  • 1945 - powstaje komputer ENIAC
  • 1947 - wynalezienie tranzystora
  • 1958 - wynalezienie układu scalonego
  • 1964 - powstaje superkomputer IBM S/360, zwany do dziś Mainframe
  • 1964 - powstaje graficzny interfejs użytkowy i mysz
  • 1971 - powstaje procesor INTEL 4004, zawierający 2.3 tys. tranzystorów, taktowany zegarem 740 kHz
  • 1972 - powstaje procesor INTEL 8008 (3.5 tys. tranzystorów)
  • 1974 - powstaje procesor INTEL 8080 (4.8 tys. tranzystorów)
  • 1975 - powstaje komputer Altair 8800
  • 1976 - powstaje procesor Zilog Z80
  • 1976 - powstają procesory INTEL 8086 i 8088
  • 1977 - powstaje komputer Apple II
  • 1979 - powstaje procesor Motorola 68000
  • 1981 - powstaje komputer IBM PC (procesor Intel 8088, 64 kB RAM)
  • 1982 - powstaje procesor INTEL 80286 (134 tys. tranzystorów)
  • 1983 - powstaje komputer PC XT (procesor INTEL 8086)
  • 1984 - powstaje komputer PC AT (procesor INTEL 80286)
  • 1985 - powstaje procesor INTEL 80386 (275 tys. tranzystorów)
  • 1989 - powstaje procesor INTEL 80486 (1.18 mln tranzystorów)
  • 1992 - powstaje procesor Power PC (2,8 mln tranzystorów), montowany w komputerach Macintosh
  • 1993 - powstaje procesor INTEL Pentium (3.1 mln tranzystorów)
  • 1995 - powstaje procesor INTEL Pentium Pro (5.5 mln tranzystorów)
  • 1996 - powstaje procesor INTEL Pentium MMX
  • 1997 - powstaje procesor INTEL Pentium II (7.5 mln tranzystorów)
  • 1999 - powstaje procesor INTEL Pentium III (9.9 mln tranzystorów)

XIX wiek

W 1812 roku Robotnik Ned Ludd zachęcał innych robotników, by niszczyli maszyny zastępujące człowieka, gdyż obawiał się utraty pracy. Terminu "Luddite" używano później na określenie oponentów technologii

W 1833 roku Charles Babbage, matematyk angielski, nazywany pionierem informatyki, projektuje pierwszą maszynę analityczną, działającą na zasadzie zbliżonej do zasady działania komputerów cyfrowych, nazwaną "maszyna różnicowa". Maszyna ta miała wykonywać podstawowe działania matematyczne, zapamiętywać dane wejściowe, pośrednie oraz wyniki obliczeń końcowych. Wprowadzanie i wyprowadzanie danych miało przebiegać na kartach dziurkowanych. Projekt nie został zrealizowany z powodu istniejącego wówczas niskiego poziomu techniki. W 1991 w Science Museum w Londynie wykonano wg oryginalnych planów fragment (arytmometr) maszyny różnicowej, udowadniając poprawność konstrukcji.

W 1854 roku George Boole opublikował uwagi na temat techniki cyfrowej (algebra Boole'a). Sto lat później stały się one podstawą działania komputerów.W 1857 roku Sir Charles Wheatstone wprowadził taśmę papierową w rolkach, która mogła służyć do zapisu i odczytu danych. W USA, według konstytucji, co 10 lat wykonywany ma być spis powszechny ludności. Ponieważ populacja kraju była coraz większa, spodziewano się, że ten spis planowany na rok 1890, nie zostanie skończony w ciągu dekady. Rząd Stanów Zjednoczonych postanowił znaleźć sposób na przyspieszenie całego procesu. Zorganizowano konkurs na urządzenie, które tego dokona. Wygrał go Herman Hollerith ze swoją maszyną tabulacyjną. Służyła ona do wprowadzania, sortowania i podliczania danych i wykorzystywała do tego celu perforowane karty (dziurkowane karty). Dzięki urządzeniu wyniki spisu udało się opracować w ciągu niecałych 3 lat. Hollerith dzięki swojemu wynalazkowi stał się sławny i bogaty, założył w roku 1896 firmę Tabulating Machine Company, która po połączeniu z kilkoma innymi stworzyła International Business Machines, czyli po prostu IBM..

Pierwsze stulecia naszej ery

Pierwszy znany, bardziej skomplikowany
przyrząd służacy do obliczeń pochodzi z ok. 80 wieku p.n.e. Przeznaczony był prawdopodobnie do obliczeń nawigacyjnych. W 967r. Gerbert Aurillac (papieź Sylwester II) skonstruował (abak) liczydło.Trzeba także odnotować, iż w 876r. p.n.e. odznaczono w Indiach pierwsze użycie symbolu "zero"

Dopiero po 500 latach nastąpiło godne odnotowania stworzenie notatek na temat kalkulatora mechanicznego przez Leonarda da Vinci.
W 1614r. matematyk szkocki John Neper wynalazł logarytmy oraz zastosowpałeczki (od jego nazwiska nazwano pałeczkami Nepera), pozwalające na znaczne przyspieszenie żmudnych obliczeń.Wynalazek Nepera zapoczątkował rozwój urządzeń analogowych służących do liczenia. W 1622r matematycy angielscy E. Gunter i W. Oughtred wynaleźli suwak logarytmiczny.

Pierwszym znanym cyfrowym mechanicznym urządzeniem liczącym była czterodziałaniowa maszyna licząca, zaprojektowana przez niemieckiego astronoma i matematyka W. Schickharda.
W 1643r. Blaise Pascal franuski matematyk zbudował dwudziestodziałaniową maszynę do liczenia. Był to pierwszy
krok w kierunku automatyzacji urządzeń liczących.
W 1671 roku niemiecki matematyk Gotfried Wilhelm von Leibnitz zbudował
czterodziałaniowa maszynę do liczenia.

Epoka prehistoryczna

Człowiek wykonywał obliczenia już w czasach prehistorycznych. Musiał policzyć zwierzęta, zboże itd. Początkowo używał do tego celu najprostszych przedmiotów. Do obliczeń służyło odkładanie kamieni, a sposobem zapisu było karbowanie kresek na kiju. Często też liczył na palcach u rąk. Jednak wykonanie nawet mało skomplikowanych działań mnożenia i dzielenia na cyfrach rzymskich (arabskie pojawiły się w wieku XVI-tym) sprawiało dużo kłopotów i zajmowało wiele czasu.


5000 lat p.n.e. w Egipcie i Babilonii powstały pierwsze liczydła w postaci glinianej tabliczki z przesuwanymi kamykami, które ułatwiało czynności liczenia. Tysiąc lat później Sumerowie zaczęli wykorzystywać je do zapisywania transakcji handlowych.

Udoskonaleniem tabliczki Sumerów był, wynaleziony w Babilonie, ok. 3000 lat przed naszą erą chiński abacus - drewniana tabliczka z kościanymi gałkami uwzględniająca rząd jedności i dziesiątek przypominająca dzisiejsze liczydło z prętami.

Liczydła miały wiele zróżnicowanych form. Najczęściej były to prostokątne deski z wyżłobionymi rowkami, w których ułożone kamyki oznaczają poszczególne pozycje przedstawianej liczby: w pierwszym rowku oznaczały one jedności, w drugim dziesiątki, w trzecim setki, w czwartym tysiące itd. Dodając i odejmując kamienie w rzędach wykonywało się operacje arytmetyczne.

Komputer wszechczasów!