BLOG

Subskrybuj kanał blogu

KatalogiWpisAchronologicznyTematycznyPoczytnościPopularnościOcen

Na czym polega postęp w informatyce?

niedziela, 15 maja 2011
Tematyka: informatyka, komputery

Analizując na przestrzeni kilkunastu lat moje doświadczenie z komputerami czasem odnoszę wrażenie, że postęp w informatyce jest sztucznie napędzany. Jest to chyba najdynamiczniej zmieniająca się branża w całej światowej gospodarce. Ale aby tak było dba w głównej mierze... ona sama.

Kiedyś miałem taki kultowy komputer, jakim był Commodore 64. 8-bitowy procesor 1 MHz, 64 kB pamięci RAM... I można było przy tym spędzać długie wieczory grając we wciągające gry. Ot, choćby równie kultowy Tetris. Kilka lat później, wraz z nastaniem czasów Windowsa 3, ta sama gra o tej samej rozdzielczości, tej samej głębi kolorów i tych samych funkcjach wymagała już 8MB pamięci i procesora przynajmniej 35MHz!

Inny przykład - kiedyś potężny arkusz kalkulacyjny Excel w wersji instalacyjnej zajmował niewyobrażalną liczbą 9 dyskietek 3,5". Teraz nie zmieściłby się nawet na 90 dyskietkach... A co się zmieniło? Praktycznie nic!

Kiedyś cotygodniowym rytuałem było przeczesywanie dysku w poszukiwaniu śmieci, a każdy odzyskany 1MB był wielkim osiągnięciem i dawało nowe możliwości. Dziś, jeśli ktoś chce zrobić "trochę miejsca" na dysku, to szuka, jak tu odzyskać minimum 1000 razy większą powierzchnię. No ale kiedyś nic-nierobiący program potrafił zajmować paręset bajtów, a przy użyciu dzisiejszych kompilatorów trudno zejść poniżej 10kB.

Dążenie było jedno - ciągle więcej, bo programy potrzebowały coraz więcej. Więcej pamięci, więcej miejsca, szybszy procesor. A kiedy już udało się sprostać tym wymaganiom, to... Tworzono jeszcze bardziej wymagające aplikacje. I dziś jest tak samo. Nikt już, pisząc program, nie zwraca uwagi na to, aby zajmował jak najmniej pamięci czy jak najmniej miejsca na dysku. Pisze się po prostu tak, jak wygodnie. I to właśnie ten brak dbałości owocuje. W czasach, gdy rozszerzenie pamięci było trudne lub nawet niemożliwe, to każdy bajt był oszczędzany. Gdy wreszcie ograniczenia zostały przełamane - piszący przestali zwracać na nie uwagę. Po co szukać algorytmów pracujących wydajniej, skoro ten liczy dobrze i zadowalająco szybko? Po co używać 1 zmiennej, skoro ładnie można użyć 10 takich samych, które w żaden sposób się nie przeplatają? Po co usuwać nieużywany kod z programu, skoro przecież to tylko 500kB większy plik? Taka jest tendencja, która trwa od kilkunastu lat i która napędza tą wielką machinę. I tylko użytkownicy cierpią ogłupiani informacjami, że trzeba dołożyć pamięci, że trzeba drugi dysk, że trzeba wymienić procesor i najlepiej co kilka lat kupić nowy komputer. A gdyby piszący programy starali się tak, jak to było za czasów 64 kB pamięci i 1,4 MB dyskietek, to do dziś komputery sprzed 10 lat świetnie spełniałyby swoją rolę. Tylko co by to było, gdyby jednak postęp nie gnał tak szybko do przodu? Co lepsze?

Informacje o wpisie
Wpis czytano:256 razy
0,05/dzień
Ocena wpisu:
4,33 (3 oceniających)
(Kliknij właściwą gwiazdkę, by oddać głos)

Wróć

Komentarze (3)


Ładowanie komentarzy... Trwa ładowanie komentarzy...

Zobacz inne wpisy

ZobaczOstatnio dodanePodobne

Strona istnieje od 25.01.2001
Ta strona używa plików Cookie.
Korzystając z niej wyrażasz zgodę na przetwarzanie danych a zakresie podanym w Polityce Prywatności.
 
archive To tylko kopia strony wykonana przez robota internetowego! Aby wyświetlić aktualną zawartość przejdź do strony.

Optymalizowane dla przeglądarki Firefox
© Copyright 2001-2024 Dawid Najgiebauer. Wszelkie prawa zastrzeżone.
Ostatnia aktualizacja podstrony: 17.07.2023 19:35
Wszystkie czasy dla strefy czasowej: Europe/Warsaw