Wlodzimierz Lapis - Dydaktyka
From Zakład Logiki Stosowanej
ZAJĘCIA NR 1
Pojęcie i dziedzina informatyki
INFORmacja + autoMATYKA = INFORMATYKA. Najprostsza definicja informatyka: informatyka, to nauka o automatycznym przetwarzaniu danych. Jej powstanie datuje się wraz z powstaniem pierwszego komputera (wtedy tzw. „maszyny cyfrowej”) ENIAC w 1944 r. Inne definicje informatyki: 1) Informatyka, jest to dziedzina wiedzy, która obejmuje dziedziny nauki i techniki związane ze zbieraniem i przechowywaniem informacji, ich przetwarzaniem oraz sposobami ich reprezentowania, jak również z budową maszyn, urządzeń i systemów służących do powyższych celów. Kładzie ona nacisk na to, co się robi z informacją (zbiera, przechowuje, przetwarza i udostępnia) oraz przy pomocy czego się to realizuje (maszyny i systemy – tak fizyczne, jak i logiczne). 2) Informatyka jest nauką o racjonalnym przetwarzaniu, zwłaszcza przez automaty, informacji rozumianej jako nośnik ludzkiej wiedzy i komunikacji w dziedzinach technicznych, ekonomicznych i socjalnych. Ta z kolei definicja kładzie nacisk na racjonalność działań informatycznych realizowanych przez automaty, w związku z przetwarzaniem informacji służącej ludziom we wszystkich sferach ich życia. Mamy więc tu 3 aspekty przetwarzania informacji: racjonalność, automatyczność, uniwersalność (odnoszą się do wszelkich dziedzin życia). Jak jednak definiuje się informację? Czym różni się informacja od wiadomości i od komunikatu? Zobaczmy po kolei: Definicje informacji: 1) Informacją jest każdy czynnik który może być wykorzystany do sprawniejszego i celowego działania człowieka lub automatu. 2) Informacją jest każdy czynnik zmniejszający niewiedzę jej odbiorcy (lub równoważnie: zwiększający jego wiedzę). 3) Informacjami są rozpoznania będące wynikiem zjawisk naturalnych lub czynności ludzkiej we wszelkich dziedzinach działalności. Informacja musi więc COŚ WNOSIĆ. Wiadomość niekoniecznie. Informacja jest to więc szczególny rodzaj wiadomości. Wiadomość (a co za tym idzie i informacja) może być przekazana tylko w wyniku komunikatu. Komunikat jest to więc AKT przekazu wiadomości (w szczególnym przypadku informacji). Ciekawe spostrzeżenia (wytłumacz!): 1) Tę samą wiadomość można przekazać za pomocą różnych komunikatów. 2) Ten sam komunikat może przekazywać różne wiadomości (informacje) dla różnych odbiorców. 3) Ten sam komunikat może przekazać temu samemu odbiorcy różne wiadomości (informacje) zależnie od źródła wiadomości (informacji). Jeszcze kilka definicji: 1) Komunikatem nazywamy odpowiednio zakodowaną wiadomość (być może zawierającą pewna ilość informacji). Komunikat to samoistny obiekt fizyczny, np. sygnał świetlny, modulowana fala elektromagnetyczna, tekst pisany. 2) Wiadomość, to relacja między nadawcą, a odbiorcą. 3) (najbardziej pokręcona spośród znanych mi definicji; nie ucz się jej!): Informacją nazywamy wielkość abstrakcyjną która może być przekazywana w pewnych obiektach, przesyłana między pewnymi obiektami i stosowana do sterowania pewnymi obiektami, przy czym przez obiekty rozumie się organizmy żywe, urządzenia techniczne oraz systemy takich obiektów.
Jednostki informacji. Gdyby Szekspir żył w czasach obecnych – wówczas zapewne zamiast „to be or not to be” powiedziałby „to bit or not to bit”, bo „bit” oznacza to samo, co „be” – bycie; orzeka że coś jest lub że tego czegoś nie ma. 1 bit – to podstawowa jednostka informacji (w informatyce) Umożliwia rozróżnienie 2 sytuacji (bycie i nie-bycie). 2 bity umożliwiają rozróżnienie już 4 sytuacji – np. pierwszy z nich – czy mamy do czynienia z obiektem 1 lub 2 czy też 3 lub 4, a drugi – czy o obiektem o nr parzystym (czy tez nieparzystym). Trzeci bit – znowu podwoi ilość rozróżnianych obiektów (określa czy mamy do czynienia ze starą czy z nową czwórką obiektów, a wówczas 2 pozostałe bity z tych 4 obiektów wyróżniają jeden, co już wcześniej omówiliśmy). W ten sposób otrzymujemy kolejne potęgi dwójki (2^3 – to zapis: 2 do potęgi 3)” 2^1 = 2 2^2 = 4 2^3 = 8 2^4 = 16 2^5 = 32 (5 bitów umożliwia wybór 1 z właśnie 32 liter alfabetu polskiego!) 2^6 = 64 (6. bit dodatkowo rozróżnia małe i wielki litery) 2^7 = 128 (tu jeszcze wchodzą pozostałe tzw. znaki alfanumeryczne) 2^8 = 256 (tu uwzględniony jest jeszcze kontrolny tzw. bit parzystości). Ciąg 8 bitów, to bajt (8 b = 1 B). Umożliwia on rozróżnianie między sobą 256 sytuacji. Kontynuując otrzymujemy: 2^9 = 512 2^10 = 1024 (bardzo ważna liczba, bo 1 kilo = 1 tysiąc, np. 1kg = 1000 g, a że w informatyce wszystko oparte jest na d4)ójce, więc w niej mamy np. 1Kb = 1024 b – duże K, bo to jest 1024, a nie jakieś tam 1000 oznaczane przez małe k!).
CDN…