Wlodzimierz Lapis - Dydaktyka
From Zakład Logiki Stosowanej
(Różnice między wersjami)
Wersja z dnia 22:12, 27 lut 2008 (edytuj) Lapis (Dyskusja | wkład) (New page: ZAJĘCIA NR 1 Pojęcie i dziedzina informatyki INFORmacja + autoMATYKA = INFORMATYKA. Najprostsza definicja informatyka: informatyka, to nauka o automatycznym przetwarzaniu danych. Je...) ← Poprzednia edycja |
Wersja z dnia 22:13, 27 lut 2008 (edytuj) (undo) Lapis (Dyskusja | wkład) (Replacing page with 'ZAJĘCIA NR 1') Następna edycja → |
||
Linia 1: | Linia 1: | ||
ZAJĘCIA NR 1 | ZAJĘCIA NR 1 | ||
- | |||
- | Pojęcie i dziedzina informatyki | ||
- | |||
- | INFORmacja + autoMATYKA = INFORMATYKA. | ||
- | Najprostsza definicja informatyka: informatyka, to nauka o automatycznym przetwarzaniu danych. | ||
- | Jej powstanie datuje się wraz z powstaniem pierwszego komputera (wtedy tzw. „maszyny cyfrowej”) ENIAC w 1944 r. | ||
- | Inne definicje informatyki: | ||
- | 1) Informatyka, jest to dziedzina wiedzy, która obejmuje dziedziny nauki i techniki związane ze zbieraniem i przechowywaniem informacji, ich przetwarzaniem oraz sposobami ich reprezentowania, jak również z budową maszyn, urządzeń i systemów służących do powyższych celów. | ||
- | Kładzie ona nacisk na to, co się robi z informacją (zbiera, przechowuje, przetwarza i udostępnia) oraz przy pomocy czego się to realizuje (maszyny i systemy – tak fizyczne, jak i logiczne). | ||
- | 2) Informatyka jest nauką o racjonalnym przetwarzaniu, zwłaszcza przez automaty, informacji rozumianej jako nośnik ludzkiej wiedzy i komunikacji w dziedzinach technicznych, ekonomicznych i socjalnych. | ||
- | Ta z kolei definicja kładzie nacisk na racjonalność działań informatycznych realizowanych przez automaty, w związku z przetwarzaniem informacji służącej ludziom we wszystkich sferach ich życia. Mamy więc tu 3 aspekty przetwarzania informacji: racjonalność, automatyczność, uniwersalność (odnoszą się do wszelkich dziedzin życia). | ||
- | Jak jednak definiuje się informację? Czym różni się informacja od wiadomości i od komunikatu? Zobaczmy po kolei: | ||
- | Definicje informacji: | ||
- | 1) Informacją jest każdy czynnik który może być wykorzystany do sprawniejszego i celowego działania człowieka lub automatu. | ||
- | 2) Informacją jest każdy czynnik zmniejszający niewiedzę jej odbiorcy (lub równoważnie: zwiększający jego wiedzę). | ||
- | 3) Informacjami są rozpoznania będące wynikiem zjawisk naturalnych lub czynności ludzkiej we wszelkich dziedzinach działalności. | ||
- | Informacja musi więc COŚ WNOSIĆ. Wiadomość niekoniecznie. Informacja jest to więc szczególny rodzaj wiadomości. | ||
- | Wiadomość (a co za tym idzie i informacja) może być przekazana tylko w wyniku komunikatu. Komunikat jest to więc AKT przekazu wiadomości (w szczególnym przypadku informacji). | ||
- | Ciekawe spostrzeżenia (wytłumacz!): | ||
- | 1) Tę samą wiadomość można przekazać za pomocą różnych komunikatów. | ||
- | 2) Ten sam komunikat może przekazywać różne wiadomości (informacje) dla różnych odbiorców. | ||
- | 3) Ten sam komunikat może przekazać temu samemu odbiorcy różne wiadomości (informacje) zależnie od źródła wiadomości (informacji). | ||
- | Jeszcze kilka definicji: | ||
- | 1) Komunikatem nazywamy odpowiednio zakodowaną wiadomość (być może zawierającą pewna ilość informacji). Komunikat to samoistny obiekt fizyczny, np. sygnał świetlny, modulowana fala elektromagnetyczna, tekst pisany. | ||
- | 2) Wiadomość, to relacja między nadawcą, a odbiorcą. | ||
- | 3) (najbardziej pokręcona spośród znanych mi definicji; nie ucz się jej!): | ||
- | Informacją nazywamy wielkość abstrakcyjną która może być przekazywana w pewnych obiektach, przesyłana między pewnymi obiektami i stosowana do sterowania pewnymi obiektami, przy czym przez obiekty rozumie się organizmy żywe, urządzenia techniczne oraz systemy takich obiektów. | ||
- | |||
- | Jednostki informacji. | ||
- | Gdyby Szekspir żył w czasach obecnych – wówczas zapewne zamiast „to be or not to be” powiedziałby „to bit or not to bit”, bo „bit” oznacza to samo, co „be” – bycie; orzeka że coś jest lub że tego czegoś nie ma. | ||
- | 1 bit – to podstawowa jednostka informacji (w informatyce) | ||
- | Umożliwia rozróżnienie 2 sytuacji (bycie i nie-bycie). | ||
- | 2 bity umożliwiają rozróżnienie już 4 sytuacji – np. pierwszy z nich – czy mamy do czynienia z obiektem 1 lub 2 czy też 3 lub 4, a drugi – czy o obiektem o nr parzystym (czy tez nieparzystym). Trzeci bit – znowu podwoi ilość rozróżnianych obiektów (określa czy mamy do czynienia ze starą czy z nową czwórką obiektów, a wówczas 2 pozostałe bity z tych 4 obiektów wyróżniają jeden, co już wcześniej omówiliśmy). | ||
- | W ten sposób otrzymujemy kolejne potęgi dwójki (2^3 – to zapis: 2 do potęgi 3)” | ||
- | 2^1 = 2 | ||
- | 2^2 = 4 | ||
- | 2^3 = 8 | ||
- | 2^4 = 16 | ||
- | 2^5 = 32 (5 bitów umożliwia wybór 1 z właśnie 32 liter alfabetu polskiego!) | ||
- | 2^6 = 64 (6. bit dodatkowo rozróżnia małe i wielki litery) | ||
- | 2^7 = 128 (tu jeszcze wchodzą pozostałe tzw. znaki alfanumeryczne) | ||
- | 2^8 = 256 (tu uwzględniony jest jeszcze kontrolny tzw. bit parzystości). | ||
- | Ciąg 8 bitów, to bajt (8 b = 1 B). Umożliwia on rozróżnianie między sobą 256 sytuacji. | ||
- | Kontynuując otrzymujemy: | ||
- | 2^9 = 512 | ||
- | 2^10 = 1024 (bardzo ważna liczba, bo 1 kilo = 1 tysiąc, np. 1kg = 1000 g, a że w informatyce wszystko oparte jest na d4)ójce, więc w niej mamy np. 1Kb = 1024 b – duże K, bo to jest 1024, a nie jakieś tam 1000 oznaczane przez małe k!). | ||
- | |||
- | CDN… |
Wersja z dnia 22:13, 27 lut 2008
ZAJĘCIA NR 1