Site programming by Marcin Junczys-Dowmunt



 
 
 

Wlodzimierz Lapis - Dydaktyka

From Zakład Logiki Stosowanej

(Różnice między wersjami)
Wersja z dnia 22:12, 27 lut 2008 (edytuj)
Lapis (Dyskusja | wkład)
(New page: ZAJĘCIA NR 1 Pojęcie i dziedzina informatyki INFORmacja + autoMATYKA = INFORMATYKA. Najprostsza definicja informatyka: informatyka, to nauka o automatycznym przetwarzaniu danych. Je...)
← Poprzednia edycja
Wersja z dnia 22:13, 27 lut 2008 (edytuj) (undo)
Lapis (Dyskusja | wkład)
(Replacing page with 'ZAJĘCIA NR 1')
Następna edycja →
Linia 1: Linia 1:
ZAJĘCIA NR 1 ZAJĘCIA NR 1
- 
-Pojęcie i dziedzina informatyki  
- 
-INFORmacja + autoMATYKA = INFORMATYKA.  
-Najprostsza definicja informatyka: informatyka, to nauka o automatycznym przetwarzaniu danych.  
-Jej powstanie datuje się wraz z powstaniem pierwszego komputera (wtedy tzw. „maszyny cyfrowej”) ENIAC w 1944 r.  
-Inne definicje informatyki:  
-1) Informatyka, jest to dziedzina wiedzy, która obejmuje dziedziny nauki i techniki związane ze zbieraniem i przechowywaniem informacji, ich przetwarzaniem oraz sposobami ich reprezentowania, jak również z budową maszyn, urządzeń i systemów służących do powyższych celów.  
-Kładzie ona nacisk na to, co się robi z informacją (zbiera, przechowuje, przetwarza i udostępnia) oraz przy pomocy czego się to realizuje (maszyny i systemy – tak fizyczne, jak i logiczne).  
-2) Informatyka jest nauką o racjonalnym przetwarzaniu, zwłaszcza przez automaty, informacji rozumianej jako nośnik ludzkiej wiedzy i komunikacji w dziedzinach technicznych, ekonomicznych i socjalnych.  
-Ta z kolei definicja kładzie nacisk na racjonalność działań informatycznych realizowanych przez automaty, w związku z przetwarzaniem informacji służącej ludziom we wszystkich sferach ich życia. Mamy więc tu 3 aspekty przetwarzania informacji: racjonalność, automatyczność, uniwersalność (odnoszą się do wszelkich dziedzin życia).  
-Jak jednak definiuje się informację? Czym różni się informacja od wiadomości i od komunikatu? Zobaczmy po kolei:  
-Definicje informacji:  
-1) Informacją jest każdy czynnik który może być wykorzystany do sprawniejszego i celowego działania człowieka lub automatu.  
-2) Informacją jest każdy czynnik zmniejszający niewiedzę jej odbiorcy (lub równoważnie: zwiększający jego wiedzę).  
-3) Informacjami są rozpoznania będące wynikiem zjawisk naturalnych lub czynności ludzkiej we wszelkich dziedzinach działalności.  
-Informacja musi więc COŚ WNOSIĆ. Wiadomość niekoniecznie. Informacja jest to więc szczególny rodzaj wiadomości.  
-Wiadomość (a co za tym idzie i informacja) może być przekazana tylko w wyniku komunikatu. Komunikat jest to więc AKT przekazu wiadomości (w szczególnym przypadku informacji).  
-Ciekawe spostrzeżenia (wytłumacz!):  
-1) Tę samą wiadomość można przekazać za pomocą różnych komunikatów.  
-2) Ten sam komunikat może przekazywać różne wiadomości (informacje) dla różnych odbiorców.  
-3) Ten sam komunikat może przekazać temu samemu odbiorcy różne wiadomości (informacje) zależnie od źródła wiadomości (informacji).  
-Jeszcze kilka definicji:  
-1) Komunikatem nazywamy odpowiednio zakodowaną wiadomość (być może zawierającą pewna ilość informacji). Komunikat to samoistny obiekt fizyczny, np. sygnał świetlny, modulowana fala elektromagnetyczna, tekst pisany.  
-2) Wiadomość, to relacja między nadawcą, a odbiorcą.  
-3) (najbardziej pokręcona spośród znanych mi definicji; nie ucz się jej!): 
-Informacją nazywamy wielkość abstrakcyjną która może być przekazywana w pewnych obiektach, przesyłana między pewnymi obiektami i stosowana do sterowania pewnymi obiektami, przy czym przez obiekty rozumie się organizmy żywe, urządzenia techniczne oraz systemy takich obiektów.  
- 
-Jednostki informacji.  
-Gdyby Szekspir żył w czasach obecnych – wówczas zapewne zamiast „to be or not to be” powiedziałby „to bit or not to bit”, bo „bit” oznacza to samo, co „be” – bycie; orzeka że coś jest lub że tego czegoś nie ma.  
-1 bit – to podstawowa jednostka informacji (w informatyce) 
-Umożliwia rozróżnienie 2 sytuacji (bycie i nie-bycie).  
-2 bity umożliwiają rozróżnienie już 4 sytuacji – np. pierwszy z nich – czy mamy do czynienia z obiektem 1 lub 2 czy też 3 lub 4, a drugi – czy o obiektem o nr parzystym (czy tez nieparzystym). Trzeci bit – znowu podwoi ilość rozróżnianych obiektów (określa czy mamy do czynienia ze starą czy z nową czwórką obiektów, a wówczas 2 pozostałe bity z tych 4 obiektów wyróżniają jeden, co już wcześniej omówiliśmy).  
-W ten sposób otrzymujemy kolejne potęgi dwójki (2^3 – to zapis: 2 do potęgi 3)”  
-2^1 = 2 
-2^2 = 4 
-2^3 = 8 
-2^4 = 16 
-2^5 = 32 (5 bitów umożliwia wybór 1 z właśnie 32 liter alfabetu polskiego!) 
-2^6 = 64 (6. bit dodatkowo rozróżnia małe i wielki litery) 
-2^7 = 128 (tu jeszcze wchodzą pozostałe tzw. znaki alfanumeryczne) 
-2^8 = 256 (tu uwzględniony jest jeszcze kontrolny tzw. bit parzystości).  
-Ciąg 8 bitów, to bajt (8 b = 1 B). Umożliwia on rozróżnianie między sobą 256 sytuacji.  
-Kontynuując otrzymujemy:  
-2^9 = 512 
-2^10 = 1024 (bardzo ważna liczba, bo 1 kilo = 1 tysiąc, np. 1kg = 1000 g, a że w informatyce wszystko oparte jest na d4)ójce, więc w niej mamy np. 1Kb = 1024 b – duże K, bo to jest 1024, a nie jakieś tam 1000 oznaczane przez małe k!).  
- 
-CDN… 

Wersja z dnia 22:13, 27 lut 2008

ZAJĘCIA NR 1