Co studiuje IT?

Informatyka to nowoczesna nauka, która bada metody, procesy i techniki przetwarzania, przesyłania lub przechowywania danych w sposób cyfrowy.

Wraz z wielkim postępem technologii z drugiej połowy XX wieku dyscyplina ta zyskiwała na znaczeniu w działalności produkcyjnej, jednocześnie zwiększając jej specyfikę.

Rozwój komputerów, obwodów zamkniętych, robotów, maszyn, telefonów komórkowych i pojawienie się Internetu czynią informatykę jedną z najbardziej dynamicznie rozwijających się nauk ostatnich dziesięcioleci.

Etymologia słowa komputer ma kilka możliwych źródeł. Głównie pojawił się jako skrót od słów informacja i automatique (informacje automatyczne).

W 1957 r. To Karl Steinbuch, który włączył ten termin do dokumentu o nazwie Informatik: Automatische Informationsverarbeitung .

Podczas gdy w 1962 roku francuski inżynier Philippe Dreyfus nazwał swoją firmę Société d'Informatique Appliquée. Jednak to Rosjanin Aleksander Iwanowicz Michajłow po raz pierwszy użył tego terminu jako „studium, organizacja i rozpowszechnianie informacji naukowej”.

Wśród jego szerokiego zakresu zastosowań nauka ta poświęcona jest badaniu automatycznego przetwarzania informacji za pomocą urządzeń elektronicznych i systemów komputerowych, które mogą być wykorzystywane do różnych celów.

Co studiuje IT? Aplikacje

Dziedziną zastosowania informatyki było poszerzenie jej spektrum o rozwój technologiczny w ostatnim półwieczu, głównie dzięki impulsom komputerów i Internetu.

Do jego głównych zadań należą: projektowanie, rozwój, planowanie obwodów zamkniętych, przygotowanie dokumentów, monitorowanie i kontrola procesów.

Odpowiada również za tworzenie robotów przemysłowych, a także zadania związane z szerokim polem telekomunikacji oraz tworzeniem gier, aplikacji i narzędzi na urządzenia mobilne.

Tworzenie technologii informatycznych

Informatyka to nauka, w której wiedza i wiedza z różnych dyscyplin zbiegają się, zaczynając od matematyki i fizyki, ale także informatyki, programowania i projektowania, między innymi.

Ten synergiczny związek między różnymi gałęziami wiedzy jest uzupełniony informatyką o pojęcia sprzętu, oprogramowania, telekomunikacji, internetu i elektroniki.

Historia

Historia informatyki rozpoczęła się na długo przed dyscypliną, która nosi jego imię. Towarzyszył ludzkości niemal od jej początków, choć nie został uznany za naukę.

Od czasu stworzenia chińskiego liczydła, zarejestrowanego w 3000 rpne i uważanego za pierwsze urządzenie obliczeniowe ludzkości, możemy mówić o informatyce.

Ta tabela podzielona na kolumny pozwoliła na ruchy swoich jednostek do wykonywania operacji matematycznych, takich jak dodawanie i odejmowanie. Może być punkt wyjścia tej nauki.

Ale ewolucja informatyki właśnie zaczęła się od liczydła. W XVII wieku Blaise Pascal, jeden z najbardziej znanych francuskich naukowców swoich czasów, stworzył maszynę obliczeniową i zainicjował kolejny krok ewolucyjny.

To urządzenie służyło tylko do dodawania i odejmowania, ale było podstawą niemieckiego Leibniza, prawie 100 lat później, w XVIII wieku, opracować podobne urządzenie, ale z mnożeniem i podziałami.

Te trzy kreacje były pierwszymi procesami komputerowymi, które mają rejestrację. Trzeba było czekać prawie 200 lat, aby ta dyscyplina stała się istotna i stała się nauką.

W pierwszych dziesięcioleciach XX wieku rozwój elektroniki był ostatnim impulsem nowoczesnej informatyki. Stąd ta gałąź nauki zaczyna rozwiązywać problemy techniczne wynikające z nowych technologii.

W tym czasie nastąpiła zmiana z systemów opartych na przekładniach i prętach na nowe procesy impulsów elektrycznych, skatalogowane przez 1, gdy prąd mija, a przez 0, gdy nie, co zrewolucjonizowało tę dyscyplinę.

Ostatni krok został podjęty podczas II wojny światowej wraz z utworzeniem pierwszego komputera, Marka I, który otworzył nowe pole rozwoju, które wciąż się rozwija.

Podstawowe pojęcia informatyki

Informatyka, rozumiana jako przetwarzanie informacji automatycznie za pomocą urządzeń elektronicznych i systemów komputerowych, musi mieć pewne możliwości do opracowania.

Trzy podstawowe operacje to podstawa: wpis, który odnosi się do zbierania informacji; przetwarzanie tych samych informacji i danych wyjściowych, czyli możliwość przesyłania wyników.

Zestaw tych możliwości urządzeń elektronicznych i systemów komputerowych jest znany jako algorytm, który jest uporządkowanym zestawem systematycznych operacji do wykonania obliczeń i znalezienia rozwiązania.

Dzięki tym procesom komputer opracował różnego rodzaju urządzenia, które zaczęły ułatwiać zadania ludzkości we wszystkich rodzajach działań.

Chociaż jego obszar zastosowań nie ma ścisłych ograniczeń, jest on stosowany głównie w procesach przemysłowych, zarządzaniu przedsiębiorstwem, przechowywaniu informacji, kontroli procesów, komunikacji, transporcie, medycynie i edukacji.

Pokolenia

W informatyce i informatyce możemy mówić o pięciu pokoleniach procesorów, które naznaczyły historię nowożytną od jej powstania w 1940 r. Do chwili obecnej.

Pierwsza generacja

Pierwsza generacja miała swój rozwój między 1940 a 1952 rokiem, kiedy zbudowano komputery i sterowano nimi zaworami. Jego ewolucja i użyteczność były głównie w środowisku naukowo-wojskowym.

Urządzenia te miały obwody mechaniczne, których wartości zostały zmodyfikowane w celu zaprogramowania zgodnie z niezbędnymi celami.

Druga generacja

Druga generacja została opracowana między 1952 a 1964 rokiem, z pojawieniem się tranzystorów, które zastąpiły stare zawory. Tak powstały urządzenia komercyjne, które cieszyły się wcześniejszym programowaniem.

Innym centralnym faktem tego etapu jest pojawienie się pierwszych kodów i języków programowania, Cobol i Fortran. Do których lat później poszły nowe.

Trzecia generacja

Trzecia generacja miała okres rozwoju nieco krótszy niż jej poprzednicy, został przedłużony w latach 1964–1971, kiedy pojawiły się układy scalone.

Redukcja kosztów produkcji urządzeń, zwiększenie pojemności i zmniejszenie wielkości fizycznej, oznaczały ten etap.

Ponadto dzięki rozwojowi języków programowania, które zyskały na specyficzności i uzdolnieniach, zaczęły się rozwijać pierwsze programy użytkowe.

Czwarta generacja

Czwarta generacja była produkowana od 1971 r. I trwała przez dekadę, aż do 1981 r., Z elementami elektronicznymi jako głównymi bohaterami ewolucji.

W ten sposób pierwsze mikroprocesory zaczęły pojawiać się w świecie komputerowym, który obejmował wszystkie podstawowe elementy starych komputerów w jednym układzie scalonym.

Piąta generacja

Wreszcie piąta generacja rozpoczęła się w 1981 r. I rozciąga się na teraźniejszość, w której technologia atakuje wszystkie aspekty współczesnych społeczeństw.

Głównym rozwojem tej ewolucyjnej fazy obliczeń były komputery osobiste (PC), które później doprowadziły do ​​powstania szerokiej grupy powiązanych technologii, które obecnie rządzą światem.