Cosa studia l'IT?

L'informatica è una scienza moderna che studia metodi, processi e tecniche per elaborare, trasmettere o archiviare i dati in modo digitale.

Con il grande progresso della tecnologia della seconda metà del XX secolo, questa disciplina stava acquisendo importanza nelle attività produttive, aumentando nel contempo la sua specificità.

Lo sviluppo di computer, circuiti chiusi, robot, macchinari, telefoni cellulari e l'emergere di Internet, rendono l'informatica una delle scienze più esplosive degli ultimi decenni.

L'etimologia della parola computer ha diverse origini possibili. Principalmente è emerso come un acronimo per le parole informazioni e automatique (informazioni automatiche).

Nel 1957 fu Karl Steinbuch, che inserì questo termine in un documento chiamato Informatik: Automatische Informationsverarbeitung .

Mentre nel 1962, l'ingegnere francese Philippe Dreyfus nominò la sua società come Société d'Informatique Appliquée. Tuttavia, è stato il russo Alexander Ivanovich Mikhailov che per primo ha usato questo termine come "studio, organizzazione e diffusione di informazioni scientifiche".

Tra il suo vasto campo di applicazione, questa scienza è dedicata allo studio dell'elaborazione automatica delle informazioni tramite dispositivi elettronici e sistemi informatici, che possono essere utilizzati per scopi diversi.

Cosa studia l'IT? applicazioni

Il campo di applicazione dell'informatica stava estendendo il suo spettro allo sviluppo tecnologico nell'ultimo mezzo secolo, principalmente dall'impulso dei computer e di Internet.

Tra i suoi compiti principali vi sono progettazione, sviluppo, pianificazione a circuito chiuso, preparazione dei documenti, monitoraggio e controllo dei processi.

È anche responsabile della creazione di robot industriali, nonché di compiti relativi al vasto campo delle telecomunicazioni e alla realizzazione di giochi, applicazioni e strumenti per dispositivi mobili.

Formazione di tecnologia dell'informazione

L'informatica è una scienza in cui convergono conoscenza e conoscenza di discipline diverse, a partire dalla matematica e dalla fisica, ma anche dall'informatica, dalla programmazione e dal design, tra gli altri.

Questa unione sinergica tra diversi rami della conoscenza è integrata in informatica con le nozioni di hardware, software, telecomunicazioni, internet ed elettronica.

storia

La storia dell'informatica è iniziata molto prima della disciplina che porta il suo nome. Ha accompagnato l'umanità quasi dalle sue origini, sebbene senza essere riconosciuta come una scienza.

Dalla creazione dell'abaco cinese, registrato nell'anno 3000 aC e considerato il primo dispositivo di calcolo dell'umanità, possiamo parlare di informatica.

Questa tabella è divisa in colonne, consentite attraverso i movimenti delle loro unità per eseguire operazioni matematiche come addizione e sottrazione. Potrebbe esserci il punto di partenza di questa scienza.

Ma l'evoluzione dell'informatica era appena iniziata con l'abaco. Nel diciassettesimo secolo, Blaise Pascal, uno dei più famosi scienziati francesi del suo tempo, creò la calcolatrice e fece compiere un ulteriore passo evolutivo.

Questo dispositivo serviva solo per addizioni e sottrazioni ma era la base per il Leibniz tedesco, quasi 100 anni dopo, nel XVIII secolo, sviluppava un dispositivo simile ma con moltiplicazioni e divisioni.

Queste tre creazioni sono state i primi processi informatici che hanno registrato. È stato necessario attendere quasi 200 anni in più affinché questa disciplina diventi rilevante e diventi una scienza.

Nei primi decenni del 20 ° secolo, lo sviluppo dell'elettronica è stato l'impulso finale dell'informatica moderna. Da lì, questo ramo della scienza inizia a risolvere i problemi tecnici derivanti dalle nuove tecnologie.

A quel tempo c'era un cambiamento dai sistemi basati su ingranaggi e barre ai nuovi processi di impulsi elettrici, catalogati da un 1 quando la corrente passa e da uno 0 quando no, che ha rivoluzionato questa disciplina.

L'ultimo passo è stato compiuto durante la seconda guerra mondiale con la realizzazione del primo computer, il Mark I, che ha aperto un nuovo campo di sviluppo che è ancora in espansione.

Nozioni di base di informatica

L'informatica, intesa come l'elaborazione automatica delle informazioni attraverso dispositivi elettronici e sistemi informatici, deve avere alcune capacità da sviluppare.

Tre operazioni fondamentali sono fondamentali: entrata, che si riferisce alla raccolta di informazioni; l'elaborazione di quella stessa informazione e dell'output, che è la possibilità di trasmettere i risultati.

L'insieme di queste capacità di dispositivi elettronici e sistemi informatici è noto come un algoritmo, che è l'insieme ordinato di operazioni sistematiche per eseguire un calcolo e trovare una soluzione.

Attraverso questi processi, il computer ha sviluppato vari tipi di dispositivi che hanno iniziato a facilitare i compiti dell'umanità in tutti i tipi di attività.

Sebbene la sua area di applicazione non abbia limiti rigorosi, è utilizzata principalmente nei processi industriali, nella gestione aziendale, nell'archiviazione delle informazioni, nel controllo dei processi, nelle comunicazioni, nei trasporti, nella medicina e nell'istruzione.

generazioni

Nell'ambito dell'informatica e dell'informatica, possiamo parlare di cinque generazioni di processori che hanno segnato la storia moderna dalla sua comparsa nel 1940 ad oggi.

Prima generazione

La prima generazione ebbe il suo sviluppo tra il 1940 e il 1952, quando i computer furono costruiti e azionati con valvole. La sua evoluzione e utilità era principalmente in un ambiente scientifico-militare.

Questi dispositivi avevano circuiti meccanici, i cui valori erano modificati per essere programmati secondo gli scopi necessari.

Seconda generazione

La seconda generazione fu sviluppata tra il 1952 e il 1964, con la comparsa di transistor che sostituirono le vecchie valvole. È così che sono emersi dispositivi commerciali che hanno goduto di una programmazione precedente.

Un altro aspetto centrale di questa fase è la comparsa dei primi codici e linguaggi di programmazione, Cobol e Fortran. A quali anni dopo furono seguiti da nuovi.

Terza generazione

La terza generazione ebbe un periodo di sviluppo un po 'più breve di quella dei suoi predecessori, fu estesa tra il 1964 e il 1971 quando apparvero i circuiti integrati.

La riduzione dei costi nella produzione dei dispositivi, l'aumento della capacità di stoccaggio e la riduzione delle dimensioni fisiche hanno segnato questa fase.

Inoltre, grazie allo sviluppo dei linguaggi di programmazione, che hanno acquisito specificità e attitudini, i primi programmi utilitaristici hanno cominciato a prosperare.

Quarta generazione

La quarta generazione fu prodotta dal 1971 e durò per un decennio, fino al 1981, con componenti elettronici come i principali protagonisti dell'evoluzione.

Così i primi microprocessori cominciarono ad apparire nel mondo dei computer, che includeva tutti gli elementi di base dei vecchi computer in un unico circuito integrato.

Quinta generazione

Infine, la quinta generazione è iniziata nel 1981 e si estende al presente, in cui la tecnologia invade tutti gli aspetti delle società moderne.

Lo sviluppo principale di questa fase evolutiva dell'informatica furono i personal computer (PC), che in seguito portarono a un vasto gruppo di tecnologie associate che ora governano il mondo.