100% satisfaction guarantee Immediately available after payment Both online and in PDF No strings attached 4.2 TrustPilot
logo-home
Summary

Zusammenfassung Grundlagen der Automatischen Informationsverarbeitung

Rating
-
Sold
-
Pages
23
Uploaded on
07-07-2022
Written in
2021/2022

Zusammenfassung Grundlagen der Automatischen Informationsverarbeitung

Institution
Course










Whoops! We can’t load your doc right now. Try again or contact support.

Written for

Institution
Study
Course

Document information

Uploaded on
July 7, 2022
Number of pages
23
Written in
2021/2022
Type
Summary

Subjects

Content preview

GRUNDLAGEN DER AUTOMATISCHEN INFORMATIONSVERARBEITUNG

I EINFÜHRUNG
1.1 Der Begriff Informatik
• Erstmals 1957 von Karl Steiner verwendet; Zusammengefügt aus „Information“ und „Automatik“
• als Strukturwissenschaft einzuordnen
• Wurzeln in der Mathematik, Physik und Elektrotechnik
• bildet Gegenstände in abstrakte Strukturen ab und deren Prozesse in Algorithmen und ermöglicht maschinelle
Simulation realer Prozesse
• Unterscheidung zwischen Computersystem und Automaten
◦ Computersystem – Algorithmen veränderbar
◦ Automaten – Algorithmen fest ( nicht veränderbar )
• Aufteilung der Software in Anwendungs- & Systemsoftware
◦ Systemsoftware ( z.B. Betriebssystem ) ist notwendige Grundlage für Anwendungssoftware

1.2 Bereiche der Informatik
Technische Informatik • Im Bereich Rechnerarchitektur – technische Konstruktion von Computern
• Im Bereich Systemsoftware – Konzeption und Implementierung von Software,
die die Hardware steuert ( daher hardware-nah und anwendungs-unspezifisch )
Praktische Informatik • Gegenstand ist die Programmierung ( Programmiersprachen und Algorithmen )
• Methoden der Softwareentwicklung
Theoretische Informatik • Erforschen theoretischer Grundlagen
• Mathematische Formalisierung und Komplexitätsabschätzung
Angewandte Informatik • Anwendungsorientierter Einsatz von Rechnern
Disziplinübergreifende • Künstliche Intelligenz
Ausprägungen • Informatik und Gesellschaft

II HARDWARE
2.1 Historische Entwicklung der Hardware
2.1.1 Mechanische Geräte • Erste Rechenmaschinen waren ausschließlich mechanisch konstruiert
• erste Maschine, die alle Grundrechenarten beherrschte, wurde 1673 von Leibniz
vorgestellt
• Gemeinsames Problem dieser mechanischen Rechenmaschinen:
kein Zahlenspeicher
• wichtige Entwürfe waren die Difference Engine ( 1822 ) und
die Analytical Engine ( 1837 ) von Charles Babbage
◦ weitsichtiges Konzept, da frei programmierbar
◦ gilt hinsichtlich der Architektur als Vorläufer der heutigen Computer
2.1.2 Elektromechanische • Basierend auf dem Grundprinzip der Analytical Engine hat Konrad Zuse in den
Rechenmaschinen 30er Jahren mit der Entwicklung begonnen
• Zuse hat die Methode der Gleitkommaberechnung mit Mantisse und Exponent
theoretisch entwickelt und praktisch umgesetzt
• Erste Maschine, Z1 wurde 1937 entworfen und gebaut
• Z3 gilt als erster funktionstüchtiger Computer; Binärrechner mit begrenzter
Programmierfähigkeit, mit Speicher und einer Zentralrecheneinheit
• Der erste dokumentierte Bug ereignete sich am 9.9.1945 um 15:45, bei dem sich
eine Motto ( engl. Bug ) in einem Relais eines Mark II Rechners verklemmte und
eine Fehlfunktion verursachte
2.1.3 Voll-Elektronische • Erster voll-elektronischer Rechner war der ENIAC aus dem Jahre 1946
Rechenmaschinen • verfügte über keinen Befehlsspeicher; Neuprogrammierung erfolgte über neues
Verdrahten
2.1.4 Von-Neumann • Notwendigkeit eines Befehlsspeichers beim ENIAC
Architektur • Stored-Program-Computer besitzt Speicher mit wahlfreiem Zugang (Random
Access Memory)
◦ Daten, Befehle und Programm können hier drauf gespeichert werden
• Stored-Program-Computer wurde von John von Neumann weiter ausgearbeitet

, • Von-Neumann Architektur besitzt:
◦ Hauptspeicher (Memory) – Daten und Befehle / Programme
◦ Zentraleinheit CPU
▪ Steuerwerk – Befehlszeiger (BZ) und Befehlsregister (BR)
▪ Rechenwerk (ALU – Arithmetic Logic Unit) – Ausführung arithmetischer
Operationen
◦ Ein-/Ausgabe – (Input/Output IO)
• Harvard-Archietktur:
◦ Trennung der Speicher für Daten und Programme
◦ Vorteil – Schreiben von Daten kann nicht aus Versehen Code verändern
Von-




Von-Neumann-Architektur Neumann-Zyklus
• Von-Neumann-Zyklus beschreibt, wie die Befehle abgearbeitet werden:
◦ 1) Befehl holen ( fetch ) - aus dem Befehlsregister
◦ 2) Befehl dekodieren ( decode ) - Bereitstellen der Instruktionen für die ALU
▪ 3) Operanden holen
◦ 4) Befehl ausführen ( execute ) - ALU führt die Operation aus
◦ Wenn Ergebnis = Sprunganweisung
▪ 5) Befehlszeiger auf den nächsten Befehl ausgegeben
◦ Wenn Ergebnis =! Sprunganweisung
▪ Abspeichern des Ergebnisses ( store )
▪ 6) Befehlszeiger erhöhen
2.1.5 Entwicklung bis heute • 1950 – 1955
◦ Entwicklung von Röhrenschaltkreisen und Trommelspeichern
• 1955 – 1960
◦ Übergang zu Transistorschaltkreise und Ferritspeicher
• 1960 – 1970
◦ Entwicklung erster integrierter Schaltkreise und Festplatten heutiger Bauart
• 1970 – heute
◦ Einsatz hochintegrierter Schaltkreise, Halbleiterspeicher

2.2 Codierung
• Abbildung des Zeichenvorrats einer Darstellung in den einer anderen Darstellung
• Zeichenvorrat bzw. Code ist die Menge der Zeichen / Symbole die ein Signale annehmen kann
• Codierung selbst ist die Vorschrift der Abbildung; und sollte in der Regel umkehrbar sein
2.2.1 Elementare • Bits ( Binary Digits ) - Elementare Informationseinheit; kann exakt zwei
Dateneinheiten mögliche Werte annehmen
• Byte ( Stück / Biss ) - eine bestimmte Anzahl an Bits; heute üblich 8 Bits
◦ 1KB = 1024 Bytes = 2^10 Bytes : binäres Kilo
◦ 1MB = 1024² Bytes = 2^20 Bytes : binäres Mega
◦ 1GB = 1024³ Bytes = 2^30 Bytes : binäres Giga
◦ etc.
• Word ( Wort ) - nächstgrößere Einheit nach Bytes
◦ grundlegende Dateneinheit zur Organisation eines Computersystems
◦ ein Word kann in einem Operationsschritt/Takt vom Prozessor verarbeitet
werden
◦ Wortlänge definiert den maximal adressierbaren Speicher

, 2.2.2 Elementare Datentypen • Integer ( Ganze Zahl )
◦ short – 2 Byte
◦ long – 4 Byte
• Float ( Gleitkomma Zahl )
◦ Darstellung reeller Zahlen mit endlich vielen Ziffern, daher approximativ
◦ W =V Z * M * b E ; im technischen Bereich mit der Basis b=10, bei der
Computerorientieren Darstellung in der Regel mit Basis b=2
◦ Normalisierte Mantisse liegt vor wenn 1≤M <b
◦ float ( 4 Bytes / 32 Bits )
◦ double ( 8 Bytes / 64 Bits )
◦ Abschneidefehler
▪ Bei Denormalisierung müssen Stellen der Mantisse verschoben werden,
die jedoch aufgrund der begrenzten Stellen abgeschnitten werden
◦ Auslöschungsfehler
▪ Bei der Subtraktion können bei Zahlen, deren ersten k-Stellen identisch
sind, nur p-k Stellen vertrauenswürdig sein
◦ Rundungsfehler
▪ Multuplikation zweier Gleitkommazahlen erfolgt durch Addition der
Exponenten und Multiplikation der Mantissen. Aufgrund einer begrenzten
Stellenzahl werden überschüssige Stellen des Ergebnisses gekürzt,
wodurch ein Rundungsfehler entsteht
◦ Kumulation von Rechenfehlern
▪ Abschneide- und Rundungsfehler kumulieren bei mehreren
nachfolgenden Operationen zu größeren Fehlern
◦ Vergleich von Gleitkommazahlen
▪ Aufgrund von Darstellungsungenauigkeiten können Gkeitkommazahlen
nicht direkt verglichen werden; Verwendung einer ε-Schranke
◦ Schnelligkeit und Genauigkeit
▪ Sofern Schnelligkeit und Genauigkeit eine Rolle spielen, sollten
Gleitkommazahlen vermieden und Integer genutzt werden
• Char ( Zeichen )
◦ wird für betragskleine Zahlen oder Zeichen verwendet (i.d.R. 8 Bits)
◦ Zeichensatz definiert die visuelle Darstellung
▪ EBCDIC – Extended Binary Coded Decimals Interchange Code
• 8 Bit Zeichensatz; vorwiegend auf Großrechnern
▪ ASCII – American Standard Code for Information Interchange
• ISO-7 Bit Zeichensatz
▪ ISO / IEC 8859-1 ( gleichwertig zu latin1 )
• 8 Bit Erweiterung zum ASCII
▪ Unicode ISO 10646
• Ursprünglich 16 Bit, mittlerweile 32 Bit ( UTF )
• Byte-Reihenfolge – Byte-Ordering
◦ Hardwaretechnisch relevant und i.d.R. prozessorabhängig
◦ Little Endian – niedrigstwertigste Byte wird an der niedrigsten
Speicheradresse abgelegt ( A4 B3 C2 D1 )
◦ Big Endian – höchtswertigstes Byte wird an der niedrigsten Speicheradresse
abgelegt ( D1 C2 B3 A4 )

2.3 Architektur-Elemente
2.3.1 Register-Architektur • Daten befinden sich im Hauptspeicher und müssen zur Durchführung in die CPU
geholt werden
• Register dienen als Zwischenspeicher, für kleine Daten ( i.d.R. für ein Word ),
und schnellen Zugriff
• Registersatz - Zusammenfassung aller Register eines Prozessors
• Akkumulator-Register – ermöglicht das Speichern eines Ergebnisses innerhalb
der CPU zur weiteren Verwendung

• Register-Register
◦ Für Operationen wird nur auf Register zugegriffen
◦ schnelle Ausführung, jedoch Load/Store-Architektur benötigt Transfer
$7.26
Get access to the full document:

100% satisfaction guarantee
Immediately available after payment
Both online and in PDF
No strings attached

Get to know the seller
Seller avatar
owil

Also available in package deal

Get to know the seller

Seller avatar
owil Technische Universität Carolo-Wilhelmina zu Braunschweig
Follow You need to be logged in order to follow users or courses
Sold
0
Member since
3 year
Number of followers
0
Documents
9
Last sold
-

0.0

0 reviews

5
0
4
0
3
0
2
0
1
0

Recently viewed by you

Why students choose Stuvia

Created by fellow students, verified by reviews

Quality you can trust: written by students who passed their tests and reviewed by others who've used these notes.

Didn't get what you expected? Choose another document

No worries! You can instantly pick a different document that better fits what you're looking for.

Pay as you like, start learning right away

No subscription, no commitments. Pay the way you're used to via credit card and download your PDF document instantly.

Student with book image

“Bought, downloaded, and aced it. It really can be that simple.”

Alisha Student

Frequently asked questions