|
Entwicklung des Computers - Referat
Entwicklung des Computers
Facharbeit
aus
Deutsch
Beurteilung
Gut
----------------------
Inhaltsverzeichnis
Entwicklung des Computers
1 Vorwort........................................................................................................ 3-7
1.1 Computer…………………………………………………………………….……3-6
1.2 Funktionsweise des Computers ............................................................................ 7
2 Geschichte.....................................................................................................8-15
2.1 Die analytische Maschine …………………………….......................................... 9
2.2 Die ersten Computer...............................................................................................10
2.3 Elektronische Computer…………………………. ...............................................10-12
2.4 Integrierter Schaltkreis ..........................................................................................13
2.5 Geschichte Zusammengefasst: ..............................................................................14-15
3 COMPUTERTYPEN................................................................................. 15 - 16
3.1 Analogcomputer ....................................................................................................16
3.2 Digitalcomputer …………………....................................................................... 16
4 Hardware ...................................................................................................... 17 - 21
4.1 Allgemein………………………….. ....................................................................17-18
4.2 Zentrale Verarbeitungseinheit (CPU) ...................................................................19
4.3 Eingabegeräte ...................................................................................................... 19-20
4.4 Speicher ................................................................................................................ 20
4.5 Ausgabegeräte ......................................................................................................21
5 Zukünftige Entwicklungen ........................................................................ 21 - 24
6 Eigene Stellungnahme ................................................................................. 24
7 Literaturverzeichnis .................................................................................... 25
1 Vorwort
1.1 Computer
Der Begriff \'Computer\' stammt aus dem Engl.; das Verb to compute bedeutet \'berechnen, schätzen, veranschlagen\' und geht auf das lat. computus zurück, das in der Spätantike und im Mittelalter vor allem als Bezeichnung für die astronomische Berechnung kirchlicher Feiertage verwendet wurde.
Computer, elektronisch arbeitende Maschine, mit der sich verschiedene Arten von Daten verarbeiten lassen.
Bürocomputer der Einzug der Computer in die Büros hat aufgrund des damit möglichen schnelleren Zugriffs auf Informationen und der deutlich größeren Kommunikations= möglichkeiten den Arbeitsalltag revolutioniert. Bürocomputer
Cray-1-Supercomputer der 1976 entwickelte Cray-1-Supercomputer war der erste Rechner mit einer Leistung von mehr als 100 Millionen FLOPS, das sind Gleitkommaberechnungen pro Sekunde.
Cray-1-Supercomputer
Computer können Befehlssätze oder Programme entgegennehmen und die in den Programmen enthaltenen Befehle ausführen. Dazu nimmt der Computer Berechnungen numerischer Daten oder eine Auswertung und Verarbeitung von Informationen vor.
Die wesentlichen Grundelemente, die einen Computer ausmachen, sind die Eingabeeinheit
(z. B. Tastatur), eine Vorrichtung zur Verarbeitung der Daten (z. B. Mikroprozessor), eine oder mehrere Ausgabeeinheiten (z. B. Bildschirm, Drucker) sowie ein Speicherelement
(z. B. Festplatte). Diese Bausteine, den Computer inbegriffen, fasst man auch unter dem Begriff Hardware zusammen. Im Gegensatz dazu steht die so genannte Software, die alle möglichen Arten von Programmen beinhaltet.
CAD und CAM Als Computer-Aided-Design (CAD) bzw. -Manufacturing (CAM) werden Konstruktion bzw. Fertigung mit Hilfe eines Rechners bezeichnet, wie die Simulation eines Fahrzeugs im Windkanal illustriert.
CAD und CAM
Mensch gegen Maschine die Abb.1 verdeutlicht die Anspannung, unter der Gary Kasparow während der sechsten Partie gegen den IBM-Computer Deep Blue stand. Nach nur 19 Zügen verlor er am 11. Mai 1997 dieses Match.
Abb.1
Laptop die Idee, einen tragbaren PC zu produzieren, führte zur Entwicklung des Laptops.. Laptops sind meist schwerer als Notebooks.
Computer ist sehr wichtig für die Börse.
Verschiedene elektronische Systeme in einer Börsenabteilung einer US-amerikanischen Bank.
EDV-Technik in der Finanzwelt
Die moderne Welt der Hochtechnologie ist ohne die Entwicklung des Computers kaum noch vorstellbar. Computer verschiedener Typen und Größen finden im Bereich der Speicherung und Verarbeitung von Daten weite Verbreitung in der Gesellschaft, angefangen von beispielsweise geheimen Regierungsdaten, über Transaktionen der Banken bis hin zu privaten Haushaltskonten. Computer haben durch die Techniken der Automation ein neues Zeitalter der Fabrikation eröffnet und moderne Kommunikationssysteme erheblich verbessert.
Sie sind grundlegende Hilfsmittel in fast jedem Gebiet der Forschung und angewandten Technik, wie z. B. für die Aufstellung von Modellen, die man für Wettervorhersagen benutzt. Datenbankanbieter und Computernetzwerke offerieren eine große Auswahl von Informationsquellen.
Der iMac von Apple
Der Computerhersteller Apple stellte im Mai 1998 erstmals den iMac der Öffentlichkeit vor. Dieser Computer zeichnet sich u. a. durch sein besonderes Design aus und wurde im Handel in fünf verschiedenen Farben angeboten. Bis zum Dezember 1998 verkaufte Apple über 500 000 Exemplare.
Der iMac von Apple
Motherboard (Hauptplatine)
Blick auf ein übliches Motherboard. Auf ihm befinden sich alle Elemente zur Steuerung der angeschlossenen Hardware sowie der Peripheriegeräte (z. B. Drucker, Scanner, Modem).Premium Stock/Corbis
Motherboard (Hauptplatine)
1.2 Funktionsweise des Pc´s
Ein moderner Digitalcomputer ist im weitesten Sinne eine Ansammlung von elektronischen Schaltern. Diese Schalter dienen sowohl der Darstellung als auch der Steuerung von Datenelementen, den so genannten Bits (Abk. für binary digits).
Aufgrund der Art und Weise, binäre Informationen und die Signalsteuerung als Ein- oder Aus- Zustände darzustellen, wurde ein leistungsfähiger elektronischer Schalter benötigt.
Bei den ersten elektronischen Computern wurden Elektronenröhren als Schalter verwendet, doch obwohl diese Röhren tatsächlich funktionierten, breiteten sie erhebliche Probleme.
Die Röhre war als Schalter nicht gerade sehr Leistungsfähig.
Sie hatte einen ziemlichen hohen Energieverbrauch und wurde außerdem sehr heiß, was für die ersten Computern ein ernsthaftes Problem darstellte.
Die Röhren waren vor allem augrund der starken Wärmeentwicklung äußerst unzuverlässig. In einem größeren Computersystem ist alle zwei Stunden mindestens eine Röhre ausgefallen.
Die Erfindung des Transistors bzw. des Halbleiters war eine der entscheidenden Entwicklungen, die zur Revolution der Personal Computer führte.
Der Transistor wurde 1948 von den Ingeneuren John Bardeen, Walter Brattain und Wiliam Shockley in den Bell Laboratories (USA) entwickelt.
Der Transistor, der im Prinzip ein elektronischer Halbleiterschalter ist, ersetzte die weniger geeignete Elektronenröhre.
Da der Energieverbrauch von Transistoren deutlich geringer ist, sind Computersysteme mit Transistoren sehr viel kleiner, schneller und leistungsfähiger als Computersysteme mit Elektronenröhren.
Die Umstellung auf Transistoren setzte den Trend der Miniaturisierung in Gang, der bis zum heutigen Tag anhält.
Die heute gebräuchlichen kleinen, batteriebetriebenen Laptops (oder Palmtops) Verfügung über eine höhere Rechnerleistung als viele der älteren Computersysteme, die ganze Räume ausfüllten und einen enorm hohen Energieverbrauch hatten.
Ein moderner Digitalcomputer ist im weitesten Sinne eine Ansammlung von elektronischen Schaltern.
Mueller, Scott: PC-Hardware Superbibel, Bd 12, In: Markt+Technik Verlag,
München 2001, S.25
2 GESCHICHTE
George Boole der britische Mathematiker und Logiker George Boole (1815-1864) veröffentlichte 1854 in seiner Abhandlung an Investigation of the Laws of Thought ein algebraisches System, das als „Boole’sche Algebra” in die Geschichte einging.
Auf ihr beruhen die Funktionsweisen von Computern.
George Boole
Die erste Addiermaschine, ein Vorläufer des Digitalcomputers, wurde 1642 von Blaise Pascal erfunden. Dieses Gerät enthielt eine Reihe von zehnzähnigen Zahnrädern, bei denen jeder Zahn einer Ziffer von null bis neun entsprach. Die Zahnräder waren so miteinander verbunden, dass Zahlen addiert wurden, wenn man die einzelnen Zahnräder um die richtige Anzahl von Zähnen weiterdrehte. In den siebziger Jahren des 17. Jahrhunderts verbesserte Gottfried Wilhelm Leibniz die Addiermaschine von Pascal.
Die Konstruktion von Leibniz konnte auch Multiplikationen ausführen.
Der französische Erfinder Joseph Marie Jacquard verwendete bei dem Entwurf einer automatischen Webmaschine dünne, gelochte Holzbretter zur Steuerung komplizierter Webmuster. In der ersten Hälfte des 19. Jahrhunderts entwickelte der britische Mathematiker George Boole die nach ihm benannte Boole’sche Algebra. Sie bildet praktisch die mathematische Grundlage für jede digitale Rechen- und Steuerschaltung. Während der achtziger Jahre des 19. Jahrhunderts führte der amerikanische Statistiker Hermann Hollerith zur Datenverarbeitung die Idee der Lochkarten ein, die Jacquards Holzbrettern ähnelten. Mit der Herstellung eines Systems zum Analysieren der gelochten Karten mittels elektrischer Kontakte war er in der Lage, die statistischen Daten der US-amerikanischen Volkszählung von 1890 zusammenzustellen.
2.1 Die analytische Maschine
Früher Rechenautomat
Als direkter Vorläufer der Computer gilt die vom britischen Mathematiker Charles Babbage (1792-1871) entwickelte „Difference Engine“, eine programmgesteuerte Rechenmaschine, die er 1820 konzipiert, aber nie gebaut hatte.
THE BETTMANN ARCHIVE
THE BETTMANN ARCHIVE
Früher Rechenautomat
Ebenfalls im 19. Jahrhundert arbeitete der britische Mathematiker und Erfinder Charles Babbage die Prinzipien der modernen Digitalcomputer aus. Dabei entwarf er eine Reihe von Maschinen, wie beispielsweise die Differenzmaschine. Sie diente zur Lösung komplizierter mathematischer Probleme. Viele Historiker halten Babbage und seine Assistentin und Lebensgefährtin Augusta Ada Byron (Lady Lovelace, 1815-1852), die Tochter des englischen Dichters Lord Byron, für die eigentlichen Erfinder des Digitalcomputers. 1844 veröffentlichte Babbage das Konzept der Analytical Engine, die allerdings nie von ihm gebaut wurde.
Erst sein Sohn konnte Teile dieser analytischen Maschine verwirklichen.
Sie besaß bereits zahlreiche Eigenschaften moderner Computer. Die Konstruktion hatte einen Eingabestrom in Form eines Lochkartenstapels, einen „Speicher” zur Datensicherung und ein „Werk” für arithmetische Operationen sowie einen Drucker zur dauerhaften Aufzeichnung von Daten.
2.2 Die ersten Computer
Die ersten Analogcomputer entstanden zu Beginn des 20. Jahrhunderts.
In den ersten Modellen verwendete man für die Berechnungen rotierende Stifte und mechanische Getriebe. Mit diesen Maschinen ließen sich numerische Näherungen von Gleichungen bestimmen, die zu komplex für irgendeine andere Art der Berechnung waren.
Der deutsche Ingenieur Konrad Zuse (1910-1995) baute 1936 die erste mit dem binären Zahlensystem arbeitende, programmgesteuerte Rechenmaschine – diese Anlage trug den Namen Z1. Zuse war Bauingenieur und wollte mit seinem Apparat rechnerische Routinearbeiten automatisieren. War der Z1 noch rein mechanisch, so enthielt das Nachfolgemodell Z2 bereits elektromechanische Teile. Von der Deutschen Versuchsanstalt für Luftfahrt finanziert, war der Z3 der erste betriebsfähige, programmgesteuerte Rechenautomat. Z3 war mit 2 600 Relais und mit logischen Schaltungen (Und, Oder, Nicht) ausgestattet. Dieser Automat hatte eine Speicherkapazität von 64 Zahlen zu je 22 Dualstellen und konnte in der Sekunde bis zu 20 arithmetische Grundoperationen durchführen. Vier Jahre später veröffentlichte Zuse die erste Programmiersprache der Welt: Plankalkül. Mit dem Z22 entwickelte Zuse seinen ersten Elektronenrechner, mit dem Z23 einen Transistorenrechner.
2.3 Elektronische Computer
Der britische Mathematiker Alan Mathison Turing war Computerexperte und Pionier auf dem Gebiet der künstlichen Intelligenz. 1936 veröffentlichte Turing eine Abhandlung, die das Konzept einer Rechenmaschine enthielt. Mit Hilfe der Turing-Maschine war theoretisch jede mathematische Berechnung möglich. 1950 stellte Turing ein Experiment vor, mit dem sich die Frage beantworten lassen sollte, ob Maschinen denken können.
Das Experiment ging als Turing-Test in die Geschichte ein. Alan Mathison Turing
Im gleichen Jahr entwickelte er auch den ersten Schachcomputer der Welt.
UNIVAC-Computersystem
Eine Million US-Dollar kostete 1951 der erste in Serie hergestellte Computer, der UNIVAC I, von dem mehr als 40 Stück verkauft wurden.
THE BETTMANN ARCHIVE
UNIVAC-Computersystem
Während des 2. Weltkrieges entwickelte eine Gruppe Wissenschaftler und Mathematiker ein Gerät, das heute als erster elektronischer Digitalcomputer angesehen wird: Colossus.
Im Dezember 1943 war Colossus mit seinen 1 500 Vakuumröhren betriebsbereit.
Er wurde von der Gruppe unter dem Vorsitz von Alan Turing für den größtenteils erfolgreichen Versuch gebraucht, verschlüsselte Funksprüche zu decodieren.
Unabhängig davon wurde schon 1939 in den USA der Prototyp eines elektronischen Rechners von John Atanasoff und Clifford Berry am Iowa State College gebaut.
Diesem Prototyp folgte 1945 der ENIAC (Electronic Numerical Integrator And Computer). Der ENIAC bekam ein Patent erteilt, das allerdings 1973, aufgrund eines Verstoßes gegen das Urheberrecht, aufgehoben wurde. Das Grundkonzept basierte auf dem Atanasoff-Berry-Computer (ABC). Der ENIAC enthielt insgesamt 18 000 Elektronenröhren und konnte mehrere hundert Multiplikationen pro Minute durchführen. Allerdings war sein Programm fest im Prozessor verankert und musste für die jeweilige Aufgabe per Hand geändert werden. Ein Nachfolger des ENIAC mit einem Programmspeicher wurde nach den Konzepten des ungarisch-amerikanischen Mathematikers John von Neumann gebaut. Die Befehle wurden in einem Speicher abgelegt. Dadurch ließen sich die Geschwindigkeitseinschränkungen durch den Papierstreifenleser während der Programmausführung beseitigen. Außerdem ermöglichte dieser Programmspeicher die Lösung verschiedener Probleme, ohne den Computer neu zu verdrahten.
Schaltzentrale im Wiener Finanzamt
Ein Techniker bei der routinemäßigen Überprüfung der Computeranlage des Wiener Finanzamtes. Die Aufnahme stammt aus den fünfziger Jahren.
ORF Enterprise Ges.m.b.H
Schaltzentrale im Wiener Finanzamt
Computerplatine mit Transistoren
In elektronischen Schaltkreisen übernehmen Transistoren (auf dem Bild in silbernen Gehäusen) die Funktion von Verstärkern, Schaltern oder Oszillatoren.
Computerplatine mit Transistoren
Der Einsatz von Transistoren in Computern, zum Ende der fünfziger Jahre, ermöglichte den Bau von kleineren, schnelleren und vielseitiger verwendbaren Logikelementen, als dies mit Elektronenröhrenrechnern jemals erreichbar gewesen wäre. Weil Transistoren weniger Strom verbrauchen und eine längere Lebensdauer aufweisen, war allein diese Entwicklung verantwortlich für die verbesserten Rechner, die als Computer der zweiten Generation bezeichnet werden.
2.4 Integrierter Schaltkreis
Gegen Ende der sechziger Jahre entwickelte man den integrierten Schaltkreis (IC: Integrated Circuit). Bei diesem Bauteil sind praktisch eine bestimmte Anzahl von Transistoren auf einem Siliciumsubstrat vereinigt, wobei die Verbindungsdrähte ebenfalls direkt integriert werden. Der IC führte zu einer weiteren Preissenkung. Außerdem sind ICs wesentlich kleiner (Platzersparnis) und weniger fehleranfällig als Transistoren. Etwa Mitte der siebziger Jahre kamen die ersten Mikroprozessoren auf den Markt. Ihre Entwicklung wurde insbesondere durch hochintegrierte (LSI: Large Scale Integrated) und durch sehr-hochintegrierte (VLSI: Very Large Scale Integrated) Schaltungen technisch möglich. Bei Mikroprozessoren sind viele tausend miteinander verbundene Transistoren – also wesentlich mehr als beim IC – auf ein einzelnes Siliciumsubstrat geätzt.
Zurück zu den „schalterlesenden” Fähigkeiten eines modernen Computers: Die Computer der siebziger Jahre konnten im Allgemeinen acht Schalter gleichzeitig überprüfen.
Sie waren also in der Lage, acht binäre Datenziffern, so genannte Bits (BInary digiTs), in jedem Takt auszuwerten. Eine Gruppe von acht Bits bezeichnet man als Byte. Jedes Byte kann eine der 256 möglichen Kombinationen von AN- und AUS-Einstellungen (oder Einsen und Nullen) enthalten. Jedes dieser Muster entspricht einer kompletten Anweisung, einem Teil einer Anweisung oder nur einem bestimmten Datenelement – z. B. eine Zahl, ein Zeichen oder ein graphisches Symbol. Das Muster 11010010 kann beispielsweise die Binärdaten eines Originals darstellen – in diesem Fall die Dezimalzahl 210 (siehe Zahlensysteme). Hinter diesem Muster kann sich auch eine Handlungsanweisung für einen Vergleich von Daten verbergen, die in den Computerschaltungen gespeichert sind.
Mit Hilfe von Prozessoren, die 16, 32 oder 64 Datenbits gleichzeitig verarbeiten können, ließ sich die Verarbeitungsgeschwindigkeit weiter erhöhen. Unter dem Befehlssatz versteht man die vollständige Liste der erkennbaren Schaltmuster – also die Liste aller Operationen, die ein Computer beherrscht. Sowohl die Anzahl der gleichzeitig verarbeitbaren Bits, als auch der Umfang des Befehlssatzes vergrößerte sich kontinuierlich mit der voranschreitenden, technischen Entwicklung.
2.5 Geschichte Zusammengefasst:
bis 1950: Die Anfänge: Computer bestanden aus einer Vielzahl von Relais und Röhren, sie wurden in Maschinensprache und später in Assembler programmiert.
1950-er: Eine neue Technologie: Transistoren ersetzten Vakuumröhren beim Bau von Computern, es fand ein Übergang von Assembler- zu Hochsprachen (Fortran, Cobol, Lisp) statt, die Rechner konnten nur einen Benutzer gleichzeitig bedienen (single tasking).
1960-er: Grundlagen und Entwicklung: Integrierte Schaltungen elektronischer Bausteine erhöhen die Rechenkapazitäten, verbessern ihre Zuverlässigkeit und verkleinern ihr Volumen. Multitasking, d.h. die gleichzeitige Bedienung mehrerer Benutzer, löste das single tasking ab. Es wurden Minicomputer, meist für spezielle Aufgaben, gebaut, die auch im Verbund mit Großrechnern arbeiten konnten.
1970-er: Revolution der Technologie: Die Verdichtung von immer mehr Bausteinen auf kleinstem Raum, die sog. VLSI- (very large scale integration) Bausteine erhöhen die Zuverlässigkeit der Computer. Außerdem wurde das Format der Rechner immer kleiner und die Hardware-Preise fielen. Im Bereich der Software (SW) wurde das SW-Engeneering zur Verbesserung der Entwicklungsarbeit eingeführt.
1980-er: Ein allgegenwärtiges Werkzeug: Der Computer wurde als Bestandteil von Küchenmaschinen, Uhren, Kameras und anderen Gebrauchsgegenständen zu einem allgegenwärtigen Werkzeug. Durch das Aufkommen der Personal Computer (PCs) hat der Rechner auch außerhalb der Rechenzentren eine große Verbreitung erfahren.
Der Verbund von PCs durch Netzwerke bewirkte einen Kapazitätszuwachs, ohne dass ein Großrechner angeschafft werden musste.
1990-er: Nach dem Motto: „Wenn zwei sich die Arbeit teilen, die sonst einer machen muss, geht\' snoch schneller“ wird 1990 dem Prozessor Intel 80486 ein Coprozessor zur Seite gestellt. Im Mai 1990 kommt Windows 3.0 auf den Markt.
ab 2000: Der PC ist ein muss für Jeden
Der Computer ist nicht Alltag wegzudenken.
Egal welchen Beruf sie haben ohne Computer geht’s nicht weiter.
Jeden Tag kommen neue, schnellere, leistungsfähigere Computer auf den Markt.
Allgemein hat sich die die Technologie in den letzten 10 Jahren rasend schnell entwickelt und
sie entwickelt ohne zu stoppen weiter.
Vor allem die Japaner bemühten sich, die fünfte Computergeneration für KI (Künstliche Intelligenz) -Anwendungen zu entwickeln.
3 COMPUTERTYPEN
Computer lassen sich in zwei Haupttypen einteilen: in analoge und in digitale Computer. Meistens ist jedoch mit dem Begriff Computer der digitale Typ gemeint.
Der Unterschied zwischen einem analogen oder digitalen Computer liegt in der Verarbeitungsweise der Daten. Bei Analogcomputern wird die zu verarbeitende Originalgröße beispielsweise entsprechend ihrer jeweiligen Werte in physikalische Größen, wie elektrische Ströme oder Spannungen, umgesetzt.
Im Gegensatz dazu rechnen die Verarbeitungseinheiten von Digitalcomputern die Originalgröße vor der eigentlichen Bearbeitung in Folgen von Binärzahlen um.
Der Vorteil bei dieser Vorgehensweise: Um manche Ausgangsgrößen originalgetreu zu behandeln und wiederzugeben, benötigt man häufig nur einen gewissen Bruchteil von digitalen Daten, also nicht die komplette Anzahl.
Dadurch gewinnt man gegenüber der analogen Verarbeitung eine gewisse Zeitersparnis und benötigt außerdem auch weniger Speicherkapazität.
Computeranlagen, die sowohl digitale als auch analoge Komponenten enthalten, werden Hybridcomputer genannt. Sie kommen meist für Probleme mit einer hohen Anzahl komplexer Gleichungen – wie bei Zeitintegralen – zum Einsatz. Daten in analoger Form können mit einem Analog-Digital-Wandler auch Digitalcomputern zugänglich gemacht werden. Ebenso dienen Digital-Analog-Wandler für den umgekehrten Vorgang.
3.1 Analogcomputer
Ein Analogcomputer ist im Prinzip ein Rechenautomat, bei dem die einzelnen Rechenschritte durch analog verlaufende physikalische Prozesse dargestellt werden. Heutzutage realisiert man diese Prozesse durch elektronische Bauteile. Früher verwendete man auch mechanische, pneumatische oder auch elektromechanische Elemente. Ein typischer elektromechanischer Analogcomputer wandelt z. B. Eingaben in Spannungen um, die mit speziellen Schaltelementen addiert oder multipliziert werden. Die resultierenden Ergebnisse werden in einem fortlaufenden Prozess erzeugt und an einen Bildschirm weitergeleitet. Für andere Zwecke lassen sich diese Ergebnisse auch in eine andere Form umwandeln.
3.2 Digitalcomputer
Alle Handlungen, die ein Digitalcomputer vornimmt, basieren im Prinzip auf einer Grundoperation: der Fähigkeit zu erkennen, ob ein Schalter bzw. ein „Gatter” geöffnet oder geschlossen ist. Ein Computer kann also nur zwei Zustände in seinen mikroskopisch kleinen Schaltungen erkennen: an oder aus, hohe oder niedrige Spannung bzw. die Zahlen 0 oder 1. Die Geschwindigkeit, mit der ein Computer diesen einfachen Akt bewältigt, macht ihn jedoch zu einem Wunderwerk der modernen Technologie. Computergeschwindigkeiten werden in Megahertz gemessen, also in Millionen Zustandsänderungen (Takten) pro Sekunde. Ein Computer mit einer „Taktrate” von 100 Megahertz – einer typischen Geschwindigkeit für Mikrocomputer – ist in der Lage, hundert Millionen einzelne Arbeitsschritte in jeder Sekunde durchzuführen. Normale Mikrocomputer erreichen 66 bis 200 Millionen Operationen pro Sekunde, während Supercomputer in der Forschung Geschwindigkeiten von Milliarden Zustandsänderungen in der Sekunde erreichen.
Die Geschwindigkeit und Rechenleistung eines Digitalcomputers wird natürlich durch den Umfang der Daten beeinflusst, der in einem Takt bearbeitet werden kann. Mit einem Schalter kann man nur zwei Befehle oder Zahlen wiedergeben: AN würde eine Instruktion oder Zahl symbolisieren und AUS die andere. Durch die Zusammenfassung ganzer Gruppen von Schaltern, die als gesamte Einheiten geprüft werden können, lässt sich die Anzahl der Operationen steigern, die in jedem Takt erkannt werden können. Wenn ein Computer beispielsweise zwei Schalter gleichzeitig ausliest, kann er vier Zahlen (0 bis 3) darstellen oder einen von vier Befehlen in jedem Takt ausführen: AUS-AUS (0), AUS-EIN (1), EIN-AUS (2) oder EIN-EIN (3).
4 HARDWARE
4.1Allgemein:
Computerschema
Der typische Computer besteht, wie das Schema zeigt, aus dem eigentlichen Rechner, den erschiedenen Eingabegeräten wie Tastatur, Maus oder Scanner, dem Bildschirm und Drucker als Ausgabegeräte sowie internen und externen Speichereinheiten.
Computerschema
Moderne Digitalcomputer sind unabhängig von ihrer Größe konzeptionell ähnlich. Trotzdem können sie aufgrund der Faktoren Kosten und Leistung in verschiedene Kategorien unterteilt werden: Der Personalcomputer (abgekürzt: PC) ist ein verhältnismäßig kostengünstiges Gerät, das auf dem Schreibtisch Platz findet. Mobile PCs werden Laptops genannt und passen in die Aktentasche – die leistungsfähigeren Nachfolger der Laptops sind die Notebooks. Das Besondere der Mitte der achtziger Jahre entwickelten Macintosh-Computer war die in das Betriebssystem integrierte graphische Benutzeroberfläche. Bei der Workstation handelt es sich, wie beim PC und Macintosh-Computer, um einen so genannten Mikrocomputer.
Früher hatten die Workstations wesentlich bessere Graphik- und Kommunikationseigenschaften, als die anderen Mikrocomputer. Mit der zum Teil galoppierenden Weiterentwicklung auf dem Gebiet der Personal- und den Macintosh-Computern verschwimmen jedoch die Grenzen zwischen den Workstations und diesen Computertypen. Alle drei Geräteformen eignen sich besonders für die Arbeit im Büro.
Beim Minicomputer handelt es sich um einen Computer etwa von der Größe einer Waschmaschine, der normalerweise zu teuer für den privaten Einsatz ist.
Er fand daher in erster Linie in Betrieben, Schulen oder Laboratorien Verwendung.
Im Prinzip ist der Minicomputer eine Maschine, die sich zwischen den Großrechnern und den Mikrocomputern ansiedeln lässt. Zu den Minicomputern zählt man beispielsweise die leistungsfähigen Vax-Stations der Firma Digital Equipment (kurz: DEC), die, um eine noch höhere Leistung zu erreichen, zu so genannten Vax-Clustern kombinierbar sind.
Schließlich gibt es den Großrechner (Mainframe), eine große und teure Anlage, die den Bedürfnissen von größeren Firmen, Behörden und wissenschaftlichen Forschungseinrichtungen und ähnlichen Institutionen gerecht wird (die größten und schnellsten unter ihnen sind die so genannten Supercomputer).
Nachdem sich insbesondere in den achtziger Jahren die Workstations und Mikrocomputer durchsetzten, kamen die Großrechner immer weniger zum Einsatz.
Mitte der neunziger Jahre entwickelte man den so genannten Netzcomputer (abgekürzt: NC). Er sollte insbesondere in Konkurrenz mit den PCs treten. In groben Zügen entsprechen sich beide Gerätetypen. So enthält der NC wie der PC einen Mikroprozessor, Hauptspeicher, eine Graphikkarte, einen Netzwerkanschluss, sowie Anschlüsse für Eingabe- und Ausgabegeräte. Jedoch verfügt der NC als wesentlichen Gegensatz zum PC weder über eine Festplatte noch über Disketten- oder CD-ROM-Laufwerke. Der Netzcomputer bezieht die notwendige Software entweder über ein lokales Netzwerk (LAN) oder über das bis in die neunziger Jahre erheblich weiterentwickelte Internet.
Für die Kommunikation zwischen dem Netz und dem Computer entwarf der Softwarehersteller Sun die Programmiersprache Java, die unabhängig von Betriebssystemen (z. B. Windows, DOS, Unix) arbeitet.
4.2 Zentrale Verarbeitungseinheit (CPU)
Der Pentiumprozessor von Intel Das „Innenleben” eines Pentiumprozessors in 2,5facher Vergrößerung. Dieser Nachfolger des 80486 enthält über drei Millionen Transistoren und kam erstmals 1993 in den Handel.
Der Pentiumprozessor von Intel
Die CPU (Central Processing Unit) kann aus einem einzelnen Chip oder einer Reihe von Chips bestehen, die arithmetische und logische Berechnungen sowie die zeitliche Abstimmung und Kontrolle der anderen Elemente des Systems übernehmen. Miniaturisierungs- und Integrationstechniken führten zur Entwicklung des CPU-Chips. Diesen bezeichnet man auch als Mikroprozessor, der außerdem weitere Schaltungen sowie eigene Speichereinheiten enthält. Mikroprozessoren ermöglichten den Bau kleinerer Computer. Außerdem verringert ihr Einsatz den Bedarf an zusätzlichen Schaltungen. Die meisten der heutzutage hergestellten Computer arbeiten mit Mikroprozessoren.
4.3 Eingabegeräte
Lichtgriffel
Mit einem Lichtgriffel lassen sich Positionen auf einem Bildschirm erfassen, die mit Hilfe eines Treibers in Bildschirmkoordinaten umgesetzt werden. Auf diese Weise kann man z. B. Punkte und Linien zeichnen oder Bildelemente markieren.
Lichtgriffel
Diese Geräte dienen dem Computeranwender zur Eingabe von Daten, Befehlen und Programmen für die CPU. Das gebräuchlichste Eingabegerät ist die Tastatur. Über die schreibmaschinenähnliche Tastatur eingetippte Daten werden vom Computer in erkennbare Muster übersetzt. Andere Eingabegeräte sind z. B. Lichtgriffel, die graphische Informationen von elektronischen Tabletts in den Computer übertragen, Joysticks und die Maus, die physikalische Bewegung in Bewegungen auf dem Computerbildschirm umsetzt. So genannte Lichtscanner „lesen” die Wörter oder Symbole von einer gedruckten Seite ab und übersetzen sie in elektronische Muster, die der Computer verändern und speichern kann. Wie schon ihr Name andeutet, erkennen Spracherkennungsmodule gesprochene Wörter und wandeln sie in digitale Signale für den Computer um. Speichergeräte lassen sich ebenfalls als Eingabegeräte für die Zentraleinheit einsetzen.
4.4 Speicher
Computer können Daten intern (im Arbeitsspeicher) oder extern (auf Speichermedien) speichern. Interne Anweisungen oder Daten können temporär in RAM-Siliciumchips (RAM: Random Access Memory, wahlfreier Zugriffsspeicher) direkt auf der Hauptplatine des Computers oder auf Speichersteckkarten abgelegt werden.
Diese RAM-Chips bestehen aus bis zu einer Million Schaltern, die auf Veränderungen des elektrischen Stromes reagieren. So genannte statische RAM-Chips behalten ihre Daten, solange elektrischer Strom durch die Schaltung fließt. Dynamische RAM-Chips (DRAM) benötigen dagegen in regelmäßigen Intervallen hohe oder niedrige Spannungen (etwa alle zwei Millisekunden), um ihre Informationen nicht zu verlieren.
Eine neuere Entwicklung in der Speichertechnik basiert auf der Speicherung in magnetisch ausgerichteten Zellen. Jede einzelne Zelle setzt sich aus zwei magnetischen und einer Zwischenschicht zusammen, wobei die Schichten extrem dünn sind – nur wenige Nanometer.
4.5 Ausgabegeräte
Diese Geräte setzen den Anwender in die Lage, die Ergebnisse der Computerberechnungen oder Datenverarbeitung anzusehen. Das häufigste Ausgabegerät ist der Bildschirm, der Zeichen und Graphiken wie auf einem Fernsehschirm anzeigt. Der klassische Bildschirm enthält wie ein Fernseher eine Kathodenstrahlröhre.
Kleine, tragbare Computer sind heutzutage allerdings mit Flüssigkristallanzeigen (LCD: Liquid Crystal Displays) oder elektronischen Leuchtschirmen ausgerüstet. Andere Standardausgabegeräte stellen beispielsweise Drucker und Modems dar. Ein Modem verbindet zwei oder mehr Computer durch die Übersetzung von digitalen in analoge Signale zur Übertragung von Daten über Telekommunikationsleitungen.
5 ZUKÜNFTIGE ENTWICKLUNGEN
E-Book
Die ersten technischen Konzepte für das papierlose, elektronische Buch (E-Book) kamen erstmals Ende des 20. Jahrhunderts auf. Mit diesen Maschinen kann ein User digitalisierte Texte aus dem Internet herunterladen und sich mit Hilfe eines portablen Handheldbildschirms ansehen. Das Photo zeigt das Modell REB 1100 von der Firma RCA. Seine Akkus erlauben einen Betrieb von mindestens 20 Stunden. Dieses Gerät vermag mindestens 8 000 Seiten Text zu speichern.
E-Book
Ein fortschreitender Trend in der Computerentwicklung ist die Miniaturisierung, also die Bemühung, immer mehr Schaltelemente auf immer geringerem Platz auf dem Chip zu konzentrieren. Forscher versuchen außerdem, Schaltfunktionen durch die Verwendung von Supraleitfähigkeit noch stärker zu beschleunigen.
Flachbildschirm mit OLED-Technik
Im Mai 2000 stellten die Firmen Sanyo Electric (Japan) und Eastman Kodak Company (USA) den hier gezeigten Flachbildschirm der Öffentlichkeit vor. Die Anzeige des Bildschirms basiert auf der OLED-Technik, wobei OLED für Organic Light Emitting Diode steht. Dahinter verbergen sich spezielle, rein organische Kunststoffe (z. B. Polythiophen, Polyfluoren), die bei Stromzufuhr Licht emittieren. Der Bildschirm misst in der Diagonalen etwa 13,97cm und könnte beispielsweise in PDAs zum Einsatz kommen.
Flachbildschirm mit OLED-Technik
Das Bemühen, mit Computern der „fünften Generation” Rechner zu entwickeln, die komplexe Probleme in einer als kreativ zu bezeichnenden Weise lösen können, ist ein weiterer Trend in der Computerentwicklung, deren Idealziel die echte künstliche Intelligenz darstellt. Eine derzeit aktiv erforschte Möglichkeit bieten parallel verarbeitende Computer. Dieser Computertyp enthält viele Chips, um zahlreiche verschiedene Aufgaben zur gleichen Zeit zu bewältigen. Parallelverarbeitung könnte eventuell Möglichkeiten erschließen, zu einem gewissen Grad die komplexen Rückkopplungs-, Näherungs- und Bewertungsfunktionen des menschlichen Denkens nachzubilden. Ein weiterer fortschreitender Trend ist die wachsende Vernetzung der Computer, bei der sogar Satelliten eingesetzt werden, um Computer auf der ganzen Welt miteinander zu verbinden. Großes Forschungspotential stellt die Möglichkeit „optischer” Computer dar, deren Hardware nicht mit elektrischen, sondern mit viel schnelleren Lichtimpulsen arbeitet.
Mikrocomputer
Im Zuge der fortschreitenden Mikrochipentwicklung wurde es möglich, immer kleinere und leistungsfähigere Computer herzustellen. Mit dem hier gezeigten Palmtop kann man E-Mails verschicken und empfangen und außerdem im Internet surfen. Der Palmtop zählt zu den so genannten Mikrocomputern.
Photo Researchers, Inc.
Mikrocomputer
Mit zunehmender Miniaturisierung herkömmlicher Schaltfunktionen macht sich ein quantenmechanischer Effekt der Elektronen bemerkbar, den man als Tunneleffekt bezeichnet. Nach der klassischen Teilchenvorstellung können sich Elektronen im Prinzip nur auf den elektrisch leitenden Bahnen einer Schaltung aufhalten, isolierende Schichten können nicht übersprungen werden. Die Realität zeigt jedoch, das ab einer bestimmten Größe der Leiterbahnen die Elektronen auch die isolierenden Abschnitte überwinden und so von einer leitenden Zeile in die andere gelangen. Man sagt in diesem Fall, die Elektronen „durchtunneln” die Schichten – in Anlehnung an den Tunneleffekt. Auf Grund dieses Verhaltens verliert natürlich die – immer kleinere – Schaltfunktion ihre Kontrolleigenschaften und ist im Prinzip wertlos. Einen möglichen Lösungsansatz für dieses Problem bietet allem Anschein nach ein vor wenigen Jahren vorgestelltes Computerkonzept des Zellularautomatens. Im Mittelpunkt dieser von amerikanischen Forschern entwickelten Idee steht nicht die Umgehung des Tunneleffekts, sondern die Ausnutzung des Effekts.
Die kleinste Einheit des neuartigen Systems ist kein Miniaturtransistor, sondern besteht aus vier Quantenpunkten. Dabei handelt es sich um extrem kleine metallische Inseln, die in Form eines Quadrats auf einer Siliciumoxidoberfläche aufgebracht sind.
Jede Zelle ist mit zwei Elektronen besetzt, die auf Grund ihrer elektrostatischen Abstoßung den größtmöglichen Abstand – innerhalb der Zelle – zueinander einnehmen. Das bedeutet, sie stehen einander gegenüber – entweder in der einen Diagonalen oder in der anderen Diagonalen. Diese beiden stabilen Einstellungen können damit die Zustände 0 und 1 eines Bits symbolisieren. Durch Anlegen einer Spannung gelang es den Forschern, ein Elektron von seinem Eckplatz wegzubewegen. Im Gegenzug tunnelte das zweite Elektron auf den anderen Eckpunkt und stellte so die zweite diagonale Konstellation her. Die gewünschten Effekte stellten sich allerdings nur bei tiefen Temperaturen (nahe dem absoluten Nullpunkt) ein. Um einen leistungsfähigen Rechner zu entwickeln reicht natürlich eine Zelle nicht aus. Erst durch einen ganzen Verband derartiger Zellen lassen sich logische Schaltungen ermöglichen. Hierzu sind weitere Entwicklungen geplant.
Minichip
Der nur zwei bis vier Quadratmillimeter große Computerchip paßt durch ein Nadelöhr und ist trotzdem ein leistungsfähiger Mikroprozessor, der als integrierter Schaltkreis rechnet und steuert..
Minichip
Den ersten „biologischen Rechner” stellte eine amerikanische Forschergruppe im Sommer 1999 der Öffentlichkeit vor. Ihre Entwicklung, basierend auf einer Zusammenschaltung von Mikroelektroden mit Neuronen von Blutegeln, vermochte einfache mathematische Aufgaben zu lösen.
6 Eigene Stellungnahme
Heutzutage braucht zu Hause jeder aber jeder mindestens einen Computer
Ich finde der Computer ist in den letzten Jahren was Selbstverständliches geworden.
Das zeigt auch dass zwei von drei Familien in Österreich mindestens einen Computer haben.
Ich danke jenen die den Computer erfunden und zur Erfindung beigetragen haben.
7 Literaturverzeichnis
Quellen
Primärliteratur:
• Microsoft Encarta Enzyklopädie Professional 2003
• Enzyklopädie Professional 2003. © 1993-2002 Microsoft Corporation.
• Der Computer - Mein Lebenswerk von Konrad Zuse
Sekundärliteratur:
• http://www.bvmi.de/hist_1950_01.htm
• http://www.computerhistory.org
• http://www.computergeschichte.de
• http://www.uni-essen.de/literaturwissenschaft-aktiv/Vorlesungen/ausblick/computer.htm
• http://www.hgb-leipzig.de/~francis/txt/comamama/computer_als_maennermaschine_09-34.pdf
• http://public.rz.fh-wolfenbuettel.de/~haas/vl/gdv_vorlesung/informatik_1.pdf
• http://wwwzenger.informatik.tu-muenchen.de/lehre/seminare/math_nszeit/SS03/vortraege/zuse/pages/einfuehrung.htm
• http://www.rbg.ul.schule-bw.de/informatik/herzig/verlauf.htm
•http://www.gutemeile.de/computer.html
• http://irb.cs.tu-berlin.de/~zuse/Konrad_Zuse/sl-kbl.html
Dieses Referat wurde eingesandt vom User: canufuk
Kommentare zum Referat Entwicklung des Computers:
|