DT 91 14
From C64 Diskmag Wiki
COMPUTERARCHITEKTUR UND SOFTWARE COMPUTERARCHITEKTUR UND SOFTWARE ________________________________________ von Alexander Ausserstorfer ________________________________________ Jemand bezeichnete mich vor einiger Zeit als "Steinzeitmensch", weil meine Rech- ner alle von der britischen Firma Acorn stammen und über 10 Jahre alt sind. Die meisten heute verwendeten Systeme (Windows, Linux, Apple) basieren auf Konzepten aus den Sechziger Jahren oder gehen auf diese zurück. Die einzige
wirkliche Neuerung - bis heute - sind die auf Chips integrierten Schaltkreise (ICs), eine ständige Erhöhung der Takt- frequenz sowie Erhöhung der Integra- tionsdichte der ICs. MacOS ist ein auf UNIX basierendes Sys- tem. UNIX ist ein für Computernetzwerke ausgelegtes Betriebssystem, welches sei- nen Anfang bereits in den Sechziger Jah- ren nahm. Inzwischen gibt es unzählige Sprösslinge, d. h. Betriebssysteme, wel- che alle auf UNIX zurückzuführen, also alle Weiterentwicklungen von UNIX sind. Neben MacOS gibt es z. B. noch Solaris von SUN, das ebenfalls auf UNIX zurück-
zuführen ist, auf dem Markt aber - außer im Server-Bereich - kaum eine Rolle spielt. All diese UNIX-Sprösslinge sind jedoch z. T. untereinander inkompatibel. Linux ist eine komplette Neuentwicklung eines Betriebssystems, orientiert sich jedoch in vielen Punkten an UNIX. Es nahm in den Neunziger Jahren seinen An- fang und wird inzwischen von vielen Fir- men, wie z. B. IBM, unterstützt und auch eingesetzt. Der Quellcode von Linux ist offen. Jeder kann daran mitentwickeln. Ähnlich UNIX, gibt es auch von Linux in- zwischen viele eigene Entwicklungszweige
und unterschiedliche Distributionen. Li- nux ist daher nur der Oberbegriff einer tatsächlich vorliegenden Anzahl von mit- einander verwandten Betriebssystemen, die alle auf den selben Ursprung zurück- zuführen sind. Wie UNIX, ist auch Linux in einer Hochsprache geschrieben und da- her sehr langsam. Durch die Hardware-Ab- straktion lässt es sich jedoch relativ leicht auf neue Hardware portieren, d.h. anpassen oder zum Laufen bringen. Unter UNIX wurde die Fenstertechnik (grafische Benutzeroberfläche) bereits 1984 unter dem Begriff "X Windows Sys- tem" eingeführt. Dieses System ermög-
licht es einem Programm, unter verschie- denen Oberflächen zu laufen. Für UNIX wie Linux gibt es z. B. die als KDE oder GNOME bezeichneten Oberflächen. Das "X Windows System" wird unter Linux und UNIX bis heute verwendet. Es ermöglicht zwar, die Bedienelemente von mehreren Programmen auf dem Schirm abzubilden. Es verhindert aber eine Interaktion der Fenster verschiedener Programme, wie sie unter RISC OS üblich ist. Die Grundidee von RISC OS ist, dass zwei verschiedene Fenster mit Inhalten (Da- teien, Dokumente) gleichzeitig geöffnet sind und Objekte (Dateien, Bilder, Gra-
fiken) einfach mittels der Maus zwischen diesen Fenstern hin- und herbewegt wer- den können. Auf diese Weise kann man nicht nur Dateien verschieben oder ko- pieren, sondern auch verschiedene von Anwendungsprogrammen geladene und in Da- teien enthaltene Inhalte wie z. B. Text- blöcke, ZIP-gepackte Dateien oder Bil- der. In Ansätzen kann man diese Technik bereits im Dateisystem von GEOS anwen- den. Dort lassen sich Dateien per Drag & Drop kopieren. Unter RISC OS funktio- niert das jedoch viel allgemeiner und für den Anwender völlig transparent zwi- schen allen möglichen Programmen und Speichermedien.
Deshalb war RISC OS für den (damals 14- jährigen) Verfasser auch eine logische Weiterentwicklung des Commodore 64 und GEOS. Diese als "Drag & Drop" (englisch für "Ziehen und Fallen lassen") bezeichnete Technik wirkt auf einen Anwender sehr schlicht, einfach und verständlich. Sie ist intuitiv, weil sie wie im Alltag funktioniert: Objekt nehmen, tragen, ab- setzen. Tatsächlich ist sie technisch jedoch sehr aufwändig zu realisieren. Dies ist der Grund, warum sie von ande- ren Betriebssystemen und Oberflächen bis heute nicht vollständig, sondern nur in
Ansätzen übernommen worden ist. Nicht nur Betriebssysteme wie Windows müssten von Grund auf neu geschrieben werden, würde man diese Technik seinen Nutzern anbieten wollen, sondern tatsächlich auch gleich noch sämtliche Anwendungs- programme mit hinzu. Die heute am meist verbreitetste Prozes- sorarchitektur ist die x86er des Halb- leiterherstellers Intel. Der erste x86er Prozessor war der bereits im Jahre 1978 erschienene 8086, welcher im IBM-PC ver- baut wurde. Das eigentliche Konzept der Prozessoren wurde bis heute nicht geän- dert und hat bei Intel teilweise in eine
Sackgasse geführt. Die Chip-Architektur wurde nie neu entworfen, sondern immer nur neu angepasst und erweitert. Die Leistungssteigerung wurde hauptsächlich durch die Erhöhung der Taktfrequenz so- wie Unterbringung von Zusatzelektronik als Rechenhilfe erreicht. Man stelle sich als Veranschaulichung eine Stadt vor, deren Straßen immer nur erweitert, aber nie optimiert, d.h. ver- kürzt und damit neu gebaut werden. Sein Ziel erreicht man nun dadurch schneller, indem man schneller fährt.
Dies bedeutet, dass die Prozessoren im- mer komplexer werden (inzwischen werden bei Intel mehr als 15 Millionen Transis- toren in einer x86-CPU untergebracht), dadurch aber auch immer mehr Strom zie- hen und Abwärme erzeugen. Man ist der- zeit bei ca. 3 GHz Taktfrequenz, welche sich kaum noch steigern lässt. Intel versucht nun, diese Grenze durch die Un- terbringung von mehreren Prozessorkernen auf einem Chip zu umgehen. Leider wird dadurch die Elektronik noch komplexer, auch dürfte bei diesem Vorgehen weiter- hin der Stromverbrauch zunehmen. Auch ist die Programmierung von Mehrprozes- sorsystemen nicht eben einfach. Wurden
früher nur die Chips komplexer, werden es heute auch die Compiler und damit er- stellten Programme. Das System wird ins- gesamt fehleranfälliger und - auch auf Grund der hohen Taktfrequenz - weniger langlebig, als dies früher allgemein üb- lich war. Das heute am meisten verbreitete Be- triebssystem ist Windows des amerikani- schen Unternehmens Microsoft. Microsoft entwickelte ursprünglich Programmier- sprachen und war der Urheber verschiede- ner BASIC-Versionen, wie sie in den da- mals populären Heimcomputern eingesetzt wurden (z.B. Commodore 64). Die Entwick-
lung von Windows begann ursprünglich mit einer Nachprogrammierung von CP/M, das Microsoft aufkaufte, veränderte und an IBM für deren PCs lizenzierte. Es wurde unter dem Namen MS-DOS bekannt. Später war MS für den Kernel von OS/2 verant- wortlich, das ebenfalls für IBM-PCs ent- wickelt wurde. Durch den Erfolg des MS- DOS-Aufsatzes Windows wurde der Kernel jedoch bald schon in das eigene Be- triebssystem eingebaut und MS-DOS durch Windows abgelöst. Microsoft entwickelte seine Software kontinuierlich bis zum heutigen Tag (in- zwischen Windows 7) weiter.
Dabei handelt es sich jedoch meist nur um den bunten und x-fachsten Aufguss und Erweiterung alter Ideen, die bereits vor langer Zeit existierten. Altes wird also neu verpackt und unter bekannten Namen verkauft. Wer sich die Office-Programme von Win- dows näher ansieht, wird etwa feststel- len, dass verschiedene Programme wie MS- Word oder MS-Excel eine Fenster-in-Fens- ter-Technik verwenden. Word und Excel basieren auf Programmen, die unter MS- DOS laufen und eine eigene Oberfläche mitbringen, inzwischen jedoch in Windows integriert wurden. Dies erklärt die kom-
plizierte Fenster-in-Fenster-Technik mit einer sehr umständlichen, für den Anwen- der undurchsichtigen und zeitraubenden Lade- und Speicherprozedur. Kann man einen Computer als modern be- zeichnen, dessen Technologie auf einem Fundament steht, das bereits vor mehr als vierzig Jahren gesät wurde? Schon Ende der Achtziger Jahre gab es ein Umdenken. Insbesondere zu nennen wä- ren etwa die Prozessoren "PowerPC" des Herstellers IBM (unter Mitarbeit von Apple und Motorola), "Sparc" des Her- stellers SUN oder "ARM" des britischen
Unternehmens ARM Ltd. All diese Prozes- soren sind moderne Entwürfe mit eigenem Befehlssatz, die zueinander (und auch zur x86-Architektur von Intel) inkompa- tibel sind. Darüber hinaus gibt es wei- tere Prozessoren wie den Alpha-Prozes- sor, der lange Zeit in den schnellsten Computeranlagen überhaupt werkelte (und trotz nur 1,2 Millionen Transistoren In- tels Pentium bei weitem in der Rechen- leistung schlug). Inzwischen wird der Alpha-Prozessor mit dem völlig neuentwickelten Itanium von Intel zusammengeführt.
Diese völlig neuen Entwürfe von Prozes- soren sind alle sehr schlank ausgelegt, verfügen also über möglichst wenig inte- grierte Schaltkreise (Elektronik) und damit auch ausführbare Maschinenbefehle. Zudem sind die Prozessoren meist fest verdrahtet und haben z. T. keine Mikro- programme mehr. Ihre Struktur ist ein- fach. Mikroprogrammierung bedeutet, dass ein Maschinenbefehl tatsächlich erst mittels einem Mikroprogramm umgesetzt und dann die einzelnen Schritte ausgeführt werden müssen. Bei mikroprogrammlosen Prozesso- ren werden die Maschinenbefehle unmit-
telbar durch die Elektronik ausgeführt. Deshalb weisen solche Prozessoren viel weniger Maschinenbefehle (meist nur die nötigsten) als mikroprogrammierbare auf. Dies bedeutet, dass ein Assemblerpro- gramm für mikroprogrammlose Prozessoren wesentlich länger als ein vergleichbares für mikroprogrammierbare Prozessoren ist und die Maschinenbefehle nicht nachträg- lich änderbar sind; jedoch werden die Programme von mikroprogrammlosen Prozes- soren wesentlich schneller, weil direkt, ausgeführt. Außerdem ist der Prozessor wesentlich einfacher aufgebaut, kommt also mit weniger Schaltungen daher und deshalb mit weniger Strom aus. Solche
Prozessoren werden - wegen des einge- schränkten Befehlssatzes - RISC-Prozes- soren genannt (RISC: Reduced Instruction Set Computing). Während der PowerPC u. a. in Apple's und Sparc in SUN's eigenen Computern verbaut wurden und werden (Apple verwendet in- zwischen selbst die x86-Architektur für seine Macs, und SUN bietet neben der mo- dernen Sparc-Architektur mittlerweile auch Computer auf x86-Architektur an), die mit den auf UNIX-basierenden Be- triebssystemen MacOS und Solaris ausge- liefert werden, entwickelte das briti- sche Unternehmen Acorn, aus dem später
ARM Ltd. hervorgehen sollte, für seine damals neuentwickelte ARM-CPU aus dem Nichts ein eigenes, neuartiges Betriebs- system mit völlig neuen und einzigarti- gen Ideen: RISC OS. Es wurde in Assemb- ler geschrieben. Dadurch ist es sehr schnell, läuft jedoch auch nur auf be- stimmten ARM-Prozessoren. Acorn's Computer waren 1989/90 ein völ- lig neuer Start in der Computerbranche und brachten keine Altlasten mit. Das ursprüngliche Unternehmen Acorn gibt es inzwischen nicht mehr. Der Nachfolger des RiscPCs wurde nie auf den Markt ge-
bracht. Die RISC-Prozessoren werden heu- te von ARM Ltd. entworfen. Die Technik wird an Halbleiterhersteller wie Intel lizenziert. ARM-CPUs werden vielfach in portablen Geräten (Mobilfunktelefone, PDAs usw.) eingesetzt, in denen es auf geringen Stromverbrauch ankommt. Von RISC OS gibt es inzwischen zwei Wei- terentwicklungen, von denen eine Open- Source und frei verfügbar ist. Zu finden ist sie unter http://www.riscosopen.org. Für MacOS und Windows-Systeme gibt es - neben frei verfügbaren wie Red Squirrel - auch eine kommerzielle virtuelle RISC- PC-Maschine (VRPC):
(http://www.virtualacorn.co.uk/). Eine virtuelle Maschine ist ein Programm, welches das Betreiben von RISC OS unter Windows bzw. MacOS per Emulation erlaubt (RISC OS benötigt einen bestimmten ARM- CPU-Befehlssatz). Auch für Linux gibt es einen frei verfügbaren Emulator, welcher sich jedoch in keinster Weise mit VRPC messen kann. Besonders interessant ist die Entwick- lung neuer Hardware wie das BeagleBoard, auf das RISC OS derzeit portiert wird. Auch der Amiga wurde kontinuierlich wei- terentwickelt. Der Pegasos von Genesi
lief mit einem PowerPC-Prozessor. Als Betriebssystem kam u. a. MorphOS, eine Weiterentwicklung von AmigaOS, zum Ein- satz. Die neuen Rechner von Genesi sol- len mit der ARM-Architektur laufen. Das neue AmigaOS 4.1 ist z.B. erhältlich unter: http://www.vesalia.de/d_amigaos41.htm. Neue Platinen oder gar vollständige Rechner mit PowerPC, auf denen AmigaOS nativ läuft (dafür wurde das AmigaOS vollständig neu geschrieben), findet man unter der gleichen Domain:
http://www.vesalia.de/d_sam440ep.htm und http://www.vesalia.de/d_sam440epflex.htm Für 2010 wurde ein neuer Amiga-Rechner angekündigt: (http://www.a-eon.com/6.html). Offiziell erfährt man jedoch kaum etwas über diese Systeme. An unserer FH konnte ich verschiedene Systeme von Apple oder unter Windows und Linux zur Genüge ausprobieren. Apple bietet gegenüber Microsoft nicht wirk- lich etwas Neues. Es scheint jedoch sta- biler zu laufen. Linux stürzt zu oft ab. Die Anwenderfreundlichkeit von RISC OS
erreicht keine Oberfläche dieser Systeme auch nur annähernd. Die Vormachtstellung solcher auf so al- ten Techniken beruhenden Systeme wie der x86-Architektur oder Microsoft Windows kann nur dadurch erklärt werden, dass die meisten Menschen nicht bereit sind, sich auf Neues einzulassen. Die Wurzeln von Amiga-OS datieren sich in die Anfänge bis Mitte der Achtziger Jahre zurück. RISC OS begann sich erst ab 1987 zu ent- wickeln. Es sind keine früheren Versio-
nen eines Betriebssystems bekannt, aus denen sich diese Software entwickelt hätte. Wenn dann aber noch gesagt wird, dass ich mit meinem System in der Steinzeit lebe, frage ich mich, wie dumm ein Mensch sein muss, um zu solch einer Aus- sage zu gelangen.