Startseite » Information & TK » Wissen von älteren IT-Fachkräften unverzichtbar – Informatiker-Nachwuchs wird falsch ausgebildet

Wissen von älteren IT-Fachkräften unverzichtbar – Informatiker-Nachwuchs wird falsch ausgebildet

Düsseldorf – „Wir ziehen mit dem falschen Weltbild in die Zukunft. All unsere Parameter über Alter und Jugend stammen aus Zeiten, in denen das Altern die Ausnahme war,“ schreibt Frank Schirrmacher in seinem Buch „Das Methusalem-Komplott“. Wir – damit sind nicht nur Deutschland, sondern alle westlichen Industrienationen gemeint. Das Altern wird bald nicht mehr das sein, was es mal war. Neueste Studien zwingen uns, unsere Einstellung zum Altern zu überdenken, oder gar – wie Schirrmacher schreibt – „neu zu erfinden“.

Spätestens im Jahr 2050 wird die Hälfte der Bevölkerung über 48 Jahre alt sein. Es wird eine Welt geben, die „fast nichts mehr mit der heutigen zu tun haben wird,“ so Schirrmacher. Die bisherige Gesellschaftsideologie „alt gleich schlecht“ sei höchst bedenklich. „Ältere Mitarbeiter bringen besondere Qualifikationen mit, weil sie durch ihren Erfahrungsreichtum im Besitz eines problembewussten Fachwissens sind. Sie vermitteln Seriosität und Zuverlässigkeit. Oft sorgen ihre Geschäftsverbindungen, die sie sich in vielen Jahren angeeignet haben, bei Problemen für Abhilfe“, so Peter Juraschek, IT-Spezialist von Harvey Nash, http://www.harveynash.de, ein Beratungsunternehmen für Personal-, IT- und Engineering Services.

Juraschek hat für die Altersscheu vieler Arbeitgeber kein Verständnis. Selbst in der Branche für Informationstechnik, die als Jugenddomäne gilt, seien ältere Mitarbeiter den jungen weit voraus: „Wenn wir als Personaldienstleister eine IT-Stelle von einem Unternehmen besetzen müssen, haben wir oft keine andere Wahl, als einen älteren Kandidaten einzusetzen. Ein junger Mitarbeiter kommt überhaupt nicht in Frage, wenn es gilt, einen Grossrechner zu programmieren. Hier fehlen Kenntnisse über Programmiersprachen wie Assembler und Cobol. So kommt es vor, dass ein junger Programmierer trotz seiner Internet- und Java-Kenntnisse passen muss“, so Juraschek.

Harvey Nash fordert deshalb ein Umdenken bei der Ausbildung von Informatikstudenten. In der Hochschullandschaft hat das für kontroverse Reaktionen gesorgt. „So etwas hätte man in den 60er Jahren behaupten können“, konterte etwa Professor Francois Bry, Ordinarius für Programmier- und Modellierungssprachen am Institut für Informatik der Universität in München http://www.ifi.lmu.de. Grossrechneranwendungen würden schon seit Jahrzehnten nicht mehr mit besonderen Betriebssystemen oder Programmiersprachen implementiert, sondern mit herkömmlichen. Werner Altmann von der Gesellschaft für Informatik http://www.gi-ev.de geht noch einen Schritt weiter. Nach seiner Auffassung sind Grossrechnertechnologie mittlerweile mega-out. Daher sei es Unsinn, den Informatikstudenten diese „steinzeitlichen“ Technologien wieder beizubringen. „Heutzutage bestehen leistungsstarke Rechensysteme aus dem Verbund von kleinen, wiederum sehr leistungsstarken Maschinen“.

Das wiederum bringt den Harvey Nash-Geschäftsführer Udo Nadolski aus der Fassung: „Die Herrschaften sollten mal raus in die Wirtschaft gehen und sich die Praxis anschauen. Das geht so dermassen an der tatsächlichen Welt vorbei, das ist schon fast unglaublich. Sicherlich hat es gute Entwicklungen für mittlere Datentechnik gegeben. Aber es bleibt dabei: Die Grossrechnertechnologie, obwohl hundertmal tot gesagt, ist nicht tot und sie wird auch nie tot sein. Im Gegenteil. Wir erleben jetzt gerade wieder, dass aus der verteilten Welt eine zentrale Welt wird, weil man gemerkt hat, dass es einfacher ist, alle Anwendungen und alle Daten in einem System zu halten, statt in 200. Früher hat man darauf gesetzt, alles zu verteilen und hat sich Serverplans aufgebaut. Plötzlich standen an allen Ecken und Enden irgendwelche Servermaschinen, die nicht richtig ausgelastet und gewartet waren, von denen in Teilen keiner wusste, was sie tun“, so die Replik von Nadolski.

Heute gehe man genau wieder auf den anderen Trend zurück und sagt, warum soll ich diese Maschinen irgendwo hinstellen, da nehme ich lieber einen guten alten Mainframe, allerdings behaftet mit neueren Technologien und clustere diesen Mainframe entsprechend, so dass er logisch gesehen, diese Maschinen wieder abbildet. „Sie haben dann einen guten alten Grossrechner, der so genannte logical partitions hat und auf diesen logical partitions bilden sie heute alles ab, was es gibt. Sie können heute auf einem Grossrechner einen Linux laufen lassen. Das ist überhaupt kein Thema, das kostet sie fünf Minuten. Sie können Hunderte von Unix-Maschinen nachbilden. Sie können die logisch trennen, sie können die Rechner physisch trennen, sie haben überhaupt kein Problem. Nur das Thema ist, die Systemsoftware und die Netzseite des Ganzen ist die von vor 40 Jahren. Da hat sich nichts geändert. Da sind ein paar Neuigkeiten dazugekommen, aber die Art und Weise, wie sie funktionieren, ist immer noch dasselbe. Es gibt kein deutsches Grossunternehmen, das seine wichtigen Anwendungen nicht auf einem Grossrechner laufen lässt“, so Nadolski. In den angelsächsischen Ländern sei die Anzahl der Fachkräfte für Grossrechner deutlich höher. „Wir vermitteln einen Grossteil dieser Leute. Wir bringen mittlerweile Kandidaten aus England nach Deutschland, weil wir hier keinen mehr finden“, führt Nadolski aus.

Posted by on 24. Februar 2005. Filed under Information & TK. You can follow any responses to this entry through the RSS 2.0. You can leave a response or trackback to this entry

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Time limit is exhausted. Please reload CAPTCHA.


Blogverzeichnis - Blog Verzeichnis bloggerei.de Blog Top Liste - by TopBlogs.de Blogverzeichnis