Verantwortung war das Leitthema des Deutschen Ingenieurtages in Berlin "Die Demokratie braucht technischen Sachverstand" VDI-Präsident Pöppel unterstreicht den gesellschaftlichen Gestaltungswillen der Ingenieure - Von H. Conrady und G. Frechen VDI-N, Berlin, 17. 5. 91 -

E s ist an der Zeit, daß die Ingenieure die sichere Plattform ihres Fachwissens verlassen und sich dem Dialog mit der Gesellschaft stellen." Mit dieser Forderung eröffnete VDI-Präsident Dr. Joachim Pöppel am vergangenen Dienstag den Deutschen Ingenieurtag in Berlin. Prominentester Gast des zweitägigen Kongresses: Bundespräsident Dr. Richard von Weizsäcker. Er nahm an der Auftaktveranstaltung im Kongreßzentrum teil.

Zwei Tage lang diskutierten rund 3 000 Teilnehmer, davon jeder Dritte aus den neuen Bundesländern, über das zentrale Thema: "Der Ingenieur in der Verantwortung."

Daß ausgerechnet diese ethische Frage ausgewählt wurde, hatte einen wichtigen Grund. Der VDI will nicht nur seine Verantwortung gegenüber den Kollegen aus den neuen Bundesländern dokumentieren. Er will vor allem, so Präsident Pöppel in sener Eröffnungsrede, den Gestaltungswillen der Ingenieure innerhalb der Gesellschaft unter Beweis stellen: "Eine funktionsfähige Demokratie in unserer hochtechnisierten Gesellschaft setzt voraus, daß in ausreichendem Maße technischer Sachverstand einbezogen wird." Und den bieten gerade die Ingenieure.

Pöppel verband damit den Wunsch, daß diese Kompetenz insbesondere von den Entscheidungsträgern in der Politik gewürdigt werde. Um so eindringlicher wirkte sein Appell: "Wir brauchen das Vertrauen der Gesellschaft."

Nur mit Hilfe der Technik, so Pöppel weiter, sei das Überleben der ständig wachsenden Menschheit gesichert. Pöppel: "Es gibt keine Alternative zum technischen Fortschritt." Gerade in diesem Zusammenhang komme den Ingenieuren eine besondere Verantwortung zu: "Sie müssen die Gesellschaft offen über die Chancen und Risiken verschiedener Techniken informieren."

Dennoch dürfe auch innerhalb der Gesellschaft kein Zweifel darüber bestehen, daß es eine völlig risikofreie Technik nicht geben könne. Deshalb, so Pöppel, bestehe die Verantwortung der Ingenieure nicht nur im individuellen Handeln. Gerade gegenüber der gesamten Gesellschaft müßten die Technikgestalter ihre Verantwortung übernehmen - eine Einstellung, die in der über hundertjährigen Geschichte des VDI Tradition habe. Pöppel: "Die Selbstorganisation technischer Regeln ist ein besonders gelungenes Beispiel dafür."

Wie schwierig jedoch die oft von der Öffentlichkeit geforderte Technikbewertung ist, das hatte Dr. Hans Günter Danielmeyer, Präsidiumsmitglied des VDI und Vorstandsmitglied der Siemens AG, bereits im Vorfeld des Kongresses vor der Presse klargestellt. Er warnte vor zu hohen Erwartungen an die Technikfolgenabschätzung: "Die Schwierigkeit liegt weniger im Irrtum als in der Begrenztheit, mit der wir uns lange und komplizierte Wirkungsketten vorstellen können." Gerade deshalb seien die Ingenieure um so stärker gefordert. Ihre Pflicht sei es, für das sichere und gefahrlose Funktionieren der technischen Systeme zu sorgen, betonte das Präsidiumsmitglied des VDI. Und daß in dieser Hinsicht die Arbeit der Ingenieure geradezu richtungsweisend sei, daran ließ Danielmeyer keinen Zweifel: "Der Sicherheitsstandard liegt in Deutschland deutlich höher als anderswo in der Welt." Und das wertete er als deutlichen Beweis für verantwortungsbewußtes Handeln.

Automobilbauer sind die wichtigsten Abnehmer Markt für Flachbildschirme zeigt erhebliches Wachstum VDI-N, Düsseldorf, 17. 5. 91, M.G. -

Ein erhebliches Wachstum des europäischen Marktes für Flachbildschirme zeichnet sich jetzt ab, nachdem die Umsätze bisher aufgrund technischer Mängel und einer allgemeinen Nachfrageschwäche hinter den Erwartungen zurückblieben. Bis 1994 werden die Absatzzahlen auf fast 1,14 Mrd. Dollar klettern, während sie 1989 erst bei 617 Mio. Dollar lagen. Dies geht aus einem neuen Bericht des Londoner Marktforschungsunternehmens Frost & Sullivan hervor.

Eine Ursache für die bisher eher zögernde Marktentwicklung auf dem alten Kontinent sehen die Autoren der Studie in Problemen bei Gleich- und Wechselstrom- Plasmadisplays sowie LCD- und Dünnfilmelektrolumineszenz-Anzeigen. Den Forschern in den Labors sei es nicht gelungen, die Technologie der Farb- und Graphik-Displays so weit voranzutreiben, um die Hersteller zu Investitionen in Produktionsanlagen zu bewegen.

Hingegen bleiben die LED-Displays die Vorreiter unter den Flachbildschirmen. Bei diesen Leuchtanzeigen kommen die technische Weiterentwicklung und Erprobung neuer Materialien schnell voran, beobachten die Experten. Dennoch sei es unwahrscheinlich, daß diese Bauelemente bis Mitte der 90er Jahre für die Verwendung in farbigen Anzeigetafeln billig genug werden.

Die wichtigsten Endanwender für Flachbildschirme sind die Fahrzeughersteller. Europas Automobilbauer werden 1995 Produkte für rund 193 Mio. Dollar kaufen, das sind etwa 80 % mehr als jetzt. Es folgen die Werbung mit einem erwarteten Anteil von 175 Mio. Dollar sowie an dritter Stelle die Computerproduzenten.

Ligna '91 im Zeichen des bevorstehenden EG-Binnenmarkts Europas Holzbearbeitung hält Maschinenbau in Schwung VDI-N, Hannover, 17. 5. 91, Si -

Das Jahr 1990 war für die holzverarbeitende Industrie in den alten Ländern der Bundesrepublik Deutschland fast ausschließlich wegen der Inlandsnachfrage ein positives Jahr - knapp 10 % konnte die Branche noch einmal zulegen und einen Umsatz von mehr als 38 Mrd. DM verbuchen. Eine bessere Basis für den Investitionswillen bundesdeutscher Besucher konnten sich die Maschinenanbieter auf der Ligna '91 kaum wünschen.

Daß dieser unabhängig vom weiteren konjunkturellen Verlauf noch anhalten dürfte, galt unter den Fachleuten auf der Weltmesse für Maschinen und Ausrüstung der Holz- und Forstwirtschaft in Hannover als sicher. Angesichts der bevorstehenden Vollendung des europäischen Binnenmarkts wechseln allerdings die Investitionsmotive von der bislang dominierenden Kapazitätserweiterung hin zur Rationalisierung.

Die deutschen Maschinenbauer, die laut Dieter Siempelkamp, dem Vorsitzenden der Fachgemeinschaft Holzbearbeitungsmaschinen im VDMA, Frankfurt, stets die gesamte Welt als Marktpotential betrachtet haben, verdeutlichten in Hannover, daß sie auf die kommenden Wettbewerbskriterien "umweltschonend, flexibel und produktiv" bereits reagiert haben. Aber sie übernehmen in der Umstellung auf eine europaweit harmonisierte Fertigung von Holzprodukten auch die Rolle des "Technologie-Vermittlers" . Ein konkreter Schritt in Richtung abgestimmter Maschinen-Ergonomie und -Sicherheit wurde denn auch gleich präsentiert: Die in Frankfurt/Main gegründete Forschungs- und Prüfgemeinschaft Holzbearbeitungsmaschinen (FPH). (Seite 17)

Expertenwissen wird in die Automatisierungstechnik eingebracht Fuzzy-Logik steuert komplizierte Prozesse VDI-N, Düsseldorf, 17. 5. 91, jdb/RB -

"Dort, wo man bislang nicht automatisieren konnte, wo meist durch Menschen die Probleme gelöst wurden, sehe ich zukünftige Anwendungsfelder der Fuzzy- Technik." Hans-Jürgen Zimmermann vom Institut für Unternehmensforschung in Aachen hat ganz konkrete Vorstellungen, wenn es um den Einsatz der unscharfen Logik, auch Fuzzy-Logik genannt, geht. Vor mehr als 20 Jahren entwickelt, galt die Fuzzy-Set-Theorie lange Zeit als exotisch.

Die Fuzzy-Set-Theorie beseitigt die Beschränkungen der klassischen, zweiwertigen Logik, indem sie einen mathematischen Regelsatz aufstellt, der exakte Schlüsse und Folgerungen mit "unscharfen" , vagen Werten ermöglicht. So sind menschliche Begriffe wie z.B. "etwas wärmer" , "ziemlich dunkel" oder "recht kalt" für technische Systeme nutzbar. "Gerade in der Automatisierungstechnik gibt es Prozesse, die nur sehr schwer mathematisch zu modellieren sind, die aber von erfahrenen Bedienern gut beherrscht werden können" , erläutert Zimmermann. Über die Fuzzy-Steuerung gelingt es nun, das Wissen dieser Bediener zur Grundlage der Prozeßsteuerung zu machen, indem ein umgangssprachlicher Regelsatz formuliert wird, nach dem dann die Steuerung abläuft.

Das erhebliche wirtschaftliche Potential dieser Technik wird allerdings hierzulande noch kaum genutzt - obwohl gerade in jüngster Zeit ein erhebliches Interesse an der Fuzzy-Technik geweckt wurde. Der Weckruf kam - wie so oft - aus Japan. Dort haben die großen Konzerne den Wert der Fuzzy-Logik längst erkannt und durch den breiten Einsatz in Konsumerprodukten - vom Staubsauger über Waschmaschinen bis hin zu Reiskochern - ein wahres Fuzzy-Fieber entfacht.

Doch auch in der industriellen Anwendung sind die Japaner längst aus den Kinderschuhen heraus: Bekanntestes Projekt ist eine Fuzzy-gesteuerte U-Bahn in der Nähe von Tokio. Erste Fuzzy-Produkte für die industrielle Automation wurden jüngst auch auf der Hannover-Messe Industrie vorgestellt.

Allerdings ist der europäische Fuzzy- Zug noch nicht abgefahren: Seit langem beschäftigen sich in der Bundesrepublik zahlreiche Hochschulen und Industrieunternehmen mit Fuzzy. Der Vorsprung der Japaner ist - davon ist Zimmermann überzeugt - einholbar: "Wir haben z.B. hier in Deutschland das fortschrittlichste Software-Entwicklungs-Werkzeug für Fuzzy-Steuerungen." (Seiten 13 und 14)

Bis Ende des Jahres soll die TA Luft bei westdeutschen Kraftwerken realisiert sein "Runderneuerung" reduziert Emissionen VDI-N, Düsseldorf, 17. 5. 91, cf -

"Die westdeutschen Stromversorger schließen 1991 ein beispielloses Umweltschutz-Programm ab." Prof. Joachim Grawe hielt mit Superlativen nicht zurück. "International ist Westdeutschland damit führend bei der Reinhaltung der Luft im Kraftwerksbereich." Der Hauptgeschäftsführer der Vereinigung Deutscher Elektrizitätswerke (VDEW), Frankfurt, kündigte vergangene Woche vor der Presse an, daß die westdeutschen Kraftwerke bis Ende des Jahres "sauber" sind, deren Rauchgase also entsprechend den gesetzlichen Grenzwerten gereinigt werden.

Während Entstaubung und Entschwefelung der Anlagen bereits abgeschlossen sind, werden derzeit die letzten Kraftwerke mit Entstickungsanlagen ausgerüstet. Das seit 1982 laufende Nachrüstprogramm freilich war keine freiwillige Maßnahme der Stromwirtschaft, sondern vielmehr eine Folge der 1986 vom Gesetzgeber verschärften Technischen Anleitung zur Reinhaltung der Luft (TA Luft).

Die Auswirkungen sind beträchtlich: 1982 emittierten die westdeutschen Kraftwerke jährlich 1,55 Mio. t SO2, 740 000 t NOx und 66 000 t Staub. 1990 waren es noch 180 000 t SO2, 240 000 t NOx und 12 000 t Staub. Damit ist die Energieerzeugung laut Grawe zum Kleinverschmutzer geworden, so produziere der Verkehr heute viermal soviel Stickoxide wie die Kraftwerke.

Diese "Runderneuerung" (Grawe) hatte ihren Preis: seit 1982 investierten die VDEW-Mitglieder 22 Mrd. DM. Mit weiteren 25 bis 30 Mrd. DM wollen die Energieversorger bei den Großkraftwerken in Ostdeutschland den technischen Anschluß schaffen. Denn laut Einheitsvertrag müssen die Kraftwerke der ehemaligen DDR bis 1996 westlichen Standard erreicht haben. Keine leichte Aufgabe. "Je Kilowattstunde waren die Emissionen in der DDR etwa 15mal höher als in Westdeutschland" , betonte Grawe. Ob alle Maßnahmen allerdings bis 1996 realisiert werden können, ist fraglich. Grawe: "Wir haben ein ganzes Jahr verloren durch den Energiestreit mit den Kommunen."

Festhalten will Grawe am Strommonopol. Wettbewerb in der Stromwirtschaft hätte seiner Meinung nach negative Auswirkungen. "Dann werden Kraftwerke im Hauruck-Verfahren gebaut" , befürchtet er. Außerdem wäre das 22-Mrd.-DM-Nachrüstprogramm im Westen nicht möglich gewesen. "Wer die Konkurrenz mit einem niedrigeren Strompreis unterbieten muß, tut für den Umweltschutz nur das Notwendigste."

Kommentar Ein unverzichtbarer Vorreiter Von WOLFGANG MOCK

Ob man sie nun verflucht oder als einen Segen hinstellt, an der Treuhand und ihren 15 Niederlassungen in den neuen Bundesländern führt auf absehbare Zeit kein Weg vorbei. Sie wird, daran ist nicht zu rütteln, die wirtschaftliche Zukunft der neuen Bundesländer noch auf lange Zeit mitbestimmen.

Und wenn auch aus den jetzt von der Treuhand verkauften Unternehmen nicht unbedingt die in Zukunft wichtigsten Stützen des ökonomischen Aufschwungs werden, so kommt der Treuhand doch eine nicht zu unterschätzende Rolle zu: ihr Erfolg oder Mißerfolg wird genau beobachtet und wird maßgeblich zur Investitionsneigung anderer Unternehmen auf dem Gebiet der ehemaligen DDR beitragen. Bleibt der Treuhand der Erfolg versagt, ist abzusehen, daß sich auch andere Investoren, die nicht an der Konkursmasse des SED- Staates interessiert sind, zurückhalten werden.

Auf dem Schweriner Investorentreffen vergangene Woche wurde das überdeutlich: Dutzende von Gesprächen wurden geführt, viele der möglichen Kapitalgeber kamen auch oder sogar vor allem, um zu sehen, "wie denn so das Klima ist" .

Und das Klima stimmt nicht nur zuversichtlich, verläßt man einmal die hohe Warte der Politik mit ihrem rituellen Herbeireden der ersten Silberstreifen am Horizont.

Oft fehlt der Schulterschluß von Politik und Unternehmern im Detail, noch immer behindern unfähige bis unwillige Kommunalbeamte die Klärung von Eigentumsfragen. Gerade hier, auf der Ebene praktischer Politik böte sich den neugewählten Volksvertretern die Möglichkeit, konkret tragfähige Grundlagen für die wirtschaftliche Zukunft ihrer jeweiligen Regionen zu schaffen.

Und für die Treuhand wäre das in vielen Fällen eine notwendige Flankierung, um ihrer Aufgabe als Vorreiter in den neuen Bundesländern gerecht werden zu können.Ù

Höchste Eisenbahn Von ANDREAS HÜLSMANN

Was haben langer Donnerstag, langer Samstag, Winter- oder Sommerschlußverkauf für den Automobilisten gemeinsam? Das endlose Warten im Stau und der Kampf um den letzten freien Parkplatz. Das Verkehrschaos breitet sich immer weiter aus, die Innenstädte ersticken in Blech und Abgasen. Daß daran die jetzt hochgelobte Mautgebühr für den Citybummel mit dem Pkw etwas ändern wird, glaubt kaum noch einer. Die Stadterneuerungsmaßnahmen vieler Städte beschränken sich nur auf die Vernichtung von Parkplätzen, die wenigen, die übrig bleiben, werden stundenweise zu horrenden Preisen vermietet. Doch das ist für die meisten Autofahrer kein Problem: Sie lassen sich ihre Mobilität etwas kosten.

Und ein Ende des Verkehrsdramas ist längst noch nicht in Sicht. Bis 2010 soll, laut Bundesverkehrsministerium, die Zahl der in Westdeutschland zugelassenen Pkw von heute 30 Mio. auf 47 Mio. Fahrzeuge anwachsen. Das Auto, Sinnbild der individuellen Beweglichkeit, läßt mehr und mehr unsere Mobilität in kilometerlangen Blechschlangen erstarren. In der Not erinnert man sich an ein bewährtes Mittel gegen den Dauerstau. Der öffentliche Personennahverkehr soll nun die Innenstädte entlasten. Selbst der ADAC, Deutschlands größter Fürsprecher in Sachen Automobil, schlägt sich auf die Seite von Bus und Bahn.

Doch das Angebot der öffentlichen Verkehrsmittel bedarf phantasievoller Maßnahmen. Das Ticket 2000 des Verkehrsverbundes Rhein-Ruhr, mit dem sogar ganze Belegschaften auf die Schiene gelockt werden sollen, scheint da ein Schritt in die richtige Richtung zu sein. Der familienfreundliche Fahrschein hat zahlreiche Autofahrer zum Umsteigen bewegt. Doch noch zu wenig Selbstfahrer lassen sich allein durch preisliche Vorteile überzeugen. Für die Mobilität, die ihnen das Auto verspricht, stehen sie lieber eine Stunde im Stau als 10 Minuten an der Haltestelle.

Wirtschaftsminister Möllemann stellt Jahrhundertvertrag in Frage Kohle-Subventionierung auf dem Prüfstand Brüssel drängt auf Reduktion der Abnahmeverpflichtung für Kraftwerksbetreiber - Von Thomas A. Friedrich VDI-N, Bonn, 17. 5. 91 -

D ie "Kohle-Kahlschlag-Pläne" von Bundeswirtschaftsminister Jürgen Möllemann platzten letzte Woche wie eine Bombe auf dem Dortmunder Gewerkschaftskongreß der IG Bergbau und Energie (IGBE). Die Ankündigung des FDP-Ministers, er könne angesichts der deutschen Einheit nicht versprechen, daß es bei der momentanen Regelung zur Kohleverstromung bis 1995 bleibt, ließ CDU- und SPD-Politikern in den Bergbaurevieren die Zornesröte ins Gesicht schießen.

In einer einstimmig verabschiedeten Entschließung forderten die aufgebrachten Gewerkschafter Bundeskanzler Kohl auf, öffentlich klarzustellen, daß er die Pläne Möllemanns nicht verwirklichen werde. Andernfalls sei der soziale Friede in den Bergbauregionen ernsthaft in Gefahr, rumorten die Kumpel. Der IGBE- Vorsitzende Hans Berger forderte überdies von Kanzler Kohl, daß die sozialverträgliche Anpassung des Steinkohle-Bergbaus, wie von der Bundesregierung zugesagt, weiter gelten solle.

Regierungssprecher Norbert Schäfer suchte Ende vergangener Woche die Wogen zu glätten. Möllemanns Überlegungen seien "mit dem Bundeskanzler oder in der Bundesregierung nicht abgestimmt" . Es handele sich dabei um die "persönliche Meinung" des Wirtschaftsministers. Von dieser ist auch Bundesumweltminister Klaus Töpfer als Landesvorsitzender der Saar-CDU wenig begeistert. Laut Töpfer sei es wenig hilfreich, jetzt mit Einzeläußerungen an die Öffentlichkeit zu gehen, während man sich angestrengt um einen die Parteigrenzen überschreitenden energiepolitischen Konsens bemühe. Verbal ist zwar auch Ministerkollege Möllemann an eben jenem Konsens interessiert. In Wahrheit jedoch strebt er nach Höherem. Möllemann hat sein politisches Schicksal mit dem Subventionsabbau verknüpft. Schon im März stach der stets um Schlagzeilen bemühte Minister ins Wespennest der Energiepolitik. Sein Credo: Er wolle die Milliardenhilfen für den deutschen Steinkohlebergbau in den nächsten Jahren deutlich abbauen. Widerspruch gab es damals bereits von der sogenannten Kohlekommission unter Leitung des früheren CDU-Politikers Paul Mikat. Demnach soll der Bund die volle finanzielle Verantwortung für die künftigen Kohlesubventionen übernehmen.

S icher ist: Die Kohlesubventionierung kommt auf den Prüfstand. Denn der Bergbau liegt, neben den Querelen im eigenen Land, ebenso mit Brüssel im Clinch. Seit Jahren steht das Tauziehen zwischen Kohlewirtschaft und Elektrizitätswirtschaft regelmäßig auf der Tagesordnung. Dabei sichert der "Jahrhundertvertrag" in einem gewissen Umfang langfristig den Absatz heimischer Kohle. Energiepolitisch will man damit die Abhängigkeit von den Importenergien Öl und Gas in Grenzen halten. Das 1980 zwischen dem Gesamtverband des Steinkohlebergbaus und der Elektrizitätswirtschaft geschlossene Abkommen sieht vor, bis 1995 insgesamt 512 Mio. t heimische Steinkohle zur Verstromung zu nutzen. Um den Preisunterschied zwischen der Steinkohle und dem damals recht preiswerten schweren Heizöl auszugleichen, wurde der "Kohlepfennig" eingeführt, ein Aufschlag auf alle Stromrechnungen.

M öllemanns Vorstoß, beim Subventionsabbau sich mit der Kohle gleich den dicksten Brocken vorzunehmen, kommt für die Steinkohlewirtschaft dem Versuch gleich, den Jahrhundertvertrag aus den Angeln heben zu wollen. "Bundeswirtschaftsminister Möllemann will der deutschen Steinkohle das überlebenswichtige Standbein des Kohleabsatzes amputieren" , fürchtet der SPD- Energieexperte Horst Niggemeier.

Möllemann kann sich bei seinem Aktionismus auf die Brüsseler EG-Kommission stützen. In einem kürzlich veröffentlichten Bulletin wird zwar das bisherige Subventionssystem für die Kraftwerkskohle bis auf weiteres geduldet. Im gleichen Atemzug verlangt die Brüsseler Behörde zum wiederholten Male jedoch, die Abnahmeverpflichtung der Stromwirtschaft "angemessen" zu verringern. In einem Schreiben an EG-Kommissionschef Jacques Delors plädieren die sozialdemokratischen Ministerpräsidenten der Kohleländer Nordrhein-Westfalen und Saarland für eine Anschlußregelung über 1995 hinaus. Die Forderung der Revier-Barone: Der Absatz dürfe bis zum Jahre 2005 keinesfalls geringer als 35 Mio. t pro Jahr ausfallen. Angesichts des bevorstehenden Arbeitsplatzabbaus in den ostdeutschen Braunkohlezechen kann wohl kaum jemand mit einem neuen Jahrhundertvertrag rechnen.

Asea Brown Boveri erwirbt drei Unternehmen in der Ex-DDR Licht am Ende des Tunnels ist sichtbar Übernahmekonzept bietet Qualifikationschancen für alle Mitarbeiter - Von Hartmut Steiger VDI-N, Düsseldorf, 17. 5. 91 -

T rotz der düsteren Perspektiven, die sich in den nächsten Monaten für die Wirtschaft in Ostdeutschland abzeichnen, blickt Joachim Schulze, Geschäftsführer der ABB Automatisierungsanlagen (AAC) in Cottbus, zuversichtlich in die Zukunft: "Das Licht am Ende des Tunnels ist schon sichtbar." Der Grund für seinen Optimismus: Seit Anfang dieses Jahres ist der frühere Staatsbetrieb eine 100 %ige Tochter der Asea Brown Boveri AG (ABB).

Das Mannheimer Unternehmen, das sich auf Kraftwerke und Stromerzeugung spezialisiert hat, soll AAC für die Marktwirtschaft fit machen. Und eine Sanierung ist überfällig, wollen die Cottbusser für die Konkurrenz gerüstet sein: Mit veralteten Maschinen, fehlender Datenverarbeitung, einer nicht funktionierenden Logistik, schlechter Bausubstanz und einer personellen Überbesetzung hätte das Unternehmen in der Marktwirtschaft keine Chance gehabt, sagt Geschäftsführer Schulze.

Wenn die Cottbusser mit der Übernahme auch wieder eine Perspektive haben - aus dem Schneider sind sie damit allerdings noch nicht. "Wir durchlaufen derzeit eine Talsohle" , räumt Schulze ein. Im zweiten Halbjahr 1990 gingen überhaupt keine Aufträge ein, im ersten Quartal dieses Jahres betrug das Auftragsvolumen lediglich 26 Mio. DM. Die Folge: Kurzarbeit in fast allen Abteilungen. Die augenblickliche Flaute nutzt das Unternehmen, um Mitarbeiter zu qualifizieren und die Produktionsstätten zu modernisieren.

Vor der Wende nahm AAC, es produzierte elektrotechnische Anlagen, in den Regionen Cottbus, Dresden und Frankfurt an der Oder eine Monopolstellung ein. Die Zahl der Beschäftigten lag damals bei 3 000, heute sind es nur noch 2 000. Doch dabei wird es nicht bleiben, denn bis 1993 sollen nur noch 1 500 Mitarbeiter beschäftigt werden. Zum ersten Juli werden bereits 300 Kündigungen wirksam - wer davon betroffen sein wird, ist allerdings noch offen.

Ein Problem, vor dem alle Unternehmen stehen, die von ABB in den neuen Ländern übernommen wurden. Neben dem Cottbusser Betrieb AAC sind das ABB Bergmann Borsig in Berlin-Wilhelmsruh, der führende Hersteller von Kraftwerkskomponenten in den neuen Ländern, und die ABB Energiebau Dresden. Rund 115 Mio. DM wird ABB, eine der wenigen westdeutschen Firmen, die sich in großem Stil zwischen Elbe und Oder engagieren, in den nächsten Jahren in allen Unternehmen investieren. Trotz dieser Kapitalspritzen gehen Arbeitsplätze verloren. Bei Bergmann Borsig werden von den derzeit noch 3 750 bis Ende dieses Jahres 1 600 gestrichen. Auf jeden Fall, so ABB-Vorstandsmitglied Dr. Manfred Simon, werden über das Jahr 1991 hinaus die jetzt schon bestehenden 250 Plätze für Auszubildende gesichert.

Neben der personellen Entschlackung der ehemals volkseigenen Betriebe müssen die Manager ein weiteres Problem bewältigen, das nicht minder schwierig ist: die Unternehmen reorganisieren. Dazu gehört vor allem der Aufbau einer Vertriebsorganisation, die Einführung eines EDV-Systems und einer Kommunikationsstruktur, die Straffung der gesamten Organisation sowie die Aufstellung eines Führungsteams, besetzt mit Managern aus West- und Ostdeutschland.

O bwohl der Personalabbau zu Lasten der Beschäftigten geht, steht der Betriebsrat von ABB Bergmann Borsig hinter dem Konzept der Geschäftsleitung. Die sozialverträgliche Absicherung der Entlassungen wird von der 15köpfigen Arbeitnehmervertretung gemeinsam mit dem Management geplant. Auch in der Lohnpolitik gibt es, anders als vielerorts im Westen Deutschlands, keine Differenzen zwischen Betriebsrat und Unternehmensführung: Die Sicherheit von möglichst vielen Jobs steht an oberster Stelle. Am Anfang, so Dr. Klaus Aghte, Generalbevollmächtiger von ABB für Ostdeutschland, stehen deshalb Investitionen, um die Produktivität zu steigern und höhere Löhne zu erwirtschaften. Derzeit werden im gewerblichen Bereich 60 % der Westlöhne gezahlt.

Über den Preis und die Konkurrenten, die bei der Übernahme der drei Unternehmen mitgepokert haben, schweigen sich die ABB-Manager aus. Auch die Treuhand hält sich in dieser Frage bedeckt. Pressesprecher Wolf Schöde: "Die Investoren wollen das nicht." Nur eines ist sicher: der Preis allein gibt nicht den Ausschlag. Auch wer mehr bietet als sein Konkurrent, kann leer ausgehen, wenn er das schlechtere Unternehmenskonzept vorlegt.

Ein gutes Konzept hat schließlich für ABB den Ausschlag gegeben. Die Mannheimer Manager haben die ehemals volkseigenen Betriebe komplett übernommen, ohne sich nur die Filetstücke herauszuschneiden, und sich verpflichtet, den kurz- arbeitenden Beschäftigten sowie den Lehrlingen eine Qualifikationschance zu geben.

ÂÌ Streit um die Reaktorkatastrophe von Tschernobyl VDI-Nachrichten 17/91: "In Tschernobyl versagte die Technik" / "Katastrophe war unausweichlich"

Das Ereignis war kein "größter anzunehmender Unfall" (GAU). Aufgabe des Ingenieurs ist es gerade, einen solchen Unfall anzunehmen und das Kraftwerk dagegen auszulegen. Was in Tschernobyl geschah, war auslegungsüberschreitend, im Journalisten-Deutsch ein "Super-GAU" .

Weiterhin wurde der Unfall nicht durch Kernschmelzen charakterisiert. Der Reaktor wurde vielmehr prompt kritisch und ging durch, Brennstoff verdampfte teilweise und löste eine Explosion von großer Wucht aus. Kernschmelze ist das auslegungsüberschreitende Ereignis, das für Leichtwasserreaktoren charakteristisch ist. Im Gegensatz zu Tschernobyl führte die Kernschmelze von Three Mile Island zu keiner nennenswerten Umgebungsbelastung.

Prof. Dr.-Ing. Dietrich Schwarz Vereinigte Elektrizitätswerke Westfalen Dortmund

Bei der Bezeichnung GAU handelt es sich um einen wohldefinierten Begriff, der aufgrund dessen in Umfang und Inhalt nur innerhalb seines Definitionsbereiches zu verwenden ist. In der Bundesrepublik Deutschland erfolgt die Nutzung der Kernenergie seit langem in einem Klima großer Unduldsamkeit gegenüber dieser Technologie. Dieses Klima ist zum einen durch einzelne Ereignisse in kerntechnischen Anlagen und zum anderen durch die undifferenzierte und oft unqualifizierte Berichterstattung darüber verursacht worden. Dabei ist eine unqualifizierte Berichterstattung auch für den Laien häufig an der Verwendung des Begriffs "GAU" zu erkennen.

Deshalb hier nochmals die Definition: "GAU: Größter Anzunehmender Unfall. Begriff aus der Reaktorsicherheit, heute ersetzt durch den umfassenderen Begriff des Auslegungsstörfalls." Und "Auslegungsstörfall: Bei den heutigen Kernkraftwerken wird eine weitgefächerte Vielfalt von Leitungsbrüchen und Komponentenversagen bei der Auslegung zugrunde gelegt. Auslegungsstörfälle müssen durch die Sicherheitseinrichtungen so beherrscht werden, daß die Auswirkungen in der Umgebung unter den vorgegebenen Grenzwerten der Strahlenschutzverordnung bleiben."

Wie sich aus der vorstehenden Definition des Begriffes GAU ergibt, kann es sich bei dem Ereignis vom 26. 4. 1986 in der sowjetischen Anlage Tschernobyl nicht wie in den VDI-Nachrichten berichtet, um einen GAU oder Auslegungsstörfall gehandelt haben. Dieses Ereignis war nämlich weder im Sicherheitskonzept der Anlage als beherrschbar vorgesehen, noch war das physikalische Verhalten des RBMK-Kerns hinreichend bekannt. Insofern handelt es sich nach der in Fachkreisen hierzulande üblichen Terminologie um einen nicht-beherrschten "Unerwarteten Ereignis-Ablauf" - für den die deutsche Fachsprache das Kürzel UEA vergeben hat.

"Unerwartete Ereignis-Abläufe" sind nicht notwendigerweise unbeherrschbar. Die deutsche Reaktorsicherheitsforschung analysiert seit Jahren solche Ereignisspektren und erarbeitet im Rahmen fortschrittlicher Reaktorsicherheitstechnik Einrichtungen, die in den bundesdeutschen Kernkraftwerken konsequent nachgerüstet werden. Daher sind die Kernkraftwerke in der Bundesrepublik auch gegen Ereignisse gesichert, die weit außerhalb der Auslegung liegen und mit anachronistischen Begriffen wie "GAU" und "Auslegungsstörfall" nur unzureichend und deshalb falsch beschrieben sind.

Dipl.-Ing Ralph Reuhl Bensheim

Tschernobyl war kein GAU, keine Kernexplosion, sondern eine simple Knallgas-Explosion! Warten Sie erst mal auf einen echten GAU! Bei diesem kombiniert mit Wasser und Graphit moderierten Reaktor wurde infolge der bedienenden Narren örtlich der Graphit so heiß, daß er das Wasser zu Knallgas zersetzte. Dieses stieg auf, wurde zufällig gezündet und hob den 1000 t schweren Reaktordeckel ab. Luft konnte zutreten, der heiße Graphit brannte schwelend ab und der Rauch riß die Isotopen in die Atmosphäre. Die geschmolzene Brennstoff-Masse am Boden hat rein zufällig bisher nicht die kritische Explosionsmasse erreicht, wie auch in Three Mile Island.

Bei einem nur mit Wasser moderierten Reaktor bilden sich an überhitzten Brennstäben Dampfblasen, diese moderieren schlechter als flüssiges Wasser, dadurch läßt die freigesetzte Leistung örtlich nach, mit örtlicher Abkühlung. Diese regelnde Sicherheitsfunktion fehlt beim Graphit- moderierten Reaktor, die Aufheizung geht weiter bis zum Abschmelzen des Brennstabs. Wenn aber gar die Graphithüllen der Brennstäbe noch zusätzlich von Wasser umspült werden, wie hier, zerlegt der heiße Graphit das Wasser in Wasserstoff, Kohlenmonoxid und Sauerstoff, und dieses Gas sammelt sich oben. Ein Funke, oder ein Teilchen, das mehr als 500 OC heiß ist, löst die chemische Explosion aus, deren Gewalt ausreicht, den Reaktordeckel abzuheben.

Deshalb gehören alle solche Reaktoren sofort abgeschaltet, es gibt deren viele. Auch der HTR benutzte Graphit; bei zufälligem Luftzutritt wäre in Hamm dasselbe passiert. Ich bin zum Glück schon alt und habe mein Leben gelebt. Aber die nächste große Reaktor-Katastrophe kommt bestimmt, gemäß Murphy, Ihr jüngeren Lemminge!

Prof. Dr. Albrecht Fischer Dortmund

Ein hochinteressantes Thema, ein Muß für jeden Ingenieur, ...doch halt, hat hier ein Computer eine Politbüroverlautbarung aus dem Russischen ins "Deutsche" übersetzt? Spaß beiseite, so geht es nicht, Sie machen den Ingenieur-Stand lächerlich!

Es ist doch die Behandlung solcher "Bauchthemen" , an denen wir Ingenieure in der Öffentlichkeit gemessen werden. Der Artikel vermittelt das Image des drögen Ing's, der nicht über das Reißbrett blicken kann. Sehen Sie, es gibt genügend publikumswirksame - flott geschriebene - aber inhaltlich schlechte Artikel, die VDI-Nachrichten sollten sich da nicht durch das Gegenteil inhaltlich korrekter, aber schlecht geschriebener, sondern durch fachlich hervorragende und leicht verständliche Artikel hervortun.

Dr. Wolfgang Beckmann, M.S.E. Wolfenbüttel

VDI-Nachrichten 17/91: "In Tschernobyl versagte die Technik" / "Katastrophe war unausweichlich"

"Nicht der Mensch, sondern die Technik hat in Tschernobyl versagt." So war es in den VDI-Nachrichten zu lesen. Ich finde, Sie und viele andere Medien machen es sich zu einfach. Wer oder was ist denn Technik, was verbirgt sich dahinter? Kann man der Technik überhaupt eine Schuld oder ein Versagen zuweisen?

Ich meine nein, denn hinter jeglicher Technik steht die menschliche Kreativität, das Planen und Umsetzen in die Realität. Harmonieren diese Abschnitte ohne Probleme, spricht man von der Faszination der Technik und heftet sich den Erfolg an die Brust. Harmoniert es nicht, gibt es Probleme oder gar Katastrophen, weil die Zusammenhänge kompliziert werden und nicht mehr eindeutig irgendwelchen Verantwortungsbereichen zugeordnet werden können, dann hat die Technik versagt. Hier steckt ein unverständlicher Widerspruch. Oder wird hier eine Wand aufgebaut, um sich dahinter zu verstecken? Wir sollten uns zu Fehlern bekennen, damit sie bekannt und künftig vermieden werden. Alles muß letztlich auf menschliches Versagen zurückgeführt werden, denn nur der Mensch macht und denkt, und manches Mal eben leider falsch oder nicht vollständig.

Dipl.-Ing. Nils Draeger Surberg

Der Bericht ist in zweifacher Hinsicht irreführend. Einerseits durch die einleitende Aussage "Nicht der Mensch, sondern die Technik hat in Tschernobyl versagt" , andererseits durch den abschließenden Hinweis auf das "Nachrüstungsprogramm zur Behebung der Mängel in der nur in der Sowjetunion existierenden RBMK-Baulinie" .

Die erste Aussage ist deshalb falsch, weil nicht die Technik versagt hat, sondern die Planer diesen problemhaften Betriebszustand nicht voraussahen und keine entsprechende Leittechnik installierten; mithin auch hier: menschliches Versagen.

Die zweite Aussage soll suggerieren, daß außerhalb der Sowjetunion derartige und ähnlich gelagerte Vorfälle nicht auftreten können. Auch das ist falsch. Abgesehen von ungezählten Reaktor-Störfällen "harmloser Art" , gab es - laut Presseberichten - vor Jahren im KKW Brunsbüttel in einem Schaltschrank Hinweise darauf, in welcher Zeit man in einem anderen Schrank Schaltungen vornehmen mußte, um eine Schnellabschaltung zu verhindern. Etwas mehr kritische Objektivität sollte man von den Autoren erwarten. Das auch im Hinblick auf die auch hier angelaufenen umfangreichen, kostenintensiven Nachrüstprogramme in diversen Reaktoren, ganz abgesehen von nicht erteilten Betriebsgenehmigungen. Auch bei uns sind Sicherheitslücken zu schließen, wozu sonst der Aufwand?!

Jochen Mextorf Buxtehude

Mehr Technik bringt mehr Verantwortung Ingenieure suchen den politisch-gesellschaftlichen Dialog VDI-N, Berlin, 17. 5. 91, moc -

Mit der technischen Entwicklung wächst auch die Verantwortung für die Technik. Über die Möglichkeiten des Ingenieurs, seiner persönlichen Verantwortung in diesem Prozeß gerecht zu werden, diskutierte der Deutsche Ingenieurtag in dieser Woche in Berlin. U m handeln zu können, brauchen wir Spielräume. Nur wo Freiheit zum Handeln besteht, kann Verantwortung zum Tragen kommen." Diese These von Prof. Dr.-Ing. Werner Niefer, Vorstandsvorsitzender der Mercedes Benz AG, faßte die grundlegende Problematik der Diskussionen am ersten Tag des Deutschen Ingenieurtages 1991 in Berlin zusammen: Unter welchen Rahmenbedingungen ist verantwortungsvolles Handeln von Ingenieuren möglich und die Übernahme welcher Verantwortung wird von ihnen verlangt? Die Antwort auf diese Frage fiel in den Beiträgen der Plenarversammlung recht unterschiedlich aus. Der Präsident des VDI, Dr.-Ing. Joachim Pöppel, forderte in seinem Beitrag insbesondere von der Politik "klare Rahmenbedingungen für verantwortliches Handeln - erst wenn die Frage: Verantwortlich wofür? unmißverständlich beantwortet ist, kann fairerweise die Übernahme von Verantwortung gefordert werden" .

Einen Schritt weiter ging der Präsident der französischen Sektion der deutsch- französischen Gesellschaft für Wissenschaft und Technologie, Prof. Ing. gen. Pierre Laffitte. "Die Speerspitze der Politik ist die Wirtschaft. Die Speerspitze der Wirtschaft sind die Ingenieure. In Zukunft müssen die Ingenieure mehr Verantwortung in der Politik tragen. Und je schneller, desto besser." Aber Laffitte ist sich darüber im klaren, daß neben der Bringschuld der Ingenieure auch eine gewisse Holschuld der Politik vorhanden ist: "Die Parteiführer sollten mehr Verständnis dafür entwickeln, daß die Politik in Zukunft viel mehr technische und wissenschaftliche Kompetenz erfordert."

Alle Redner waren sich einig, daß die Ingenieure zu wenig in die Verantwortung für die Ausgestaltung der gesellschaftlichen Zukunft integriert sind. Trotz aller Holschuld der Politik wiesen alle Redner deshalb auch darauf hin, daß vor allem die Ingenieure gefordert sind, sich mehr Gehör zu verschaffen: "Wir müssen" , so Pöppel, "unsere Mitbürger über sinnvolle technische Optionen für unser aller Zukunft informieren. Wir müssen die Chancen, aber auch die Risiken nennen." Die technische Intelligenz kann sich nicht aus der Entwicklung einer zunehmend komplexeren technischen Welt heraushalten: "Unsere Aufgabe" , so Pöppel, "ist es, realistische Hoffnungsszenarien zu entwerfen."

Nicht immer passen solche Szenarien nahtlos in die Bedürfnisse der Politik. Als einen "Ausnahmefall" wertete es Dr. Norbert Meisner, der Berliner Senator für Wirtschaft und Technologie, in seinem Grußwort, wenn einmal alle Ingenieure zu einem Thema "einer Meinung sind" .

S o ist letztlich auch die Entscheidung für die eine oder andere technische Entwicklung eine Frage des "Interessenausgleichs und der demokratischen Meinungsbildung" (Pöppel). Und an der muß sich der Ingenieur beteiligen, will er nicht das Feld denen überlassen, die sich vor unangenehmen Entscheidungen drücken und damit letztlich der Glaubwürdigkeit von Ingenieuren und der öffentlichen Akzeptanz neuer Techniken einen Bärendienst erweisen: "Zwar haben" , so Pöppel, "unsere Fähigkeiten, Risikopotentiale nicht zu Risiken werden zu lassen, im Laufe der Zeit zugenommen. Jedoch vorzugaukeln, es könne mit oder ohne Technik eine risikofreie Welt geben, ist unehrlich und politisch ungeheuer dumm."

Die Frage, so der Tenor aller drei Referate, ist nicht die, ob man aus bestimmten Technologien aussteigen soll oder kann, sondern wie man die technische Entwicklung gestalten will, welche Wege zur Gestaltung unserer Zukunft realisierbar sind. Der von Laffitte geforderte direkte Weg des Ingenieurs in die Politik war bis heute wenig erfolgreich, nimmt man die geringe Zahl von Volksvertretern mit einer natur- oder ingenieurwissenschaftlichen Ausbildung in den nationalen und regionalen Parlamenten der hochentwickelten Industrienationen zum Maßstab. Aber dennoch bleibt Laffitte zuversichtlich: "Die Politik ist viel zu wichtig und bedeutungsvoll, um sie nur den Berufspolitikern zu überlassen. Auch die Ingenieure müssen in Zukunft das Steuer in die Hand nehmen."

Der zweite Weg ist eher der, den Niefer und Pöppel gehen wollen: Sie fordern von der Politik, daß sie sich die Kompetenz der technischen Intelligenz bei ihrer Entscheidungsfindung stärker zunutze macht und damit die immer einflußreicheren technologischen Rahmenbedingungen politischer Entscheidungen berücksichtigt.

Aber auch auf den darunterliegenden Ebenen können Rahmenbedingungen für die Verantwortung des einzelnen Ingenieurs definiert werden: "Konkrete Unternehmens-Leitsätze zum Umweltschutz" , so die Erfahrung von Niefer, "erleichtern es den einzelnen Gliedern im Unternehmen, ihr Tun auf unsere Verantwortung für die Umwelt abzustellen." Auch das ist ein stetiges Ausbalancieren von individueller Verantwortung, betrieblichen und politischen Interessen. "Das bedeutet" , so Niefer, "daß wir unsere Prinzipien, unsere Normen und Handlungs-Leitlinien immer wieder in einer Art Regelkreis anhand der tatsächlichen Auswirkungen überprüfen lassen."

All das passiert aber immer vor dem Hintergrund, daß das Nachdenken über Verantwortung das Handeln nicht ersetzen kann: "Wir sind bereit und in der Lage, verantwortlich Risiken abzuwägen" , so Pöppel, "danach aber müssen wir auch handeln: Wer Menschen helfen will, darf nicht bei seinen Ängsten stehenbleiben, Angst darf nicht zum bestimmenden Maßstab unserer Entscheidung werden."

Mit Tempo 250 von Hannover nach Berlin Der "Preußenexpreß" geht 1997 auf die Schiene Bundesbahnchef Heinz Dürr stellt weitere Hochgeschwindigkeitsstrecken vor - Von Paul Kalinowski VDI-N, Frankfurt, 17. 5. 91 -

Mit dem neuen Sommerfahrplan im Juni beginnt auch für die Deutsche Bundesbahn die Hochgeschwindigkeits-Ära. Die Vorbereitungen für den Bau weiterer ICE-Strecken laufen, so Heinz Dürr im Gespräch mit den VDI-Nachrichten, auf Hochtouren. Der Vorstandsvorsitzende der DB plant die Fertigstellung der Strecke Hannover -

Berlin noch vor der Rheinmagistrale.

VDI-Nachrichten: Auf das Filetstück des Hochgeschwindigkeitsverkehrs (HGV) in Deutschland, die rechtsrheinische InterCityExpress-Linie Köln-Frankfurt/Main, warten auch unsere Nachbarn. Welchen Planungsstand hat das Vorhaben erreicht und wann ist frühestens mit der Inbetriebnahme dieser Strecke zu rechnen?

Dürr: Die Vorschlags-Trasse der DB sieht einen Verlauf von Köln über Siegburg und Limburg nach Frankfurt-Flughafen entlang der Bundesautobahn A 3 sowie eine Verbindungskurve bei Eddersheim zur Strecke Wiesbaden - Frankfurt und ab Breckenheim nach Wiesbaden- Hauptbahnhof vor. Bei zügigem Fortlauf der Planungsabstimmungen rechnen wir mit einer Inbetriebnahme bis zur Jahrtausendwende. Um den Bau der für die Zukunftspläne der Bundesbahn so wichtigen Neubaustrecke Köln - Rhein/Main zu beschleunigen, hat der Vorstand der DB am 5. März 1991 die kürzeste und günstigste Lösung vorgeschlagen.

VDI-Nachrichten: Und was wird diese Lösung kosten?

Dürr: Diese Trasse erfordert ein Investitionsvolumen von 5,4 Mrd. DM. Würden alle Wünsche der beteiligten Länder und Kommunen berücksichtigt, lägen die Kosten allerdings 2 Mrd. DM höher. Dabei wäre eine solche aufwendigere Trassenführung keineswegs umweltfreundlicher. Aus wirtschaftlichen Gründen muß die Bahn eindeutig für die von ihr vorgeschlagene Lösung plädieren.

VDI-Nachrichten: Ist mit dem Prozedere des Raumordnungsverfahrens schon begonnen worden?

Dürr: In einem Gespräch mit der nordrhein-westfälischen Landesregierung wurde am 22. März bekräftigt, daß die ICE-Verbindung Rhein/Ruhr - Rhein/ Main gerade aus umweltpolitischen Gründen besonders dringlich ist. Kurzfristig wird die DB jetzt die notwendigen Unterlagen für eine Grobuntersuchung bereitstellen, in die alle fünf relevanten Trassenvarianten einbezogen werden. Diese Grobuntersuchung soll nach drei Monaten abgeschlossen sein. Auf der Basis einer Vorschlags-Trasse soll dann noch 1991 das Raumordnungsverfahren eingeleitet werden. Für den Köln/Bonner Flughafen soll mit Vorrang eine S-Bahn-Anbindung realisiert werden. Dabei wird von Anfang an eine ICE-taugliche S-Bahn-Strecke geplant, die für einen S-Bahn-Halt am Flughafen erweitert werden kann.

VDI-Nachrichten: Wie weit sind eigentlich die Vorbereitungen für das Schnellbahn-Vorhaben Paris - Brüssel - Köln - Frankfurt gediehen und der Trassenverlauf auf deutscher Seite?

Dürr: Der derzeitige Stand der Planungen läßt folgende Realisierungsschritte zu: Neubaustrecke Paris - Lille 1993, Neubaustrecke Lille - Brüssel und Ausbaustrecke Aachen - Köln 1995 sowie Neubaustrecke Brüssel - Aachen 1998. Wie bei allen grenzüberschreitenden Vorhaben erfolgen auch hier die Planungen in enger Abstimmung mit den Nachbarländern bzw. Nachbarbahnen. Für das gesamte Vorhaben sind rund 16 Mrd. DM zu investieren. Der Ausbau Aachen - Köln erfordert 500 Mio. DM, was eine Geschwindigkeit von mindestens 200 km/h ermöglicht.

VDI-Nachrichten: Wo nimmt die DB das Geld für die Ausbaumaßnahmen her - denkt sie nicht auch an private Finanzierung?

Dürr: Im Rahmen des jährlichen Bundesbahnhaushaltes werden für die DB entsprechende Mittel bereitgestellt. Über eine private Finanzierung werden durch den Bundesbahnminister für Verkehr Überlegungen angestellt, allerdings liegen derzeit noch keine konkreten Ergebnisse vor.

VDI-Nachrichten: Hat der Preußen- Express, die Schnellbahnverbindung Hannover - Berlin, aus politischen Gründen eine höhere Priorität als die Neubaustrecke Köln - Rhein/Main?

Dürr: Die Planungen beider Vorhaben werden mit Nachdruck fortgesetzt, wobei der Stand für die Strecke Hannover - Berlin etwas weiter fortgeschritten ist. Wir rechnen mit einer Aufnahme des Betriebs auf der gesamten Strecke Hannover - Berlin für 1997. Die Strecke führt von Hannover über Lehrte - Wolfsburg -

Oebisfelde und Stendal nach Staaken -

Berlin Zoo bis zum Berliner Hauptbahnhof. Nach derzeitigem Stand sind etwa 4,5 Mrd. DM erforderlich. Darin sind allerdings einige Verbindungsstücke noch nicht berücksichtigt. Die Finanzierung ist in einem besonderen Titel des Bundeshaushalts gesichert.

VDI-Nachrichten: Werden bei der Planung von Hochgeschwindigkeitsstrecken in Deutschland auch außerdeutsche Gremien zu den Überlegungen hinzugezogen?

Dürr: Die Gruppe der EG-Bahnen sowie Österreichs und der Schweiz haben ein europäisches Hochgeschwindigkeitsnetz konzipiert. Dieses ist ein wichtiger Schritt zur Verknüpfung der nationalen Hochgeschwindigkeitsstrecken. Durch die Öffnung nach Osten wird dieses Netz noch zusätzliche Erweiterungen erfahren. Gerade vor diesem Hintergrund sind natürliche intensive Abstimmungsgespräche selbstverständlich.

Analyse deckt Defizite nordamerikanischer Branchen im internationalen Technologie-Rennen auf Ausländische Wettbewerber bedrohen US-Industrien Künftig sollen kommerzielle Technologien höher eingestuft werden als militärische Programme - Von Werner Schulz VDI-N, Santa Barbara, 17. 5. 91 -

Kein Tag vergeht, an dem in den amerikanischen Medien nicht der Verlust von früher bedeutenden Industrien oder Technologien an ausländische Wettbewerber beklagt und angeprangert wird. Mit einer neuen Studie des "Council on Competitiveness" in Washingon richtet sich nun der Blick nach innen: auf die Erneuerung der eigenen Strukturpolitik.

W arum können wir keine Videorecorder bauen, wenn wir Patriot- Raketen bauen können?" Clyde Prestowitz müßte die Antwort eigentlich wissen: Er ist Präsident des Economic Strategy Institute in Washington, einer der zahlreichen "Think-Tanks" , die den amerikanischen Handelspolitikern mit kritischen Kommentaren, aber auch Aufmunterung zur Seite stehen. Antwort: "Um die Patriot-Raketen kümmern wir uns wirklich."

Das sieht wie Resignation aus, ist aber eher ein Resumee der Prioritäten der industriellen, wenngleich nie offiziell formulierten Industriepolitik der USA. Bisher, seit den späten 70er Jahren, dominierten die militärischen Programme zuungunsten der zivilen Infrastruktur. Prestowitz' Argument ist ein Aufruf zur Umkehr, zurück zur höheren Einstufung der kommerziellen Technologien und auch ein gewichtiges Gegenargument zur undifferenzierten High- Tech-Euphorie nach dem Golfkrieg.

Die Kausalverbindung zwischen militärischer Effektivität und unschönen Rückzügen im Wettbewerb auf den internationalen Märkten haben seit geraumer Zeit auch die militärischen Planer auf der Zunge: "Die Verteidigung liegt nicht mehr vorn" , räumte der frühere Pentagon-Beschaffungs- Chef Robert Costello kürzlich in einem Interview mit der New York Times ein. "In vielen Fällen nutzt sie nicht einmal die neuesten Technologien."

Die Patriot-Raketen sind, wie die Cruise- Missiles Tomahawk, runde zwanzig Jahre alt und in mancherlei Hinsicht plumper und primitiver als die meisten der heutigen Personalcomputer. Die Ersatzteilversorgung für diese Oldtimer ist genauso problematisch wie kostspielig.

Da hilft offenbar nur eins: ein mutiger Schnitt. "Viele US-Industrien, die von den Verteidigungs-Technologieprogrammen profitiert haben, sind heute von ausländischen Wettbewerbern bedroht." Das ist das Ergebnis einer groß angelegten Analyse des Council on Competitiveness in Washington, mit dem weit ausholenden Titel "Gaining New Ground: Technology Priorities for America's Future" .

Neuen Boden unter die Füße zu kriegen, mit zukunftssetzenden Technologie-Prioritäten, hat sich dieser hochkarätige Wettbewerbsrat der US-Industrie, schon 1986 ins Leben gerufen, zum Ziel gesetzt. Er vereint an die 140 prominente Industrieführer nebst Vertretern der Universitäten und Gewerkschaften. Vorsitzender in diesem Jahr ist George Fisher von Motorola, nach John Yuong, Chef von Hewlett Packard.

Die Aufbruchstimmung und Ungeduld mit der bisherigen Technologiepolitik ist unverkennbar, besonders in der strikten Trennung von militärischen und kommerziellen Technologien: "Vielen kommerziellen Herstellern der USA wurde der Zugang zu wichtigen Auslandsmärkten verwehrt." Auch die bevorstehenden Streichungen im Verteidigungshaushalt fordern neue Denkweisen: "Die US-Industrie muß sich auf die Kommerzialisierung und Integrierung von neuen Technologien konzentrieren." Flexibilität, hohe Qualität bei niedrigen Fertigungskosten, Erfahrung in der Massenfertigung und Zugriff zu vielen, verschiedenen Märkten sind somit die neuen Prioritäten.

Das ist eine rigorose Bestandsaufnahme der gegenwärtigen industriellen Basis. "Wir haben eine tiefgehende Analyse von neun großen technologie-intensiven Industrien unternommen" , erläutert Fisher die Stoßrichtung der Studie. "Luft- und Raumfahrt, Chemo-Technologien, Computer und Software, Bauwirtschaft, Pharmazie, Elektronik, Maschinenbau und Telekommunikation." In vielen dieser Industriezweige hatten die USA seit dem Zweiten Weltkrieg unangefochten die Führungsrolle - in einigen Feldern, wie der Mikroelektronik, bis zum Ende der 70er Jahre.

Damit ist es jetzt, pauschal gesehen, vorbei. Von 94 untersuchten "kritischen Grundlagentechnologien" in fünf industriellen Sektoren (Materialverarbeitung, Ingenieurwesen und Produktionsverfahren, elektronische Bauelemente, Informationstechnik, Antriebstechnik) können sich die USA, so die Studie, nur in 31 Fällen auf ihre absolute Stärke verlassen. In 30 weiteren Gebieten sind sie "wettbewerbsfähig" . Und in den verbleibenden 33 Technologie-Komplexen fühlen sie sich "schwach" oder haben aufgegeben.

Über die Methodik ihrer Analyse, was "stark" , "wettbewerbsfähig" und "schwach" nun eigentlich bedeuten: Forschungsstand, Implementation in industrielle Prozesse, Infrastruktur, Marktabdeckung oder nur Reflexion der gängigen öffentlichen Meinungen, darüber schweigen sich die Council-Mitglieder wohlweislich aus.

Wo sehen die Amerikaner die immer noch unangefochtenen Stärken ihrer Industrien? Vor allem in der Materialforschung und in den Biotechnologien, in CAD und bei den Mikroprozessoren, in Video, Grafik, Zeichen- und Spracherkennung, in den neuronalen Netzwerken der Künstlichen Intelligenz, im Software-Engineering und bei den Raketentriebwerken.

Mindestens auf der Höhe mit den Wettbewerbern in Europa und Fernost sieht das Council die Metal-Matrix-Composites und die optischen Materialien, die Polymere, Logik- und Sensorchips, die digitale Kommunikation und die Spektrum-Codierung sowie die Fabrikautomatisierung CIM. Schwach hingegen fühlen sich die US-Strategen dem Gebiet der Dünnfilmtechnik, in der Fertigungsoptimierung, in der Metallbearbeitung, bei den wissenschaftlichen Geräten und in der Präzisionsmechanik, in der Qualitätskontrolle, bei den Aktuatoren, in der Elektrostatik, der Lasertechnik und Photonik.

Weit abgeschlagen oder verloren erscheinen in dieser Perspektive die einstigen stolzen Pionier-Positionen in der Anzeigetechnik, in der Elektrokeramik, der Gehäusetechnik, bei den Silizium- und Galliumarsenid-Materialien, in der IC-Fertigung und Test der Chips, in der Robotik und der Fertigungsautomation, bei den Elektrolumineszenz- und Flüssigkristall-Displays, in der Elektro-Optik allgemein und in der Leiterplattentechnik.

S o verheerend diese (notgedrungen abgekürzte) Auflistung klingt, so nüchtern und unerschrocken sieht der Wissenschaftsberater des US-Präsidenten, der Harvard-Professor Allan Bromley, die Lage: "Die USA haben nach wie vor die stärkste Wissenschafts- und Technologie-Basis, die die Welt je gesehen hat." Aber die Bush-Administration ist offenbar gewillt, dem dringenden Ruf der Industrie zu folgen. Die Grundlagenforschung, so lange sie im Vorfeld des Wettbewerbs verbleibt und keine spezifischen Projekte wie HDTV oder LCD-Displays begünstigt, soll nach dem Vorbild der Europäer und Japaner gestärkt und ausgebaut werden.

Die Council-Sprecher machen dazu detaillierte Vorschläge an ihre Regierung: Erhöhung der US-Forschungs-Etats ab 1993, direkte Einspannung der bisher erfolgreichsten und bestfundierten Forschungsgremien, vor allem der National Science Foundation und der Defense Advanced Research Projects Agency, für die neuen Ziele der Industrie, günstigere Abschreibungsprozeduren und permanente Steuer-Erleichterungen für Forschung und Entwicklung. Infrastruktur - die vernachlässigte Größe der Reagan-Ära - scheint wieder an Boden zu gewinnen.

PI80 PI80 PI80 PI80 PI80 PI80 PI80 PI80 PI80 PI80 PI80 PI80 EG-NACHRICHTEN

Eine Vereinbarung zwischen TV-Programmanbietern, Satelliten-Betreibern und der Elektronikindustrie für das hochauflösende Fernsehen (HDTV) steht nach Angaben in EG-Kommissionskreisen kurz vor dem Abschluß. Wie in Brüssel bestätigt wurde, sind sich die Beteiligten prinzipiell über den Weg zu HDTV einig. Danach ist beabsichtigt, am zuletzt umstrittenen D2-Mac-Standard festzuhalten. Dieser soll als Vorstufe zur HD- MAC-Norm eingeführt werden, die ab 1995 gelten wird. Unklar sei noch, ob und auf welche Weise Programmanbieter und Ausrüstungshersteller kompensiert werden sollen, die bereits andere Standards verwenden, hieß es von Kommissionsseite.

Die EG wird die Errichtung von drei kompletten Telefonnetzen in Polen finanzieren. Ein entsprechendes Memorandum ist PAP zufolge im polnischen Ministerium für Kommunikation unterzeichnet worden. Die Netze sollen in den Wojewodschaften Poznan, Krakow und Siedlce entstehen. Die EG stellt für die Projekte, die in einem Zeitraum von 18 Monaten verwirklicht werden sollen, sechs Mio. Dollar zur Verfügung.

Der Europäische Gerichtshof hat mit einem jetzt in Luxemburg verkündeten Urteil das Arbeitsvermittlungsmonopol der Bundesanstalt für Arbeit, Nürnberg, in wesentlichen Teilen für EG-rechtswidrig und damit von sofort an für unanwendbar erklärt. Das Urteil erging in einem Vorabentscheidungsverfahren, vorgelegt vom OLG München. Ausgangspunkt war ein Honorarrechtsstreit zwischen einem Personalberater und seinem Auftraggeber, der sich unter Berufung auf das im Arbeitsförderungsgesetz (AFG) verankerte Vermittlungsmonopol der Bundesanstalt geweigert hatte, das vereinbarte Honorar zu zahlen. Der Personalberater argumentierte, wie es in einer Meldung des Bundesverbandes Deutscher Unternehmensberater, Bonn, heißt, das Vermittlungsmonopol verstoße, soweit es die Betätigung deutscher Personalberater für Auftraggeber oder Bewerber aus anderen EG-Mitgliedsländern oder die Tätigkeit ausländischer Personalberater in Deutschland betreffe, gegen EG-Recht und sei insoweit unanwendbar. Weil daher aber ausländischen Personalberatern ihre Tätigkeit in Deutschland nicht untersagt werden dürfe und könne, verstoße es gegen das Gleichbehandlungsprinzip (Art. 3 GG), wenn deutschen Personalberatern dieselbe Betätigungsmöglichkeit vorenthalten werde, denn ein sachlicher Grund für diese Differenzierung sei nicht erkennbar. Den ersten Teil dieser Argumentation hat der Europäische Gerichtshof (Az.: C-41/90) jetzt durch sein Urteil in vollem Umfang bestätigt. Der zweite Teil wird einem weiteren Vorlageverfahren zum Bundesverfassungsgericht vorbehalten sein.

Auf Vorschlag des EG-Beratungsausschusses für industrielle Forschung und Entwicklung (Irdac) hat die Kommission das Modellvorhaben Craft (Cooperative Research Action for Technology) initiiert. Das Programm zielt in erster Linie auf kleine und mittlere Unternehmen, aber auch auf Hochschulinstitute und Laborgemeinschaften, die über keine oder nur kleine eigene Forschungsabteilungen verfügen und Forschungsaufträge an Dritte vergeben. Craft ist ein Teil des neuen EG-Programms für Werkstofftechnologie als Nachfolger des noch laufenden Brite/Euram Programms. Es ist mit 670 Mio. Ecu für 4 Jahre ausgestattet und wird voraussichtlich im Juli 1991 genehmigt.

Die EG-Länder werden in den nächsten 10 Jahren die USA im Wirtschaftswachstum überflügelt haben. Zu diesem Schluß kommt ein Prognos World Report des Baseler Prognos-Instituts. Während in den letzten Jahren die USA immer hinter dem Spitzenreiter Japan lag, wird Europa in den 90er Jahren diesen zweiten Platz einnehmen und die USA auf den dritten Platz verdängen. Auf die einzelnen EG-Länder werden sich nach der Studie die Wachstumsgewinne sehr unterschiedlich verteilen. Am positivsten wird sich die Entwicklung in der Bundesrepublik Deutschland niederschlagen, gefolgt von Großbritannien und den Niederlanden.

Auf einen drastischen Rückgang der Regionalbeihilfen für die alten Bundesländer haben sich der für die Wettbewerbspolitik zuständige EG-Kommissar, Leon Brittan, mit Bundeswirtschaftsminister Jürgen Möllemann geeinigt. Bisher umfassen die Fördergebiete in den alten Bundesländern 39 % der Bevölkerung. Dieser Prozentsatz soll auf 27 % verringert werden. In den neuen Bundesländern und Berlin-Ost können Investitionshilfen von bis zu 23 % vergeben werden und regionale Beihilfen von einer kumulierten Höchstgrenze von bis zu 35 %. Zugleich einigten sich Brittan und Möllemann auf einen Wegfall der Zonenrand- und Berlinförderung . In einem gestuften Zeitplan sollen bis 1994 auch die letzten Förderinstrumente aus diesen beiden Bereichen abgebaut sein.

Der ICE als Medizin gegen den Verkehrsinfarkt

Während in den letzten 40 Jahren das bundesdeutsche Straßennetz um mehr als 150000 km wuchs, wurden bis heute lediglich rund 500 km Schienenstrecke neu errichtet. Je mehr der Verkehrsinfarkt auf der Straße droht, desto mehr wird die Bahn zum Hoffnungsträger. Um dem selbstgesteckten Ziel "doppelt so schnell wie das Auto, halb so schnell wie das Flugzeug" entscheidend näherzukommen, sind dringend weitere Hochgeschwindigkeitsstrecken zwischen den Europäischen Metropolen nötig. Gerade auf mittellangen Business-Strecken wie München - Frankfurt, Frankfurt - Köln oder Hannover - Berlin kann die Bahn mit Klientel rechnen, das mehr auf die Uhr als in den Geldbeutel sieht und gerne den Aufpreis für den schnellen ICE zahlen wird. Zu den Vorbereitungen für den Ausbau der 250-km/h-Trassen, auf denen auch der neuentwickelte InterCityExpress (ICE) fahren wird, äußerte sich Bundesbahnchef Heinz Dürr gegenüber den VDI-Nachrichten in Frankfurt.

Investorentreffen der Treuhand Schwerin Unkonventionell auf der Suche nach Kapital Die Treuhand wird noch lange in den neuen Bundesländern gebraucht - Von Wolfgang Mock VDI-N, Schwerin, 17. 5. 91 -

Das gegenwärtig noch ärmste Land der neuen Bundesrepublik - Mecklenburg-Vorpommern - sucht nach Mitteln und Wegen, diesen Makel möglichst schnell loszuwerden. Vergangene Woche lud die Treuhand Schwerin zu einem Investorentreffen mit Blasmusik und Volkstanz.

W em danach war, der konnte sich bereits am frühen Morgen den Magen verderben. Heerschaaren von Kindern in schwarz-weiß-roten Trachten belagerten den Eingang des Schweriner Staatstheaters und streckten den Besuchern Berge von Schokoladentrüffeln in allen Varianten und Brot mit Salz entgegen. Die Treuhand Schwerin hatte gerufen, und an die siebenhundert potentielle Investoren waren gekommen.

Für einen Tag wurde der Musentempel der Stadt von den Repräsentanten der örtlichen Wirtschaft und anlagewilligen Unternehmern aus den alten Bundesländern entweiht. Im Foyer und in den Theatergängen präsentierten sich fast ein halbes Hundert Unternehmen, Banken, Landkreise: da stand das ehemalige Renommier-Hotel der Stadt, das Hotel Schwerin, zum Verkauf, die Grabower Dauerbackwaren suchten ebenso wie die Mallisser Ziegelwerke kapitalkräftige Investoren, der Landkreis Ludwigslust lockte "entschlußfreudige Unternehmer" . Auf der Bühne tanzten Trachtengruppen zu Blasmusik, und durch die Menschenmassen zwängten sich die unvermeidlichen Kinder mit Schokoladentrüffeln. Möglich gemacht hatte das ganze eine Reihe von Sponsoren aus den alten Bundesländern.

Prominent vertreten war vor allem die Treuhand selbst. Unter den alten Stuckdecken des Theaters riefen ihre Computer ununterbrochen die Daten der zum Verkauf stehenden Grundstücke und Unternehmen ab. Potentielle Käufer wurden umgehend in einer großen Limousine bayrischer Bauart zum Objekt ihres Interesses chauffiert. Karl-Heinz Rüsberg, Treuhand- Chef in Schwerin, artig: "Ich danke auch diesem Sponsor" . Und das Interesse war groß, groß genug, um Rüsberg von einem "Quantensprung in Richtung Zukunft" sprechen zu lassen.

Den braucht das Zwei-Millionen-Land dringend. Die Arbeitslosenrate liegt deutlich über 11 % - mit steigender Tendenz. Dazu kommen einzelne Regionen, die es besonders stark getroffen hat: Im Bezirk Schwerin mit seinen 165 000 Einwohnern sind heute bereits 30 000 Menschen arbeitslos und 60 000 in Kurzarbeit. Schon im März befürchtete Wirtschaftsminister Conrad-Michael Lehment (FDP) Arbeitslosenquoten von bis zu 50 % für einzelne Regionen seines Landes.

Und vieles spricht dafür, daß er Recht behält. Allein knapp 40 % aller industriellen Arbeitnehmer in Mecklenburg-Vorpommern waren im Bereich Schiffbau tätig, davon 40 000 in der Deutschen Maschinen- und Schiffbau AG. Nach den jetzt geplanten Sanierungsvorhaben wird nur 20 000 ihren Arbeitsplatz behalten. Aber selbst das wird nur gelingen, wenn diese Werften ihre alten Kunden nicht verlieren. "Wir unternehmen große Anstrengungen" , so Lehment, "um den sowjetischen Markt nicht gänzlich wegbrechen zu lassen."

Unternehmen von der Größe der Deutschen Maschinen- und Schiffbau AG werden zentral von der Treuhand in Berlin bearbeitet, Unternehmen unter 500 Mitarbeitern stehen unter der Obhut der regionalen Treuhand-Filialen. In der Praxis hat sich diese Trennung auch in Schwerin nicht immer bewährt: "Selbst wenn wir einen Interessenten nur für einen Unternehmensteil wie eine Lagerhalle oder ähnliches haben, müssen wir ihn erst nach Berlin schicken, wenn es sich um ein großes Unternehmen handelt" , schildert ein Mitarbeiter der Schweriner Treuhand-Niederlassung seine Erfahrungen. "Das geht dann oft nur mit größeren Reibungsverlusten." Und die können erheblich sein. 92 Unternehmen im Bezirk Schwerin liegen noch immer im Verantwortungsbereich der Berliner Zentrale, um 225 Unternehmen kümmert sich die Niederlassung vor Ort.

Und deren Arbeit zeigt allmählich Wirkung. 70 Unternehmen oder Unternehmensteile haben Rüsberg und seine Mitarbeiter mittlerweile weiterverkaufen können. Die Tendenz geht dabei weg von der reinen Privatisierung zu einer Sanierung derjenigen Unternehmen, bei denen es noch Sinn macht. Damit wachsen aber auch die Anforderungen: die Schweriner Treuhand wuchs in den letzten zehn Monaten von 12 auf 96 Mitarbeiter an.

Die größten Probleme haben die ehemaligen Vorzeigebetriebe

Doch auch damit lassen sich nicht alle Unternehmen retten. Von den insgesamt 225 von der Treuhand verwalteten Unternehmen sind knapp 100 im engeren Sinne Industrieunternehmen, vorwiegend aus den Bereichen Leicht- und Verarbeitungsindustrie Von denen sind bisher 30 verkauft. Von den restlichen 70, so Treuhand-Mitarbeiter Eberhard Bethge, "dürften es 20 sehr schwer haben" zu überleben, 30 haben eine gute Chance, beim Rest wird "die Zukunft zeigen was wird" . Überraschend ist dabei, daß es gerade die ehemals hochsubventionierten Vorzeigebetriebe sind, die jetzt die größten Probleme haben. "Die, die schon vor der Wende an der Effektivitätsschwelle krebsten" , beobachtet Bethge, "schlagen sich auch in der Marktwirtschaft am besten."

Doch um diese Unternehmen nach westlichen Maßstäben wettbewerbsfähig zu machen, ist noch viel Geld - nicht zuletzt auch von der öffentlichen Hand - notwendig. 50 % des Grundkapitals, schätzt Bethge, müssen erneuert werden. Das reicht von der Boden- und Gebäudesanierung bis zum Maschinenpark: "Was hier vor allem fehlt, ist moderne Technologie." Ein aus Anlaß des Investorentags von der Treuhand Schwerin herausgegebenes Handbuch mit ausgewählten Immobilienprojekten belegt das im Detail: Die Produktionsmittel sind - nach Angaben der Unternehmen - bis zu 30 Jahre alt, "und älter" kommentiert ein Interessent aus dem Westen.

Die Probleme der Treuhand liegen aber nicht nur dort. Im Schnitt gibt es in Schwerin für jedes zum Verkauf stehende Projekt ein bis zwei Interessenten, hauptsächlich aus den alten Bundesländern, nur einige wenige aus den skandinavischen Ländern, aus Holland und aus Frankreich. Aber immer wieder haben die Treuhand-Mitarbeiter selbst noch kurz vor dem notariellen Vertragsabschluß "böse Überraschungen" erlebt: "Nicht immer" , umschreibt Bethge vornehm die Tatsache, daß die Treuhand auch manchem unseriösen Verhandlungspartner aufgesessen ist, "war die Bonität vorhanden" . Aus dem Schaden hat man in Schwerin gelernt: "Ohne Bonitätsnachweis läuft nichts mehr."

D abei geht es nicht immer um den Preis des Unternehmens. "Wir wollen vor allem Spekulationsgeschäfte vermeiden. Wir wollen die Sicherheit, daß das Unternehmen weiter bestehen bleibt" , so Bethge. Deshalb wechseln manche Betriebe den Besitzer auch schon mal für den symbolischen Preis von 1 DM. Der Käufer muß allerdings nicht selten Altschulden in zweistelliger Millionenhöhe übernehmen, und im Kaufvertrag ist zudem die Zahl der Arbeitsplätze und die Summe der Investitionen über einen bestimmten Zeitraum festgeschrieben. "Vertragsstrafen sind durchaus drin."

Bis Ende dieses Jahres, hofft Bethge, wird der "wesentliche Anteil" zumindest der Industrieunternehmen verkauft sein. Die Aufgabe der Treuhand ist damit aber noch lange nicht vorbei, und Kenner schätzen, daß sie auch die nächsten Jahre nicht von der Bildfäche der neuen Bundesländer verschwindet. So stehen in den Kaufverträgen Klauseln, die dem Käufer ermöglichen, beim Auftreten von Altlasten, die zum Zeitpunkt des Vertragsabschlusses nicht bekannt waren, erneut mit der Treuhand über die Sanierungskosten zu verhandeln. Zudem muß die Treuhand kontrollieren, ob die vertraglich festgelegte Zahl von Arbeitsplätzen erhalten bleibt und die Investitionen auch tatsächlich anlaufen. Und schließlich gibt es in vielen Verträgen eine Rückfallklausel, die dem Käufer ermöglicht, das Objekt nach ein bis zwei Jahren an die Treuhand zurückzugeben. "Es kann gut sein, daß wir dann wieder mit den Unternehmen dastehen, die überhaupt nicht mehr zu retten sind" , befürchten einige Mitarbeiter der Schweriner Filiale.

Aus Sicht von Wirtschaftsminister Lehment wird das aber nicht an den Mitarbeitern in den Unternehmen liegen: "Die Menschen hierzulande sind hochmotiviert." An der Front des wirtschaftlichen Aufbruchs wird diese Meinung jedoch nicht immer geteilt. "Was uns noch immer bremst" , so Gerd Güll, Präsident des Unternehmerverbandes von Mecklenburg-Vorpommern, " ist nach wie vor die Eigentumsfrage." So sitzt die Stadtverwaltung von Schwerin noch immer auf 460 Gewerbeflächen, sie längst hätten verkaufen können. 11 Mio. DM an Fördermitteln vom Land Schleswig- Holstein mußten zurückgegeben werden, weil die Stadt ein Gewerbegebiet im Süden nicht rechtzeitig zur Verfügung stellte. Jetzt will Güll eine härtern Kurs einschlagen: "Wenn die verantwortlichen Damen und Herren das nicht schaffen, dann müssen eben andere ran."

PROGNOSEN UND MEINUNGEN

Arbeitslose in Ostdeutschland sollen für ein halbes Jahr die Möglichkeit erhalten, schon mit 55 Jahren in den vorgezogenen Ruhestand zu gehen. Bundesarbeitsminister Norbert Blüm sagte in Bonn nach einem Gespräch mit Finanzminister Theo Waigel, die Altersgrenze für das Altersübergangsgeld werde von 57 auf 55 Jahre gesenkt. Die Regelung soll am 1. Juli in Kraft treten, gilt aber nur bis Jahresende. Er erwarte von der Senkung der Altersgrenze eine arbeitsmarktpolitische Entlastung. Etwa 100000 Ostdeutsche kämen in den Genuß dieser Maßnahme.

Angesichts der jüngsten Tarifvereinbarungen und der bevorstehenden Steuererhöhungen wird nach Auffassung des Präsidenten der Landeszentralbank in Bayern, Lothar Müller, der Preisdruck kräftig zunehmen. Ab dem nächsten halben Jahr werde in der Preisentwicklung "eine ganz steife Brise" anstehen, erklärte Müller, der als LZB-Präsident zugleich im Zentralbankrat der Deutschen Bundesbank vertreten ist. Da die Tariferhöhungen deutlich über dem Produktivitätsfortschritt lägen, müßten die Unternehmen Lohnstückkostensteigerungen von gut 5% verkraften. Mit einer Inflationsrate zum Jahresende in Höhe von 3,5% bis 4% gerechnet werden.

Der Präsident des Deutschen Sparkassen- und Giroverbandes, Helmut Geiger, hat davor gewarnt, um jeden Preis die vorgesehenen Termine für die Europäische Währungsunion (EWU) einzuhalten. Die EWU könne nicht nach der Stoppuhr errichtet werden, sagte Geiger in seiner Funktion als Vorsitzender der Gemeinschaft zum Schutz der deutschen Sparer in Bonn. Die Bundesregierung solle daher möglichst an ihrer Linie festhalten und sich nicht auf falsche Kompromisse einlassen. Erst müßten gleiche Überzeugungen, gleiche Politiken und gleiche Ergebnisse das Fundament für eine gemeinsame Währungspolitik tragen.

Mit großer Sorge betrachtet Bundeswirtschaftsminister Jürgen Möllemann die derzeitige Lohnpolitik in den neuen und auch in den alten Bundesländern. Die hohen Forderungen bei den derzeit anstehenden Tarifverhandlungen im Westen berücksichtigten nicht die Rückwirkung auf die neuen Länder. Hohe Abschlüsse im Westen drängten via Tarifkopplung die ostdeutsche Wirtschaft in einen Teufelskreis, gefährdeten die Stabilität und beeinträchtigten die Investitionsneigung . Natürlich sei ein starkes Lohngefälle in einem Staats- und Wirtschaftsgebiet mit einem gemeinsamen Markt auf längere Sicht nicht durchhaltbar. Eine möglichst schnelle Angleichung an Westniveau ohne Rücksicht auf wirtschaftliche Leistungsfähigkeit sei nicht verkraftbar.

Der Börsenbeobachter Von Jens Fabian

Der Monat Mai mit seinen vielen Feiertagen hat den Börsianern schon einiges vermasselt. Feiertagsbedingt verlief das Börsengeschäft zwischen München und Hamburg ausgesprochen ruhig. Nur noch die US-Wirtschaftsdaten sorgten für die nötige Spannung auf dem Börsenparkett.

Und doch sind die Chancen an den Deutschen Börsen rosiger als in den USA. Die Bemühungen der Amerikaner, auf deutsche Zinssenkungen hinzuwirken, erscheinen kaum sinnvoll. Noch nie ließ sich der Zentralbankrat vorschreiben, was mit den Leitzinsen passieren soll. Die deutsche Inflationsrate könnte in diesem Jahr 4 % erreichen, da durch die gute Konjunktur eine Kapazitätsauslastung von fast 90 % in der Industrie zum Alltag gehört. Aufgrund dessen und der wieder deutlich höheren Lohnsteigerungen versucht die Deutsche Bundesbank, die kurzen Zinssätze hoch zu halten und die Geldmenge einzuschränken.

Immer mehr Portfolio-Manager der großen deutschen Fonds müssen ihre Liquidität in den Markt pumpen. Die magische Marke von 1600 DAX-Punkten läßt die nervösen Vermögensverwalter in Zugzwang geraten. Aber nicht nur die traditionellen Blue-Chips wie VW oder Siemens reizen mit guten Kursgewinnen, sondern auch die favorisierten Spezialwerte.

Neben Computer 2000, die vor einer erneuten Umsatz- und Ertragsverdoppelung stehen, oder die Berliner Herlitz AG, führender Anbieter bei Büro- und Schreibwaren, sind es die fast unbekannten Aktien, die in diesen Wochen und Monaten neu entdeckt werden. Die Aktien der Vossloh AG werden in den nächsten Monaten Schlagzeilen machen. Die im Juni 1990 an der Düsseldorfer Börse eingeführte Aktie wurde dem breiten Publikum zu einem Preis von 420 DM je Aktie zum Kauf angeboten. Die Vossloh-Werke sind der führende Anbieter von patentierten Schienenbefestigungen für den Eisenbahngleisbau in der Bundesrepblik. Durch die anstehende Sanierung des total veralterten Schienennetzes in den neuen Bundesländern rechnen die Konzernstrategen mit einem jährlichen Nachfragepotential von ca. 30 Mio. DM. Die Vossloh-Bilanz zeigt den Analysten eine gesunde Struktur. Der Umsatz für das laufende Geschäftsjahr ist um 10 % und der Ertrag sogar um fast 80 % gestiegen. Die Wiedervereinigung und der hohe Sanierungsbedarf in der ehemaligen DDR eröffnen Vossloh sehr gute Wachstumsmöglichkeiten.

Obwohl das Unternehmen nur sehr schwer mit anderen börsennotierten Werten zu vergleichen ist, liegt das KGV (Kurs-Gewinn-Verhältnis) bei der niedrigen Kennzahl 13. Andere branchennahe Unternehmen werden an der Börse mit dem 15- bis 16fachen bewertet. Für das abgelaufene Geschäftsjahr 1990 zahlt die Gesellschaft eine Dividende von 11 DM. Für das sehr aussichtsreiche Rumpfgeschäftsjahr 1991 wird wohl neben der Dividende ein Bonus fällig werden. Die verantwortlichen Manager haben sich bisher immer aktionärsfreundlich gezeigt. Mit einem Aktienkurs von zur Zeit 465 DM ist das Spezialpapier nicht zu teuer.Ù

Kunden fordern unbürokratische Lösungen Verleaser hoffen auf gute Geschäfte in den neuen Bundesländern VDI-N, Frankfurt/M., 17. 5. 91 -

Im Osten Deutschlands sind vor allem Konzepte gefragt, die dem Investor unbürokratische und technisch zeitgemäße Lösungen ermöglichen. Dafür bietet sich Leasing als Investitionsinstrument an. Denn Leasingnehmer müssen sich nicht mit ungeklärten Eigentumsfragen herumplagen. Franz Pogodda, Vorstandsmitglied der Deutsche Leasing AG, beschreibt die Vorteile dieser Finanzierungsform.

D ie langjährigen positiven Erfahrungen in Westeuropa zeigen, daß vom Leasing wesentliche Impulse für die Investitionstätigkeit ausgehen. Auch in der ehemaligen DDR wurde Leasing praktiziert, allerdings nicht in größerem Umfang. Rechtliche Regelungen gab es bereits seit 1986. Mit der Wende 1989 kam es dann zu einem regelrechten Durchbruch.

Auf der Leipziger Frühjahrsmesse im vergangenen Jahr mußten noch lange aufgestaute Informationsbedürfnisse gestillt werden. Schon im Herbst des gleichen Jahres mündeten sie in gezielte Fragen. Insgesamt wurden seit der Währungsunion in der ehemaligen DDR Leasingverträge in einer Gesamthöhe von mehr als einer Milliarde Mark abgeschlossen.

Bei Leasinggeschäften in den neuen Bundesländern steht die Beratung über Fragen der Investitions- und Finanzplanung der Kunden im Vordergrund. Dabei kommen der Leasinggesellschaft jahrzehntelange Erfahrungen aus der Zusammenarbeit mit Herstellern und Lieferanten sowie produktspezifische Kenntnisse jetzt zugute.

Auch Vertriebsleasingkonzepte, wie hierzulande vor allem beim Autokauf üblich, bewähren sich in den neuen Bundesländern zur Belebung des Absatzmarktes - auch bei Geschäften mit anderen osteuropäischen Ländern, insbesondere der CSFR. So wird etwa die Deutsche Leasing AG im September dieses Jahres auch auf der Maschinenbaumesse in Brünn, CSFR, mit einem eigenen Stand vertreten sein.

Ein großer Vorteil: Die Bonitätsprüfung ostdeutscher Firmen stellt sich für den Leasing-Investor leichter dar. Als Leasing-Gesellschaft haben wir durch unser Eigentum am Leasing-Gut, das wir über die ganze vertragliche Laufzeit behalten, eine relative Sicherheit. Je werthaltiger das Gut, desto größer die Sicherheit.

Gegenwärtig eignen sich daher am besten Fertigungsmaschinen für das Leasing-Geschäft mit den neuen Ländern, die bei uns einen Anteil von rund 50 Prozent haben. Ein erheblicher Anteil kommt aber auch Nutzfahrzeugen und Computern zu.

Die noch von der ehemaligen DDR im Juli vergangenen Jahres beschlossene und inzwischen bereits zweimal - hinsichtlich der Fristen - verlängerte Investitionszulage findet auch auf das Leasing Anwendung, ebenso wie die von Bund und Ländern gemeinsam bereitgestellten Fördermittel für die "Maßnahmen zur Verbesserung der regionalen Wirtschaftsstruktur" (GA-Mittel).

Die Investitonszulage wird für bewegliche Wirtschaftsgüter gewährt, die mindestens drei Jahre zum Anlagevermögen eines Betriebes oder einer Betriebsstätte in den neuen Bundesländern gehören und auch dort verbleiben. Die Investitionszulage beträgt für bis Ende 1991 abgeschaffte Wirtschaftsgüter 12% der Anschaffungskosten und für bis Ende 1994 angeschaffte Güter 8%, sofern diese bis Ende 1992 bestellt worden sind. Auf Personenkraftwagen findet die Investitionszulage keine Anwendung, wohl aber auf Nutzfahrzeuge.

W ir haben die Investitionszulage grundsätzlich unmittelbar an den Leasing-Nehmer in Form verminderter Raten weitergeleitet; bei Computern, die dem Risiko rascher Veralterung in besonders hohem Maß unterliegen, wird erst nach drei Jahren verzinst.

Die GA-Mittel können grundsätzlich kumulativ mit der Investionszulage bis zu einem Höchstsatz von 33% der Anschaffungskosten zur Anwendung gelangen.

Mit den GA-Mitteln sollen volkswirtschaftlich besonders förderungswürdige Investitionsvorhaben der gewerblichen Wirtschaft (einschließlich Fremdenverkehrsgewerbe) sowie wirtschaftsnahe Infrastrukturvorhaben in den neuen Ländern insgesamt gefördert werden. GA-Mittel finden auch auf Immobilien, insbesondere Gebäude Anwendung, nicht jedoch auf Grundstückskaufpreise. Nicht gewährt werden GA-Mittel weiter für bestimmte bewegliche Wirtschaftsgüter, die der Ersatzbeschaffung dienen, wie Pkw, Kombifahrzeuge, Lkw, Omnibusse, Luftfahrzeuge und Schiffe.

Voraussetzung sowohl für die Inanspruchnahme der Investitionszulage als auch der GA-Mittel ist, daß der Leasing- Geber in den neuen Ländern wohnt und dort steuerpflichtig ist. Mit unserer im Juli vergangenen Jahres gegründeten Zweigniederlassung und einer Besitzgesellschaft in Berlin-Mitte erfüllen wir diese Voraussetzung.

Die Investitionszulage, auf die ein Rechtsanspruch besteht, wird beim Leasing direkt von der Leasing-Gesellschaft beantragt. Die GA-Mittel müssen vom Leasing-Nehmer bei den jeweils zuständigen Bezirksverwaltungsbehörden beantragt werden. Hier sind wir dem Leasing-Nehmer bei der Antragstellung behilflich.

Alles in allem wird die Kombination von Leasing mit Investitionszulage und GA- Mitteln wesentlich zur Erhöhung des Investitionsaufkommens in den neuen Ländern beitragen. Der Erfolg dieses Finanzinstruments ist vor allemin folgenden Faktoren begründet:

- grundsätzlich hundertprozentige Objektfinanzierung ohne anfänglichen Kapitaleinsatz

- feste und über die ganze Laufzeit gleichbleibende Raten, die parallel zur Nutzung anfallen und in der Regel mit dem durch Einsatz des Leasing-Gutes erwirtschafteten Erlösen erzielt werden können.

- Gewinnung eines zusätzlichen Partners, der Leasing-Gesellschaft, die dem Leasing-Nehmer über die gesamte Laufzeit des Vertrages erhalten bleibt und ihn umfassend in Fragen seiner Investitions- und Finanzplanung berät.

RUND UMS GELD

Das Kursniveau an den deutschen Aktienmärkten hat sich im April insgesamt deutlich erhöht . Der vom Statistischen Bundesamt berechnete Gesamtindex der Aktienkurse stieg von 291,9 am 28. März auf einen neuen Jahreshöchststand von 309,0 am 29. April.

Für das bisherige Gebiet der Bundesrepublik wird der Preisindex für die Lebenshaltung aller privaten Haushalte im April gegenüber dem Vormonat voraussichtlich um 0,5 % höher liegen. Gegenüber April 1990 ergibt sich damit ein Anstieg um 2,8 %. Für März 1991 gegenüber März 1990 war eine Zunahme von von 2,5 % ermittelt worden.

MÄRKTE, BRANCHEN, UNTERNEHMEN

Die Klöckner-Werke AG, Duisburg, hat im Konzern im ersten Halbjahr des Geschäftsjahres 1990/91 (30. September) im Außenumsatz gegenüber dem gleichen Vorjahreszeitraum um 4,5 % auf 3,8 Mrd. DM zugelegt. Der Auftragsbestand habe in jedem der drei Klöckner-Bereiche (Stahl, Maschinen, Kunststoffe) höher als vor einem Jahr gelegen, erklärte der scheidende Vorstandsvorsitzende, Dr. Herbert Gienow. Bei deutlich geringerem Umsatz im Stahlbereich sei der Umsatz der Bereiche Maschinen und Kunststoffe wesentlich höher als vor einem Jahr gewesen.

Vorstand und Aufsichtsrat der Continental AG, Hannover, schlagen der Hauptversammlung am 10. Juli für das Geschäftsjahr eine auf 4 DM je Aktie halbierte Dividende vor. Das teilte das Unternehmen im Anschluß an die den Jahresabschluß 1990 feststellende Aufsichtsratssitzung in Hannover mit. Wie bereits mehrfach angekündigt, trägt die Verwaltung damit dem deutlich verringerten Jahresüberschuß Rechnung. Der Konzernjahresüberschuß hat sich den Angaben zufolge auf 93,4 Mio. DM reduziert.

Die Standard Elektrik Lorenz AG (SEL), Stuttgart, läßt die Dividende für das Geschäftsjahr 1990 ausfallen und stärkt dafür die Substanz. Im Vorjahr waren noch 2,50 DM Dividende gezahlt worden. Wie SEL-Vorstandsvorsitzender Dr. Gerhard idler erklärte, wurden die Rückstellungen für das Standort-Strukturkonzept, das bekanntlich unter anderem den Wegfall von 1200 Arbeitsplätzen in Berlin vorsieht, "deutlich" erhöht.

Die Ertragslage im Konzern der Volkswagen AG, Wolfsburg, konnte auch im angelaufenen Geschäftsjahr 1991 nicht mit der kräftigen Absatz- und Umsatzentwicklung Schritt halten. Der Konzerngewinn habe sich im ersten Quartal nur um 2,1% auf 195 (191) Mio. DM verbessert, während der Konzernumsatz um 10,3% auf 19,1 (17,233) Mrd. DM gestiegen sei, teilte der Vorstandsvorsitzende Dr. Carl H. Hahn bei der Bilanzvorlage mit.

Die BASF AG, Ludwigshafen, hat nach dem drastischen Ergebniseinbruch 1990 auch im ersten Vierteljahr 1991 schlechter als im Vorjahr abgeschnitten. Nach dem Zwischenbericht sank das Gruppenergebnis vor Steuern um 25,2% auf 632 (Vorjahr 845) Mio. DM. Die bisher gute Mengennachfrage habe in den ersten Monaten des Jahres etwas an Schwung verloren, hieß es. Absatzsteigerungen im Inland stünden vor allem ein "scharf rezessiver Einbruch" in Nordamerika und das anhaltend schwierige Geschäft in Lateinamerika gegenüber.

Jahresversammlung der Hochschulrektoren in Frankfurt Einheit von Forschung und Lehre: nur eine Fiktion? Universitäten in der Ex-DDR laufen Gefahr, den falschen Weg einzuschlagen - Von Ulrich Schmitz VDI-N, Bonn, 17. 5. 91 -

In den fünf neuen Bundesländern, aber auch in den mittel- und osteuropäischen Staaten steht die Verknüpfung von Forschung und Lehre wieder auf dem Programm der Hochschulreformer. Doch wird damit nur ein Ideal wieder zum Leben erweckt, das im Westen Deutschlands durch die Massenuniversität erstickt wurde?

D ie Hochschule ist heutzutage nicht mehr als eine Fortsetzng der Schule" , mit dieser These stach kürzlich Dr. Meinhard Miegel, Direktor des Instituts für Wirtschaft und Gesellschaft in Bonn, auf der Jahresversammlung der Hochschulrektorenkonferenz (HRK) in Frankfurt ins Wespennest. Die HRK hatte damit einen Streitpunkt, der thematisch gar nicht eingeplant war, sollte es doch um die Rolle der Hochschulen in Europa gehen.

Wenn Experten sich die Frage stellen, welche Anforderungen die Gesellschaft an die Hochschulen stellt, dann verlieren sie Europa schnell aus dem Blick - und landen im Grundsätzlichen. Doch ob Hochschule, ob Europa oder andere angesprochen sind: Die Frage ist, ob wir nicht längst eine überforderte Gesellschaft sind. "Immerzu werden Ansprüche formuliert, die kein Mensch, geschweige denn eine Institution erfüllen kann" , behauptet Miegel, und das alte Humboldtsche Ideal der Einheit von Forschung und Lehre ist heutzutage reif für die Mottenkiste. "Wir müssen uns damit abfinden, daß unser Nachwuchs von sechs Jahren an bis zum 28., 29. Lebensjahr beschult wird, und von daher ein sehr berechtigter Anspruch besteht, daß Hochschulsystem effizient und effektiv zu durchlaufen."

Effektive Ausbildung im Hochschulsystem, das aber kann nur heißen, daß die Hochschullehrer sich als Lehrer im engen - schulischen - Sinne verstehen, und daß ein Dozent ohne pädagogische Ausbildung und Kenntnisse in Didaktik seinen Beruf verfehlt hat. Bekennt man sich zum Bild des Lehrprofessor, dann bekennt man sich auch zwingend zu gutem Lehrmaterial, zu durchdachten Lehrbüchern, zu geschickter Präsentation des Stoffes. Das Konstrukt der Einheit von Forschung und Lehre, das den Forscher mit dem Lehrer identifiziert, ist, so Miegel, ein Anachronismus.

Bereits jetzt hat die Hochschule ihre Funktion als Stätte kritischer Reflexion eingebüßt, sie ist faktisch nicht mehr der Sitz der Weisheit, Hort der Mäßigung. Wollte man ihr im Sinne Humboldts diese Funktion weiter zubilligen, so wäre das eine der vielen unlösbaren Ansprüche, die nicht mehr erfüllbar sind. Gleichwohl: Zwar braucht eine Gesellschaft vielleicht keine einzelnen sinnstiftenden Personen, aber doch Instanzen, die als Sinngeber auftreten können.

Diese Argumentation zu Ende gedacht - und das wurde auf der HRK-Versammlung auch schnell so gesehen - bedeutet, das gesamte Hochschulsystem umzukrempeln: Die Masse der Studenten müßte berufsbezogen mittels effizienter Lehrmethoden ausgebildet werden, ein kleiner Teil könnte in die Forschung gehen.

In Osteuropa steht die Öffnung des Studiums auf der Tagesordnung

Rückt nun Europa - das eigentliche Thema der HRK, an dem mangels konkreter Fakten allzuoft vorbei geredet wurde - wieder in den Blickpunkt, so mußten sich gerade die zahlreich erschienenen Osteuropäer ob dieser Diskussion wundern.

Max Heidler, Chefredakteur von "Das Hochschulwesen" , seinerzeit Organ des DDR-Wissenschaftsministeriums und jetzt am freien Ost-Markt operierend, bringt die Sache auf den Punkt: Die Russen haben sich in den vergangenen Jahrzehnten ihre forschungsorientierten Elite-Hochschulen geschaffen und die großen Massen-Universitäten produzierten Nachwuchs am Fließband.

Praktisch allen osteuropäischen Staaten wurde dieses Modell übergestülpt. Nun wird die Einheit von Forschung und Lehre - gerade in den neuen Bundesländern - wiederhergestellt. Wenn aber diese Einheit eine Fiktion ist, weshalb soll dann die Hochschullandschaft radikal ungekrempelt und jener aus den alten Bundesländern mit soviel Schmerzen angepaßt werden, fragt sich Heidler.

Doch die Mittel- und Osteuropäer drücken ganz andere Sorgen als Grundsatzdiskussionen. In Rumänien z.B. gibt es 43 staatliche Hochschulen mit insgesamt nur 10000 Studenten. An 20 weiteren Institutionen aus dem Bereich "higher education" sind noch einmal 10000 Studenten eingeschrieben, die zum Teil hohe Gebühren auf den Tisch legen müssen. Bei derartigen Studentenzahlen steht die Öffnung der Hochschulen auf der Tagesordnung - die Massenuniversität ist weithin noch unbekannt.

Gemeinsames erkennen und Fremdes als Bereicherung empfinden, so könnte der Prozeß im Zusammenwachsen des ost- und westdeutschen Hochschulwesens aussehen. Nicht zuletzt deshalb wird er - das versichern viele Mittel- und Osteuropäer - ganz besonders aufmerksam verfolgt. Doch eine Klage wurde in Frankfurt immer wieder erhoben: Daß es eine Einbahnstraße ist, auf der dem Osten immer nur Verkehr entgegenkommt.

Noch kein Licht am Ende des Tunnels: Obwohl im April die Zahl der Arbeitslo- sen in den fünf neuen Ländern gegenüber dem Vormonat nur leicht gestiegen ist, warnte der Präsident der Bundesanstalt für Arbeit, Heinrich Franke: "Die Talsohle ist noch längst nicht erreicht." Insgesamt waren Ende April 836 900 Erwerbstätige ohne Arbeit, rund 30 000 mehr als im März.

Nur wenig Bewegung gab es bei den offenen Stellen. Sie stiegen um knapp 2 000 auf 22 900. Stagnation auch bei den Kurzarbeiterzahlen. Sie lagen im April bei knapp über 2 Mio. Der große Einbruch wird im Sommer kommen. Viele Unternehmen haben bereits Entlassungen angekündigt, wenn das Kündigungsschutzabkommen ausläuft.

Günstig sieht es nach wie vor für den Westen Deutschlands aus. Hier ist die Erwerbslosenzahl auf 1,65 Mio. gesunken. Bei den offenen Stellen gibt es ein Plus von fast 10 000 Positionen, aber auch die die Kurzarbeit hat leicht zugenommen. Dennoch ist das hohe Beschäftigungsniveau ungebrochen. So lag die Zahl der Erwerbstätigen im März bei annähernd 29 Mio. und damit um fast 700 000 höher als im Vorjahresmonat. Zum Vergleich: in der Ex-DDR gibt es rund 8,8 Mio. Erwerbstätige.Á

Bild: VDI-Nachrichten

Weitwinkelkamera untersucht Milchstraße Bochumer Astronomen beteiligen sich an D2-Mission - Von Silvia von der Weiden VDI-N, Bochum, 10. 5. 91 -

U m unsere eigene Milchstraße verstehen zu können, müssen wir sie mit Weitwinkelverfahren untersuchen" , erläutert Prof. Wolfhard Schlosser vom Astonomischen Institut der Ruhr-Universität Bochum seine Pläne mit der speziell für den Ultraviolettbereich konzipierten Gauss-Kamera (Galaktisches Ultraweitwinkel Schmidt-System). Die von ihm und seinem Mitarbeiter Paul Koczet entwickelte Kamera soll bei der für Februar 1993 geplanten D2-Mission des Space- Shuttles mitfliegen.

Bei der ungewöhnlichen Konstruktion handelt es sich um eine modifizierte Schmidt-Optik, die mit einem konvex gekrümmten Spiegel kombiniert wurde. Es entsteht dabei ein Bild, ähnlich wie beim Blick in eine Weihnachtskugel mit einem Bildfeld von 145O.

Der Bereich des sichtbaren Lichtes ist traditionell eine Domäne der klassischen astronomischen Instrumente. Auch im Infraroten wurden in den letzten Jahrzehnten viele bahnbrechende Entdeckungen über den Aufbau und die Struktur unserer Milchstraße gemacht. So konnte der hinter interstellarem Staub verborgene Kern der Galaxis identifiziert werden. Mehrere punktförmige Objekte drängen sich dort auf engstem Raum. Über die Natur der Objekte wird noch gerätselt. Die Spekulationen reichen von einem zentralen Sternhaufen bis zu einem supermassiven Schwarzen Loch.

Für den größten Teil der UV-Strahlung ist die Erdatmosphäre undurchsichtig, bodengebundene Beobachtungen sind deshalb in diesem Wellenlängenbereich nicht möglich. Die Bochumer Wissenschaftler wollen daher beim geplanten D2-Flug des Shuttles die Möglichkeit nutzen, unser Sternsystem auch im Ultravioletten genauer unter die Lupe zu nehmen. Es sind noch viele grundlegende Fragen zu klären, zum Beispiel zu welchem Typ von Spiralgalaxien unsere Milchstraße denn nun gehört. Immerhin zählt unser Sternsystem bereits mit seinem 100000 Lichtjahren Durchmesser und etwa 250 Milliarden Sonnenmassen zu den Riesengalaxien. "Wir wissen nicht einmal genau, wie die Spiralarme eigentlich zustande kommen" , rätselt Schlosser.

Bei Ballonprobeflügen der Vorläufer- Kamera (Strato-Gauss) konnten die Bochumer Forscher bereits einige wichtige Entdeckungen machen. Sie fanden, daß die Spiralarme in unserer Umgebung fragmentiert sind und sich dabei wie Dachschindeln überlappen. Jede "Schindel" mißt dabei allerdings etwa 3000 Lichtjahre in der Länge. Außerdem fand die Strato-Gauss-Kamera das sogenannte "Blaue Band" , einen Staubstreifen in der Ebene der Milchstraße in nur knapp 2000 Lichtjahre Entfernung. "Mit den Ballonprobeflügen sind wir in einen Wellenlängenbereich eingedrungen, über den man bisher noch nicht viel weiß. Man erhält ein neues Bild der Milchstraße, das wir erst einmal einordnen und verstehen müssen" , resümiert Paul Koczet die bisherigen erfolgversprechenden Ergebnisse.

Als mögliches Ziel stellt sich den Astronomen die Dunkelwolkenkartierung der Milchstraße in der Sonnenumgebung dar. Derartige Staubwolkenkomplexe beherbergen die Geburtsstätten der Sterne. Dabei erhoffen sich die Wissenschaftler neue Erkenntnisse über die Sternentstehung.

Die Gauss-Kamera wird bei ihrem Shuttle-Flug über drei Pendelstützen frei beweglich in der Ladebucht des Shuttles montiert. 60 Fotos sind für astronomische Untersuchungen der Milchstraße vorgesehen. Die restlichen 50 Aufnahmen des Magazins sollen der Analyse der Erdatmosphäre dienen. In etwa 300 km Flughöhe werden Stereobildpaare von der Erdatmosphäre aufgenommen. Hierdurch läßt sich ein plastischer Eindruck von der Atmosphärenschichtung erhalten. Die Forscher erhoffen sich in erster Linie wichtige Hinweise über die Höhenverteilung und Dichte der Ozonschicht.

Nur mit Mühe konnten optische Bildfehler behoben werden

Schwierigkeiten während der Entwicklung der Kamera bereitete das Ausmerzen typischer optischer Fehler der Schmidt- Optik, vor allem die Bildfeldwölbung. Dabei kommt es im Randbereich des Bildes zu unscharfen Abbildungen, weil das Bild auf einer gewölbten Fläche entsteht. Bei der Behebung des Problemes ließen sich die Bochumer Astronomen einiges einfallen. Sie ersetzten den Kugelspiegel durch eine besondere, hyperbelartige Oberflächenform und konnten so den Bildfehler beheben. Jetzt braucht der zu belichtende Film nicht mehr, wie früher, gekrümmt zu werden. Damit ist auch der Weg frei für den Einsatz moderner, extrem lichtempfindlicher Bildverstärker, der Charge- Coupled-Device-Technologie (CCD). Diese Halbleiterdedektoren haben gegenüber der herkömmlichen Photoemulsion den Vorteil einer wesentlich effektiveren Lichtausbeute. Beim D 2-Flug wird die Gauss-Kamera allerdings noch ohne die CCD-Technik fliegen. "In Wirklichkeit ist die Weltraumforschung sehr antiquiert" , erläutert Prof. Schlosser. "Wegen der langfristigen Planung wird das Design schon sehr früh eingefroren. Da alle Experimente und Geräte miteinander verflochten sind, kann man da nicht plötzlich etwas ändern. Die Infrastruktur ist vorgegeben und die neueste technische Entwicklung kann leider nicht mehr berücksichtigt werden." Schlossers Kollege Paul Koczet ergänzt: "Im Moment denken wir an die Weiterentwicklung der Gauss-Kamera. Dabei muß man ja immer zehn Jahre im voraus denken."

Zwei weitere Flüge mit der Gauss-Kamera sind noch geplant. Für 1994 sind die europäischen Space-Shuttle-Missionen Europa 1 und Eureka 2 anvisiert. Ein Fernziel ist dann noch der Flug mit der Raumstation Columbus in etwa 10 Jahren. "Dafür planen wir eine Überarbeitung des klassischen Konzeptes, um dann die modernen Technologien, also zum Beispiel die CCD-Technik, einfließen zu lassen" , erklärt Koczet. Durch die wesentlich höhere Empfindlichkeit der Optik bestehen gute Aussichten für weitere aufschlußreiche astronomische Entdeckungen.

Mit Hilfe einer speziellen Weitwinkelkamera für den Ultraviolettbereich wollen Bochumer Astronomen die Milchstraße unter die Lupe nehmen. Diese Kamera wird bei der geplanten D2-Mission des Space-Shuttle 1993 mitfliegen. Sie soll zusätzlich die Ozonschicht der Erdatmosphäre untersuchen.

Gesundheitsforscher untersuchen die Deutschen Subjektiv erscheint das Leben besser, als es tatsächlich ist Schmutz und Lärm werden von vielen gar nicht wahrgenommen Von Eberhard Ph. Liliensiek VDI-N, Düsseldorf, 17. 5. 91 -

Die Gesundheitsforscher sind unterwegs. Sie klopfen die Bevölkerung nicht nur auf Herz und Nieren ab. Sie wollen auch herausfinden, wie sich die Umweltbelastungen auf die Gesundheit der Deutschen auswirkt. Erstes Fazit ihrer Untersuchungen: Subjektiv geht's den meisten besser als objektiv.

D er 40jährige Michael Geesing aus München hat innerhalb des vergangenen Jahres in 22 Dörfern und Städten über 1600 Menschen empfangen. Sein Parkett war jedesmal schlicht: ein leeres Klassenzimmer, ein geräumtes Büro oder eine Verwaltungsalkove - alles wurde zu seiner provisorischen Praxis. Dr. med. Michael Geesing ist freier Mitarbeiter der Münchener "Infratest KG Gesundheitsforschung" und Chef eines Forschungsteams. Insgesamt drei solcher Gruppen sind im Auftrag des Bundesgesundheitsamtes (BGA) für die nationale Erhebung "Leben und Gesundheit" unterwegs.

8000 Personen im Alter von 25 bis 69 Jahren werden in 70 Gemeinden untersucht - allerdings nur in den alten Bundesländern. Von "point" zu "point" , wie Dr. Geesing das nennt. Zum "Punkt" in Düsseldorf führt der Weg über einen Schulhof der Walter-Rathenau-Straße 15 ins Behelfs-Wartezimmer: "Guten Morgen, füllen Sie bitte zunächst diesen Fragebogen sorgfältig aus!"

Sind Sie arbeitslos? Oder Industrie- und Werkmeister im Angestelltenverhältnis? Gibt es eine Belastung durch chemische Schadstoffe? Wie häufig essen und trinken sie was? Raucht jemand in der Partnerschaft; wird Butter, Pflanzenfett oder Olivenöl in der Küche verwendet? Oder: Ist eine Schwangerschaft geplant? - 86 solcher Fragen auf 35 Seiten sollen ein möglich umfassendes Bild darüber liefern, wie der Durchschnittsmensch lebt, arbeitet, gesund bleibt oder krank wird. Und oft wissen die Teilnehmer der Tests nicht einmal, worunter sie leiden.

Denn bei der Kontrolle der Antworten fällt Gerhild Emden, der Interviewerin der Gruppe, beispielsweise deutlich auf: "Von all' unseren Probanden trinkt nach den Antwort-Kreuzchen zu urteilen eigentlich niemand Alkohol - ich weiß gar nicht, wer den dann eigentlich kauft." Drastisch deutlich ist Gerhild Emden geworden, daß "die Leute massenhaft Probleme verdrängen" . So fühlten sich mitunter Probanden in ihrer "wohnlichen Situation sehr wohl" , lebten dann aber tatsächlich mit dem unerträglichen Krach eines benachbarten Flughafens: "Da stimmt dann etwas nicht" , registriert Frau Emden.

Dr. Geesing geht noch einmal alle Antworten medizinisch durch, klärt viele Widersprüche. Nach einem Lungenfunktionstest will er: Blut. Aus der Probe werden beim BGA 40 verschiedene Werte ermittelt: Ist Blei darin, womöglich Quecksilber oder Cadmium - wie hoch ist der Cholesterinspiegel? Geesing: "Diese Werte bekommt der Proband auch persönlich zugeschickt, wobei sie ihm auch erklärt werden. Er braucht dazu keinen Arzt, obwohl wir empfehlen, alles noch mal mit dem Hausarzt durchzusprechen."

Damit die Analyse in Berlin auch sicher gelingen kann, legt Anne Schneider Hand an, rund 50 mal pro Patientin, hochgerechnet insgesamt bislang 81000mal: Sie zentrifugiert das Blut und friert das so gewonnene Serum sofort ein. Das transportable Labor samt Personenwaage ( "Die wird jedesmal neu geeicht" ) und Kartons, Kartons, Kartons muß das Team immer selbst vom (und auf den) Lkw bugsieren: "Man wird zum Spediteur" .

Zum Fahnder im Außendienst wird Johann Dachs (33). Denn bei der Hälfte der Probanden wird (so die umständlich-amtliche Order): "ein Umweltteil erhoben" . Lies: Jede zweite Person bekommt Besuch zuhause. Den schildert Dachs: "Das erste, das wir machen ist: ein Gespräch führen, allgemeine Fragen stellen zu Umweltthemen, wie zufrieden die Leute mit ihrer Wohnsituation sind, mit der Umweltsituation, auch Fragen zu ganz allgemeinen Sachen wie Geschwindigkeitsbeschränkung, ob die dafür sind oder dagegen."

Dann folgen Untersuchungen zur Wohnsituation: "Vom Alter des Teppichs bis zur Fugenlänge der Fenster; wie lange gelüftet wird, wie häufig, ob Schallschutzfenster vorhanden sind, woraus die Wasserleitungen bestehen. Es folgen die Probenahmen: Wasserproben, Staubproben - zum Beispiel nehmen wir einfach den Staubsaugerbeutel mit und stellen Hausstaubbecher, Meßgeräte im Freien auf."

Den Leuten werden noch ein paar Haare ausgezupft, das über Nacht unbewegte Leitungswasser wird angezapft. Wer in der Arbeitswelt belastet erscheint, bekommt für eine Woche eine Plakette angeheftet: In der Membrane sollen sich die flüchtigen Kohlenwasserstoffe (CXHY) sammeln, die etwa aus Propan oder Benzol kommen.

K eine Frage also, daß die Gesundheitsforscher nicht nur einen Einblick in die Lebensgewohnheiten der Deutschen haben wollen. Wenn das Großprojekt "nationale Gesundheitserhebung" auch Grundlage für eine künftige Gesundheitspolitik sein soll, muß es auch über die Umwelteinflüsse Auskunft geben. So erwartet das BGA beispielsweise, daß der Bleigehalt im Blut der Menschen im Vergleich zu den vorherigen Erhebungen 1985 und 1988 abgenommen hat. Ob sich das Benzin-Bleigesetz und die Einführung von Katalysatoren, aber auch andere neue Richtlinien, tatsächlich so positiv auf die Gesundheit der Deutschen ausgewirkt hat, werden wir erst in einem Jahr erfahren. Dann wird das BGA die Studie publizieren.

Fuzzy: Unscharfe Logik zieht scharfe Schlüsse Eine exakte Wissenschaft kann mehr als nur zwischen ja und nein unterscheiden - Von Jens D. Billerbeck und Regine Bönsch VDI-N, Düsseldorf, 17. 5. 91 -

S ie sind ein kleiner Mann! Halt, stop, werden Sie sagen, ich mit meinen 178 cm bin doch nicht klein. Doch stellen Sie sich eine Lichtschranke vor, die kleine von großen Männern unterscheiden soll. Sie ist auf 180 cm eingestellt. Folglich sind Sie also ein kleiner Mann. Anders gesprochen: Sie gehören der Menge der kleinen Männer an, die bei 180 cm scharf begrenzt ist.

Würden Sie dagegen umgangssprachlich Ihre Größe beschreiben, so würden Sie sagen: "Ich bin recht groß" oder "Ich bin nicht gerade klein" . Doch mit diesen Definitionen kann ein klassischer Grenzwertschalter nichts anfangen.

Diese Unzulänglichkeit erkannte bereits vor 25 Jahren der Berkeley-Professor Lotfi A. Zadeh. Er entwickelte eine mathematische Theorie, die mit vagen Formulierungen exakt rechnen kann. Zadeh ließ nicht nur die Entscheidung "wahr" oder "falsch" zu, sondern setzte - je nach Wahrheitsgehalt - beliebige Werte zwischen 0 und 1. Die Zugehörigkeit zu einer Menge kann so gewichtet werden. Mit Ihrem "ziemlich groß" gehören Sie daher mit dem Faktor 0,8 zu den großen Männern. Das "nicht gerade klein" entspricht dem Faktor 0,2 aus der Menge der kleinen Männer. Weitere Grenzwerte lassen diese Entscheidung noch präziser werden.

Zadeh formulierte weiterhin mathematische Regeln, mit denen solche Aussagen "unscharfer Logik" - übersetzt Fuzzy Logik - verknüpft werden können. Es gibt UND-, ODER-Verknüpfungen und Negationen. Während in der "normalen Logik" z.B. gefolgert wird "WENN A wahr ist UND B falsch, DANN ist C wahr" treten in der Fuzzy-Logic die gewichteten Werte auf. Auch der Schluß ist dann natürlich ein entsprechend gewichtetes Ergebnis. Genaugenommen ergibt sich die zweiwertige Logik somit als Spezialfall dieser Theorie.

So weit, so gut. Länger als 20 Jahre ruhte diese Theorie in den Schubladen einiger weniger Wissenschaftler. Kaum jemand erwog den praktischen Einsatz dieser mathematischen Theorie. Damals schien jedes Problem mit Computer lösbar, wenn es nur mathematisch genau genug formuliert wurde. Doch mit der wachsenden Komplexität regelungstechnischer Aufgaben entstanden mathematische Modelle, die nicht mehr mit akzeptablem Aufwand lösbar waren. "Gleichzeitig konnte man aber beobachten, daß diese Prozesse durch menschliche Facharbeiter sehr gut geregelt werden konnten" , beschreibt der Aachener Professor und deutsche Fuzzy- Experte Hans-Jürgen Zimmermann. Deren Wissen war kein mathematisches Modell, sondern allenfalls umgangssprachlich formuliert.

Ein Beispiel aus der Zementherstellung zeigt dies: "Da der Sauerstoffanteil ziemlich hoch ist, und die Brennzonentemperatur normal zu sein scheint, stelle ich den Lüftungsschieber so ein, daß sich die Abgasströmung verringert. Außerdem vermindere ich die Zufuhr des Brennstoffes geringfügig" , erklärt der Facharbeiter.

Solche Formulierungen lassen sich mit den von Zadeh aufgestellten Regeln erfassen und zu Stellgrößen verarbeiten. Der dänische Anlagenhersteller F. L. Smidth setzt z. B. für den Prozeß des Zementbrennens seit einigen Jahren erfolgreich Fuzzy-Logik-Steuerungen ein.

S tatt den Regelungsprozeß über die Lösung langer Differentialgleichungen zu führen, werden Regelsätze definiert, nach denen die einzelnen Prozeßgrößen miteinander verknüpft werden. Zum Beispiel: "WENN Temperatur = sehr hoch ODER Vorkammerdruck = über normal DANN Methanventil = etwas gedrosselt." Die konkreten Meßwerte sind dabei als umgangssprachliche Variablen erfaßt. Zimmermann: "Das ist weniger Mathematik als in einem regelungstechnischen Modell, weil wir ja eben versuchen, die ganze komplexe Mathematik durch menschliches Wissen zu ersetzen."

Wie wird nun so ein System realisiert? Die Antwort von Kazuaki Urasaki, Fuzzy- Experte beim japanischen Hersteller Omron, verblüfft zunächst: "Mit einem handelsüblichen Mikroprozessor." In der Tat sind einfache Probleme mit Hilfe von entsprechender Software auf jedem Personalcomputer zu lösen. Erst wenn zahlreiche Fuzzy-Verknüpfungen in Echtzeit durchgeführt werden müssen, kommen die speziellen Fuzzy-Chips zum Einsatz. Einige 10000 Transistoren-Schaltungen sorgen für die schnelle Verknüpfung. Omron ist eines der ersten Unternehmen, das Fuzzy- Regler auch für den bundesdeutschen Markt anbietet.

Auch deutsche Wissenschaftler schwimmen ganz vorne auf der Fuzzy-Welle mit. Die Aachener Inform GmbH beginnt dieser Tage mit der Vermarktung eines Software-Werkzeuges, zur Lösung regelungstechnischer Aufgaben mit Fuzzy. Auf der Hannover Messe Industrie präsentierten die Aachener der Öffentlichkeit ein Fuzzy-Auto. Gerade das Verhalten eines Kraftfahrzeugs unter Extrembedingungen (Schleudern, . . .) ist nicht mehr analytisch zu erfassen - zu viele Faktoren bestimmen die Reaktion. Trotzdem lenkt der Fuzzy-Rechner das bis zu 80 km/h-schnelle Gefährt sicher durch die Teststrecke. Zur Formulierung der Regeln diente die Erfahrung mehrerer Autofahrer.

Doch die Fahrer werden auch in Zukunft nicht überflüssig, ebensowenig wie der Facharbeiter in der Zementfertigung - ganz im Gegenteil. Menschen können dank Fuzzy-Regelungen Störungen im Prozeßablauf unmittelbar verfolgen und entsprechend reagieren. Die Parameter sind verständlich. Ursache und Wirkung hängen anschaulich zusammen, sind einfacher nachzuvollziehen als in klassischen Regelsystemen. Komplexe klassische Steuerprogramme sind heute praktisch nur noch vom Programmierer zu warten. Die Fuzzy-Technologie verschafft dank anschaulicher Regeln und Sprache einen unmittelbaren Zugang zum Prozeß und macht ihn damit für Menschen beherrschbar.

Deutschland hat das fortschrittlichste Fuzzy-Werkzeug Unscharfe Logik stößt auf großes Interesse Mit dem Aachener Professor Hans-Jürgen Zimmermann sprachen Jens D. Billerbeck und Regine Bönsch VDI-N, Aachen, 17. 5. 91 -

Wirkliche Fuzzy-Experten gibt es noch wenige in Deutschland. Zu der kleinen Gruppe zählt ohne Zweifel Hans-Jürgen Zimmermann, Leiter des Instituts für Unternehmensforschung an der RWTH Aachen.

VDI-Nachrichten: Das Wort ,Fuzzy` ist extrem schwer ins Deutsche zu übersetzen. Man hat sich allgemein auf ,Unschärfe` geeinigt. Sind Sie mit dem Begriff glücklich?

Zimmermann: Mit dem Begriff ist kaum jemand glücklich. Die Bezeichnung unscharf für Fuzzy soll eigentlich etwas ähnliches vermitteln, wie wenn Sie an ihrem Objektiv der Kamera den Focus verstellen. Das heißt den Übergang von einer scharfen in eine ausgeuferte Darstellung. Fuzzy als unscharf zu bezeichnen ist zwar linguistisch richtig, aber wenig attraktiv. Ich denke jedoch, daß man sich irgendwann keine Gedanken mehr darüber machen wird, was Fuzzy-Set, Fuzzy-Logic oder Fuzzy-Control wirklich heißt, sondern einfach den Terminus technicus akzeptiert.

VDI-Nachrichten: Wie beurteilen Sie die Fuzzy-Entwicklungen in Europa und im Vergleich dazu in Japan. Ist der Fuzzy- Boom in Japan nur ein Marketing-Gag?

Zimmermann: Wir müssen da präziser sein. Die Entwicklungen laufen nicht in Europa, sondern praktisch nur in Deutschland bzw. im deutschsprachigen Raum.

Die japanische Entwicklung ist typisch japanisch, und das ist auch nicht sensationell. Die Japaner haben im Gegensatz zu den Deutschen eine langfristige strategische Denkweise. Wenn sie zu dem Schluß gekommen sind, daß irgendein Ansatz Potential enthält, dann investieren sie sehr intensiv und kümmern sich nicht darum, ob es kurzfristig rentabel ist. In Deutschland hingegen wartet man auf den Pilotanwender und schaut auf die Konkurrenz. Man wartet ab, bis etwas wirklich läuft. Und wenn das halt sechs Jahre dauert, dann sind die Japaner in der Zwischenzeit fertig. Genau das ist bei Fuzzy Logic passiert.

VDI-Nachrichten: Wie äußert sich das konkret in der Fuzzy-Technologie?

Zimmermann: Während hierzulande die Operations Research, die Unternehmensforschung, sich mit Fuzzy beschäftigt, sind es in Japan die Regelungstechniker. Sie haben zunächst erfolgreich industrielle Anwendungen entwickelt: U-Bahnen, Kransteuerungen usw. Erst in den letzten zwei, drei Jahren wurde Fuzzy in Konsumgütern eingeführt. Für Staubsauger und Waschmaschinen dürfen auch die Chips nicht so teuer sein. Das japanische Publikum spricht sehr schnell auf derartige Entwicklungen an. Und so kam es zu der Fuzzy-Welle.

VDI-Nachrichten: Drängt nun eine riesige Welle von Fuzzy-Staubsaugern und -Waschmaschinen aus auf den europäischen Markt?

Zimmermann: Die Japaner wollen ihre Produkte hierher exportieren, aber das wird nicht funktionieren. Fuzzy, das bedingt Wissensbasen, die gespeichert werden müssen. Diese Wissensbasen sind abhängig von der Anwendungsumgebung. Und hier gibt es riesige Unterschiede zwischen Japan und Europa.

VDI-Nachrichten: Vor einem Jahr hat hierzulande niemand über Fuzzy gesprochen. Wie kam es zu dem großen Interesse, das nun dieser neuen Technik gezollt wird?

Zimmermann: Schon vor langer Zeit sind wir durch japanische Produkte darauf aufmerksam geworden, daß dort auch Stahlwerke mit Fuzzy-Control gelenkt werden und waren sensibilisiert. Der vollkommen unerwartete Durchbruch ist jedoch meines Erachtens einzig und allein durch die Medien hervorgerufen worden.

Das hat positive und negative Auswirkungen. Positiv ist, daß sehr viele Leute in Deutschland darüber nachdenken, was man mit Fuzzy-Logic machen kann. Von 150 Zuschriften, die uns in den letzten zwei, drei Monaten erreichten, sind sicher 30% bis 40% sehr gute Ideen vorhanden. Die große Gefahr dieser Euphorie ist allerdings, daß zu hohe Erwartungen geschürt werden, die sich mit den vorhandenen Kapazitäten nicht befriedigen lassen.

VDI-Nachrichten: Wie zeigt sich das?

Zimmermann: Es besteht die Gefahr, daß sich ähnlich wie bei Expertensystemen einige scharlatanartig die schnelle Mark verdienen wollen und damit große Enttäuschungen der Nachfrager vorprogrammieren. Ich weiß noch nicht, wie wir dieser Gefahr begegnen können. Eine andere Auswirkung habe ich erst kürzlich persönlich erfahren. Auf der Hannover- Messe hätte ich sicher 20 bis 30 Hochschulabsolventen zu märchenhaften Gehältern vermitteln können, wenn sie in Fuzzy Logic fit gewesen wären. Ich bin von Unternehmen der Antriebstechnik, der Regelungstechnik, etc. angesprochen worden.

VDI-Nachrichten: Verbirgt sich da hinter der Fuzzy-Set-Theorie nicht auch ein interdisziplinärer Ansatz?

Zimmermann: Die Fuzzy-Set-Theorie hat in den verschiedenen Kontinenten verschieden Fuß gefaßt. In Japan waren es die Regelungstechniker, in den USA die Informatiker, und in Europa habe ich 1975 die erste institutionelle Gruppe, die European Working Group of Fuzzy Sets, gegründet. Damals war ich noch Präsident der europäischen Operation Research Gesellschaft. Die Unternehmensforschung war schon immer interdisziplinär. Hier arbeiten Informatiker mit Ingenieuren, Betriebswirten und Psychologen zusammen. In Australien hingegen beschäftigen sich sogar Soziologen und Psychologen mit der Fuzzy-Set-Theorie.

VDI-Nachrichten: Wie sind Sie denn auf die Fuzzy-Set-Theorie gestoßen?

Zimmermann: Das läßt sich klar definieren. Ich gebe Vorlesungen über Entscheidungsstheorien. In den Semesterferien durchforste ich die ganze internationale Literatur, und dabei stieß ich 1972 auf einen Artikel von Bellman in der Zeitschrift Managment Science. Ich bin dann sofort nach Amerika gefahren, habe mit Bellman gesprochen und die Begeisterung stieg. Daraufhin sind wir hier in Aachen voll eingestiegen.

VDI-Nachrichten: Sie haben hier in Aachen ein Software-Werkzeug, ein Tool, eine Shell, entwickelt. Wie sehen Sie die Möglichkeit, diese angesichts des immensen Booms seriös in den entstehenden Markt hineinzubringen?

Zimmermann: Ich glaube nicht, daß dies sehr schwierig ist. Eine solche Shell ist nicht so einfach zu erstellen. Zur Zeit existieren drei dieser Tools: Die amerikanisch-japanische Firma Togai bietet seit ca. einem Jahr eine Shell, Fuzzy C, an. Diese benutzt das Pre-Compiler Concept und erzeugt aufgrund eingegebenen Wissens ein C-Programm.

Baut man z. B. einen Regler auf, so muß man in der Testphase immer wieder die Wissensbasis aktualisieren. Ein sehr umständlicher Weg. In ähnlicher Weise arbeitet ein von der Firma Omron für ihren Fuzzy-Chip entwickelter Tool, der bereits in Japan auf dem Markt ist.

Unser Tool arbeitet nach einem anderen Prinzip. Es ist eine Online-Entwicklungsumgebung. Man kann in jeder Phase die unmittelbaren Auswirkungen von Änderungen erkennen. Damit haben wir hier in Deutschland das fortschrittlichste Software-Entwicklungs-Werkzeug. Das ist keine Überraschung, denn wir haben auch viel später angefangen als unsere Kollegen. Die Nachfrage danach ist sehr groß. Eine Demo-Version steht zur Verfügung, und das Tool selbst wird Ende Mai auslieferbar sein. Ein Problem dürfte allerdings sein, das Know-How der Benutzung zu vermitteln.

VDI-Nachrichten: Können Sie dieses Software-Entwicklungs-Werkzeug als Hochschule vermarkten?

Zimmermann: Nein, wir haben uns auf die Forschung beschränkt. Um den Nutzen der Operation Research zu zeigen, haben wir allerdings vor 20 Jahren ein Softwarehaus gegründet, die Inform, die die hier gesammelten Forschungsergebnisse in ein professionelles Tool umgesetzt hat und es vermarktet. Wir arbeiten aber auch mit Omron und mit Siemens zusammen.

VDI-Nachrichten: Die Inform ist eine kleine Firma, Siemens dagegen ein Riese. Ist die Fuzzy-Technologie eine Technologie für kleinere innovative Unternehmen?

Zimmermann: Kleinere Unternehmen sind flexibler, ehe ein großes Unternehmen auf derartige Züge aufspringt, das dauert. Siemens allerdings hat sich sehr früh engagiert und sich seit letztem Jahr bemüht, Kapazitäten aufzubauen. Aus Holland und der früheren DDR wurden Leute angeworben für die Forschungsabteilung. Dort arbeiten jetzt rund zehn Spezialisten. Für Siemens eine kleine Abteilung, die aber vollkommen mit den Kapazitäten bei Inform vergleichbar ist.

VDI-Nachrichten: Wo sehen Sie denn zukünftige Anwendungsfelder der Fuzzy- Set-Theorie?

Zimmermann: Ich halte die Konsumgüteranwendungen, wie sie sich in Japan auftun, gar nicht für die wichtigsten. Die gesamte Antriebstechnik, die Steuerung von chemischen Anlagen, die Brems- und Verkehrstechnik, könnte davon viel mehr profitieren. Auch im Maschinenbau, in der Herstellung von Sondermaschinen, tut sich ein Feld auf. Dort, wo man bislang nicht automatisieren konnte, wo meist durch Menschen die Probleme gelöst wurden. Außerdem tut sich ein völlig neues Gebiet auf, wo wir uns stark engagieren müssen: der Umweltschutz und damit z.B. die Steuerung von Klär- und Filteranlagen. Im Bereich der Expertensysteme läßt sich noch nicht absehen, wie auf vielerlei Weisen Fuzzy Sets eingesetzt werden können. Denken Sie auch an Entscheidungsvorbereitungen und strategische Planungen...

VDI-Nachrichten: Hatten Sie nicht jahrelang das Gefühl eines einsamen Rufers in der Wüste, eines Missionars, und wie fühlen Sie sich jetzt angesichts der plötzlichen Welle?

Zimmermann: Dieses Gefühl hatte ich oft in den letzten 18 Jahren. Diese Welle jetzt hat mich zwar sehr überrascht, aber es macht mich auch zufrieden, daß sich etwas als sinnvoll herausgestellt hat, was ich schon immer als sinnvoll angesehen habe. Ich hätte mir allerdings gewünscht, daß diese Welle nicht so plötzlich gekommen wäre, sondern in etwas abgeschwächterer Form. Diese Wahl jedoch hat man nicht, und wir werden versuchen, das Möglichste daraus zu machen.

Begriffe aus der Fuzzy-Technik Fuzzy-Set-Theorie:

Von Lotfi A. Zadeh vor über 25 Jahren als Zweig der Mathematik formulierte Theorie. Sie sollte die Grenzen der starren zweiwertigen Logik (wahr/falsch) überwinden und sich dem menschlichen Denken annähern.

Linguistische Variable:

Die Linguistische Variable ergänzt die Möglichkeiten der klassischen Logik wahr und falsch mit umgangssprachlichen Wertungen: ziemlich falsch, recht wahr, weniger wahr. Sie ordnet diesen umgangssprachlichen Formulierungen exakte Werte zu, mit denen gerechnet werden kann.

Fuzzy-Logic:

Mathematischer Regelsatz für das Verknüpfen Linguistischer Variablen. Wird oft als Synonym für die gesamte Fuzzy-Technologie verwendet.

Fuzzy-Control:

Lösung regelungstechnischer Aufgaben mit den Methoden der Fuzzy- Set-Theorie. Meßwerte, Stör- und Regelgrößen werden als Linguistische Variable aufgefaßt und miteinander nach bestimmten Regeln verknüpft. Diese Regeln können umgangssprachlich formuliert werden. Als Ergebnis der Verknüpfung erscheint wiederum eine exakte Steuergröße. Es ist keine mathematische Modellierung des Gesamtprozesses notwendig.

Technologie als Marketinginstrument Nippons Land im Fuzzy-Fieber Doch auch die industrielle Automation wird als Markt entdeckt - Von Barbara Odrich VDI-N, Tokio, 17. 5. 91 -

D as "Fuzzy-Logic-Fieber" , das den japanischen Markt ergriffen hat, zeigt wieder einmal sehr deutlich, wie die Japaner an neue Techniken herangehen. Dabei werden die Schnelligkeit und die Gründlichkeit deutlich, mit der Informationen über potentiell nützliche technische Entwicklungen sich in der japanischen Gesellschaft verbreiten. Das heißt nicht, daß die Technik an sich unbedingt bei den Konsumenten verstanden wird. Dennoch ist es den Herstellern gelungen, in den Verbrauchern das Bedürfnis für das "Begehrenswerte in der Technik" zu wecken.

Matsushita gehört unter den japanischen Herstellern von Verbraucherelektronik mit zu den aktivsten Verfechtern der neuen Fuzzy-Logic-Technik und stellte in den vergangenen Monaten vielfältige Produkte in diesem Sinne vor. Dazu gehören unter anderem ein Staubsauger, der in der Lage ist, seine Saugstärke auf die Qualität des Teppichs und die Schmutzmenge einzustellen. Mittlerweile sind auch Matsushitas Reiskochtöpfe mit Fuzzy-Logic-Funktionen ausgestattet sowie die neuesten Camcorderversionen "NV-S1" und "NV-S5" , die nun auch schwierige Lichtverhältnisse messen können, indem sie die Belichtung sowohl auf den Menschen als auch auf die Objekte einstellen. Mitsubishi Heavy Industries kam außerdem mit einem Kühlgerät auf den Markt, das den Elektrizitätsverbrauch um bis zu 24% verringert.

Mittlerweile wird in Japan intensiv Forschung- und Entwicklung an Fuzzy-Logic betrieben. Neben dem "Laboratory for International Fuzzy Engineering Research" (Life) in Yokohama, das vom Miti ins Leben gerufen wurde und Grundlagen- sowie anwendungsorientierte Forschung zur Fuzzy-Theory betreibt, wurde ein neues staatliches Forschungsinstitut im Süden Japans für die Entwicklung von "Fuzzy-Halbleitern" für den Einsatz in Computern ins Leben gerufen.

Doch die Fuzzy-Logic findet auch Einzug in industrielle Anwendungen: Die Einsatzbereiche reichen von Feueralarmanlagen bis hin zu Stoffärbereien. Zu den Vorreitern beim Einsatz der Fuzzy-Logic-Theorie gehört die Untergrundbahn in Sendai. Die neue Technik wurde von dem Elektrokonzern Hitachi gemeinschaftlich mit dem Sendai Municipal Transportation Bureau entwickelt. Die Aufgabenstellung war dabei, ein System zu finden, daß das abrupte Rucken beim Anfahren und Bremsen der Züge verhindert, weil dieses immer wieder zu Unfällen und Verletzungen bei den Passagieren führt. Mit Fuzzy Logic Kontrollsystemen ist es dabei gelungen, das Bremsen und Anfahren so abzustimmen, daß beide Vorgänge sehr viel sanfter ablaufen und die Fahrt in der Untergrundbahn damit sehr viel komfortabler wird. Dabei kommen die Züge in den Stationen auf nur zehn Zentimeter genau an der programmierten Stelle zum Halten.

Ähnliche Argumente haben beim Einsatz von Fuzzy Logic in Fahrstühlen eine Rolle gespielt. Hitachi und Mitsubishi ist es dabei gelungen, die durchschnittlichen Wartezeiten für die Benutzer drastisch zu vermindern. Schließlich wird in der Medizin ein neuer Einsatzbereich gesehen. So eignet sich nach Angaben japanischer Forscher das Fuzzy Computer System besonders für die Diagnose von Krankheiten, weil es von der Anlage her die Konsultation und den Dialog mit dem Arzt zuläßt und auf die Individualität und zugleich Komplexität jedes einzelnen menschlichen Körpers eingeht.

Halbleiterindustrie: David gegen Goliath Chip-Monopole sichern keine Geschäfte Asic-Pionier W. Corrigan sieht Risc-Prozessoren als Retter der Innovation - Von Werner Schulz VDI-N, Santa Barbara, 17. 5. 91 -

Monopol oder nicht Monopol - das ist in der an Dramen reichen Chip-Branche die offene Frage, die alle Gemüter bewegt. Eigentlich gibt es nur mehr zwei große Hersteller von Standard-Prozessoren für die Mikrocomputer und die industriellen Controler: Intel und Motorola. Doch in Gestalt der Risc-Prozessoren (Reduced Instruction Set Computers), die in der flexiblen Asic-Technologie gefertigt werden, kommt das alte Spiel der schnellen, marktregelnden High-Tech-Innovation wieder zum Zuge.

W ilfred Corrigan, der joviale, rundliche, urbane Brite, ist zu Scherzen nur selten aufgelegt. Erstens ist die Halbleiter-Lage zur Zeit nicht übermäßig heiter und zweitens ist die kalifornische Hemdsärmeligkeit nicht seine Art. Obwohl er zu den in Ehren ergrauten Hightech-Patriarchen des Silicon Valley zählt: in den 70er Jahren als oft kritischer Nachlaßverwalter der schon recht altersschwachen IC-Urmutter Fairchild Semiconductor, und dann, ab 1981, als "Chief Executive" seiner eigenen, überaus erfolgreichen Firma LSI Logic.

Dafür kommt Corrigans Argumentation um so geradliniger, konzis und Punkt für Punkt. Und wenn es sein muß, auch mit der notwendigen Schärfe. Kein Wunder: Er ist zugleich auch Vorsitzender und Mitgründer (1977) der von Washington bis Tokio einflußreichen Chipmacher-Lobby SIA (Semiconductor Industry Association).

Nicht erst seit dem Ansturm der japanischen Chip-Giganten hat sich die Halbleiterindustrie grundlegend gewandelt. Mit dem nonchalanten Technologie-Transfer über sogenannte Zweitliefer-Verträge ist es vorbei. Die Marktführer haben sich mit ihren dominierenden Produkten monopolähnliche Marktpositionen aufgebaut. "Das Pendel schlägt zur Zeit sehr heftig in Richtung Patentschutz" , definiert Corrigan die Situation, "vielleicht als Folge des Polaroid-Kodak-Prozesses" . Vor fünf Jahren konnte der Sofortbild-Pionier Polaroid seine Patente so gut abschirmen, daß der gelbe Riese Kodak vom Instant-Foto-Business für immer Abschied nehmen mußte.

Die Asic können, wie Corrigan sehr frühzeitig in seiner Laufbahn erkannt hat, von dieser Rechtslage nur profitieren. Denn alle diese Prozesse - Intel gegen NEC, Intel gegen AMD, International Rectifier gegen Siliconix, und andere mehr - etablieren auch legal abgesicherte Wege zum Nachbau funktional äquivalenter Produkte. "Früher ging es um gestohlene Maskensätze oder Prozeßdokumentation" . Heute ist es der weit weniger leicht definierbare Transfer von Allgemein-Know-how in der Chip-Architektur oder im Mikrocode von Prozessen. Oder ganz einfach die Einbeziehung eines wanderlustigen Ingenieur in ein sensitives Projekt, der seine Eindrücke dann bei der Konkurrenz zur Reife bringt.

D ie Frage "Monopol oder nicht Monopol" bringt zur Zeit alle Gemüter im Silicon Valley in Rage. Eigentlich sollte es, so steht es im Lehrbuch der dnymischen Chip-Branche, ausbaufähige Marktdominanzen nicht geben. Oder nur so kurzfristig, daß immer genügend Mitbewerber mit- und gleichziehen wollen. Leider haben nun die immer kürzeren Produktzyklen paradoxerweise das Gegenteil bewirkt: So kurz sind sie geworden, daß sich oft die Wettbewerbsentwicklung eines funktionsgleichen Produktes nicht mehr rentiert.

Die Japaner sind bei ihren Consumer- Produkten längst vom Second Sourcing abgegangen, merkt der Japan-Kenner Corrigan an, zumindest in den kritischen Technologien. "Die Bedingungen - Marktreife in sechs Monaten, Spitzenausstoß in 90 Tagen, Produkt-Lebensdauer 12 Monate - machen es sehr schwierig, zwei oder drei Lieferanten für kritische Technologien zu kultivieren." Das ist zuviel Overhead, den keiner mehr bezahlen kann. Einzige Ausnahme: Standard-ICs, wie die populären Ram-Speicherbausteine. Bei denen kann immerhin die Stückzahl im Markt für einen lohnenden Anreiz sorgen.

Ganz anders aber ist das bei den Asics, Corrigans Brot-und-Butter-Geschäft. Anders auch, zum zweiten, bei den Risc-Prozessoren. Diese Klasse von Prozessoren bilden die Gegenbewegung zu den immer noch vorherrschenden Cisc-Chips (Complex Instruction Set Computers), deren höchste Ausprägung Intels 486-Prozessor repräsentiert. Aber: "Wenn Sie ein Monopol auf die Eisenbahn haben, und jemand erfindet das Flugzeug, dann können Sie Ihr Monolpol für eine ganze Weile halten" , meint Corrigan bissig, "doch das Geschäft geht an Ihnen vorbei."

Intel und Motorola, so sieht es Corrigan, waren in der Lage, sich solche Monopole zu schaffen, "Motorola auf Prozessoren im technischen Markt, Intel, wegen der Verbindung zu IBM und Microsoft, im kommerziellen Business" . "Glücklicherweise kamen zur gleichen Zeit, vor vier oder fünf Jahren, die Risc-Prozessoren auf. Ihr Schlüssel ist die Mehrfach-Versorgung." In anderen Worten, bei den Risc ist die Welt noch in Ordnung.

Risc-Prozessoren sind denn auch einer der Bereiche, in denen sich LSI Logic intensiv engagiert. "Wir sind die Nummer eins bei den Prozessoren für den Unix- Markt" , teilt Corrigan ohne besondere Emotionen mit. Also bei den wissenschaftlichen und technischen Workstations. "Das ist sehr synergistisch mit unseren anderen Geschäftsbereichen, den Chip- Sets und den Asics."

G ewinnträchtig ist für LSI das Geschäft mit dem führenden Hersteller von Workstations, Sun Microsystems, deren "Sparc-Prozessoren LSI fertigt. Von der Sparc-Station 1 wurden nach Herstellerangaben mehr 120000 Stück verkauft. Mit Hilfe der Asic-Technik konnte sie in acht Monaten produktionsreif gemacht werden.

Auch die Risc-Prozessoren können natürlich kundenspezifisch differenziert werden, um Produktabgrenzungen zu realisieren. Und das kann dann auch wieder zu herstellereigenen, marktdominierenden Designs führen. Das heißt aber, so spekuliert Corrigan, die generelle technologische Entwicklung pendelt vom Monopol zur multiplen Versorgung und zurück.

Können aber die Asics auch in Zukunft preisgünstig genug gefertigt werden, um mit den Standard-Produkten Schritt zu halten? "Ich habe circa 200 Kunden für Chip-Sets" , sagt Corrigan. "Die haben keine eigenen Waferfabriken, sondern kaufen das fertige Produkt von uns, stempeln ihren Namen darauf und die Teile- Nummer - und fertig: Eine Fabrik für 200 Mio. Dollar einzurichten, wäre für sie sinnlos."

Allerdings kommen hier in letzter Zeit den Systementwicklern starke Zweifel. Insbesondere, wenn es darum geht, die Asic-Technologien auch für kleinste Stückzahlen von kundenspezifischen Schaltungen nutzbringend einzusetzen. Auch Corrigan sieht das so: "Sie werden sicher nicht etwas herstellen wollen, das einen intellektuellen Wert von einem oder zwei Dollar hat."

Also müssen die Preise steigen, wie es die Halbleiter-Kapitalgeber und die Hersteller von IC-Fertigungsgeräten seit einiger Zeit fordern? "Ich würde liebend gerne Preisanstiege prophezeien" , wehrt Corrigan ab. "Ich bin jetzt dreißig Jahre in diesem Geschäft. Aber das habe ich noch nicht gesehen..."

Ein computergestütztes Informationssystem als Berater - Von Markus Schnurpfeil Wenn der Handwerksbetrieb Konkurrenten und Kunden sucht VDI-N, Bonn, 17.5.91 -

Derzeit besteht in den Betrieben des Handwerks kein Bedarf an der Nutzung von Online-Datenbanken. Informationen zur unternehmerischen Planung bezieht der Handwerker eher aus traditionellen Quellen. Den Handwerksberatern der Kammern wird jedoch in naher Zukunft ein computergestütztes Informationssystem zur Verfügung stehen. Die Online- Recherche in einem zentralen Host ist dabei lediglich ein Fernziel.

E ine Untersuchung der Handwerkskammer Trier widmete sich vor einiger Zeit dem Informationsverhalten von Handwerkern. Ziel des Projekts war es, einen eventuellen Bedarf der Handwerkerschaft an externen Datenbanken zu ergründen. Das Ergebnis der breit angelegten Befragungsaktion überraschte nicht: In der Palette der möglichen Informationsquellen lagen die Datenbanken weit abgeschlagen an letzter Stelle.

Der Handwerker bezieht das für sein unternehmerisches Handeln notwendige Know-How vornehmlich aus Gesprächen mit Kollegen und Kunden sowie aus Messebesuchen und Fachzeitschriften. "Online ist nicht angesagt" , faßt Harald Eiß zusammen. Er ist bei der Trierer Handwerkskammer mit der Entwicklung von "Maris" befaßt; dieses Kürzel steht für "Marktinformationssystem" . Dabei handelt es sich - gewissermaßen als Schlußfolgerung aus der Untersuchung zum Informationsverhalten der Handwerker - um eine speziell für die Berater der Kammern entwickelte Datenbank, die die Handwerksexperten in erster Linie bei Standortanalysen unterstützt.

A ls weiteres Ergebnis erbrachte die Untersuchung der Trierer Kammer nämlich, daß es den Handwerkern vor allem an Wissen über potentielle Absatzmärkte mangelt. Daraus wiederum resultieren, ganz besonders natürlich bei der Neugründung von Betrieben, Probleme bei der Wahl des richtigen Unternehmenssitzes. Eiß: "Maris ermöglicht den Betriebsberatern der Kammern künftig sozusagen auf Knopfdruck den Abruf und die Bewertung individueller Informationen zum Absatzmarkt von zunächst zehn ausgewählten Gewerken des Handwerks."

Als konkrete Informationen bietet das System zum einen Daten über den zu beratenden Betrieb selbst, zur Standortgemeinde sowie zur Konkurrenz- und Kundensituation im individuellen Absatzgebiet. Darüber hinaus werden zusätzliche Daten bereitgestellt, aus denen allgemeine Branchentrends sowie wichtige Kennzahlen aus Betriebsvergleichen hervorgehen.

Das Marktinformationssystem, dessen Programmierung derzeit bei der Kammer in Trier läuft, stellt ein in der Bundesrepublik bislang einmaliges Konzept dar. Auftraggeber des in der Aufbau- und Pilotphase rund 600000 DM teuren Projekts sind die Wirtschaftsministerien des Bundes und des Landes Rheinland-Pfalz. Projektträger ist die Gesellschaft für Mathematik und Datenverarbeitung (GMD) in Darmstadt. "Im Anschluß an die Pilotphase soll Maris ab 1992 bundesweit an andere Handwerkskammern, aber auch an weitere Wirtschaftsinstitutionen vertrieben werden" , erklärt Projektmitarbeiter Eiß.

Mit Maris wird einstweilen der dezentralen Datenspeicherung Vorrang vor

einer zentralen Host-Lösung eingeräumt, obgleich die Idee einer externen Datenbank für die Handwerksbetriebe vor allem im Bonner Wirtschaftsministerium wohl noch nicht völlig ausgeträumt ist. Eiß: "Wir entwerfen mit Maris gewissermaßen den strukturellen Rahmen für die Informationen, die Daten müssen vor Ort selber eingegeben werden." Die Kammern sollen dabei unter anderem - per Diskettenversand - auf Material der statistischen Landesämter oder von Markt- und Wirtschaftsforschungsinstituten zurückgreifen. Allerdings sind diese Daten allein für den spezifischen Bedarf der Handwerksbetriebe zu ungenau. Der besondere Vorteil der dezentralen Datenbank-Variation für die Handwerker liegt in der konsequenten Ausrichtung auf die einzelnen Gewerke sowie in der starken Regionalisierung des Datenpools.

"Denn der Markt für einen Handwerker umfaßt in vielen Fällen nur wenige Orte" , verdeutlicht Eiß. Mit anderen Worten: Ein Beratungsinstrument wie Maris macht nur Sinn, wenn die Datenbank-Inhalte

exakt am konkreten Bedarf der Handwerkerschaft orientiert sind - und wenn diese Inhalte dem Handwerker von qualifizierten Fachberatern aufgezeigt werden. Kein Wunder also, daß Harald Eiß bereits jetzt ein starkes Interesse an Maris verzeichnen kann: "Das System trifft auf die breite Zustimmung der potentiellen Nutzer in vielen Handwerksorganisationen, weil es als Hilfsinstrument für schnellere, fundiertere und effizientere Betriebsberatungen eine große Lücke der zielorientierten Informationsweitergabe schließt."

Mit Angeboten wie Maris dürfte die Datenbank-Abstinenz des Handwerks über kurz oder lang beendet werden. Freilich auf andere Weise, als sich das die Anbieter externer Hosts erhofft hatten.

Supercomputer rechnet mit Chips aus Gallium-Arsenid Forschungszentren und Industrieunternehmen wollen riesige Datenbestände schneller bearbeiten - Von Bernhard Rose VDI-N, München, 17. 5. 91 -

Hochleistsungsprozessoren aus dem Material Gallium-Arsenid sind das Geheimnis des neuen Rechners von Convex. Mit Leistungen im Gigaflop-Bereich will der Marktführer klassischer Mini-Supercomputer jetzt gegen Cray antreten.

W er sich eine Cray bisher nicht leisten konnte, dem bieten wir jetzt die Alternative" , gibt Geschäftsführer Helmut Mühl-Kühner selbstbewußt in der Frankfurter Convex-Geschäftsstelle laut. Während bei Anwendern von Cray- Maschinen bisher Convex meist nur die Vorrechner für die großen Numbercruchner stellte, will der Marktführer bei Mini- Supercomputern jetzt direkt Cray Paroli bieten.

In der Tat: Die neue Convex C3 hat es in sich. Mit seinen wahlweise bis zu acht parallel arbeitenden zentralen Recheneinheiten (CPUs) bringt es der neue Hochleistungsrechner aus Texas auf Spitzenleistungen von immerhin 2 Mrd. Gleitkommaoperationen in der Sekunde (2 Gigaflops) bei 32 bit Datenbreite oder 1 Gigaflop bei den im Supercomputing zumeist üblichen 64-bit-Anwendungen.

Die Texaner liegen damit im Leistungsformat einer Cray Y-MP, die bei vier Prozessoren mit rund 1,3 Gigaflops (64 bit) aufwartet. "Da können wir locker mithalten" , verkündet Mühl-Kühner, denn ausschlaggebend sei die Leistung in der Anwendung.

So soll bei der Berechnung von Finite- Elemente-Programmen wie Ansys S2, das schlecht zu vektorisieren oder parallel zu verarbeiten ist, die C3 mit acht CPUs rund 30 % schneller sein als eine Y-MP/832. Und beim Benchmark-Test nach Monte Carlo Transport Code zur Untersuchung von Ausbreitungen in turbulenten Strömungen habe die C3 mit einer einzigen CPU immerhin bereits 55 % einer Y- MP/816 gezeigt und ziehe dabei gleich mit einer Cray-2.

Als vergleichsweise attraktiv bezeichnet Mühl-Kühner die finanziellen Aufwendungen. Je nach Ausbaustufe reichen die Preise von 3,5 bis 12,5 Mio. DM. Und mit lediglich 45 kW elektrische Anschlußleistung zeigt sich die neue Maschine sogar als Sparbüchse bei den Betriebskosten. Ursache: Die aus dem vielversprechenden neuen Halbleitermaterial Gallium-Arsenid (GaAs) gefertigte Rechenlogik. Damit ist das neue Topmodell "der erste Superrechner mit Mikroprozessoren aus Gallium-Arsenid" , stellt Entwicklungs-Chef Stephen Wallach fest.

Rechen-Chips aus diesem Werkstoff zeigen die Eigenschaft, nicht nur mit höheren Taktfrequenzen arbeiten zu können, sondern gleichzeitig um rund den Faktor vier bis fünf weniger elektrische Energie zu schlucken als bislang üblich in CMOS oder ECL. Ein enormer Vorteil. So kommt der neue Numbercruncher ebenfalls nur mit Luftkühlung aus wie alle bisherigen Convex-Maschinen.

Auffällig ist die markante Form der neuen Convex-Maschine: Halbkreisförmig fächern sich vier mannshohe CPU-Schränke um den zentralen Arbeitsspeicher. Jede Box enthält zwei gewaltige CPU-Platinen, jede 20 kg wiegend bei 0,5m2 Fläche. Beidseitig mit Elektronik dicht gepackt besitzt jedes Bord außerdem seinen eigenen Transformator zur unabhängigen Stromversorgung. Allein tausend Pins verbinden jede Rechenplatine mit der Außenwelt.

Gallium-Arsenid-Bausteine in rund 30 verschiedenen Chip-Designs als Gate-Arrays enthält der Rechner, gefertigt allesamt bei Vitesse Semiconductor in Strukturbreiten von 0,8 PI352 m. Die größten Bausteine davon umfassen bis zu 45000 Logikschaltungen. Die Taktrate beträgt 60 MHz.

V ergleichsweise riesig ist der zentrale Arbeitsspeicher: maximal 4 GByte, das Doppelte der C2. Mit 4 GByte weist auch der virtuelle Speicher viel Platz auf. Solche virtuellen Speicher sind im Supercomputing wichtig, wenn das Rechenprogramm nicht vollständig in den (physikalisch vorhandenen) Arbeitsspeicher paßt.

Auf Durchsatz getrimmt ist ebenso der sogenannte Crossbar. Das ist die mit viel schneller Logik bestückte Kommunikationsdrehscheibe, über die jede CPU mit immerhin 500 MByte/s gezielt auf den Arbeitsspeicher zugreifen kann. Insgesamt verkraftet der Crossbar als Rangierbahnhof bei acht CPUs und einem zentralen

I/O-Port bis zu 4,5 GByte/s an Daten.

"Wir haben jetzt alles in Giga" , jubelt denn auch Marketing-Chef Dr. Harald Meier-Fritsch, "Gigaflops, Giga-Memory und Gigabyte pro Sekunde." Die enorm hohen Raten, Daten ein- und auszulesen, seien nicht zuletzt wegen neuer Aufgaben im Supercomputing nötig.

N eben der klassischen Aufgabe, als reiner Rechenserver eine Vielzahl von Workstations zu bedienen, etwa in der Analyse mechanischer oder chemischer Problemstellungen, steige der Bedarf an Hochleistungs-Fileservern und Datenbankrechnern mit kurzen Antwortzeiten. So kommt beispielsweise das Krebsforschungszentrum Heidelberg ohne einen Mini-Supercomputer (Convex C2) als reinen Datenbankrechner für die Sequenzanalyse bei Proteinen nicht aus.

Und auch das Rechenzentrum an der Universität Stuttgart sah sich bei der raschen Handhabung seiner riesigen Datenbestände in einem Dilemma: Während die Wissenschaftler auf ihrer Cray-2 rechnen, dient ihnen eine zusätzliche Y-MP lediglich zum Verwalten, Heranschaffen und Konvertieren der Informationen.

Auch der "Bedarf der Industrie an leistungsstarken Netzwerk- und File-Servern ist riesig" , spielt Mühl-Kühner auf die weiter wachsende große Zahl an vernetzten Workstations in den Unternehmen an. Besonders auch in kommerziellen Anwendungen, wie der Suche nach Informationen in riesigen Konzern-Datenbanken. "Wer da nicht uralte Cobolprogramme fährt, ist mit einer Convex gut bedient."

Das bislang auch von Cray und anderen ungenutzte Marktpotential für das neue Flaggschiff C3 sieht Mühl-Kühner in der Bundesrepublik bei rund 50 Einheiten. Kein Wunder, klafft doch in der Preisklasse zwischen 5 und 15 Mio. DM bislang ein gehöriges Loch.

HARDWARE/SOFTWARE

Rund 140 von 7000 Arbeitsplatzcomputern in der Verwaltung des Bundes sind von "Viren" verseucht. Das ergab eine Überprüfung, die das Bundesamt für Sicherheit in der Informationstechnik im gesamten Bundesgebiet veranlaßt hat. Wie das Innenministerium in Bonn weiter mitteilte, wären immerhin 10% der Viren in der Lage gewesen, ernste Schäden anzurichten. 70% der entdeckten Viren seien weitgehend harmlos und 20% hätten Programme zerstören können.

Neue Hand-Computer für mobile Anwendungen hat die Andromeda GmbH entwickelt. Das Kommunikationssysten kann nach Angaben des Münchener Herstellers überall dort eingesetzt werden, wo zwischen einer Zentrale und mobilen Benutzern Nachrichten und Handskizzen ausgetauscht werden sollen oder eine kabellose Verbindung zwischen einem tragbaren Computer und einer Maschine benötigt wird. Das System basiert auf dem mobilen Hand-Computer "AndroDat" , der einen taschenbuchgroßen, berührungsempfindlichen LCD- Bildschirm besitzt.

Die Eastman Kodak Co hat eine neue optische Speicherplatte mit einer Kapazität bis 10,2 GByte herausgebracht. Nach Angaben des Unternehmens ist dies weltweit die größte Speicherkapazität von im Handel erhältlichen Bildplatten. Die im Durchmesser 14 Zoll große Platte hat eine um 50% größere Kapazität als ihr Vorgängermodell, das 6,8 GByte speichern kann.

Trends und Neuentwicklungen von Softwareprodukten behandelt die Tagung "Zukunft der Software" am 29. Mai in der Bauhochschule Cottbus. Auf der von Compusoft, Lübben, organisierten Veranstaltung (15 DM Unkostenbeitrag) werden auch lokale Netze, CAD- und CIM-Lösungen sowie die Rechtslage im Softwarebereich dargestellt. Zu einem symbolischen Preis können Lizenzen für bereits genutzte MS-Dos-Programme erworben werden.

MAS-1600 heißt ein neuer Automatisierungsbaukasten, den Jenoptik Carl Zeiss Jena in Saalfeld/Thüringen entwickelt hat. Die Anwendung des Systems sieht der Hersteller in der sicherheitstechnischen Überwachung von Krananlagen, der Datenerfassung und -verarbeitung in der Umwelttechnik sowie der prozeßorientierten Steuerung von Galvanikanlagen. Nachrüstung durch Aufsteckmodule, Konfigurationsmöglichkeiten mit seriellen und parallelen Anschlüssen und Bildbearbeitungsmöglichkeiten sind Eckdaten dieser Neuentwicklung.

Workstations erhöhen die Grafik-Leistung EDV-Hersteller nimmt jetzt auch Altrechner in Zahlung Veraltete Maschinen werden wieder erneuert VDI-N, München, 17. 5. 91, B.R. -

Mit drei neuen Rechnern will Hewlett-Packard seine Stellung als Marktführer bei Workstations weiter gegen die Flankenangriffe seiner Wettbewerber ausbauen. Beim Kauf können die Kunden ihre Altrechner in Zahlung geben.

V iel Mips für wenig Geld" . Unter dieser Vorgabe präsentierte der Computerhersteller Hewlett Packard jetzt die ersten drei Workstation- Rechner 720, 730 und 750 seiner neuen Serie 700 mit Risc-CPU. Gleichzeitig ziehen die Strategen aus Böblingen ganz neue Seiten im Vertrieb auf: Altrechner werden in Zahlung genommen, gleichgültig welches Fabrikat.

Was bei Autos gut ist, kann für Computer nicht schlecht sein. So bietet Hewlett Packard jetzt zwischen 3000 und 9000 DM für jede in Zahlung gegebene Workstation beim Neugeschäft. Das alte Eisen ( "das funktioniert ja immer noch prima" ) werde aufgemöbelt, mit neuen Komponenten versehen und wieder verkauft.

Über die Märkte wollte man sich bei Hewlett Packard noch nicht äußern; der Vertriebsweg sei noch nicht ganz fertig. Doch daß der Ostmarkt mit seinen knappen Devisen daran besonderes Interesse zeigt, stehe außer Zweifel.

Das Angebot der Böblinger ist durchaus lockend: Rechnerhardware, nach zumeist vier Jahren steuerlich auf 1 DM abgeschrieben und leicht als veralteter Computerschrott ausgebucht, drückt beim Neugeschäft noch einmal kräftig auf den Preis. 10 % sind auf diese Weise immer noch drin. Kein Wunder beim Preis-/Leistungsverhältnis der neuen Rechner.

Mit 57 Mips (Millionen Instruktionen pro Sekunde) für 26 000 DM liegt bei der 720 das Mips bei mittlerweile deutlich unter 500 DM. Auf 42 000 DM kommt die 730, leistet 76 Mips und ist bereits mit 210-MByte-Festplatte ausgerüstet. Die Maschine 750 soll bei gleicher Leistung, doppeltem Cache-Speicher und mit 660-MByte-Platte rund 87 000 DM kosten.

Allen Maschinen gemeinsam ist eine enorm hohe Grafik-Leistung von über einer Million 2D-Vektoren in der Sekunde. Das stellt die Wettbewerber IBM (RS6000/320), Digital (Decstation 5000) oder SUN (Sparcstaton 2) leicht ins Abseits. Die Grafik-Leistung ist identisch mit der Serie 400, einer Workstation, die HP im letzten Sommer vorstellte und die auf dem Motorola-Prozessor MC68040 basiert. Insgesamt setzt sich die Produktlinie der Workstation-Rechner bei HP jetzt aus den Serien 400, 700 und dem oberen Ende DN-10000 zusammen, einem Überbleibsel aus der Apollo-Ära.

Das erweiterte Unix-Betriebssystem HP-UX in der Version 8.0 unterstützt nicht nur die beiden CPU-Prozessoren wie Motorola MC68040 der 400er Serie und die HP-eigene Risc-Entwicklung PA (Precision Architecture) der 700er Serie, sondern wurde mit weiteren Merkmalen versehen: Etwa SoftPC 3.0, womit sämtliche DOS-Programme auf den Unix-Rechnern betrieben werden können. Oder OSF/Motif. Oder HP-VUE 2.01, einer grafischen Benutzeroberfläche. Unterstützt werden alle drei Netzwerkstandards Ethernet/ FDDI, TCP/IP und Network File System (NFS). Das ehemals von Apollo entwickelte Network-Computing-System NCS ist selbstverständlich.

Vertrieb auch durch andere Firmen

Nach wie vor sei die Münchner Siemens bei HP größter Einzelabnehmer an Workstations in Europa. Das Erbe aus Apollo- Zeiten sei erst dieser Tage durch einen neuen Vertrag mit den Münchnern wieder besiegelt worden. Dennoch soll das Abnahmevolumen früher größer gewesen sein. Dafür werden Hitachi (Japan) und Samsung (Korea) die PA-Risc-Workstations von Hewlett Packard in Lizenz fertigen und im asiatischen Markt vertreiben.

Gut Holz für deutsche Maschinenbauer Messe Ligna in Hannover im Zeichen von Umwelttechnik und optimaler Werkstoffnutzung - Von Jürgen Heinrich VDI-N, Hannover, 17. 5. 91 -

Zur diesjährigen "Weltmesse für Maschinen und Ausrüstungen der Holz- und Forstwirtschaft" der in Hannover vom 8. bis 14. Mai ausgerichteten "Ligna '91" präsentierten sich Deutschlands Hersteller von Holzbearbeitungsmaschinen bereits mit vollen Auftragsbüchern und zweistelligen Zuwachsraten. Dennoch sind die west- und ostdeutschen Unternehmen weit davon entfernt, sich auf ihrem Lorbeer auszuruhen. Denn während die zunehmende Globalisierung des Wettbewerbs den Trend zur rechnergestützten Durchdringung ganzer Produktionssysteme bestärkt, greifen die bundesdeutschen Maschinenbauer zur freiwilligen Selbstverpflichtung in puncto Ergonomie und Qualität, um ihre führende Marktstellung zu sichern.

D as verflixte siebte Jahr haben die bundesdeutschen Holzbearbeitungsmaschinenhersteller denkbar gut überstanden. Nach Angaben der Fachgemeinschaft Holzbearbeitungsmaschinen im Verband Deutscher Maschinen- und Anlagenbau (VDMA) hielt der Aufwärtstrend in der Branche auch im vergangenen Jahr unvermindert an. Mit einem voraussichtlichen Produktionswert von 4,5 Mrd. DM und einem Zuwachs von 15 % konnten die deutschen Hersteller damit ihre Weltspitzenposition vor Italien, den USA und Japan sogar noch ausbauen.

Die 250 überwiegend mittelständischen Betriebe mit insgesamt rund 25 000 Beschäftigen erzielten dank der soliden Auftragsdecke zugleich eine überdurchschnittlich hohe Steigerung ihrer Produktivität. So betrug 1990 der Produktionswert je Beschäftigtem 180 000 DM gegenüber 160 000 DM im gesamten deutschen Maschinenbau.

Als Zugpferde der Holzmaschinenkonjunktur gelten nach wie vor die Homag in Schopfloch, derzeit weltweit größter Hersteller von Holzbearbeitungsmaschinen, Andreas Stihl aus Waiblingen, Michael Weinig in Tauberbischofsheim, Siempelkamp in Krefeld sowie die Ima-Norte Maschinenfabriken in Gütersloh.

W erner Neubauer, Geschäftsführer der Fachgemeinschaft Holzverarbeitungsmaschinen im VDMA, führt die Erfolgssträhne der deutschen Hersteller auf die außerordentlich große Breite ihrer Produktionspalette, das umfassende Know-how und die Flexibilität der Branche zurück. Der VDMA-Mann: "Dazu gehören leistungsfähige Sägewerksmaschinen ebenso wie komplette Anlagen zur Herstellung von Holzwerkstoffen, flexible Maschinensysteme und Bearbeitungszentren zur Möbelfertigung sowie Maschinen für den Tischler und Schreiner, einschließlich handgeführter Geräte und Elektrowerkzeuge für den Heimwerksbereich."

Von unschätzbarem Vorteil, so Neubauer, sei überdies die Kompetenz der deutschen Hersteller im logistischen Bereich. Sie umfasse nicht nur Konzeption, Planung und Inbetriebnahme kompletter Fabrikationsanlagen, sondern reiche von der Entwicklung kundenspezifischer Software bis zur Schulung und Ausbildung der Kundenmitarbeiter, Handwerker und Prozeßingenieure.

Diese Angebotstruktur sicherte den deutschen Holzbearbeitungsmaschinenproduzenten die vordersten Plätze auf den Exportmärkten. Unter den Maschinen und Anlagen, die in mehr als 160 Länder gingen, zählen vor allem jene zur Herstellung von Holzwerkstoffen, Kehl- und Fräsmaschinen, mehrstufige Format- und Kantenbearbeitungsmaschinen sowie flexible CNC-programmierbare Bearbeitungsstationen. Zu 70 % bestimmten in den ersten drei Quartalen des Vorjahres die europäischen Länder das Exportgeschäft der Branche, gefolgt von Nordamerika mit 13,4 % und Asien mit 10,9 %. Erstmals seit vielen Jahren belebten sich auch die Geschäftsbeziehungen mit der UdSSR, da die dortige Möbelindustrie kräftig in neue, modernere Anlagen investierte.

Eine Exportanalyse des Müncher Ifo-Instituts bestätigte den Deutschen inzwischen ihr gutes Abschneiden im Rahmen der OECD-Exporte vor den USA und Italien. Während Japans Maschinenbauer im Bereich der Holzbearbeitungstechniken eher eine Nebenrolle spielen, mauserten sich Produzenten wie Taiwan dagegen vor allem bei Standardmaschinen zu einer ernstzunehmenden Konkurrenz.

High-tech aber zeichnet vornehmlich die Produkte "made in Germany" aus. Branchenkenner führen dies auf den hohen Anteil elektronischer Komponenten zurück, die dem Trend folgend, immer häufiger zur Steuerung flexibler Fertigungsketten in Holzwirtschaft, Handwerk oder Möbelindustrie zum Einsatz kommen.

Nach Einschätzung von Dieter Siempelkamp, Vorsitzender der VDMA-Fachgemeinschaft Holzbearbeitungsmaschinen, drängt die Marktentwicklung dabei eindeutig in Richtung "konsequente Realisierung der Kompatibilität zwischen verschiedenen Bearbeitungsprozessen" , wobei komplette Systeme bislang übliche Insellösungen immer mehr verdrängen. Diese Tendenz zeichnet sich nach den Worten Siempelkamps bereits deutlich bei den mechanischen Komponenten ab. Ins Blickfeld rücke jedoch ebenfalls die elektronische Kompatibilität, auf deren Durchsetzung sich Forderungen des Umweltschutzes und der Ergonomie beschleunigend auswirkten. Siempelkamp: "Tragender Grundgedanke der Kompatibilität ist die optimale Materialausnutzung, reduzierter Energieverbrauch und gleichbleibende Maßhaltigkeit und Qualtität der gefertigten Produkte."

W ie Branchenvertreter versichern, bleiben Qualität, Sicherheit und Zuverlässigkeit auch künftig Markenzeichen deutscher Holzverarbeitungsmaschinen und -anlagen. Um dem Versprechen Nachdruck zu verleihen, gaben bereits 26 Holzbearbeitungsmaschinenhersteller, die VDMA-Fachgemeinschaft, die Holzberufsgenossenschaft sowie das Institut für Werkzeugmaschinen an der Universität Stuttgart die Gründung einer Forschungs- und Prüfgemeinschaft Holzbearbeitungsmaschinen (FPH) mit Sitz in Frankfurt am Main bekannt. Deren Mitglieder verpflichten sich nämlich, "nur Geräte, Maschinen und Anlagen zu entwickeln, zu produzieren und auszuliefern, die den neuesten Erkenntnisssen der Technologie, der Ergonomie und der Sicherheitstechnik entsprechen" .

Die FPH soll dabei die Funktion einer Prüfstelle wahrnehmen, die auf der Grundlage von Meßprotokollen autorisiert ist, den nach CEN-, DIN- und Iso-Normen unter die Lupe genommenen Maschinen ein Qualitätszertifikat zu verleihen. Holzstaub- und Lärmemissionen stehen dabei nach Auskunft der freiwilligen Selbstkontrolleure obenan. Ein erster Entwurf zur DIN-Normung der Holzstaubmessungen liegt bereits vor. Der Vorteil für den Käufer einer FPH-geprüften Anlage: Weitere, unter Umständen mit Auflagen verbundene Überprüfungen durch die Gewerbeaufsicht entfallen.

MASCHINENWELT

Wenige Tage nachdem die Werkzeugmaschinen-Messe EMO '91 in Paris ihre Tore geschlossen hat, veranstaltet die NC-Gesellschaft, Ulm, ihre Tagung "EMO-News 1991" . Mit dem Tagungsort Leipzig soll gleichzeitig ein Zeichen für den neuen Werkzeugmaschinen-Messeplatz (Meba '92) gesetzt werden. Zum Programm: Übersichtsvorträge der TU Chemnitz und Stuttgart zu den wichtigsten EMO-News. Fünf Referenten, die als Anwender Lösungen für ihre Fertigungskonzepte auf der EMO suchten, werden berichten. Auch Anbieter von Werkzeugmaschinen, Steuerungen, DNC-Konzepten usw. kommen zu Wort. Anwender aus den neuen Bundesländern können an der Veranstaltung kostenlos teilnehmen.

Oberflächenforschung in den fünf neuen Bundesländern: Das Institut für Fertigungsmeßtechnik und Qualitätssicherung der Technischen Universität Chemnitz führt vom 3. bis 5.2.1992 das achte Internationale Oberflächenkolloquium durch. Schwerpunkte des Kolloquiums sind unter anderem die funktions- und fertigungsgerechte Tolerierung von Gestaltsabweichungen unter Berücksichtigung von CAD/CAM-Systemen, Probleme der internationalen Normung von Kenngrößen und Meßaufgaben für Gestaltsabweichungen, die Messung von Form- und Lageabweichungen sowie die Auswertung der Oberflächenrauigkeit.

Japanische Werkzeugmaschinenbranche rückläufig: Um 7,6% auf 106,1 Mrd. Yen (100 Yen PI160 1,23 DM) nahmen die Aufträge der japanischen Werkzeugmaschinenhersteller im Februar gegenüber dem Vergleichsmonat des Vorjahres ab. Damit wurde nach Angaben des Branchenverbandes im dritten aufeinanderfolgenden Monat ein Rückgang des Auftragseingangs verzeichnet. Die Entwicklung wird als Zeichen dafür gewertet, daß die Privatwirtschaft ihre Ausrüstungsinvestionenen verringert, nachdem sie bis zum Herbst vergangenen Jahres rege investiert hatte. Der Auftragsbestand belief sich Ende Februar auf 619,4 Mrd. Yen und lag damit um 0,6% niedriger als im Januar.

General Motors sondiert derzeit mehrere Standorte in Europa für ein neues Getriebewerk. Gute Chancen hat hierbei, wie in Wien verlautete, auch der Standort Wien-Aspern. General Motors benötigt bis 1992/93 zusätzliche Kapazitäten für 250000 Getriebe in Europa. Ursprünglich war die 3-Mrd.-Dollar-Investition in Form eines gemeinsamen Joint- Ventures mit der slowakischen Autofabrik BAZ in Bratislava geplant gewesen. Die Verhandlungen scheiterten jedoch, vor allem an der von General Motors geforderten Steuerfreiheit für zehn Jahre. Härteste Konkurrenten für das neue Getriebewerk sind die neue Opel-Produktion in Eisenach sowie die GM-Tochter Saab in Schweden. Auch Spanien werden gute Chancen eingeräumt.

Der britische Konzern Lucas ist von Toyota in die Gruppe der britischen Anbieter von Autoteilen aufgenommen worden, die das neue Toyota-Montagewerk in Burnaston beliefern sollen. Lucas hat Verträge über die Lieferung von Prototypen mit Toyota geschlossen. Dabei handelt es sich um Hinterachsbremsen, Batterien und Kabelbäumen. Toyota hat bereits 80 % der 150 Komponenten-Anbieter für das Werk in Burnaston ausgewählt. Die Hälfte der Anbieter stammt aus Großbritannien, die andere Hälfte vom europäischen Festland. Mit allen Zulieferern wurden bisher Verträge über die Lieferung von Prototypen vereinbart.

Eiserner Geselle baut das Haus Arbeitskräftemangel in Japan fördert Entwicklung von automatischen und flexiblen Geräten - Von Barbara Odrich VDI-N, Tokio, 17. 5. 91 -

In der japanischen Bauindustrie wird derzeit intensiv über den verstärkten Einsatz von Robotern nachgedacht. Dabei ist zu beobachten, daß die Tendenz weggeht von Spezial-Robotern hin zu computergesteuerten Bausystemen. Shimizu Corp z.B. spricht vom "Smart System" und entwickelte eine Anlage zur Montage von stählernen Hochbauten. Diesen robotisierten Anwendungen außerhalb der Fabrik wird ein großer Markt vorhergesagt.

J e schwieriger es für die japanischen Bauunternehmen wird, Arbeitskräfte zu finden, desto stärker wird darüber nachgedacht, gezielt menschliche Arbeit durch intelligente Maschinen zu ersetzen. Wie aus der technischen Entwicklungsabteilung von Takenaka Corp. zu hören ist, hinkt die Bauwirtschaft bisher eindeutig hinter der produzierenden Industrie her, wenn es darum geht, Arbeitsprozesse zu automatisieren. Takenaka hat daher eine umfangreiche Umfrage gestartet, um zu erfahren, in welchen Bau-Bereichen Automatisation am dringlichsten notwendig sei. Priorität wird dabei besonders denjenigen Arbeitsvorgängen auf Baustellen gegeben, die als schmutzig, körperlich hart und unangenehm beziehungsweise gefährlich gelten. Dazu zählt nicht zuletzt das Gießen von Beton.

In den vergangenen Jahren wurden daher zahlreiche Roboter auf Japans Baustellen eingeführt. Kenner der Szene gehen von derzeit rund 50 verschiedenen Roboter- Typen aus. Dabei haben diese Maschinen in erster Linie Aufgaben wie das Schweißen und die Montage von Stahlseilen oder Malerarbeiten übernommen. Doch trotz so mancher Anstrengungen in diesem Bereich, stoßen die Geräte dennoch nicht gerade auf Gegenliebe. Kritiker sehen die Automaten nicht als technischen Fortschritt sondern als Mittel zur effektiven Kostenreduzierung und damit als arbeitskräfteeinsparend an.

Zu den Pionieren beim Einsatz moderner Roboter-Techniken auf der Baustelle gehört Ohabayashi Corp. mit Sitz in Osaka. Das Bauunternehmen hat ein automatisiertes System entwickelt, für das bereits sechs Patente angemeldet wurden. Das Unternehmen arbeitet mit einem Super-Construction-Floor.

D ieses SCF-System funktioniert so, daß Pfeiler mit eingebauten hydraulischen Zylindern in gleicher Konfiguration wie das zu errichtende Gebäude aufgestellt werden. Es besteht ferner aus Kränen, die an der Decke entlanglaufen. Diese Kräne werden von Robotern gesteuert und können sowohl schweißen wie auch Inspektionen machen als auch Außen- und Innenverkleidungen befestigen. Vorgefertigte Pfeiler, Raumteiler, Bodenbeläge, Deckenverkleidungen und Balken werden von Robotern mit Transportern vom Lagerhaus zur Baustelle befördert. Nachdem ein Stockwerk fertiggestellt wurde, wachsen die hydraulischen Zylinder wieder in die Höhe, und damit wird das SFC-System ein Stockwerk höher plaziert.

Nach Vorschlägen der Shimizu Corp. sollen bei einer ähnlichen Montage-Methode die obersten Stockwerke zuerst am Boden fertiggestellt werden. Im folgenden werden dann die weiteren Stockwerke jeweils von oben nach unten darunter gehängt. Roboter positionieren Wände sowie Querträger und senkrechte Träger. Dieses "Smart System" von Shimizu wurde auf der Konferenz des Massachusetts Institute of Technology (MIT) Anfang dieses Jahres in den USA vorgestellt. Wie ein Sprecher von Shimizu betont, geht es vor allem darum, Arbeitskräfte einzusparen und den größtmöglichen Nutzen aus bereits bestehenden Robotern zu ziehen.

Automatisierte Bausysteme bringen vielfältige Vorteile mit sich. Dabei geht es auch um die Verbesserung der Sicherheit auf den Baustellen und die Beschleunigung des gesamten Bauprozesses. Letzteres liegt daran, daß Roboter im 24-h-Betrieb eingesetzt werden können. Die Bauunternehmen hoffen nicht zuletzt auch, durch ein neues und saubereres Image mehr Berufsanfänger auf Baustellen locken zu können.

In der nächsten Ausgabe:

"Industrieroboter lernen laufen"

CHEMIE/VERFAHREN

Beschichtete Rotoren für Plasma- Ätzprozesse in der Halbleiterindustrie sollen jetzt länger halten, denn Rotor und Stator der Turbo-Molekularpumpe sind im allgemeinen aus Aluminium hergestellt. Die durch das Plasma angeregten halogenhaltigen Moleküle des Ätzgases reagieren mit dem Aluminium und bilden flüchtige Verbindungen, die mit dem Prozeßgas abgepumpt werden. Verfahren wie Eloxieren, Verchromen oder Vernickeln sind wenig geeignet. So bilden sich z. B. bei Nickelschichten nach längerer Betriebsdauer Risse, die zu einem Unterwandern der Schicht durch die Reaktionsgase führen können. Als beständige Schicht erwiesen hat sich eine keramikartige Aluminium-Oxid-Schicht , die durch Funkenentladung in einer wässrigen Elektrolytlösung erzeugt wird. Mit diesem Verfahren könne auch auf geometrisch so komplexen Strukturen wie Rotoren und Statoren einer Turbo-Molekularpumpe eine riß- und porenfreie Schicht erzeugt werden, gibt der Pumpenbauer Leybold, Köln, bekannt.

Pumpen sind unverzichtbar, um Wasser, Boden und Luft rein zu halten. Aber welche Pumpe ist die zweck- und leistungsfähigste? Im Auftrag der Zeitschrift UMWELT des VDI-Verlages hat deshalb der Pumpenfachmann Dipl.-Ing. Wilhelm Beck den Pumpenmarkt aus der Sicht eines Anwenders durchleuchtet. Das Ergebnis in der Ausgabe 5/91, die zur Achema 91 in Frankfurt/Main erscheint, erleichtert dem planenden Ingenieur und Betreiber die Auswahl. Zu der Marktübersicht gehören Tabellen mit den Pumpentypen der wichtigsten deutschen Hersteller, ausgewählt nach den Arbeitsbedingungen und dem Stand der Technik.

Entschwefelung und Entstickung im Test: Das von Degussa im Konsortium mit Lentjes und Lurgi gemeinsam mit den Stadtwerken Münster (SWM) entwickelte Desonox-Verfahren hat während der Heizperiode 90/91 am 100-MW- Kraftwerksblock 3 des Kraftwerks Hafen der SWM seine großtechnische Bewährungsprobe bestanden. Stündlich werden 120000 m3 Abgas mit Hilfe der Desonox- Schaltung simultan katalytisch entstickt und entschwefelt. Das Produkt der Entschwefelung ist eine marktgängige Schwefelsäure. Das Verfahren arbeitet ohne Ammoniakschlupf, und die gereinigten Rauchgase sind frei von Staub, Chloriden und Fluoriden.

Lockender Markt für Sekundär- Werkstoffe: In drei Jahren will die BUS-Umwelt-Service AG, Frankfurt, ihre Verarbeitungskapazität verdoppeln. In Vorbereitung sei eine Gießerei-Altsandaufbereitung in Detmold sowie ein neues Werk zur Aufbereitung von Aluminium- Salzschlacke in Hannover. Zumindest auf dem Feld der Aufbereitung von Aluminium-Salzschlacke werde BUS den deutschen Markt bedienen können. Von den jährlich anfallenden rund 350000 t Salzschlacke werde BUS schon mit dem weiteren Ausbau der Hauptanlage in Lünen/ Westfalen in diesem Jahr rund 240000 t zur Verarbeitung aufnehmen können.

Südliche Außenwand als Sonnenkollektor Solarfassade beheizt Bürohaus - Von Rudolf Weber VDI-N, Lausanne, 17. 5. 91 -

A nfang der 80er Jahre gewann die Idee von der Integralfassade Gestalt. Die südseitige Front von Bürohäusern sollte mit Bauelementen bestückt werden, die Fenster und Brüstung in sich vereinigen und - im Unterschied zu herkömmlichen Fassaden - zugleich die Sonnenenergie nutzen. Im wesentlichen handelt es sich um Luftkollektoren. Entwürfe aus der Hand von Architekten, Ingenieuren, Fensterherstellern und Forschungsinstituten gab es viele. Ob sie sich aber in der Praxis bewähren würden, konnten nur eingehende Versuche zeigen. Diese Messungen wiederum setzen nicht nur umfassende bauphysikalische Kenntnisse voraus, sondern auch ganz spezielle instrumentelle und bauliche Einrichtungen. Da es vor allem an letzteren mangelte, wurde in der Schweiz 1982 das LESO geschaffen, das Laboratoire d'Energie Solaire.

Dieses Sonnenenergie-Laboratorium ist ein zweistöckiges Gebäude von der Schuhkarton-Gestalt üblicher Bürobauten. Seine Südfassade bietet die Möglichkeit, je Stockwerk drei, insgesamt also neun verschiedene, je rund 20 m2 große Fassadenelemente einzubauen und gegen andere auszutauschen. Hinter den Elementen liegen Büroräume, worin die Bauforscher ihre tägliche Arbeit verrichten. Im Laufe der Jahre sind rund zwei Dutzend am LESO selbst oder von Schweizer Forschungsinstitutionen sowie Firmen entworfene Integralfassaden geprüft worden, jede über mindestens eine Heizsaison, meist aber über ein ganzes Jahr. Eine solche Prüfung besteht nicht nur aus dem Messen von Energiebilanzen. Auch die Abschätzung des Heizkomforts gehört zu den Aufgaben des LESO-Teams, das unter der Leitung durch Prof. Andre Faist internationale Geltung erlangt hat. Ferner formulieren sie mathematische Modelle der vermessenen Elemente, um der Messung nicht zugängliche Varianten berechnen zu können. Die meisten Projekte, darunter neuerdings solche zur verbesserten Tageslicht-Nutzung in Gebäuden, sind von Nationalen Energie-Forschungs-Fonds der Schweizer Energiewirtschaft gefördert worden.

Einer der jüngsten Prüflinge ist eine Integralfassade, in der das LESO die früher gewonnenen Erkenntnisse verarbeitet hat. Der Fortschritt, so Faist, zeige sich in der Einfachheit im Vergleich zu älteren, komplizierten Elementen sowie in erhöhter Wirksamkeit. Die neue "Doppelwand- Fassade" hat als äußere Wand eine einfache Glassscheibe, die die 2,75 m x 7,20 m große Fläche bis auf den Rahmen bedeckt. In 30 cm Abstand folgt die Innenwand. Sie besteht in ihrem unteren, 83 cm hohen Teil aus einer massiven Brüstung, im oberen Teil aus einer Zweifach-Isolierverglasung (2-IV).

Nun sorgen schon die beiden Glaswände im Verein mit der Luft zwischen ihnen für gute Wärmedämmung, nämlich einen k- Wert von 1,2. Zudem erwärmen Sonnenstrahlen die Luft im Zwischenraum ebenso wie die Brüstung (der innerhalb des Zwischenraumes noch eine einfache, nach innen zu beschichtete Glasscheibe vorgesetzt ist). Das hat zur Folge, daß die Innenseite der 2-IV-Wand auf eine höhere Temperatur kommt als ohne die Glas- Außenwand - was sich wiederum für die Benutzer des Büros komforterhöhend auswirkt (wird Wärmestrahlung von den Umgrenzungen eines Raumes doch als angenehm empfunden). Die Brüstung strahlt ebenso, wirkt aber dank ihrer massiven Bauweise noch als Wärmespeicher.

D as LESO-Team zog nach zweijährigen Messungen eine positive Energiebilanz: Im Laussaner Klima würden - im Laufe einer normalen Heizsaison - durch eine bestens wärmegedämmte Mauer anstelle der "Doppelwand- Fassade" je m2 Fläche 280 MJ Wärmeenergie mehr nach draußen verlorengehen. Anders gesagt: Die Doppelwand-Fassade spart die Hälfte an Heizenergie. Und Berechnungen zeigen, daß dieses Verhältnis auch für ein Gebirgsklima wie in Davos gültig bleibt - allerdings nur, wenn die Fassade zwischen Südost- und Südwest orientiert ist.

Bei Ausrichtung nach Westen, so ergibt die Modellrechnung, würde die Sparwirkung um 45% zurückgehen. Und weiteres Detail: Wärmeschutzverglasung der inneren Glaswand verbessert die Sparwirkung bis 35%. Wo viel Licht ist, fällt allerdings auch Schatten. So würde ein Innenvorhang nochmals 23% mehr Sonnenenergie nutzen, den Büroraum jedoch im Sommer unerträgich (nämlich bis zu 43 OC) überhitzen. Daher müssen, neben Fensterflügeln zum Öffnen, unbedingt Abschattungsvorrichtungen vorhanden sein, und zwar vor der Fassade.

Faist räumt der "Doppelwand-Fassade" jedenfalls gute Chancen ein, bald Eingang in die Baupraxis zu finden: "Sie ist nicht nur passiv und wirksam, sondern auch aus marktgängigen Teilen und Werkstoffen aufgebaut" . Passiv bedeutet, daß keinerlei bewegliche Teile vorhanden sind - in der Regel ein Vorteil hinsichtlich Dauerhaftigkeit.

V erschiedene der am LESO geprüften Fassadenelemente werden bereits in Serie produziert und in einer wachsenden Zahl von Bürohäusern eingesetzt, und zwar sowohl bei Neubauten wie bei Renovationen. Antrieb dazu dürfte in erster Linie eine Wirtschaftlichkeitsüberlegung sein: Der Mehrpreis gegenüber herkömmlichen Fassaden werde durch die im Durchschnitt etwa 50%ige Energieeinsparung sowie durch Vereinfachungen bei der übrigen Haustechnik wettgemacht, sagen Hersteller wie Bauherren. Also gute Voraussetzungen für eine weite Verbreitung der Energiespar- Fassaden, wie sie für spürbares Energiesparen auch im Landesmaßstab wünschenswert ist.

Brandgefahr im Haus Leichtfertiger Umgang mit der Technik Wohnungsinhaber müssen über ihr Feuerrisiko aufgeklärt werden Von Hannsjörg Lawrenz VDI-N, Berlin, 17. 5. 91 -

Oft sind sich Wohnungsinhaber der hohen Brandgefahr, der sie sich aussetzen, nicht bewußt. So bricht häufig nur durch Unwissenheit und Leichtsinn der Bewohner Feuer aus. Aufklärung der Bürger über das Brandrisiko und unterschiedliche Schutzmaßnahmen sollen die Gefahr vermindern.

N ach Schätzungen von Brandexperten werden in Deutschland die Feuerwehren etwa 200000mal im Jahr zu Bränden gerufen, bei denen rund 600 Menschen ihr Leben verlieren. Wärmeabstrahlende technische Geräte wie Heizsonnen, Kocher oder Bügeleisen zählen zu den häufigeren Verursachern solcher Ereignisse, obwohl durch etwas Aufmerksamkeit die Gefahr eingeschränkt werden könnte: allein durch Einhalten eines Sicherheitsabstandes zu leichtentflammbaren Gegenständen und durch Verwendung einer wärmebeständigen Unterlage. Schäden in elektrischen Leitungen, die allzu oft Ursachen für Brände sind, können durch Installation von Fehler-Strom-Schutzschaltern (FI) vermieden werden, berichtete Dipl.-Ing. Helmut Wissemann vom Verband der Sachversicherer und Brandexperte während einer unlängst in Berlin von dieser Institution veranstalteten Informationsveranstaltung über die Verhütung von Wohnungsbränden. Die FI-Schalter seien deswegen wichtig, weil sie bei schadhaften Isolationen an elektrischen Leitungen von Elektrogeräten - etwa an der Kabelschnur am Staubsauger - die Stromzufuhr sofort automatisch abschalten.

Zu den vom Verband der Sachversicherer empfohlenen Schutzmaßnahmen gehören auch die handelsüblichen und überall leicht zu montierenden Rauchmelder. Diese schalten zwar bei einem Brand den Strom nicht aus, schlagen aber lauthals Alarm, sobald sie eine Rauchentwicklung wahrnehmen.

Als besondere Gefahrenquelle entpuppe sich immer wieder der Küchenbereich. "Unachtsames Fritieren, Überhitzung von Fett und Öl, die dann aus Unwissenheit mit Wasser gelöscht werden sollen, oder gar das Flambieren unter einer eingeschalteten Dunstabzugshaube" , so Peter Günther, "sind häufig Ursachen für katastrophale Brände, bei denen mitunter das ganze Haus abbrennen kann." Ein anderer häufiger Grund, weshalb die Feuerwehr zu Bränden gerufen werde, stellen Kaffeemaschinen dar, die in Büros nahezu konstant in Betrieb sind. Die Erfahrung zeige, daß von neuen elektrischen Geräten weniger Gefahren durch Kurzschluß oder Überhitzung ausgingen. Besonders gefährlich seien dagegen grundsätzlich Elektrogeräte, die älter als zehn Jahre sind.

Brandgefährdet sind nach Erfahrungen von Wissermann auch Heimwerker, die sich unbewußt einer akuten Explosionsgefahr aussetzen, wenn sie in unbelüfteten Räumen etwa mit Kunststoffklebern, Versiegelungsmitteln oder Nitro-Lacken arbeiten. Selbst eine geringe Quadratmeterzahl, mit einem Kunststoffkleber überzogen, reicht aus, um beim Anstecken einer Zigarette eine Explosion auszulösen.

Nach Empfehlung des Verbandes der Sachversicherer sollten auch in Wohnungen oder Büros und vor allem in Häusern Feuerlöscher griffbereit montiert sein. Dabei empfiehlt der Verband die Verwendung von wassergefüllten Löschern anstelle von pulvergefüllten. Im Bedarfsfall würde das Pulver wie auch das Wasser das Feuer löschen, aber auch durch seine Verteilung darüber hinaus in Nachbarräumen erhebliche Schäden an elektrischen Geräten wie Computern anrichten.

E ine finanzielle Absicherung gegen Wohnungsbrände bieten die Verbundene Hausrat- und die Verbundene Wohngebäudeversicherung, sofern der Brandschaden nicht vorsätzlich oder grob fahrlässig herbeigeführt wird. Wichtig dabei ist, daß die Versicherungssumme dem tatsächlichen Wert des Hausrats oder Hauses entspricht.

Licht, Platz und Farbe - der ICE wird zum Erlebnisraum Umweltfreundlicher Intercity Express lockt Autofahrer und Flieger mit viel Service und Komfort - Von Jürgen Heinrich VDI-N, Düsseldorf, 17. 5. 91 -

Nur noch 14 Tage trennen Deutschlands Eisenbahner von jenem 2. Juni, in dessen Morgenstunden der erste von 25 Intercity Express planmäßig auf der Strecke von Hamburg-Altona nach München-Hauptbahnhof die Ära der "neuen Bahn" eröffnet: schnell, sicher, komfortabel, eine umweltfreundliche Alternative zu Flugzeug und Pkw. So jedenfalls im Verständnis seiner Erfinder.

I n der Frankfurter Zentrale der Deutschen Bundesbahn (DB) herrscht Aufbruchstimmung. Knut Reimers, Vorstandsmitglied Technik, faßt diese Zuversicht in Worte: "Mit dem Fahrplanwechsel wird die DB im Ringen um Marktanteile im deutschen und europäischen Verkehrsmarkt einen großen Schritt vorankommen. Dieser Fahrplanwechsel bedeutet eine völlige Neuordnung und Verbesserung des Angebots im Schienenpersonen- und Schienengüterverkehr" .

Der Intercity Express, so Reimers, käme genau zur rechten Zeit, um ins Rennen zu werfen, was der Markt verlangt: Geschwindigkeit, Zuverlässigkeit und Sicherheit, insbesondere jedoch Komfort und Service. Nur ein aus Fahrzeugen, Strecken und Betriebsanlagen bestehendes, "homogenes" Hochgeschwindigkeitssystem sei in der Lage, die bis zum Jahr 2000 erwartete Verkehrsteigerung von weltweit 80 % zu bewältigen, unterstreicht das DB-Vorstandsmitglied.

Was noch vor gut anderthalb Jahren Designer, Innenarchitekten, Ingenieure und Handwerker am originalgroßen Holzmodell im Nürnberger Ausbesserungswerk Kopfzerbrechen bereitete, hat inzwischen unzählige Probefahrten absolviert. Die Probe auf's Exempel, der Dauertest unter Betriebsbedingungen freilich steht erst noch ins Haus. Auf der ICE-Linie 6 von Hamburg über Hannover, Göttingen, Kassel, Fulda, Frankfurt/M., Mannheim, Stuttgart, Ulm und Augsburg nach München Anfang nächsten Monats und mit Beginn des Winterfahrplans auch auf der Linie 4. Sie verbindet die Hansestadt auf direktem Weg über Fulda, Würzburg und Nürnberg mit der Isar-Metropole.

Um das neudurchdachte Innenleben des künftigen Flaggschiffes der Deutschen Bundesbahn in seiner Synthese von Service und Komfort zur Geltung zu bringen, wählten Bahn und Konstrukteure das bereits im Intercity-Betrieb bewährte Prinzip der Blockzugbildung: Auf drei oder vier 1.Klasse-Wagen in dem maximal 14teiligen Zug folgen der Servicewagen mit Bordrestaurant und Bistro und schließlich die 2.-Klasse-Wagen.

Ein Harmonie und Wärme ausstrahlendes Farbdesign der einzelnen Wagen gestaltet die Übergänge zwischen den Klassen fließend. Überhaupt mischten die ICE- Inennarchitekten das altbekannte Raumteilungsprinzip kräftig. Die Hintereinanderreihung von Großraumwagen und Abteilwagen gehört beim ICE der Vergangenheit an. So verfügt jeder Mittelwagen in der ersten Klasse über einen Großraum mit Reihenbestuhlung wie im Flugzeug, über einen weiteren Großraumbereich mit gegenüber angeordneten Sitzen und großen Tischen sowie über Abteile mit Seitengang und Zutritt zu Telefonzelle und Toilette. In den Abteilen realisierten die Gestalter eine völlig neue Bein- und Ellbogenfreiheit durch die Anordnung von jeweils drei zu zwei der ergonomisch geformten Sitze, die selbst Airbus-Komfort weit übertreffen. Zwischen den Abteilen befinden sich Schließfächer für das Handgepäck der Reisenden.

Licht und Farbe durchfluten den Raum im gesamten Zug. Während kräftige Blau- und Rottöne, helle Wände, indirekt strahlende Leuchtbänder, Halogen-Lesespots über den Sitzen sowie farblich abgestimmte Teppichböden das Erscheinungsbild der ersten Klasse prägen, dominieren neben dem gleichen Leuchtenkomfort Pastelltöne in der zweiten Klasse. Ihre Wagen bieten jeweils vier Abteile mit sechs Sitzen, einen Großraumbereich mit neun hintereineinander gereihten Doppelsitzen und zwei weiteren Einzelsitzen an einer Garderobe. Sie trennt den Bereich der Reihenbestuhlung von den vis-a-vis plazierten Doppelsitzen und zwei einzelnen Sitzenplätzen.

Bei der Klimatisierung der ICE-Mittelwagen betraten Bundesbahn und Industrie Neuland. Eine auf die besonderen Anforderungen an Komfort und Sicherheit des Hochgeschwindigkeitsfahrens abgestimmte Klimaanlage mit Deckenausblasung sowie zwei besondere, in Fußböden und Seitenwänden installierte Heizsysteme produzieren zugfrei wahlweise Warm-, Kalt- und Frischluft. Druckschutzventilatoren sowie die erstmals auf der Welt realisierte druckdichte Ausführung des gesamten Zuges gewährleisten, daß keine Druckschwankungen bei der Begegnung zweier mit 250 km/h verkehrenden Intercity Express oder bei Tunnelfahrten in den Wagen auftreten.

Excellente Geräuschdämmung und Laufruhe der Fahrzeuge gestatten gleichermaßen ein ungestörtes Arbeiten, Entspannen und Genießen während der Reise. Auch das erstmals in Zügen der DB installierte geschlossene Toilettensystem mit Vakuumabsaugung sorgt für eine der "neuen Bahn" entsprechende Hygiene an Bord.

In der nächsten Ausgabe:

"Moderne Kommunikationstechnik erhöht die Reisequalität"

Moderne Anlagen statt Baudenkmäler Bisherige Untersuchungen geben erst ein lückenhaftes Bild von der Schadstoffbelastung des ostdeutschen Wassers Von Christof Hug-Fleck VDI-N, Düsseldorf, 17. 5. 91 -

Wasser kann in weiten Bereichen der neuen Bundesländer nur noch eingeschränkt als Lebensmittel deklariert und genutzt werden. Nicht nur Trinkwasser- und Klärwerke schienen während der Kommandowirtschaft unwichtig, auch das Versorgungsnetz und die Wasserressourcen sind vielerorts in einem bedenklichen Zustand.

T räge mäandriert die 1165 km lange Elbe durch Sachsens Hauptstadt Dresden. Das Flußsystem der Elbe hat für die neuen Bundesländer eine ähnliche Funktion wie der Rhein für Westdeutschland. Als drittgrößter Strom Mitteleuropas entwässert die Elbe über 70% der fünf östlichen Länder. Zudem sind sie - verglichen mit der alten Bundesrepublik - relativ wasserarm und müssen das Elbewasser als wichtigen Wasserlieferanten für die verschiedensten Zwecke intensiv nutzen.

Auf den ersten Blick sieht man dem Fluß nicht an, mit welcher Schadstoffmenge das Wasser belastet ist. So flossen allein im Großraum Dresden täglich 215000000 l Abwässer ungeklärt in die Elbe. Erst ab Mai wird das Dresdner Abwasser wenigstens mechanisch geklärt (siehe VDI-Nachrichten 17/91). Andere Gewässer erlitten ein ähnliches Schicksal: Rund 40% der ostdeutschen Gewässer gelten als unrettbar verschmutzt.

Unabhängige Kontrollinstanzen wie im Westen existierten vor der "Wende" nicht, da die Wasserwirtschaftsbehörden genau wie Unternehmen dem Ministerium für Umweltschutz und Wasserwirtschaft unterstellt waren. Inzwischen wurden die Wasserversorgungsunternehmen in Kapitalgesellschaften umgewandelt, mit dem politischen Ziel, den Gemeinden als regionale Träger Einfluß auf die künftige Wasserversorgung zu ermöglichen.

Allein das veraltete Trinkwassernetz bringt ein erhebliches Maß an Belastungen. Das Trinkwassersofortprogramm vom Berliner Bundesgesundheitsamt (BGA), das 2000 Wasserproben aus den neuen Bundesländern untersuchte, "soll in erster Linie Hintergrundinformationen liefern" , so Prof. Andreas Grohmann vom BGA. "Vor allem die Spitzenwerte von Mangan und Eisen stammen aus dem maroden Rohrnetz, und die notwendige starke Chlorung des Wassers bringt eine Erhöhung des Gehalts an chlorierten Kohlenwasserstoffen." Die 2000 Wasserproben ergeben jedoch noch kein flächendeckendes Bild von der Wasserqualität in der Ex-DDR.

Nur wenige Daten sind bisher bekannt. Etwa eine Million Bürger erhalten Trinkwasser mit zu hohen Nitratgehalten. Besonders in den Gebieten Dresden, Leipzig und Halle sind Werte von mehr als 150 mg/l Nitrat gemessen worden - das Dreifache des EG-Grenzwertes. Spitzenwerte erreichen bis 600 mg/l. Die Belastung durch Pflanzenschutzmittel ist bis heute weitgehend unklar, da sie erst an wenigen Stellen analysiert wurde. Für rund vier Millionen Menschen ist das Wasser wegen Trübung, Färbung oder organischen Belastungen nur schwer zu genießen.

"Die bestehenden Strukturen in der ostdeutschen Wasserwirtschaft bergen jedoch große Chancen mit einem erheblichen Entwicklungspotential" , so die Untersuchungen der EC Consulting Group in Düsseldorf. Entsprechend der früheren Bezirkseinteilung bestehen 14 regionale Wasserunternehmen, daneben die Fernwasserversorgung Elbaue-Ostharz in Torgau. Die Ostberliner Wasserversorgung soll mit der Westberliner vereint werden. Mit rund 26000 Mitarbeitern förderten diese Unternehmen knapp 2 Mrd. m3 Wasser - rund ein Drittel der westdeutschen Förderleistung. Zum Vergleich: In den alten Ländern existieren rund 6500 Wasserversorger, davon knapp 4000 Kleinst- und Kleinversorger mit weniger als 200000 m3 Jahresleistung.

Die Größenvorteile dieser Grundstruktur zeigen, daß eine Beibehaltung der Kooperation grundsätzlich günstiger ist als der Aufbau dezentraler Kapazitäten. Auch die Verbindung von Wasser und Abwasser ist ökologisch und ökonomisch sinnvoll, um die Interessen beider Bereiche existenziell miteinander zu verbinden. "Wollte man die Betriebe der kommunalen Wasserversorgung und Abwasserbehandlung dezentralisieren, so würde dies zu volkswirtschaftlichen Schäden führen. Preissteigerungen, eine schleppende Verbesserung der Ver- und Entsorgungssituation wären die Folgen" , so die EC-Untersuchung.

Die dringlichen Probleme - zu wenig Klärkapazität, schlechte Klärqualität, Sanierung des Kanalnetzes, schlechte Trinkwasserqualität und Rekonstruktion des Trinkwasserrohrnetzes - können regional leistungsstarke Unternehmen schneller und flächendeckender lösen.

Die Rahmenbedingungen hierfür sind gegeben: Zwar sind die ostdeutschen Wasserunternehmen stark sanierungsbedürftig, dennoch zählen sie zu den wirtschaftlich gesündesten Betrieben im Osten. Im allgemeinen schreiben sie schwarze Zahlen und ihre Verschuldung ist gering.

In der Trink- und Abwasseraufbereitung gilt es einen Rückstand von mehreren Jahrzehnten so schnell wie möglich aufzuholen. Einen Großauftrag im Gesamtwert von über 100 Mio. DM hat die Salzburger Aqua Engineering von der Wasser- und Abwasserbehandlung Dresden (WAB), den Betreibern der Dresdner Wasserwerke, erhalten: So soll das Trinkwasserwerk im Stadtteil Tolkewitz erneuert werden.

In Dresden-Tolkewitz versorgt das 1893 erbaute Wasserwerk rund ein Viertel der sächsischen Metropole mit Trinkwasser. "Indes steht das Gebäude unter Denkmalschutz und kann deswegen nur in aufwendiger Detailarbeit modernisiert werden" , erklärt Richard Kaiser, Projektleiter der Aqua Engineering. Nach den Umbauarbeiten, die voraussichtlich 1992 abgeschlossen sein werden, soll das modernisierte und erweiterte Werk täglich 62000 m3 Trinkwasser ins Netz speisen, das dann den deutschen Trinkwasservorschriften entspricht.

Computer hilt bei der Bewertung von Altlastenrisiken - Von Christa Friedl Mit wenig Aufwand zur sicheren Aussage VDI-N, Düsseldorf, 17.5.91 -

Altlasten sind überall. Kaum eine Kommune in Deutschland ist vor verunreinigten Böden und undichten Deponien sicher. Die Risikoabschätzung aber fällt Behörden schwer, saniert wird oft auf Verdacht. Hilfe verspricht ein Untersuchungsprogramm für Kulturböden der Landesanstalt für Ökologie Nordrhein-Westfalen, aus dem ein Oberhausener Software-Büro ein praxisnahes Computerprogramm entwickelt hat.

D ie Sanierung von verunreinigten Flächen ist immer ein Fall für sich. Zum einen sind Altlasten Ländersache und unterliegen keinem bundesweit gültigen Regelwerk, zum anderen lassen sich Altlasten nur schwer miteinander vergleichen, da Schadstoffmix, Bodenart und Nutzung immer wieder anders gelagert sind. Nicht zuletzt ist die Risikoabschätzung, die entscheidet, ob saniert werden muß oder nicht, immer noch einer der schwierigsten Schritte im Verfahrensablauf.

Einem Teil der Probleme will das Oberhausener Software-Büro ExperTeam zu Leibe rücken. "Wir haben alles, was es an Erfahrungen mit Altlasten bisher gibt, in einem Computermodell verarbeitet" , sagt Anwendungsberater Thomas Euteneuer- Macher ganz unbescheiden. Das Programm erhielt entsprechend der Zielsetzung den Namen "Ratgeber Altlasten" .

Behörden und Umweltämter sollen durch das neue Programm im Umgang mit undichten Deponien und verunreinigten Flächen künftig Unterstützung erhalten. Im wesentlichen bei drei Fragen: Erstens der einführenden Informationssammlung über die fragliche Fläche, zweitens bei der Erstbewertung der Altlast und drittens bei der Abschätzung der Gefahren, die von der Verdachtsfläche ausgehen.

Für die Bewertung der Risiken haben andere Vorarbeit geleistet. Im "Mindestuntersuchungsprogramm Kulturboden" (Mikubo) der Landesanstalt für Ökologie, Landschaftsentwicklung und Forstplanung (LÖLF) Nordrhein-Westfalen, Recklinghausen, wird der Weg der Schadstoffe aus dem Boden in die Kulturpflanze und damit in die Nahrungskette vorgezeichnet. Abhängig von der Bodennutzung (Acker, Grünland, Kleingärten) nennt die Studie für häufig auftretende Giftstoffe wie Schwermetalle oder auch Kohlenwasserstoffe die derzeitige Hintergrundbelastung und jeweils Schwellenwerte für eine eventuelle Sanierung.

Dieses Mindestuntersuchungsprogramm hat ExperTeam in ein Programm umgeschrieben. Im Dialog kann der Benutzer Informationen zur Altlast abspeichern oder abrufen, das Programm vergleicht die gefundenen Schadstoffgehalte mit den Vorgaben der LÖLF und hilft so bei einer Erstbewertung der Fläche: Liegen beispielsweise über 10% der Schwermetall-Konzentrationen über den Schwellenwerten, ist eine detailliertere Bodenuntersuchung notwendig. Auch eine Rangliste unter den verschiedenen Altlasten einer Kommune kann mit "Mikubo" erstellt werden.

"Man gelangt durch möglichst wenig Aufwand zu sicheren Aussagen" , faßt Euteneuer die Vorteile zusammen. Gleichzeitig bleibe die Flexibilität erhalten, "das System fällt nicht die Entscheidung, ob und wie saniert wird, das muß nach wie vor der Anwender tun."

Zahlreiche Kommunen hätten Interesse bekundet, so Euteneuer. Gekauft hat den Ratgeber allerdings noch keine. Die Gründe für das Zögern in den Amtsstuben: "Die Zuständigkeiten sind oft nicht geklärt" , weiß der Computerfachmann, "und viele warten erst mal, bis einer anfängt."

Die praktische Feuertaufe soll das Programm jetzt in einer Kooperation mit der Umweltbehörde Oberhausen bestehen. So gesehen könnte das Büro des ExperTeam gar nicht günstiger liegen: Oberhausen ist eine der Gemeinden in Nordrhein-Westfalen, die Investoren so gut wie keine unbelastete Fläche mehr anbieten kann.

UMWELTFORUM

Mit Fördermitteln von rund 6 Mio. DM aus dem Bundesumweltministerium kann die Stadt Schneeberg im ehemaligen DDR-Uranbergbaugebiet die modellhafte Sanierung von radonbelasteten Wohnungen in Angriff nehmen. Rund 80 Häuser, die besonders hoch mit dem Edelgas belastet sind, sollen saniert werden. Neben der konkreten Sanierung geht es auch um die Ermittlung besonders effizienter Verfahrensweisen.

Der Leitfaden "Sonderabfallentsorgung" der Abfallentsorgungs-Gesellschaft Ruhrgebiet mbH, Essen, wird neu aufgelegt. Wegen des großen Informationsbedarfs in der Abfallwirtschaft war die erste Auflage in kürzester Zeit vergriffen. Die neue Auflage geht besonders auf die für die tägliche Praxis wichtigen Übergangsbestimmungen der TA Sonderabfall und auf die Zuordnung und Ablagerung von Sonderabfällen ein.

Die 100000. Anfrage konnte jetzt die Abfallbörse des Deutschen Industrie- und Handelstags (DIHT) verzeichnen. Die Gesamtzahl der inserierten Angebote stieg gegenüber dem Vorjahr um rund 10% auf 3466. Auf eine inserierte Nachfrage meldeten sich 1990 rund sechs Unternehmen. 1989 lag dieser Wert nach DIHT-Angaben noch bei 3,6. Kunstoffe und sonstige chemische Rückstände sind nach wie vor die "Renner" . Bei Metall, Holz, Papier und Textilien vermochten selbst gut funktionierende Recyclingmärkte die kräftigen Zuwächse bei den Angeboten nicht zu bremsen. Während hier die Zahl der Angebote um 20% stieg, sank die Nachfrage um ein Viertel.

Giftige Chlorphenole können in Boden und Grundwasser abgebaut werden. Das ist das Ergebnis eines vom Bundesforschungsministerium geförderten Untersuchungsprogramms. Chlorierte Phenole, die früher häufig als Unkrautvernichtungsmittel verwendet wurden, sind wegen ihrer Toxizität gefürchtete Umweltstoffe. So wurde festgestellt, daß an Mikroorganismen reiche Böden erhebliche Reinigungswirkung haben. Als zentraler Prozeß des biologischen Abbaus kommt im wesentlichen die Abspaltung der Chloratome im sauerstofffreien oder sauerstoffarmen Milieu zum Tragen. Die Entchlorierung der Moleküle wurde trotz höherer Mobilität auch in der Grundwasserzone beobachtet.

Radioaktive Abfälle in der Warteschleife Genehmigungsstreit verzögert Endlagerung Von Martin Boeckh VDI-N, Karlsruhe, 17. 5. 91 -

S chon die bloße Existenz von Menschen schafft Abfälle. Doch in dem Maß, in dem die Technik in unser Leben Einzug gehalten hat, verkomplizierte sich auch die "Entsorgung" der vom Menschen produzierten Güter oder auch der zur Herstellung notwendigen Nebenprodukte. Der Begriff "Entsorgung" führt dabei ebenso leicht zu Mißverständnissen, wie der Begriff "Endlagerung" : ent- "sorgt" ist der Müll auch dann nicht, wenn er in tiefen Salz- oder Erzgruben auf die Nachwelt wartet. Gleichzeitig stellt jede Endlagerung nur eine vorläufige Entfernung aus dem Kreislauf der Natur dar.

Auf einer Tagung diskutierten kürzlich in Karlsruhe Wissenschaftler und Politiker zum Teil heftig über "Technische und rechtliche Fragen zur Endlagerung radioaktiver Abfälle" . Daß es immer mehr Müll gibt, dessen wir uns entledigen müssen, darüber gab es keine Zweifel. "Wir können uns der Verantwortung nicht entziehen - egal wie man zur Kernenergie steht" , formulierte Walter Hohlefelder, Ministerialdirigent im Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit.

"In den alten Bundesländern haben sich bis Ende 1989 etwa 45000 m3 schwach- mittelaktiver Abfälle angesammelt, und jedes Jahr kommen derzeit knapp 4000 m3 dazu" , gab Helmut Krause, Leiter des "Instituts für Nukleare Entsorgungstechnik" des Kernforschungszentrums Karlsruhe (KfK), einen Überblick.

Die (endliche) Abklingzeit radioaktiver Abfälle wird mit dem Begriff "Halbwertszeit" umschrieben. Beträgt die Halbwertszeit einer Substanz z.B. ein Jahr, so ist ihre ursprüngliche Masse nach einem Jahr bereits zur Hälfte zu anderen Substanzen zerfallen. Es gibt zwar Radionuklide mit Halbwertszeiten von über 10000 Jahren, "doch etwa 80% aller künstlichen Radionuklide haben Halbwertszeiten von weniger als einem Jahr; bei 3% liegt sie über 1000 Jahre" , so der KfK-Wissenschaftler.

In den fünfziger Jahren wurde für radioaktive Abfälle ein Konzept entwickelt, das die getrennte Sammlung schwach-, mittel- und hochaktiver, fester und flüssiger sowie brennbarer und nichtbrennbarer Stoffe vorsah. Nach entsprechender Behandlung wie Konzentrierung und Verpackung wurden radioaktive Abfälle in Formationen des tiefen geologischen Untergrundes, insbesondere in Steinsalzformationen "endgelagert" . Im stillgelegten Salzbergwerk Asse sollte in den Jahren 1967 bis 1978 in einem Großversuch die Machbarkeit und technische Sicherheit der Endlagerung schwach- und mittelaktiver Abfälle, die keine Wärme entwickeln, demonstriert werden. Dennoch fehlt bis heute ein Endlager für diese Art von Abfällen. Das stillgelegte Eisenerzbergwerk Konrad bei Salzgitter war dazu ausersehen und hat sich in den Augen der Befürworter als grundsätzlich geeignet erwiesen; dennoch ist das seit 1982 laufende Planfeststellungsverfahren bis zum heutigen Tag noch nicht abgeschlossen. Folglich wird der anfallende radioaktive Müll in Zwischenlagern deponiert - also direkt in den Kernkraftwerken oder bei den Forschungsanlagen, bei denen derartiger schwach- und mittelaktiver Müll anfällt.

I n den neuen Bundesländern gibt es für solche Abfälle praktisch kein Zwischenlager. Der strahlende Abfall wurde seit 1978 direkt in der Salzgrube Morsleben, 3km von Helmstedt, endgelagert. Das Aus für die mit erheblichen Sicherheitsmängeln behaftete Anlage kam durch das Bezirksgericht Magdeburg am 22. Februar 1991; der Grund: zu viele technische Mängel in der Schachtförderanlage und beim Brandschutz. Wann - und ob überhaupt - jemals wieder Atommüll in Morsleben eingelagert wird, ist völlig unklar.

Bei den Abfällen, die auch Wärme entwickeln, ist die Situation anders. Der Bestand lag in den alten Bundesländern Ende 1989 etwa bei 500m3. Frühestens ab 1994 oder 1999 ist aufgrund der Wiederaufarbeitungsverträge für bestrahlte Kernbrennstoffe mit der Anlieferung von insgesamt 730m3 verglaster, hochaktiver Abfälle aus Frankreich und England über einen Zeitraum von zehn Jahren zu rechnen.

Da zu den genannten Zeitpunkten das vorgesehene Endlager im Salzstock von Gorleben wohl noch nicht zur Verfügung steht, versucht man, gegen Bezahlung die Anlieferung des brisanten Mülls hinauszuzögern. Nachdem die übertägige Erkundung seit 1982 abgeschlossen ist, sollen bis zum Jahr 1998 auch die untertägigen Arbeiten abgeschlossen werden. Bei den wissenschaftlich-technischen Arbeiten geht es um geologische, hydrologische, gebirgsmechanische, geochemische und materialkundliche Fragen, um das Verhalten des Abfalls im Endlager vorhersagbar zu machen. Auch die Möglichkeiten der direkten Endlagerung nicht wiederaufgearbeiteter, abgebrannter Kernbrennstoffe sollen geprüft werden. Zum Abschluß wird eine Sicherheitsanalyse durchgeführt und das erforderliche Genehmigungsverfahren eingeleitet.

W elche Hürden die Behörden dabei überwinden müssen, zeigt der gegenwärtige Rechtsstreit um die Grube Konrad. Seit August 1982 läuft das Planfeststellungsverfahren für dieses Endlager bei der zuständigen atomrechtlichen Planfeststellungsbehörde, jetzt dem Niedersächsischen Umweltministerium. In den Augen dieser Behörde ist es den Betreibern der Anlage nicht gelungen, die erforderlichen Sicherheitsnachweise für das Endlager in der Grube Konrad zu erbringen. Insbesondere, so wies Klaus-Dieter Becherer vom Niedersächsischen Umweltministerium hin, gebe es ungelöste Fragen hinsichtlich der Langzeitsicherheit bei der Abdichtung des Schachtverschlusses und bei den alten Bohrungen sowie hinsichtlich des Transportrisikos in der Region Salzgitter. Nach Auffassung der Landesregierung entsprechen die vorgelegten Unterlagen nicht den Bestimmungen des im August 1990 in Kraft getretenen Umweltverträglichkeitsprüfungsgesetzes (UVPG). Somit könne keine Offenlegung der Pläne erfolgen.

Bundesumweltminister Klaus Töpfer vertrat einen anderen Rechtsstandpunkt und forderte im Januar dieses Jahres die Niedersächsische Umweltministerin Monika Griefahn per "bundesaufsichtlicher Weisung" dazu auf, die Pläne zum 11. März offenzulegen, um das Verwaltungsverfahren nicht weiter zu verzögern. Die Weigerung, der Weisung Folge zu leisten, folgte die Klage des Bundesministers vor dem Bundesverfassungsgericht. Nach nur zwei Verhandlungstagen bekam Minister Töpfer Recht. Die Begründung der Karlsruher Richter: in atomrechtlichen Genehmigungsverfahren muß das Land den Weisungen des Bundes folgen. Ferner sei die Durchführung einer Umweltverträglichkeitsprüfung "unselbständiger Teil" des Planfeststellungsverfahrens. Im Klartext bedeutet dies: Die Pläne müssen offengelegt werden, auch wenn das Land - zu recht oder zu unrecht - noch weitere Sicherheitsnachweise von den Betreibern einfordern sollte.

Berliner BV diskutierte Studieninhalte Erziehung zur Verantwortung Fachstudium und nichttechnische Ausbildung müssen stärker miteinander verknüpft werden - Von Richard Sietmann VDI-N, Berlin, 17. 5. 91 -

Der Ingenieur ist künftig neben fachspezifischem Wissen auf fachübergreifende Kenntnisse angewiesen. Diese These vertrat Hubert Gräfen, langjähriger Vorsitzender des Bereiches Ingenieuraus- und -weiterbildung der VDI-Hauptgruppe, vor Mitgliedern des Berliner Bezirksvereins.

O b Abgaswäscher gebaut, Hochspannungsleitungen trassiert, Prozeßsteuerungen entworfen oder Hochgeschwindigkeitszüge konstruiert werden: In kleinen, mitunter kaum wahrnehmbaren Schritten tragen Ingenieure zu einem ständigen Strukturwandel bei.

In einer Zeit, in der "die technische Intelligenz ausgeprägt evolutionäre Entwicklungstrends verfolgt und bearbeitet" - so die Kernaussage des Werkstoffwissenschaftlers Hubert Gräfen von der Bayer AG und langjähriger Vorsitzender des Bereiches Ingenieuraus- und -weiterbildung der VDI-Hauptgruppe vor dem Berlin-Brandenburger Bezirksverein des VDI - "können die Dienstleistungen des Ingenieurs nicht mehr uneingeschränkt und vorbehaltlos für den technischen Fortschritt und zur Steigerung des Wohlstands erbracht werden" . Vielmehr müssen Ingenieure "auch der kritischeren Einstellung zur Technik und den speziellen Ansprüchen, die heute an technische Innovationen geknüpft werden, Rechnung tragen" .

Die ethische Diskussion der gesellschaftlichen Rolle des Ingenieurs kreist stets um zwei Schwerpunkte: Da ist einmal die Frage nach dem Sinn und eigentlichen Nutzen technischer Entwicklungen und ihrer Ziele. Der zweite Schwerpunkt liegt auf der Befähigung des Ingenieurs, sich in dieser Auseinandersetzung zu behaupten und das Umfeld seiner fachlichen Tätigkeit angemessen wahrzunehmen und einzubeziehen.

Ausschließlich mit dem zweiten Aspekt setzte sich Hubert Gräfen in seinem Referat in der Vortragsreihe "Technik und Ethik" auseinander. "Außerhalb des fachbezogenen Wissens und Könnens als technischer Experte erwarten Gesellschaft, Staat und Wirtschaft vom Ingenieur weitergehende Fähigkeiten, die mit der Ausübung seines Berufes nicht nur verknüpft sind, sondern zur allgemeinverständlichen Darstellung, Gestaltung, Bewertung und Durchführung technischer Konzepte, zur Urteilsfindung und Herbeiführung von Entscheidungskonsensen absolut notwendig sind."

"Kerntechnik, Mikroelektronik, Informatik, Raumfahrt, Gentechnik, Werkstofftechnik und andere Bereiche werden zu Triebkräften technischer Innovationen" , beschreibt Gräfen die Dynamik der fortschreitenden Industrialisierung. "Vorsprünge und Rückstände auf solchen Gebieten bestimmen die Wirtschaftspolitik, und die konsequente Anwendung von Wissenschaft und Technik zur Erzielung wirtschaftlicher Erfolge beeinflussen wesentlich den politischen Handlungsrahmen."

Was bedeutet das für den einzelnen Ingenieur? "Die durch Technik geschaffenen Probleme sind nur durch eine bessere, moderne und umweltschonende Technik zu lösen" , ist Gräfen überzeugt und erhob als erste These, "daß der Ingenieur zukünftig außer fachspezifischem Wissen und Können fachübergreifende Kenntnisse und Fähigkeiten erwerben und anwenden muß, um einem erweiterten Technikbegriff, welcher die Systemzusammenhänge Technik, Umwelt und Gesellschaft umschließt, gerecht werden zu können" .

F achübergreifende Studieninhalte zum Erwerb außerfachlicher Kenntnisse und Fähigkeiten sollten jedoch, so seine zweite These, "nicht durch berufsfremde Sozialwissenschaftlicher aufgepfropft" , sondern "durch Integration in die naturwissenschaftlich-technischen Fächer und direkte Verknüpfung mit dem Lehrstoff vermittelt werden" . Denn solange Fachstudium und nichttechnische Ausbildung beziehungslos blieben, sei der Erfolg fachübergreifender Lehrinhalte nicht gewährleistet.

Gräfen äußerte die Überzeugung, daß die derzeitige Ausbildung der Ingenieure aus der Sicht gesellschaftlicher und wirtschaftlicher Anforderungen "kaum fachliche, sondern nichttechnische Defizite" aufweise und damit der späteren Verantwortung des Ingenieurs in der Gesellschaft nicht gerecht werden könne.

Nicht ohne Grund hat daher der VDI- Ausschuß "Studieninhalte" unter Mitwirkung Gräfens eine Studienaufteilung empfohlen, derzufolge die Ingenieurausbildung zu 30% eine naturwissenschaftlich-mathematische Basis, zu 50% ingenieurwissenschaftliche Grundlagen mit Vertiefung und zu 20% nichttechnische Fächer umfassen sollte, wobei letzere nicht nur der beruflichen Qualifikation im engeren Sinne, sondern "fachübergreifender soziologischer und gesellschaftlicher Kompetenz" dienen solle.

Als Themen kommen zum Beispiel die Berufsethik des Ingenieurs, die Geschichte der Technik und des gesellschaftlichen Wandels, die Grundzüge der Systemtechnik, Industriesoziologie, Innovationspolitik und Technologietransfer, Philosophie der Technik sowie Technik und Umweltschutz in Betracht.

Hinsichtlich der Realisierung derartiger Anforderungen zeigte sich Gräfen jedoch pessimistisch. Trotz Ansätzen etwa in Darmstadt, Bremen, Aachen, Braunschweig und Berlin sei "von den technikwissenschaftlichen Fakultäten derzeit nicht sehr viel zu erwarten" , meint er und nennt auch die Gründe: "Dazu ist die herrschende Lehrmeinung zu festgefügt, der Fachegoismus zu ausgeprägt und die Erbhofmentalität zu eingefahren."

D ie Isolation einzelner Fachrichtungen und das Anhäufen von Spezialwissen verhinderten die Einbeziehung fachübergreifender Curriculum-Elemente - dazu müßten, um eine weitere Verlängerung des Studiums zu vermeiden, einzelne Fächer entrümpelt werden. "Das aber gleicht einer Quadratur des Kreises, denn Einschränkungen des Lehrstoffes werden am Protest des jeweiligen Lehrstuhlinhabers scheitern.

Auf die in der anschließenden Diskussion aufgeworfene Frage, wie man die Fakultäten in dieser Situation dazu bringe, fachfremde Studieninhalte nicht nur zu akzeptieren, sondern auch zu lehren, wußte Gräfen "kein Patentrezept" . Er empfahl eine entsprechende Berufungspolitik, weil der Wandel und die Aufgeschlossenheit für die neuen Anforderungen nur über Personen kommen könne.

Widerspruch erntete er mit seiner zweiten These, daß von berufsfremden Sozialwissenschaftlern nichts zu erwarten sei. Ein Teilnehmer bedauerte, daß Gräfen die Kommunikation zwischen Ingenieur- und Sozialwissenschaftlern als gescheitert betrachtete - er selbst hätte sie "gerade als Bereicherung in meinen Studieninhalten" empfunden.

Zweifel an dem Modell Gräfens, die sozialen und ökologischen Fragestellungen der Technik von Ingenieurwissenschaftlern vertreten zu lassen, äußerte ein anderer Zuhörer. Er verwies auf Charles Percs Snows berühmte Kluft der zwei Kulturen und meinte, "wenn Ingenieure über Geisteswissenschaften reden, dann wird die Kluft vermutlich nicht geschlossen" .

Vom 20. bis 26. Mai 1991

Aachener Bezirksverein

Wichtige Entscheidungen im deutschen und europäischen Patentrecht" , VDI-AK Gewerblicher Rechtsschutz, Frau Dr. Withe, Pat. Ass. Dipl.-Ing. Sperber, Pat. anw. Dr. Schippan 22.5.,19.30 Uhr: Aachen, Restaurant Sandhäuschen, Laurentiusstraße.

Neuerungen in der Sanitären Installation" , VDI-AK Techn. Gebäudeausrüstung, G. Jansen, 23.5., 18.00 Uhr. Aachen, Hotel Novotel, Am Europaplatz.

Bergischer Bezirksverein

Entsorgung nachweispflichtiger Abfälle" , VDI-AK Bau- und Umwelttechnik, Dipl.-Kfm., G. Schinol. 22. 5., 18.00 Uhr: Wuppetal-Ba., Berg. Uni., Pauluskirchstr. 7.

Berliner Bezirksverein

Kraftstoffeinsparung und Schadstoffminderung durch Antriebsmanagementsysteme" , VDI-AK Fahrzeugtechnik/TU Berlin, Institut für Fahrzeugtechnik, Dipl.-Ing. Heidemeier. 21. 5., 16.15 Uhr: Berlin, TU, Straße des 17. Juni 135, Hörsaal H 1012.

Hydraulische Dimensionierung von Abwasserleitungen für Gebäude und Grundstücke" , VDI-AK Technische Gebäudeausrüstung/GG, Dipl.-Ing. H. Feurich. 23. 5., 17.30 Uhr: Berlin 10, TU, Hermann-Rietschel-Institut, Marchstr. 4, Hörsaal HL 1.

Bezirksverein Frankfurt-Darmstadt

Einsatz des Global Positioning System - GPS - zur Bestimmung kleinräumiger Bauwerksgeometrien" , VDI-AK Bautechnik, Frau Dipl.-Ing. A. Beckmann, 23. 5., 17.00 Uhr: Frankfurt, FH, Altbau, Nibelungenplatz 1, Raum 15.

Hamburger Bezirksverein

"Stromerzeugung über Gasentspannung im Energiezentrum der Stadtwerke Lübeck" , VDI-AK Energietechnik, Dipl.-Ing. H. Seddig, 23. 5., 18.00 Uhr: Hamburg 1, FH, Berliner Tor 21, Raum 110.

Karlruher Bezirksverein

"Rasterelektronenmikroskopische und mikroanalytische Untersuchungen in der Werkstofftechnik" , VDI- AK Feinwerktechnik/FH Karlsruhe, Dr. sc.tech. B. Fischer. 22. 5., 11.30 Uhr und 14.00 Uhr: Karlsruhe, FH, Gebäude f, Raum 206. - "Ein kosmisches Feuerwerk - die Supernova 1987 A" , Dipl.-Phys. T.W. Kraupe, 22. 5., 19.15 Uhr: Karlsruhe, LGA, Meidingersaal.

Niederrheinischer Bezirksverein

"Wegfall der Lizenz vor Ablauf des Patentes" , VDI- AK, Gewerblicher Rechtsschutz, Dr. jur. A. Ohl. 22. 5., 15.00 Uhr: Düsseldorf, VDI-Haus, Graf-Recke- Str. 84.

Nordbadisch-Pfälzischer Bezirksverein

History of Fuel Use and Air Pollution" , VDI-AK Technikgeschichte, Dr. P. Brimblecombe, 24. 5., 15.00 Uhr: Mannheim, Landesmuseum für Technik und Arbeit, Museumsstraße 1, Hörsaal Ebene D.

Siegener Bezirksverein

Anforderungen aus der Produkthaftung an Tätigkeit in Entwicklung, Konstruktion, Qualitätssicherung und Vertrieb" , VDI-AK Entwicklung Konstruktion Vertrieb, Dr.-Ing. C.-O. Bauer, 23. 5., 17.30 Uhr. Siegen, Uni/GH, Paul-Bonatz-Str. 9-11, Raum A 118.

Teutoburger Bezirksverein

Chemie in der Diskussion - Beispiel Pflanzenschutz" (mit anschl. Diskussion), Dr. Fröhling. 23. 5., 17.00 Uhr: Harsewinkel, Fa. Claas, Kundendienst-Lehrsaal, Nähe Werktor I.

Unterfränkischer Bezirksverein

Einflüsse auf Fertigungsplanung, -steuerung und -kontrolle" , VDI-AK Technik und Wirtschaft. Dipl.- Ing. H. Vöge. 23. 5., 19.00 Uhr: Schweinfurt, FH, Ignaz-Schön-Str. 11, Hörsaal 1158.

Westfälischer Bezirksverein

Kernenergie leicht verständlich" (mit Lichtbilder), VDI-Seniorenkreis, Dr.-Ing. G. Meier, 21. 5., 18.00 Uhr, Dortmund, Hotel Consul/Drees, Hohe Straße 107.

Württembergischer Ingenieurverein

Strom aus Sonne und Wind auf der Schwäbischen Alb" , VDI/VDE, Dr. Müh 23. 5., 19.30 Uhr: Heilbronn, Bürgerhaus Böckingen, Kirchsteige 5.

EHRUNGEN

Der Württembergische Ingenieurverein verlieh die Ehrenmedaille des VDI Dr.-Ing. Roland Idler, Backnang. Idler hat als Leiter der Abteilung Energiewirtschaft einer Großstadt mit zahlreichen Inititativen zur Förderung des sinnvollen Einsatzes von Energie in der kommunalen Gebäudetechnik Hervorragendes geleistet und ein Vorbild für andere Kommunen geschaffen. Als langjähriger Leiter des Arbeitskreises Technische Gebäudeausrüstung hat er die technisch-wissenschaftliche Gemeinschaftsarbeit mit großem Erfolg gefördert.

Dr. Willfried Dulson, Köln wurde ausgezeichnet für seine wichtigen Beiträge zur Richtlinienarbeit auf den Gebieten "Einzel- und Mehrkomponentenbestimmung organischer Stoffe" und "Innenraumluftmessungen" .

In Anerkennung seiner langjährigen und engagierten Tätigkeit als Leiter des Arbeitskreises Bautechnik des VDI- Bezirksvereins Frankfurt-Darmstadt erhielt Prof. Dipl.-Ing. Harald Flicke, Heppenheim, die Ehrenplakette des VDI.

In Anerkennung seiner langjährigen, mit großer Umsicht wahrgenommenen Tätigkeit als Schatzmeister des Rheingau-Bezirksvereins erhielt Dipl.-Ing. Werner Emrich, Taunusstein, die Ehrenplakette des VDI.

Der Rheingau-Bezirksverein verlieh Ing. (grad.) Karl Trapp, Eltville, die Ehrenplakette des VDI in Anerkennung seiner langjährigen, engagierten Tätigkeit als Exkursionswart des Bezirksvereins.

Der Bergische Bezirksverein verleiht die Ehrenplakette des VDI an Dipl.- Ing. Franz Josef Meyer, Leverkusen, in Anerkennung seiner langjährigen und erfolgreichen Tätigkeit als Obmann des Arbeitskreises "technische Statistik" im Bergischen Bezirksverein.

VERANSTALTUNGENÅ IN DEN NEUEN BUNDESLÄNDERNÄ vom 20. bis 26. Mai 1991 Bezirksverein Leipzig >

"Rationalisierung und Neuaufbau von Klein- und Mittelbetrieben" (Tagung), 24. 5., ab 9.00 Uhr: Leipzig, IHK, Raum 326.

Hallescher Bezirksverein

"Qualität als Voraussetzung einer kundennahen Produktion" , VDI-AK Produktionstechnik (ADB), Dipl.- Ing. Beil. 21. 5., 18.00 Uhr: Halle, ComCenter Halle, Leninallee 70, Raum 719 (Neubau).

Thüringer Bezirksverein

"Simatic S 5" , Vortrag, AK Meß- und Automatisierungstechnik, Dipl.-Ing. Steiner, Siemens Leipzig. 16. 5., 18.00 UHr: Weimar, Hochschule für Architektur und Bauwesen (HAB), Coudreystr. 4, Hörsaal 2.

Neuer Vorstand beim BV Saar Ausbau der Öffentlichkeitsarbeit VDI-N, Saarbrücken, 17. 5. 91, giv -

Die Aktivierung der Verbandsarbeit und eine verstärkte Öffentlichkeitsarbeit sind die Schwerpunkte der Arbeit des neugewählten Vorstandes des VDI-Bezirksvereins Saar in den nächsten drei Jahren. Mit einem neugestalteten Veranstaltungskalender hat sich der neugewählte Vorstand seinen Mitgliedern, rund 1400 Ingenieuren der verschiedensten Fachrichtungen vorgestellt. Rudolf A. Klasen wurde zum neuen Vorsitzenden gewählt. Nachdem er zwölf Jahre das Amt des stellvertretenden Vorsitzenden bekleidete, tritt er nun die Nachfolge von Prof. Dipl.-Ing. Karl-Heinz Schneider an. Neben der Aktivierung der Verbandsarbeit gilt Klasens besonderes Engagement der Pflege und dem Ausbau der Kontakte im Gebiet Saarland, Lothringen und Luxemburg, den sogenannten Saar-Lor-Lux-Ingenieurkontakten, die er 1980 angeregt hatte, und die nach seiner Aussage heute durch eine intensive Zusammenarbeit einen bedeutenden Beitrag darstellen, dem Berufsstand des Ingenieurs in Staat und Gesellschaft dieser Region die Anerkennung zu sichern, die ihm zukommt.

Bei seiner Arbeit wird Klasen von seinem Stellvertreter Prof. Dr.-Ing. Helmut Bley unterstützt. Karl-Heinz Ballat verwaltet die Finanzen, das Ressort Schriftführung und Dokumentation obliegt Heinz Krämer. Manfred Rudolf und W. C. Krüger übernehmen die Mitgliederbetreuung. Heinz Müller ist verantwortlich für die Organisation und Koordination. Zum Pressereferenten wurde Karl-Heinz Rott gewählt, und K. H. Guhl ist zuständig für Sonderaufgaben.

Elektronik verhilft zum gelungenen Schnappschuß Technologischer Aufwand muß nicht unbedingt auch komplizierte Bedienung bedeuten - Von Frank Isphording ËVDI-N, Düsseldorf, 17. 5. 91 -

W ie in allen Lebensbereichen, so ist auch in der Foto- und Videotechnik die Elektronik das beherrschende Element. Zwar spielen Optik und Feinmechanik nach wie vor ihre Rollen, wirkliche Innovationen werden aber heute fast ausschließlich über die Fortschritte in der Elektronik erzielt.

Daß dies allerdings nicht immer ein Segen für den Anwender sein muß, haben viele Kameramodelle der letzten Jahre gezeigt. Was nutzen die umfangreichste Ausstattung und die ausgefeiltesten Möglichkeiten, wenn man dafür laufend in taschenbuch-dicken Bedienungsanleitungen blättern muß. Super-Multifunktions-Displays oder doppelt und dreifach belegte Schalter mögen zwar der Stolz der Techniker sein, der Hobbyanwender aber wird nicht selten durch so viel Technik-Firlefanz überfordert.

Andererseits sind auch die Kamera- Konstrukteure in der Zwickmühle: Von Marketing-Strategen und Markforschungsabteilungen bedrängt, müssen sie dafür sorgen, daß sich das neue Modell irgendwie von den bereits vorhandenen unterscheidet. Immerhin buhlen weit mehr als 700 verschiedene Kamera- und gut 200 Camcorder-Modelle auf dem Weltmarkt um die Gunst der Kunden. Daß ein sinnvoller Einsatz die Elektronik nicht unbedingt zum Selbstzweck werden läßt, zeigen zwei Beispiele im Video- und Fotobereich:

"Fuzzy Logic" (unscharfe, krause Logik) heißt z. B. eine neue Technologie, die, nachdem sie in Japan bereits U-Bahnen, Aufzüge oder Haushaltsgeräte steuert, nun auch in der Videotechnik Einzug gehalten hat. Um es kurz zu machen: Fuzzy Logic ist eine Computer-Steuerung, die nicht nur streng digitale "Ja-/Nein" -Informationen versteht, sondern auch mit "Vielleicht" etwas anzufangen weiß. Die Fuzzy Logic-Steuerung erkennt nicht nur Schwarz und Weiß, sondern auch Grau - und das in verschiedenen Nuancierungen.

Olympus, Pentax oder Sanyo machen sich diese Fähigkeit in ihren neuen Videokameras zunutze, denn hier arbeiten automatische Belichtungssteuerung und automatische Scharfeinstellung nach dem Fuzzy-Prinzip. Bislang war für Belichtungs- und Schärfenmessung immer die Mitte des Motivs ausschlaggebend. In der Mitte des sichtbaren Monitorbildes wurden alle wesentlichen Parameter gemessen und auf diese hier ermittelten Werte wurden Belichtung und Schärfe automatisch eingestellt. Das aber hatte zur Folge, daß der Anwender, wollte er technisch optimale Ergebnisse, darauf achten mußte, daß sich das Wesentliche immer im Mittelpunkt abspielte. War das Hauptmotiv nicht exakt in die Mitte verpflanzt, wurde es nicht optimal aufgezeichnet.

Neben anderen denkbaren Problemen bei sich schnell bewegenden Motiven führt eine starre Bildanordnung zwangsläufig zu einer relativ statischen "Regie" - was der gewünschten Dramaturgie alles andere als zuträglich war. Kurz: Die gedrehten Szenen wurden mit zunehmender Dauer immer langweiliger.

D ie Fuzzy-Logic-Technologie erlaubt dagegen die Nutzung des gesamten Bildfeldes. Findet die Schärfe- und Belichtungsmessung im Bildzentrum kein geeignetes, fixierbares Hauptmotiv, wird der Meßbereich automatisch zu den Bildrändern hin erweitert - solange, bis das Hauptmotiv von der Automatik gefunden und fixiert worden ist. Und darauf werden dann die entsprechenden Parameter Entfernung und Belichtung schnell und exakt eingestellt.

Die Vorteile liegen auf der Hand: Das Hauptmotiv kann sich, ohne Verlust der optimalen Abbildungsqualität, überall im Bildfeld befinden und schnellbewegte Motive (z.B. bei Sportaufnahmen oder Schappschüssen) müssen nicht mehr krampfhaft in der Suchermitte fixiert bleiben - was sowieso nur den geübtesten Videofilmern halbwegs wackelfrei gelang.

Technisch anders, in der schappschußfreundlichen Wirkung aber ähnlich, arbeitet - als zweites Beispiel - das APZ- System in der neuen Kompakt-Fotokamera Riva-105 von Minolta. Vorbei sind die Zeiten, in denen man mit dem eingebauten Zoomobjektiv hin und her zoomte, bis man für einen gelungenen Schappschuß den optimalen Bildausschitt gefunden hat. Meist war das Motiv bis dahin sowieso schon außer Sichtweite.

Das APZ-(Automatic Programm Zoom)-System errechnet in wenigen Millisekunden aus der gemessenen Entfernung zum Motiv die entsprechende Brennweite, die das Hauptmotiv im richtigen Maßstab zum Hintergrund in Szene setzt. Das geschieht ganz ohne besonderes Zutun des Fotografen, der Benutzer braucht lediglich die Kamera ans Auge zu nehmen. Ein Infrarot-Sensor unterhalb des Suchereinblicks aktiviert das System vollautomatisch, sobald sich ihm etwas (z.B. die Nase oder die Wange des Fotografen) nähert. Umgekehrt schaltet er das System auch wieder ab, wenn er nichts mehr in seinem 3 cm bis 5 cm umfassenden Detaktionsbereich erkennt.

Das APZ-System arbeitet in einem Bereich von 0,7 m (kürzeste Einstellung) bis 11 m. bei Entfernungen darüber hinaus wird automatisch die größtmögliche Brennweite 105 mm eingestellt. Diese spezielle Brennweitenautomatik stützt sich bei der Wahl des optimalen Ausschnitts auf Erfahrungswerte, die auch bei manueller Einstellung, nach Erkenntnissen der Minolta-Techniker, jeweils am häufigsten von den Benutzern gewählt worden wären. Bewegt sich das Motiv auf die Kamera zu oder von der Kamera weg, "fährt" das APZ-System die Brennweite hinterher und stellt so das Objektiv auf jede Veränderung ein.

W er sich nun aber trotz aller Vereinfachungen den Bildausschnitt nicht von der Kamera vorschreiben lassen möchte, der kann mit den manuellen Zoom-Tasten die APZ-Funktion "überfahren" und - Technik hin, Fortschritt her - nach alter Väter Sitte den Ausschnitt selbst bestimmen. Nur, so behauptet zumindest Minolta, wird der Selbst-Zoomer in der Regel mehr Zeit benötigen, bis er den Schnappschuß im Kasten hat.

Wie dem auch sei, diese beiden Beispiele zeigen, daß der Einsatz ausgefeilter Technik nicht nur gute Differenzierungsmöglichkeiten gegenüber Konkurrenzprodukten bietet. Auch dem Anwender wird schnell klar, daß ihn die Technik nicht belastet, sondern entlastet. Und so kann er sich voll und ganz auf sein Ziel konzentrieren - den gelungenen Schnappschuß. Denn dafür wurde die Kamera ja schließlich angeschafft.