zum Inhalt springen

1956

Die Mathematisch-Naturwissenschaftliche Fakultät sendet eine Anfrage an die Deutsche Forschungsgemeinschaft (DFG) bezüglich der Anschaffung eines elektronischen Rechners.

1959

Standard Elektrik Lorenz installiert einen elektronischen Rechner vom Typ ER 56 am Institut für angewandte Mathematik. Die Speicherkapazität beträgt 4000 Wörter zu je sieben dezimalen Zeichen (35bit). Die Speicherung eines Wortes benötigt dabei 0,15 Mikrosekunden. Magnettrommelspeicher für 10.000 35-bit-Worte. Anfragen zur Datenverarbeitung werden aus allen Bereichen der Universität angenommen und verarbeitet.

1964

Gründung eines fakultätsunabhängigen Rechenzentrums, welches neben dem ER 56 auch weitere Datenverarbeitungsgeräte betreibt und verwaltet.

1969

Installation eines Siemens 4004/55- Systems mit 256 KB Speicher.
Die Übertragung von 32 Bits von der CPU in den Speicher dauert 0,84 Mikrosekunden. 49 MB Festplattenkapazität.

1973/1974

Inbetriebnahme einer Control Data Cyber 72/76. Die CDC Cyber 76 ist zu diesem Zeitpunkt der leistungsstärkste Computer der Welt mit einer Speicherkapazität von 32.000 Wörtern bei einer Länge von je 60 Bit pro Wort. Für die Übertragung eines Wortes braucht der Rechner 27.5 Nanosekunden. Interaktive Terminals mit einer 300 Baud Transferrate. 200 MB Plattenspeicherkapazität.

Regionale Funktion:

  • Bereitstellung von 50% der Rechenkapazität für die neu gegründeten Universitäten in Nordrhein-Westfalen
  • 500 regionale Computer-Nutzer
  • 1000 Benutzer an der Universität Köln
  • PDP-11 Systeme in mehreren Instituten der Mathematisch-Naturwissenschaftlichen Fakultät für besondere Aufgaben

Seit 1986

Installation von öffentlich zugänglichen Computern in Pools in der gesamten Universität (finanzielle Unterstützung durch das Computer-Investitions-Programm CIP).

Seit 1988

Auf UNIX basiertes Client/Server-Konzept.

Seit 1990

Installation von Computer-Arbeitsplätzen für Forscher der Universität (finanzielle Unterstützung durch das Wissenschaftler-Arbeitsplatz-Programm, WAP).

1991-1993

Das Rechenzentrum verwaltet und betreibt den Vektor-Supercomputer NEC SX-3/11 von NEC/Japan mit einer Speicherkapazität von 256 MB (2,7 Nanosekunden/Speicherzykluszeit) und 30 GB Festplattenkapazität als - hauptsächlich von regionalen Nutzern genutzten - Compute-Server.

1994

IBM RS6000-990 und Digital AXP 7000 finden als Compute-Server Verwendung:  2 GB Arbeitsspeicher und 60 GB Festplattenkapazität stehen auf beiden Systemen zur Verfügung.

1995

Inbetriebnahme eines Silicon Graphics Power Challenge SC900 mit 16 Prozessoren, 8 GB Speicher und 50 GB Festplattenkapazität.

1997

Installation einer SUN Ultra Enterprise 10000 mit 40 Prozessoren, 20 GB Speicher und 90 GB Festplattenkapazität.

Gründung des ZAIK

  • Aus dem Zusammenschluss des Regionalen Rechenzentrums (RRZK) und des Zentrums für Paralleles Rechnen (ZPR) entsteht das Zentrum für angewandte Informatik der Universität zu Köln (ZAIK), eine zentrale Einrichtung der Universität zu Köln.
  • Es koordiniert die Dienst-, Forschungs- und Lehrtätigkeit im Bereich der Informationsverarbeitung in der gesamten Universität.
  • Eine enge Zusammenarbeit mit allen informatiknahen Berichen der Universität ist ein wichtiger Bestandteil der Aufgaben des ZAIK.

1998

Upgrade der SUN Ultra Enterprise 10000 - Starfire (336 MHz Prozessoren mit 4 MB Cache), Spitzenleistung 27 GFlops.

Installation einer SUN E4500 - Campfire mit 12 Prozessoren, 5 GB Speicher, 90 GB Festplattenkapazität.

1999

Backup-/Archive Server System (TSM / ADSM)

  • Vier IBM 3466 NSM Model C30 mit je 144 GB Festplatten-Cache. 30 TB Magnetbandspeicherkapazität.

Inbetriebnahme einer SGI Origin 2000 mit 32 R12000 Prozessoren und 16 GB Speicher im Austausch für die SGI Power Challenge.

2000

Internetzugang mit einer Bandbreite von 155Mbs ohne Volumenbegrenzung.

2001

Installation einer SUN Fire 6800 mit 24 Prozessoren und 24 GB Speicher, Spitzenleistung 43 GFLOPs.
UKLAN-Backbone basierend auf Gigabit-Ethernet-Technologie.
Start des Wireless Lan-Betriebs (30 Access Points über den Campus verteilt).

2002

Inbetriebnahme einer SUN Fire 15000 mit 72 Prozessoren and 144 GB Arbeitsspeicher, Spitzenleistung 130 GFLOPs  sowie einer weiteren SUN Fire 6800.

Upgrade des "TSM/ADSM Systems" - die Gesamtkapazität beträgt nun 112 TB.

Der Zugang zum UKLAN von außerhalb der Universität ist nun über VPN (Virtual Private Network) möglich.

2003

Upgrade des UKLAN backbones, der nun redundant ausgelegt ist.

Upgrade des Wireless Lan-Service.

Installation von Linux SMP Servern für verschiedene Dienste.

2004

SAN-Infrastruktur, 56 TB Daten sind virtualisiert verfügbar.

Cluster Clio mit 258 Opteron-Prozessoren (129 SUN V20z - Knoten) mit einer Spitzenleistung von 1,1 TFLOPS und Infiniband-Vernetzung.

SMP-System altix1 (SGI Altix 3700 Bx2) mit 24 Itanium 2-Prozessoren und 48 GB Speicher, Spitzenleistung 144 GFLOPS.

Teile des UKLAN basieren jetzt auf 10-Gigabit-Ethernet-Technologie

2005

Upgrade von Compute Cluster Clio: Hauptspeicher ist jetzt 772 GB.

High performance parallel file system PanFS (Panasas) mit einer Kapazität von 20 TB und einer Datenübertragungsrate von bis zu 1,3 GByte/s.

Upgrade des TSM-System: neue Server. Neue Kapazität: 350 TB.

2006

Virtualisierung von Diensten.

  • Durch die Nutzung zweier Server mit VMware Infrastructure (VMware-ESX) ist der Betrieb von etwa 40 „Gästen“ möglich.

Teilnahme an EU-Projekten CoSpaces (Innovative Collaborative Work Environments for Design and Engineering) und Citizen Media (Europäisches Forschungsprojekt, welches es nicht-professionellen Anwendern ermöglichen soll bei der Entwicklung vernetzter Anwendungen mitzuarbeiten und Anwendern Erfahrungen mit ihrem eigenen Inhalt zu sammeln)

2007

Hosting und Administration von Compute Clustern von Universitätsinstituten.

Teilnahme am Projekt C3-Grid (Collaborative Climate Community Data and Processing Grid), ein Gemeinschaftsprojekt der D-Grid-Initiative, die durch das Bundesministerium für Bildung und Forschung (BMBF) finanziert wird.

Das UKLAN-Backbone basiert nun vollständig auf 10-Gigabit-Ethernet-Technologie.

2008

Koordination von und Teilnahme an dem Projekt SuGI (Sustainable Grid Infrastructure), welches vom deutschen Bundesministerium für Bildung und Forschung und der D-Grid-initiative finanziert wird. SuGI zielt auf die Entwicklung von Methoden, Konzepten und Werkzeugen, um die Verbreitung von Grid-Technologien für kleine und mittelgroße Rechenzentren zu unterstützen.

Installation eines Compute-Clusters (finanziert durch das BMBF) für die Nutzung aus dem Chemiebereich.

Modernisierung des UKLAN und WLAN.

2009

50 Jahre Wissenschaftliches Rechnen an der Universität Köln.

Installation von Cheops, ein Hochleistungs-Cluster für wissenschaftliche Anwendungen (erste Phase). 215 Rechenknoten mit 1720 Kernen werden mit QDR InfiniBand-Technologie gekoppelt.

Start des Forschungsprojekts MoSGrid (Molecular Simulation Grid), welches eine standardkonforme, funktionale und erweiterbare Umgebung für die Ausführung molekularer Simulationen auf Remote-HPC-Einrichtungen bieten will. Projektmanagement durch das RRZK.

2010

Offizielle Einweihung von Cheops. Installation der zweiten Phase. Der Cluster mit seinen mehr als 800 Knoten bietet nun eine Spitzenleistung von 100 Teraflop/s und steht auf Position 89 in der TOP 500-Liste der Supercomputer (Position 2 in NRW nach dem Forschungszentrum Jülich).

Beteiligung an dem Projekt C3-INAD (Erzeugung einer Infrastruktur für einen allgemeinen Zugriff auf Klimadaten), das von der deutschen Bundesministerium für Bildung und Forschung finanziert wird.

2011

Grundlegende Überarbeitung des Webauftritts des Rechenzentrums.Das Rechenzentrum stellt die Hauszeitschrift „Kompass“ ein und berichtet über seine Dienste und Angebote nunmehr zusammen mit den anderen IT-Dienstleistern der Universität in der neuen „IT-Beilage“ zur Kölner Universitätszeitung.

In Kooperation mit der Firma asknet wird ein Softwareshop eingerichtet.

Mit der neuen Version des Speichersystem SoFS stehen jedem Studierenden und Beschäftigten der Universität zu Köln online und kostenlos 10 GB Speicherplatz auf einem leistungsfähigen Server zur Verfügung. Die dort abgelegten Daten können zum gemeinsamen Arbeiten mit Anderen benutzt werden und zwar überall dort, wo Zugang zum Internet besteht.

2012

Über Jahrzehnte waren die Beschäftigten des Rechenzentrums und des Instituts für Informatik, die Serviceeinrichtungen für die Nutzerinnen und Nutzer und die Pools in verschiedenen Gebäuden, Baracken und Containern auf dem Campusgelände verstreut untergebracht. Das ist nun vorbei. Im neuen Gebäude im Weyertal 121 stehen endlich genug Räume für Beschäftigte, Nutzerinnen und Nutzer, Serviceeinrichtungen und Infrastruktur zur Verfügung.

Eine neue bedeutende Dienstleistung ist die Durchführung beziehungsweise Unterstützung der Softwareentwicklung diverser Großprojekte in der Universität.

Des RRZK beteiligt sich unter anderem an den folgenden wissenschaftlichen Projekten:

DARE (Digital Averroes Research Environment).

Im BMBF-geförderten Verbundprojekt HD(CP)2.

Das Projekt NGSgoesHPC.

2013

Nach dem Umzug der Mitarbeiterinnen und Mitarbeiter in das neue Gebäude im Weyertal 121 erfolgt mit dem Baubeginn der neuen Serverhalle der nächste Schritt bei der Konsolidierung der Räumlichkeiten des RRZK.

Mit Opencast (Matterhorn) kann ein universitätsweiter, automatisierter Dienst zur Aufzeichnung, Verarbeitung und Bereitstellung von Lehrveranstaltungen angeboten werden. In den bereits ausgerüsteten Hörsälen ist eine einfache und zuverlässige Möglichkeit gegeben, (Lehr)-Veranstaltungen aufzuzeichnen und nach der Bearbeitung den Studierenden in deren ILIAS-Kursen bereitzustellen. Es sind weder „Kameraleute“ noch zusätzliche Rechner und Mikrophone nötig. Opencast eignet sich vor allem für Lehrvorträge, die keine überwiegend interaktiven Elemente enthalten. Mit der gleichen Technik können auch nicht direkt studienbezogene Veranstaltungen wie Konferenzen und Ringvorlesungen aufgezeichnet werden. Dieser Dienst wird von Studierenden nicht als Ersatz für Präsenzveranstaltungen, sondern als ergänzender Mehrwert gesehen.

Die Video-Training-Bibliotheken Video2Brain und Lynda bieten 900 deutschsprachige und 2000 englischsprachige Video-Tutorials zu unterschiedlichsten Themen der Computer- und Softwarebenutzung an. Beide zentral beschafften Angebote sind für Angehörige der Universität zu Köln kostenlos verfügbar und können auch über Apps auf mobilen Endgeräten genutzt werden.

2014

In zunehmendem Maße wird der Bereich der Lebenswissenschaften ein Schwerpunkt in der Arbeit des RRZK. Einige Beispiele sollen dies verdeutlichen.

Im Jahr 2014 haben die Mitarbeiterinnen und Mitarbeiter des Exzellenzclusters CECAD (Cellular Stress Responses in Aging-Associated Diseases) in ihrem neuen Gebäude in 24 Arbeitsgruppen mit mehr als 270 Beschäftigten ihre Arbeit aufgenommen. Da das RRZK im Campus ein breites Spektrum an IT-Diensten und wissenschaftlicher Beratung anbietet, erhielt es den Auftrag, das CECAD-Gebäude als Teil des Exzellenzclusters mit IT-Diensten zu versorgen. Dies wird ergänzt durch PC-Bereitstellung inklusive Software für Angehörige der Medizinischen Fakultät durch die UK-IT. Das Ziel der Zusammenarbeit ist, den Beschäftigten des CECAD weiterführende Lösungen auf Basis von Grunddiensten maßgeschneidert zu erbringen und weiterzuentwickeln. Zu diesem Zweck wurden beim RRZK zusätzliche Stellen zur IT-Unterstützung des CECAD eingerichtet und das „CECAD RRZK IT-Service Team“ (CRI-S) gebildet. Neben der Erbringung von Grunddiensten wird in der ersten Phase der Kooperation ein breites Know-how aufgebaut und es können erhebliche Fortschritte in der Optimierung verschiedener technischer und wissenschaftlicher Dienste für das CECAD erzielt werden.

Das RRZK beteiligt sich unter anderem an den wissenschaftlichen Projekten FaST und SMOOSE.

FaST (Find a Suitable Topology for Exascale Applications) beschäftigt sich mit der zeitlichen und räumlichen Platzierung von Prozessen in Hochleistungsrechnern der Zukunft. Es wird angenommen, dass sich der aktuelle Trend in der Hardwareentwicklung fortsetzen wird und die CPU-Leistung deshalb deutlich schneller als andere Ressourcen wachsen wird. Um zu verhindern, dass diese Ressourcen zu Engpässen im System werden, soll ein neues Scheduling-Konzept entwickelt werden, das die Systemressourcen überwacht und lokale Anpassungen an der Jobverteilung vornimmt. Das Ziel ist die prototypische Evaluation des im FAST-Projekt entwickelten Systems anhand von ausgewählten Anwendungen. Das RRZK wird den Einfluss der Entwicklungen des Projekts auf das Laufzeitverhalten von Modellanwendungen aus dem Gebiet der Lebenswissenschaften evaluieren.

SMOOSE (Systemische Analyse von Modulatoren der onkogenen Signalübertragung)
Im Bereich der Onkologie wird Personalisiertes Gesundheitswesen wahrscheinlich die zukünftige Realität in der Behandlung von Patienten werden. Jedoch ist der Erfolg des Personalisierten Gesundheitswesens durch erworbene Resistenz und Primäre Resistenz beschränkt. Das SMOOSE Projekt schlägt einen multi-disziplinären Ansatz vor, der Informatik und Bioinformatik, Molekularbiologie, molekulare Tumorbiologie und (Epi-)genetik, genetisch manipulierte Mäuse, chemische und strukturelle Biologie, molekulare Pathologie und medizinische Onkologie beinhaltet.

Durch das RRZK soll die Infrastruktur entlang der Verarbeitungspipeline durch Methoden aus dem High-Performance Computing (HPC) unterstützt werden. Rechen- und Datenbankinfrastruktur werden benötigt, um effizientes Datenmanagement von großen genetischen Datenmengen, wie bei genetischer Sequenzierung, sicherzustellen. Die Verarbeitung von großen Datenmengen beinhaltet optimierte Algorithmen und Analyse-Pipelines. Ziel ist es hierbei, eine spezialisierte Appliance zu bauen, die deutlich geringere Anforderungen an Infrastruktur und Personal stellt.

Kontakt
Bei Fragen und für eine individuelle Beratung wenden Sie sich bitte an:
RRZK-Helpdesk
Telefon: (0221) 470-89555