AnyDSL: A Partial Evaluation Framework for Programming High-Performance Libraries
Datum/Ort
Dienstag 02.07.2024, 14:00 Uhr, Raum 02.70.0.08
Referent
Prof. Richard Membarth, Technische Hochschule Ingolstadt, Systems on Chip und KI im Edge Computing
Richard Membarth is a professor for system on a chip and AI for edge computing at the
Technische Hochschule Ingolstadt (THI). He is also an affiliated professor at DFKI in
Saarbrücken. Richard received the diploma degree in Computer Science from the
Friedrich-Alexander University Erlangen-Nürnberg (FAU) and the postgraduate diploma in
Computer and Information Sciences from the Auckland University of Technologies (AUT).
In 2013, he received the PhD (Dr.-Ing.) degree from FAU on automatic code generation for
GPU accelerators from a domain-specific language for medical imaging. After the PhD,
he joined the Graphics Chair and the Intel Visual Computing Institute (IVCI) at Saarland
University as a postdoctoral researcher. At the German Research Center for Artificial
Intelligence (DFKI), he was a senior researcher and team leader for compiler technologies
and high-performance computing.
His research interests include parallel computer architectures and programming models
with a focus on automatic code generation for a variety of architectures ranging from
embedded systems to HPC installations for applications from image processing, computer
graphics, scientific computing, and deep learning.
Zusammenfassung
AnyDSL is a framework for the implementation of domain-specific libraries (DSLs). Library
abstractions are designed in Artic, a functional and imperative language. In order to
achieve high performance, Artic partially evaluates any abstractions these libraries might
impose. Partial evaluation and other optimizations are performed on AnyDSL’s intermediate
representation Thorin. This allows to separate the algorithm description from the target
hardware mapping, generating highly optimized implementations for CPU, GPU, or FPGA from
the same generic, high-level code base. The performance of the generated code is
competitive with manual, hand-optimized implementations for many application domains such
as image processing, real-time ray tracing, or bioinformatics.
Digital Security and the Disruptive Nature of Artificial Intelligence
Datum/Ort
Donnerstag 30.11.2023, 11:00 Uhr, Raum 02.70.0.10
Zoom Meeting
Beitreten Zoom Meeting: https://uni-potsdam.zoom.us/j/68659870648
Meeting-ID: 686 5987 0648
Kenncode: 67729639
Referent
Prof. Dr. Joachim Posegga, Universität Passau
Prof. Dr. Joachim Posegga ist Inhaber des Lehrstuhls für IT-Sicherheit an der Universität Passau.
Er promovierte am KIT und arbeitete zehn Jahre in der Industrieforschung im Bereich Sicherheit,
bevor er an die Universität Hamburg berufen wurde, um den Arbeitsbereich Sicherheit in Verteilten
Systemen des Departments für Informatik zu leiten. 2009 wechselte er nach Passau und übernahm die
Leitung des Instituts für IT-Sicherheit und Sicherheitsrecht (ISL). Seine Forschungsschwerpunkte
sind Web-Security, Sicherheitsarchitekturen und -Protokolle mit einem Schwerpunkt auf dem Internet
der Dinge.
Zusammenfassung
Artificial Intelligence has a rich scientific history spanning over five decades. Recent breakthroughs
in generative AI, driven by Large Language Models (LLMs), surprised the general public with astonishing.
Applications that demonstrate near-human performance and are believed to reshape not only the digital
economy but society at large.
This presentation delves into a security-centric analysis of Machine Learning systems, particularly
focusing on Generative AI like ChatGPT. We explore both the threats posed to these systems and the
potential threats that emanate from their deployment. Additionally, we examine the utilization of such
systems in security applications, highlighting our recent work on BGP traffic prediction as a practical
example.
The discussion extends to the transformative impact of Generative AI on building secure and reliable systems.
By introducing novel attack vectors, these systems present significant challenges to the ongoing digital
evolution of our societies. We contend that the properties inherent in these systems demand urgent attention
to ensure security and reliability, emphasizing the potential for disruption unless research in these domains
keeps pace with the real-world deployment of AI components. As we stand at the crossroads of AI-driven
transformation, understanding and addressing the security implications are paramount to realizing the full
potential of this technology.
Vier Jahre IT-Sicherheitsgesetz - was wurde erreicht, wo wird die Reise hingehen?
Datum/Ort
Mittwoch 10.07.2019, 10:00 Uhr, Raum 03.06.H01
Referent
Wilhelm Dolle, KPMG CERT GmbH
Wilhelm Dolle arbeitet als Partner der KPMG AG Wirtschaftsprüfungsgesellschaft im Bereich Cyber Security
und ist Geschäftsführer der KPMG CERT GmbH. Er verfügt über mehr als 25 Jahre Berufserfahrung und ist
Experte sowohl für technische als auch organisatorische Aspekte der Informationssicherheit. Dazu gehören
etwa Risiko- und Sicherheitsanalysen, der Aufbau von Informationssicherheitsmanagementsystemen bis zur
Zertifizierungsreife, aber auch Themen wie Penetrationstests und Sicherheit von Industrieanlagen. Wilhelm
Dolle beschäftigt sich ebenfalls intensiv mit regulatorischen Anforderungen an die Informationssicherheit
und das IT-Risikomanagement. Er hat einige Studien zum IT-Sicherheitsgesetz und zur Sicherheit in kritischen
Infrastrukturen verfasst, ist Autor eines Buches, zahlreicher Artikel in Fachzeitschriften und hat
Lehraufträge an verschiedenen Hochschulen inne.
Zusammenfassung
In Deutschland gibt es zahlreiche Institutionen und Einrichtungen, die grundlegende Versorgungsleistungen
bereitstellen. Sie bilden so die Basis unseres täglichen Lebens und haben eine wichtige Bedeutung für das
staatliche Gemeinwesen oder die öffentliche Sicherheit. Daher werden sie auch als kritische Infrastrukturen
(KRITIS) bezeichnet. Die Stabilität kritischer Infrastrukturen wird zunehmend auch durch Cyber-Angriffe
bedroht. Der Gesetzgeber hat mit dem im Juli 2015 in Kraft getretenen IT-Sicherheitsgesetz eine regulatorische
Vorgabe für Informationssicherheit geschaffen, die zu einem höheren Sicherheitsniveau führen und Ausfällen
somit vorbeugen soll. In 2016 und Ende Mai 2017 folgten Umsetzungsverordnungen die das Gesetz für die
einzelnen Sektoren spezifiziert haben. Auf das Wichtigste reduziert kommen drei Verpflichtungen auf die
Betreiber von KRITIS zu. Die erste ist eine Meldepflicht für alle Vorfälle an das Bundesamt für Sicherheit
in der Informationstechnik (BSI). Dann müssen Mindestanforderungen an die IT-Sicherheit erfüllt werden.
Beispielsweise muss ein Informationssicherheitsmanagementsystem (ISMS) implementiert, und in Technik und
Organisation investiert werden. Der dritte und letzte Punkt sind regelmäßige Sicherheitsüberprüfungen und
der Nachweis der Einhaltung der Forderungen aus dem Gesetz dem BSI gegenüber.
Der Vortrag beschreibt wie sich die Sicherheitslandschaft in Deutschland unter anderem durch das Gesetz
verändert hat. Fokus soll hier die Sicherheit von Industrieanlagen im Bereich kritische Infrastrukturen sein.
Zusätzlich soll beleuchtet werden in welche Richtung uns die Diskussionen um das IT-Sicherheitsgesetz 2.0 führen
werden.
Distributed Denial of Service Attacken: Überflutung aus dem Netz
Datum/Ort
Freitag 05.07.2019, 10:00 Uhr, Raum 03.06.H01
Referent
Dr.-Ing. Ralf Gröper, DFN, Berlin
Dr.-Ing. Ralf Gröper arbeitet seit 2011 beim Deutschen Forschungsnetz (DFN) und ist dort verantwortlich
für Informationssicherheits- und Trust & Identity-Dienste sowie stellvertretender
Informationssicherheitsbeauftragter. Er hat an der Leibniz Universität Hannover Informatik studiert und
anschließend über Vertrauensbeziehungen in verteilten heterogenen Authentisierungs- und
Autorisierungsinfrastrukturen promoviert.
Zusammenfassung
Denial of Service (DoS) Attacken sind weit älter als das Internet. Im Grunde ist jede Sabotage eines
technischen Systems ein DoS. Hierbei musste allerdings meist das System oder eine Komponente davon
vor Ort physisch zerstört werden. Im Internet ist dies einfacher: Eine Störung kann durch das
entfernte Ausnutzen einer Schwachstelle erfolgen, oder durch das Überfluten des Zielsystems mit
unsinnigen Anfragen. Diese Überflutung lässt sich am einfachsten realisieren, wenn sehr viele
verteilte Quellen gemeinsam angreifen. Dies ist dann ein volumenbasierter Distributed Denial of
Service (DDoS)-Angriff. Im Vortrag werden zunächst unterschiedliche (D)DoS-Angriffsmuster beschrieben
und anschließend geeignete Gegenmaßnahmen am Beispiel der Erfahrungen aus dem Betrieb des Deutschen
Wissenschaftsnetzes vorgestellt.
Network security for service oriented EE architectures
Datum/Ort
Donnerstag 04.09.2018, 12:00 Uhr, Raum 03.04.0.02
Referent
Dr. Christian Meineck, Porsche AG, Stuttgart
Automotive Ethernet in an AUTOSAR environment
Datum/Ort
Donnerstag 04.09.2018, 11:00 Uhr, Raum 03.04.0.02
Referent
David Fessler, Vector Informatik GmbH, Stuttgart
Heterogeneous Parallel Architectures: Challenges and Solutions
Datum/Ort
Donnerstag 07.09.2017, 10:00 Uhr, Raum 03.04.1.02
Referent
Prof. Dr. Wolfgang Karl, KIT, Lehrstuhl für Rechnerarchitektur und Parallelverarbeitung
Zusammenfassung
Desktops, servers in the area of high performance computing and for commercial applications, and
embedded systems are built up with multi- or many-core processor architectures. The spectrum for
these processor architectures comprises homogeneous structures with a few complex cores or many
quite simple cores on a chip as well as heterogeneous structures, especially in embedded systems.
Exploiting the parallelism at all system levels as well as migrating compute intensive parts of a
program on application specific accelerators are promising strategies towards high performance, low
energy, and high dependability. However, the challenges in computer architecture are not only to
provide high performance, energy-ware and dependable systems, but also to hide the complexity of
such heterogeneous parallel systems from the user.
Approaches to address these challenges comprise new parallel programming models, methods and
tools to support programmers to write efficient parallel programs, and adaptation and virtualization
techniques to hide hardware details while efficiently exploiting the resources. In the talk, we
concentrate on virtualization and adaptation.
Das IT-Sicherheitsgesetz in der praktischen Umsetzung
Datum/Ort
Freitag 21.07.2017, 10:15 Uhr, Raum 03.04.0.02
Referent
Wilhelm Dolle, KPMG
Wilhelm Dolle arbeitet als Partner der KPMG AG Wirtschaftsprüfungsgesellschaft im Bereich Cyber Security.
Er verfügt über mehr als 20 Jahre Berufserfahrung und ist Experte sowohl für technische als auch
organisatorische Aspekte der Informationssicherheit. Dazu gehören etwa Risiko- und Sicherheitsanalysen,
der Aufbau von Informationssicherheitsmanagementsystemen bis zur Zertifizierungsreife, aber auch Themen
wie Penetrationstests und digitale Forensik. Wilhelm Dolle beschäftig ebenfalls intensiv mit
regulatorischen Anforderungen an die Informationssicherheit und das IT-Risikomanagement. Er hat einige
Studien zum IT-Sicherheitsgesetz und zur Sicherheit in kritischen Infrastrukturen verfasst, ist Autor
eines Buches, zahlreicher Artikel in Fachzeitschriften und hat Lehraufträge an verschiedenen
Hochschulen inne.
Zusammenfassung
In Deutschland gibt es zahlreiche Institutionen und Einrichtungen, die grundlegende Versorgungsleistungen
bereitstellen. Sie bilden so die Basis unseres täglichen Lebens und haben eine wichtige Bedeutung für das
staatliche Gemeinwesen oder die öffentliche Sicherheit. Daher werden sie auch als kritische Infrastrukturen
(KRITIS) bezeichnet. Die Stabilität kritischer Infrastrukturen wird zunehmend auch durch Cyber-Angriffe
bedroht. Der Gesetzgeber hat mit dem im Juli 2015 in Kraft getretenen IT-Sicherheitsgesetz eine
regulatorische Vorgabe für Informationssicherheit geschaffen, die zu einem höheren Sicherheitsniveau führen
und Ausfällen somit vorbeugen soll. In 2016 und Ende Mai 2017 folgten Umsetzungsverordnungen die das Gesetz
für die einzelnen Sektoren spezifiziert haben. Auf das Wichtigste reduziert kommen drei Verpflichtungen auf
die Betreiber von KRITIS zu. Die erste ist eine Meldepflicht für alle Vorfälle an das Bundesamt für Sicherheit
in der Informationstechnik (BSI). Dann müssen Mindestanforderungen an die IT-Sicherheit erfüllt werden.
Beispielsweise muss ein Informationssicherheitsmanagementsystem (ISMS) implementiert, und in Technik und
Organisation investiert werden. Der dritte und letzte Punkt sind regelmäßige Sicherheitsüberprüfungen und der
Nachweis der Einhaltung der Forderungen aus dem Gesetz dem BSI gegenüber.
Der Vortrag beschreibt eine schlanke und pragmatische Umsetzung der Anforderungen und wie uns dies in der
aktuellen Gefährdungslage helfen kann.
Cost-Efficient Execution of Taskgraphs on Heterogeneous Distributed Platforms
Datum/Ort
Mittwoch 28.02.2017, 10:00 Uhr, Raum 03.04.1.02
Referent
Prof. Dr. Jörg Keller, FernUniversität in Hagen
Zusammenfassung
Taskgraphs are a model for a wide range of parallel applications, and taskgraph scheduling has been researched
since decades. While processor speed has first been considered constant, and makespan, i.e. execution time,
was minimized, the advent of processor frequency scaling has enabled to influence execution speed and lead to
research on respecting a given deadline with minimum energy consumption.
Further research refined energy minimization for heterogeneity: here different processors of a system can have
different speed ranges and power profiles, and the power and relative speed may depend on the particular task
as well. We present the results of an investigation into which parameters strongly influence power consumption
and effective processing speed in heterogeneous systems, which lead to a static task scheduler for heterogeneous
ARM processors.
In the future, energy supply will more often depend on renewable energy, and thus energy cost in
a spatially distributed computing platform will depend on space and time, i.e. be heterogeneous as well.
Consequently, cost will be a better indicator than energy itself. We present first preliminary results about
heuristics for static scheduling of taskgraphs in such a system.
Das Taktile Internet: Echtzeitfähigkeit und die kleine Lichtgeschwindigkeit
Datum/Ort
Mittwoch 07.12.2016, 13:30 Uhr, Raum 03.06.S14
Referent
Prof. Dr.-Ing. Rolf Krämer, IHP
Prof. Dr.-Ing. Rolf Krämer erhielt sein Diplom und den Doktortitel von der RWTH Aachen in Elektrotechnik 1979
und 1985. Das Thema seiner Diplomarbeit lautete: "Portability Aspects of System Software". 1985 wechselte er
zu den Philips Research Laboratories, wo er bis 1998 in Hamburg und Aachen an verteilten Systemen,
Kommunikationssystemen, drahtloser Hochgeschwindigkeitskommunikation und eingebetteter Steuerungs- und
Managementsoftware in verschiedenen Positionen und Zuständigkeiten arbeitete.
1998 wurde er Professor an der Technischen Universität Cottbus, mit der Berufung als Abteilungsleiters für
drahtlose Systeme des IHP in Frankfurt (Oder). Seine Forschungsinteressen liegen im Bereich der Ultra-High-Speed
Wireless System sowie Ultra-Low-Power Wireless Kommunikation. Am IHP leitet er eine Forschungsabteilung mit mehr
als 50 Forschern zu Themen schnellster drahtloser Kommunikation, Sensornetze und Middleware-Systeme sowie
zuverlässiger Systeme. Im Jahr 2012 erhielt er das DFG-Schwerpunktprogramm "Wireless 100 Gb / s und darüber
hinaus" und wurde zum Referenten des Programms ernannt. Prof. Krämer ist Gründer von 2 Start-up Unternehmen.
Zusammenfassung
Das Internet ist in den letzten Jahren zum verbindenden Medium aller Kommunikationseinrichtungen
geworden. Durch seine Universalität und Omnipräsenz ist es für die Digitalisierung nahezu aller
Systeme unabdingbar geworden. Im Bereich der Industrieautomatisierung, der medizinischen Notfallhilfe,
dem autonomen Fahren und einer Vielzahl anderer Anwendungen hat das Internet in der heutigen Form
aber massive Schwächen.
- Es unterstützt keine Echtzeitfähigkeit
- Die Latenzzeiten durch das Netz sind sehr groß und sehr variabel
Das taktile Internet soll dieses Problem lösen und die Möglichkeit einer harten Echtzeitfähigkeit
eröffnen. Dabei sind Latenzzeiten von <1ms in vielen Bereichen absolut notwendig.
Im Vortrag werden Ideen zum taktilen Internet dargestellt und insbesondere auch auf die großen
Herausforderung eingegangen. Dabei stellt sich heraus, dass die Lichtgeschwindigkeit hier harte
Grenzen setzt die völlig neue Architekturkonzepte erfordern.
A parallel simulator of quench for superconducting solenoids
Datum/Ort
Dienstag 16.10.2015, 10:15 Uhr, Raum 03.04.0.02
Referent
Giuseppe Ciaccio, University of Genua
Zusammenfassung
A superconducting magnet is an electromagnet made from windings of a multimaterial cable containing a
superconducting wire at its core. When cooled to cryogenic temperature, the wire reaches the
superconducting state and thus can conduct much larger electric currents than ordinary wire, creating
intense magnetic fields without dissipating heat in the windings. Superconducting magnets are used in
MRI machines in hospitals, and in scientific equipment such as NMR spectrometers, mass spectrometers
and particle accelerators. In the simplest implementations, the windings take the shape of a classical
solenoid. During regular service, a superconducting magnet may under go a phenomenon called "quench".
Due to an electric malfunction or mechanical stress or other reasons, a sudden transition from
superconducting state to resistive state may occur in one or more regions of the wire. When this happens,
the electromagnet starts dissipating its energy as heat in the resistive regions; if the cooling system
is not properly dimensioned, such heat may trigger a transition to resistive state in other regions of
the windings, so that more and more energy will be dissipated as heat, in a chain reaction that may
ultimately lead to a catastrophic failure of the device. A computer simulator of the whole magnet, able
to reproduce a quench phenomenon in the space and time domains, would be very useful in the design stage,
for properly dimensioning the various safety devices. The available simulators, however, use a very
approximated model of the cable and thus may provide inaccurate results; moreover they have long execution
time, do not run in parallel, and cannot be customized due to lack of source code. For these reasons we
have started developing a new simulator from scratch. We have modelled the device as a set of non-linear
parabolic partial differential equations (PDEs) with piecewise continuous coefficients, where local
linearization is performed in the discretization phase. For the solver, we have tried two well known
finite difference discretization methods, namely, implicit Euler and Crank-Nicolson, solving the arising
linear systems of equations with a simple parallel Jacobi method as a first attempt. From our preliminary
results, implicit Euler emerges as substantially more efficient than the theoretically more precise
Crank-Nicolson method, without incurring in a significantly higher discretization error. On an Infiniband
cluster of Intel x86/64 dual-CPU nodes with 8 cores per CPU, the resolution shows a good speedup up to all
the 40 cores made available to our tests, demonstrating the feasibility of the parallel approach.
Energy-Efficient Architectures and Algorithms for High Efficiency Video Coding
Datum/Ort
Dienstag 13.10.2015, 10:00 Uhr, Raum 03.04.1.02
Referent
M. Shafique, KIT
Zusammenfassung
The next-generation High Efficiency Video Coding (HEVC) standard provides double compression compared to
the state-of-the-art H.264/AVC standard. However, this comes at the cost of tremendous power/performance
overhead, which is primarily dominated by an increased number of computations and memory accesses due to
the new Coding and Prediction Unit structures. This requires novel design methods and low power techniques
at architecture and algorithm level, while also targeting on-chip video memories to cope with this
increased memory pressure.
This talk provides a comprehensive analysis of the computational complexity, power consumption, temperature,
and memory access behavior for the next-generation High Efficiency Video Coding (HEVC) standard. I will
highlight the associated design challenges and present several low-power algorithmic and architectural
techniques for developing power-/energy-efficient HEVC-based advanced multimedia systems. This work explores
the interplay between the algorithms and architectures to provide high power efficiency while leveraging the
application-specific knowledge and video content characteristics. Towards the end, this talk will provide a
quick overview of other relevant research projects of my group followed by some highlights on my future
research plans and teaching aspects.
Hackern auf der Spur - Aus dem Alltag von Sicherheitsberatern und Forensikern
Datum/Ort
Freitag 10.07.2015, 10:15 Uhr, Raum 03.06.H01
Referent
Wilhelm Dolle, KPMG
Wilhelm Dolle verantwortet als Partner der KPMG den Bereich Security Consulting. Er verfügt über mehr
als 20 Jahre Berufserfahrung und ist Experte sowohl für technische als auch organisatorische Aspekte
der Informationssicherheit. Dazu gehören etwa Risiko- und Sicherheitsanalysen, der Aufbau von
Informationssicherheitsmanagementsystemen bis zur Zertifizierungsreife, aber auch Themen wie
Penetrationstests und digitale Forensik. Wilhelm Dolle beschäftig ebenfalls intensiv mit regulatorischen
Anforderungen an die Informationssicherheit und das IT-Risikomanagement. Er hat einige Studien zum
IT-Sicherheitsgesetz und zur Sicherheit in kritischen Infrastrukturen verfasst, ist Autor zahlreicher
Artikel in Fachzeitschriften und hat Lehraufträge an verschiedenen Hochschulen inne.
Zusammenfassung
- Bedrohungslage anhand der eCrime-Studie 2015
- Regulatorische Anforderungen aus dem IT-Sicherheitsgesetz
- Herausforderungen durch Advanced Persistent Threats (APT)
- Fallstudien aus der Praxis
- Fazit und Ausblick
Umgehung von Firewalls, IDS und Virenscannern in der Praxis
Datum/Ort
Freitag 19.06.2015, 10:15 Uhr, Raum 03.06.H01
Referent
Steffen Ullrich, genua mbh
Steffen Ullrich arbeitet seit 2001 bei genua an der Entwicklung von Hochsicherheitsfirewalls. Seit 2011 ist er primär
in der Forschung tätig und beschäftigt sich dort mit der Erkennung von Gefahren im Web 2.0 und neuen Techniken zur
Abwehr gezielter Angriffe. Damit einher geht die Beschäftigung mit den inherenten Schwächen der aktuellen
Sicherheitslösungen.
Zusammenfassung
Der Vortrag gibt einen Überblick über verschiedene Technologien zur Untersuchung von Inhalten auf Schadcode und zeigt
die theoretischen und praktischen Limitierungen dieser Methoden. Exemplarisch wird gezeigt, mit welchen einfachen Tricks
existente Sicherheitssysteme umgangen werden können. Der Fokus liegt dabei auf dem Ausnutzen der unterschiedlichen
Interpretation der Daten in Schutz- und Zielsystem.
Leistungseffiziente Server-Nutzung
Datum/Ort
Freitag 09.08.2013, 13:00 Uhr, Raum 03.04.1.02
Referent
Jörg Lenhardt, FernUniversität in Hagen
Zusammenfassung
Moderne Rechenzentren beherbergen eine Vielzahl von Servern verschiedener Leistungsfähigkeit. Begründet ist dies im
Wesentlichen durch die unterschiedlichen Zeitpunkte von Neuanschaffungen leistungsfähiger Hardware und des Austauschs
defekter oder veralteter Computersysteme. Insgesamt handelt es sich sowohl bezogen auf die Rechenleistung als auch
auf die Methoden der Leistungs- bzw. Energie-Einsparungs-Mechanismen um eine äußerst heterogene Umgebung. Aus dem
Blickwinkel der Energie-Effizienz gesehen, stellt sich die Frage, wie eine momentane Rechenlast (Operationen pro
Zeiteinheit) so auf die Ressourcen verteilt werden kann, dass die elektrische Leistungsaufnahme minimiert wird. Eine
Minimierung der elektrischen Leistungsaufnahme ist natürlich nur dann möglich, wenn die Rechenlast kleiner als die
verfügbare maximale Rechenleistung ist. Auf diese Weise wird über einen Zeitraum hinweg eine Energieeinsparung möglich.
Im Vortrag werden mittelfristige Verteilungsstrategien betrachtet, bei denen der Zusatzaufwand für die Migration von
Anwendungen und das Ab- und Anschalten von Serversystemen in Bezug auf den Energiebedarf vernachlässigbar ist. Es wird
eine von uns entwickelte Strategie vorgestellt, welche eine vorgegebene Rechenlast so verteilt, dass die elektrische
Leistungsaufnahme des heterogenen Zielsystems minimiert wird. Dabei werden Leistungsmessungen realer Serversysteme mit
Hilfe des SPECpower_ssj2008 Benchmarks zugrunde gelegt. Anhand der Ergebnisse verschiedener Szenarien werden die Stärken
und Schwächen des Verfahrens diskutiert.
Transparenter Zugriff auf Heterogene Architekturen für Stencil-Applikationen im Embedded und HPC-Umfeld
Datum/Ort
Dienstag 09.07.2013, 16:15 Uhr, Raum 03.06.S12
Referent
Prof. Dietmar Fey, Friedrich-Alexander-Universität Erlangen-Nürnberg
Zusammenfassung
Viele Berechnungen aus dem Bereich des wissenschaftlichen Rechnens basieren auf sog. Stencil-Algorithmen. Bekannte
Bespiele sind u.a. die Lösung von Partiellen Differentialgleichungen mit der Methode der Finiten Differenzen oder
auch die Vielzahl an Operatoren aus der Bildverarbeitung, z.B. zur Auswertung von CT-Daten, welche als Stencils
formulierbar sind. Kennzeichen dieser Algorithmen ist die Daten-parallele Berechnung von Gitterpunkten in ein- oder
mehr-dimensionalen Gitterstrukturen. In aufeinanderfolgenden diskreten Zeitschritten werden für alle Gitterpunkte
neue Zustände berechnet, die vom Zustand des Gitterpunktes selbst und den Zuständen direkter Nachbarpunkte im
unmittelbar vorherigen diskreten Zeitschritt abhängen. Da man häufig großen Datenmengen in sehr kurzer Zeit
bearbeiten möchte, sind Parallelisierungen notwendig, für die im Bereich des High Performance Computing (HPC) GPUs,
vereinzelt FPGAs, im Bereich der Embedded Anwendungen zumeist FPGAs als Hardware-Beschleuniger neben einer CPU in
einer heterogenen Architektur eingesetzt werden. Eine effiziente Implementierung von Stencil-Algorithmen hängt
entscheidend von der Optimierung der Speicherzugriffe ab, da Stencil-Algorithmen in der Regel
Speicherbandbreiten-limitiert sind. Um die komplizierte und zeitraubende Implementierung für den Programmierer
transparent zu gestalten, sind sowohl für das HPC-Umfeld als auch für die Embedded Domäne zahlreiche Frameworks,
Bibliotheken, Domänen-spezifische Compiler, z.T. kombiniert mit Autotuning-Optimierungen, entstanden. Im Vortrag
werden sowohl aus der Literatur bekannte als auch an der FAU erzielte Ergebnisse zur Automatisierung von
Stencil-Applikationen vorgestellt. Zu den eigenen Arbeiten zählen die Bibliothek LibGeoDecomp (Library for Geometric
Decomposition Codes) für das HPC-Umfeld und VHDL-Templates für die Embedded Domäne. LibGeoDecomp unterstützt
Computersimulationen von Stencil-Codes bis hin zu N-Body-Codes. Die Bibliothek übernimmt die Parallelisierung des
Programms, der Nutzer kann sich so auf sein Simulationsmodell konzentrieren. Über Plug-ins kann die Bibliothek auf
verschiedenste Hardwareplattformen portiert werden. Sie skaliert von Smart Phones bis hin zu mit Grafikkarten
bestückten Supercomputern. VHDL-Templates berücksichtigen explizit die Bandbreiten-Limitierung von FPGA-Bausteinen,
der durch Aufrollen der äußeren Schleife eines Stencil-Algorithmus und geeigneten Speicherpufferungen entgegengewirkt
wird.
[PDF]
Computer Forensik in Theorie und Praxis
Datum/Ort
Freitag 05.07.2013, 12:15 Uhr, Raum 03.06.H01
Referent
Wilhelm Dolle
Aufbau und Funktion von Hochsicherheits-Firewalls
Datum/Ort
Donnerstag 27.06.2013, 12:15 Uhr, Raum 03.06.H01
Referent
Dipl.-Inf. Alexander von Gernler, Technischer Botschafter, genua mbh
Alexander von Gernler ist seit 2005 Mitarbeiter der genua mbh in Kirchheim bei München. Bei dem Firewallhersteller im
Hochsicherheits- bereich war er zunächst als Software-Entwickler und später als Scrum-Master tätig. Inzwischen ist er
stellvertretender Leiter der Gruppe "Forschung und Entwicklung" und dadurch ständig auf der Suche nach den
Firewall-relevanten Themen für morgen. Er betreut die zahlreichen geförderten Forschungsprojekte der Firma und ist
immer auf der Suche nach neuen interessanten Kooperationen und Kontakten.
Als Technischer Botschafter hält er Kontakt zu Universitiäten, Hochschulen und Forschungseinrichtungen und kümmert sich
so um die Vernetzung der Firma genua im akademischen Umfeld. Unter anderem vermittelt er auch Themen für praxisnahe und
technisch anspruchsvolle Bachelor- und Masterarbeiten im Hochsicherheitsumfeld.
Zusammenfassung
In diesem Gastvortrag wird am Beispiel einer real existierenden zweistufigen Firewall die Architektur und Wirkungsweise
einer solchen Appliance im Hochsicherheitsumfeld vorgestellt. Es werden beispielhaft verschiedene Komponenten wie
minimalistisches Betriebssystem, rekursiver Virenscanner oder Application Level Proxies sowie Ihr Einfluss auf das
Gesamtsystem diskutiert. Der Zusammenhang zwischen eingesetzten Methoden der Softwaretechnik wie Peer Review, Test
Driven Development oder Continuous Integration auf die Qualität des Entwicklungsprozesses wird beleuchtet. Kurze
Ausblicke auf spezielle Einsatzszenarien, Zertifizierung, Vernetzung mit der OpenSource-Szene und die Pläne für die
Zukunft runden den Vortrag ab.
[PDF]
Big Data: Anwendungsfelder in der Wissenschaft und Technologien
Datum/Ort
Donnerstag 20.06.2013, 16:15 Uhr, GFZ A69, Raum Z01
Referent
Dr. André Luckow, BMW Group
Zusammenfassung
Die Menge an Daten, die weltweit anfallen und verarbeitet werden, steigt ständig an. Ein Grund ist die allgegenwertige
Verfügbarkeit von Sensoren, z.B. in mobilen Geräten, Maschinen, usw., die das umfangreiche Sammeln von Daten ermöglichen.
Nach einer aktuellen Studie des IDC wurden im Jahr 2012 rund 2.2 Zetabyte digitale Daten erstellt, abgerufen oder
repliziert; dazu zählen Texte, Bilder, Videos, Aufnahmen von Überwachungskameras, Lokationsdaten, usw. Der größte Teil
dieser Daten wird dabei von Maschinen, z.B. mobilen Geräten, Flugzeugen, Fahrzeugen, Industrie-Robotern, erzeugt.
Insbesondere in verschiedenen Wissenschaftsdisziplinen werden immense Datenmengen erzeugt: so generieren die Detektoren
des Large Hydron Colliders am CERN rund 1 PB Daten am Tag; eine moderne Genome Sequenzierungsmaschine kann 1 TB/ Daten
pro Tag erzeugen. Das Datenwachstum wird in naher Zukunft weiter zunehmen. Die Bewältigung dieser Datenflut ist mit
verschiedenen infrastrukturellen Herausforderungen verbunden: so müssen neben dem Storage, Datentransfers,
Datenreplikationen effizient durchgeführt werden; ein gutes Daten/Compute Co-Placement ist die Voraussetzung für die
optimale Verarbeitung der Daten.
Cloud-Anbieter, wie Google und Amazon besitzen mittlerweile große, verteilte Infrastrukturen für die Verarbeitung von den
durch ihre Diensten generierten Daten. Einen Teil der Infrastruktur wird auch externen Nutzern als Cloud-Dienst zur
Verfügung gestellt. Infrastrukturen, wie EGI/Prace in Europa oder XSEDE in den USA, bieten immense Compute und Daten-
Ressourcen für wissenschaftliche Anwendungen. Klassisch stand der Aspekt Compute im Mittelpunkt von solchen High
Performance Infrastrukturen. Technologien aus dem Cluster und Grid Computing beschäftigten sich primär mit der Ausführung
von Anwendungen in Rechnerverbänden, so genannten Cluster, sowie in hoch-verteilten Rechen-Grids. Daten-Handling Aspekte
(Dateitransfers, File I/O) wurden in der Regel dem Compute Aspekt untergeordnet. Die Auswertung von Daten spielt aber
zunehmend eine wichtigere Rolle - der Anteil an daten-intensiven Anwendungen steigt unaufhaltsam.
Big Data beschreibt den aktuellen Trend und Hype um Technologien die den Umgang mit großen Datenmengen ermöglichen. Ein
Beispiel für eine solche Technologie ist Hadoop, ein Framework welches auf dem MapReduce Programmiermodell aufbaut und die
effiziente Ausführung von datenintensiven Anwendungen in einem Cluster erlaubt. Im Rahmen dieses Vortrages werden
verschiedene Anwendungsfelder sowie Technologien für den Umgang mit Big Data vorgestellt.
[PDF]
Uncertainty and sensitivity analysis of model output: Methods and tools
Datum/Ort
Dienstag 18.06.2013, 10:15 Uhr, Raum 03.04.1.02
Referent
Michael Flechsig, PIK Potsdam
Zusammenfassung
The lecture gives an overview on techniques and tools to deal with uncertainty matters in simulation models and to study
sensitivity of model output with respect to uncertainty in model input. Modellers and/or analysts in all research
disciplines and in engineering are often confronted with uncertainty matters when designing and/or using simulation
models. The notion of uncertainty relates to the system that is mapped by the model or to the mapping process / the model
itself. Special sampling techniques in multi-dimensional simulation model parameter spaces have been developed during the
last decades to tackle the problem for nonlinear models. They enable assurance of model quality standards from a system's
theoretical and statistical point of view. First insights into such techniques, their classification and the model
requirements are presented as well as simulation environments that focus on uncertainty and sensitivity issues.
Warnsysteme - von der Sensor-Integration zum System-of-Systems
Datum/Ort
Dienstag 15.01.2013, 16:00 Uhr , Raum 03.04.1.02
Referent
Prof. Joachim Wächter, GFZ Potsdam
Zusammenfassung
Das Tsunami-Desaster Dezember 2004 im Indischen Ozean hat intensive internationale Anstrengungen initiiert, um die Risiken
von geologischen Katastrophen zu reduzieren. Dazu gehört auch die Entwicklung von Krisen-Informationssystemen. Diese
Systeme zeigen in ihrer Funktionalität und Architektur eine signifikante Weiterentwicklung. Ein Schwerpunkte ist dabei die
Integration von Sensorsystemen, Simulationskomponenten und anderen Ressourcen in standardisierte Service-Plattformen. Auf
dieser Basis können relevante Prozesse, wie Erdbebenaktivität oder Veränderungen des Meeresspiegels beobachtet und Gefahren
erkannt werden. Prognostische Simulationen liefern dann die Grundlagen, um die lokalen Auswirkungen von Ereignissen auf
bestimmte Regionen zu analysieren und gezielt Warnmeldungen über verfügbare Disseminationskanäle an definierte Zielgruppen
zu versenden. Die Wirksamkeit von nationalen Warnsystemen ist immer stärker von ihrer Integration in internationale
Warninfrastrukturen abhängig. Hier arbeiten Warnzentren als System-of-Systems zusammen. Aktivitäten und Reaktionen werden
über den Austausch von Messages zwischen den Systemen synchronisiert und gesteuert.
[PDF]
Self-Learning Systems for Network Intrusion Detection
Datum/Ort
Donnerstag 13.12.2012, 14:00 Uhr, Raum 03.06.S12
Referent
Prof. Dr. Konrad Rieck, Georg-August-Universität Göttingen
Zusammenfassung
Computer systems linked to the Internet regularly fall victim to network attacks. Classic security tools, such as intrusion
detection systems, have a hard time fending off this threat, as they rely on manually generated detection patterns which are
often not available for novel attacks. In this talk, we present intrusion detection systems that build on concepts from
machine learning and are capable of identifying novel and unknown attacks automatically. We discuss the inner workings of
these systems and present two prototypes that spot attacks in inbound and outbound HTTP communication with high effectivity
and efficiency.
[PDF]
Understanding Modern Security Threats: Insights into Current Attack Vectors
Datum/Ort
Freitag 30.11.2012, 10:15 Uhr, Raum 03.06.S14
Referent
Prof. Dr. Thorsten Holz, Ruhr-Universität Bochum
Zusammenfassung
We have witnessed an increasing professionalism in attack vectors over the last couple of years; the attacks on Google and other
organizations (known as Operation Aurora) or Stuxnet are just a few examples of the multitude of attacks we face today. In this
presentation, we will provide an overview of some of the most interesting attacks observed in the recent past. The main focus of
the presentation will be on spam botnets (i.e., networks of compromised machines under the control of an attacker) and we present
some analysis results and countermeasures for this threat. The talk will conclude with an outline of research challenges and
topics for future work in this area.
[PDF]
Intrusion Detection in SCADA- und Web 2.0 Systemen
Datum/Ort
Donnerstag 01.11.2012, 14:00 Uhr, Raum 03.04.1.02
Referent
René Rietz und Andreas Paul, BTU Cottbus
Zusammenfassung
Der Lehrstuhl Rechnernetze und Kommunikationssysteme der BTU Cottbus stellt im Rahmen seiner IT-Sicherheitsforschung zu neuen
Herausforderungen für die Intrusion Detection zwei aktuelle Projekte für den Schutz von Industrieanalagen/Energieleittechnik
(SCADA) und das Web 2.0 vor.
Sensorbasierte Sturzerkennung und Prädiktion
Datum/Ort
Mittwoch 30.05.2012, 09:15 Uhr, Raum 03.06.S12
Referent
Dr. Mehmet Gövercin, Charite Universitätsmedizin Berlin
Zusammenfassung
Im Vortrag werden zunächst Stürze im Alter definiert und die Behandlung und die Folgen von Stürzen thematisiert. Daraus werden
Ansätze für die technische Unterstützung von Sturzerkennung und Sturzvorhersage entwickelt und aktuelle Projekte vorgestellt.
Research Points on Devices Collaboration of "Internet of Things"
Datum/Ort
Donnerstag 12.03.2012, 09:30 Uhr, Raum 03.04.2.14
Referent
Dr. Jianghua Lü, Beihang University, Beijing, China
Zusammenfassung
"Internet of Things" connects all objects by radio frequency identification devices and other information sensing devices
to the Internet to realize recognition and management intelligently. Device collaboration technology which is able to
realize automatic collaboration of different devices has become the basic technology of the Internet of Things. However,
due to the application in the environment of Internet of Things have the characteristic of large-scale, dynamic and high
concurrency and so on, how to achieve effective collaboration and management in large-scale device has become an important
research challenge, which mainly involves how to establish a collaboration model and how to implement the model. Thus some
characteristics for a collaboration model including high-order collaboration, real-time and temporal features will be
discussed, and so as some methods for implementing the model including real-time and paralleling schedules.
Internet of Things: Standards for IPv6 enabled Sensor Networks
Datum/Ort
Dienstag 03.04.2012, 14:00 Uhr, Raum 03.04.1.02
Referent
Prof. Jürgen Schönwälder, Associate Professor of Computer Science Jacobs University Bremen gGmbH
Zusammenfassung
Since 2006, the IETF is working on a set of standards for the Internet of Things. The work originally focused
on running IPv6 over IEEE 802.15.4 radios and has since then grown into a much larger project involving several
IETF working groups. The goal of the presentation is to provide an overview of these protocol development and
standardization efforts. The discussion starts from the IEEE 802.15.4 physical and MAC layer, covers the IPv6
adaptation layer (6LoWPAN), the tree routing layer (RPL), and finally a contrained application protocol (CoAP).
The presentation will also explore how more traditional protocols such as SNMP, mDNS or (D)TLS can be ported to
constrained devices. A demo with some blinking LEDs will be provided for those who love to see some hard- and
software in action.