Universität
Bielefeld Universität Bielefeld - Technische Fakultät
 
 

Informatik-Kolloquium im Sommersemester 2001

dienstags von 16-18 Uhr in Hörsaal 13


17. April 2001

Constrained Gene Prediction

(Der Vortrag wird auf Deutsch gehalten)

Prof. Dr. Jürgen Kleffe
Freie Universität Berlin

The human genome is as good as ready and understanding its message is the next important step to achieve those medical advances newspapers speculate about each day. The possibly simplest question to begin with is; where are the genes? There are three major sources of gene annotation. The experimental approach, which is expensive, the model based gene prediction, which is inaccurate, and sequence matching with ESTs, mRNAs, and protein sequences of other organisms, which is also error prone. Hence, the current state of the art is not satisfactory. On average every second published gene annotation is not entirely correct. To tell a good news, about 90% of the multi exon gene annotations are not entirely wrong. There are many problems with short single exon genes. This situation may not improve soon since we know far too little about the precise working of gene regulation, transcription, splicing, and translation inside the cell. Even though the 3-D structure of the ribosome is available, we know almost nothing about how it determines the start of translation. This makes it necessary to carefully review each gene annotation before it can be used in research projects. Do the latest sequence data provide new clues for a more precise location of the gene? Are there alternative gene predictions? How can we combine such information in order to find the currently most likely solution? Constrained gene prediction is a tool to answer such questions. We describe new implementations of the GeneGenerator program made to combine many different outputs of gene finder programs in to a single and hopefully improved consensus solution that also accommodates results from sequence matching with new ESTs, mRNAs or cDNAs as well as biological facts known about the gene of investigation. (Reference: Kleffe et al. (1998) Bioinformatics 14, 232-243)


24. April 2001

Evolutionäre Algorithmen

Prof. Dr. Ingo Wegener
Universität Dortmund

Randomisierte Suchheuristiken, darunter insbesondere evolutionäre Algorithmen, haben sich in vielen Anwendungen als Alternative zu problemspezifischen Algorithmen bewährt. Allerdings sind über die Möglichkeiten evolutionärer Algorithmen übertriebene und sogar falsche Aussagen im Umlauf. In diesem Vortrag werden zunächst Szenarien für den sinnvollen Einsatz evolutionärer Algorithmen diskutiert und danach wird exemplarisch gezeigt, wie eine Theorie evolutionärer Algorithmen entwickelt werden kann. Dazu wird das Verhalten verschiedener Varianten evolutionärer Algorithmen auf ausgewählten Funktionen analysiert und das erste Beispiel gezeigt, für das der Crossover-Operator die erwartete Optimierungszeit beweisbar von exponentiell auf polynomiell senkt.


8. Mai 2001

Geschichte des Computers

PD Dr.-Ing. Horst Zuse --->Radiobeitrag CampusRadio (Manuskript; pdf)
Technische Universität Berlin

Es hat vieler hervorragender Wissenschaftler, Ingenieure und Manager weltweit bedurft, um dem Computer zu der heutigen Verbreitung zu verhelfen. Charles Babbage (1792-1871) formulierte die ersten Grundideen von programmgesteuerten Rechenmaschinen. Konrad Zuse (1910-1995) wird heute fast einhellig auf der ganzen Welt als Schöpfer des ersten programmgesteuerten und frei programmierbaren Rechners in binärer Schalttechnik und binärer Gleitpunktrechnung, der wirklich funktionierte, anerkannt. Diese Maschine - Z3 genannt - vollendete er 1941 in seiner kleinen Werkstatt zu Berlin-Kreuzberg. Konrad Zuse schuf auch - was weit weniger bekannt ist - mit dem Plankalkül (1941-1945) die erste höhere Programmiersprache der Welt.

In diesem Vortrag werden die Rechnerentwicklungen von Babbage, Stibitz, Atanasoff, Aiken, Eckert und Mauchly, usw. vorgestellt. Die Maschinen von Konrad Zuse werden mit vielen, teils noch nie gezeigten Bildern und Videos, dargestellt und diskutiert. Eine vom Autor erstellte Simulation der Maschine Z3 zeigt deren Arbeitsweise. Die wenig bekannte Symbiose (ab 1943) des Plankalkül mit den logistischen, logarithmischen und algebraischen Rechengeräten von Konrad Zuse ist ein weiteres Thema des Vortrages.


15. Mai 2001

Mehrebenenarchitekturen für Intelligente Systeme

Prof. Dr.Dr. F.J. Radermacher
FAW Ulm

Der Vortrag beschäftigt sich mit Informationsverarbeitung in Superorganismen. Ziel ist die Ableitung von Prinzipien und Architekturen, die von höheren Lebenswesen über Roboter und Insektenstaaten sowie Tierschwärme bis hin zu Unternehmen oder auch die ganze Menschheit gewisse generelle Phänomene intelligenter Informationsverarbeitung beschreiben. Ein wichtiger Aspekt betrifft dabei unterschiedliche Ebenen der Repräsentation von Wissen und Information, wobei von geometrischen Beschreibungen über neuronale Netze und Regelsysteme bis hin zu mathematischen Modellen ein breites Spektrum betrachtet wird, inkl. der Übergänge zwischen den verschiedenen Ebenen. Ferner werden in diesem Kontext dann auch Themen wie Lernen, Kreativität / Innovation und der Umgang mit knappen Ressourcen diskutiert. Der letzte Punkt hat insbesondere Beziehungen zur Thematik des Bewusstseins in biologischen Systemen und der Funktion von Hierarchien in menschlichen Organisationen. Neben diesen allgemeinen Überlegungen geht der Vortrag insbesondere immer wieder auf den Bereich der Robotik und im besonderen der Service-Robotik ein, wo alle oben genannten Themen zunehmend eine Rolle spielen, bis hin zur Frage der Emotionalität von technischen Haustieren bzw. zu Avataren.


22. Mai 2001

Computergraphik: Effiziente Verarbeitung von Flächen mittels Dreiecksnetzen

Prof. Dr. Hans-Peter Seidel
Max-Planck-Institut für Informatik Saarbrücken

Zur effizienten Verarbeitung von Flächen spielen Dreiecksnetze innerhalb der Computergraphik und ihren Anwendungen nach wie vor eine zentrale Rolle. Hauptnachteil hierbei ist die große Zahl von Dreiecken, die zur Darstellung qualitativ hochwertiger Modelle erforderlich ist. Mit steigenden Anforderungen an geometrische Modelle und der ständig verbesserten Meßgenauigkeit von radiologischen Meßgeräten (CT, MRA) nimmt auch die typische Datenmenge für qualitativ hochwertige Modelle explosionsartig zu.
 
Motiviert durch diese Problemstellung wurden in den vergangenen Jahren eine Reihe von Algorithmen zur Netzreduktion vorgeschlagen. Solche Algorithmen reduzieren die Anzahl der Dreiecke und liefern eine Approximation an das ursprüngliche Netz. Progressive Netze speichern eine ganze Hierachie solcher Approximationen ohne Informationsverlust und erlauben den Zugang zu Dreiecksnetzen auf jeder gewünschten Auflösungsstufe.    

Algorithmen zur Netzreduktion und progressive Netze bilden die Grundlage einer in den letzten Jahren am MPII entwickelten durchgängigen Infrastruktur zur Verarbeitung komplexer Dreiecksnetze. Diese Infrastruktur umfaßt u.a. Algorithmen zur 3D-Rekonstruktion, Krümmungsberechnung, Netzreduktion, progressiven Übertragung, zum Glätten von Netzen und zum hierarchischen Editieren von beliebigen unstrukturierten Dreiecksnetzen.


29. Mai 2001

Virtuelle Gemeinschaften

Prof. Dr.-Ing. Reinhard Keil-Slawik
Heinz Nixdorf Institut / Universität Paderborn
Das Internet wird erwachsen. Aus einer einstmals sehr eingeschränkten Nutzergemeinschaft hat sich ein Markt entwickelt, auf dem kommerzielle Anbieter und öffentlich-rechtliche Einrichtungen um die immer knapper werdende Ressource Aufmerksamkeit (Economy of Attention) buhlen.

Wo Ressourcen knapp werden, steigt der Preis bzw. der Aufwand der aufgebracht werden muss, um erfolgreich zu agieren. Virtuelle Gemeinschaften sind ein Phänomen, das im Zentrum heutiger ökonomischer Strategien ebenso zu finden ist, wie in idealistischen Visionen aus der Frühzeit des Internet.

Der Vortrag geht der Frage nach, was denn in technischer und sozialer Hinsicht die neue Qualität von virtuellen Gemeinschaften ist und ob sie mehr sind als eine medientechnisch geschickt arrangierte Marketingstrategie oder eine romantische Verklärung einiger Netzbewohner (Netizens) und ihrer Beforscher. Die Schlussfolgerungen zeigen, dass das medientechnische Potenzial eher über den Begriff des virtuellen Raumes als den der virtuellen Gemeinschaft erschlossen werden kann.


5. Juni 2001

E-Business

Dr. Dieter Jäpel
IBM Rüschlikon

Unter e-business verstehen wir die Umsetzung von Geschäftsabläufen mit Hilfe von Internet-Technologien. Branchenspezifisch werden unterschiedliche Resultate erzielt, zum einen weil die Art des Geschäftes und die Möglichkeiten seiner Virtualisierung wichtige Parameter sind, zum anderen weil typischerweise die Umstellung auf IT-basierende Geschäftsabwicklung weitere gravierende Folgen für ein Unternehmen, wenn nicht gar die gesamt Branche hat. Der Vortrag untersucht ausgehend von einer Darstellung der erwarteten technischen Weiterentwicklung die Auswirkung von Informationstechnologie auf die Geschäftsabwicklung. Als Beispiel wird hauptsächlich der Bereich der Finanzdienstleistungen, insbesondere die Versicherungswirtschaft dienen. In diesem Bereich werden ausgewählte Projekte vorgestellt und positioniert, welche in Zusammenarbeit von technischer Forschung (IBM Research Division) und Geschäft (IBM Kunden) durchgeführt wurden. Ziel solcher Projekte ist die Abklärung, inwieweit Informationstechnik einen Geschäftbereich unterstützen kann oder auf eine neue Grundlage stellt.

Heute ist e-business ein eigenständiges Forschungsthema am Forschungslabor der IBM in Rüschlikon (http://www.zurich.ibm.com/csc/ebizz/index.html). Die Arbeiten konzentrieren sich auf die Themen elektronische Märkte, Virtuelle Firma und Preisgestaltung.


12. Juni 2001

Socially Intelligent Agents

Dr. Kerstin Dautenhahn
University of Hertfordshire, Großbritannien

The talk will give an overview on the research field of Socially Intelligent Agents (SIA) where researchers are concerned with the study, design and implementation of agents (software or robotic) that show aspects of human-style social intelligence. Such systems are of particular importance in scenarios with the "human in the loop", namely where humans (e.g. in the role of users, customers, collaborators or learners) interact with agents. Important SIA research issues will be identified and discussed in the context of social robots, focussing in more detail on a few relevant research projects: Robots that imitate human movements (work studied by Aude Billard), robots that use affective facial expressions in regulating robot-human interactions (studied by Cynthia Breazeal), and robots that are developed in the context of autism therapy (the AURORA project). Generally, the talk will motivate that Socially Intelligent Agents can be interesting tools in a Science of Social Minds that will ultimately help us understanding the origins of animal and human intelligence.

URL's:
http://www-slab.usc.edu/billard/
http://www.ai.mit.edu/projects/humanoid-robotics-group/
http://www.aurora-project.com/
http://homepages.feis.herts.ac.uk/~comqkd/aaai-social.html


19. Juni 2001

Sprachdialogsysteme

Prof. Dr. Günther Görz
Universität Erlangen-Nürnberg

Nach einer kurzen Einführung in Sprachdialogsysteme und die ihnen eigenen Probleme und Herausforderungen geben wir eine kurze Übersicht über den aktuellen Stand der Technik in der Konstruktion von Dialogmanagern. Mit "Dialogmanager" bezeichnen wir die zentrale Komponente eines Dialogsystems, die die Dialogführung steuert und verwaltet. Insbesondere gehen wir auf die charakteristischen Eigenschaften spontan gesprochener Dialoge ein, die jeder Dialogmanager handhaben muß. Die aktuellen Ansätze zur computerlinguistischen Dialogmodellierung können in zwei Klassen eingeteilt werden: strukturelle und plan-basierte.

Als Beispiel für den strukturellen Ansatz beschreiben wir das Dialogsystem EVAR, durch das telefonisch Auskünfte über Zugverbindungen eingeholt werden können. Eine Auswertung von über 1000 Dialogen ergab u.a., daß über 83% der nicht erfolgreichen Dialoge wegen einer fehlenden oder unzureichenden Integration der Benutzer-Äußerungen in den jeweiligen Diskurskontext scheiterten.

Aufgrund solcher Erfahrungen plädieren wir für eine neue Methode zur Verarbeitung von Sprachdialogen, einen plan-basierten Ansatz, der auf die Entwicklung eines flexiblen und konfigurierbaren Software-Werkzeugs für rationale Dialoge zielt. Bestimmend für unser Vorgehen ist eine pragmatische Sichtweise, bei der Sprechakte und Intentionen im Zentrum stehen. Aus theoretischer Perspektive betrachtet, schlagen wir vor, eine partielle Logik zur Dialoginterpretation einzusetzen, die eine direkte Repräsentation von Dialogkontexten erlaubt. Dem Primat der Pragmatik entsprechend steht für den Dialogmanager die Erkennung der Dialogintention am Anfang; davon ausgehend formulieren wir Grundannahmen über rationale Dialoge und über das kooperative Sprachhandeln ihrer Teilnehmer.

Die linguistische Verarbeitung beginnt mit einem Chunk-Parser für Worthypothesengraphen, die vom Erkenner erzeugt werden. Er generiert semantische Repräsentationen auf der Basis der Diskursrepräsentationstheorie (Lambda-DRT). Ein entscheidender Schritt bei der Konstruktion dieser semantischen Repräsentationen ist die Verankerung im Kontext ("grounding"). Die Kohärenz zwischen Äußerungen im Dialog ist primär semantisch definiert. Die partielle Logik dient dazu, diesen Kohärenzbegriff zu konkretisieren und um zu erklären, wie mithilfe der Kohärenzrelation eine Segmentierung des Dialogs vorgenommen werden kann.

Das Dialogmanager-Werkzeug wird im wesentlichen durch eine - in Beschreibungslogik formulierte - Beschreibung der Anwendungsdomäne parametrisiert, wodurch sich ein für diesen Anwendungsbereich spezifisch konfigurierter Dialogmanager ergibt. Dieser Dialogmanager interpretiert Äußerungen aus diesem Anwendungsbereich und interagiert mit einem oder mehreren anwendungsspezifischen Problemlösungskomponenten.


26. Juni 2001

Menschengerechte Systemgestaltung

Prof. Dr. Christiane Floyd ---> Vortragsfolien (pdf)
Universität Hamburg

Der Vortrag befasst sich mit Informatik als Gestaltungswissenschaft, das heißt, über die technischen Ebenen der Entwicklung von Informatiksystemen hinausgehend vorrangig die Gesichtspunkte einzubeziehen, welche die Einpassung von Informatiksystemen in den sozialen Kontext und wünschenswerte Formen des Zusammenwirkens von Mensch und Maschine betreffen. Entstanden in den Achtziger Jahren aus dem Anliegen, bei der Einführung von interaktiven Systemen in Organisationen die Erfordernisse der Arbeits- und Kommunikationsprozesse adäquat zu berücksichtigen, umfasst menschengerechte Systemgestaltung theoretische (großenteils humanwissenschaftliche) Grundlagen, empirisch validierte Methoden zur partizipativen Systementwicklung und technische Konzepte, um das Leitbild der Unterstützung qualifizierter Arbeit umzusetzen. Durch den Übergang auf verteilte, netzbasierte Anwendungen haben sich neue Herausforderungen ergeben: Systeme werden nicht mehr für feste Anforderungen entworfen sondern stellen einen offenen Handlungsraum zur Verfügung, die Personen, die ein System anwenden und die Kontexte, in denen es zum Einsatz kommt, sind häufig nicht vorhersehbar, es geht nicht mehr um die Gestaltung eines Systems sondern um die Evolution einer Infrastruktur aus zusammen wirkenden Komponenten. Dabei ist das Wissensmanagement - sowohl in den Anwendungsorganisationen als auch bei der Softwareentwicklung selbst - von entscheidender Bedeutung. Diese Veränderungen geben Anlass dazu, bestehende methodische Ansätze (hier: STEPS - Softwaretechnik für evolutionäre, partizipative Systementwicklung) auf die neuen Gegebenheiten hin weiter zu entwickeln. Dies wird am Beispiel eines Community Systems zur Unterstützung der Wissenskonstruktion in vernetzten Lernumgebungen verdeutlicht.


3. Juli 2001

Quantum Computing: Ideas and Challenges

Prof. Dr. Jozef Gruska
Masaryk University, Brno, Czech Republic

Quantum computing, or more technically quantum information science (QIS), is about laws, limitations and potentials of processing information utilizing the laws and limitations of quantum mechanics. It can be seen as representing a merge of two arguably most important achievements of science and technology of 20th century, quantum physics and informatics, and as such is expected to have huge impact on science and technology in the future.

Research in QIS can bring not only radically new and more powerful tools to make computation faster and communication more efficient and more secure, but it has potentials to bring also new insights into the foundational phenomena of Nature.

Quantum computing might one day overcome many of the limits facing conventional computation and communication. The advantage of quantum computers arises from the way a new fundamental unit of information, quantum bit, called a qubit, is used and from quantum superposition, parallelism and especially, puzzling quantum entanglement with non-locality implications.

Recent discoveries in quantum information processing and communication (QIPC) have brought a variety of new, deep, important and exciting challenges that need to be faced by physics, informatics and mathematics.

The first aim of the talk is to present and analyse these challenges.

QIS research keeps discovering puzzling and mysterious quantum phenomena and studying laws and limitations of powerful quantum resources for computation and communication. This is expected to have profound effect on science in general and on QIPC in particular.

The second aim of the talk is to present and analyse these mysterious phenomena and powerful resources.


10. Juli 2001

Roboterprogrammierung durch Vormachen

Prof. Dr.-Ing. Rüdiger Dillmann
Universität Karlsruhe

Roboter, die in alltäglichen Situationen in direkter Interaktion mit dem Menschen stehen und wechselnde, nicht getaktete Aufgaben in zeitvarianter, schwach strukturierter Umgebung ausführen können, werden der Klasse der sogenannten Serviceroboter zugeordnet. Im Gegensatz zu Industrieroboter müssen sie in der Lage sein, mit Menschen, die sich im Arbeitsbereich des Roboters aufhalten, zu kommunizieren, zu interagieren und zur Ausführung wechselnder Aufgaben zu kooperieren. Dies erfordert ausgeprägte Fähigkeiten zu einer sicheren Mensch-Maschine Interaktion und ein hohes Maß an Adaptivität, Flexibilität und Lernfähigkeit seitens des Robotersystems und auch des Menschen. Bezüglich der Programmierbarkeit solcher Robotersysteme liegen zahlreiche Ansätze auf der Basis expliziter oder impliziter Programmierung vor. Das Spektrum der interaktiven Programmierung reicht dabei von klassischem Teach-In, über multimodale Dialoge bis hin zur Programmierung durch Belehrung und Vormachen. Roboter können dabei lernen durch Beobachtung der demonstrierten Handlungen, durch Imitation des Menschen oder durch Dialoge mit dem belehrenden Menschen. Für solche Programmierverfahren ist eine weitgehende natürliche Mensch-Maschine Schnittstelle sinnvoll. Auf der Basis von Sprache, Gesten, Haptik und Bildverarbeitung kann ein Robotersystem multimodal Vorführungen des Menschen erfassen, die Aufgabe und die benötigten Handhabungsfähigkeiten (skills) lernen und aus diesen ein Roboterprogramm ableiten. Erste Systeme, die dies leisten, sind mit den dazu nötigen Funktionskomponenten bereits in Erprobung. Der Vortrag befaßt sich mit grundlegenden Fragen des Programmierens von alltäglichen Handhabungen im Dienstleistungsbereich und ihre Ausführung durch Roboter auf der Basis natürlicher interaktiver Dialoge zwischen Mensch und Maschine sowie der Akquisition von Roboterfähigkeiten aus beispielhaften konkreten Vorführungen der Aufgabenlösung durch den Menschen.



Zurück zur ...

Liste der Vorträge

Startseite der Technischen Fakultät


Margret Barner, 2001-6-27