Bachelor-Arbeit zur Erlangung des Grades Bachelor of Science (B.Sc.) an der Fakultät Informatik Lehrstuhl Internet-Technologie der Brandenburgischen Technischen Universität Cottbus

BTU-LOGO

Die Multimediadokumentbeschreibungssprache SMIL als E-Learning-Contentsprache

Jens Werner

Betreuer: Prof. Dr. Gerd Wagner

26.Oktober 2005


Inhaltsverzeichnis

1. Aufgabenstellung und Lösungsansatz
1.1. Aufgabenstellung
1.2. Lösungsansatz
2. Einleitung
3. E-Learning
4. Einführung in SMIL
4.1. Die Entwicklung eines offenen Multimediastandards
4.2. Entwicklungsgeschichte von SMIL
4.3. Modularisierung von SMIL
4.3.1. Animation
4.3.2. Content Control
4.3.3. Layout Modules
4.3.4. Linking Modules
4.3.5. Media Object Modules
4.3.6. Metainformation Module
4.3.7. Structure Module
4.3.8. Timing and Synchronization Module
4.3.9. Time Manipulation
4.3.10. Transition
4.4. Aufbau eines SMIL-Dokuments
4.4.1. Konzepte und Syntaxregeln
4.4.2. Grundstruktur
4.4.3. Beispiel
4.5. Fazit
5. Software
5.1. Authoring Tools
5.1.1. LimSee2
5.1.2. GRiNS
5.1.3. Fazit
5.2. Player
5.2.1. Ambulantplayer
5.2.2. RealPlayer
5.2.3. MS Internet Explorer 5.5+
5.2.4. X-SMILES
5.2.5. Fazit
6. E-Learning und SMIL
6.1. Umsetzung von E-Learning-Anforderung mit SMIL
6.2. Einsatzgebiete von SMIL
6.2.1. SMIL-Spezifikationen für andere Anwendungen
6.2.2. Animationen
6.2.3. Publikation von Präsenzveranstaltungen
6.2.4. Präsentationen als Slideshows
6.2.5. Demonstrationen / Vorführungen
6.2.6. Gebrauchsanweisungen / Tutorials
6.2.7. SMIL-Templates
6.2.8. Dynamisch generierte SMIL-Dokumente
6.2.9. Integration in (L)CMS
6.2.10. Verwaltung von Multimediadaten
6.2.11. Fazit
6.3. E-Learning mit SMIL
7. Schlussbemerkungen
Literaturverzeichnis
A. Eidesstattliche Erklärung
B. Quelltexte
1. HTML+TIME
C. Glossar / Abkürzungen

Zusammenfassung

E-Learning-Contents können mit Hilfe der Computertechnologie aufgearbeitet und präsentiert werden. Der Einsatz multimedialer Formate erweitert die Lehrangebote in didaktischer, organisatorischer und technischer Hinsicht. Dazu werden Möglichkeiten benötigt, mit den anfallenden multimedialen Inhalten umzugehen. In diesem Zusammenhang muss natürlich immer die Kostenfragen im Auge behalten werden.

Die Synchronized Multimedia Integration Language, kurz: SMIL, kann dazu als Beschreibungsmittel von Multimediapräsentationen eingesetzt werden. Diese offene und frei verfügbare (und somit kostengünstige) Spezifikation wurde vom W3C als XML-Sprachen entwickelt und als möglicher Standard vorgeschlagen.

SMIL löst in erster Linie das Problem der zeitlichen Steuerung von Multimediapräsentationen. Des weiteren werden notwendige Beschreibungsmöglichkeiten geboten, um die Präsentationen in eine ansprechende Form zu bringen (Layout, Transitionen, Animationen). Sie bietet aber auch Möglichkeiten die den Anwendungsbereich um Multilingualität und Barrierereiheit oder, durch den Einsatz von Metadaten, die Eigenschaften der Präsentationen um Indizierbarkeit und Archivierbarkeit erweitern.

Die Struktur von SMIL, die Codierung im Plaintextformat und die vollständige Trennung von Beschreibung und Inhalt bieten den Autoren umfangreiche Möglichkeiten mit dem SMIL-Code zu arbeiten. Dazu gehören neben der leichten Erlernbarkeit, ein einfaches Editieren, Lesen und Verstehen, aber auch die Wiederverwertbarkeit von (Teil-)Dokumenten. Des Weiteren können einfache Texteditoren zum Bearbeiten eingesetzt werden.

Der Einsatz von SMIL-Dokumenten in LCMS ist auf Grund seiner XML-Eigenschaften problemlos möglich. Auch Integration in dynamische Umgebungen ist denkbar. SMIL-Dokumente können automatisiert erstellt oder mit Inhalten befüllt werden.

Die SMIL-Spezifikationen konnten sich bisher kaum als Standard etablieren, so dass die derzeit zur Verfügung stehende Software (für Authoring und Play) nicht sehr umfangreich bzw. häufig nur in sehr frühen Entwicklungsstadien existiert.

Leider offenbart SMIL Schwächen im Umgang mit Text, die auch durch existierende Software nicht ausgeglichen werden können. Ein Rechtemanagment ist mit gegebenen Mitteln ebenfalls nicht möglich (ausgenommen der Streamingvariante).

SMIL bietet sich somit für den Einsatz im E-Learningbereich zwar an, kann aber den Ansprüchen nicht vollständig gerecht werden. Ihre Hauptstärke kommt mit der Integration und Kombination mit anderen Spezifikationen zum tragen. Dazu gehören HTML, SVG, aber auch proprietäre Lösungen wie HTML+TIME oder Spezifikationen von RealNetworks, wie RealText oder der Möglichkeit des Streamens von SMIL-Präsentationen.

1. Aufgabenstellung und Lösungsansatz

1.1. Aufgabenstellung

Es soll untersucht werden, welche Möglichkeiten SMIL für die Aufarbeitung von E-Learning-Inhalten bietet und auf welche Weise sie bereits zu diesem Zweck angewendet wird. Weiterhin sollen Möglichkeiten der Darstellung und Herstellung von E-Learning-Inhalten aufgezeigt werden.

1.2. Lösungsansatz

Die Lösung der Aufgabe erfolgt in drei Schritten.

Um feststellen zu können in welcher Beziehung SMIL mit E-Learning-Inhalten stehen kann, wird zunächst mit Hilfe der Topdown-Strategie der E-Learning-Bereich auf mögliche Anwendungsfelder untersucht.

Als nächstes sollen die Möglichkeiten von SMIL durch eine zusammenfassende Darstellung der Spezifikation und Besprechung einiger Authoring-Tools und Abspielmöglichkeiten erläutert werden.

Im dritten Schritt werden die Erkenntnisse der beiden vorhergehenden zusammengeführt indem dargelegt wird, wie SMIL im E-Learning-Bereich zur Präsentation von Inhalten eingesetzt werden kann. Dazu werden Beispiele und Szenarien aufgeführt.

Inhaltlich wird darauf Wert gelegt, ein möglichst umfassendes Zielpublikum zu erreichen, da das Thema E-Learning nicht nur für IT-Spezialisten interessant sein sollte. Deshalb soll versucht werden weitestgehend keine umfangreichen Vorkenntnisse voraus zu setzen oder, bei Notwendigkeit, auf weiterführende Informationen zu verweisen.

2. Einleitung

Wissen schaffen. Das bedeutet einerseits den Bestand des Wissens mittels Forschung zu erweitern, andererseits, Wissen weiterzugeben bzw. zu verbreiten. Als gleichwertig zur Ermittlung von Wissen, ist also die Vermittlung von Wissen zu betrachten.

Aus "Wissen schaffen" wurde "Wissenschaft". Diese wird seit der Antike grundsätzlich in der selben Form praktiziert. Natürlich änderten sich im Laufe der Zeit die Methoden auf Grundlage gesellschaftlichen und technologischen Fortschritts, aber die Grundidee blieb doch die selbe.

"Im Hochschulurteil des Bundesverfassungsgerichtes der Bundesrepublik Deutschland zur Freiheit von Kunst und Wissenschaft (Artikel 3 des Grundgesetzes) wird der Begriff Wissenschaft wie folgt charakterisiert:

Der gemeinsame Oberbegriff "Wissenschaft" bringt den engen Bezug von Forschung und Lehre zum Ausdruck. Forschung als "die geistige Tätigkeit mit dem Ziele, in methodischer, systematischer und nachprüfbarer Weise neue Erkenntnisse zu gewinnen" (Bundesbericht Forschung III BTDrucks. V/4335 S. 4) bewirkt angesichts immer neuer Fragestellungen den Fortschritt der Wissenschaft; zugleich ist sie die notwendige Voraussetzung, um den Charakter der Lehre als der wissenschaftlich fundierten Übermittlung der durch die Forschung gewonnenen Erkenntnisse zu gewährleisten. Andererseits befruchtet das in der Lehre stattfindende wissenschaftliche Gespräch wiederum die Forschungsarbeit."[1]

Nachdem nun klar ist, welchen Stellenwert der Vermittlung von Wissen beigemessen werden muss, stellt sich die Frage, WIE Wissen vermittelt werden kann. Über Jahrhunderte hinweg wurde Wissen mit verbalen Mitteln gelehrt. Wobei das natürlich, angepasst an gegebene gesellschaftliche und technologische Verhältnisse, in verschiedenen Formen und Erweiterungen praktiziert wurde.

Ein weiterer Aspekt den es zu beachten gilt, ist die Tatsache, dass die Informationsmengen immer schneller anwachsen und sich die Aktualität von Wissen ständig wandelt. Ein Hauptgrund dafür ist die weltweit immer engmaschigere Vernetzung von Informationskanälen. Die exponential anwachsende Menge an Wissen motiviert zum Einsatz bzw. zur Entwicklung völlig neuer Konzepte, um dieses zu vermitteln. Interessanter Weise bringen die (technologischen) Ursachen dieser Entwicklungen die Lösungen gleich mit sich.

Mit der Entwicklung moderner Technologien eröffnen sich heute völlig neue Möglichkeiten. Wissen kann nun in einer Form vermittelt werden, die dem menschlichen Denken viel besser entspricht. Dem Lernenden werden völlig neue Chancen gegeben sein Potential auszuschöpfen. Der Lehrende erhält die Möglichkeit, (fast) alle Sinne seiner Schüler gezielt und gleichzeitig anzusprechen. Die Form des Lernens, auf elektronischen Grundlagen basierend, wird mit dem Begriff "E-Learning" umschrieben.

Neben den technischen Aspekten der digitalen Vermittlung von Lerninhalten (Übertragung, Speicherung, Hardware zur Darstellung...) besteht die Notwendigkeit, diese Lerninhalte unter Ausnutzung verschiedenster Medienformate aufzubereiten. Um die geschaffenen Grundlagen umfangreich und effektiv ausnutzen (und auslasten) zu können, werden Standards benötigt, die in der Lage sind, Wissen möglichst flächendeckend zu verbreiten. Das heißt: vorhandene Soft- und Hardwaregrundlagen nutzen und die gegebenen Möglichkeiten ausschöpfen.

Ein großes Problem stellt die Umsetzung von E-Learning in die Praxis dar. Der Großteil existierender Projekte befindet sich nur in einer Pilotphase. Es finden kaum praktische Anwendungen in Bereichen statt, die keine technischen Hintergründe besitzen. Die wenigen Versuche E-Learning praktisch einzusetzen, schöpfen i.d.R. das große Potential das diese Bildungsform bietet nicht aus. Schließlich sollen auch Lehrende ohne erweiterte Computerkenntnisse (oder auch -talente) in die Lage versetzt werden, dieses Lehrmittel einzusetzen.

Im folgenden soll zunächst versucht werden, die Anforderungen von E-Learning an den präsentierenden Bereich darzustellen. Danach wird eine Möglichkeit, mit der Vorstellung der Multimediabeschreibungssprache SMIL und den dafür zur Verfügung stehenden Applikationen, angeboten. Dazu werden Anwendungsszenarien von SMIL, für den praktischen Einsatz im E-Learning-Bereich, erarbeitet.

3. E-Learning

Mit der rasanten Entwicklung von Computertechnologien, entstanden völlig neue Methoden und Möglichkeiten des Lernens und Lehrens. Die Form der elektronisch unterstützten Bildung wird als elektronisches Lernen (E-Lernen) oder electronic learning (E-Learning) bezeichnet. Der Begriff E-Learning definiert das „Lernen unter Einbezug elektronischer Kommunikationsmittel und verschiedener Publikationsformen, indem PC, CD-ROM oder das Internet eingesetzt werden[2].

Die Geschichte des E-Learnings ist eng verbunden mit der Entwicklung elektronischer Medien. Schon als sich die Computertechnik noch in den Kinderschuhen befand und deren Einzug in die Haushalte der Bevölkerung nicht absehbar war, existierten Lerninhalte auf elektronischen Medien. Dazu zählten zum Beispiel Sprachkurse auf Audiokassetten oder CD. Aber auch Schul- oder Bildungskurse auf VHS waren erhältlich.

Erst nachdem die Entwicklung der Technik weiter fortgeschritten und deren Kosten ein erträgliches Maß erreichten, wurde begonnen, Lerninhalte mittels Computertechnologien zu verbreiten. Die einfachste Form stellte dabei das Computer Based Training (CBT) dar. Derartige Kurse sind i.d.R. nur lokal verfügbar. Das heißt, sie liegen lokal auf einer Abspielumgebung vor (bspw. Abspielen einer CD auf einem PC). Sie bieten (wenn überhaupt) nur die Möglichkeit einer asynchronen Kommunikation. Im Vordergrund steht das Selbststudium. Auf die Hilfe eines (reellen) Tutors wird verzichtet.

Als Weiterentwicklung des CBT ist das Web Based Training (WBT) zu betrachten. Die Lerninhalte werden dabei in eine Netzwerkumgebung eingebettet. Die Verarbeitung des Wissens mit Hilfe von Tutoren oder auch in (virtuellen) Lerngruppen, waren nun durch die Möglichkeit einer synchronen Kommunikation gegeben.

Die Einordnung des Begriffs "E-Learning" in diesen Entwicklungsprozess ist nicht geklärt. Deutet er, im Sinne von elektronisch unterstütztes Lernen, darauf hin, dass schon relativ einfache Lehrmedien (VHS, Audiokassetten) unter E-Learning einzuordnen sind, verweisen andere Quellen auf fortgeschrittenere Methoden. So beginnt E-Learning, in einigen Definitionen, erst mit dem Einsatz von multimedialen und (tele-)kommunikativen Techniken:

Der Fokus liegt also nicht allein auf Online-Technologien, sondern es werden auch Offline-Technologien wie z.B. CBT auf CD-ROM o.ä. dazu gezählt.[3]

Andere Quellen ordnen E-Learning sogar erst in den Bereich des WBT ein:

Der Begriff "E-Learning" selbst ist erst wenige Jahre alt. In seinen Anfängen wird er meist für Formen des computergestützten Lernens unter Nutzung des Internets verwendet und ist begrifflich klar abgegrenzt vom computerbasierten Training (CBT).[4]

Allerdings soll es hier nicht um eine Diskussion zur Einordnung von E-Learning gehen.

Gemeinhin lassen sich allgemein einige Vor- und Nachteile von E-Learning zusammenfassen:

Vorteile Nachteile
  • Ort und Zeit des Lernens spielt eine untergeordnete Rolle

  • Lerntempo ist vom Lernenden bestimmbar

  • flexible Methodik/Didaktik

  • umfangreiche Möglichkeiten der Aufbereitung von Inhalten

  • Einsatz unterschiedlicher Medientypen

  • Archivierbarkeit (Wiederverwendbarkeit, Mehrfachverwendung)

  • Katalogisierbarkeit, Indizierbarkeit

  • fehlende soziale Bindung zu weiteren Teilnehmern

  • Missdeutungen (und fehlerhafte Inhalte) bleiben unbemerkt

  • erfordert hohe Selbstlernkompetenz und Motivation

Tabelle 1. E-Learning Vor- und Nachteile

E-Learning eröffnet neuen Zielgruppen die Möglichkeiten, an Bildungsangeboten teilzuhaben, die ihnen sonst verschlossen blieben. So versetzt die örtliche und zeitliche Unabhängigkeit auch dem berufstätigen oder sozial gebundenen Menschen in die Lage, sich weiterzubilden. Aber auch Behinderten wird der Zugang zu Bildungsangebote ermöglicht bzw. vereinfacht, auf die sie sonst verzichten müssten oder die nur unter Einschränkungen realisierbar wären.

Auch unternehmerische Aspekte spielen bei der Entwicklung und dem Einsatz von E-Learning eine Rolle. So wird sich neben einer Ersparnis von (Arbeits-)Zeit und Kosten, auch eine Steigerung der Qualität versprochen. Beispiele hierfür sind ([1] - Seite 210):

  • Verlagerung von Lernprozessen in "lastarme" Zeiten,

  • Einsparung von Fahr- und Übernachtungskosten bei Schulungen,

  • Minimierung von Arbeitsausfallzeiten,

  • Verringerung von Kosten für Trainer und Trainingsräume,

  • ...

Als es sich zeigte, dass E-Learningformate die Eigenschaften von Präsenzveranstaltungen nicht vollkommen ersetzen konnten, wurde das so genannte Blended Learning entwickelt. Dieses Konzept verbindet die Effektivität und Flexibilität von E-Learning mit den sozialen Aspekten des gemeinsamen Lernens. Dieser Ansatz wird auch als "Hybride Lernarangement" bezeichnet. Dabei können moderne, echtzeitbasierende Kommunikationskanäle, wie z.B. Videokonferenzen oder Chat, den sozialen Aspekt des Lernens unterstützen.

Durch die Weiterentwicklung der E-Learning-Formen werden die klassischen E-Learning-Rollen Autor und Konsument, um einige neue Rollen erweitert. Dazu gehören:

  • Administrator - als Verwalter von Inhalten

  • Content-Anbieter - als Verkäufer/Händler von Lehrinhalten

  • Trainer - als Vermittler der Inhalte

  • Tutor - als Unterstützer der Konsumenten

Um alle diese Rollen und deren Funktionen inklusive der Lehrinhalten nutzen zu können, werden moderne E-Learning-Formate in so genannten Learning Content Management Systems (LCMS) verwaltet.

Weitere aktuelle Entwicklungen sollen die Möglichkeiten von E-Learning erweitern, dessen Vorteile besser ausnutzen und dessen Nachteilen entgegenwirken. Folgende Entwicklungslinien lassen sich dabei erkennen ([1] - Seite 212-213):

  • Multimediales Lernen

  • Kooperatives Lernen

  • Ubiquitäres Lernen (Ubiquituos Computing - weltweite Verfügbarkeit von Computern)

  • Standardisierung

  • Qualitätssicherung

Im folgenden soll insbesondere auf den ersten Punkt, das multimediale Lernen, eingegangen werden. Der Ansatz des Multimedialen Lernens basiert auf der Idee, dass Lehrstoffe so aufgearbeitet werden, dass sie der menschlichen Auffassungsgabe entgegen kommen. Er stützt sich auf die Annahme, dass der Mensch zwei verschiedene Informationsverarbeitungssysteme (Hemisphärentheorie) nutzt: das verbale und das visuelle System. Herkömmliche Lehrveranstaltungen sprechen i.d.R. überwiegend das verbale System an. Der multimediale Ansatz bietet nun die Möglichkeit, beide Systeme anzusprechen, und somit die Kapazitäten menschlicher Auffassungsgaben umfangreicher auszuschöpfen [2]. Dazu besitzt Multimediales Lernen folgende Eigenschaften ([1] Seite 213):

  • Multicodalität - Einsatz verschiedener Symbolcodes zur Informationsdarstellung (multible Perspektiven)

  • Multimodalität - Ansprechen verschiedener Sinnesorgane

  • Dynamik - Kombination statischer und dynamischer Elemente bietet Möglichkeiten authentischer und realitätsnaher Darstellung

  • Interaktivität - Kopplung mit Lernereingaben

Multimedial aufbereitete Lehrinhalte bieten dem Lehrenden die Möglichkeit, sich präzise und plastisch auszudrücken. Komplexe Sachverhalte können aus unterschiedlichen Perspektiven dargestellt werden. Bei entsprechender Qualität kann multimediales Lernen die Motivation des Lernenden positiv beeinflussen. Dazu gilt es allerdings einige Grundlagen zu beachten. Als Beispiel dafür sollen an dieser Stelle die sieben Prinzipien für die Konstruktion und den Einsatz von Multimedia im E-Learning-Bereich (aus [1] - Seite 87) aufgeführt werden:

  1. Multimediaprinzip: Studenten lernen besser durch Worte und Bilder als durch Worte allein

  2. Prinzip des räumlichen Zusammenhangs: Studenten lernen besser wenn korrespondierende Wörter und Bilder nahe beieinander liegen und nicht weit auseinander liegend über den Bildschirm verteilt sind

  3. Prinzip des zeitlichen Zusammenhangs: Studenten lernen besser wenn korrespondierende Wörter und Bilder gleichzeitig und nicht nacheinander präsentiert werden

  4. Prinzip des logischen Zusammenhangs: Studenten lernen besser wenn belanglose Wörter, Bilder und Töne ausgeschlossen werden, an Statt sie darzustellen

  5. Prinzip der Aufarbeitung (Modality Principle): Studenten lernen besser von Animationen mit Beschreibungen, als von Animationen mit On-Screen-Texten

  6. Prinzip der Redundanz: Studenten lernen besser von Animationen mit Beschreibungen, als von Animationen mit Beschreibungen und On-Screen-Texten

  7. Prinzip der individuellen Unterschiede: Designeffekte sind wichtiger für Lernende von einfachen Inhalten als für Lernende von komplexeren Inhalten

Mit der Variante, Präsenzveranstaltungen multimedial aufzuarbeiten, erhält auch der Lehrende die Chance, seine Lehrinhalte bzw. ihre Darstellung auf Fehler oder Mehrdeutigkeiten zu überprüfen und zu korrigieren.

Multimedia setzt das Vorhandensein gewisser Hardware voraus, worauf an dieser Stelle nicht weiter eingegangen werden soll.

Ein anderer Ansatz zur Beschreibung von Multimedia nutzt die eigentliche Bedeutung des Wortes. Es deutet darauf hin, dass verschiedene Medien zum Einsatz kommen. Basis dafür bilden das Wort und das Bild. Wobei Wort im Sinne von verbaler Information, also gesprochenem oder gedrucktem Text, zu verstehen ist. Bei Bildern lassen sich statische (Fotos, Grafiken, ...) und dynamische (Videos, Animationen, ...) Formen unterscheiden. Ergänzt werden die Inhalte durch Audioinformationen wie Musik oder Tonsymbole (siehe Abbildung 1, „Elemente von Multimedia“).

Elemente von Multimedia

Quelle: http://newmedia.idv.edu/medienlehre/pim02w/

Abbildung 1. Elemente von Multimedia

Um multimediales Lernen realisieren zu können, werden Werkzeuge benötigt die multimediale Inhalte beschreiben können. Neben den Darstellungen von Lehrinhalten in angemessener multimedialer Komplexität, sollten sie auch erweiterte Eigenschaften zur Umsetzung und flexiblen Nutzung von E-Learning unterstützen. Wünschenswerte Zusatzeigenschaften sind:

  • katalogisierbar, suchbar

  • barrierefrei

  • multilingual

  • anpassbar an unterschiedliche Systemumgebungen

  • einfach, standardisiert, umfangreich verfügbar

  • Integrationsfähigkeit in bestehende (L)CMS

  • ...

Aus den genannten Fakten lässt sich nun ein grobes Anforderungsprofil für E-Learning-Anwendungen erstellen. Dazu gehört zunächst die Unterstützung der genannte Vorteile, das Entgegenwirken gegen die Nachteile und das Vorhandensein von Zusatzeigenschaften. Hinzu kommen die Unterstützung breiter Nutzergruppen und möglichst geringe Kosten.

Eine Möglichkeit, speziell für das Multimedialernen, stellt die im folgenden Kapitel beschriebene Multimediabeschreibungssprache SMIL dar. Sie kann als Grundlage jeglicher multimedialer Darstellungen betrachtet werden und ist nur vom technologischen Umfeld begrenzt. SMIL wurde dabei nicht explizit für den Anwendungsfall multimedialen Lernens bzw. E-Learning geschaffen. Somit erübrigt sich an dieser Stelle, die Diskussion über die Einordnung von E-Learning. SMIL kann insbesondere für CBT, aber auch für WBT oder auch für zukünftige elektronische Lehrfelder genutzt werden.

4. Einführung in SMIL

4.1. Die Entwicklung eines offenen Multimediastandards

Seit Anfang 1990 verzeichnete das Internet, insbesondere durch das World Wide Web (WWW), einen vehementen Aufschwung. Entscheidend für den Erfolg des WWW war die Einführung des Dokumentenformats HTML (Hypertext Markup Language). Diese Auszeichnungssprache ermöglicht die Definition von Dokumenten, die aus Text- und Grafikelementen bestehen. Diese Elemente stellen die eigentlichen, zu präsentierenden Informationen dar. HTML definiert die Art und Weise der Präsentation. Die Darstellung dieser Elemente übernimmt eine Software mit grafischer Benutzeroberfläche (GUI), der Webbrowser. Weiterhin wurde es möglich so genannte Hypertextelemente zu bestimmen, die auf Elemente im selben Dokument oder in anderen Ressourcen verweisen können. Die Kontrolle über diese Funktionalität übernimmt ebenfalls der Webbrowser.

Einerseits entstand ein mehr oder weniger enges Netz an Informationsträgern. Diese Träger sind rein hardwarebezogen zu betrachten und entsprechen weitestgehend der OSI-Schicht 1. Dazu kam eine einfache und billig reproduzierbare Technologie, die darauf aufsetzte (höhere OSI-Schichten). Am Ende dieser Kette schließlich, stand eine brauchbare Mensch-Maschine-Schnittstelle, der Webbrowser, zur Verfügung. Andererseits war es nun möglich, Informationen engmaschig miteinander zu vernetzen bzw. zu strukturieren. Diese (neudeutsch:) verlinkten Informationen haben entscheidenden Einfluss auf die Qualität des Internet im Kontext der Information.

Die nun gegebene Möglichkeit, mittels grafikfähiger Webbrowser, Informationen und Kommunikationen aufzubereiten und somit aufzuwerten, erweckten das Interesse einer breiten Nutzermasse bzw. ermöglichte erst die Nutzung dieser Technologie. Die seit dem stetig wachsende Zahl der Nutzer aus allen Schichten der Bevölkerungen weltweit, führte zu vielen kommerziellen Angeboten im Netz. So wurde das Internet zu dem, was es heute ist: eine Plattform die der Kommunikation und dem Austausch von Informationen dient.

Die Anzahl der Einsatzgebiete dieses Mediums ist gewaltig. Mit der Weiterentwicklung und dem Ausbau der Netztopologien und -technologien (z.B. wachsenden Bandbreiten), erlangt das Netz immer mehr Einfluss auf viele Bereiche des täglichen Lebens. Dazu gehören bspw. Handel, Unterhaltung, Information, Verwaltungsakte und Bildung. Oberbegriffe hierfür sind: E-Business, E-Commerce, E-Government, E-Paper oder auch E-Learning. Das 'E-' bei oben genannten Begriffen dient als Synonym für Austausch bzw. Bearbeitung auf elektronischen Kanälen, deutet also auf die Form der Informationsübertragung/-bearbeitung bzw. Art der Kommunikation hin.

Schon gegen Ende der 1990er Jahre begann es sich abzuzeichnen, dass die einfache Kombination aus textuellen und grafischen Elementen, die Bedürfnisse der Nutzer nicht mehr abdecken konnte. Zwar war es möglich, durch Scrollen und Klicken, die Darstellung schnell zu ändern, die Gesamtheit der Information blieb jedoch statisch. Obwohl Möglichkeiten der dynamischen Informationsaufbereitung geschaffen wurden (bspw. dynamisch generierte HTML-Seiten auf Basis von Datenbankanfragen), konnten diese einige Anforderungen nicht erfüllen. Dazu gehörte, die zweidimensionalen Gestaltungsmöglichkeiten von HTML um die Dimension Zeit zu erweitern. Die Anwendung der Dimension Zeit ist gleichzusetzen mit:

  1. Verwendung zeitabhängiger Medien wie Video und Audio

  2. zeitliche Steuerung der Medienpräsentationen

  3. Erweiterung der Information um den Zeitaspekt

Eine Lösungsmöglichkeit bieten proprietäre Formate wie Shockwave, Quicktime oder Flash. Diese stellen ein in sich geschlossenes Medium dar. Es handelt sich um binäre Formate, die zur Darstellung ein jeweils spezielles Plug-In für den Browser, eigene Player oder spezielle Browserimplementierungen benötigen. Die Präsentation ist hier in einer Kombination aus Daten, Layout- und Steuerinformationen codiert. Ähnlich verhält es sich mit Java-Applets.

Bald wurde der Ruf nach einem einheitlichen Standard laut. Dem nahm sich das W3C mit der Entwicklung einer Spezifikation an. Als eine Anwendung von XML wurde die Synchronized Multimedia Language, kurz: SMIL (gesprochen wie das englische Wort „smile)“, als Empfehlung entwickelt. Diese Beschreibungssprache ähnelte sehr HTML und ist als eine Form von XML definiert.

Die Existenz einer DTD unterstützt Entwickler und Autoren bei der Erstellung von SMIL-Code.

Ein SMIL-Dokument setzt sich aus spezifischen Tags und Strukturen zusammen. Somit ist es möglich, SMIL-Dokumente auch dynamisch zu erstellen. Die Synchronized Multimedia Language soll eine vergleichbare Rolle für Multimediaplayer spielen, wie HTML für Webbrowser.

Der einfache Ansatz, einen Standard für Multimediadarstellungen zu schaffen, wurde im „Synchronized Multimedia Activity Statement[5] folgendermaßen formuliert:

Die Synchronized Multimedia Activity entwirft die Synchronized Multimedia Integration Language (SMIL, ausgesprochen engl. "smile"), für die Choreographie von Multimediapräsentationen, in denen Audio, Video, Text und Grafik in Echtzeit kombiniert werden.[5]

Die einfache Struktur, die Offenheit des Standards und die nahe Verwandtschaft zu HTML ermöglichen es jedem Webdesigner oder Interessierten, sich schnell in die Grundzüge von SMIL einzuarbeiten. Dabei hat SMIL nur beschreibenden Charakter. Die Interpretation der Beschreibungen obliegt der jeweiligen Software (User-Agent/Player). SMIL-Dokumente gewährleisten eine vollständige Trennung zwischen Multimediadateien und dem SMIL-Code.

Ebenfalls frei verfügbar sind umfangreiche Dokumentationen für die jeweilige Spezifikation [35]. Sie sind sowohl Online als auch Offline verfügbar. Allerdings stehen sie nur im HTML-Format zur Verfügung.

4.2. Entwicklungsgeschichte von SMIL

1998 wurde die Version 1.0 der Empfehlung der Spezifikation der Synchronized Multimedia Language veröffentlicht. Verantwortlich dafür war die Synchronized Multimedia Working Group (kurz: SYMM-WG) des W3C. Diese Arbeitsgruppe setzte sich aus Vertretern namhafter Unternehmen und Institutionen zusammen.

Dazu gehörten (u.a.):

  • CWI - Centrum voor Wiskunde en Informatica (Nationale Forschungsinstitut für Mathematik und Computerwissenschaften der Niederland)

  • INRIA - Institut National de Recherche en Informatique et en Automatique (Französisches Forschungsinstitut für Mathematik und Computerwissenschaften)

  • NIST - National Institute of Standards and Technologie (USA)

  • Apple

  • RealNetworks

  • Phillips

  • ...

Die Version 1.0 erlaubte eine Integration einer Menge von unabhängigen Multimediaobjekten in eine Präsentation. Damit standen einem Autor grundlegende Beschreibungsmöglichkeiten für sein Multimediadokument zur Verfügung.

Potenzial von SMIL 1.0

  • Beschreibung des zeitlichen Verhaltens,

  • Beschreibung des Layouts und

  • Verbinden von Hyperlinks mit Medienobjekten der Präsentation

Allerdings war die Spezifikation nur auf einfache Multimedia-Funktionen ausgelegt. Effekte oder komplexe zeitliche Synchronisation waren noch nicht vorgesehen. Die komplette Spezifikation ist auf den SMIL-Webseiten der W3C ([9]) zu finden.

Basierend auf dem Feedback zur Version 1, begann schon im März 1999 die zweite SYMM-WG ihre Arbeit. Schon im August des selben Jahres lag ein erster Arbeitsentwurf, unter der Bezeichnung SMIL Boston, vor. Im Juni 2001 wurde der Vorschlag einer Empfehlung an das W3C in die Diskussion gebracht. Im August 2001 wurde dann die offizielle Empfehlung (W3C Recommendation) für SMIL in der Version 2.0 veröffentlicht.

Neben den schon erwähnten Vertretern aus Industrie und Forschung, erweiterte sich der Kreis der Mitarbeiter der Arbeitsgruppe. Dazu gehörten nun auch:

  • Intel

  • Macromedia

  • IBM

  • Panasonic

  • Microsoft

  • ...

Die Unterschiede zur Version 1.0 waren umfangreich. Allein der Umfang der neuen Spezifikation macht das deutlich. Umfasste die Spezifikation der Version 1.0 noch ca. 29 Seiten, so benötigt sie für die Version 2.0 über 500 Seiten.

Zunächst wurde eine geringer Anteil der SMIL 1.0 Syntax als deprecated eingestuft, um eine DOM-freundlichere Syntax zu erreichen. In erster Linie bedeutete das den Wechsel von durch Bindestrich verknüpfter (bspw. clip-begin) Schreibweise zur Mischschreibweise (bspw. clipBegin). Weiterhin erlaubte die neue Version, logisch-zusammengehörige Funktionen in Module zusammenzufassen. Beispielsweise wurden die Beschreibungen mit zeitlichen Aspekten in einem Modul „The SMIL 2.0 Timing and Synchronization Module“ zusammengefasst. Aus diesen Modulen ließen sich nun anwendungsspezifische Profile erstellen. Dadurch wurde es dem Anwender möglich, sich aus dem umfangreichen Standard auf die für seine Zwecke notwendigen Module zu beschränken. Jedes Modul lässt sich in andere XML-Formate einbinden. Die Notwendigkeit der modularen Aufteilung, ergab sich allein schon aus der Tatsache der umfangreichen Funktionserweiterungen.

Zusammenfassend lassen sich die Ziele der Entwicklung von der Version 1.0 zur Version 2.0 in drei Kategorien einteilen:

  1. Erweiterung der Funktionalitäten von SMIL 1.0

    • Medienübergangseffekte (Transition Effects),

    • Animationen,

    • ereignis-basierende Aktionen (event-based activations),

    • erweiterte Layoutfunktionalitäten,

    • Personalisierbarkeit (Content Control),

    • verbesserte Ablaufspezifikation -und Kontrollmöglichkeiten,

    • ...

  2. Beibehaltung der XML-Kompatibilität

    Ein SMIL-Dokument ist ein beschreibendes und kein prozedurales Dokument. Es beschreibt die Präsentation, überlässt die Interpretation aber dem Player.

  3. Einführung einer modul-basierenden Struktur

    Logisch zusammenhängende Funktionalitäten werden in mehr als 50 Module zusammengefasst. Diese wurden wiederum in zehn verschiedene (Haupt-) Funktionsgruppen eingeordnet.

Seit Anfang 2005 wird erneut an den Spezifikationen gearbeitet. Aktuell (August 2005) wurde ein Kandidat für eine Empfehlung in der Version 2.1 CR (W3C Candidate Recommendation 13 May 2005) vorgelegt, dessen Diskussion im Juni 2005 abgeschlossen sein sollte. Der Wechsel der Versionsnummer von 2.0 auf 2.1 CR deutet darauf hin, dass es nur Detailänderungen geben wird. Eine große Anzahl an Modulen bleibt unverändert. Einige wurden überarbeitet. Es werden 2 neue Profile („Mobile Profile“ und „Extended Mobile Profile“) hinzukommen, die speziell für die Mobilfunkindustrie von Interesse sind [11].

4.3. Modularisierung von SMIL

SMIL ab der Version 2.0 ist nicht als einzelnes Format sondern als Modulmenge definiert. Wie schon erwähnt, fassen diese Module logisch zusammenhängende Funktionen zusammen und können wiederum in Funktionsgruppen eingeordnet werden. Funktionsgruppen werden in DTDs definiert.

SMIL-Modularisierung

Abbildung 2. SMIL-Modularisierung

Einige Module enthalten keine eigenen Elemente, sondern nur Attribute oder definieren nur Mechanismen, die die Funktionalität anderer Module (und deren Elemente und Attribute) erweitern. Je mehr Module in einer Funktionsgruppe enthalten sind, um so granularer sind die Steuerungsmöglichkeiten dieser Gruppe.

Diese Hauptfunktionsgruppen können, eine Hierarchieebene höher, zu Profilen zusammengefasst werden. Jedes Profil setzt sich aus einer festgelegten Menge von Elementen und Attributen, verschiedenster Funktionsgruppen, zusammen. Dieses Profiling stellt anderen XML-basierenden Sprachen, durch Kombination verschiedener Module, Funktionalitäten zur Verfügung, die sie für eine Applikation benötigen. Die Definition eines Profiles erfolgt in speziellen DTDs.

Grundprofile derSMIL-2.1 CR Spezifikation

  • SMIL 2.1 Language Profile [12]

    Hauptsprachelemente von SMIL 2.1 CR (insbesondere zeitliche Funktionalitäten)

  • SMIL 2.1 Mobile Profile [13]

    Funktionalitäten für Mobilfunkkommunikation (besonders Animation und Interaktivität)

  • SMIL 2.1 Extended Mobile Profile [14]

    Erweiterte Funktionalitäten für Mobilfunkgeräte neuester Generationen

  • SMIL 2.1 Basic Profile [15]

    Basisfunktionsmenge für Geräte mit schmalen Ressourcen bzw. geringer Performance (entspricht in etwa SMIL 1.0)

zusätzlich konfigurierte Profile

XML-basierende Sprachen in denen SMIL-Funktionalitäten integriert wurden

[Anmerkung] Anmerkung

Hier wurden keine expliziten Profile definiert

  • SVG - Grafikanimation mit SMIL-Zeitsteuerung

  • XMT - SMIL-Funktionalitäten für MPEG-4 Multimedia

Im Folgenden sollen diese Funktionsgruppen kurz beschrieben werden. Dazu wird nur auf die wesentlichen Eigenschaften einer Funktionsgruppe eingegangen. Gegebenenfalls werden einzelne wichtige Funktionalitäten etwas detaillierter dargestellt. An dieser Stelle soll noch einmal darauf hingewiesen, dass SMIL, als XML-basierende Sprache, nur beschreibende Eigenschaften besitzt. Die Umsetzungen von Funktionalitäten bleiben den ausführenden System überlassen. Das betrifft insbesondere den benutzten Player, aber auch Systemumgebungseigenschaften, wie Systemressourcen oder auch installierte Codecs.

Weiterführende Informationen zu den jeweiligen Funktionsgruppen bzw. Modulen, finden sich in der Spezifikation [11]. Es wird angenommen, dass es in dieser Version keine grundlegenden Änderungen mehr geben wird (zum Zeitpunkt dieser Ausarbeitung handelte es sich noch um einen Kandidaten für eine Empfehlung -Stand 13.05.2005).

4.3.1. Animation

Module

  • BasicAnimation

  • SplineAnimation

Animation bedeutet hier, dass ein Zielelement (genauer: ein Attribut eines Zielelements) zeitabhängig beeinflusst wird. Es sollte nicht mit Animation im Kontext von (bspw.) Flash-Animation oder Trickfilm, verwechselt werden.

Jede Animation definiert eine einfache Animationsfunktion f(t), welche einen Wert für ein Attribut eines Zielelements, in Abhängigkeit von der Zeit, produziert. Es ist möglich jeweils einen Start- und einen Endwert eines Attributs und die gewünschte Schrittweite vom Start- zum Endwert zu definieren. Der Übergang vom Start- zum Endwert kann linear oder diskret erfolgen.

Dazu existieren in diesem Gruppe vier Elemente (Modul BasicAnimation):

  • <animate> ändert einen Attributwert über die Zeit,

  • <animateMotion> bewegt ein Objekt über die Präsentationsfläche

  • <animateColor> ändert die Farbe eines Objekts und

  • <set> weist einem Attribut einen Wert für eine bestimmte Zeit zu

Das Modul SplineAnimation bringt zusätzliche Animationsfunktionalitäten mit sich. Es erweitert das Modul BasicAnimation um folgende Elemente:

  • <keyTimes> erlaubt das zeitabhängige Steuern der Änderung

  • <keySplines> ermöglicht nichtlineare Übergänge von einem Start- zu einem Endwert

Hiermit wird es bspw. möglich, ein Objekt auf einem bogenförmigen Weg über die Darstellungsebene zu bewegen.

4.3.2. Content Control

Module

  • BasicContentControl

  • CustomTestAttributes

  • PrefetchControl

  • SkipContentControl

Dieser Bereich dient der Anpassung an den Nutzer und an die jeweilige Umgebung. So können Inhalte entsprechend Aufgearbeitet wiedergegeben werden. Einerseits können Anpassungen entsprechend dem Nutzerprofil (Sprache, Vorkenntnisse, Behinderungen, usw.) vorgenommen werden, andererseits sind Anpassungen an das System des Nutzers (Bandbreiten, Prozessorleistung, Displayeigenschaften, usw.) möglich.

Dazu werden vordefinierte Systemtestattribute benutzt. Beispiele hierfür sind:

  • systemBitrate,

  • systemLanguage,

  • systemScreenSize,

  • systemCPU,

  • systemOverdubOrSubtitle,

  • ...

Der Autor kann nun eine Menge von alternativen Elemente definieren. Das erste Element, das den Anforderungen entspricht, wird zur Ausführung gebracht. Dies geschieht mit Hilfe des <switch>-Elements, dass die Elementalternativen umgibt. Allerdings wirken sich umfangreiche Alternativkonstrukte negativ auf die Lesbarkeit des SMIL-Dokuments aus.

Des weiteren beinhaltet diese Funktionsgruppe Optimierungsmöglichkeiten der Darstellungen. So dienen die Elemente des Moduls PrefetchControl der Steuerung von Vorablesezugriffen auf Daten eines Servers, um die Präsentationsqualität von Latenzzeiten des Netzwerks unabhängig zu machen.

4.3.3. Layout Modules

Module

  • BasicLayout

  • AudioLayout

  • MultiWindowLayout

  • SubRegionLayout (seit Version 2.1 CR)

  • AlignmentLayout (seit Version 2.1 CR)

  • BackgroundTilingLayout (seit Version 2.1 CR)

  • OverrideLayout (seit Version 2.1 CR)

  • HierarchicalLayout (deprecated seit Version 2.1 CR)

Diese Funktionsgruppe fasst die Elemente zusammen, die es ermöglichen, Medienobjekten auf der Wiedergabeoberfläche zu positionieren und die Lautstärke von Audioobjekten zu beeinflussen.

Zum Positionieren von Objekten werden mittels des <region> Elements, Bereiche innerhalb der Präsentationsoberfläche vordefiniert.

Positioniert wird mittels folgender Attribute:

  • top,

  • left,

  • bottom,

  • right

Die jeweilige Größe der Regionen wird mit folgenden Attributen definiert:

  • length

  • width

Es ist möglich, dass sich Regionen überlappen oder auch vollständig überdecken. Mit dem Attribut z-index kann die Reihenfolge der entstehenden Ebenen (Layer) beeinflusst werden. Abbildung 3, „Layoutmodel“ zeigt die Zuordnung der genannten Attribute.

Layoutmodel

Abbildung 3. Layoutmodel

Alternativ ist mittels des Elements <regPoint> möglich, Punkte innerhalb der Präsentation zu definieren, an denen sich Medienobjekte ausrichten. Dabei kann sich das Medienobjekt über mehrere Regionen erstrecken.

Das Attribut backgroundColor definiert die Hintergrundfarbe des Bereiches. Bei diesem und den o.g. Positionierungselementen besteht eine Kompatibilität zu CSS2. Attributwerte können in der CSS2-Syntax angegeben werden (bspw. backgroundColor="green"). Es ist auch möglich die Farbe des Elternbereichs zu übernehmen oder den Bereich transparent zu gestalten. Alternativ sind natürlich auch die Darstellung von Hintergrundgrafiken definierbar. CSS wird im Moment aber von keiner SMIL-Software unterstützt.

Eine weitere wichtige Möglichkeit der Funktionsgruppe LayoutModules ist das Skalieren von (skalierbaren) Medienobjekten. Mittels des Attributs fit können verschieden Formen der Skalierung von Objekten innerhalb der spezifischen Region vordefiniert werden. Mögliche Skalierungsvarianten (definiert durch ihren Attributwert) sind:

  • hidden - zu große Medien werden abgeschnitten; bei zu kleinen Medien werden freie Bereiche der Region mit der definierten Hintergrundfarbe aufgefüllt

  • meet - Medium behält sein Seitenverhältnis und wird solange skaliert, bis es in die Region passt; evtl. frei bleibende Bereiche der Region werden mit der definierten Hintergrundfarbe aufgefüllt

  • meetBest - (seit Version 2.1 CR) hat die selbe Semantik wie meet, nur das ein Medium nicht über 100% skaliert wird

  • scroll - keine Skalierung, falls nötig werden Scrollbalken angeboten

  • slice - Medium behält sein Seitenverhältnis bei und wird solange skaliert, bis es die Region komplett ausfüllt; evtl. überstehende Teile des Mediums werden abgeschnitten

  • fill - wie slice, aber das Seitenverhältnis des Mediums wird dem Seitenverhältnis der Region angepasst (Verzerrungen möglich)

Die so definierten Regionen werden über ihr id-Attribut eindeutig Identifizierbar gemacht. Somit ist es dann möglich, ein darzustellendes Medium mit einer bestimmten Region (und deren Eigenschaften) zu verknüpfen.

Innerhalb definierter Regionen können weitere (Sub-)Regionen festgelegt werden, so dass eine Baumstruktur aufgebaut werden kann. Kind-Regionen erben dann die Eigenschaften ihrer Eltern, können diese aber auch überschreiben

4.3.4. Linking Modules

Module

  • LinkingAttributes

  • BasicLinking

  • ObjectLinking

Die Möglichkeiten der Verknüpfung von Informationen ist eines der wichtigsten Errungenschaften moderner Computertechnologien. Diese Funktionalität wird mit den Linking Modules gewährleistet. Sie ermöglichen die Navigation innerhalb der Präsentation, zwischen Präsentationen oder zu anderen, auf Hyperlinktechnologiebasis erreichbaren, Informationen (bzw. Medienobjekten).

Die Navigation kann durch Benutzereingaben oder andere Ereignisse (bspw. zeitliche Ereignisse) ausgelöst werden.

Angelehnt an die HTML-Syntax werden folgende Elemente benutzt:

  • <a>,

  • <area>

Verschiedene Detaileinstellungen, wie z.B. das Pausieren oder das Weiterlaufen der aktuellen Präsentation, das Öffnen neuer Fenster oder das Definieren von Keyboardtasten zum Auslösen der Verknüpfung, sind möglich.

4.3.5. Media Object Modules

Module

  • BasicMedia Module

  • MediaParam Module

  • MediaClipping Module

  • MediaClipMarkers Module

  • BrushMedia Module

  • MediaAccessibility Module

  • MediaDescription Module

Diese Module erlauben SMIL die Beschreibung und somit die Nutzung von Medienobjekten. Folgende Elemente werden dazu angeboten:

  • <ref> - allgemeine Referenz auf ein Medienobjekt,

  • <animation> - eine animierte Vektorgrafik oder ein anderes animiertes Format,

  • <audio> - ein Audioclip,

  • <img> - ein Bild (wie z.B. PNG, JPEG),

  • <text> - eine Textreferenz,

  • <textstream> - ein Textstream (Textstrom über eine elektronische Verbindung),

  • <video> - ein Videoclip

Die einzelnen Elemente sind semantisch gleich. Das Abspielen eines Medienobjekts ist also nicht von seinem beschreibenden Element abhängig. Der Player greift hierzu, entweder auf das type-Attribute, die Informationen des Servers, auf dem die Quelldatei liegt, oder auf die Dateiendung der mit dem src-Attribut angegebenen Quelle zurück. Zur Darstellung spezifischer Medienformate muss der entsprechende Encoder auf dem System installiert sein.

Die SMIL-Spezifikation definiert zwei Medienformate:

  • Continuous Media

    Es handelt sich hierbei um Medientypen wie Audio oder Video, die eine messbare und deutlich erkennbare Dauer besitzen.

  • Discrete Media

    Dazu zählen Bilder oder Texte mit nicht messbarer bzw. erkennbarer (Eigen-)Dauer.

Ein spezielles Modul stellt das BrushMedia Modul dar. Sein Element <brush> dient der Einfärbung von Bereichen anstelle eines Medienobjekts. Es wird innerhalb der SMIL-Spezifikation als leichtgewichtiges (lightweight) Medienobjekt behandelt.

4.3.6. Metainformation Module

Module

  • Metainformation Module

In dieser Funktionsgruppe existiert nur ein Modul. Es beinhaltet den Umgang mit Metadaten, also mit Daten über Daten. Hier können Informationen über die Präsentation abgelegt werden. Beispiele für solche Informationen sind: Autor, Titel, Datum, Format, Rechte, usw. Der Umfang und der Inhalt der Metadatenmenge lässt sich (im Rahmen der XML-Spezifikation) beliebig erweitern.

Seit der Version 2.0 ist es möglich, eigene Metadatenschematas zu entwickeln. Hierbei kommt das Resource Description Framework (RDF) zum Einsatz. Somit wurde es möglich, auch vorgefertigte Schematas zu benutzen. Um die Interoperatibilität zu verbessern, wird der Einsatz solcher vorgefertigten Schematas empfohlen (bspw. das der Dublin Core Metadata Initiative; (Stand 12.08.05)).

4.3.7. Structure Module

Module

  • Structure Module

Auch in dieser Funktionsgruppe existiert nur ein Modul. Es enthält die Basiselemente der Struktur eines SMIL-Dokuments, beschreibt also den grundsätzlichen Aufbau (Syntax und Semantik) eines solchen Dokuments.

Auch hier wird die starke Anlehnung von SMIL an HTML deutlich. Es existieren drei verschiedene Elemente:

  • <smil>,

  • <head> und

  • <body>

Die Wurzel eines SMIL-Dokuments stellt das <smil>-Element dar. Dieses Element kann das <head>- und das <body>-Element beinhalten.

Das <head>-Element nimmt Informationen auf, die nicht in Beziehung mit dem zeitlichen Verhalten der Präsentation stehen. Es lassen sich drei Typen von Informationen einfügen:

Innerhalb des <body>-Elements werden alle Informationen abgelegt, die das zeitliche Verhalten, die Verknüpfungen und natürlich den Inhalt der Präsentation beschreiben.

4.3.8. Timing and Synchronization Module

Module

  • AccessKeyTiming

  • BasicInlineTiming

  • BasicExclTimeContainers (seit Version 2.1 CR)

  • BasicPriorityClassContainers (seit Version 2.1 CR)

  • BasicTimeContainers

  • EventTiming

  • ExclTimeContainers (nicht mehr in Version 2.1 CR)

  • FillDefault

  • MediaMarkerTiming

  • MinMaxTiming

  • MultiArcTiming

  • RepeatTiming

  • RepeatValueTiming

  • RestartDefault

  • RestartTiming

  • SyncbaseTiming

  • SyncBehavior

  • SyncBehaviorDefault

  • SyncMaster

  • TimeContainerAttributes

  • WallclockTiming

Diese, umfangreichste Funktionsgruppe, dient der zeitlichen Koordination und Synchronisation einer SMIL-Präsentation und bildet den Kern der SMIL 2.0-Funktionalität.

Alle möglichen Medienobjekte eines SMIL-Dokuments (siehe Abschnitt 4.3.5, „Media Object Modules“) folgen einem zeitlichen Schema. Die Objekte werden, mit Hilfe der Timing and Synchronization Module auf einem Zeitstrahl (engl.: Timelines) angeordnet. Der zeitliche Verlauf einer Präsentation ist somit exakt zu bestimmen. Zur Realisierung werden die Objekte definierbaren so genannten Time Containern zugeordnet. Dabei werden alle Anwendungsfälle von Time Container mit drei Synchronisationselementen abgedeckt:

  • <seq> - spielt seine Kindelement hintereinander ab

  • <par> - spielt seine Kindelemente gleichzeitig ab

  • <excl> - wie <par>, aber es kann immer nur ein Kindelement aktiv sein

Das <seq>-Element repräsentiert die Standardvariante. Die Element, die innerhalb dieses Containerelements gruppiert sind, werden sequentiell, entlang des Zeitstrahls, abgespielt. Die Variante <par> ermöglicht dagegen das parallele Abspielen von Medienobjekten. Mit der Mischform <excl> lassen sich Szenarien wie z.B. das Umschalten zwischen verschiedenen Untertitel-Versionen realisieren. Der Einsatz bei Nutzern mit Sehbehinderungen ist ebenfalls denkbar. Es könnte eine abzuspielendes Video pausieren, während eine Audiodatei den Videoinhalt beschreibt.

Die Synchronisationselemente sowie ihre Kindelemente können mit Attributen zeitlich exakt definiert werden. Sie können zu einer bestimmbaren Zeit beginnen und/oder enden. Diese Zeitpunkte können fest definiert werden oder abhängig von anderen Elementen oder Ereignissen sein. Weiterhin kann die Gesamtlänge des jeweiligen Elements festgelegt werden. Elemente können einfach, mehrfach oder für einen bestimmbaren Zeitraum wiederholt werden. Dazu können folgende Attribute benutzt werden:

  • Zeitkontrolle

    • begin - Startpunkt des Objekts

    • end - Endpunkt des Objekts

    • dur - Durchlaufzeit eines Objekts

  • Wiederholungskontrolle

    • repeatCount - Anzahl der Wiederholungen

    • repeatDur - Zeitrahmen für Wiederholungen

  • erweitete Aktivierungen

    • min und max - beschränken die Grenzen der Durchlaufzeit eines Objekts

    • endsync - synchronisiert das Ende von Objekten innerhalb von <par>- oder <excl>-Containern

  • Objektfortsetzung

    • fill - definiert den Endzustand eines Medienobjekts (freeze oder remove)

  • vorhersagbare Ereignisse

    • beginClip - (Video und Audio) Beginn innerhalb des Objekts

    • endClip - (Video und Audio) Ende innerhalb des Objekts

  • Synchronisation

    • syncBehavior - ermöglicht oder verbietet Abweichungen von der vorgegebenen Zeit

    • syncTolerance - gibt an wieviel Abweichung erlaubt ist

    • syncMaster - definiert ein Masterelement dessen Zeitablauf maßgebend für alle anderen Zeitabläufe ist

Attribute können nicht nur mit Zeitangaben belegt werden, sondern auch Abhängigkeiten von Ereignissen darstellen. Diese objektabhängige Synchronisation ermöglicht es, bspw. einen Videoclip exakt mit dem Eintreten eines Ereignisses zu beginnen. Gemeinsam mit den Synchronisationsattributen, lassen sich somit SMIL-Präsentationen erstellen, die unempfindlicher auf äußere Einflüsse reagieren. Die Notwendigkeit eines solchen Vorgehens ergibt sich aus der Tatsache, dass die Abspielumgebungen (bzw. deren Eigenschaften) einer SMIL-Präsentation oft nicht vorhersagbar sind.

Kindelemente von Synchronisationselementen können wieder Synchronisationselemente oder Medienelemente (siehe Abschnitt 4.3.5, „Media Object Modules“) sein. Mit Hilfe der Verschachtelung von Synchronisationselementen, den Attributen der Synchronisationselemente und der Medienelemente und einer umfassenden Ereignissteuerung, kann eine SMIL-Präsentation bis ins kleinste Detail zeitlich vorbereitet bzw. gestaltet werden.

Im Zusammenhang mit dem Timing von SMIL-Präsentationen wird der Begriff „aktive Zeit“ immer wieder auftauchen. Er bedeutet den Zeitbereich eines Teilobjektes einer SMIL-Präsentation, in dem dieses Teilobjekt aktiv dargestellt wird. Bspw. ist die aktive Zeit eines Videos die Zeit, in der der anzuzeigende Teil des Videos abläuft. Auch wenn das Video nicht sichtbar ist, weil es möglicherweise durch ein anderes Objekt verdeckt wird.

Alternativ wird aktiv in SMIL-Terminologie auch für Regionen benutzt. Das sind Bereiche die zum aktuellen Zeitpunkt "arbeiten", etwas Präsentieren. Im Zusammenhang mit der oberen Beschreibung, befindet sich ein aktiver Bereich in seiner aktiven Zeit.

4.3.9. Time Manipulation

Module

  • TimeManipulations

Diese Funktionsgruppe umfasst nur ein Modul. Es befasst sich mit zeitlichen Manipulationsmöglichkeiten einzelner Medienobjekte. So werden Attribute zur Steuerung der Geschwindigkeit und der (zeitlichen) Richtung von Medienelementen angeboten.

Die Steuerungsmöglichkeiten dienen überwiegend der Manipulation von Animationen, nicht-linearen oder diskreten Medien. Andauernde Formate (Continuous Media) können nicht komplett unterstützt werden (Abschnitt 4.3.5, „Media Object Modules“). So kann ein MPEG-Stream offensichtlich nicht rückwärts abgespielt werden.

Die Zeitmanipulation kann in drei Anwendungsfälle unterschieden werden. Diese werden durch folgende Attribute repräsentiert:

  • accelerate, decelerate - ermöglicht realistischere Animationen, da Bewegungen beschleunigt gestartet bzw. gebremst beendet werden können

  • autoReverse - Animationen werden alternierend Vorwärts und Rückwärts abgespielt

  • speed - steuert die Geschwindigkeit

4.3.10. Transition

Module

  • BasicTransitions

  • FullScreenTransitionEffects (seit Version 2.1 CR)

  • InlineTransitions

  • TransitionModifiers

Mit Elementen dieser Funktionsgruppe wird es möglich, Übergänge zwischen Medienelementen zu definieren. Somit wird der Autor in die Lage versetzt, Inhalte in einer Form zu Präsentieren, wie sie aus TV, Kino oder ähnlichen Präsentationsmethoden bekannt sind. SMIL ist in der Lage Medienübergänge zu Beginn und/oder am Ende von Medienobjekten (bezogen auf die aktive Zeit eines Medienobjekts) zu bestimmen. Anwendung findet diese Funktionalität bei visuellen (Text, Bild, Video) als auch bei Audioobjekten.

Es sind so genannte cross-fade-Übergänge möglich, in denen sich zeitlich überlappende Medienobjekte mittels Deckkraftänderungen (Opazität) ineinander übergehen. Das gleiche Prinzip kommt zum Einsatz, um Medienobjekte aus einem Hintergrund heraus einzublenden bzw. in den Hintergrund hinein auszublenden.

Des weiteren besteht die Möglichkeit animierte Übergänge, so genannte wipes, zu definieren. Dabei handelt es sich um (mehr oder weniger sinnvolle) Effekte, wie man sie aus gängigen Videoschnittprogrammen kennt (bspw. ein Bild fährt über das andere oder wächst aus einem Bild "heraus" usw.).

Selbstverständlich sind Transitionen zeitlich steuerbar.

Das <transition>-Element besitzt eine Reihe von parametrisierten Eigenschaften, die über seine Attribute gesteuert werden können:

  • type - stellt den Grundtyp der Transition dar

  • subtype - ein Subtyp des Grundtyps stellt erweiterte Funktionalitäten zur Verfügung, fast alle Grundtypen können unterteilt werden

  • dur - die Dauer der Transition

  • startProgress, endProgress - gibt den sichtbaren Bereich eines Transitionsprozesses an (ein Transitionsprozess kann somit von 0-100% komplett ablaufen oder nur in Teilen bspw. 25%-75% gezeigt werden)

  • direction - gibt die Richtung einer Transition (forward/reverse) an

  • fadeColor - ist abhängig von anderen Attributen und spezifiziert die Start- oder Endfarbe einer Transition

Die SMIL-Spezifikation unterscheidet zwei Arten von Transitionselementen. Die Basic Transition bietet die Möglichkeit Transitionsklassen zu definieren, auf die dann aus dem Medienobjekt heraus referenziert werden kann. Transitionsklassen sind mit dem Pattern-Konzept vergleichbar. Sie nutzen das oben erwähnte <transition>-Element.

Erweiterte Möglichkeiten der Steuerung von zeitlichen und Prozessabläufen von Transitionen bieten Inline Transitions. Es wird dabei das <transitionFilter>-Element zum Einsatz gebracht. Es erweitert die Attributmenge des <transition>-Elements um Attribute, die dem BasicInlineTiming Module und dem BasicAnimation Module zugeordnet werden können.

Da die Umsetzung von Transitionen von den Implementierungen des jeweiligen Players abhängig sind, ist es ratsam (und möglich) eine einfache fall-back-transition zu definieren.

4.4. Aufbau eines SMIL-Dokuments

An Hand eines einfachen Beispiels soll hier der Aufbau eines SMIL-Dokuments beschrieben werden. Grundsätzlich sind dazu keine Vorkenntnisse notwendig. Allerdings sind Erfahrungen mit HTML oder besser XML hilfreich.

4.4.1. Konzepte und Syntaxregeln

Da es sich bei SMIL um eine XML-basierende Sprache handelt, sind die grundsätzliche Syntaxregeln sehr einfach. Sie haben mit HTML viele Gemeinsamkeiten, aber auch einige Unterschiede.

Es sind, basierend auf XML-Regeln drei Grundkonzepte zu unterscheiden:

  1. Elemente

    Die Basis von XML bilden Elemente. XML-Dokumente setzen sich aus einer Menge verschachtelter Elementdefinitionen zusammen. Das root-Element ist das äußerste Element eines XML-Dokuments. Es stellt die Wurzel des XML-Baums dar.

    Elementenamen sind case-sensitive und dürfen keine Leerzeichen enthalten. Sie sind umgeben von so genannten „angle brackets“, den Zeichen '<' und '>'. Im Gegensatz zur herkömmlichen HTML müssen Elementenamen in der SMIL kleingeschrieben werden.

    Beispiel 1. Ein SMIL-Element

    <img ...>
    

    img ist der Name des Elements. Elementenamen dürfen (innerhalb eines Namensraumes) nur einmal vergeben werden und sind somit identifizierend.

    Einen weiteren Unterschied zur HTML bildet die Tatsache, dass alle XML-Elemente (und somit auch SMIL-Elemente) geschlossen werden müssen. Beispiel 1, „Ein SMIL-Element“ zeigt nur einen so genannten start-tag. Zu jedem start-tag existiert ein schließender end-tag. Es existieren zwei Typen von end-tags. Diese ergeben sich aus dem Elementtyp.

    Ein leeres Element umschließt keine Informationen. Alle Informationen ergeben sich aus dem Elementenamen und den Attributen des Elements. Der end-tag eines leeres Element wir mit dem Zeichen '/', vor dem schließenden '>', dargestellt.

    Beispiel 2. Ein leeres SMIL-Element

    <img attributes ... />
    

    Einen zweiten Elementtyp bilden Elemente mit Inhalt. Dieser kann auch aus anderen Elementen bestehen. Diese Elemente sind dann die Kind-Elemente des übergeordneten Elements. Das schließen eines solchen Elements erfolgt mittels der bekannten „angle brackets“, die das abschließende Zeichen '/' und den Namen des Elements umgeben.

    Beispiel 3. Ein SMIL-Element mit Kind-Elementen

    <seq>
     <img attributes ... />
     <img attributes ... />
    </seq>
    

    Die <img>-Elemente sind Kind-Elemente des <seq>-Elements.

  2. Attribute

    Jedes Element kann Attribute besitzen. Attribute nehmen Werte für Parameter eines Elements auf. Attributwerte müssen innerhalb von Anführungszeichen stehen.

    Im folgenden Beispiel wird mittels dem Attribut dur dem Element namens img der Parameter "3s" zugewiesen.

    Beispiel 4. Ein SMIL-Element mit einem Attribut und einem Attributwert

    <img dur="3s" ... />
    
    

    Attributnamen sind ebenfalls case-sensitive und dürfen keine Leerzeichen enthalten. Die jeweilige Document Type Definition (DTD) gibt an, welche Attribute für welche Elemente vorgesehen sind. Die Reihenfolge der Attribute innerhalb eines Elements spielt keine Rolle. Die Trennung mehrere Attribute erfolgt über mindestens ein Leerzeichen.

    Lange Attributnamen bzw. Namen die sich aus mehr als einem Wort zusammensetzen, wurden in der SMIL-Version 1.0 durch Bindestriche getrennt (Bsp.: clip-begin). Seit der Version 2.0 wurde auf das so genannte „camel casing“ umgestellt (Bsp.: clipBegin).

  3. Referenzen

    XML-Dokumente bieten die Möglichkeit, dass ihre Elemente auf andere Elemente referenzieren. Mittels des Attributs id kann einem Element ein eindeutig identifizierender (unique) Bezeichner zugewiesen werden.

    Im folgenden Beispiel wird das Element <region> durch die Zuweisung des Wertes "bild1" an das Attribut id, eindeutig identifizierbar. In einem anderen Bereich des Dokumentes bezieht sich dann das schon in Beispiel 4, „Ein SMIL-Element mit einem Attribut und einem Attributwert“ verwendete Element <img> auf das spezielle <region>-Element, indem das Attribut region den Wert der id des <region>-Elements zugewiesen bekommt.

    Beispiel 5. Referenzierende SMIL-Elemente

    <region id="bild1" ... />
    
    ...
    <seq>
     <img dur="3s" region="bild1" ... />
    </seq>
    

    Weiterhin ist das Referenzieren externer Dateien möglich. Pfadangaben können dabei relativ oder absolut erfolgen. Im folgenden wird Beispiel 5, „Referenzierende SMIL-Elemente“ um die Angabe einer externen Datei im Attribut src des Elements <img> erweitert.

    Beispiel 6. Referenzierung einer Datei

    <region id="bild1" ... />
    ...
    <seq>
    
     <img dur="3s" src="bild.jpg" region="bild1" ... />
    </seq>
    

    Die Datei "bild.jpg" wird im selben Verzeichnis wie das SMIL-Dokument erwartet.

Weiterführende Informationen zu XML-Syntax und XML-Konzepten findet man unter [16].

4.4.2. Grundstruktur

Die Grundstruktur eines SMIL-Dokuments wird, innerhalb der Spezifikation, mit dem Structure Module (siehe Abschnitt 4.3.7, „Structure Module“) beschrieben.

Die Verwandtschaft von SMIL und HTML spiegelt sich auch in ihren Grundstrukturen wieder. Jedes SMIL-Dokument gliedert sich in einen Header- (<head>) und einen Bodyteil (<body>). Umschlossen wird das Dokument durch das root-Element <smil>. Als eine Art SMIL-Template kann folgendes Dokument betrachtet werden:

Beispiel 7. Grundstruktur

  1 <!DOCTYPE smil PUBLIC "-//W3C//DTD SMIL 2.1//EN"
  2                       "http://www.w3.org/2005/SMIL21/PR/SMIL21.dtd">

  3 <smil xmlns="http://www.w3.org/2005/SMIL21/PR/Language">
  4  <head>
  5    ...
  6  </head>
  7  <body>
  8    ...
  9  </body>

 10 </smil>

Die erste Zeile (incl. der Zweiten, da der Übersichtlichkeit halber umgebrochen wurde) definiert den Dokumententyp und wird vom jeweiligen XML-Parser ausgewertet. Die dritte Zeile enthält das root-Element <smil>. Das Attribut xmlns dient der Bestimmung des Namensraumes (xmlns - xml name space) des Dokuments. Der spezielle Fall in Beispiel 7, „Grundstruktur“ weist auf die Spezifikationen von SMIL 2.1 CR hin.

Das <head>-Element beinhaltet ausschließlich Informationen, die keinen Einfluss auf das zeitliche Verhalten der Präsentation haben. Es kann Angaben zu Metainformationen (<meta> Abschnitt 4.3.6, „Metainformation Module“), Layoutinformationen (<layout> Abschnitt 4.3.3, „Layout Modules“), Informationen über autorendefinierte Inhaltskontrolle (Abschnitt 4.3.2, „Content Control“) und zu Transitionsverhalten (<transition> Abschnitt 4.3.10, „Transition“) enthalten. Das <head>-Element ist optional.

Der zweite Teil eines SMIL-Dokuments stellt das <body>-Element dar. Dieses Element und seine Kindelemente definieren die Struktur und die Semantik. Es werden die Medienobjekte, das zeitliche Verhalten, das statusabhängige Verhalten und die Interaktionen festgelegt.

Das <body>-Element dient als Wurzelelement für das zeitliche Verhalten einer Präsentation. Im zeitlichen Kontext ist es vergleichbar mit dem <seq>-Element. Weiterhin werden innerhalb des <body>-Elements alle Verlinkungen bzw. Referenzierungen vorgenommen.

4.4.3. Beispiel

Das Beispiel 8, „Demo - Metainformationen“ zeigt ein SMIL-Dokument in seiner bekannten Grundstruktur. Einzige Änderung zu Beispiel 7, „Grundstruktur“ ist hier, die Hinweise auf die Spezifikation SMIL Version 2.0 in den Zeilen 2, 3 und 4.

Das <head>-Element wurde um einige Metainformationen erweitert (Zeilen 6,7 und 8). Diese sind optional und können frei definiert werden. Allerdings ist es sinnvoll sich dabei an Standards zu halten (siehe Abschnitt 4.3.6, „Metainformation Module“). Der Inhalt der Metainformationen ist selbsterklärend.

Beispiel 8. Demo - Metainformationen

  1 <?xml version="1.0"?>
  2 <!DOCTYPE smil PUBLIC "-//W3C//DTD SMIL 2.0//EN"
  3                       "http://www.w3.org/2001/SMIL20/SMIL20.dtd">
  4 <smil xmlns="http://www.w3.org/2001/SMIL20/Language">
  5  <head>

  6   <meta name="title" content="SMIL Demo" />
  7   <meta name="Publisher" content="Jens Werner" />
  8   <meta name="Date" content="25/08/2005" />
  9  </head>
 10  <body>

 11   ... 
 12  </body>
 13 </smil>
 14 

In einem nächsten Schritt soll nun das Layout für die Präsentation bestimmt werden. Dazu wird innerhalb des <head>-Elements ein <layout>-Element eingefügt, dessen Kinder die Eigenschaften der benötigten Regionen definieren. Die Abbildung 4, „Demo - Layout“ zeigt des Modell der geplanten Oberfläche mit den einzelnen Abmessungen.

Demo - Layout

Abbildung 4. Demo - Layout

Die in Abbildung 4, „Demo - Layout“ dargestellten Layouteigenschaften werden im SMIL-Dokument wie folgt beschrieben.

Beispiel 9. Demo - Layoutinformationen

  1 head>
  2  ...
  3  <layout>
  4   <root-layout id="demo" width="600" height="400" />

  5   <region id="pic" backgroundColor="#ffffcc" left="0" width="100%" bottom="20%"
  6     fit="fill" z-index="1" />
  7   <region id="welcome" top="0" left="150" height="200" right="150" fit="slice"
  8     z-index="3" />
  9   <region id="buttons" backgroundColor="#eeffbb" left="0" width="100%" top="80%"
 10     z-index="1" >
 11    <region id="regButton0" height="60" width="80" top="10" left="80" fit="slice"
 12      z-index="2" />
 13    <region id="regButton1" height="60" width="80" top="10" left="200" fit="slice"
 14      z-index="2" />

 15    <region id="regButton2" height="60" width="80" top="10" left="320" fit="slice"
 16      z-index="2" />
 17   </region>
 18  </layout>
 19  ...
 20 </head>

Mit Hilfe des Elements <root-layout> (Zeile 4) wird die Gesamtfläche der Präsentation beschrieben. Innerhalb dieses Bereichs findet später die Darstellung der sichtbaren Element statt. Das Element dient auch als Elternelement für die Koordinaten der Elemente der nächsten Ebene. Die Bereiche der nächsten Ebene werden als Regionen bezeichnet. Das Attribut id benötigt einen eindeutigen (identifizierenden) Wert, auf den später referenziert werden kann.

Die räumliche Anordnung der Elemente wird durch Koordinaten innerhalb eines 3-dimensionalen Koordinatensystems bestimmt. Die x- und die y-Koordinate bestimmen die Position im zweidimensionalen Bereich der Präsentationsoberfläche. Die z-Koordinate wird explizit im Attribut z-index gespeichert. Sie definiert die Ebene innerhalb derer der jeweilige Bereich dargestellt wird. Es kommt ein Schichtensystem zum Einsatz, das Überlappungen und Überlagerungen ermöglicht. Ein sichtbarer Bildpunkt innerhalb einer Präsentation wird immer durch sein Äquivalent der (zur selben Zeit aktiven) Ebene mit dem jeweils größten z-index dargestellt. Für das Beispiel 9, „Demo - Layoutinformationen“ bedeutet das, dass der Bereich <region id="welcome" ... /> (zu seiner aktiven Zeit) alle anderen Bereiche überdeckt, da er den höchsten z-index (z-index="3", Zeilen 7 und 8) besitzt.

Die linke obere Ecke des <root-layot> definiert die Koordinaten x=0 und y=0, also den Koordinatenursprung. Die Positionierung erfolgt immer absolut, bezugnehmend zum Koordinatenursprung des jeweiligen Elternbereichs. Die ersten beiden Bereiche "welcome" und "buttons" (Zeilen 7, 8, 9 und 10) beziehen sich auf das <root-layout>-Element. Die Bereiche "regButton0" bis "regButton1" dagegen beziehen sich auf den Bereich "buttons" (Zeilen 9 bis 17).

Die Bereichelemente innerhalb des <layout>-Elements definieren auch die Farbe des jeweiligen Bereichs. Das Attribut backgroundColor nimmt Werte im RGB-Format (Hexadezimal), vordefinierte Farbwerte oder den Wert transparent auf. Weiterhin ist der Wert inherit möglich. Hierbei erbt die Region ihre Hintergrundfarbe von ihrem Elternelement.

Die Skalierung der sichtbaren Medienelemente, die später den Regionen zugeordnet werden, wird mittels des Attributes fit vordefiniert (siehe Abschnitt 4.3.3, „Layout Modules“).

Innerhalb des <head>-Elements können auch Transitionen vordefiniert werden. Zeile 3 in Beispiel 10, „Demo - Transition“ zeigt ein Beispiel für eine einfache Transition. Das Element erhält ebenfalls ein Attributwert für das Attribut id. Es dient seiner eindeutigen Identifizierung und ermöglicht somit später eine Referenzierung.

Beispiel 10. Demo - Transition

<head>
 ...
 <transition id="fade" type="fade" subtype="crossfade" />

 ...
</head>

Innerhalb des <body>-Elements werden die Informationen über den zeitlichen Ablauf, Verweise und natürlich die audiovisuellen Präsentationsinhalte in Form von Medienobjektreferenzierungen abgelegt.

Wie schon in Abschnitt 4.3.8, „Timing and Synchronization Module“ beschrieben spielen die Synchronisationselemente <seq>, <par> und <excl> bei der zeitlichen Kontrolle eines SMIL-Dokuments eine wesentliche Rolle. Elemente werden innerhalb von Synchronisationselementen, auch Zeitcontainer genannt, zu einer Gruppe zusammengefasst, die dann den Regeln des jeweiligen Elternelements unterliegen. Beispiel 11, „Demo - Timing (a)“ zeigt eine einfache Ablaufsequenz, die alle möglichen Zeitcontainer beinhaltet.

Beispiel 11. Demo - Timing (a)

  1 <body>

  2  <seq>
  3   ...
  4   <par id="par01" begin="1s" dur="indefinite">
  5    ...
  6    <excl id="excl01" dur="indefinite">
  7     <par id="par02">
  8       ...
  9       <excl id="excl02" dur="indefinite">

 10         ...
 11       </excl>
 12     </par>
 13     <par id="par03">
 14      <excl id="excl03" dur="indefinite">
 15       ...
 16      </excl>

 17     </par>
 18    </excl>
 19   </par>
 20  </seq>
 21 </body>

Alle innerhalb des <seq>-Elements aufgeführten Zeitelemente werden nacheinander dargestellt. Das bedeutet hier, dass der Inhalt der Zeile 3 gefolgt vom Inhalt des <par>-Elements (Zeilen 4 bis 20) präsentiert wird.[6]Zeile 4 zeigt den öffnenden Tag eines <par>-Elements. Es werden weiterhin zwei Attribute mit Werten versehen. begin="1s" besagt, dass dieser Zeitcontainer 1 Sekunde nach Ende der aktiven Zeit seines Vorgängers (hier Zeile 3) begonnen wird. Die Wertezuweisung dur="indefinite" gibt an, dass die aktive Zeit dieses <par>-Elements nicht definiert ist. Dieser Zeitcontainer wird also, falls nicht explizit über eine Ereignissteuerung abge- oder unterbrochen, solange arbeiten, wie der ausführende Player aktiv ist.

Das <par>-Element der Zeilen 4 bis 20 beinhaltet, neben anderen Inhalten, einen weiteren Zeitcontainer (Zeile 6 bis 18). Dieses <excl>-Element stellt Kindelemente parallel dar. Allerdings wird nur jeweils ein Kindelement aktiv dargestellt. Innerhalb dieser Exclusivcontainer befinden sich weitere Elemente. Der Zeitablauf aus Beispiel 11, „Demo - Timing (a)“ wird in Abbildung 5, „Zeitablauf“ dargestellt.

Zeitablauf

Abbildung 5. Zeitablauf

Eine weitere Möglichkeit den Zeitablauf einer Präsentation zu beeinflussen zeigt Beispiel 12, „Demo - Timing (b)“. Hier kommt zusätzlich eine ereignisbasierende Zeitsteuerung zum Einsatz. In Zeile 4 erhält das Attribut begin eine Liste von Werten zugewiesen. Der Wert 0 veranlasst den Player den Inhalt des <par>-Elements (Zeilen 4 bis 7) sofort nach dem Ablauf der aktiven Zeit seines zeitlichen Vorgängers (hier Zeile 3) darzustellen. Der zweite Wert der Liste (button0.activateEvent) veranlasst den Player den Inhalt des <par>-Elements darzustellen, nachdem es ein Ereignis (event) innerhalb des button0 gab. Ein Mausklick auf button0 bringt also die JPEG-Datei pic0.jpg (Zeile 6) zur Anzeige.

Beispiel 12. Demo - Timing (b)

  1 <body>

  2  ...         
  3  <img id="button0" src="pic/button0.jpg" region="regButton0" dur="10s" /> 
  4  <par begin="0; button0.activateEvent" >
  5   ...
  6   <img src="pic/pic0.jpg" region="pic" dur="indefinite"/>
  7  </par>

  8  ...
  9 </body>

Um der Existenz der Zeitcontainer einen Sinn zu geben, werden sie mit multimedialen Inhalten gefüllt (siehe auch Abschnitt 4.3.5, „Media Object Modules“). Da es sich bei SMIL um eine beschreibende Sprache handelt, werden die binären Daten nicht direkt in das Dokument eingefügt. Statt dessen werden Referenzierungen auf externe Dateien genutzt. Dabei wird der Speicherort der Datei im Attribut src angegeben. Das Beispiel 13, „Demo - Medienobjekte (a)“ zeigt drei Medienelemente. Es handelt sich um <img>-Elemente. Neben der eindeutigen Identifizierung über ihr id-Attribut besitzen sie jeweils noch zwei weitere Attribute. Das src-Attribut enthält den Pfad zur jeweils referenzierten Datei (hier bezogen auf den Speicherort der Beispielpräsentation) und das region-Attribut verweist jeweils auf einen definierten Bereich der Präsentation (siehe Beispiel 9, „Demo - Layoutinformationen“).

Beispiel 13. Demo - Medienobjekte (a)

<body>
 ...
 <img id="button0" src="pic/button0.jpg" region="regButton0" /> 
 <img id="button1" src="pic/button1.jpg" region="regButton1" />

 <img id="button2" src="pic/button2.jpg" region="regButton2" />
 ...
</body>

Das Beispiel 13, „Demo - Medienobjekte (a)“ zeigt ein Medienelement mit erweiterten Eigenschaften. Neben schon genannten Attributen erscheint hier ein Attribut aus dem Transitionmodul (Abschnitt 4.3.10, „Transition“). Im Beispiel 10, „Demo - Transition“ wurde im <head>-Bereich des Dokuments eine Transition vordefiniert. Auf diese wird nun innerhalb des <img>-Elements verwiesen und ermöglicht hier ein weiches Einblenden des Bildes.[7]

Beispiel 14. Demo - Medienobjekte (b)

<body>

 ...
 <img src="pic/welcome.jpg" region="welcome" transIn="fade" />
 ...
</body>

Als nächstes soll das Beispiel einer einfachen Animation (siehe auch Abschnitt 4.3.1, „Animation“)gezeigt werden. Im Beispiel 15, „Demo - Animation“ wird auf eine jpeg-Datei verwiesen. Dieses <img>-Element beinhaltet nun ein <animate>-Element. Hier wird das Zielelement mittels dem Attribut targetElemet bestimmt. In diesem Fall handelt es sich um eine im Headbereich des Dokuments definierte Region. Das dort zu beeinflussende Attribut wird in attributeName festgelegt. Die beiden Attribute from und to bestimmen nun die Werteveränderung des Zielattributes im Zielelement. Im gezeigten Fall, wird die JPEG-Datei innerhalb der Region welcome angezeigt und mit der Region von der Position top="0" nach top="200" bewegt.[8]

Beispiel 15. Demo - Animation

<head>
 ...
 <region id="welcome" top="0" left="150" height="200" right="150" />

 ...
</head>
<body>
 ...
 <img src="pic/welcome.jpg" region="welcome" >
  <animate targetElement="welcome" attributeName="top" from="0" to="200" />
 </img>
 ...

</body>

SMIL bietet die Möglichkeit der Personalisierung von Präsentationen (siehe auch Abschnitt 4.3.2, „Content Control“). Ein Beispiel für die Anwendung dieser Funktionalität zeigt Beispiel 16, „Demo - Personalisierung“. Der ausführende SMIL-Player kann mit bestimmten Umgebungseigenschaften oder auch Nutzerwünschen versehen werden. Um die JPEG-Datei mit einer Audio-Datei zu unterlegen, muss der Nutzer den Wert systemAudioDesc="on" in seiner Playerkonfiguration setzen. Der Player erkennt nun, dass die Audiobeschreibung erwünscht ist und spielt die Audiodatei ab. Eine weitere Einschränkung ist durch das Attribut systemLanguage gegeben. Auch dieser Wert wird von der Abspielumgebung vordefiniert. Bei einer deutschen Umgebung wird in diesem Fall die Datei audio2_de.mp3 abgespielt, bei einer englische Umgebung die Datei audio2_en.mp3. Umgeben werden die Alternativen von einem <switch>-Element.[9]

Beispiel 16. Demo - Personalisierung

<body>

 ...
 <par>
  <img src="pic/pic1.jpg" region="pic" dur="indefinite" />
   <switch>
    <audio src="audio/audio2_de.mp3" systemAudioDesc="on" systemLanguage="de" />
    <audio src="audio/audio2_en.mp3" systemAudioDesc="on" systemLanguage="en" />

   </switch>
 </par>
 ...
</body>

Als letztes soll das Beispiel noch um Hypertext-Funktionalität (siehe auch Abschnitt 4.3.4, „Linking Modules“) erweitert werden. Die Syntax für die Realisierung von Links orientiert sich an der HTML-Syntax. Im Beispiel 17, „Demo - Linking“ wird als Ausgangspunkt (Anchor) für einen Link die JPEG-Datei link_pic.jpg benutzt. Das Ziel wird innerhalb des Elements <area> mit href="http://www.w3.org" bestimmt. Die Zielspezifikationen sind vergleichbar mit HTML. Ziele innerhalb des Dokuments werden allerdings mit Hilfe der id des Zielelements bestimmt (bspw.: href="#bild_id"). Die weiteren Attribute dienen der Playersteuerung. show="new" weist den Player an, das Referenzziel in einem neuen Fenster zu öffnen. Mit external="true" wird erreicht, dass die Zieldatei mit der spezifischen Anwendung gestartet wird, die im System mit dem Dateityp verknüpft ist. Damit der Player während der Darstellung bzw. Betrachtung der Zieldatei, seine Präsentation im Hintergrund nicht weiter abspielt, wird mit sourcePlaystate="pause" eine Pause für den Player der Quellpräsentation vorgeschrieben.[10] Das Element <area> bietet weiterhin die Möglichkeiten, nur bestimmte Bereiche des Anchors als Linkbereich zu definieren und/oder Linkbereiche zeitlich abhängig zu machen.

Beispiel 17. Demo - Linking

<body>
 ...
 <img src="pic/link_pic.jpg" region="link" >

  <area href="http://www.w3.org" show="new" sourcePlaystate="pause" external="true" />
 </img>
 ...
</body>

Das vollständige SMIL-Dokument zeigt Beispiel 18, „Demo - XML-Source“. Einen Ausschnitt aus der Präsentation zeigt eine Hardcopy in Abbildung 6, „SMIL-Demo“. Als Anwendungsfall für dieses Demo wären drei Diagramme denkbar, die mittels Audiodateien, in verschiedenen Sprachen, beschrieben werden. Aus Anwendersicht kann der Nutzer zwischen diesen drei Grafiken mit Hilfe der Schalter beliebig hin- und herschalten oder sich über die externe Ressource (Link) mit weiteren Informationen versorgen. Dem Autor sind die Möglichkeiten gegeben, seine Diagramme zu präsentieren und sie zusätzlich, dem Nutzer angepasst, verbal zu beschreiben. Des weiteren kann er auf weiterführende Informationen verweisen.

SMIL-Demo

Abbildung 6. SMIL-Demo

Das Storyboard dieser Präsentation ist recht einfach gestaltet. Zunächst wird ein Willkommenbild eingeblendet, bewegt sich vertikal durch den Playerbereich und blendet schließlich weich aus (Zeilen 31 bis 35). Als nächstes werden im unteren (schmalen) Bereich des Player drei Schaltflächen eingeblendet (Zeilen 40 bis 42), deren Betätigung zur Anzeige eines Bildes in der Hauptansicht des Players führt und (falls erwünscht) parallel eine Audiodatei in entsprechender Sprache abspielt (Zeilen 43 bis 65). Außerdem wird ebenfalls im unteren schmalen Bereich (rechts) ein Bild angeboten, das als Anchor für einen Link auf eine externe Ressource dient (Zeilen 37 bis 39). Ein Klick auf dieses Bild führt zur Darstellung der externen Ressource, während der Player in den Zustand Pause wechselt.

Beispiel 18. Demo - XML-Source

  1 <?xml version="1.0"?>
  2 <!DOCTYPE smil PUBLIC "-//W3C//DTD SMIL 2.0//EN"
  3                      "http://www.w3.org/2001/SMIL20/SMIL20.dtd">
  4 <smil xmlns="http://www.w3.org/2001/SMIL20/Language)">
  5  <head>

  6   <meta name="title" content="SMIL Demo" />
  7   <meta name="Publisher" content="Jens Werner" />
  8   <meta name="Date" content="25/08/2005" />
  9   <layout>
 10    <root-layout id="demo" backgroundColor="yellow" width="600" height="400" />

 11    <region id="pic" backgroundColor="#ffffcc" left="0" width="100%" 
 12      bottom="20%" fit="fill" z-index="1" />
 13    <region id="welcome" top="0" left="150" height="200" right="150"
 14      fit="slice" z-index="3" />
 15    <region id="buttons" backgroundColor="#eeffbb" left="0" width="100%" 
 16      top="80%" z-index="1" >
 17     <region id="link" right="10" bottom="10" height="60" width="60" z-index="2" />
 18     <region id="regButton0" height="60" width="80" top="10" left="80" 
 19       fit="slice" z-index="2" />

 20     <region id="regButton1" height="60" width="80" top="10" left="200" 
 21       fit="slice" z-index="2" />
 22     <region id="regButton2" height="60" width="80" top="10" left="320"
 23       fit="slice" z-index="2" />
 24    </region>
 25   </layout>
 26   <transition id="fade" type="fade" subtype="crossfade"/>

 27  </head>
 28  <body>
 29  <seq>
 30   <img src="pic/welcome.jpg" region="welcome" transIn="fade" 
 31     transOut="fade" begin="1s" dur="6s" >
 32    <animate targetElement="welcome" attributeName="top"
 33      from="0" to="200" begin="1s" dur="3s" fill="freeze" />

 34   </img>
 35   <par begin="1s" dur="indefinite">
 36    <img src="pic/01.jpg" region="link" >
 37     <area href="http://www.w3.org" show="new" sourcePlaystate="pause" external="true" />
 38    </img>

 39    <img id="button0" src="pic/button0.jpg" region="regButton0" /> 
 40    <img id="button1" src="pic/button1.jpg" region="regButton1" />
 41    <img id="button2" src="pic/button2.jpg" region="regButton2" />
 42    <excl dur="indefinite">
 43     <par begin="0; button0.activateEvent" >

 44      <img src="pic/pic0.jpg" region="pic" dur="indefinite"/>
 45      <switch>
 46       <audio src="audio/audio1_de.mp3" systemAudioDesc="on" systemLanguage="de" />
 47       <audio src="audio/audio1_en.mp3" systemAudioDesc="on" systemLanguage="en" />
 48      </switch>

 49     </par>
 50     <par begin="button1.activateEvent" >
 51      <img src="pic/pic1.jpg" region="pic" dur="indefinite" />
 52      <switch>
 53       <audio src="audio/audio2_de.mp3" systemAudioDesc="on" systemLanguage="de" />

 54       <audio src="audio/audio2_en.mp3" systemAudioDesc="on" systemLanguage="en" />
 55       </switch>
 56      </par>
 57      <par begin="button2.activateEvent" >
 58       <img src="pic/pic2.jpg" region="pic" dur="indefinite" />

 59       <switch>
 60        <audio src="audio/audio3_de.mp3" systemAudioDesc="on" systemLanguage="de" />
 61        <audio src="audio/audio3_en.mp3" systemAudioDesc="on" systemLanguage="en" />
 62       </switch>
 63      </par>  
 64     </excl>

 65    </par>
 66   </seq>
 67  </body>
 68 </smil>

4.5. Fazit

Bei der Synchronized Multimedia Language handelt es sich um eine Spezifikation, die XML-Dokumente definiert, deren Syntax in einer entsprechenden DTD niedergelegt ist.

In erster Linie dient SMIL der Definition, Synchronisation und Kombination so genannter Medienassets (media assets). Das sind organisierte Komponenten audio-/visueller Informationen[11]. Sie setzen sich aus dem eigentlichen Inhalt und Metadaten zusammen. Dabei findet mit SMIL eine konsequente Trennung zwischen beschreibendem Code und dem eigentlichen Inhalt statt.

SMIL dient der deklarativen Medienverarbeitung. Das bedeutet, dass SMIL bestimmt WAS WANN passiert. Dieser Bereich der Medienverarbeitung wird auch als Komposition bezeichnet. SMIL bestimmt allerdings nicht das WIE, dafür ist der so genannte User-Agent, im allgemeinen "Player" genannt, zuständig.

Der umfangreiche (offene) Standard und die Möglichkeiten der Profilerstellung eröffnen SMIL ein weites Gebiet von Einsatzmöglichkeiten. SMIL ist nicht auf bestimmte Plattformen beschränkt. Die Dokument sind leicht portierbar und auf den unterschiedlichsten Hardwareumgebungen darstellbar. Seine textbasierende Struktur erlaubt ebenfalls den problemlosen Einsatz in Content Managment Systemen. Ein SMIL-Dokument lässt sich dynamisch erstellen. So können (bspw. über Datenbankanbindungen) multimediale Präsentationen generiert und über ein Netzwerk den entsprechenden Playern zur Verfügung gestellt werden.

5. Software

5.1. Authoring Tools

Um eine SMIL-Präsentation anzufertigen, gibt es verschiedene Hilfsmittel. Die einfachste Art ein SMIL-Dokument zu erstellen ist es, wie für jedes andere XML-Dokument, einen Texteditor zu benutzen. Als Format für SMIL-Dokumente dient Plaintext. In der Regel wird die Dateiendung smil verwendet, ist aber nicht vorgeschrieben. Einfache Texteditoren werden mit jedem Betriebssystem ausgeliefert. Zu empfehlen sind Varianten mit erweiterten Funktionalitäten wie bspw. Syntaxhighlightning oder automatischer Einrückung, um eine bessere Übersichtlichkeit bei der Arbeit im Quelldokument zu haben. Auf Texteditoren soll aber an dieser Stelle nicht weiter eingegangen werden.

Da der Umgang mit großen XML-Quellcode-Dokumenten im Quelltext schnell unübersichtlich oder schwer handhabbar werden kann, empfiehlt sich der Einsatz von so genannten Authoring-Tools. Dabei handelt es sich um Software, die dem Autor eine Bedienoberfläche (GUI) als Schnittstelle zum XML-Code anbietet. Die Tools werden mit verschiedenen Werkzeugen ausgeliefert, die das Erstellen von Präsentationen vereinfachen sollen. Eine Auswahl derzeit verfügbare Authoring Tools gibt Tabelle 2, „SMIL-Authoring Tools“. Stand dieser Zusammenstellung ist der 31.08.2005. Für Vollständigkeit und Korrektheit der Angaben wird keine Gewähr übernommen. Weitere Informationen befinden sich (wenn auch nicht aktuell) in [9] .

Programm Betriebssystem Preis Bemerkungen
Flution Windows / Mac 65,51 Euro (Education) / Trial www.fluition.com/main.shtml
GRiNS Windows 595,- $ / Trial www.oratrix.com
VisualScript Windows 495,- $ / Trial www.visualscript.com
SMOX Editor Windows 749,- Euro / Trial
www.manalee.com/
benötigt Microsoft .Net Framework 1.1
SMOX Pad Windows 39,- Euro / Trial
www.manalee.com
Texteditor mit erweitertem Funktionsumfang
benötigt Microsoft .Net Framework 1.1
AdobeGoLive Windows / Mac 399,- $ / Trial www.adobe.com
LimSee2 cross-plattform (Java) kostenlos (open-source)
wam.inrialpes.fr/software
Voraussetzung: JRE (Java Virtual Machine, v1.4.0+)
SMIRK Windows  
smirk.herts.ac.uk/index.html
erstellt Slideshows

Tabelle 2. SMIL-Authoring Tools

5.1.1. LimSee2

Systemumgebung: Windows XP SP2; LimSee2 1.7; JAVA 1.5.0_04; JMF 2.1.1; JAVAMP3 1.0

LimSee2 wird am INRIA vom WAM-Team entwickelt. Maßgeblich daran beteiligt ist Nabil Layaïda, der auch an der Entwicklung der Spezifikationen zu SMIL 2.0 und 2.1 CR mitgearbeitet hat.

Das Tool ist in Java programmiert und somit auf den wichtigsten Plattformen einsetzbar. Das Programm unterliegt einer open-source Lizenz. Es liegen Installationsvarianten für Windows, Mac und Unix vor. Um Zugriff auf verschiedene Medienformate zu haben, müssen einige zusätzliche Bibliotheken installiert werden (JMF, MP3-Support für JMF, QuickTime für Java...) Alternativ kann das Tool als Applet direkt aus dem Browser heraus gestartet werden.

Das Authoring Toll bietet eine WYSIWYG (What You See Is What You Get) Nutzerschnittstelle zur Erstellung von SMIL-Dokumenten in den Versionen 1.0, 2.0 und 2.1 CR. Dabei ist der Versionstand des Tool 1.7 vom 30.05.2005 (Stand 01.09.2005). Da es sich bei den Autoren bzw. Initiatoren des Tools auch um Entwickler des SMIL-Standards handelt, ist damit zu rechnen, dass das Tool weiterentwickelt und gewartet wird.

Abbildung 7, „LimSee2“ zeigt das Hauptfenster des Tools in der Ansicht Alles. Im folgenden soll kurz auf die gekennzeichneten Bereiche und ihre wichtigsten Funktionalitäten eingegangen werden.

  1. Layout

    Dieser Bereich stellt den sichtbaren Zustand einer Präsentation zu einem bestimmbaren Zeitpunkt dar. Dabei werden multimediale Inhalte, wie Bilder, Video, Audio und Text, dargestellt. Das hierarchische Model der Anzeigeebenen in SMIL wird dabei beachtet.

    Neben Einstellungsmöglichkeiten der Darstellung (Zoom) oder eines Gitters zur Positionierungshilfe, wird hauptsächlich die Erstellung des Layouts der Präsentation unterstützt. Mit Hilfe der Maus können Regionen erstellt, positioniert und editiert werden. Es existieren Möglichkeiten, Medienelemente oder Anchors einzufügen, auszuwählen oder zu bearbeiten. Durch Mausklick aktivierte Regionen oder auf diese Regionen referenzierende Elemente werden synchron in den anderen Bereichen des Tools ausgewählt, sodass eine Manipulation auf verschiedenen Ebenen möglich wird.

  2. Timing

    Der Timing-Bereich stellt den Zeitverlauf der Präsentation dar. Dabei repräsentiert eine horizontalen Zeitachse das lineare temporale Verhalten. Auf ihr werden die sequentiellen Elemente symbolhaft oder als Miniaturansicht dargestellt. Auf der vertikalen Achse werden die zeitlich parallel darzustellenden Elemente angezeigt.

    Die Anordnung von Elementen und ihr zeitliches Verhalten lassen sich hier per Maussteuerung bearbeiten. Mittels eines Time-Cursors lässt sich eine zeitliche Position innerhalb der SMIL-Präsentation einstellen. Innerhalb des Layoutbereiches wird dann der entsprechende Ausgabezustand dargestellt. Ergänzt wird diese Funktionalität um die Möglichkeit, den Präsentationsablauf abzuspielen und im Layoutbereich darzustellen.

  3. Quellcode (XML-Ansicht)

    Diese Ansicht stellt den Quellcode der SMIL-Präsentation dar. Der Bereich ist vergleichbar mit einem normalen Texteditor. Er beinhaltet Syntax- und Error-Highlightning und formatiert den Inhalt automatisch in eine übersichtliche Form.

    Innerhalb dieses Bereiches kann Einfluss auf die Präsentation genommen werden. Der Quelltext kann editiert werden, oder es können Elemente ausgewählt werden, die synchron in den anderen Bereichen, gekennzeichnet werden.

    Zusätzlich besteht die Möglichkeit, den Quellcode zu validieren.

  4. XML-Struktur

    Im oberen Bereich werden die einzelnen Elemente des SMIL-Dokuments in einer Baumansicht dargestellt. Zur Verbesserung der Übersichtlichkeit können einzelne Knoten expandiert oder kolabiert werden.

    Es bestehen die Möglichkeiten Elemente hinzuzufügen, zu löschen und zu bearbeiten. Dazu wird im unteren Teil dieses Bereichs eine Liste mit dem Element zugehörigen Attributen und deren aktuellen Werten angezeigt. Der Umfang der angezeigten Attribute lässt sich über verschiedene Filter einstellen. Eventuell vordefinierte Attributwerte werden bei Auswahl des Attributes zur Auswahl gestellt.

    Referenzierungen innerhalb eines Dateisystems werden unterstützt.

LimSee2

Abbildung 7. LimSee2

Das Tool beinhaltet weitere Werkzeuge, um die Arbeit mit SMIL zu erleichtern. So ermöglicht es, SMIL-Slide-Shows aus Powerpoint- oder OpenOffice-Präsentationen zu generieren. Weiterhin besteht die Möglichkeit, (Inline-) Text in das proprietäre Realtext-Format zu konvertieren. Außerdem wurde ein Captioningtool integriert. Es erstellt halbautomatisch aus Texten, Untertitel für Medienobjekte (bspw. Video). Allerdings ist anzumerken, dass diese Erweiterungen in der vorliegenden Version eher experimentell als ausgereift erscheinen und sicherlich in späteren Versionen ihrem Zweck besser entsprechen.

LimSee2 eignet sich zur Erstellung und zur Bearbeitung von SMIL-Dokumenten. Es sind Grundkenntnisse der XML notwendig. Weiterhin muss die jeweilige SMIL-Spezifikation bekannt sein. Es ist nicht möglich, nur innerhalb eines speziellen SMIL-Profiles zu arbeiten. Es kann nur die SMIL Version gewählt werden.

Zu öffnende Dokumente werden auf ihre Wohlgeformtheit, jedoch nicht auf ihre Gültigkeit geprüft. Bei gefundenen Fehlern wird ein Editorfenster angeboten, in dem der Quelltext korrigiert werden kann.

Grundsätzlich wird der gesamte Umfang der Spezifikationen unterstützt. An XML angelehnte Funktionen (bspw. Validation, Dokumentenstruktur auf Basis der jeweiligen DTD) funktionieren vollständig. Die Oberfläche ist übersichtlich angelegt. Der Funktionsumfang ist gut durchdacht und sinnvoll angelegt, allerdings deckt er die für die Erstellung komplexer Präsentationen wünschenswerten Werkzeugunterstützungen nicht ab. Denkbare Erweiterungen wären bspw. eine Verbesserung der (nur rudimentär vorhandenen) Animationsunterstützung oder auch die Integration verschiedener Templates für Transitionseffekte.

Die zugehörige Dokumentation befindet sich noch im Entwicklungsprozess und ist Online verfügbar. Allerdings ist die Bedienung des Tools intuitiv erlernbar. Mit ein wenig Übung und aufbauend auf einfachen Beispieldokumenten, entstehen relativ schnell komplexere Präsentationen.

Die Installation ist, dank fertiger Installationsvarianten für verschiedene Plattformen, schnell erledigt. Eine installierte JAVA-VM wird vorausgesetzt. Um den vollen Umfang der Funktionalitäten ausschöpfen zu können, ist ggf. das nachinstallieren verschiedener Java-Bibliotheken notwendig. Die entsprechenden Links finden sich auf der Webseite.

Der frühe Entwicklungsstand von LimSee2 wird besonders bei der Darstellung der Präsentation sichtbar. Einige Funktionen wie zum Beispiel Transitionen, Animationen, Darstellung verschiedener Medienformate, Linking bzw. Eventhandling, Darstellung des Zustands der Präsentation in Abhängigkeit vom Time-Cursor funktionieren in der Vorschau nicht oder nur unvollständig. Als Notlösung für dieses Problem bietet es sich an die Präsentation im bevorzugten Player auszuführen. LimSee2 bietet dafür einen Button, um das aktuelle Dokument mit einem externen Player zu starten.

Es bleibt anzumerken, dass die Auslegung der SMIL-Spezifikation im Detail auch hier auf einige Widersprüchlichkeiten stößt. Das Dokument aus Beispiel 18, „Demo - XML-Source“ wird in dieser Form in LimSee2 nicht korrekt erkannt.[12]

Das das gesamte Tool in Java programmiert wurde, wird in seinem, zeitweise, etwas "zähem" Verhalten deutlich.

5.1.2. GRiNS

Systemumgebung: Windows XP SP2; GRiNS Pro for SMIL 2.0, v2.2 win32 build 141

Als Vertreter der kommerziellen Produkte soll an dieser Stelle das Tool GRiNS der Firma Oratrix kurz besprochen werden.

Das Tool bietet Möglichkeiten neue Präsentationen zu erstellen oder existierende zu bearbeiten. Bei der Neuerstellung kann aus einer Menge von Templates ausgewählt oder eine leere Präsentation begonnen werden. Dazu wird eine GRiNS-Projektdatei angelegt, bei der es sich um eine Datei im XML-Format handelt, die über den zusätzlichen Namensraum GRiNS mit einigen Werten ergänzt wird, aber in einem Standardplayer abspielbar bleibt.

GRiNS bietet verschiedene Sichten auf ein Projekt. Das sind:

  • Previewer - dient dem Abspielen des Aktuellen Projekts oder der Anzeige ausgewählter Elemente

  • Structured Timeline - stellt das temporale Verhalten der Präsentation dar

  • Layout - zeigt das Layout der Präsentation

  • Source - Quellcode

GRiNS Editor for SMIL

Abbildung 8. GRiNS Editor for SMIL

Abbildung 8, „GRiNS Editor for SMIL“ zeigt das mit dem Tool geöffnete Beispiel aus Abschnitt 4.4.3, „Beispiel“ mit verschiedenen Sichten auf das Projekt. In einer Sicht markierte Elemente werden dabei synchron in allen anderen Sichten (soweit möglich) ebenfalls markiert.

GRiNS bietet dem Autor die Möglichkeiten, eine Multimediapräsentation auf der Basis von SMIL 2.0 zu erstellen. Dazu sind grundsätzlich keine XML-Vorkenntnisse notwendig, solange nicht der Quellcode direkt bearbeitet werden soll. Um effektiv und sinnvoll mit GRiNS arbeiten zu können, ist es notwendig, die SMIL-Spezifikationen zu kennen. Das Tool bleibt auch für Anfänger übersichtlich, da zwischen einem Default- und einem Advancedmode gewechselt werden kann.

Ein integrierter Player gestattet eine Vorschau auf den aktuellen Stand der Präsentation. Es existiert kein Timecursor, der es dem Autor erlaubt, sich frei auf der zeitlichen Achse, seiner Arbeit, zu bewegen.

Neben den Standardfunktionalitäten von Authoringtools bietet GRiNS einige zusätzliche Werkzeuge:

  • Mittels des Bandweitensimulators kann schon während der Erstellung der Präsentation erkannt werden, ob die gewünschten Zeitabläufe mit den Netzwerkgegebenheiten realisierbar sind oder ob einzelnen Inhalte mittels Preload vorgeladen werden müssen.

  • Die Erstellung von Animationen wird unterstützt.

  • Transitionen können definiert und zur späteren Verwendung abgespeichert werden.

  • Zum Hyperlinkmanagment wird ein spezielles Interface angeboten.

  • Zur Verwaltung von Medieninhalten existiert ein spezielles Werkzeug.

  • Es können Testsituationen erstellt werden, die die geplante Abspielumgebung der Präsentation simulieren.

  • Schon erwähnt wurden die Templates, die das Erstellen für einige Standardsituation vereinfachen. Ebenso lassen sich Templates erstellen, um Workflows wiederverwenden zu können.

Eine weitere interessante Möglichkeit ist es, mit Hilfe der Publisher-Funktion Präsentationen in spezielle SMIL-Formate zu konvertieren. So kann die Präsentation in einer optimierten Version für den RealPlayer gespeichert werden. Weiterhin kann das Präsentationsprojekt in das, an XHTML+SMIL angelehnte, Format HTML+TIME gebracht werden. Der Begriff TIME setzt sich hier aus Time Interactive Multimedia Extensions zusammen. Solche Präsentationen werden vom MS Internet Explorer 5.5+ dargestellt. Ebenso ist es möglich, in das 3GPP/Mobile SMIL Profil zu konvertieren. Letzten Endes kann auch reiner SMIL-Quellcode erstellt werden, wobei das SMIL 2.0 Language Profile oder auch das Profil SMIL 1.0 ausgewählt werden können. Das Konvertieren ist den Zielprofilen entsprechend natürlich nicht uneingeschränkt möglich. Der jeweils produzierte Quellcode ist mittels Einrückungen übersichtlich gestaltet, wohlgeformt und gültig.

GRiNS kann existierende SMIL-basierende Präsentationen importieren. Dabei prüft das automatisch auf Wohlgeformtheit und Gültigkeit (SMIL 2.0) und zeigt Fehler an. Es werden Vorschläge zur Korrektur eventuell gefundener Fehler gemacht. Auch während des Editierens des Quellcodes werden Fehler erkannt und Vorschläge zur Korrektur gemacht.

Das Tool bringt eine sehr gute Dokumentation mit und arbeitet auf dem Testsystem stabil und mit einer guten Performance.

5.1.3. Fazit

Der Autor einer SMIL-Präsentation kann aus verschiedenen Authoring Tools wählen. Ausschlaggebend für die Wahl sind:

  • Systemumgebung,

  • Vorkenntnisse (XML, SMIL, allg. Umgang mit Multimedia Authoring Tools),

  • Komplexität der zu erstellenden Präsentation,

  • SMIL-Version,

  • Kosten zur Anschaffung des Tools,

  • benötigte Extras und

  • die Dokumentation, der Support und die Pflege des Tools

Der große Vorteil beim Erstellen von SMIL-Präsentationen ist die Umsetzung der XML-Spezifikationen in SMIL. Die einfachste Möglichkeit ein SMIL-Dokument zu erstellen ist die, den Quellcode mit Hilfe eines einfachen Text-Editors zu erstellen. Das Speicherformat Plaintext erlaubt zu jeder Zeit eine komplette Einsicht in das Dokument. Text-Editoren existieren in verschiedenen Ausprägungen und zu verschiedenen Preisen. Die Arbeit mit ihnen setzt allerdings gute Kenntnisse von XML und SMIL voraus.

Gehobene Ansprüche decken die Authoring Tools ab. Diese setzen nicht zwingend Vorkenntnisse von XML voraus. Sie bieten verschiedene Werkzeuge zu Unterstützung des Autors. Das angesprochene Tool GRiNS bietet sehr gute Möglichkeiten eine SMIL-Präsentation auch ohne XML-Kenntnisse zu erstellen, bringt aber recht hohe Anschaffungskosten mit sich.

Hier stellt LimeSee2 eine gute alternative zu den kommerziellen Produkten dar. LimSee2 ist im derzeitigen Entwicklungsstand noch nicht als fertiges Produkt zu betrachten, deckt aber schon die wichtigsten Anforderungen ab. Es ist das einzige Authoring Tool, das auch auf Unix-Systemen eingesetzt werden kann.

5.2. Player

Die Darstellung der mit Hilfe von SMIL beschriebenen Präsentation übernimmt eine Applikation, der User-Agent. Dieser wird im Kontext der Präsentation multimedialer Inhalte als Player bezeichnet.

Mit der Existenz und der Qualität von darstellender Software (Player) steht und fällt das Durchsetzungsvermögen des Standards eines Multimediaformats.

Speziell für SMIL haben die Player die Aufgabe, die umfangreichen Spezifikationen der jeweiligen SMIL-Profile umzusetzen. Weiterhin müssen sie die jeweiligen Medienformate darstellen können. Dabei lassen sich drei verschiedene Applikationstypen unterscheiden:

  • SMIL-Player - Applikation dient ausschließlich der Darstellung von SMIL-Dokumenten (bspw. AmbulantPlayer)

  • integrierter SMIL-Player - Applikation integriert, neben anderen Funktionalitäten, ein Softwaremodul, das der Darstellung von SMIL-Dokumenten dient (RealPlayer, HELIX-Player oder X-SMILES)

  • integrierter Multimediaplayer auf SMIL-Basis - Applikation stellt Dokumente dar, die auf den SMIL-Spezifikationen basieren, aber für die darstellende Software angepasst wurde (Internet Explorer mit HTML+TIME)

Dem Nutzer soll genau das präsentiert werden, was der Autor mit seinem Dokument beschreibt. Da SMIL-Präsentationen für die unterschiedlichsten Umgebungen erstellt werden können, werden auch Player für die jeweilige Plattform benötigt. Eine kleine Auswahl von Playern zeigt Tabelle 3, „SMIL-Player“. Wie auch schon bei den Authoring Tools setzt diese Liste keine Vollständigkeit und Korrektheit voraus. Stand der Angaben ist der 08.09.2005. Als Ausgangspunkt zur Recherche nach Playern für SMIL dienen auch hier die SMIL-Webseiten [9].

Programm Plattform SMIL-Version Bemerkungen
AmbulantPlayer
open-source Lizenz
Linux / Mac / Windows Desktop / WinCE Pocket PC / Windows TabletPC SMIL 2.1 CR ambulantPlayer.org
RealPlayer Windows / Mac / Linux / Mobile Devices / SMIL 2.0 www.realnetworks.com
GRiNS Player
80,11 Euro (Windows)
Windows / Mobile Devices SMIL 2.0 www.oratrix.com
PocketSMIL 2.0
free
Pocket PC SMIL 2.0 wam.inrialpes.fr/software
MS Internet Explorer 5.5+ Windows XHTML+SMIL (HTML+TIME) www.microsoft.com
X-SMILES
open-source
cross-plattform (JAVA) SMIL 2.0
www.xsmiles.org
Vor.: JRE (Version 1.2.0+)
QuickTime Windows / Mac SMIL 1.0 www.apple.com
Helix Player
open source / commercial community source
Linux, Solaris, Symbian (Basic) SMIL 2.0 helixcommunity.org
Soja Player
open source / commercial community source
cross-plattform (JAVA-Applet) SMIL 1.0 www.helio.org

Tabelle 3. SMIL-Player

Im folgenden soll nicht evaluiert werden, ob die jeweilige Applikation in der Lage ist die ihm zugeordnete SMIL-Version vollständig zu unterstützen. Für diesen Bereich stehen auf den Seiten des W3C umfangreiche Testsuiten für die SMIL-Version 2.0 (Stand 08.09.2005) zur Verfügung.

Es werden nur Kurztests von allgemeiner Natur durchgeführt. Dabei wird der externen Produktqualität besondere Bedeutung beigemessen. Als Testfall wird das in Abschnitt 4.4.3, „Beispiel“ beschriebene Beispiel genutzt.

5.2.1. Ambulantplayer

Systemumgebung: Windows XP SP2; AmbulantPlayer version 1.4.5

Der Ambulantplayer wird am CWI (Nationale Forschungsinstitut für Mathematik und Computerwissenschaften der Niederland) entwickelt. Leiter dieses Projekts ist Dr. Dick Bulterman der an der Ausarbeitung der Spezifikationen von SMIL 2.0 und 2.1 CR am W3C mitarbeitete, sowie Autor eines hervorragenden Buches über SMIL 2.0 [3] ist.

Der AmbulantPlayer ist ein reiner SMIL-Player und Ende August 2005 der einzige Player, der die Spezifikationen von SMIL 2.1 CR unterstützt.

Die Weiterentwicklung bzw. Fehlerbereinigung des Players wird aktiv voran getrieben. Um Feedback an die Entwickler wird gebeten. Zur Unterstützung des Debugging wird eine Logdatei erstellt, deren Inhalt auch direkt aus dem Player heraus einzusehen ist. Es liegt eine minimale, aber ausreichende Dokumentation vor.

Der Player unterstützt die gängigen Medienformate in Abhängigkeit der vom jeweiligen System unterstützten Codecs.

Problematisch erweist sich die Darstellung von Text. Dieser kann nicht formatiert dargestellt werden. Eine Alternative dafür bildet im Augenblick nur die Textdarstellung in einem der unterstützten Image-Formate. Für das derzeitige Release war eine Unterstützung von Timed Text geplant, konnte aber nicht umgesetzt werden, da dieser Standard als noch nicht stabil gilt. Proprietäre Lösungen wie das Realtextformat werden nicht unterstützt. Als Notlösung wird im Augenblick an einer Unterstützung von HTML gearbeitet. Als hervorragende Möglichkeit der formatierten Textdarstellung, soll eventuell eine SVG-Unterstützung integriert werden [17]. SVG würde, neben umfangreichen Formatierungsmöglichkeiten und Linking, auch den Vorteil der qualitätsverlustfreien Skalierung (Vektorformat) mit sich bringen.

Der Player bietet zur Steuerung der Präsentation einen PLAY-, einen PAUSE- und einen STOP-Button. Leider existiert für den Nutzer keine Möglichkeit, sich entlang der Zeitachse zu bewegen, um innerhalb der Präsentation hin- und herzuspringen.

In der Version 1.4.5 läuft die Software stabil. Die grundlegenden SMIL-Spezifikationen wurden umgesetzt. Allerdings existieren im Detail noch reichlich Bugs.[13]Eine Liste derartiger Fehler findet sich auf dem Bug Tracking System (09.09.2005).

Der AmbulantPlayer bietet die Möglichkeit der umfassenden Personalisierung (siehe auch Abschnitt 4.3.2, „Content Control“). Über eine XML-Datei lassen sich die Umgebungseigenschaften bzw. Abspielanforderungen exakt definieren (siehe Beispiel 19, „Demo - Settings“).

Beispiel 19. Demo - Settings

<?xml version="1.0"?>
<filter>
 <systemTest name="systemAudioDesc" value="on" />
 <systemTest name="systemBitrate" value="56000" />

 <systemTest name="systemCaptions" value="on" />
 <systemTest name="systemCPU" value="unknown" />
 <systemTest name="systemLanguage" value="de" />
 <systemTest name="systemScreenSize" value="1024X1280" />
 <systemTest name="systemScreenDepth" value="32" />
</filter>

5.2.2. RealPlayer

Systemumgebung: Windows XP SP2; RealPlayer Version 10.0; (Internet Explorer 6.0/Mozilla Firefox Version 1.0.6)

Der RealPlayer unterstützt SMIL 2.0. Er ist weit verbreitet und auf vielen Plattformen installierbar. Leider bringt das auch einige sicherheitsrelevante Probleme mit sich. Der Hersteller RealNetworks reagiert allerdings auf gefundene Mängel und bietet regelmäßig Updates für seinen Player. Nebenbei stellt Real die Quellen seiner SMIL-Unterstützung als Helix DNA der Open-Source-Community als Codebase zur Verfügung (siehe Helix Player in Tabelle 3, „SMIL-Player“).

Das Abspielen einer SMIL-Präsentation lässt sich über einen PLAY-, einen PAUSE- und einen STOP-Button steuern. Darüberhinaus besteht die Möglichkeit, sich mittels eines Timecursors auf der zeitlichen Achse der Präsentation zu bewegen. Im Falle eines Streams über ein Netzwerk werden dazu schon geladene Medienobjekte in einem Cache abgelegt, so dass beim Zurückspringen auf der Zeitachse kein Reload notwendig wird.

Real bietet zusätzlich das proprietäre Realtext-Format an. Es ermöglicht einfache Formatierungen und zeitliche Steuerung von Textdarstellungen (bspw. für Untertitel).

Die Personalisierung von Abspielumgebungen ist möglich, beschränkt sich allerdings auf einige einfache Attribute, wie z.B. systemLanguage, systemAudioDesc oder auch systemBitrate. Die dafür notwendigen Werte lassen sich über einen Konfigurationsdialog einstellen.

Der Realplayer kann in Standardbrowser über deren Plugin-Schnittstelle integriert werden. Genutzt werden kann dazu das <object>-Element. Das Beispiel 20, „Realplayer mittels <object>“ zeigt einen HTML-Codefragment, dass den Realplayer integriert.

Beispiel 20. Realplayer mittels <object>

<html>
 <head></head>

 <body>
  <OBJECT id="RVOCX" classid="clsid:CFCDAA03-8BE4-11cf-B84B-0020AFBBCCFA" 
       width="600" height="400">
   <PARAM name="SRC" value="Demo.smil">
   <PARAM name="CONTROLS" value="ImageWindow">
   <PARAM name="CONSOLE" value="one">
   <PARAM name="Autostart" value="true">

  </OBJECT>
 </body>
</html>  

Alternativ dazu kann auch das <embed>-Element eingesetzt werden, um den Player innerhalb einer Webseite zu nutzen. Dazu zeigt das Beispiel 21, „Realplayer mittels <embed>“ entsprechende Codebeispiel.

Beispiel 21. Realplayer mittels <embed>

<html>
 <head></head>

 <body>
  <EMBED SRC="Demo.smil" 
        type="audio/x-pn-realaudio-plugin"
       width="600" height="400"
     CONSOLE="one" CONTROLS="ImageWindow"  AUTOSTART="true">
  </body>
</html

Das Beispiel aus Abschnitt 4.4.3, „Beispiel“ wurde im externen RealPlayer problemlos abgespielt. Die in HTML bzw. dem Browser integrierte Variante wurde ebenfalls problemlos dargestellt. Allerdings funktionierte die <object>-Variante (Beispiel 20, „Realplayer mittels <object>“) nicht im Netscape- bzw. Mozilla-Browser. Hier funktionierte die <embed>-Variante (Beispiel 21, „Realplayer mittels <embed>“). Der Internet Explorer stellte beide Varianten dar. Um diese browserspezifischen Probleme zu umgehen, kann auch ein Mischcode genutzt werden. Beispiel 22, „Realplayer mittels <embed>“ zeigt diese Variante, die den Player im Netscape (Mozilla) als auch im Internet Explorer laufen ließ.

Beispiel 22. Realplayer mittels <embed>

<html>
 <head></head>

 <body>
  <OBJECT id="RVOCX" classid="clsid:CFCDAA03-8BE4-11cf-B84B-0020AFBBCCFA" 
       width="600" height="400">
   <PARAM name="SRC" value="Demo.smil">
   <PARAM name="CONTROLS" value="ImageWindow">
   <PARAM name="CONSOLE" value="one">
   <PARAM name="Autostart" value="true">

   <EMBED SRC="Demo.smil" 
         type="audio/x-pn-realaudio-plugin"
        width="600" height="400"
      CONSOLE="one" CONTROLS="ImageWindow"  AUTOSTART="true" >
  </OBJECT>
 </body>
</html>

Beide Varianten bieten ebenfalls die Möglichkeit die Kontrolle über den zeitlichen Verlauf zu erhalten. PLAY-, STOP- und PAUSE-Button lassen sich ebenso wie ein Zeitcursor in die Darstellung integrieren.

Ein nicht zu vernachlässigendes Problem von multimedialen Darstellungen, stellen die großen Datenmengen von Video- oder Audiomaterial dar. Neben Speichermöglichkeiten müssen auch alternative Möglichkeiten der Übertragung vorgesehen werden. Standardprotokolle wie HTTP oder FTP bieten dabei nur ungenügende Unterstützung. Insbesondere die zeitliche Kontrolle der Übertragung ist nicht möglich. Multimediadaten können also nicht als Stream (Datenstrom) zur Verfügung gestellt werden. Ein solcher Stream bietet, im Gegensatz zu statischen Daten, den Vorteil, nicht die Übertragung der gesamte Präsentation abwarten zu müssen. Er stellt einen kontinuierlichen Datenfluss dar. Diese Technologie ermöglicht ebenfalls die Realtimeübertragung von Medien (bspw. Livevideo-Übertragungen).

Realnetworks bietet als Lösung dafür mit dem Realserver eine Softwarelösung an. Die SMIL-Präsentation muss in diesem Fall nicht komplett geladen werden, sondern kann, mit dem Eintreffen der ersten Daten, sofort betrachtet werden. Datenübertragungen, permanent oder die sich aus Sprüngen im Dokument ergeben, werden durch die Client-Server-Kommunikation gesteuert. Der RealPlayer stellt hier die Client-Software da. Als Protokoll kommt das Real Time Streaming Protocol (RTSP) zum Einsatz. Streams werden hier auch als Clip bezeichnet.

Als Nebeneffekt fällt die Möglichkeit an, Inhalte zu schützen. Realnetworks erlaubt die optionale Einstellung, ob ein Clip lokal gespeichert werden darf oder nicht. Dem Konsument kann somit der Zugriff auf den SMIL-Code oder auf Medieninhalte verwehrt werden.

SMIL-Dokumente können folgendermaßen von einem RealServer abgerufen werden:

Beispiel 23. Aufruf vom RealServer für externen Player

<a href="http://realserver.domain.tld:8080/ramgen/clip.smil">...</a>

oder

Beispiel 24. Aufruf vom RealServer für Player Plug-in (<embed>)

src="http://realserver.domain.tld:8080/ramgen/clip.smil?embed"

oder mittels einer RAM-Datei. Dies ist eine Textdatei (Plaintext). Sie enthält Links zu den entsprechenden Dateien. Diese Dateien erhalten die Dateiendung *.ram für den externen Player oder *.rpm für den Player innerhalb des Browsers. Der Aufruf könnte wie in Beispiel 25, „Aufruf RAM-Datei“ aussehen[4].

Beispiel 25. Aufruf RAM-Datei

<a href"http://www.domain.tld/film.ram">...</a>

5.2.3. MS Internet Explorer 5.5+

Systemumgebung: Windows XP SP2; Internet Explorer 6.0

Microsoft integriert in seinem Internetbrowser eine eigene HTML-Erweiterung mit Namen HTML+TIME, die inzwischen in der Version 2 vorliegt. Sie basiert auf den XHTML+SMIL-Spezifikationen des W3C. Die Spezifikationen von SMIL werden nur unvollständig oder mit anderen Lösungsansätzen integriert. So wird zum Beispiel kein Layout-Modul unterstützt, deren Funktionalität aber durch CSS ersetzt [18].

HTML+TIME ermöglicht die Integration und Synchronisation multimedialer Inhalte ohne, oder mit nur sehr wenig Skripterweiterungen, in HTML-Seiten.

Einerseits bedeutet HTML+TIME eine Insellösung, die nur auf einem System und mit hinlänglich bekannten Sicherheitsproblemen darstellbar ist, andererseits bietet HTML+TIME eine sehr gute Möglichkeit, SMIL-Präsentationen in HTML-Seiten zu integrieren und eröffnet somit neue Perspektiven. Dazu zählen u.a.:

  • Darstellung von SMIL-Präsentationen innerhalb des Browserfensters ohne den Start einer externen Applikation,

  • das Problem der Textformatierung und Text-Verlinkung gelöst,

  • Integration aller von Microsoft unterstützten Medienformate,

  • weitere Standards bzw. Erweiterungen sind verfügbar (Flash, SVG, ...),

  • ...

Die Syntax von HTML+TIME ist der von SMIL sehr ähnlich. Um das Beispiel aus Abschnitt 4.4.3, „Beispiel“ auf dem Internet Explorer darstellen zu können, musste der Quellcode überarbeitet werden. Abschnitt 1, „HTML+TIME“ in Anhang B, Quelltexte zeigt in Auszügen den vom AuthoringTool GRiNS konvertierten Quellcode. Dieser wird zwar etwas aufgebläht (insbesondere durch die Layoutkonfiguration mit CSS), die Nähe zu SMIL bleibt aber noch immer erkennbar und, mit Kenntnissen der SMIL-Spezifikation, HTML und CSS, verstehbar [18].

Der Internet Explorer stellte das Beispiel ohne Probleme dar. Die Steuerung der Präsentation ist jedoch nur eingeschränkt möglich. Der Ablauf kann nur gestoppt oder neu gestartet werden. Erweiterte Funktionalitäten müssten in die Präsentation oder den HTML-Code integriert werden. Die Bewegung auf der Zeitachse ist nicht möglich.

Auch die Personalisierung ist nur minimal möglich. Einfluss auf den Inhalt der Präsentation kann nur über einige wenige Attributwerte genommen werden. Diese werden direkt vom Betriebssystem (systemCaptions, systemBitrate, systemOverdubOrSubtitle und systemLanguage) übernommen und lassen sich nur über Umwege ändern.

5.2.4. X-SMILES

Systemumgebung: Windows XP SP2; X-SMILES Release 0.94; JAVA 1.5.0_04

Bei X-SMILES handelt es sich, wie beim Internet Explorer, um einen Web-Browser. Es ist ein nicht-kommerzielles (open-source) Projekt der University of Technology in Helsinki. Die Software wurde in JAVA programmiert. Sie ist auch als Applet verfügbar und somit in andere Webbrowser integrierbar. Das Einsatzgebiet soll insbesondere auf tragbaren Geräten (mobile devices) liegen.

X-SMILES unterstützt SMIL 2.0 in der aktuellen Version nur unvollständig. Der integrierte SMIL-Player kann als Standalone-Player oder als Package für eigene JAVA-Projekte genutzt werden. Dazu steht eine Datei smil.jar zur Verfügung.

Leider war es nicht möglich, das Referenzbeispiel zur Darstellung zu bringen. Die Browser-Variante stellt nur den ersten Teil der Präsentation dar und die Standalone-Variante konnte gar nicht zur Darstellung überredet werden. Anstatt dessen kam es zu umfangreichen Fehlermeldungen der JVM und zu dem üblichen JAVA(-Swing-)Nachteilen.

Die Idee dieser Software bietet ebenfalls erweiterte Möglichkeiten für den Einsatz von SMIL. Leider befindet sich das Projekt noch in einem frühen Stadium, so dass der praxisnahe Einsatz noch nicht möglich ist.

5.2.5. Fazit

Die aktuelle Playerauswahl bietet ein weites Feld von Einsatzmöglichkeiten von SMIL. Tabelle 4, „SMIL-Player Vor- und Nachteile“ zeigt die Vor- und Nachteile der wichtigsten (angetesteten) Abspielsysteme.

Programm Vorteile Nachteile
AmbulantPlayer
  • volle SMIL-Unterstützung (1.0; 2.0 & 2.1)

  • Entwickler am SMIL-Standard beteiligt

  • hervorragende Content Control

  • freie Software, open source

  • für verschiedene Plattformen verfügbar

  • keine Textformatierung

  • keine Textverlinkung

  • Standalone-Lösung (keine Integration in andere Systeme)

  • kein Bewegen auf der Zeitachse möglich

RealPlayer
  • volle SMIL 2.0 Unterstützung

  • ausgereifte Implementierung; Support

  • Unterstützung des RealText- Standards (Formatierung, zeitliche Steuerung von Text)

  • Bewegen auf Zeitachse möglich

  • SMIL-Implementierungen als Sourcecode verfügbar

  • für verschiedene Plattformen verfügbar

  • mittels <object> oder <embed> in HTML integrierbar

  • Content Control nur beschränkt nutzbar

MS Internet Explorer 5.5+
  • Integration der wichtigsten SMIL-Funktionalitäten in HTML (alle Eigenschaften von HTML verfügbar)

  • Layoutintegration in HTML-Dokumente

  • Browserfunktionalitäten und -erweiterungen nutzbar

  • weitere Formate nutzbar (bspw. Flash, SVG, ...)

  • Verbreitung des Browser

  • Insellösung (nur MS)

  • Sicherheitsbedenken

  • spezielle Spezifikation (unvollständige Unterstützung von SMIL)

  • zusätzliche Kenntnisse notwendig

  • keine freien Authoring Tools verfügbar

  • Content Control nur beschränkt nutzbar

  • kein Bewegen auf der Zeitachse möglich

X-SMILES
  • Playerintegration in Browser

  • freie Software, open source

  • plattformübergreifend (auch für mobile devices)

  • JAVA-Package in eigene Projekte integrierbar

  • externer Player verfügbar

  • SMIL-Unterstützung unvollständig

  • Fehler in Implementierung

  • JAVA(-SWING-)Nachteile

Tabelle 4. SMIL-Player Vor- und Nachteile

Die sauberste SMIL-Implementierung bietet der AmbulantPlayer. Das größte Potential bieten allerdings die Variante vom Microsoft und die Lösung von RealNetworks. Hier sind die meisten (denkbaren) Szenarien realisierbar. Auch einige der Probleme lassen sich durch die Möglichkeiten von Erweiterungen lösen.[14]Sie ermöglichen die nahtlose Integration von SMIL-Präsentationen in HTML-Dokumente und den Zugriff auf die Browserfunktionalitäten der wichtigsten Browser. Somit lassen sich auch die Einschränkungen von SMIL hinsichtlich der Arbeit mit (Hyper-)Text oder auch Beschränkungen von darstellbaren Formaten (SVG) der Player, umgehen. Die Darstellung dieser Elemente muss dann allerdings außerhalb der SMIL-Dokumentation stattfinden und kann nicht in den zeitlicher Ablauf integriert werden.

In diesem Zusammenhang soll noch der Soja Player erwähnt werden. Als Java-Applet lässt er sich in jeden Applet-fähigen Browser integrieren und bietet somit ähnliche Vorteile wie die beiden zuletzt erwähnten Varianten. Allerdings unterstützt der Player nur SMIL in der Version 1.0. Zum Zeitpunkt der Recherche (08.2005) waren die Webseiten des Projektes leider nicht erreichbar, so dass keine weiteren Informationen zu dieser Abspielvariante gegeben werden können.

Ein klares Problem ist bei den Playern die Auslegung bzw. die Integration der SMIL-Spezifikationen. Über SMIL-Kenntnisse hinaus, erweist es sich in der praktischen Anwendung als sinnvoll, die genauen Spezifikationen des Players zu kennen, um zu erfahren, welche SMIL-Spezifikationen mit dem jeweiligen Player umsetzbar sind. Leider sind diese oft nicht ausreichend dokumentiert. Darüberhinaus muss auch die Bug-Liste der Player immer wieder zum Debugging des SMIL-Codes herangezogen werden um Aufklärung über evtl. nicht funktionierende Abläufe zu erhalten. Das bedeutet, dass für eine vollständige Nutzung von SMIL umfangreiche Zusatzkenntnisse (verbunden mit Experimentierfreude) erlangt werden müssen.

6. E-Learning und SMIL

Visualisierungen im E-Learning-Bereich dienen dazu, (visualisierbare) Informationen/Daten optisch zu veranschaulichen oder zusammenzufassen.

E-Learning-Autoren werden in die Lage versetzt, je nach Bedarf, Qualifikation und technischen Möglichkeiten E-Learning-Inhalte, speziell für das multimediale Lernen aufzubereiten. Natürlich kann SMIL nicht als ultimatives E-Learning-Format betrachtet werden. Es können nur Inhalte dargestellt werden. Die Qualität der Aufarbeitung obliegt dem Autor. Einige Einschränkungen aktueller Soft- und Hardware sind dabei ebenfalls zu beachten[15].

6.1. Umsetzung von E-Learning-Anforderung mit SMIL

Besonders die so genannten TV-like Darstellungsformen mit der Integration von Ton und Bild werden unterstützt. Das Erstellen von Animationen ist ebenfalls möglich. Präsentationen sind bei entsprechenden technischen Gegebenheiten zeit- und ortsunabhängig nutzbar. Sie sind über Netzwerke weltweit verfügbar und einfach speicherbar. Außerdem können sie in bestehende Projekte integriert werden.

Neben diesen Fähigkeiten bietet SMIL umfangreiche Zusatzeigenschaften, die in Abschnitt 3, „E-Learning“ schon angedeutet wurden.

Das Modul Content Control (Abschnitt 4.3.2, „Content Control“) bietet dem Autor Möglichkeiten, seine Lehrinhalte um vielfältige Eigenschaften zu erweitern. So kann er multilinguale Untertitel oder auch Audioinhalte anbieten, womit er fremdsprachigen oder auch behinderten Lernenden Zugang zu seinem Material ermöglicht. Er kann auch Inhalte für verschiedene Abspielumgebungen bzw. Hardwarevoraussetzungen erstellen, so dass die Darstellung der Inhalte nicht auf ein bestimmtes System beschränkt wird. Mit entsprechend ausgestatteten SMIL-Dokumenten erhält der Lernende die Möglichkeit seine individuellen Abspielwünsche zu wählen (bzw. automatisch anpassen zu lassen). So kann er vorbestimmen, ob es zu einer Präsentation Untertitel gibt und in welcher Sprache sie dargestellt werden. Die Lehrinhalte können je nach verfügbaren Ressourcen dargestellt werden. Wird die Präsentation bspw. als Stream über ein Netzwerk angeboten, so kann das System je nach verfügbarer Bandbreite bestimmen, ob Videos und (ggf.) mit welchen Eigenschaften (Bitrate, Auflösung) angezeigt werden. Alternativ könnten Fotos/Bilder angeboten oder auf derartige Elemente ganz verzichtet werden. Ebenso sind Varianten für Darstellungen auf einem Desktop, einem PDA oder auch auf einem Handy möglich.

Über die Metadaten (Abschnitt 4.3.6, „Metainformation Module“) können E-Learning-Dokumente mit Metainformationen (Informationen über Informationen) versehen werden. So können Angebote besser archiviert, katalogisiert, gesucht und gefunden werden (Indizierung). Neben den Metadaten unterstützt die allgemeine XML-Struktur diese Vorteile ebenfalls.

Ein durchaus bedeutsames Problem der Entwicklung und Verbreitung von E-Learning stellt die fehlende Standardisierung von Darstellungsformaten bzw. Digitalisierung von Inhalten dar. Die Standardisierung von SMIL sichert die Wiederverwendbarkeit und die Interoperabilität der E-Learning-Dokumente. Sie sind leicht und kostengünstig zu vervielfältigen und zu verteilen.

Da SMIL-Dokumente im Plaintext vorliegen, sind sie mit einfachen Mitteln lesbar und editierbar. Die Anforderungen an die Systemumgebung orientieren sich an den darzustellenden Formaten. Das Dokument selber ist mit geringsten Ressourcen editierbar. Grundsätzlich gelten alle Möglichkeiten, Vor- und Nachteile von XML.

SMIL ist leicht erlernbar. Dokumente lassen sich auch ohne vollständige Kenntnisse der Spezifikationen erstellen bzw. editieren. SMIL-Präsentationen lassen sich sukzessiv entwickeln. Teilabschnitte oder ganze Dokumente können somit leicht überarbeitet, erweitert oder aktualisiert werden. Nachteil dieser Eigenschaften ist es, dass SMIL-Dokumente nicht gegen Veränderung oder Vervielfältigungen geschützt werden können. Zwar kann die Datei selbst mit gewissen Schutzmechanismen versehen werden[16], weitere Möglichkeiten existieren aktuell aber nicht (Ausnahme: Streaming). Denkbar wären hier Player, die verschlüsselte SMIL-Dokumente darstellen können oder auch Methoden, die das unerlaubte Vervielfältigen erschweren. Das Problem des fehlenden DRM (Digital Rights Managment) macht sich auch bei den Inhalten bemerkbar. SMIL selber stellt keine Mechanismen zur Verfügung, um diese zu schützen.

E-Learning-Inhalt können mit Hilfe der Linking-Methoden (Abschnitt 4.3.4, „Linking Modules“) um beliebige Informationen erweitert werden. So ist das Verweisen innerhalb des Dokuments genauso möglich, wie das Verweisen auf Informationen außerhalb des Dokuments (Hyperlinks). Das bietet auch die Möglichkeit E-Learning-Inhalte zu verschachteln und komplexe Strukturen aufzubauen. Allerdings sind in den SMIL-Spezifikationen keine Möglichkeiten der Textverlinkung (oder Textformatierung) vorgesehen. Um derartige Funktionalitäten zu erlangen, müssen Textdokumente in Bitmapformate konvertiert und aus diesen heraus verlinkt werden. Alternativ bieten sich hier die proprietären Lösungen RealText oder HTML+TIME an. Abzuwarten bleibt auch, was die W3C-Lösung Time Text bringen wird.

An dieser Stelle soll noch einmal darauf hingewiesen werden, dass die SMIL-Spezifikationen keinerlei Einschränkungen bei darstellbaren Formaten vornehmen. SMIL beschreibt nur die Eigenschaften einer Präsentation, die Aufgabe der Umsetzung übernehmen User-Agenten. Es gilt also zwischen den Möglichkeiten von SMIL selber und den Möglichkeiten der darstellenden Software (Player) zu unterscheiden (siehe auch Abschnitt 5.2, „Player“).[17]

Player ermöglichen dem Lernenden, die Darstellung der Inhalte seinen eigenen Aufnahmefähigkeiten anzupassen. So können Teilabschnitte oder der gesamte Inhalt beliebig wiederholt werden oder die Darstellung an beliebigen Stellen unterbrochen bzw. pausiert werden. Aktuelle Player bieten allerdings nicht die Möglichkeit, die Abspielgeschwindigkeit von Präsentationen zu beeinflussen (was natürlich auch nur bei bestimmten Darstellungsformen sinnvoll wäre).

SMIL und seine Profile bzw. proprietären Nebenentwicklungen (HTML+TIME) bieten Möglichkeiten, die Darstellung von multimedialen E-Learning-Inhalten komplett zu beschreiben oder in umfassendere Projekte zu integrieren. Die einfachste Form stellt dabei die Beschreibung einer Präsentation im Language Profile (siehe auch [12]) zur Darstellung in einem reinen SMIL-Player (AmbulantPlayer Abschnitt 5.2.1, „Ambulantplayer“) dar. Insbesondere hier kommt das TV-like-Schema zum tragen. Für Projekte mit umfangreicheren Anforderungen bietet sich die Lösung von Microsoft mit der Spezifikation HTML+TIME oder das Einbetten des RealPlayers (siehe auch Abschnitt 5.2.2, „RealPlayer“) an. Ebenso gilt das für schon bestehende Projekte, die auf HTML-Basis erstellt wurden. Innerhalb des verwendeten Browsers stehen dann vielfältige Erweiterungen zur Verfügung. E-Learning-Projekte können hier in großem Umfang dynamisch realisiert werden. Die XML-Struktur von SMIL erlaubt es natürlich auch, SMIL-Dokumente dynamisch zu erstellen.

SMIL bietet Möglichkeiten der Interaktion. Allerdings sind bis auf die Linkkonzepte und die Steuerung mittels Ereignissen keine weitere Interaktionen vorgesehen. Um diese zu ermöglichen, muss erneut auf die Varianten HTML+TIME / Einbetten des RealPlayers und dynamische Erstellung (Abschnitt 6.2.8, „Dynamisch generierte SMIL-Dokumente“) verwiesen werden. Die Kombination von SMIL mit anderen Sprachen (hier HTML) oder Anwendungen, bietet zusätzliches Potential für weitere, lernuntertsützende Funktionalitäten. Beispiele dafür sind:

  • History Funktion,

  • Sitemaps,

  • Suchfunktionen,

  • Notizfunktionen,

  • Kommunikation (Chat, Forum),

  • ...

Tabelle 5, „SMIL und E-Learning“ ordnet SMIL in das Anforderungsprofil von Darstellungen von E-Learning-Inhalten ein:

Anforderung Umsetzung
Darstellung von Inhalten in multimedialer Form gewährleistet
zeitliche und örtliche Unabhängigkeit gewährleistet
Lerntempo individuell bestimmbar teilweise gewährleistet
Darstellung aller Medientypen (-formate) gewährleistet, wird von Player oder Systemumgebung beschränkt
Archivier-, Katalogisier- und Wiederverwendbarkeit gewährleistet
Personalisierbarkeit (Sprache, Systemressourcen...) gewährleistet
Behindertenfreundlichkeit gewährleistet
Standardisiert und Einfachheit gewährleistet
Plattformunabhängigkeit gewährleistet
Erweiterbarkeit teilweise gewährleistet (siehe Hypertextfähigkeit)
Integrationsfähigkeit teilweise gewährleistet
Hypertextfähigkeit nicht möglich, alternative Lösungen möglich
Textdarstellung (formatiert) nicht vorgesehen
Interaktivität teilweise gewährleistet
Schutz von Autorenrechten und Daten (Lizenz-/Rechtemanagement - DRM) nicht vorgesehen; teilweise durch Metadaten gegeben

Tabelle 5. SMIL und E-Learning

6.2. Einsatzgebiete von SMIL

Mit seinen Fähigkeiten der zeitsynchronisierten Darstellung unterschiedlicher Multimediaelemente liegt das Einsatzgebiet von SMIL natürlich in Bereichen, die auf medialer Basis darstellbar sind. Dabei liegt seine Stärke insbesondere in der Kombination unterschiedlicher Formate[18]. Dazu sollen im folgenden einige Einsatzmöglichkeiten und Ideen betrachtet werden. Grundsätzlich existieren allerdings keine klaren Grenzen. Die Varianten lassen sich beliebig kombinieren, ergänzen oder verschmelzen. Ebenso ist der Einsatz in Kombination mit anderen Formaten (bspw. HTML) denkbar. Alle Anwendungsfälle profitieren dabei von der Unterstützung von SMIL hinsichtlich der Barrierefreiheit, der Multilingualität und der Freiheit in der Wahl der Medienformate.

Für alle Einsatzmöglichkeiten gilt, dass mit dem Einsatz von SMIL insbesondere das Ziel der Standardisierung von Darstellungstechniken erreicht werden kann und somit ein großes Problem von E-Learning-Umsetzungen gelöst werden würde.

Die resultierenden SMIL-Projekte können sowohl online als auch lokal angeboten bzw. genutzt werden.

6.2.1. SMIL-Spezifikationen für andere Anwendungen

Wie oben beschrieben, handelt es sich bei SMIL um eine XML-basierende Sprache. Die mit der Empfehlung 2.0 stattgefundene Modularisierung unterstützt das Konzept der Wiederverwendbarkeit. So können Teilbereiche von SMIL in andere XML-basierende Standards integriert werden. Einerseits unterstützt das die Sprachentwickler bei ihrer Arbeit, erleichtert andererseits aber auch den Nutzern die Einarbeitung in XML-Standards.

Ein hervorragendes Beispiel für die Integration von SMIL-Teilen in eine andere XML-basierende Sprache stellt SVG dar. SVG gilt als der zukünftige Vektorgrafikstandard für das Internet. Um mit diesem zweidimensionalen Vektorgrafikformat Animationen beschreiben zu können, wurde das Animationsmodul von SMIL (Abschnitt 4.3.1, „Animation“) in den SVG-Standard integriert. In diesem Fall stehen also SMIL-Spezifikationen in SVG der Animation von Informationen zur Verfügung.

Auf diesem Weg kann SMIL-Funktionalität in beliebige andere XML-basierende Sprachen integriert werden.

6.2.2. Animationen

SMIL-Dokumente können Animationen (Abschnitt 4.3.1, „Animation“) beschreiben. Diese können als Ergänzung oder als Alternative von anderen Informationsformaten (insbesondere Text) eingesetzt werden. Sie ermöglichen dem Lehrenden, Modelle von komplexen Vorgängen zu erstellen oder können als Mittel zur Darstellung von Zusammenhängen eingesetzt werden.

Je nach Anwendungsfall sollte allerdings geprüft werden, ob andere Varianten (bspw. SVG) bessere Möglichkeiten zur Animation bieten. Die Animationsfähigkeiten von SMIL laufen eher auf Darstellungseffekte hinaus. Wie in Abschnitt 4.3.1, „Animation“ beschrieben, erfolgt die Animation innerhalb von SMIL durch Manipulation von Attributen. Mit anderen Worten: es kann nur animiert werden, was auch über ein Attribut beschrieben wird. Obwohl sicherlich komplizierte (und mit Kompromissen behaftete) Codekonstrukte zu brauchbaren Ergebnissen führen könnten, dient diese Funktionalität eher einfachen, zeitlich gesteuerten Zwecken. Dazu gehören:

  • Verschieben von Regionen über den Anzeigebereich (root-Bereich),

  • Vergrößern oder Verkleinern von Regionen,

  • Farbveränderungen

Allerdings lassen sich diese durch umfangreiche Konfigurationsmöglichkeiten sehr detailiert steuern.

Diese SMIL-Animationen können dazu eingesetzt werden, um die Aufmerksamkeit (und somit auch die Motivation) des Lernenden zu binden. Neben einfachen Mouseovereffekten (siehe Beispiel 27, „Demo - Mouseovereffekt“) auf Links, als Hinweis auf eine Interaktionsmöglichkeit, oder Blinken von Bereichen, als Hinweis auf ein spezielles Präsentationselement, können auch komplette Regionen "eingeflogen" (siehe Beispiel 15, „Demo - Animation“) oder auch gezoomt (siehe Beispiel 26, „Demo - Zoomen eines Bildes“) werden.

Beispiel 26. Demo - Zoomen eines Bildes

<head>
 ...
 <!-- Attribut fit sorgt fuer das angepasste Skalieren des Bildes -->

 <region id="welcome" top="0" width="50" height="50" right="150" fit="fill"/>
 ...
</head>
<body>
 ...
 <img src="pic/welcome.jpg" region="welcome" >
  <animate targetElement="welcome" attributeName="width" to="200" />
  <animate targetElement="welcome" attributeName="height" to="200" />

 </img>
 ...
</body>

Beispiel 27. Demo - Mouseovereffekt

<head>
 ...
 <!-- Attribut fit sorgt fuer das angepasste Skalieren des Bildes -->
 <region id="welcome" top="0" width="50" height="50" right="150" fit="fill"/>
 ...
</head>

<body>
 ...
 <img id="picture" src="pic/welcome.jpg" region="welcome" >
  <!-- Animation beginnt erst nachdem Maus innerhalb des Bildbereichs -->
  <animate targetElement="welcome" attributeName="width" to="200" begin="picture.inBoundsEvent"/>
  <animate targetElement="welcome" attributeName="height" to="200" begin="picture.inBoundsEvent"/>
 </img>

 ...
</body>

Zu beachten bleibt dabei die Tatsache, dass für die Darstellung anderer Formate möglicherweise spezielle Abspielumgebungen notwendig sind. Für die Darstellung von SVG in Browsern stehen Plug-ins für den Internet Explorer (SVG-Viewer) zur Verfügung. Diese dienen ebenfalls anderen Browser (bspw. Mozilla Firefox 1.0x) zur SVG-Darstellung (Installationshilfe). Die Browser Opera Version 8.0 (SVG-Feature) und Mozilla Firefox 1.5 (SVG-Feature) beinhalten einen SVG-Viewer. Allerdings wurde die Umsetzung des SVG-Standards in den genannten Applikationen im Rahmen dieser Arbeit nicht getestet..

6.2.3. Publikation von Präsenzveranstaltungen

Im Bereich der elektronischen Abbildung klassischer Vermittlungsformen kann SMIL seine Stärken voll ausspielen.

Um Präsenzveranstaltungen in eine digitalisierte und didaktisch sinnvolle Form bringen zu können, werden insbesondere Möglichkeiten benötigt, Video und Audio synchronisiert darzustellen. Dabei gilt es allerdings, neben der Kostenfrage, einige technische Hürden zu bewältigen:

  • Aufnahmetechnik (Kamera, Mikrofon, Positionierung der Technik),

  • Lichtverhältnisse / akustische Verhältnisse,

  • Schnitt,

  • Hardware-Bandbreite vs. Darstellungsqualität,

  • ...

Die Veranstaltung selbst bildet dabei die Zeitachse der Präsentation. Referenzierte Informationen werden synchron an den Vortrag gebunden bzw. in die Präsentation integriert.

Es empfiehlt sich eine Strukturierung der verschiedenen Medienanteile, um die Flexibilität zu verbessern und die Weiterverwendbarkeit der Inhalte zu erleichtern.

Das Ergänzen von Metainformationen soll die Integration in E-Learning-Umgebungen unterstützen (Beschlagwortung).

Die genannten Anforderungen werden von SMIL vollständig abgedeckt. Verfügbare SMIL-Player ermöglichen es darüber hinaus, bei Bedarf in den zeitlichen Verlauf der Darstellung einzugreifen. Somit erhält der Lernende die Möglichkeiten das Lehrtempo seinen Bedürfnissen anzupassen und zusätzlich referenzierte Medien zu studieren.

Folgende Vorgehensweise wird dabei in [20] empfohlen:

  1. Didaktische Zieldefinition, Bestimmung des redaktionellen Aufbaus des Vortrages

  2. Sammlung der Vortragsmaterialien (möglichst Umwandlung in strukturierte Formate)

  3. Aufzeichnung des Vortrages als Audiostrom und als dokumentierenden Video-Rohstrom

  4. Säuberung/Schnitt der Audiodaten, MP3-Kompression, ggf. Umschreibung des Vortrages und Erstellung des Drehbuches für die Synchronisierung der Vortragsmedien

  5. Erstellung bzw. Referenzierung akzessorischer Inhalte: Textdokumente, Abbildungen, Animationen

  6. Integration in ein Content Management Framework (Lehrplattform)

Punkt 2 dieser Aufzählung kann eine besondere Herausforderung darstellen. Die Digitalisierung von Daten auf herkömmlichen Datenträgern (Folien, Dias, Fotos, VHS...) sollte kein Problem darstellen. Genauso wenig wie die Einbindung von digitalen Daten (Powerpoint-Präsentation o.ä., Flash/SVG-Animationen, ...). Die Integration von während der Präsensveranstaltung entstehenden Tafelbildern (o.ä.) ist allerdings nicht trivial. Die einfache Darstellung innerhalb des Videos stellt kaum eine zufriedenstellende Lösung dar. Eine fortgeschrittene Methode wurde an der FU-Berlin entwickelt. Das Projekt nennt sich E-Kreide und stellt das Äquivalent für die herkömmliche Kreidetafel (oder ähnliche Formen) dar. Somit bleibt der Vorteil dieses Instruments, die Präsentation bzw. der Aufbau von Gedankengängen, erhalten. Weil dieses Projekt ein wichtiges Element von Präsenzveranstaltungen digitalisiert, soll im folgenden kurz darauf eingegangen werden.

Der Vortragende schreibt mittels geeigneter Hardware (interaktives Whiteboard) direkt in ein digitales Format. Das entstehende Tafelbild wird in Realzeit auf geeigneten Geräten dargestellt (Monitor, Beamer, ...). Die Darstellung kann mit dem entsprechenden Audiostream unterlegt werden. Zusätzlich kann ein Videobild des Vortrages angeboten werden. Somit steht der gesamte Vortrag digital zur Verfügung.

Die Vorträge können in ein Netzwerk gestellt und mit einem Java-fähigen Browser live verfolgt werden. Bilder, interaktive Dienste und graphische Darstellungen von Funktionen sind integrierbar. Der gesamte Verlauf kann archiviert und zu einem späteren Zeitpunkt erneut aufgerufen werden. Als Player dient ein Java-Applet, dass es ermöglicht sich, zeitlich und räumlich im Vortrag (bzw. Tafelbild) zu bewegen.

Der gespeicherte Vortrag kann nachbearbeitet werden. Dabei können Audio-, Video- und Tafelinhalte (getrennt) bearbeitet oder mit weiteren Materialien ergänzt werden. Dazu kommt der formatunabhängige Medieneditor Exymen zum Einsatz. Das finale Produkt kann auch in Standardvideo-/audioformate (mpeg4, mp3, ...) und in Datencontainer (avi-container) abgelegt werden.

Abbildung 9, „Einsatz von E-Kreide in einem Hörsaal“ und Abbildung 10, „Beispiel einer Darstellung mit Funktionsplott“ zeigen E-Kreide im Einsatz. Die Technologie wird an verschiedenen Hochschulen angewendet. Dazu gehören die TU-Berlin, die FU-Berlin und die FH für Wirtschaft Berlin (Stand jeweils 09.2005).

Einsatz von E-Kreide in einem Hörsaal

Quelle: http://kazan.inf.fu-berlin.de/echalk/gfx/tu-math_sm.jpg

Abbildung 9. Einsatz von E-Kreide in einem Hörsaal

Beispiel einer Darstellung mit Funktionsplott

Quelle: http://kazan.inf.fu-berlin.de/echalk/gfx/Lecture.gif

Abbildung 10. Beispiel einer Darstellung mit Funktionsplott

Mittels E-Kreide angefertigte Vorlesungsmitschnitte, die in gängige Multimediaformate gebracht wurden, können ohne Probleme in SMIL-Präsentationen integriert werden. Leider geht dabei die Möglichkeit der räumlichen Bewegung innerhalb des Tafelbildes verloren. Die direkte Unterstützung von SMIL wurde von den Entwicklern nicht vorgesehen.

Das E-Kreide-Projekt stellt somit einerseits eine Alternative zur Digitalisierung von Präsenzveranstaltungen mit SMIL dar, andererseits können aber auch E-Kreide-Vorlesungen in SMIL-Präsentationen integriert werden, so dass auch dieser Ansatz in einen offenen Standard eingebunden werden kann. Da SMIL, wie schon oft betont, Präsentationen nur beschreibt, und die Darstellung dem Player überlässt, ist eine zukünftige Integration von E-Kreide-Formaten in SMIL-Dokumente nicht ausgeschlossen.[19]

In der Abbildung 11, „Entwicklung einer SMIL-Präsentation auf Grundlage einer Präsenzveranstaltung“ wird noch einmal zusammenfassend die Umsetzung einer Präsenzveranstaltung in eine SMIL-Präsentation dargestellt. Natürlich muss die Grafik nicht vollständig umgesetzt werden. Auch Teillösungen sind denkbar.

Entwicklung einer SMIL-Präsentation auf Grundlage einer Präsenzveranstaltung

Abbildung 11. Entwicklung einer SMIL-Präsentation auf Grundlage einer Präsenzveranstaltung

In dieser Grafik wird auf die Möglichkeit der Nachbearbeitung bzw. Aktualisierung von SMIL-Dokumenten in sofern zurückgegriffen, dass die Entwicklung der Präsentation u.a. von externen Informationszugängen (FAQ, Feedback, ...) beeinflusst wird. Die erwähnten Untertitel können auch in beliebig vielen Übersetzungen eingebaut werden. Auch nachträgliche Kommentare des Autors könnten den Inhalt ergänzen. Es wird deutlich, dass es sehr viele Möglichkeiten gibt die Qualität einer Präsenzveranstaltung, in Form eines SMIL-Dokuments aufzuwerten.

6.2.4. Präsentationen als Slideshows

Slideshows (dt.: Diashows) sind Bilderfolgen, die (i.d.R.) als begleitender Informationsträger zu Vorträgen eingesetzt werden. Als Quasiestandard hat sich dabei das Authoring-tool PowerPoint der Firma Microsoft etabliert. Als kostenlose Alternative empfiehlt sich das Präsentationsmodul aus dem OpenOffice-Paket.

SMIL bietet sich als Pendant dieser Lösungen an. Sie unterstützt alle Funktionalitäten der genannten Präsentationsvarianten. Zusätzlich bringt sie aber auch einige Vorteile mit sich. Dazu im folgenden ein paar (schon bekannte) Beispiele, die sich hier durch ihre Abgrenzung zu herkömmlichen Slideshow-Formaten besonders deutlich auswirken:

  • Metadaten (Indizierbarkeit)

  • Unterstützung von Multilingualität und Barrierefreiheit

  • Kosten

  • Trennung von Inhalt und Struktur

  • ...

Leider stehen noch keine Authoring-tools mit ähnlichem Funktionsumfang und Verbreitung wie die o.g. Tools zur Verfügung. Einen guten Ansatz zu dieser Problematik bietet SMIRK.

SMIL-basierende Slideshows bieten den Vorteil der plattformunabhängigen Darstellbarkeit. Das Einbinden von Medienformaten stellt kein Problem für SMIL dar. SMIL-Dokumente können ohne großen Aufwand an ihre Abspielumgebung angepasst werden. Dazu gehört auch das Parsen in benötigte Ausgabeformen (für RealPlayer oder HTML+TIME für Internet Explorer).

Weiterhin sind Erweiterungen einfacher Slideshows zu umfangreichen Lehrpräsentationen, die Integration weiterer Konzepte (Tests, Demonstrationen, Animationen, ...) oder auch die Einbindung der Slideshow in andere Konzepte (einschließlich (L)CMS) möglich.

Leider kommt in diesem Bereich die fehlende Textunterstützung von SMIL besonders schwer zum tragen. Textseiten könnten zwar in ein Bitmapformat konvertiert werden, dabei geht allerdings jegliche Textstruktur verloren. Die Nutzung der Hypertextfähigkeiten ist ebenfalls nicht möglich, kann allerdings mittels <area>-Element auf eine (Text beinhaltende) Grafik simuliert werden.

Letztendlich bleibt es abzuwägen, ob SMIL für Slideshows eingesetzt werden kann. Bei Inhalten mit keinen oder nur sehr wenigen Texten stellt SMIL eine hervorragende Alternative zu etablierten Formaten dar. Bei Verfügbarkeit von Authoring-Tools, die die Textschwächen von SMIL ausgleichen können, gilt das auch für textlastige Slideshows.

6.2.5. Demonstrationen / Vorführungen

Demonstrationen mittels multimedialer Werkzeuge dienen der plastischen Darstellung von Vorgängen oder Abläufen. Diese können je nach Bedarf aus unterschiedlichsten Perspektiven dargestellt werden. Die Integration verschiedener Medienformate ermöglicht dabei das Ansprechen unterschiedlicher Sinne des Lernenden.

Anwendung können solche SMIL-Dokumente bspw. in der Darstellung von Versuchsabläufen finden. Diese könnten durch Animationen (bspw. Display von Messgeräten) oder Beschreibungen um wichtige Informationen ergänzt werden. Weiterhin sind Darstellungen von Vorgängen möglich, die aus unterschiedlichen Gründen eine technische (Nach-)Bearbeitung benötigen.

6.2.6. Gebrauchsanweisungen / Tutorials

Auch für diese Formen bringen die multimediale Darstellung und die unterschiedlichen Perspektiven viele Vorteile mit sich. Reine textuelle Beschreibungen stoßen in diesen Bereichen schnell an ihre Grenzen oder überfordern das Abstraktionsvermögen des Konsumenten.

Ein einfaches Beispiel soll die Vorteile multimedialer Tutorials illustrieren. Das beschriebene Szenario kann ebenfalls als Beispiel für in Abschnitt 6.2.5, „Demonstrationen / Vorführungen“ vorgestellte Demonstrationen / Vorführungen betrachtet werden und bspw. für Softwareschulungen genutzt werden. Selbstverständlich unterstützt SMIL dabei jede beschriebene Eigenschaft:

Applikationspräsentation: Softwarepakete werden in ihrem Funktionsumfang immer umfangreicher. Selbst die Steuerung der Funktionalitäten mittels einer grafischen Bedienoberfläche (GUI) ermöglicht kaum noch den Überblick zu wahren. Häufig werden solche Produkte durch umfangreiche Dokumentationen (in diesem Fall anwendungsspezifische und nicht entwicklerspezifische) ergänzt. Die Regel stellen dabei Textformate dar. Wobei diese maximal durch grafische Darstellungen ergänzt werden.

Bedienfunktionen und Abläufe innerhalb einer Programmumgebung mit einer GUI als Mensch-Maschine-Schnittstelle, lassen sich aber auch multimedial darstellen. Dazu werden mit einem Desktop-Capturing-Tool die zu dokumentierenden Abläufe auf dem Desktop aufgezeichnet. Diese liegen dann in einem Videoformat vor. Nun können textuelle Beschreibungen um Videopräsentationen ergänzt werden. Auch der komplette Austausch ist möglich. Erweiterungen oder Kombinationen mit Audioinhalten sind natürlich möglich. Animationen und weiterführende Links sind ebenso denkbar.

Ein konkretes Einsatzbeispiel stellt die Dokumentation einer Textverarbeitung dar. Um bestimmte Textbereiche in einer Fettschrift darzustellen, wird i.d.R. der entsprechende Bereich markiert und über ein Auswahlmenü der Textstil auf Fett gesetzt. Dieser Vorgang könnte komplett mit dem Desktop-Capturing-Tool aufgezeichnet werden. Das nun zur Verfügung stehende Video kann in eine SMIL-Präsentation eingebunden, mit Audiobeschreibung(en) versehen und an entsprechender Stelle in der Dokumentation angeboten werden.

6.2.7. SMIL-Templates

Der Begriff Template (dt.: Schablone) beschreibt seine Funktionalität schon vollständig. Das Konzept von Templates wird eingesetzt, um Vorlagen oder auch Grundgerüste zu schaffen. Diese zeichnen sich durch ihre Wiederverwendbarkeit und einfache Editierbarkeit aus. Templates können dem Autor zur Verfügung gestellt werden, um immer wiederkehrende Arbeiten abzukürzen. So stellt Beispiel 7, „Grundstruktur“ ein einfaches Beispieltemplate für ein SMIL-Dokument dar.

Templates können Platzhalter enthalten, die vom Autor oder von einer unterstützenden Software durch Daten ersetzt werden können. Das textbasierende Format von SMIL unterstützt hervorragend den Umgang mit Templates. So können sie leicht von (menschlichen) Autoren genutzt werden. Der eigentliche Vorteil kommt aber erst durch den automatisierten Umgang mit SMIL-Templates zum tragen. XML-unterstützende Werkzeuge können über standardisierte Schnittstellen auf diese Vorlagen zugreifen und sie editieren bzw. befüllen (siehe auch Beispiel 7, „Grundstruktur“).

Templates können aber auch den Autor bei der Erstellung komplexerer Strukturen (wie z.B. Navigation oder Personalisierung) unterstützen. So können dem Anwender vorgefertigte Navigationsstrukturen oder Personalisierungen zur Verfügung gestellt werden. Des weiteren ermöglichen sie, eine gewisse Konsistenz im Layout zu erlangen.

6.2.8. Dynamisch generierte SMIL-Dokumente

Bis auf die zeitliche Steuerung der Präsentation durch (interne) Verlinkung und User-Interface-Events und das Verlinken auf externe Quellen hat SMIL keine weiteren Möglichkeiten der Interaktion. Da SMIL-Dokumente textbasierend sind, bietet es sich an, bekannte Wege der dynamischen Erzeugung zu nutzen.

Mittels CGI ist es möglich, neben Webseiten auch SMIL-Dokumente dynamisch zu erstellen. Dazu werden aus HTML-(Hyperlinks, Formulare) oder auch direkt aus SMIL-Dokumenten (Hyperlinks) serverseitig Programme aufgerufen. Diese Programme werden auf dem Webserver durch entsprechende Laufzeitinterpreter ausgeführt. Bekannte Vertreter dieser Laufzeitinterpreter sind Perl oder PHP. Deren Programmcode wird auch als Skript bezeichnet. Natürlich sind auch andere serverseitige Technologien, wie z.B. ASP oder auch JSP einsetzbar.

Den Skripten können aus den entsprechenden clientseitigen Dokumenten heraus (über den Webserver) Parameter übergeben werden. Die serverseitig aufgerufenen Programme, ergänzt durch Aufrufparameter, reagieren dann entsprechend ihrer Vorgaben. Diese können darin bestehen, ein SMIL-Dokument zu generieren. Das Generieren kann auch mit Hilfe der o.g. Templates geschehen. Dabei werden die Platzhalter in den Templates von den Skripten mit Daten aufgefüllt.

Neben der Einflussnahme auf die Programmierung kann der Autor die Templates anpassen, die Mediendaten editieren und die Daten der Datenbank beeinflussen. Er hat somit die komplette Kontrolle über die clientseitig dargestellten Dokumente bzw. Inhalte.

Abbildung 12, „Generieren von SMIL-Dokumenten“ zeigt den möglichen Ablauf einer solchen Dokumentengenerierung. Die Multimediadateien existieren in diesem Beispiel außerhalb des Generators. Aus der Datenbank werden nur die Pfade zu den Dateien in die Templates eingefügt.

Generieren von SMIL-Dokumenten

Abbildung 12. Generieren von SMIL-Dokumenten

Die Einsatzbereiche dieser Technologie sind sehr umfangreich. Sie stellt eine ideale Grundlage für WBT dar.

Es sind reine SMIL-basierende oder kombinierte Lösungen denkbar. Zwei einfache Szenarien sollen dazu als Beispiel beschrieben werden:

  1. Navigation in großen SMIL / Multimedia-Archiven

    Es kann eine Grundnavigation z.B. in Form eines Registers oder Indexes erstellt werden, die es dem Nutzer erlaubt, konkrete Inhalte aus einem Archiv auszuwählen. Diese Auswahl verlinkt auf eine externe Quelle, ruft also ein Skript auf dem Server auf, das die gewünschten Informationen zusammenstellt, daraus das entsprechende SMIL-Dokument generiert und schließlich dem Nutzer zur Verfügung stellt. Der Nutzer erhält dann nur die Inhalte auf sein Ausgabegerät, die er wünscht.

    Bei dem genannten Register könnte es sich um ein Themengebiet handeln. Dazu kann dem Link/Formular der das entsprechende Skript aufruft ein Parameter mitgegeben werden, der aus einer Menge von möglichen Eigenschaften ein Set zusammenstellt, auf dessen Grundlage die SMIL-Präsentation zusammengestellt wird. Dazu können die einzelnen Mediendateien mit Hilfe der Datenbank mit Metainformationen versehen werden.

    ID Kategorie Gruppe
    1 Huhn Biologie
    2 Sonne Kosmologie
    3 Hund Erziehung

    Tabelle 6. Beispielthemen

    Typ Kategorie Gruppe Pfad
    Video Huhn Biologie ../video/huhn.mpeg
    Image Huhn Ernährung ../pic/haehnchen.jpg
    Video Hund Erziehung ../video/dogTraining.avi
    Image Sonne Kosmologie ../pic/erde.jpg
    Audio Huhn Biologie ../audio/schrei.mp3
    Image Huhn Biologie ../pic/hahn.jpg

    Tabelle 7. Beispieldaten

    Tabelle 6, „Beispielthemen“ und Tabelle 7, „Beispieldaten“ zeigt ein kleines Beispiel für ein solches Szenario. Ein Navigationselement könnte mit dem Themengebiet "Fliegende Hühner" beschrieben sein. Ein Klick auf das Navigationselement ruft auf dem Server das entsprechende Skript auf und übergibt ihm den Parameter 1. Das Skript stellt auf Grundlage der Informationen aus der Tabelle Beispielthemen eine Anfrage auf die Tabelle Beispieldaten zusammen. Als Ergebnis dieser Anfrage stehen nun die Mediendateien huhn.mpeg, schrei.mp3 und hahn.jpg zur Verfügung. Diese können nun vom Skript in ein SMIL-Dokument-Template eingefügt werden. Das SMIL-Dokument kann nun als Stream oder als komplettes Paket dem Aufrufer zur Verfügung gestellt werden.

  2. Lösung von Übungsaufgaben

    Der Autor kann komplexe Übungen und Aufgaben konstruieren, die in ihrer Beantwortung eine Interaktion mit dem Konsumenten benötigen. Es sind aber auch Hilfestellungen integrierbar, die aus dem jeweiligen Kontext heraus generiert werden können. Weiterhin ist es möglich, Lösungen zu überprüfen und aus diesen, Testergebnisse automatisch zu generieren. Einfachste Form wären hier Multiple-Choice-Aufgaben. Je nach Komplexität der auswertenden Programme sind aber auch andere Übungs- oder Testformen denkbar.

    In Multiple-Choice-Aufgaben wird jede mögliche Antwort mit einem speziellen Link versehen der entsprechende Parameter enthält die das Skript auf dem Webserver auswertet. Nachdem alle Aufgaben durchlaufen wurden, kann dann eine Auswertung auf Grundlage der abgesendeten Informationen erstellt werden.[20]Natürlich könnte die Folgeaufgabe auch von der Lösung der Aufgabe abhängig gemacht oder auch nicht korrekt beantwortet Aufgaben erneut gestellt werden.

    Diese Vorgehensweise kann bspw. bei einem Sprachkurs zum Einsatz kommen. Einfache Vokabelübungen sind hierbei ein Element der Lehre. Das generierte SMIL-Dokument kann aus einem Wort und einer Auswahl von Übersetzungen bestehen. Wird die Maus dabei über ein Antwortfeld bewegt, kann eine Audiodatei mit der Aussprache der jeweiligen Möglichkeit abgespielt werden. Ebenfalls sind Videos mit den Lippenbewegungen denkbar. Ein Mausklick auf die vermeintliche Antwort (Link) ruft dann ein entsprechendes Skript auf, das über Parameter mit den notwendigen Informationen (Fragender, aktuelle Frage, Antwort) versehen wird. Daraus können dann statistische Werte ermittelt werden. Häufig falsch beantwortete Fragen könnten dann intensiver Trainiert werden.

6.2.9. Integration in (L)CMS

CMS (Content Managment Systeme) dienen der Verwaltung von Daten (Inhalten). Sie bieten mindestens zwei Schnittstellen. Eine für administrative Zwecke und eine für den Konsumenten. CMS sollten, um unterschiedliche Formatierungen (HTML, PDF, ...) der Daten anbieten zu können, ihre interne Datenhaltung medienneutral gestalten.

Um den Ansprüchen der örtlichen und zeitlichen Ungebundenheit gerecht zu werden, kommen i.d.R. Web Content Managment Systeme (WCMS) zum Einsatz. Somit können sie über ein Netzwerk administriert und Daten abgerufen werden.

LCMS (Learning Content Management Systeme) sind eine Spezialisierung von CMS und werden entwickelt um die fortgeschrittenen Formen des E-Learning zu unterstützen.

Um die Möglichkeit zu schaffen, E-Learning-Inhalte zwischen unterschiedlichen LCMS austauschen zu können, wurde das Sharable Content Object Reference Model (SCORM) entwickelt. Dieser Standard wurde von der Advanced Distributed Learning (ADL) Initiative entwickelt. Sie wurde vom US-Verteidigungsministerium ins Leben gerufen (und finanziert) und hat das Ziel, neue und kostengünstige Technologien für die Ausbildung zu entwickeln. Lerninhalte sollen damit folgende Eigenschaften erhalten:

  • Wiederverwendbarkeit

  • Erreichbarkeit

  • Kompatibilität / Interoperatibilität

  • Plattformunabhängigkeit

  • Dauerhaftigkeit / Haltbarkeit

Beteiligt an der Standardisierungsgruppe sind auch: das AICC (Aviation Industry Computer-Based Training Committee), das IEEE (Institute of Electrical and Electronics Engineers), das ARIADNE (Alliance of Remote Instructional Authoring & Distribution Networks for Europe) und das IMS (Instructional Management System) [19] [32]. Aktuell (September 2005) liegt die Version SCORM 2004 vom Januar 2004 vor.

Die Basis für diesen Standard bilden die Dokumente der IMS Content Packaging Working Group. Sie beschreiben die Datenstruktur zur Verpackung von Lerninhalten und treffen Aussagen zu deren Ablageort [31]. Das Ergebnis stellen Lernpakete dar, die zwischen unterschiedlichen Lernplattformen austauschbar sind. Die digitalisierten Lerninhalte werden durch ein Asset-Model beschrieben. Dieses Modell ist sehr einfach gehalten. Es integriert weder SMIL noch schließt es sie aus. Eigenschaften wie zeitliches und räumliches Verhalten, Interaktion- und Streaming von Inhalten werden nicht erfasst.

Diese Lernpakete werden durch ein XML-Manifest beschrieben und integrieren unterschiedliche Daten, wobei deren Formate nicht explizit spezifiziert wurden. SMIL-Dokumente lassen sich in diese Lernpakete integrieren. Grundsätzlich entsprechen SMIL-Dokumente den (o.g.) Anforderungen bzw. Zielen des SCORM.

Ein Beispiel für ein LCMS mit Unterstützung von IMS/SCORM Content Packaging specifications stellt das Open-Source-LCMS ATutor dar. Es beinhaltet eine SCORM 1.2 Runtime Environment (LMS RTE3) zur Darstellung und Verwaltung von SCORM-konformen Inhalten. Das Produkt wird allerdings weder als SCORM Adaptor, noch als Users of IMS Specifications auf den jeweiligen Webseiten der Institutionen bestätigt.

6.2.10. Verwaltung von Multimediadaten

Zwar wurde die SMIL-Spezifikation nicht explizit dafür entwickelt, trotzdem bietet das Metadaten-Modul (Abschnitt 4.3.6, „Metainformation Module“) eine interessante zusätzliche Anwendungsmöglichkeit.

Es existieren unterschiedliche Ansätze für die Verwaltung / Archivierung von Multimediadateien. SMIL ermöglicht das Hinzufügen von Metadaten in beschreibende Dokumente. Somit bietet es sich an, Multimediadateien mit SMIL zu beschreiben. Diese Variante der Beschlagwortung von Daten ermöglicht eine einfache Archivierung bzw. Indizierung. Das SMIL-Dokument enthält dann die Metadaten und den Verweis zum physischen Ablageort der Multimediadatei.[21]

Ein Beispielszenario:

Für einen Astronomiekurs stehen sehr viele Multimediadateien zur Verfügung. Insbesondere Fotos, Animationen und Videos liegen in großer Anzahl vor. Mit Hilfe der Metadaten können diese nun systematisiert werden.

Dazu wird eine Menge von <meta>-Elementen gebildet, die über die Attribute content und name spezifiziert werden. So können hier bspw. Unterscheidungen nach Kategorie, Unterkategorie, Aufloesung, Gruppe, Untergruppe und Schluesselwort erfolgen. Diese Informationen werden im <head>-Bereich der SMIL-Datei angegeben. Der <body>-Bereich enthält dann in einem Media Objekt Element (siehe Abschnitt 4.3.5, „Media Object Modules“) den Pfad zu der jeweiligen Ressource. Diese kann dann mit einem SMIL-Player angezeigt werden. Eine Beschreibung der angezeigten Datei kann ebenfalls im <head>-Bereich mittels Metadaten erfolgen oder im <body>-Bereich integriert werden und ggf. mit angezeigt werden. Zusätzlich kann auch in diesem Szenario mit Hilfe von Content Control (siehe Abschnitt 4.3.2, „Content Control“) die Darstellung um entsprechend angepasste Zusatzinformationen (bspw. Sprache) erweitert werden.

Beispiel 28, „Codefragmente für Anwendung von Metadaten“ zeigt einige Codefragmente aus den SMIL-Dateien.

Beispiel 28. Codefragmente für Anwendung von Metadaten

<head>
 ...
 <meta name="Publisher" content="Mueller" />
 <meta name="Kategorie" content="Foto" />
 <meta name="Unterkategorie" content="Rotfilter" />
 <meta name="Gruppe" content="Milchstrasse" />

 <meta name="Untergruppe" content="Wegasystem" />
 <meta name="Schluesselwort" content="Sonne" />
 <meta name="Beschreibung" content="Protuberanzen" />
 <layout>
  <region id="screen" ...>
 </layout>

</head>
<body>
 ...
 <par>
  <img src="pic/wega_sun.jpg" region="screen" />
  <text src="data:,Die%20Wegasonne%20mit%20Rotfilter" />
 </par>

 ...
</body>
<head>
 ...
 <meta name="Publisher" content="Maier" />
 <meta name="Kategorie" content="Video" />
 <meta name="Unterkategorie" content="Standard" />

 <meta name="Gruppe" content="Milchstrasse" />
 <meta name="Untergruppe" content="Wegasystem" />
 <meta name="Schluesselwort" content="Sonne" />
 <meta name="Beschreibung" content="Protuberanzen" />
 <layout>
  <region id="screen" ...>

 </layout>
</head>
<body>
 ...
 <par>
  <img src="video/wega_sun.mpeg" region="screen" />
  <text src="data:,Die%20Wegasonne%20mit%20stationaeren%20Protuberanzen." />

 </par>
 ...
</body>
<head>
 ...
 <meta name="Publisher" content="Maier" />
 <meta name="Kategorie" content="Foto" />

 <meta name="Unterkategorie" content="Infrarot" />
 <meta name="Gruppe" content="Milchstrasse" />
 <meta name="Untergruppe" content="Wegasystem" />
 <meta name="Schluesselwort" content="Planet" />
 <meta name="Beschreibung" content="Dritter Planet" />
 <layout>

  <region id="screen" ...>
 </layout>
</head>
<body>
 ...
 <par>
  <img src="pic/wega_thirt_planet.jpg" region="screen" />

  <text src="data:,Der%20dritte%20Planet%20des%20Wegasystem." />
 </par>
 ...
</body>

Mit geeigneten Suchwerkzeugen kann nun auf eine Anfrage hin ein Set von Multimediadateien zusammengestellt und angezeigt werden. Die Suche nach der Untergruppe Wegasystem würde dann alle drei Dokumente anbieten, eine Suchanfrage nach dem Schlüsselwort Sonne die ersten beiden und in Verbindung mit der Kategorie Video nur die zweite Datei anbieten.

Dem Lehrenden wird somit die Möglichkeit geboten ohne zusätzlichen Aufwand (Datenbankanwendung) Multimediadateien zu verwalten und sie parallel dazu mit den notwendigen Abspielinformationen zu versorgen und dabei auf den Funktionsumfang von SMIL zurück zugreifen.

6.2.11. Fazit

Letztendlich gibt es viele Einsatzgebiete von SMIL im E-Learning-Bereich und darüber hinaus.. Durch ihre Nähe zu HTML sind viele HTML-Anwendungen auch mit SMIL denkbar. Dabei bleibt es aber abzuwägen welcher Sprache man den Vorzug gibt. Werden synchronisierte Beschreibungen multimedialer Inhalte benötigt, stellt SMIL die erste Wahl dar. Liegt der Schwerpunkt auf textlastigen oder interaktiven Anwendungen, sollte HTML den Vorzug erhalten. Die beste Lösung bietet aber die Kombination beider Sprachen.

Je nach Komplexität und Inhalt kommen dabei die unterschiedlichsten SMIL-Module zum Einsatz. I.d.R. werden dabei mindestens die Elemente des BasicProfile ([15]) benötigt.

6.3. E-Learning mit SMIL

Um E-Learning-Inhalte mit SMIL zu beschreiben, sind verschiedene Anforderungen zu erfüllen. Neben dem technischen Umfeld muss natürlich auch das potentielle Autorenteam gewisse Voraussetzungen mitbringen. Didaktische Kenntnisse sollten durch ein Basiswissen im Umgang mit multimedialen Inhalten ergänzt werden. Erfahrungen und Kenntnisse im Bereich Mediendesign sind ebenfalls von Vorteil. Im Idealfall steht dem Bildungsanbieter eine eigene (geeignete) Abteilung zur Erstellung von E-Learning-Materialien zur Verfügung. Deren Mitglieder sollten dann mindestens über Kenntnisse der genannten Schwerpunkte verfügen.

Zur Erstellung von E-Learning-Inhalten mit SMIL bieten sich zwei Vorgehensweisen an. Diese lehnen sich an bekannte Techniken aus dem Bereich des Software-Engineering an.

  1. Wasserfallmodell

    Diese methodische Vorgehensweise wird in Abbildung 13, „Wasserfallmodel“ in seiner erweiterten Form dargestellt. Der gesamte Workflow wird hier in verschiedene Phasen separiert. Das Model entwickelt sich grundsätzlich von links oben nach rechts unten. Allerdings ist es möglich, bei Bedarf zurück in eine vorhergehende Phase zu gehen.

    Wasserfallmodel

    Abbildung 13. Wasserfallmodel

    Um die Abläufe nicht in ein so extrem enges Konzept wie das Wasserfallmodell zu zwängen, kann die Erstellung von SMIL-Dokumenten auch an das V-Modell-Konzept angelehnt werden.

  2. Evolutionäre Model (auch Prototyping)

    Mit verhältnismäßig geringem Aufwand wird ein erster Prototyp erstellt, der im weiteren Verlauf den Anforderungen entsprechend verfeinert, erweitert und verbessert wird.

Die Vorgehensweise nach dem Wasserfallmodel (oder besser V-Modell) kann durchaus als der Idealfall betrachtet werden, obwohl sie auch einige Nachteile (bspw. Unflexibilität bei Änderungen von Anforderungen) mit sich bringt. Sie setzt sehr gute Vorkenntnisse und Erfahrungen im gesamten Workflow voraus. Für die Praxis bedeutet das, dass an den entsprechenden Institutionen die o.g. spezielle Abteilungen geschaffen werden müssten, die sich ausschließlich mit der Erstellung von E-Learning-Dokumenten befassen können. Diese Abteilungen wären aber mit zusätzlichen Investitionen verbunden, die dem Anspruch der kostengünstigen Entwicklung entgegenwirken.

Zur Integration von E-Learning in Bereiche, die keine IT-Ausbildung mit sich bringen, bietet sich (zum Einstieg) das Evolutionäre Modell an. Hier können Lehrende sukzessiv Projekte erstellen. Dazu steht SMIL mit seiner einfachen Erlernbarkeit zur Verfügung. SMIL-Dokumente können auf Basis einer einfachen Struktur immer weiter verfeinert, erweitert und (hoffentlich) verbessert werden.

Für die Installation von E-Learning-Inhalten unter Einsatz von SMIL in Lehrbereiche ohne spezielle Abteilungen oder IT-Kompetenz soll im folgenden ein einfaches Szenario entwickelt werden. Es kann als Beispielszenario betrachtet werden, das in seinen Abläufen und Strukturen nicht bindend ist:

Diese Variante lehnt sich an eine Technik an, die im Bereich des Software-Engineering als Prototyping bezeichnet wird und orientiert sich dabei an der in Abschnitt 6.2.3, „Publikation von Präsenzveranstaltungen“ empfohlenen Vorgehensweise. Sie unterstützt das Blended Learning und ermöglicht Lehrkräften, parallel zur Präsentationsentwicklung die SMIL-Spezifikationen und deren Anwendung kennen zu lernen. Neben einiger Hardwarevoraussetzungen, wie Kamera und Mikrofon, werden dazu nur ein Standard-PC (incl. Betriebssystem, ...) und SMIL benötigt. Zusätzliche Applikationen wie Schnittsoftware, Video- und Audiocodecs ergeben sich aus den spezifischen Anforderungen.

Schritt 1: Basis dieses Szenarios soll eine Präsenzveranstaltung sein. Diese wird mit einer Videokamera aufgezeichnet. Als vorteilhaft erweist sich dabei der Einsatz eines externen Mikrofons, um eine saubere Audioqualität zu gewährleisten. Idealerweise liegt nun eine digitale Kopie der Präsenzveranstaltung vor. Dieses Video/Audiomaterial kann nun mit Hilfe von SMIL in eine auf verschiedenen Plattformen darstellbare Form gebracht werden. Dazu genügt ein einfacher Texteditor. Dem Lehrenden bietet sich an dieser Stelle als zusätzlicher Vorteil die Möglichkeit, seinen Vortrag zu überprüfen.

Schritt 2: Als nächsten Schritt bietet es sich an, den Inhalt (z.B. nach Schwerpunkten) zu zerlegen.[22]Die Einzelteile können dann in einem SMIL-Dokument in die angestrebte Reihenfolge gebracht und indiziert werden. Nun kann eine Navigation (Menü) für die Präsentation erstellt werden, die dem Lernenden die Möglichkeit gibt, spezifische Inhalte direkt aufzurufen. Die Segmentierung erlaubt es ebenfalls einzelne Teile auszutauschen oder anderweitig zu überarbeiten. Aber auch eine Neuordnung der Inhalte ist möglich. So können bspw. aufgetretene Fragen und Antworten in einem speziellen Bereich gesammelt werden.

Bis hierher sind SMIL-Elemente aus den Bereichen Structure (Abschnitt 4.3.7, „Structure Module“), Layout (Abschnitt 4.3.3, „Layout Modules“), Timing und Synchronisation (Abschnitt 4.3.8, „Timing and Synchronization Module“) und Media Objekcts (Abschnitt 4.3.5, „Media Object Modules“) zum Einsatz gekommen.

Schritt 3: Da das Dokument nun die Darstellung von Audio und Video beschreibt, deren Datenmenge u.U. sehr umfangreich sind, können nun die einzelnen Teile auf ressourcenschonende bzw. -angepasste Größe gebracht werden. So können die Video- und Audiodateien in Formate konvertiert werden, die auch bei schmalen Bandbreiten noch eingesetzt werden können. Je nach Bedarf sind unterschiedliche Varianten denkbar. Diese können nun parallel in das SMIL-Dokument integriert werden und mittels Content Control (Abschnitt 4.3.2, „Content Control“) mit den jeweiligen Anforderungen verbunden werden.

Schritt 4: Liegen nun die Inhalte in einer gewünschten Form vor, können diese durch Verlinkung auf zusätzliche bzw. ergänzende Informationen aufgewertet werden. Dabei könnte es sich um das veranstaltungsbegleitende Skript handeln. Auch hier bietet es sich an, das Skript zu segmentieren und es dann synchron zum Verlauf der Veranstaltung in das entsprechende SMIL-Dokument zu integrieren. Die Verknüpfung wird durch das Linking Module (Abschnitt 4.3.4, „Linking Modules“) geregelt. Wird auf externe Informationen verwiesen, die über ein Netzwerk zur Verfügung gestellt werden, wechselt das Dokument von einer lokalen Variante (CBT) in eine Netzwerkvariante (WBT).

Die Definition von Animationen (Abschnitt 4.3.1, „Animation“) direkt innerhalb des SMIL-Dokumentes ermöglichen ebenfalls die Inhalte aufzuarbeiten bzw. erweitert die Darstellungsmöglichkeiten von Inhalten[23].

Schritt 5: Um das Projekt einem erweiterten Personenfeld anbieten zu können, besteht nun die Möglichkeit, die Informationen für unterschiedliche Zielgruppen aufzuarbeiten. So können die Vorträge mit Untertiteln versehen werden. Somit steht die Präsenzveranstaltung auch gehörgeschädigten Personen zur Verfügung (denkbar ist auch eine synchrone Darstellung in Gebärdensprache). Untertitel in verschiedenen Sprachen unterstützen den internationalen Anspruch. Natürlich können auch mehrere Audiospuren in verschiedenen Sprachen eingebaut werden. Möglich ist es ebenfalls, Audiobeschreibungen von Inhalten zu integrieren, um einer sehbehinderten Zielgruppe gerecht zu werden. Das kann vom einfachen Vorlesen des Skripts (oder des Tafelbildes...) bis hin zu Beschreibungen von Vorgängen (Experimente, Animationen...) gehen. Neben der Integration von genannten Inhalten ermöglicht SMIL dabei die zeitliche Anpassung der Darstellungen[24].

Schritt 6: Abschließend kann die Präsentation mit Metadaten versehen werden.

Um dem Model der evolutionären Entwicklung gerecht zu werden, sei an dieser Stelle darauf hingewiesen, dass es im gesamten Entwicklungsverlauf ständig problemlos möglich ist, Veränderungen vorzunehmen oder auch unterschiedliche Entwicklungszweige zu testen.

Als Beispiel für einen alternativen Ansatz (Entwicklungszweig) soll folgendes (Teil-)Szenario stehen: Das Segmentieren des kompletten Video-/ Audiomaterials im Schritt 2 kann auch unter einem anderen Kontext erfolgen. So bietet es sich an, die einzelnen Segmente direkt in das Skript einzubinden. Jedes Segment stellt dann eine einzelne SMIL-Präsentation dar. Dazu muss allerdings das Format indem das Skript vorliegen soll die Technik des Einbindens fremder Formate bzw. Player (User-Agenten) erlauben. Liegt das Skript bspw. im HTML-Format vor, stellt die Integration der SMIL-Dokumente kein Problem dar (siehe auch Abschnitt 5.2, „Player“). Dabei bleibt zu entscheiden, ob die Darstellung der Präsentation extern erfolgt oder ob es das Layout des Skripts erlaubt, diese innerhalb der Seite darzustellen. Anschließend können die Abläufe der Schritte 3, 4, 5, ... ebenfalls durchgeführt werden.

Abbildung 14, „Eine Beispielpräsentation im Ambulant Player“ zeigt ein mögliches Ergebnis des dargestellten Szenarios.

Eine Beispielpräsentation im Ambulant Player

Abbildung 14. Eine Beispielpräsentation im Ambulant Player

Das Hauptvideo wird hier im Bereich (1) dargestellt. Bei zugeschalteter Untertitelfunktion kann im Bereich (5) der jeweils zugehörige Untertitel in der gewünschten Sprache angezeigt werden. Im Rechten Bereich werden hier Grafiken oder Animationen (2), das Tafelbild (3) oder auch Links (4) angezeigt. Die Regionen (2), (3) und (4) können je nach Bedarf aktiviert oder deaktiviert werden. Die Gesamtpräsentation wurde in diesem Beispiel in vier Schwerpunkte unterteilt. Diese können über den Navigationsbereich (6) angewählt werden.

Dieses Szenario stellt natürlich nur einen einfachen Entwurf bzw. Vorschlag dar. Es sollte aber Anlass geben, den Einsatz von SMIL auch im Praxisbereich in Betracht zu ziehen.

In diesem Zusammenhang soll die Idee der SMIL-Templates noch einmal aufgegriffen werden. Die Struktur von SMIL bietet die Möglichkeit, so genannte Templates (Muster) zu erstellen, um notwendige Grundstrukturen als Standardlösungen vorzugeben. Diese Muster können von Spezialisten erstellt und der breiten Masse zur Verfügung gestellt werden. Auch dieser Ansatz unterstützt die Integration und die Akzeptanz von E-Learning (incl. SMIL) in der Lehrpraxis.

Eine andere sicherlich besser strukturierte Vorgehensweise stellt die Einteilung des Projektes in Phasen dar (s.o.). Besonders in der Entwurfsphase kann dabei das Konzept des Storyboards eingesetzt werden. Es stellt einerseits eine Kreativitätstechnik dar und dient der thematischen Sortierung von Inhalten. Informationen sollen auf Kernbotschaften fokussiert, zu schlüssigen Argumentationen strukturiert und visualisiert werden. Andererseits trägt das Storyboard bei Einsatz von Video- und Audioformaten durchaus den aus der Filmindustrie bekannten Drehbuchcharakter.

Das Produkt, die SMIL-Präsentation (oder das Skript), kann nun auf einem Datenträger (CD-ROM, DVD, ...) oder über ein Netzwerk (Internet, Intranet) den Lernenden zur Verfügung gestellt werde. Im letzteren Fall hat der Autor die Möglichkeit, seine Präsentation ständig zu erweitern oder zu aktualisieren. Er kann die Inhalte auch auf Hinweise anderer Lehrender oder Spezialisten hin anpassen oder auf die Reaktionen von Lernenden reagieren. So kann er Fehler korrigieren, nicht eindeutige Formulierungen überarbeiten oder unklare Inhalte durch transparentere Darstellungserweiterungen besser präsentieren. Er ist in der Lage, kurzfristig auf eingehende Rückmeldungen zu reagieren. Dazu ist es nicht notwendig, das gesamte Projekt zu erneuern. Es reicht aus, die spezifischen Teile zu überarbeiten.

Eine Integration in eine bestehende Lernplattform ist ebenso möglich. So kann bspw. das SMIL-Dokument einfach in die (o.g.) Lernplattform ATutor (siehe auch Abschnitt 6.2.9, „Integration in (L)CMS“) eingebunden werden:

Bei ATutor handelt es sich um ein webbasierendes LCMS. Die Applikation steht als Open Source (GNU General Public License (GPL)) zur Verfügung. Sie wurde mit Hinblick auf einfache Anwendung (für Administrator und Lehrenden), Barrierefreiheit und Anpassungsfähigkeit entwickelt. Das LCMS setzt auf die Datenbank MySQL auf, wurde in PHP programmiert und benötigt einen HTTP Web Server (empfohlen wird Apache) [22].

Die notwendigen Mediendateien können ebenfalls von diesem System verwaltet werden. Dazu wird die entsprechende Verzeichnisstruktur mit Hilfe des File-Managers auf das System kopiert (Abbildung 15, „ATutor Filemanager“). Dabei kann praktisch die Verzeichnisstruktur vom lokalen System erhalten bleiben. Änderungen der Struktur müssen natürlich im Code angepasst werden. Das System bietet zur Unterstützung die Möglichkeit, gepackte Verzeichnisse hochzuladen. Diese können dann vom Filemanager entpackt werden.[25]

ATutor Filemanager

Abbildung 15. ATutor Filemanager

Inhalte werden in ATutor mittels HTML definiert. So kann die SMIL-Präsentation als Link in eine Seite eingefügt werden (Abbildung 16, „ATutor Inhaltsbearbeitung“). Alternativ stehen die HTML+TIME Variante für den Internet Explorer (Abschnitt 5.2.3, „MS Internet Explorer 5.5+“) oder die Anwendung des RealPlayers (Abschnitt 5.2.2, „RealPlayer“) als Browser-Plugin zur Verfügung.

ATutor Inhaltsbearbeitung

Abbildung 16. ATutor Inhaltsbearbeitung

Abbildung 17, „ATutor Beispielseite“ zeigt die Darstellung der einfachen Beispielseite im ATutor-System.

ATutor Beispielseite

Abbildung 17. ATutor Beispielseite

Natürlich können auch externe Ressourcen genutzt werden. Besser ist allerdings die Verwaltung innerhalb eines Systems. Die fertigen Lernpakete können SCORM-kompatibel exportiert und somit auf verschiedenen SCORM-konformen LCMS eingesetzt werden. Alternativ können auch fertige SCORM-Packete importiert werden, so dass eine Erstellung auch Offline durchgeführt werden kann.

Abschließend noch eine Bemerkung zum Design der Darstellung multimedialer Inhalte. Der Verlauf der Entwicklung wird vom Einsatz verschiedener SMIL-Elemente begleitet, die die Qualität der Darstellung aufwerten. Dazu gehören neben layout-technischen Aspekten auch Elemente zur Beschreibung von Übergängen zwischen Inhalten (Transitionen Abschnitt 4.3.10, „Transition“). Diese sollten allerdings sparsam und nur zur Unterstützung der Inhalte eingesetzt werden. Da diese Thematik sehr umfangreich ist, soll an dieser Stelle nur darauf hingewiesen werden, dass SMIL hervorragende Möglichkeiten bietet, die dieses Feld abdecken.

7. Schlussbemerkungen

Man muss zum Auge reden, will man verstanden werden.[26]Diese Aussage beschreibt das, was wir heute unter Visualisierung von Inhalten verstehen. Sie ermöglicht eigentlich abstrakte Sachverhalte in eine allgemein verständliche Form zu konvertieren. Auch anderen Sinne wie Tast- oder Geruchssinn (haptische und olfaktorische Wahrnehmung) können zur Unterstützung des Lernens hinzugezogen werden. Bspw. könnten einem angehenden Koch oder einem Chemiestudenten Geruchsinformationen zur Verfügung gestellt werden oder ein Schlosserlehrling zusätzlich mit Temperatur- oder Vibrationsinformationen versorgt werden.

Die Kombination von Informationen, die auf unterschiedlichen Kanälen den Konsumenten erreichen, erweitern die Lehrmöglichkeiten enorm. Sie bieten die Möglichkeit einer transparenten und plastischen Darstellung von Informationen. Ebenso ermöglichen sie Lehrinhalte redundant vorzuhalten. Somit können Barrierefreiheit und Multilingualität realisiert werden.

Ein dritter Gesichtspunkt stellt der Anspruch nach Standardisierung dar. Die standardisierte Beschreibung, Klassifizierung und Bewertung von Lerninhalten in qualitativer, quantitativer und semantischer Hinsicht soll den problemlosen Austausch zwischen Lehrenden bzw. Anbietern von Lehrinhalten und konsumierenden Lernern ermöglichen. Dem Lehrenden muss es möglich sein, seine Lehrinhalt so aufzubereiten, dass er sie einer möglichst breiten Masse von Konsumenten zur Verfügung stellen kann. Anders herum betrachtet, sollen Lernende Zugriff auf eine möglichst große Menge von solchen Inhalten haben. Natürlich unterstützt die Standardisierung der Beschreibung von Inhalten auch die Interessen der Industrie hinsichtlich des Handels mit Informationen.

Ein solcher Standard stellt die Synchronized Multimedia Language dar. Sie ermöglicht die komplette Beschreibung von multimedialen Darstellungen. Wichtigster Aspekt ist dabei die anderen Spezifikationen fehlende Definition des zeitlichen Ablaufs von multimedialen Zusammenstellungen. SMIL liegt in einer Version 2 vor. Letzter Stand ist die W3C Proposed Recommendation 27 September 2005.

Mit der XML-basierenden Spezifikation wird eine kompletten Trennung von Beschreibung und Inhalt umgesetzt. Inhalte können somit dezentral gehalten werden. Dabei sind den einsetzbaren Formaten keine Grenzen gesetzt. Das Problem der Darstellung wird auf die User-Agenten verlegt.

SMIL ist einfach gehalten, lehnt sich in Syntax und Semantik an bekannte Sprachen an und ist frei verfügbar. Das spricht natürlich hinsichtlich der Kosten für SMIL. SMIL-Dateien lassen sich auf allen denkbaren Speichersystemen vorhalten. Der Code wird in Textdateien (Plaintext) formuliert. Er benötigt somit grundsätzlich nur einfache und (vor allem) überall verfügbare Texteditoren und ist jederzeit einseh- und bearbeitbar. Daraus ergibt sich allerdings auch der Nachteil, dass SMIL-Dokumente (zumindest ohne zusätzlichen Aufwand) nicht geschützt werden können. Deshalb ist der Einsatz im kommerziellen Bereich (Handel mit Lehrinhalten) kaum denkbar, was der Durchsetzung des Standards entgegen wirkt.

Dem Anwender steht eine ausführliche, im Hypertextformat vorliegende Dokumentation Online zur Verfügung [35]. Eine Single File HTML Variante und ein Zip-Archiv stehen zum Download bereit, so dass auch Lokal darauf zugegriffen werden kann.

Die Textstruktur von SMIL kommt den Anforderungen von automatisierter/dynamischer Bearbeitung oder Erstellung entgegen.

Der umfangreiche, in einer XML-Sprache formulierte, offene Standard lässt sich über seine Modularisierung und Profilierung entsprechend den Anforderungen aufsplitten und zu neuen Substandards definieren. Leider führt dieser vermeintliche Vorteil zu einem großen Problem von SMIL: die inkonsistente Verbreitung [27]. Die vielfache Aufsplittung des Standards hat dazu geführt, dass sich SMIL (noch) nicht als Gesamtstandard durchgesetzt hat. Unterschiedliche Institutionen und Organisationen nutzen nur Teile des Standards. Als Ergebnis dieser Tatsache stehen keine User-Agenten zur Verfügung, die uneingeschränkt das Potential von SMIL ausschöpfen.

Obwohl nicht explizit erwähnt, geht SMIL mit den SCORM-Anforderungen konform und lässt sich in SCORM-Packete integrieren. Die im SCORM formulierten Anforderungen hinsichtlich der Möglichkeit, Metadaten zu führen, werden von SMIL ebenfalls erfüllt.

Ebenso existieren kaum Anwendungen, die den Demo- oder Teststatus verlassen haben. Somit sind umfangreiche Evaluierungen von praktischen Einsätzen kaum möglich.

SMIL als E-Learning-Contentsprache bietet sich unter Einschränkungen an. Der Schwerpunkt liegt dabei auf der Darstellung multimedialer Inhalte. Mit den derzeitigen Möglichkeiten erlaubt SMIL dabei ein Grundformat, dass sich mit den so genannten TV-like-Formaten (insbesondere Nachrichtensender), ergänzt um Interaktivität, Inhaltskontrolle und Metadaten, vergleichen lässt.

SMIL selber definiert keine Möglichkeiten der Textformatierung oder Hypertextfunktionalität. Für diesen Anwendungsfall sind nur Notlösungen (Konvertierung in Bitmapformate) einsetzbar. Ebenso bringen die Interaktionsmöglichkeiten von SMIL Einschränkungen mit sich. Insbesondere die Kommunikation ist auch nur mit Hilfe erweiterter Lösungen realisierbar.

Die Spezifikation bietet mit ihrem Content Control Modul (Abschnitt 4.3.2, „Content Control“) hervorragende Möglichkeiten, Lehrinhalte multilingual und barrierefrei anzubieten. Ein weiterer Vorteil stellt die Anpassbarkeit der SMIL-Präsentation an die jeweilige Systemumgebung dar. Leider werden diese Möglichkeiten von den existierenden Abspielmöglichkeiten nur unzureichend bzw. eingeschränkt benutzt.

Die folgenden Zusammenstellung stellt einen Überblick über Pro und Contra von SMIL als E-Learning-Contentsprache zusammen, wobei hier auch Aspekte erscheinen, die nur sekundär den E-Learning-Bereich betreffen:

Fakt Pro-SMIL Contra-SMIL
Standardisierung von einer großen, übergeordneten, weltweit anerkannten und unabhängigen Organisation
X
Verfügbarkeit, Plattformunabhängigkeit, Kompatibilität und Interoperatibilität, Haltbarkeit
X
Trägheit bei Änderungen
Verbreitung - X
Zusammenspiel mit anderen Standards X
X
Erschwert die Durchsetzung des Standards selbst
zeitliche Beschreibung multimedialer Inhalte X -
Trennung von Beschreibung und Inhalt X
X
erschwert die Entwicklung von User-Agenten (Multiformate)
kostenlos X -
Multilingualität möglich X -
Barrierefreiheit möglich X -
Metadaten möglich X -
Plaintextformat X
X
kein Schutz der Dokumente
kein Digital Right Managment - X
automatisierte Erstellung möglich X -
Einfachheit / Erlernbarkeit / Robustheit / Haltbarkeit X -
Dokumentation X - (englischsprachig)
formatierte Textdarstellung - X
Interaktivität
X
Linking, Eventhandling
X
keine Kommunikation (Parameter)
verfügbare Software - X
Anpassbar an Systemumgebung X -

Seine wirklichen Stärken im E-Learning-Bereich kann SMIL nur in Zusammenarbeit mit weiteren Standards (HTML) und Erweiterungen (RealNetworks siehe auch Abschnitt 5.2.2, „RealPlayer“) oder angelehnten Lösungen (HTML+TIME siehe auch Abschnitt 5.2.3, „MS Internet Explorer 5.5+“) ausspielen. Diese bringen die Eigenschaften mit sich die SMIL fehlen bzw. in existierenden User Agenten nicht implementiert sind.[27]

Die Synchronized Multimedia Integration Language kann somit in dieser Form nicht als tragendes Element zur Darstellung von E-Learning-Inhalten eingesetzt werden. Insbesondere wenn zusätzlich die aktuell verfügbaren SMIL-Tools (sowohl Authoring-Tools als auch Player) betrachtet werden. SMIL hat allerdings das Potential, insbesondere in Kombination mit anderen (quasi-)standardisierten Spezifikationen, hervorragende Dienste im multimedialen Bereich zu leisten und somit zu einem wichtigen Bestandteil von E-Learning zu werden.

Literaturverzeichnis

Bücher

[1] Keil-SlawikReinhard,KerresMichael, Wirkung und Wirksamkeit Neuer Medien in der Bildung, Waxmann, Münster/New York/München/Berlin, 2003

[2] MayerRichard E., Multimedialearning, Cambridge University Press, 2001

[3] BultermannDick C.A.,RutledgeLloyd, SMIL 2.0 Interactive Multimedia for Web and Mobile Devices, Springer, Berlin, 2004

[4] GoetzFrank, SMIL - Multimedia im Internet mit Realsystem G2, Addison-Wesley, München, 2000

[5] KochDaniel, Praxisbuch XHTML, Addison-Wesley, München, 2001

[6] OttmannThomas

(Hrsg.)

, E-Learning für die Hochschule, Waxmann, Münster, 2003

[7] SeufertSabine,BackAndreaHäuslerMartin, E-Learning Weiterbildung im Internet, SmartBooks Publishing AG, 2001

Internetdokumente

[8] Hoschka, Phillip, W3C Talk , www.w3.org/Talks/2001/06CSMIL/Overview.html (Stand: 08.08.2005)

[9] Synchronized Multimedia Integration Language , W3C, http://www.w3.org/AudioVideo/ (Stand: 09.08.2005)

[10] Synchronized Multimedia Integration Language (SMIL 2.0) - [Second Edition], W3C, www.w3.org/TR/2005/REC-SMIL2-20050107/ (Stand: 09.08.2005)

[11] Synchronized Multimedia Integration Language (SMIL 2.1) , W3C, www.w3.org/TR/2005/CR-SMIL2-20050513/ (Stand: 09.08.2005)

[12] Language Profile , W3C, www.w3.org/TR/2005/CR-SMIL2-20050513/smil21-profile.html (Stand: 16.08.2005)

[13] Mobile Profile , W3C, www.w3.org/TR/2005/CR-SMIL2-20050513/smil21-mobile-profile.html (Stand: 16.08.2005)

[14] Extended Mobile Profile , W3C, www.w3.org/TR/2005/CR-SMIL2-20050513/smil21-extended-mobile-profile.html (Stand: 16.08.2005)

[15] Basic Profile , W3C, www.w3.org/TR/2005/CR-SMIL2-20050513/smil-basic.html (Stand: 16.08.2005)

[16] XML , The World Wide Web Consortium, www.w3.org/TR/2004/REC-xml-20040204/ (Stand: 16.08.2005)

[17] Ambulantmail , http://www.ambulantplayer.org/pipermail/ambulant-users/2005-July/000029.html (Stand: 16.08.2005)

[18] HTML+TIME , Microsoft, http://msdn.microsoft.com/library/default.asp?url=/workshop/author/behaviors/reference/time2/htime_node_entry.asp (Stand:10.09.2005)

[19] ADL-FAQ , ADL, http://www.adlnet.org/scorm/faqs/index.cfm (Stand: 28.09.2005)

[20] Hoffmann, Frank, Vorträge und Vorlesungen online publizieren , http://www.medvalue.net/live/medvalue/content/e83/e413/index_ger.html (Stand: 08.08.2005)

[21] SCORM-compliant SMIL-enabled Multimedia Streaming E-Learning System in Java EJB Environment , http://www2003.org/cdrom/papers/poster/p345/p345-li.pdf (Stand:10.09.2005)

[22] ATutor , http://www.atutor.ca/atutor/docs/index.php (Stand:30.09.2005)

[23] Medienverarbeitung in Java - Einleitung , http://www.dpunkt.de/leseproben/3-89864-184-8/Einleitung.pdf (Stand:05.10.2005)

[24] Oberseminar - Multimedia, Virtuelle Realität und zugehörige Entwicklungswerkzeuge - SMIL, http://www-info2.informatik.uni-wuerzburg.de/mitarbeiter/holger/lehre/osss01/selbach/osss01_selbach.pdf (Stand:05.10.2005)

[25] Standards - SMIL 2.0 , http://www.umiacs.umd.edu/~daqingd/Courses/lbsc690/fall03/readings/smil-reading.pdf (Stand:05.10.2005)

[26] SMIL and SVG in teaching , Horst Eidenberger, http://www.ims.tuwien.ac.at/media/documents/publications/ei2004-teaching.pdf (Stand:05.10.2005)

[27] Vortrag: SMIL - Synchronized Multimedia Markup Language , Robert König, Humboldt-Universität zu Berlin, http://www.informatik.hu-berlin.de/~obecker/Lehre/SS2003/XML/SMIL/ (Stand:05.10.2005)

[28] SMIL - Synchronized Multimedia Integration Language , Kurs: WPF Basistechniken, FH-Düsseldorf, Prof. Marmann http://www.medien.fh-duesseldorf.de/html/knowledgebase/public/papers/smil/smil.html (Stand:05.10.2005)

[29] Audiovisuelle Medien im Netz , Skriptum zu der Lehrveranstaltung Medientechnik 3, FH-Hagenberg, http://cheapkarma.de/med3/index.html (Stand:05.10.2005)

Wikipedeadokumente

[30] SMIL , http://de.wikipedia.org/wiki/SMIL (Stand: 28.09.2005)

[31] IMS Content Packaging , http://de.wikipedia.org/wiki/IMS_Content_Packaging (Stand: 28.09.2005)

[32] SCORM , http://de.wikipedia.org/wiki/Scorm (Stand: 28.09.2005)

[33] E-Learning , Wikipedia, http://de.wikipedia.org/wiki/E-Learning (Stand:10.09.2005)

[34] Wissenschaft , Wikipedia, http://de.wikipedia.org/wiki/Wissenschaft (Stand:10.09.2005)

Internetseiten

[35] SMIL , W3C, http://www.w3.org/AudioVideo/ (Stand:10.09.2005)

[36] SMIL-Tutorials , http://www.multimedia4everyone.com/ (Stand:05.10.2005)

[37] LU Multimedia 2: Technologien, TU-Wien, Dr. Horst Eidenberger, ao. Univ. Prof., http://www.ims.tuwien.ac.at/teaching_detail.php?ims_id=188181 (Stand:05.10.2005)

[38] HTML4 , W3C, http://www.w3.org/TR/html4/ (Stand:10.09.2005)

[39] SELF-HTML , http://de.selfhtml.org/ (Stand:10.09.2005)

[40] RealNetworks Production Guide , http://service.real.com/help/library/guides/realone/ProductionGuide/HTML/realpgd.htm (Stand:10.10.2005)

A. Eidesstattliche Erklärung

Ich, Jens Werner, erkläre hiermit an Eides statt, dass ich die vorliegende Bachelor-Arbeit selbständig und ohne unerlaubte Hilfe angefertigt, andere als die angegebenen Quellen und Hilfsmittel nicht benutzt und die den benutzten Quellen wörtlich oder inhaltlich entnommenen Stellen als solche kenntlich gemacht habe.

     
     
     
     
     
     
  Forst, den _________________________________
    Jens Werner

B. Quelltexte

1. HTML+TIME

<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN">
<html xmlns:t="urn:schemas-microsoft-com:time">
 <head>
  <meta name="title" content="SMIL Demo"/>
  <meta name="generator" content="GRiNS Pro for SMIL 2.0, v2.2 win32 build 141"/>

  <style>
   .time {behavior: url(#default#time2)}
  </style>
  <?IMPORT namespace="t" implementation="#default#time2">
 </head>
 <body>
  <div id="xhtml_smil_export"
     style="position:absolute;overflow:hidden;left:20;top:20;width:600;height:400;">

   <div id="demo" 
      style="position:absolute;overflow:hidden;left:0;top:0;width:600;height:400;
             background-color:yellow;">
    <div id="pic" 
      style="position:absolute;overflow:hidden;left:0;top:0;width:600;height:320;
             background-color:#ffffcc;z-index:1;">
    </div>
    <div id="buttons" 
      style="position:absolute;overflow:hidden;left:0;top:320;width:600;height:80;
             background-color:#eeffbb;z-index:1;">
    </div>
    <t:seq id="m1">

     <t:seq id="m2">
      <div id="welcome" 
        style="position:absolute;overflow:hidden;left:150;top:0;width:300;
               height:200;z-index:3;"
        class="time" begin="1" dur="6s" timeContainer="par">
       <div id="m3" 
         style="position:absolute;overflow:hidden;left:0;top:0;width:300;height:200;"
         class="time">
        <t:img id="m3_m" src="Demo.html.data/welcome.jpg" 
          style="position:absolute;overflow:hidden;left:0;top:0;width:100%;height:100%;"/>
        <t:animate id="m4" begin="1" dur="3s" fill="freeze" 
          targetElement="welcome" attributeName="top" from="0" to="200"/>
        <t:transitionFilter type="fade" subtype="crossfade" 
          targetElement="m3" dur="1" begin="welcome.begin" mode="in" from="0" to="1"/>

        <t:transitionFilter type="fade" subtype="crossfade" 
          targetElement="m3" dur="1" begin="welcome.end-1" mode="out" from="0" to="1"/>
       </div>
      </div>
      <t:par begin="1" dur="indefinite" id="m5">
       <div id="buttons_2" 
         style="position:absolute;overflow:hidden;left:0;top:320;width:600;
                height:80;background-color:#eeffbb;z-index:1;"
         class="time" fill="freeze" timeContainer="par">
        <div id="link" 
          style="position:absolute;overflow:hidden;left:530;top:10;width:60;
                 height:60;z-index:2;"
          class="time">

         <div id="m6"
           style="position:absolute;overflow:hidden;left:0;top:0;width:100%;height:100%;"
           class="time">
          <map id="m6map">
           <area id="a6" href="http://www.w3.org/" 
             show="new" sourcePlaystate="pause" shape="rect" coords="0,0,60,60">
          </map>
          <img id="m6_m" src="Demo.html.data/link.gif" 
            style="position:absolute;overflow:hidden;left:0;top:0;width:100%;height:100%;"
            usemap="#m6map"/>
         </div>

        </div>
       </div>
       <div id="buttons_3"
         style="position:absolute;overflow:hidden;left:0;top:320;width:600;
                height:80;z-index:1;"
         class="time" fill="freeze" timeContainer="par">
        <div id="regButton0" 
          style="position:absolute;overflow:hidden;left:80;top:10;width:80;
                 height:60;z-index:2;"
          class="time">
         <div id="button0" 
          style="position:absolute;overflow:hidden;left:0;top:0;width:100%;height:100%;"
          class="time">
          <a href="#">

           <img id="button0_m" src="Demo.html.data/button0.jpg"
             style="position:absolute;overflow:hidden;left:0;top:0;width:100%;height:100%;"/>
          </a>
         </div>
        </div>
       </div>
       <div id="buttons_4"
        ...
       </div>

       <div id="buttons_5"
        ...
       </div>
       <t:excl dur="indefinite" id="m11">
        <t:par begin="0;button0.click" id="m12">
         <div id="pic_2" 
           style="position:absolute;overflow:hidden;left:0;top:0;width:600;
                  height:320;background-color:#ffffcc;z-index:1;"
           class="time" dur="indefinite" timeContainer="par">
          <div id="m13" 
            style="position:absolute;overflow:hidden;left:0;top:0;width:100%;height:100%;"
            class="time">
           <t:img id="m13_m" src="Demo.html.data/pic0.jpg" 
             style="position:absolute;overflow:hidden;left:0;top:0;width:100%;height:100%;"/>

          </div>
         </div>
         <t:switch id="m14">
          <t:audio id="m15" src="Demo.html.data/audio0_de.mp3"
            systemAudioDesc="on" systemLanguage="de"/>
          <t:audio id="m16" src="Demo.html.data/audio0_en.mp3"
            systemAudioDesc="on" systemLanguage="en"/>
         </t:switch>

        </t:par>
        <t:par begin="button1.click" id="m17">
         ...
        </t:par>
        <t:par begin="button2.click" id="m22">
         ...
        </t:par>

       </t:excl>
      </t:par>
     </t:seq>
    </t:seq>
   </div>
  </div>

 </body>
</html>

C. Glossar / Abkürzungen

3

  • 3GPP

    Third Generation Partnership - Kooperation weltweiter Mobilfunkstandardisierungsgremien (siehe auch http://www.3gpp.org/ (Stand 16.08.2005))

A

  • ASP

    Active Server Pages - von Microsoft entwickelte Technologie, die mittels Scriptsprachen serverseitig Webseiten erzeugt

  • AVI

    Audio Video Interleave - Container für verschiedene Formate (Video / Audio)

C

  • CGI

    Common Gateway Interface - Methode zur dynamischen Anbindung von Internet-Seiten an den Server

  • CMS

    Content Managment System - Verwaltung von Daten mit Trennung von Inhalt und Struktur

  • CSS

    Cascading Style Sheets - eine deklarative Stylesheet-Sprache für strukturierte Dokumente (wie z.B. HTML)

D

  • Didaktik

    Theorie und Praktik des Lehrens und Lernens

  • DTD

    Document Type Definition - Legt die Struktur eines XML-Dokuments fest

  • DOM

    Document Object Model - ist eine API, die beschreibt, wie man programmiersprachenunabhängig auf XML_Dokumente zugreift

  • DRM

    Digital Right Managment - digitale Rechteverwaltung, dient dem Schutz von Urheber- und Verwertungsrechten an immateriellen Gegenständen (geistiges Eigentum)

H

  • Hemisphärentheorie

    Basierent auf Forschungsarbeiten der amerikanischen Neurologen Roger Sperry und Robert Ornstein, wird angenommen, dass beiden Gehirnhälften auf verschiedene Weise arbeiten und erst ihr Zusammenspiel das Potential ausschöpft

  • HTML

    Hypertext Markup Language - Dokumentenformat zur Beschreibung von Informationen in Hypertexten im WWW

  • Hyperlink

    Verweis auf ein anderes Element in einem Hypertext

  • Hypertext

    Innerhalb von Dokumenten erfolgt eine nicht-lineare Organisation von Informationen durch logische Verbindungen zwischen Informationmengen

J

  • JSP

    JavaServer Pages - ein von Sun Microsystems entwickelte Technologie, die zur einfachen, serverseitigen, dynamischen Erzeugung von Webseiten dient

L

  • LCMS

    Learning Content Management System - Verwaltung von Lehrinhalten (siehe CMS)

M

  • MPEG

    Moving Picture Experts Group (http://www.chiariglione.org/mpeg/ (Stand 05.10.2005))

P

  • PHP

    Hypertext Preprocessor - Scriptsprache (http://www.php.net/ (Stand 05.10.2005))

  • Perl

    Scriptsprache - (http://www.perl.org/ (Stand 10.10.2005))

R

  • RDF

    Resource Description Framework - dient als Model zur Repräsentation von Metadaten (siehe auch http://www.w3.org/TR/rdf-schema/ (Stand 05.10.2005))

S

  • SVG

    Scalable Vector Graphic - Vektorgrafikformat auf XML-Basis http://www.w3.org/Graphics/SVG/ (Stand 16.08.2005)

T

  • Tag

    (dt. Marke, Etikett) - dient der Auszeichnung eines Datenbestandes mit zusätzlichen Informationen

W

  • W3C

    World Wide Web Consortium - Gremium zur Standardisierung des World Wide Web

  • WWW

    World Wide Web

X

  • XML

    Extensible Markup Language

  • XML-Parser

    Software, die Struktur und Eigenschaften der Daten eines XML-Dokuments bestimmt

  • XMT

    Extensible MPEG-4 Textual format - Framework zur Scenenbeschreibung in der MPEG-4 Specifikation http://www.chiariglione.org/mpeg/standards/mpeg-4/mpeg-4.htm (Stand 16.08.2005)



[1] Quelle: http://de.wikipedia.org/wiki/Wissenschaft

[2] http://de.wikipedia.org/wiki/E-Learning

[3] http://www.managerseminare.de/msemi/2691445/frontend/elexikondaten.html?kat=2000&urlID=39152

[4] [1], E-Learning - Quo Vadis, Seite 209

[5] http://www.w3.org/AudioVideo/Activity.html (09.08.2005)

[6] Da das <body>-Element seine Kind-Elemente nacheinander abspielt, könnte im Beispiel 11, „Demo - Timing (a)“ auf das <seq>-Element verzichtet werden.

[7] Ein Transitionseffekt zum Ausblenden wird mit dem Attribut transOut festgelegt. Ein Transitionseffekt zwischen zwei aufeinanderfolgenden Bildern ist ebenfalls möglich. Dazu wird das Attribut fill="transition" gesetzt und der Transitioneffekt des zweiten Medienobjektes würde dem Übergang dienen.

[8] Für den Anforderungsfall der Bewegung von Objekten ist in der SMIL-Spezifikation das Spezialelement <animateMotion> vorgesehen, dass die Behandlung dieser Aufgabe stark vereinfacht.

[9] Das Einfügen des Elements: <audio src="audio/audio2_default.mp3" systemAudioDesc="on" /> würde die Möglichkeit bieten, eine Audiodatei, für den Fall das keine der beiden Sprachumgebungen vorliegt, zu definieren.

[10] Die selbe Funktionalität wäre auch mit <a href="..."><ref src="..."/></a> realisierbar.

[11] Wie schon erwähnt beschreibt SMIL allerdings nicht nur audiovisuelle Formate. Diese Beschränkung ist rein technischer Natur.

[12] Die Belegung des Attributes dur="indefinite" führte dazu, dass das Tool das gesamte <par>-Element (Zeilen 35 bis 63) ignorierte. Erst die Angabe eines konkreten Wertes für das dur-Attribut, führte zum Erkennen dieses Bereiches.

[13] Bspw. funktioniert im Beispiel 18, „Demo - XML-Source“ (Zeile 31) das Ausblenden des Bildes nicht korrekt. Weiterhin musste beim Linking auf die Variante mit dem <area>-Element zurückgegriffen werden, da die Standardvariante mit dem <a>-Element nicht korrekt funktionierte (Beispiel 18, „Demo - XML-Source“ Zeile 37)

[14] So wäre es z.B. denkbar, die nur eingeschränkten Möglichkeiten der Personalisierung, mittels Skriptsprachen, Webserveranwendungen bzw. dynamischer Erstellung von Webseiten (-inhalten), auszuräumen.

[15] So schließt die SMIL-Spezifikation bspw. die Darstellung von Gerüchen mit ein. Die technische Umsetzung ist allerdings kaum gegeben.

[16] Lokale Rechte wie READ oder WRITE.

[17] So ist es zum Beispiel mit den aktuellen Playern nicht möglich PDF- oder SVG-Dokumente darzustellen.

[18] Die Darstellung eines einzelnen Formates ist sicherlich ebenso denkbar, aber dafür existieren genügend Alternativen.

[19] Mit den derzeit verfügbaren Playern ist es allerdings nur möglich, die oben erwähnten avi-Container darzustellen. Ein Abspielen von vollständigen E-Kreide-Formaten benötigt natürlich einen entsprechenden Player. Dieser existiert im Augenblick nicht.

[20] Bestenfalls kommt dabei auf dem Webserver ein Sessionmanagment zum Einsatz, dass es erlaubt, Daten auf dem Server zu speichern.

[21] Um dabei standardisierte Beschreibungsstrukturen (Schemata) benutzen zu können, sei an dieser Stelle auf den MPEG-7-Standard verwiesen, der prinzipiell den selben Ansatz verfolgt.

[22] Mit einfachen und kostenlos erhältlichen Werkzeugen (bspw. VirtualDub)

[23] SVG bietet dabei über Animationen mit Effektfunktion hinaus die besseren Möglichkeiten.

[24] Bspw. kann die Darstellung des Videoteils automatisch pausieren, bis das Vorlesen des Skripts abgeschlossen wird.

[25] Abbildung 15, „ATutor Filemanager“ zeigt ein Verzeichnisbeispiel ohne Inhalte.

[26] Herder, Johann Gottfried (1744-1803), dt. Philosoph. und Theologe

[27] In diesem Zusammenhang lassen sich Parallelen zur Umsetzung von IPv6 erkennen. Solange kombinierte (Not-)Lösungen Schwächen einer Spezifikation ausgleichen, wird sich der Standard nur sehr schwer durchsetzen und entwickeln.