Personal tools
You are here: Home MPEG-7 & MPEG-21 Software & Tools developed by the Community Comparison of Metadata Standards

Comparison of Metadata Standards

by harald last modified Nov 19, 2008 10:50 AM

Comparison of Metadata Standards (in German) by Harald Kosch and Sabine Maschauer

PIC

Forschungsbericht

Strukturierter Vergleich aktueller
Multimedia Metadatenstandards

Sabine Maschauer, Prof. Dr. Harald Kosch


Lehrstuhl für Verteilte Informationssysteme
Fakultät für Mathematik und Informatik
Universität Passau

Juli 2008

Zusammenfassung

In der vorliegenden Arbeit wird das Thema "Strukturierter Vergleich aktueller Multimedia Metadatenstandards" bearbeitet. Dabei werden als Metadatenstandards MPEG-7, TV-Anytime, P/META, DMS-1 und Dublin Core behandelt. Jeder Standard wird zunächst vorgestellt und der Aufbau erläutert.

Ausgehend von MPEG-7 wird dann für jeden Standard ein ausführlicher Vergleich angestellt. Dabei wird darauf geachtet, dass die Elemente semantisch die gleiche Bedeutung haben. Oft haben sie bereits den selben Namen, sollte dies nicht der Fall sein, so wird nach der Beschreibung der einzelnen Elemente gegangen. Nicht immer können korrespondierende Elemente gefunden werden, in diesem Fall wird überprüft, ob die Information in anderer Weise im Zielstandard gespeichert werden kann.

Weiter wird in der Arbeit auf vergleichbare Arbeiten eingegangen und diese werden kurz erläutert. Anschließend wird noch für jeden Standard ein Beispiel ausgearbeitet. Dabei wird von einem Beispiel in MPEG-7 ausgegangen, welches in die anderen Standards übersetzt wird.

Inhaltsverzeichnis

1 Einleitung
2 MPEG-7
 2.1 Aufbau
  2.1.1 Basic Elements
  2.1.2 Content Description und Content Metadata
  2.1.3 Content Organization
  2.1.4 Navigation and Access
  2.1.5 User Interaction
3 TV-Anytime
 3.1 Aufbau
  3.1.1 Content Description Metadata
  3.1.2 Instance Description Metadata
  3.1.3 Consumer Metadata
  3.1.4 Segmentation Metadata
  3.1.5 TV-Anytime programme information document
 3.2 TV-Anytime und MPEG-7
 3.3 Vergleich von TV-Anytime mit MPEG-7
4 P/Meta
 4.1 Aufbau
  4.1.1 Programme Group Components
  4.1.2 Programme Components
  4.1.3 Item Group Components
  4.1.4 Item Components
  4.1.5 Media Object Components
  4.1.6 Contract and Rights Components
  4.1.7 Audio, Video and Data Technical Components
  4.1.8 Others Components
 4.2 Vergleich von P/Meta mit MPEG-7
5 Dublin Core
 5.1 Aufbau
 5.2 Vergleich von Dublin Core mit MPEG-7
6 SMPTE
 6.1 Aufbau
  6.1.1 Die DM Frameworks
  6.1.2 Die DMS-1 Sets
  6.1.3 Der Thesaurus und sein Gebrauch
 6.2 Vergleich von DMS-1 mit MPEG-7
7 Ähnliche Arbeiten
 7.1 Birth metadata
 7.2 Vergleich von Dublin Core und MPEG-7
  7.2.1 Moving Image Collections
  7.2.2 Medina
 7.3 Vergleich von DMS-1 mit Dublin Core in SMPTE 380M
8 Vergleich aller Standards
9 Beispiel
 9.1 MPEG-7
 9.2 TV-Anytime
 9.3 P/Meta
 9.4 Dublin Core
 9.5 SMPTE
10 Schlusswort
Literatur

Nomenclature

ATSC Advanced Television Systems Committee
B2B Business to Business
B2C Business to Consumer
BBC British Broadcasting Corporation
CRID content reference identifier
D Descriptor
DCMI Dublin Core Metadata Initiative
DDL Description Definition Language
DM Descriptive Metadata
DMS-1 Descriptive Metadata Scheme
DS Description Scheme
DVB Digital Video Broadcasting
EBU European Broadcasting Union
EPG Elektronischer Programm Guide
ETSI European Telecommunications Standards Institute
IEC International Electrotechnical Commission
IFTA International Federation of Technical Analysts
ISO International Organization for Standardization
MDS Multimedia Description Schemes
MPEG Moving Picture Experts Group
MXF Material Exchange Format
P/FTA Future Television Archives
SMEF Standard Media Exchange Framework
SMPTE Society of Motion Picture and Television Engineers
UMID Unique Material Identifier
URI Uniform Resource Identifier
W3C World Wide Web Consortium
WWW World Wide Web
XML Extensible Markup Language

1 Einleitung

Unter Metadaten ("Daten über Daten") versteht man strukturierte Daten, mit deren Hilfe eine Informationsressource beschrieben und dadurch besser auffindbar gemacht wird. Der Begriff geht zwar dem Web-Zeitalter voraus, findet aber vor allem im Zusammenhang mit modernen elektronischen Informationssystemen seine Anwendung. Von Tim Berners-Lee, dem Erfinder des World Wide Web und Direktor des W3C, stammt die Definition: "Metadaten sind maschinenlesbare Informationen über elektronische Ressourcen oder andere Dinge."

Metadaten liefern also Grundinformationen über ein Dokument, wie z.B. Angaben über Autor, Titel oder Zeitpunkt der Veröffentlichung, und reproduzieren damit im Prinzip genau das, was an Erschließungsarbeit in den Bibliotheken seit jeher geleistet wurde. Und genau wie jedes bibliothekarische Regelwerk setzt auch der effektive Einsatz von Metadaten einen gewissen Standardisierungsgrad voraus. Doch dieser Standardisierungsgrad hat bei den herkömmlichen Bibliotheksregelwerken inzwischen ein so hohes Komplexitätsniveau erreicht, dass sich unmöglich auf die dramatisch anwachsende Fülle von Dokumenten in elektronischen Netzen wie dem WWW übertragen lässt. Hinter dem Begriff der Metadaten steht deshalb auch die Suche nach neuen Ansätzen in der Ressourcenbeschreibung und nach den entsprechenden Verfahren der Informationsvermittlung, die auf einen effizienten und kostengünstigen Einsatz in elektronischen Netzen hin optimiert sind. Insgesamt erhebt die gegenwärtige Metadatendiskussion den Anspruch, dass damit bessere Erschließungs- und Retrievalmechanismen angeboten werden können, als sie bisher existieren.

In diesem Zuge werden an vielen Stellen Metadatenstandards entwickelt, meistens angepasst an ein bestimmtes Einsatzgebiet. Neben dem Internet steht heutzutage vor allem auch das digitale Fernsehen hinter dem Begriff der Metadaten. Dieses wird immer flexibler und lässt dem Kunden immer mehr Freiheiten. So kann dieser teilweise selbst bestimmen, wann er einen Film sehen möchte und Informationen über den Film einholen. EPGs sind bereits vielen Leuten ein Begriff. Im Zuge dieser Entwicklung, aber auch mit der Weiterentwicklung des Internets, kommt den Metadaten immer mehr Bedeutung zu. Es konnte sich aber noch kein Standard wirklich durchsetzen. Dadurch treten natürlich Probleme auf, wenn man sich mit anderen Stellen austauschen möchte, da meist jeder einen anderen Standard benutzt.

Es wurden bereits einige Vergleiche zwischen Standards angestellt, wobei meist Dublin Core als Basis verwendet wurde. Daher wird in dieser Arbeit untersucht welche Gemeinsamkeiten und Unterschiede zwischen anderen Standards bestehen und inwiefern eine Transformation von einem Standard in einen anderen möglich ist. Dabei wird von MPEG-7 ausgegangen, da dieser sehr umfangreich und nicht auf ein bestimmtes Gebiet spezialisiert ist.

2 MPEG-7

MPEG-7 ist ein 2002 verabschiedeter ISO Standard (ISO/IEC 15938), der von der Moving Picture Experts Group, kurz MPEG, definiert wurde. Die eigentliche Bezeichnung für MPEG-7 lautet Multimedia Content Description Interface. Generell dient der Standard zur Beschreibung von multimedialen Daten mit Hilfe von Metainformationen. MPEG-7 Metadaten werden in Form eines oder mehrerer XML-Dokumente gespeichert.

MPEG-7 wird benutzt, um verschiedene Aspekte von multimedialen Daten zu beschreiben. Unter anderem standardisiert MPEG-7 Metadaten für

  • das Management von Inhalten hinsichtlich Erzeugung und Verarbeitung, sowie Nutzung der Inhalte
  • die Beschreibung von Inhalten in struktureller und semantischer Hinsicht
  • die Organisation von Inhalten
  • Benutzer-spezifische Daten wie Benutzerprofile
  • Aspekte des Zugriffs auf die Daten wie Ansichten und Zusammenfassungen

Der MPEG-7-Standard ist in folgenden Teilen [1] organisiert:

  • Systems (beschreibt das Speicherformat der MPEG-7-Dokumente)
  • Description Definition Language (die DDL beschreibt die Syntax der MPEG-7 Beschreibungsstruktur)
  • Visuelle Deskriptoren (erfassen Beschreibungsmerkmale von Bildern und Videos)
  • Audiodeskriptoren (spezifizieren von Audiosignalen)
  • Multimedia Description Schemes (die MDS spezifizieren eine Bibliothek an Beschreibungsstrukturen)
  • Referenzsoftware (enthält Beispielimplementationen zur Erzeugung und Verarbeitung von MPEG-7 Descriptors)
  • Conformace (Anleitungen zur Erfüllung der Konformitätsbedingungen, Qualitätskontrolle)
  • Extraction and Use of Descriptions (Anleitung für den Umgang mit inhaltsbasierten Deskriptoren)
  • Profiling (Vereinfachung in der Nutzung durch Beschränkung hinsichtlich des Beschreibungsumfangs)
  • Schema Definition (sammelt die verwendeten XML-Schemata zusammen)
  • Profile Schemas (verschiedene MPEG-7 basierte Profile)
  • Query Format (standardisiert den Zugang zu Multimedia Systemen)

Das MPEG-7 Metadaten System ist aufgebaut aus Description Schemes, Descriptors und Datatypes, beschrieben in Teil 5 [2] des Standards, den Multimedia Description Schemes description tools.

Ein Description Scheme ist eine formale Definition, geschrieben in der MPEG-7 Description Definition Language. Es beschreibt Einheiten oder Beziehungen den multimedialen Inhalt betreffend. Die Struktur und die Bedeutung seiner Komponenten (DSs, D, datatypes) wird spezifiziert.

Ein Descriptor beschreibt ein Merkmal, ein Attribut oder eine Gruppe von Attributen von multimedialem Inhalt.

Ein Datatype ist ein wiederverwendbarer Basisdatentyp, eingesetzt in Description Schemes und Descriptors.

2.1 Aufbau

Die MDS werden nach Funktionalität geordnet. Man kann die Metadaten in folgende Gruppen einteilen:

  • Basic Elements
  • Content Description and Content Metadata
  • Content Organization
  • Navigation and Access
  • User Interaction
2.1.1 Basic Elements

Die Basiselemente sind das Fundament der MDS. Auf ihnen bauen alle anderen Elemente auf. Die folgenden Basiselemente werden definiert.

Schema tools

Die Schema Tools ermöglichen die Erstellung von Descriptions. Dabei stellen die Base Types die Typhierarchie für Description Tools dar und das Wurzelelement beschreibt das Hauptelement von Descriptions. Im Folgenden die Definition des Mpeg7 Wurzelelements:

 
<complexType name="Mpeg7Type" abstract="true"> 
  <sequence> 
      <element name="DescriptionMetadata" 
       type="mpeg7:DescriptionMetadataType" 
       minOccurs="0"/> 
  </sequence> 
  <attribute ref="xml:lang" use="optional"/> 
  <attributeGroup ref="mpeg7:timePropertyGrp"/> 
  <attributeGroup ref="mpeg7:mediaTimePropertyGrp"/> 
</complexType> 
 
<element name="Mpeg7"> 
  <complexType> 
      <complexContent> 
         <extension base="mpeg7:Mpeg7Type"> 
             <choice> 
                <element name="DescriptionUnit" 
                 type="mpeg7:Mpeg7BaseType"/> 
                <element name="Description" 
                 type="mpeg7:CompleteDescriptionType" 
                 minOccurs="1" maxOccurs="unbounded"/> 
             </choice> 
         </extension> 
      </complexContent> 
  </complexType> 
</element>

Listing 1:

mpeg7:Mpeg7Type

Weiter beschreiben die Top-Level Tools die Elemente, die dem Wurzelelement in den Descriptions folgen. Die Multimedia Content Entity Tools beschreiben zum Beispiel verschiedene Typen von Multimediadaten, wie Bilder, Video, Audio, mixed Multimedia, Kollektionen, usw. Dazu im Folgenden die Definition von ImageType:

 
<complexType name="ImageType"> 
  <complexContent> 
      <extension base="mpeg7:MultimediaContentType"> 
         <sequence> 
             <element name="Image" type="mpeg7:StillRegionType"/> 
         </sequence> 
      </extension> 
  </complexContent> 
</complexType>

Listing 2:

mpeg7:ImageType

Die Description Metadata Tools beschreiben Metadaten über Descriptions, auch sie folgen direkt dem Wurzelelement. Sie beinhalten Pakete von Description Tools und Description Metadata über die Entstehung von Descriptions, Rechten, Versionen, usw.

Basic datatypes

Es gibt verschiedene eingeschränkte Integer (1-Bit bis 32-Bit) und Real Datentypen. Weiter gibt es Vektor und Matrix Datentypen, wobei die Matrix Datentypen von den Vektor Datentypen abgeleitet sind. Es gibt dabei verschiedene Datentypen für integer, float und double Vektoren und Matrizen, sowie bestimmte Einschränkungen. Dazu zwei Beispiele:

 
<simpleType name="integerVector"> 
  <list itemType="integer"/> 
</simpleType>

Listing 3:

mpeg7:integerVector

 
<complexType name="IntegerMatrixType"> 
  <simpleContent> 
      <extension base="mpeg7:integerVector"> 
         <attribute ref="mpeg7:dim" use="required"/> 
      </extension> 
  </simpleContent> 
</complexType>

Listing 4:

mpeg7:IntegerMatrixType

Mit Probability datatypes kann man mit Vektoren oder Matrizen Wahrscheinlichkeitsverteilungen darstellen, dazu ein Beispiel:

 
<ProbabilityMatrix mpeg7:dim="222"> 
   1.0   0.0    <!-- P(W=false|R=false,S=false), 
                     P(W=true|R=false,S=false) --
   0.1   0.9    <!-- P(W=false|R=false,S=true), 
                     P(W=true|R=false,S=true) --
   0.8   0.2    <!-- P(W=false|R=true,S=false), 
                     P(W=true|R=true,S=false) --
   0.01  0.99   <!-- P(W=false|R=true,S=true), 
                     P(W=true|R=true,S=true) --
</ProbabilityMatrix>

Listing 5:

mpeg7:ProbabilityMatrix

Die String Datentypen definieren verschiedene kodierte String Repräsentationen, wie

  • mimeType - IANA list of MIME content types (MIMETYPE)
  • countryCode - Country codes as specified in ISO 3166-1:1997 (ISO 3116-1)
  • regionCode - Region codes as specified in ISO 3166-2:1998 (ISO 3116-2)
  • currencyCode - Currency codes as specified in ISO 4217:1995 (ISO 4217)
  • characterSetCode - Character set codes as defined in IANA List of Character Sets (RFC2045- CHARSETS)

Linking, identification und localization tools

Die Linking, identification und localization Tools werden zum Verlinken und Lokalisieren von Daten und Datenteilen eingesetzt.

Es gibt Tools zum Referenzieren von D und DS, Unique Identifiers, Zeit-Beschreibungs Tools und Media Locators (Links zu Multimediadaten).

Basic description tools

Die Basic Description Tools werden als Komponenten zur Bildung anderer Description Tools eingesetzt. Dabei werden verschiedene Tools unterschieden.

Die Language Identification bestimmt die Sprache der textuellen Beschreibung (Description Language) oder der Multimediadaten (Content Language).

Die Text Annotation Tools beschreiben unstrukturierte oder strukturierte textuelle Beschreibungen und Anmerkungen.

Weiter gibt es Tools zur Erstellung von Classification Schemes und Termen. Ein Classification Scheme ist ein Satz von Standardtermen, die eine bestimmte Domäne beschreiben. Jedem Classification Scheme wird eine eindeutige URI zugeordnet. Diese hat folgendes Format:

 
urn:mpeg:mpeg7:cs:SchemeName

Mit den Description of Agents Tools werden Elemente wie Personen, Organisationen oder Gruppen von Personen beschrieben.

Die Description of Places Tools beschreiben Orte, die in den Multimediadaten auftauchen oder in Beziehung zum Inhalt stehen. Das Place DS beschreibt existierende, historische oder fiktive Plätze.

Die Graphs und Relations Tools beschreiben Beziehungen zwischen Description Tool Instanzen und werden zur Strukturierung von Beschreibungen als Graph verwendet.

Die Ordering Tools werden verwendet um Descriptions nach bestimmten Kriterien zu ordnen.

Die Affective Description Tools beschreiben die emotionale Antwort der Zuschauer auf Multimediadaten.

Die Phonetic Description Tools beschreiben verschiedene Arten von phonetischer Information.

2.1.2 Content Description und Content Metadata

Die Content Description und Content Metadata Tools beschreiben die Eigenschaften von Multimediadaten und die zugehörigen unveränderlichen Metadaten.

Media description tools

Die Media Description Tools beschreiben die Medienmerkmale von kodierten Multimediadaten. Die Multimediadaten können in verschiedenen Modalitäten, Formaten, Kodierungsversionen oder mehreren Instanzen verfügbar sein. Diese Tools ermöglichen die Beschreibung einer Originalinstanz von Multimediadaten und der verschiedenen Variationen der Originalinstanz.

 
<complexType name="MediaInformationType"> 
  <complexContent> 
      <extension base="mpeg7:DSType"> 
         <sequence> 
             <element name="MediaIdentification" 
              type="mpeg7:MediaIdentificationType" minOccurs="0"/> 
             <element name="MediaProfile" 
              type="mpeg7:MediaProfileType" 
              minOccurs="1" maxOccurs="unbounded"/> 
         </sequence> 
      </extension> 
  </complexContent> 
</complexType>

Listing 6:

mpeg7:MediaInformationType

Das MediaInformation DS (wie im obigen Listing definiert) besteht aus dem MediaIdentification DS, einem Identifier zur Beschreibung des Inhaltselements und verschiedenen MediaProfile DS Instanzen zur Beschreibung der Sätze von Kodierungsparameterwerten für die verschiedenen Kodierungsprofile.

Creation and production description tools

Die Creation and Production Tools beschreiben die Information über die Erstellung und Produktion von Multimediadaten. Sie stehen in Beziehung zum Inhalt und werden typischerweise nicht im Inhalt beschrieben.

 
<complexType name="CreationInformationType"> 
  <complexContent> 
      <extension base="mpeg7:DSType"> 
         <sequence> 
             <element name="Creation" type="mpeg7:CreationType"/> 
             <element name="Classification" 
              type="mpeg7:ClassificationType" minOccurs="0"/> 
             <element name="RelatedMaterial" 
              type="mpeg7:RelatedMaterialType" minOccurs="0" 
              maxOccurs="unbounded"/> 
         </sequence> 
      </extension> 
  </complexContent> 
</complexType>

Listing 7:

mpeg7:CreationInformationType

Das CreationInformation DS (wie im obigen Listing definiert) besteht aus einem Creation DS für Informationen des Autors über den Erstellungsprozess, null oder mehr Classification DS zur Klassifizierung des Inhalts und null oder mehr RelatedMaterial DS zur Beschreibung zusätzlichen Materials das mit dem Inhalt in Beziehung steht.

Usage description tools

Die Usage Tools beschreiben Informationen über den Gebrauch von Multimediadaten.

 
<complexType name="UsageInformationType"> 
  <complexContent> 
      <extension base="mpeg7:DSType"> 
         <sequence> 
             <element name="Rights" type="mpeg7:RightsType" 
                    minOccurs="0"/> 
             <element name="FinancialResults" 
              type="mpeg7:FinancialType" minOccurs="0"/> 
             <element name="Availability" 
              type="mpeg7:AvailabilityType" 
              minOccurs="0" maxOccurs="unbounded"/> 
             <element name="UsageRecord" 
              type="mpeg7:UsageRecordType" 
              minOccurs="0" maxOccurs="unbounded"/> 
         </sequence> 
      </extension> 
  </complexContent> 
</complexType>

Listing 8:

mpeg7:UsageInformationType

Das UsageInformation DS (wie im obigen Listing definiert) besteht aus einem Rights D der Informationen über bestehende Rechte enthält, null oder mehr FinancialResults D der die Beschreibung von Kosten und Einnahmen durch den Inhalt umfasst und mehreren Availability DS (Details über die Verfügbarkeit) und dazugehörigen UsageRecord DS (Details über den Gebrauch des Inhalts).

Structure description tools

Die Structure Description Tools beschreiben die Struktur der Multimediadaten, dies umfasst folgende Aspekte:

  • Bilder und räumliche Bereiche von Bildern und Videoframes
  • Video, zeitliche Segmente und räumlich-zeitliche Segmente von Videos
  • Audio und zeitliche Segmente von Audio
  • Audio-visueller Inhalt und räumlich-zeitliche Segmente von AV Inhalt
  • Multimediainhalt und Segmente von Multimediainhalt
  • Visueller Text in Bildern und Videos
  • Video Mosaiken
  • Editierte Videos und Segmente von editierten Videos
  • Handschriftlicher Inhalt

Die Tools kann man sowohl auf digitale als auch auf analoge Formen von Multimediainhalt anwenden. Es wird die strukturelle Zusammensetzung der Segmente und die Beziehung zwischen den Segmenten beschrieben.

Semantics description tools

Die Semantics Description Tools beschreiben die Semantik von Multimediainhalt. Damit können real-life Konzepte oder Erzählungen beschrieben werden. Diese beinhalten Objekte, Agenten Objekte, Events, Konzepte, Zustände, Plätze, Zeiten und erzählte Welten.

Es gibt noch semantische Attribute zu diesen Elementen, so wie die semantischen Beziehungen (als Semantic relation classification schemes) untereinander.

2.1.3 Content Organization

Die Content Organization Tools beschreiben Kollektionen und Modelle von Multimediadaten.

Collection

Die Collection Tools beschreiben Kollektionen im Bezug auf Multimediainhalt. Vom Collection DS (wie im folgenden Listing definiert) werden folgende Description Schemes abgeleitet:

Das ContentCollection DS beschreibt Kollektionen von Multimediainhalt, das SegmentCollection DS beschreibt Kollektionen von Segmenten, das DescriptorCollection DS beschreibt Kollektionen von Multimediainhalt Descriptions, das ConceptCollection DS beschreibt Kollektionen von semantischen Konzepten und das MixedCollection DS beschreibt Kollektionen von Inhalt, Descriptions und Konzepten.

 
<complexType name="CollectionType" abstract="true"> 
   <complexContent> 
      <extension base="mpeg7:DSType"> 
         <sequence> 
            <choice minOccurs="0"> 
               <element name="CreationInformation" 
                type="mpeg7:CreationInformationType"/> 
               <element name="CreationInformationRef" 
                type="mpeg7:ReferenceType"/> 
            </choice> 
            <choice minOccurs="0"> 
               <element name="UsageInformation" 
                type="mpeg7:UsageInformationType"/> 
               <element name="UsageInformationRef" 
                type="mpeg7:ReferenceType"/> 
            </choice> 
            <element name="TextAnnotation" 
             type="mpeg7:TextAnnotationType" 
             minOccurs="0" maxOccurs="unbounded"/> 
         </sequence> 
         <attribute name="name" type="string" use="optional"/> 
      </extension> 
   </complexContent> 
</complexType>

Listing 9:

mpeg7:CollectionType

Model

Die Model Tools beschreiben parametrisierte Modelle von Multimediainhalt, Deskriptoren oder Kollektionen. Vom Model DS (wie im folgenden Listing definiert) werden folgende Description Schemes abgeleitet:

Das ProbabilityModel DS beschreibt die Attribute und Eigenschaften von Multimediainhalt, die Wahrscheinlichkeiten und Statistiken verwenden, das AnalyticModel DS beschreibt die Verbindung von Labels und der Semantik mit Multimediainhalt oder Kollektionen, das ClusterModel DS beschreibt die analytischen Modelle und ihre zugehörigen Wahrscheinlichkeitsmodelle und das ClassificationModel DS beschreibt Informationen über bekannte Multimediadaten, die zur Klassifizierung unbekannter Multimediadaten verwendet werden können.

 
<complexType name="ModelType" abstract="true"> 
  <complexContent> 
      <extension base="mpeg7:DSType"> 
         <attribute name="confidence" type="mpeg7:zeroToOneType" 
          use="optional"/> 
         <attribute name="reliability" type="mpeg7:zeroToOneType" 
          use="optional"/> 
      </extension> 
  </complexContent> 
</complexType>

Listing 10:

mpeg7:ModelType

2.1.4 Navigation and Access

Die Navigation und Access Tools beschreiben das Durchsuchen, die Zusammenfassung und den Zugang von Inhalt.

Summarization

Die Summarization Tools beschreiben multimediale Zusammenfassungen und Inhaltsangaben um effizient den Inhalt zu durchsuchen, zu visualisieren, zu entdecken. Dabei unterscheidet man zwischen Hierarchischer Summary und Sequentieller Summary.

Partitions, Views and View Decompositions

Die Partitions, Views und View Decompositions Tools beschreiben Partitionen, Views und Dekompositionen von Bildern, Videos und Audio Signalen in Raum, Zeit und Frequenz(z.B. low-resolution views oder sub- regions von Bildern). Dabei gibt es folgende Unterteilungen:

Die Partition Tools beschreiben Raum-, Zeit- und/oder Frequenzpartitionen die mit verbundenen mehrdimensionalen rechteckigen Regionen in Raum, Zeit und/oder Frequenz korrespondieren.

Die Filter Tools beschreiben Filter und Filteroperationen angewendet auf Bilder, Videos und Audio Signale.

Die View Tools beschreiben partitionierte Views von Bildern, Videos oder Audio Signalen.

Die ViewDecomposition Tools beschreiben Sätze von Views oder strukturierte Dekompositionen von Views von Bildern, Videos oder Audio Signalen.

Variations

Die Variations Tools beschreiben die Beziehungen zwischen verschiedenen Variationen von Multimediainhalt (z.B. conversion, revisions, summaries, etc).

Das Variation DS (wie im folgenden Listing definiert) unterstützt Content Management, indem es die Variationen von Multimediainhalt verfolgt, die aus den verschiedenen Typen von Multimediaverarbeitung resultieren. Diese sind summarization, translation, reduction, revision, transcoding usw.

 
<complexType name="VariationSetType"> 
  <complexContent> 
      <extension base="mpeg7:DSType"> 
         <sequence> 
             <element name="Source" 
              type="mpeg7:MultimediaContentType"/> 
             <element name="Variation" type="mpeg7:VariationType" 
                minOccurs="1" maxOccurs="unbounded"/> 
         </sequence> 
      </extension> 
  </complexContent> 
</complexType>

Listing 11:

mpeg7:VariationSetType

2.1.5 User Interaction

Der Benutzer konsumiert Multimediadaten über ein Multimediasystem. Die User Interaction Tools beschreiben die Benutzer Präferenzen bezüglich des Konsums von Multimediadaten und die Benutzer Historie.

User Preferences

Die User Preferences können vom Benutzer (oder seinem Agenten) verwendet werden, um Multimediainhalt nach seinen persönlichen Präferenzen zu konsumieren. Der Nutzer kann angeben ob seine Präferenzen oder Teile davon privat bleiben sollen oder nicht und ob ein automatisches Update, z.B. durch einen Agenten, erlaubt ist.

Im UserPreferences DS (wie im folgenden Listing definiert) gibt der Nutzer seine Vorlieben und Abneigungen für bestimmte Typen von Inhalt mit dem FilteringAndSearchPreferences DS an, und die Art des Durchsuchens von Inhalt mit dem BrowsingPreferences DS. Es wird dann weiter unterschieden nach creation, classification, source oder summary.

 
<complexType name="UserPreferencesType"> 
   <complexContent> 
      <extension base="mpeg7:DSType"> 
         <sequence> 
            <element name="UserIdentifier" 
             type="mpeg7:UserIdentifierType" minOccurs="0"/> 
            <element name="FilteringAndSearchPreferences" 
             type="mpeg7:FilteringAndSearchPreferencesType" 
             minOccurs="0" maxOccurs="unbounded"/> 
            <element name="BrowsingPreferences" 
             type="mpeg7:BrowsingPreferencesType" 
             minOccurs="0" maxOccurs="unbounded"/> 
         </sequence> 
         <attribute name="allowAutomaticUpdate" 
          type="mpeg7:userChoiceType" 
          use="optional" default="false"/> 
      </extension> 
   </complexContent> 
</complexType>

Listing 12:

mpeg7:UserPreferencesType

Usage History

Die Usage History beschreibt die Historie der Aktionen eines Nutzers über einen bestimmten Zeitraum. Sie können ausgetauscht werden und zum Beispiel zur Erstellung der User Preferences verwendet werden. Der Nutzer kann wieder angeben ob die Daten privat bleiben sollen oder für andere nutzbar sind.

Im UsageHistory DS (wie im folgenden Listing definiert) wird ein Satz von UserActionHistory Elementen beschreiben, jedes mit einem eigenen Beobachtungszeitraum. Das UserActionHistory DS wiederum beschreibt einen Satz von UserActionList Elementen von denen jede UserAction Elemente enthält. Es sind Identifier der Programme enthalten.

 
<complexType name="UsageHistoryType"> 
   <complexContent> 
      <extension base="mpeg7:DSType"> 
         <sequence> 
            <element name="UserIdentifier" 
             type="mpeg7:UserIdentifierType" minOccurs="0"/> 
            <element name="UserActionHistory" 
             type="mpeg7:UserActionHistoryType" 
             minOccurs="1" maxOccurs="unbounded"/> 
         </sequence> 
         <attribute name="allowCollection" 
          type="mpeg7:userChoiceType" 
          use="optional" default="false"/> 
      </extension> 
   </complexContent> 
</complexType>

Listing 13:

mpeg7:UsageHistoryType

3 TV-Anytime

Das TV-Anytime Forum [3]bildete sich bei einem Antrittstreffen in Newport Beach, California, USA, am 27-29 September 1999.

Das TV-Anytime Forum hat dabei vier grundlegende Ziele aufgestellt:

  • Die Definition von Spezifikationen, die es Anwendungen ermöglicht lokale persistente Speicher in Plattformen der Unterhaltungselektronik auszuwerten.
  • Das TV-Anytime Forum ist netzwerkunabhängig im Hinblick auf die Mittel für die Überbringung von Inhalt an Unterhaltungselektronik-Equipment, die verschiedenen Überbringungsmechanismen (z.B. ATSC, DVB und andere), das Internet und das enhanced TV.
  • Entwicklung von Spezifikationen für dialogfähige und integrierte Systeme, von "Content Creators/Providers", über "Service Providers" zu den Konsumenten.
  • Spezifikation der notwendigen Sicherheitsstrukturen, um die Interessen aller Teilnehmer zu schützen.

Es wurden mehrere Arbeitsgruppen eingerichtet. Eine davon beschäftigt sich mit der Metadaten Spezifikation. Im Extented Metadata Schema [4] wird dies beschrieben. Das Forum wurde im Jahre 2005 geschlossen. Der TV-Anytime Standard wurde aber weiterentwickelt innerhalb des ETSI [5].

Mit Metadaten sind hier nicht nur beschreibende Daten über den Inhalt gemeint, sondern ebenso Daten darüber wie der Inhalt konsumiert werden kann. Die Metadaten werden auch "attractors" genannt, da sie den Konsumenten auf den Inhalt lenken können. Der Konsument kann damit den Inhalt von verschiedenen Quellen finden, navigieren und verwalten. Metadaten umfassen hier auch Benutzerprofile und historische Daten.

TV-Anytime definiert nur das Format für Metadaten, die zwischen verschiedenen Parteien ausgetauscht werden können. XML ist dabei das Repräsentationsformat, das benutzt wird, um die Schemas der TV-Anytime Metadaten Spezifikation zu definieren.

Es werden Begriffe ähnlich wie bei MPEG-7 (siehe Kapitel 2) verwendet:

Ein Description Scheme ist eine formale Definition, geschrieben in der MPEG-7 Description Definition Language.

Ein Descriptor ist ein Metadaten Element, wie ein "attractor" oder andere Informationen über den Inhalt.

Im TV-Anytime Metadata Process Model kann man den Fluß von Metadaten und Inhalt durch die verschiedenen Stadien von Herstellung und Transport zu den Konsumenten verfolgen. Dabei gibt es folgende Stationen/Schritte:

Content creation

Während des Produktionsprozesses wird der Inhalt erstellt und auch Informationen über den Inhalt werden erfasst. Diese sind jedoch noch in keiner brauchbaren Form, um sie direkt dem Benutzer zu präsentieren. Dazu ist noch eine Bearbeitung notwendig, damit die Beschreibung des Inhalts verbreitet werden kann.

Content publishing

Wenn der Inhalt einmal hergestellt wurde, kann er, zum Beispiel, als Teil eines "Broadcast Service" oder einer Veröffentlichung im Internet, verbreitet werden. Während dieses Prozesses erhält man Informationen darüber wo man den Inhalt findet.

Metadata editing

Hier werden die Rohinformationen aus dem Content Creation und Publishing Prozess genommen und in eine für den Endnutzer passende Form gebracht. Hierbei handelt es sich um Metadaten über den Inhalt und den Ort des Inhalts.

Metadata aggregation

Um ein gegebenes TV-Anytime System zu unterstützen ist es notwendig, dass die Metadaten von verschiedenen unabhängigen Content Creators und Publishers zusammengefasst werden.

Metadata publishing

Die zusammengefassten Metadaten Sätze müssen sowohl dem Content Selection als auch dem Location Resolution Prozess zur Verfügung gestellt werden

Content selection

Hier kommt der Konsument ins Spiel. Entweder direkt oder über einen Software Agent, welchem Metadaten über den Konsumenten bereitgestellt werden. Diese kommen entweder durch das Verhalten aus der Vergangenheit oder werden direkt vom Konsumenten eingegeben.

Location resolution

Hierbei handelt es sich einfach um den Prozess der Lokalisation des Inhalts.

3.1 Aufbau

Zur Beschreibung der Metadatenstruktur werden folgende Strukturen verwendet. Es gibt Beziehungen zwischen den einzelnen Elementen, dabei werden vier Arten unterschieden: 1 zu 1, 1 zu 0 oder 1, 1 zu 1 oder mehr und 1 zu 0 oder mehr. Dazu gibt es noch die Vererbung, das heißt ein Element erbt von einem anderen Element.

Der Content Reference Identifier (CRID) dient der Zuordnung von Metadaten zu Inhalt.

TV-Anytime benutzt die MPEG-7 Description Definition Language (siehe ISO/IEC 15938), um die Metadatenstruktur zu beschreiben. DDL basiert auf dem XML Schema vorgestellt vom W3C. TV-Anytime benutzt mehrere MPEG-7 Datentypen.

Die Metadaten lassen sich in fünf Gruppen unterteilen, die jeweils wieder verschiedene Tabellen enthalten:

  • Content Description Metadata
  • Instance Description Metadata
  • Consumer Metadata
  • Segmentation Metadata
  • Metadata Origination Information Metadata
3.1.1 Content Description Metadata

Hier handelt es sich um Metadaten, die den Inhalt unabhängig von irgendeiner Instanz beschreiben. Es müssen die folgenden Konzepte dargestellt werden können:

  • Ein einfaches Programm (z.B. ein einfacher Film).
  • Ein Programm mit mehreren Versionen (z.B. verschiedene Sprachen/Altersfreigaben, Director’s Cut, etc.).
  • Ein Programm, dass in mehrere Teile zum Veröffentlichen zerlegt wurde (z.B. ein Film in 2 Teilen, um ihn an verschiedenen Tagen zu zeigen).
  • Ein Programm, dass eine Verknüpfung anderer Programme ist, identifiziert als Sammelprogramm.
  • Eine Serie von Programmen, die geordnet (z.B. Episoden numerisch geordnet) oder ungeordnet und begrenzt oder unbegrenzt sein können.
  • Eine Sammlung von Serien und einzelnen Programmen, die das selbe Programmkonzept haben(z.B. alle Folgen einer bestimmten Serie zusammen mit einem Special zu der Serie).
  • Eine Veröffentlichung eines Programms mit Attributen abhängig vom Grund der Veröffentlichung (z.B. ein Film, der als Tribut an einen kürzlich verstorbenen Schauspieler gezeigt wird, mit einer anderen Beschreibung).

Basic Types

Die hier definierten Basistypen werden in der TV-Anytime Schema Spezifikation verwendet. Es werden verschiedene einfache und komplexe Typen für IDs und ID Refs, Zeit, Termnamen usw. definiert. Dazu ein Beispiel für einen einfachen Typ:

 
<simpleType name="TVAIDType"> 
   <restriction base="string"> 
      <whiteSpace value="collapse"/> 
   </restriction> 
</simpleType>

Listing 14:

tva:TVAIDType

Description

Diese Typen definieren beschreibende Attribute des Inhalts. Es werden einfache und komplexe Typen zu Genre, Keyword, RelatedMaterial usw. definiert. Das Beispiel zeigt den komplexen Typ CreditsItemType, der von "TVAAgentType" abgeleitet ist. Zudem werden hier MPEG-7 Datentypen verwendet.

 
<complexType name="CreditsItemType"> 
  <complexContent> 
     <extension base="tva:TVAAgentType"> 
        <sequence> 
           <element name="Character" type="mpeg7:PersonNameType" 
            minOccurs="0" maxOccurs="unbounded"/> 
        </sequence> 
        <attribute name="role" type="mpeg7:termReferenceType" 
         use="required"/> 
     </extension> 
  </complexContent> 
</complexType>

Listing 15:

tva:CreditsItemType

Die meisten dieser Elemente werden in dem Typ "BasicContentDescriptionType" zusammengefasst. Dieser definiert eine Standard Programmbeschreibung.

Audio and Video Information

Hier handelt es sich um technische Attribute für Audio und Video. Diese kommen in dem Typ AVAttributesType zusammen, der ein Satz von Elementen zur Beschreibung von Audio und/oder Video definiert:

 
<complexType name="AVAttributesType"> 
  <sequence> 
     <element name="FileFormat" type="tva:ControlledTermType" 
      minOccurs="0"/> 
     <element name="FileSize" type="unsignedLong" minOccurs="0"/> 
     <element name="System" type="tva:ControlledTermType" 
      minOccurs="0"/> 
     <element name="BitRate" type="tva:BitRateType" 
      minOccurs="0" /> 
     <element name="AudioAttributes" type="tva:AudioAttributesType" 
      minOccurs="0" maxOccurs="unbounded" /> 
     <element name="VideoAttributes" type="tva:VideoAttributesType" 
      minOccurs="0" /> 
  </sequence> 
</complexType>

Listing 16:

tva:AVAttributesType

Programme Information

In der ProgramInformationTable werden die verschiedenen Programme beschrieben. Die Tabelle enthält Elemente des komplexen Typs "ProgramInformationType", der ein Programm beschreibt. Er beinhaltet sowohl den Typ "BasicContentDescriptionType", als auch "AVAttributesType".

Group Information

In der GroupInformationTable werden verwandte Elemente (z. B. alle Folgen einer Serie) zusammengefasst. Sie enthält Elemente vom "GroupInformationType", welcher neben dem "GroupType"(z.B. Serie) auch den "BasicContentDescriptionType" umfasst.

Program Review

Das MediaReview DS (wie im folgenden Listing definiert) beinhaltet Beurteilungen Dritter über den Inhalt, z.B. eine Kritik über einen Film. Dem Benutzer kann dann über die "ProgramReviewTable" bei der Programmauswahl geholfen werden.

 
<complexType name="MediaReviewType"> 
  <sequence> 
     <element name="Rating" type="mpeg7:RatingType" 
      minOccurs="0" maxOccurs="unbounded"/> 
     <element name="FreeTextReview" type="mpeg7:TextualType" 
      minOccurs="0" maxOccurs="unbounded"/> 
     <element name="Reviewer" type="tva:ReviewerType" 
      minOccurs="0" maxOccurs="unbounded"/> 
     <element name="ReviewReference" type="anyURI" minOccurs="0"/> 
  </sequence> 
</complexType>

Listing 17:

tva:MediaReviewType

3.1.2 Instance Description Metadata

Instance Description Metadata wird dann benötigt, wenn es bedeutende Unterschiede zwischen verschiedenen Instanzen des selben Inhalts gibt, also Instanzen, die die selbe CRID haben (die CRID verbindet content metadata mit content). Instance Metadata ist mit einem auf ein bestimmtes Ereignis bezogenen Inhalt verbunden.

Programme Location

Eine ProgramLocation (wie im folgenden Listing definiert) enthält Informationen über eine bestimmte Instanz eines Programms. Mehrere "ProgramLocations" des selben Service Providers können in einem Schedule zusammengefasst werden.

Es wird ein ScheduleEvent und ein OnDemandProgramme unterschieden, wobei beide Typen von ProgramLocation abgeleitet werden. Das Schedule Event verbindet eine bestimmte Aussendung (Zeit, Dauer, usw.) mit einem gegebenen Programm. Ein On Demand Programm dagegen kann zu jedem beliebigen Zeitpunkt gestartet werden.

 
<complexType name="ProgramLocationType" abstract="true"> 
  <sequence> 
     <element name="Program" type="tva:CRIDRefType"/> 
     <element name="ProgramURL" type="anyURI" minOccurs="0"/> 
     <element name="InstanceMetadataId" 
      type="tva:InstanceMetadataIdType" minOccurs="0"/> 
     <element name="InstanceDescription" 
      type="tva:InstanceDescriptionType" minOccurs="0"/> 
  </sequence> 
</complexType>

Listing 18:

tva:ProgramLocationType

Service information

Ein Service repräsentiert einen Datenstrom von Sendungsmaterial. Ein Service wird über eine Art physikalischen Kanal transportiert. Die beiden Ausdrücke sind aber kein Synonym, da ein gegebener Service über verschiedene physikalische Kanäle ausgesendet werden kann. Dazu die Definition des ServiceInformationType:

 
<complexType name="ServiceInformationType"> 
  <sequence> 
     <element name="Name" type="tva:ServiceInformationNameType" 
      minOccurs="0" maxOccurs="unbounded"/> 
     <element name="Owner" type="string" 
      minOccurs="0"/> 
     <element name="ServiceURL" type="anyURI" minOccurs="0"/> 
     <element name="Logo" type="mpeg7:MediaLocatorType" 
      minOccurs="0" maxOccurs="unbounded"/> 
     <element name="ServiceDescription" type="tva:SynopsisType" 
      minOccurs="0" maxOccurs="unbounded"/> 
     <element name="ServiceGenre" type="tva:GenreType" 
      minOccurs="0" maxOccurs="unbounded"/> 
     <element name="ServiceLanguage" type="language" minOccurs="0" 
      maxOccurs="unbounded"/> 
     <element name="ParentService" type="tva:ServiceRefType" 
      minOccurs="0" maxOccurs="unbounded"/> 
  </sequence> 
  <attribute name="serviceId" type="tva:TVAIDType" use="required"/> 
  <attributeGroup ref="tva:fragmentIdentification"/> 
  <attribute name="metadataOriginIDRef" type="tva:TVAIDRefType" 
   use="optional"/> 
  <attribute ref="xml:lang" default="en" use="optional"/> 
</complexType>

Listing 19:

tva:ServiceInformationType

3.1.3 Consumer Metadata

Die Benutzer Metadaten werden unterteilt in die "UsageHistory" und die "UserPreferences". Hier werden hauptsächlich MPEG-7 Datentypen verwendet.

Usage history

In der UsageHistory (siehe auch Kapitel 2.1.5.2) werden die Informationen beschrieben, die über einen gewissen Zeitraum über den Benutzer gesammelt wurden. Es beinhaltet eine Liste der ausgeführten Aktionen innerhalb des Zeitraums. Dabei legt man Wert auf die betrachteten Inhalte, wodurch ein benutzerspezifisches Programm erstellt werden kann. Die Daten sind somit interessant für die Service Provider.

User preferences

Bei den UserPreferences (siehe auch Kapitel 2.1.5.1) geht es um die Vorlieben des Benutzers im Bezug auf den Konsum von multimedialem Material. Die Vorlieben können dann mit den Beschreibungen abgeglichen werden, und somit dem Benutzer ein persönliches Angebot erstellt werden.

Zur Erstellung können zum einen die "UsageHistory" verwendet werden, um daraus automatisch die "UserPreferences" zu erstellen. Zudem kann der Benutzer auch selbst explizite Angaben machen.

3.1.4 Segmentation Metadata

Es ist möglich für einen AV-Stream Segmente zu definieren. Durch die Zuordnung von Segmenten und Segment-Gruppen zu Metadaten ist es möglich, eine Eingabe neu zu strukturieren und damit neue Gebrauchs- und Navigationsmöglichkeiten zu bieten. So kann man Inhalt mit Hervorhebungen oder Bookmarks erstellen. Jeweils dem momentanen Einsatz angepasst.

In der SegmentInformationTable werden diese Informationen gespeichert.

3.1.5 TV-Anytime programme information document

Alle Metadaten sind letztlich in dem Hauptelement "TVAMain" enthalten:

 
<complexType name="TVAMainType"> 
   <sequence> 
      <element name="CopyrightNotice" type="mpeg7:TextualType" 
       minOccurs="0" maxOccurs="unbounded"/> 
      <element name="MetadataOriginationInformationTable" 
       type="tva:MetadataOriginationInformationTableType" 
       minOccurs="0"/> 
      <element name="ClassificationSchemeTable" 
       type="tva:ClassificationSchemeTableType" minOccurs="0"/> 
      <element name="ProgramDescription" 
       type="tva:ProgramDescriptionType" minOccurs="0"/> 
      <element name="UserDescription" 
       type="tva:UserDescriptionType" 
       minOccurs="0" maxOccurs="unbounded"/> 
   </sequence> 
   <attribute ref="xml:lang" use="optional" default="en"/> 
   <attribute name="publisher" type="string" use="optional"/> 
   <attribute name="publicationTime" type="dateTime" 
    use="optional"/> 
   <attribute name="rightsOwner" type="string" use="optional"/> 
   <attribute name="originID" type="tva:TVAIDType" use="optional"/> 
   <attribute name="version" type="unsignedInt" use="optional"/> 
</complexType>

Listing 20:

tva:TVAMainType

 
<complexType name="ProgramDescriptionType"> 
   <sequence> 
      <element name="ProgramInformationTable" 
       type="tva:ProgramInformationTableType" minOccurs="0"/> 
      <element name="GroupInformationTable" 
       type="tva:GroupInformationTableType" minOccurs="0"/> 
      <element name="ProgramLocationTable" 
       type="tva:ProgramLocationTableType" minOccurs="0"/> 
      <element name="ServiceInformationTable" 
       type="tva:ServiceInformationTableType" minOccurs="0"/> 
      <element name="CreditsInformationTable" 
       type="tva:CreditsInformationTableType" minOccurs="0"/> 
      <element name="ProgramReviewTable" 
       type="tva:ProgramReviewTableType" minOccurs="0"/> 
      <element name="SegmentInformationTable" 
       type="tva:SegmentInformationTableType" minOccurs="0"/> 
      <element name="PurchaseInformationTable" 
       type="tva:PurchaseInformationTableType" minOccurs="0"/> 
   </sequence> 
</complexType>

Listing 21:

tva:ProgramDescriptionType

3.2 TV-Anytime und MPEG-7

TV-Anytime verwendet einiges von MPEG-7. Es wird die DDL von MPEG-7 verwendet, um ebenfalls Description Schemes und Descriptors zu definieren. Zudem verwendet TV-Anytime einige MPEG-7 Datentypen, diese sind in der folgenden Tabelle aufgelistet, dabei wurde das aktuelle Schema [6] zu Grunde gelegt. Vor allem die Consumer Metadaten werden fast vollständig aus dem MPEG-7 Standard übernommen.



mpeg7:timePointType base="mpeg7:basicTimePointType" (base="string") mit pattern

Element TimePoint in TVATimeType



mpeg7:durationType base="mpeg7:basicDurationType" (base="string") mit pattern

Element Duration in TVATimeType



mpeg7:TextualType base="mpeg7:TextualBaseType" (base="string")

  • phoneticTranscription list itemType= "mpeg7:PhoneType" (base="string")
  • phoneticAlphabet type="mpeg7:phoneticAlphabetType" (base="NMTOKEN" enumeration: value="sampa", "ipaSymbol", "ipaNumber", "other")

Extensionen: TermNameType, KeywordType, SynopsisType, ServiceInformationNameType, OrganizationNameType

Element Definition in ControlledTermType, Element OrganizationName in TVAAgentType, Element PromotionalText in RelatedMaterialType, Element Category in AwardType, Element Title in AwardsListItemType, Element Description in PurchaseItemType, Element PromotionalInformation in BasicContentDescriptionType, Element Publication in ReviewerType, Element FreeTextReview in MediaReviewType, Element CopyrightNotice in TVAMainType, Element Publisher, RightsOwner und CopyrightNotice in MetadataOriginationInformationType



mpeg7:termReferenceType memberTypes= "mpeg7:termAliasReferenceType (base="NMTOKEN" mit pattern) mpeg7:termURIReferenceType (base="anyURI")"

Attribut href in ControlledTermType, Attribut role in CreditsItemType, Attribut purpose in AudioLanguageType



mpeg7:PersonNameType

  • GivenName type="mpeg7:NameComponentType" (base="mpeg7:TextualBaseType")
  • LinkingName type="mpeg7:NameComponentType"
  • FamilyName type="mpeg7:NameComponentType"
  • Title type="mpeg7:NameComponentType"
  • Salutation type="mpeg7:NameComponentType"
  • Numeration type="string"

Extension: TVAPersonNameType

Element PersonName in TVAAgentType, Element Character in CreditsItemType



mpeg7:MediaLocatorType

  • MediaUri type="anyURI"
  • InlineMedia type="mpeg7:InlineMediaType"
    • MediaData16 type= "hexBinary"
    • MediaData64 type="base64Binary"
    • type type= "mpeg7:mimeType" (base="string" mit pattern)
  • StreamID type= "nonNegativeInteger"

Element MediaLocator und SourceMediaLocator in RelatedMaterialType, Element Logo in ServiceInformationType



mpeg7:TitleMediaType (siehe unten)

Element PromotionalMedia in RelatedMaterialType, Element MediaTitle in BasicContentDescriptionType



mpeg7:TitleType base="mpeg7:TextualBaseType"

Extension: ShortTitleType

Element Title in BasicContentDescriptionType, InstanceDescriptionType und BasicSegmentDescriptionType



mpeg7:regionCode base="string"

pattern: value = "[a-zA-Z]{2}(-[a-zA-Z0-9]{1,3})?"

Element CreationLocation in CreationCoordinatesType, Element ReleaseLocation in ReleaseInformationType, Element ProductionLocation in BasicContentDescriptionType



mpeg7:PlaceType (siehe unten)

Element DepictedLocation in DepictedCoordinatesType



mpeg7:ParentalGuidanceType

  • ParentalRating type= "mpeg7:ControlledTermUseType" (siehe unten)
  • MinimumAge type="nonNegativeInteger"
  • Region type="mpeg7:regionCode"

Element ParentalGuidance in BasicContentDescriptionType



mpeg7:ExtendedLanguageType base="language"

  • type base="NMTOKEN" enumeration: value="original", "dubbed", "background"
  • supplemental type="boolean"

Extension: AudioLanguageType

Element Language in mpeg7:ExtendedLanguageType



mpeg7:UniqueIDType base="string"

  • type type="NMTOKEN"
  • organization type="NMTOKEN"
  • authority type="NMTOKEN"
  • encoding base="string" enumeration: value="text", "base16", "base64"

Element OtherIdentifier in ProgramInformationType



mpeg7:RatingType

  • RatingValue type="float"
  • RatingScheme base="mpeg7:TermUseType"
    • best type="float"
    • worst type="float"
    • style base="NMTOKEN" enumeration: value= "higherBetter", "lowerBetter"

Element Rating in MediaReviewType



mpeg7:UserActionType base="mpeg7:DSType"

  • ActionTime
    • MediaTime type="mpeg7:MediaTimeType" (siehe unten)
    • GeneralTime type="mpeg7:TimeType" (wie MediaTimeType)
  • ProgramIdentifier type="mpeg7:UniqueIDType"
  • ActionDataItem type="mpeg7:ReferenceType"
    • idref type="IDREF"
    • xpath type="mpeg7:xPathRefType"
    • href type="anyURI"

Extension: UserActionType



mpeg7:MediaRelIncrTimePointType base="integer"

  • mediaTimeUnit type="mpeg7:mediaDurationType"
  • mediaTimeBase type="mpeg7:xPathRefType" (base="mpeg7:xPathType" (base="token") mit pattern)

Extension: TVAMediaRelIncrTimePointType, Element MediaRelIncrTimePoint in TimeBaseReferenceType



mpeg7:mediaDurationType base="mpeg7:basicDurationType (base="string")" mit pattern

Attribut mediaTimeUnit in TVAMediaRelIncrTimePointType, Attribut duration in SegmentGroupInformationType

Element MediaDuration in TVAMediaTimeType



mpeg7:MediaRelTimePointType base="mpeg7:mediaTimeOffsetType" (base="mpeg7:basicDurationType")

  • mediaTimeBase type="mpeg7:xPathRefType"

Element MediaRelTimePoint in TVAMediaTimeType



mpeg7:MediaIncrDurationType base="integer"

  • "mediaTimeUnit" type="mpeg7:mediaDurationType"

Element MediaIncrDuration in TVAMediaTimeType



mpeg7:mediaTimePointType base="mpeg7:basicTimePointType" (base="string") mit pattern

Element MediaTimePoint in TimeBaseReferenceType

 

 



mpeg7:UserPreferencesType base="mpeg7:DSType"

  • UserIdentifier type="mpeg7:UserIdentifierType"
    • Name type="mpeg7:TextualType"
    • protected type="mpeg7:userChoiceType"
  • FilteringAndSearchPreferences type="mpeg7: FilteringAndSearchPreferencesType" (siehe unten)
  • BrowsingPreferences type= "mpeg7:BrowsingPreferencesType" (siehe unten)
  • RecordingPreferences type= "mpeg7:RecordingPreferencesType"
    • RecordingRequest type= "mpeg7:RecordingRequestType" (siehe unten)
  • allowAutomaticUpdate type="mpeg7:userChoiceType" (base="NMTOKEN" enumeration: value="true", "false", "user")

Element UserPreferences in UserDescriptionType



mpeg7:UsageHistoryType base="mpeg7:DSType"

  • UserIdentifier type="mpeg7:UserIdentifierType" (siehe oben)
  • UserActionHistory type= "mpeg7:UserActionHistoryType"
    • ObservationPeriod type="mpeg7:TimeType"
    • UserActionList type= "mpeg7:UserActionListType"
      • ActionType type="mpeg7:TermUseType"
      • UserAction type= "mpeg7:UserActionType" (siehe oben)
    • protected type="mpeg7:userChoiceType"
  • allowCollection type="mpeg7:userChoiceType"

Element UsageHistory in UserDescriptionType



mpeg7:ClassificationSchemeAliasType base="mpeg7:HeaderType"

  • alias type="NMTOKEN"
  • href type="anyURI"

Extension: CSAliasType



mpeg7:ClassificationSchemeType base= "mpeg7:ClassificationSchemeBaseType"

  • Term type="mpeg7:TermDefinitionType" (wie mpeg7:InlineTermDefinitionType)

Extension: ClassificationSchemeType



 

 

 

 

 

 

 

 

 

 

 


mpeg7:TitleMediaType:


TitleImage

type= "mpeg7:ImageLocatorType" (base="mpeg7:MediaLocatorType")

  • MediaTimePoint type= "mpeg7:mediaTimePointType"
  • MediaRelTimePoint type= "mpeg7:MediaRelTimePointType"
  • MediaRelIncrTimePoint type= "mpeg7:MediaRelIncrTimePointType"
  • BytePosition
    • offset type="nonNegativeInteger"
    • length type="positiveInteger"

TitleVideo

type= "mpeg7:TemporalSegmentLocatorType" (base="mpeg7:MediaLocatorType")

  • MediaTime type="mpeg7:MediaTimeType"
    • MediaTimePoint type= "mpeg7:mediaTimePointType"
    • MediaRelTimePoint type= "mpeg7:MediaRelTimePointType"
    • MediaRelIncrTimePoint type= "mpeg7:MediaRelIncrTimePointType"
    • MediaDuration type= "mpeg7:mediaDurationType"
    • MediaIncrDuration type= "mpeg7:MediaIncrDurationType"
  • BytePosition (siehe oben)

TitleAudio

type= "mpeg7:TemporalSegmentLocatorType" (siehe oben)


 


mpeg7:PlaceType:


Name type="mpeg7:TextualType"


NameTerm type= "mpeg7:ControlledTermUseType" (base= "mpeg7:InlineTermDefinitionType")

  • Name base="mpeg7:TextualType">
    • preferred type="boolean"
  • Definition type="mpeg7:TextualType"
  • Term base= "mpeg7:InlineTermDefinitionType"

PlaceDescription type="mpeg7:TextualType"


Role type="mpeg7:TermUseType" (base="mpeg7:InlineTermDefinitionType")


GeographicPosition

  • Point type= "mpeg7:GeographicPointType"
    • longitude base="double" (-180.0 - 180.0)
    • latitude base="double" (-90.0 - 90.0)
    • altitude type="double"
  • datum type="string"

AstronomicalBody type="mpeg7:TermUseType" (base="mpeg7:InlineTermDefinitionType")


Region type="mpeg7:regionCode"


AdministrativeUnit base="string"

  • type type="string"

PostalAddress

  • AddressLine type="mpeg7:TextualType"
  • PostingIdentifier type="mpeg7:TextualType"

StructuredPostalAddress

  • StreetNumber type="string"
  • StreetName type="string"
  • PostalTown type="string"
  • City type="string"
  • StateProvinceCounty type="string"
  • Country type="mpeg7:countryCode"
  • PostingIdentifier type="mpeg7:TextualType"

InternalCoordinates type="string"


StructuredInternalCoordinates


  • RoomNumber type="string"
  • RoomName type="string"
  • BuildingName type="string

ElectronicAddress type="mpeg7:ElectronicAddressType"

  • Telephone base="string"
    • type base="string" enumeration: value="central", "secondary"
    • Fax type="string"
    • Email type="string"
    • Url type="anyURI"

 


 


mpeg7:FilteringAndSearchPreferencesType:


CreationPreferences type="mpeg7:CreationPreferencesType"

(jeweils mit Attribut preferenceValue type="mpeg7:preferenceValueType")

  • Title base="mpeg7:TitleType"
  • Creator base="mpeg7:CreatorType"
  • Keyword base="mpeg7:TextualType"
  • Location base="mpeg7:PlaceType"
  • DatePeriod base="mpeg7:TimeType"
  • Tool type="mpeg7:TermUseType"

ClassificationPreferences type="mpeg7:ClassificationPreferencesType"

(jeweils mit Attribut preferenceValue type="mpeg7:preferenceValueType")

  • Country base="mpeg7:countryCode"
  • DatePeriod base="mpeg7:TimeType"
  • LanguageFormat base="mpeg7:auxiliaryLanguageType"
  • Language base="mpeg7:ExtendedLanguageType"

  • CaptionLanguage base="language"
  • Form base="mpeg7:TermUseType"
  • Genre base="mpeg7:TermUseType"
  • Subject base="mpeg7:TextualType"
  • Review
    • Rating type="mpeg7:RatingType"
    • Reviewer type="mpeg7:AgentType"
  • ParentalGuidance base="mpeg7:ParentalGuidanceType"
  • AssociatedData base="mpeg7:TextualType"

SourcePreferences type="mpeg7:SourcePreferencesType"

(jeweils mit Attribut preferenceValue type="mpeg7:preferenceValueType")

  • DisseminationFormat base="mpeg7:TermUseType"
  • DisseminationSource base="mpeg7:TextualType"
  • DisseminationLocation base="mpeg7:PlaceType"
  • DisseminationDate base="mpeg7:TimeType"
  • Disseminator base="mpeg7:MediaAgentType"
  • MediaFormat base="mpeg7:MediaFormatType"
  • noRepeat type="boolean"
  • noEncryption type="boolean"
  • noPayPerUse type="boolean"

PreferenceCondition type="mpeg7:PreferenceConditionType"

  • Place type="mpeg7:PlaceType"
  • Time base="mpeg7:TimeType"
    • recurrence union:
      • base="NMTOKEN" enumeration value="none", "daily", "weekly", "monthly", "annually"
      • base="mpeg7:termAliasReferenceType" base="NMTOKEN"
      • base="mpeg7:termURIReferenceType" base="anyURI"
  • numOfRecurrences type="positiveInteger"

FilteringAndSearchPreferences type="mpeg7:FilteringAndSearchPreferencesType"


protected type="mpeg7:userChoiceType"


preferenceValue type="mpeg7:preferenceValueType"

base="integer" value="-100" - "100"


 


mpeg7:BrowsingPreferencesType:


SummaryPreferences type="mpeg7:SummaryPreferencesType"

  • SummaryType base="mpeg7:summaryComponentType"
    • union:
      • base="NMTOKEN" enumeration value="audio", "visual", "audioVisual", "textual", "keyAudioClips", "keyVideoClips", "keyAudioVisualClips", "keyFrames", "keySounds", "keyThemes"
      • base="mpeg7:termAliasReferenceType"
      • base="mpeg7:termURIReferenceType"
    • preferenceValue type="mpeg7:preferenceValueType"
  • SummaryTheme base="mpeg7:TextualType"
    • preferenceValue type="mpeg7:preferenceValueType"

  • SummaryDuration type="mpeg7:mediaDurationType"
  • MinSummaryDuration type="mpeg7:mediaDurationType"
  • MaxSummaryDuration type="mpeg7:mediaDurationType"
  • NumOfKeyFrames type="positiveInteger"
  • MinNumOfKeyFrames type="positiveInteger"
  • MaxNumOfKeyFrames type="positiveInteger"
  • NumOfChars type="positiveInteger"
  • MinNumOfChars type="positiveInteger"
  • MaxNumOfChars type="positiveInteger"
  • preferenceValue type="mpeg7:preferenceValueType"

BrowsingLocation type="anyURI"


PreferenceCondition base="mpeg7:PreferenceConditionType" (siehe oben)

  • Genre type="mpeg7:TermUseType"

protected type="mpeg7:userChoiceType"


preferenceValue type="mpeg7:preferenceValueType"


 


mpeg7:RecordingRequestType:

 


ContentIdentifier type="mpeg7:UniqueIDType"


DisseminationSource type="mpeg7:TextualType"


Title type="mpeg7:TextualType"


RecordingPeriod (choice)

  • SpecificTimePeriod type="mpeg7:TimeType"
  • EntireTimePeriod

RecordingLocationPreferences type="anyURI"


RecordingSourceTypePreferences (choice)

  • OriginalContents
  • Summary type="mpeg7:summaryComponentType"

RecordAssociatedData

  • type union:
    • base="NMTOKEN" enumeration value="none", "all"
    • base="mpeg7:termAliasReferenceType"
    • base="mpeg7:termURIReferenceType"

 

 

 

 

 

3.3 Vergleich von TV-Anytime mit MPEG-7

In der folgenden Tabelle werden die Metadaten von MPEG-7 und TV-Anytime verglichen. Dabei wird von den TV-Anytime Elementen ausgegangen und versucht korrespondierende Elemente in MPEG-7 zu finden. Die Elemente eines Typs werden darunter in eigenen Zellen aufgelistet oder direkt in der selben Zelle angegeben, wenn der Typ nicht zu umfangreich ist.

Wenn kein Typ angegeben ist, so muss nur "Type" angehängt werden, um den Typ zu erhalten (z.B. UserDescription hat den Typ UserDescriptionType).

Konnte kein passendes Element gefunden werden, so ist dies mit "-" vermerkt. Sollten die Elemente wichtige Informationen enthalten so kann man dies in einer TextAnnotation (z. B. in DescriptionMetadata -> Comment oder Creation -> Abstract) vermerken. Eine Beschreibung der TV-Anytime Elemente wird aus [4] zitiert.



TVAMainType:

TVAMain ist das Root Element

Mpeg7Type

Mpeg7 ist das Root Element



CopyrightNotice type="mpeg7:TextualType"

CreationInformation -> Creation -> CopyrightString type="mpeg7:TextualType"



MetadataOriginationInformationTable

  • Publisher type="mpeg7:TextualType"
  • RightsOwner type="mpeg7:TextualType"
  • CopyrightNotice type="mpeg7:TextualType"

DescriptionMetadata:

  • Creator type="mpeg7:CreatorType" -> Role="Publisher"
  • Rights type="mpeg7:RightsType"


ClassificationSchemeTable

  • ClassificationSchemeType base = "mpeg7:ClassificationSchemeType"
  • CSAliasType base = "mpeg7:ClassificationSchemeAliasType"
  • ClassificationSchemeDescription (als Description Element in Mpeg7) -> ClassificationScheme
  • ClassificationSchemeAliasType


ProgramDescription (siehe unten)

siehe unten



UserDescription

  • UserPreferences type="mpeg7:UserPreferencesType"
  • UsageHistory type="mpeg7:UsageHistoryType"

UserDescription (als Description Element in Mpeg7):

  • UserPreferences type="mpeg7:UserPreferencesType"
  • UsageHistory type="mpeg7:UsageHistoryType"


 



ProgramDescriptionType:

 



ProgramInformationTable mit ProgramInformationType (siehe unten) Elementen

siehe unten



GroupInformationTable mit GroupInformationType (siehe unten) Elementen

siehe unten



ProgramLocationTable (siehe unten)

siehe unten



ServiceInformationTable mit ServiceInformationType (siehe unten) Elementen

siehe unten



CreditsInformationTable (siehe unten)

siehe unten



ProgramReviewTable mit ReviewType (base="tva:MediaReviewType") Elementen

  • Rating type="mpeg7:RatingType"
  • FreeTextReview type="mpeg7:TextualType”
  • Reviewer type="tva:ReviewerType" (base="tva:TVAAgentType)
  • ReviewReference type="anyURI"

CreationInformation -> Classification -> MediaReview type="mpeg7:MediaReviewType"

  • Rating type="mpeg7:RatingType"
  • FreeTextReview type="mpeg7:TextualType"
  • Reviewer type="mpeg7:AgentType"
  • ReviewReference type="mpeg7:RelatedMaterialType"


SegmentInformationTable (siehe unten)

siehe unten



PurchaseInformationTable mit PurchaseInformationtType (base="tva:PurchaseItemType") Elementen

  • Price base="string"
  • Purchase
    • PurchaseType type= "tva:ControlledTermType"
    • QuantityUnit type= "tva:ControlledTermType"
    • QuantityRange
      • min type="unsignedInt"
      • max type="unsignedInt"
  • Description type="mpeg7:TextualType
  • PricingServerURL type="anyURI"

UsageDescription -> UsageInformation -> Financial

  • AccountItem
    • EffectiveDate type="mpeg7:timePointType"
    • CostType type="mpeg7:TermUseType"
    • IncomeType type="mpeg7:TermUseType"
    • currency type="mpeg7:currencyCode"
    • value type="decimal"


 



ProgramInformationType:

 



BasicDescription type="tva:BasicContentDescriptionType" (siehe unten)

siehe unten



AVAttributes type="tva:AVAttributesType" (siehe unten)

siehe unten

 

 



OtherIdentifier type="mpeg7:UniqueIDType"

DescriptionMetadata -> PublicIdentifier type="mpeg7:UniqueIDType"



programId type="tva:CRIDType"

UserAction -> ProgramIdentifier type="mpeg7:UniqueIDType"



MemberOf type="tva:BaseMemberOfType"

DerivedFrom type="tva:DerivedFromType"

EpisodeOf type="tva:EpisodeOfType"

PartOfAggregatedProgram type="tva:CRIDType"

AggregationOf type="tva:AggregationOfType"

Mpeg7 -> Description -> Relationships type="mpeg7:GraphType"



 



BasicContentDescriptionType:

CreationDescription (Description Element in Mpeg7) -> CreationInformation mit Elementen Creation, Classification, und RelatedMaterial



Title type="mpeg7:TitleType"

Creation -> Title type="mpeg7:TitleType"



MediaTitle type="mpeg7:TitleMediaType"

Creation -> TitleMedia type="mpeg7:TitleMediaType"



ShortTitle type="tva:ShortTitleType" (base="mpeg7:TitleType)

Creation -> Title -> type="alternative"



Synopsis type="tva:SynopsisType" base="mpeg7:TextualType"

Creation -> Abstract type="mpeg7:TextAnnotationType"



PromotionalInformation type="mpeg7:TextualType"

Creation -> Abstract type="mpeg7:TextAnnotationType"



Keyword type="tva:KeywordType"

Creation -> Abstract -> KeywordAnnotationType



Genre type="tva:GenreType"

Classification -> Genre base="mpeg7:ControlledTermUseType"



ParentalGuidance type="mpeg7:ParentalGuidanceType" (base="tva:ControlledTermType")

Classification -> ParentalGuidance type="mpeg7:ParentalGuidanceType"



Language type="mpeg7:ExtendedLanguageType"

Classification -> Language type="mpeg7:ExtendedLanguageType"



CaptionLanguage type="tva:CaptionLanguageType" (base="language")

Classification -> CaptionLanguage base="language"



SignLanguage type="tva:SignLanguageType" (base="language")

Classification -> SignLanguage



CreditsList type="tva:CreditsListType" mit CreditsItemType Elementen mit Element

  • Character type="mpeg7:PersonNameType" (in [4] heißt es "Specifies the name of a character played by an actor.")

Creation -> Creator type="mpeg7:CreatorType" mit Element

  • Character type="mpeg7:PersonNameType" (in [2] heißt es "Describes the name of a fictional character that is part of the multimedia content or that specifies a role played by an actor (optional). Multiple character descriptors may be associated with a creator. ")


AwardsList type="tva:AwardsListType"

-

Hier werden Auszeichnungen angegeben.



RelatedMaterial type="tva:RelatedMaterialType"

CreationInformation -> RelatedMaterialType



ProductionDate type="tva:TVATimeType"

Creation -> CreationCoordinates -> Date

 

 



ProductionLocation type="mpeg7:regionCode"

Creation -> CreationCoordinates -> Location



CreationCoordinates

  • CreationDate type="tva:TVATimeType"
  • CreationLocation type="mpeg7:regionCode"

Creation -> CreationCoordinates

  • Date type="mpeg7:TimeType"
  • Location type="mpeg7:PlaceType"


DepictedCoordinates type="tva:DepictedCoordinatesType"

mit DepictedDate und DepictedLocation wie in CreationCoordinates

-

Definiert den im Inhalt beschriebenen Ort und Datum.



ReleaseInformation

  • ReleaseDate type="tva:ReleaseDateType"
  • ReleaseLocation type="mpeg7:regionCode"

Classification -> Release

  • date type="mpeg7:timePointType"
  • Region type="mpeg7:regionCode"


Duration type="duration"

MediaTime -> MediaDuration



PurchaseList type="tva:PurchaseListType"

  • PurchaseItem type="tva:PurchaseItemType" (siehe oben)
  • PurchaseIdRef type="tva:TVAIDRefType"

UsageDescription -> UsageInformation -> Financial



 



AVAttributesType:

MediaInformation -> MediaProfile -> MediaFormat:



FileFormat type="tva:ControlledTermType"

FileFormat type="mpeg7:ControlledTermUseType"



FileSize type="unsignedLong"

FileSize type="nonNegativeInteger"



System type="tva:ControlledTermType"

System type="mpeg7:ControlledTermUseType"



BitRate type="tva:BitRateType" mit Attributen "variable" type="boolean", "minimum" type="unsignedLong", "average" type="unsignedLong", "maximum" type="unsignedLong"

BitRate ähnlich tva:BitRateType



AudioAttributesType

  • Coding type="tva:ControlledTermType"
  • NumOfChannels type="unsignedShort"
  • MixType type="tva:ControlledTermType"
  • AudioLanguage type="tva:AudioLanguageType"

AudioCoding

  • Format type= "mpeg7:ControlledTermUseType"
  • AudioChannels base="nonNegativeInteger"


VideoAttributesType

  • Coding type="tva:ControlledTermType"
  • Scan type="tva:ScanType"
  • HorizontalSize type="unsignedShort"
  • VerticalSize type="unsignedShort"
  • AspectRatio type="tva:AspectRatioType"
  • Color type="tva:ColorType"

VisualCoding

  • Format base= "mpeg7:ControlledTermUseType"
  • Frame mit Attributen: "height" type="nonNegativeInteger", "width" type="nonNegativeInteger", "aspectRatio" type="mpeg7:nonNegativeReal"
  • ColorSampling type="mpeg7:ColorSamplingType"


 



GroupInformationType:

 



GroupType type="tva:BaseProgramGroupTypeType"

-

Der Typ der Gruppe (z.B. series) 



BasicDescription type="tva:BasicContentDescriptionType" (siehe oben)

siehe oben



MemberOf type="tva:BaseMemberOfType" base="tva:CRIDRefType"

  • crid type="tva:CRIDType" base="anyURI" mit pattern
  • index type="unsignedInt"

Mpeg7 -> Description -> Relationships type="mpeg7:GraphType"



 

 

 



ProgramLocationTableType:

 



Schedule type="tva:ScheduleType"

  • ScheduleEvent type="tva:ScheduleEventType" (siehe unten)
  • serviceIDRef type="tva:TVAIDRefType"
  • start type="dateTime"
  • end type="dateTime"

siehe unten



BroadcastEvent type="tva:BroadcastEventType" base="tva:ScheduleEventType"

  • serviceIDRef type="tva:TVAIDRefType"

wie ScheduleEvent siehe unten



OnDemandProgram type="tva:OnDemandProgramType" base="tva:ProgramLocationType" (siehe unten)

  • PublishedDuration type="duration"
  • StartOfAvailability type="dateTime"
  • EndOfAvailability type="dateTime"
  • FirstAvailability type="tva:FlagType"
  • LastAvailability type="tva:FlagType"
  • ImmediateViewing type="tva:FlagType"
  • MediaTime -> MediaDuration
  • UsageDescription -> Availability -> AvailabilityPeriod -> type="firstShowing"
  • UsageDescription -> Availability -> AvailabilityPeriod -> type="lastShowing"


OnDemandService type="tva:OnDemandServiceType"

  • OnDemandProgram type= "tva:OnDemandProgramType"
  • serviceIDRef type="tva:TVAIDRefType"

OnDemandProgram wie oben

-



 



ServiceInformationType:

UsageDescription -> Availability -> Dissemination



Name type="tva:ServiceInformationNameType"

UsageDescription -> Availability -> Dissemination -> Source



Owner type="string"

UsageDescription -> Availability -> Dissemination -> Disseminator



ServiceURL type="anyURI"

UsageDescription -> Availability -> Dissemination -> Source



Logo type="mpeg7:MediaLocatorType"

-

Ein Logo wie etwa ein Bild oder ein Jingle.



ServiceDescription type="tva:SynopsisType"

UsageDescription -> Availability -> Dissemination -> Format



ServiceGenre type="tva:GenreType"

UsageDescription -> Availability -> Dissemination -> Format



ServiceLanguage type="language"

UsageDescription -> Availability -> Dissemination -> Location



ParentService type="tva:ServiceRefType"

-

Eine Referenz zu dem Elterndienst, wenn der Dienst einen Teil seines Schedules von einem anderen Service erbt (z.B. eine regionale Variation eines nationalen Dienstes).



serviceId type="tva:TVAIDType"

-



 



CreditsInformationTableType:

CreationInformation -> Creation -> Creator



PersonName type="tva:TVAPersonNameType" base="mpeg7:PersonNameType"

  • personNameId type="tva:TVAIDType"

CreationInformation -> Creation -> Creator -> Agent (PersonType) -> Name



OrganizationName type="tva:OrganizationNameType" base="mpeg7:TextualType"

  • organizationNameId" type="tva:TVAIDType"

CreationInformation -> Creation -> Creator -> Agent (OrganizationType) -> Name

 

 



 



SegmentInformationTableType:

 



SegmentList type="tva:SegmentListType"

  • SegmentInformation" type="tva:SegmentInformationType" (siehe unten)

siehe unten



SegmentGroupList type="tva:SegmentGroupListType"

  • SegmentGroupInformation" type= "tva:SegmentGroupInformationType" (siehe unten)

siehe unten



 



SegmentInformationType:

Es kann eine Dekomposition über SegmentDecompositionType angegeben werden, dabei muss der passende Untertyp ausgewählt weren, z. B. MultimediaContent -> Video -> TemporalDecomposition -> VideoSegment



ProgramRef type="tva:CRIDRefType"

MediaInformation -> MediaProfile -> MediaInstance -> InstanceIdentifier



TimeBaseReference type="tva:TimeBaseReferenceType"

-

Hier kann eine andere Timebase als die innerhalb der Gruppe benutzte angegeben werden.



Description type= "tva:BasicSegmentDescriptionType"

  • Title type="mpeg7:TitleType"
  • Synopsis type="tva:SynopsisType"
  • Genre type="tva:GenreType"
  • Keyword type="tva:KeywordType"
  • RelatedMaterial type="tva:RelatedMaterialType"
  • CreditsList type="tva:CreditsListType"

SegmentType -> CreationInformation

hier dann die gleichen Element wie schon oben für tva:BasicSegmentDescriptionType



SegmentLocator type="tva:TVAMediaTimeType"

VideoSegment -> MediaTime



KeyFrameLocator type="tva:TVAMediaTimeType"

VideoSegment -> MediaTime



segmentId type="tva:TVAIDType"

-



 



SegmentGroupInformationType:

Das muss genauso wie in SegmentInformation umgesetzt werden.



ProgramRef type="tva:CRIDRefType"

MediaInformation -> MediaProfile -> MediaInstance -> InstanceIdentifier



TimeBaseReference type="tva:TimeBaseReferenceType"

-



GroupType type="tva:BaseSegmentGroupTypeType"

-



Description type= "tva:BasicSegmentDescriptionType" (siehe oben)

SegmentType -> CreationInformation



GroupInterval type="tva:GroupIntervalType"

  • ref type="tva:TVAIDRefType"

-

Ein Verweis auf ein einzelnes Segment, das den zeitlichen Bereich der Segmentgruppe definiert.



Segments type="tva:SegmentsType"

  • refList type="tva:TVAIDRefsType"

eine Dekomposition wie oben beschrieben

 

 



Groups type="tva:GroupsType"

  • refList type="tva:TVAIDRefsType"

eine Dekomposition wie oben beschrieben



KeyFrameLocator type="tva:TVAMediaTimeType"

VideoSegment -> MediaTime



groupId type="tva:TVAIDType"

ordered type="boolean"

numberOfSegments type="unsignedShort"

numberOfKeyFrames type="unsignedShort"

duration type="mpeg7:mediaDurationType"

topLevel type="boolean"

-

-

-

-

MediaTime -> MediaDuration

-



 



ScheduleEventType: base="tva:ProgramLocationType"

UsageDescription -> Availability -> AvailabilityPeriod (base="mpeg7:TimeType")



PublishedStartTime type="dateTime"

Time -> TimePoint type="mpeg7:timePointType"



PublishedEndTime type="dateTime"

Time -> TimePoint type="mpeg7:timePointType"



PublishedDuration type="duration"

MediaTime -> MediaDuration



Live type="tva:FlagType"

type="live"



Repeat type="tva:FlagType"

type="repeat"



FirstShowing type="tva:FlagType"

type="firstShowing"



LastShowing type="tva:FlagType"

type="lastShowing"



Free type="tva:FlagType"

-



 



ProgramLocationType:

 



Program type="tva:CRIDRefType"

MediaInformation -> MediaProfile -> MediaInstance -> InstanceIdentifier



ProgramURL type="anyURI"

MediaInformation -> MediaProfile -> MediaInstance -> MediaLocator -> MediaUri



InstanceMetadataId type="tva:InstanceMetadataIdType" base="anyURI" mit pattern

MediaInformation -> MediaProfile -> MediaInstance -> InstanceIdentifier



InstanceDescription type="tva:InstanceDescriptionType"

  • Title type="mpeg7:TitleType"
  • Synopsis type="tva:SynopsisType"
  • Genre type="tva:GenreType"
  • PurchaseList type="tva:PurchaseListType"
  • AVAttributes type="tva:AVAttributesType"
  • MemberOf type="tva:BaseMemberOfType"

Kann angegeben werden wie schon bei tva:BasicContentDescriptionType in einer

CreationInformation



 

 

 

 

 

 

 

 

 

 

4 P/Meta

Die European Broadcasting Union Project Group P/Meta arbeitet seit 1999 daran einen Metadatenstandard für die Informationen beim Programmaustausch in der Fernsehindustrie zu entwickeln. P/Meta soll also die Anforderungen des B2B Austausch von Medien, mit oder ohne Inhalt, erfüllen. Diese Informationen sind sogar innerhalb einer Sprache unterschiedlich zu interpretieren, so dass der Datenaustausch nicht ohne Interpretation des Menschen möglich ist.

P/Meta soll technologieunabhängig sein. Es können sowohl XML-Dokumente erzeugt werden, als auch Metadaten in Dateien eingebunden werden oder einfache Word Templates erstellt werden. Dabei soll die Bedeutung der Metadaten konsistent bleiben.

ESCORT 2.4, das EBU System zur Klassifikation von Radio- und Fernseh-Programmen, ist eine wichtige Quelle für das P/Meta Schema.

Als weitere Quellen werden genannt [7]:

  • der BBC "Open SMEF"
  • die IFTA Minimum Liste
  • die EBU P/FTA Content Management Liste
  • Dublin Core
  • die Informations Schema für das Management von Medien, die in den Organisationen benutzt werden, die am P/Meta Projekt teilnehmen

In der neuesten Version[8] von 2007 wird das Schema nun auch in XML definiert. P/Meta 2.0 wurde auch unter Berücksichtigung von SMPTE, Dublin Core und TV-Anytime Metadaten entwickelt.

Um zu sehen wer mit wem Daten austauscht, kann man sich das Business Process Model anschauen. Hier gibt es drei verschiedene "business actors" [9] [10]:

  • Die Producer, die für die Herstellung von Programmen und anderem Inhalt verantwortlich sind. Sie schicken Daten an die Archive und an die Broadcaster.
  • Die Archive, in denen vorhandenes Material bereit gehalten wird, um es den Broadcastern zum wiederverwenden zu schicken oder um den Producern, die Daten zum Erstellen neuer Inhalte zur Verfügung zu stellen.
  • Die Distributor oder Broadcaster, welche für die Veröffentlichung und Bereitstellung für den Endnutzer zuständig sind. Sie nehmen auch am B2C Austausch teil, wobei dieser Bereich nicht direkt von P/Meta unterstützt wird, hiermit beschäftigt sich TV-Anytime (Kapitel 3).

Es werden vier Hauptziele des B2B Austausches genannt:

  • das Finden und Zuordnen von Material
  • die redaktionelle Beschreibung von Material bereitstellen
  • die Nutzerrechte für das Material erstellen
  • die technischen Details bereitstellen, um den aktuellen Austausch und den richtigen Gebrauch des Materials zu gewährleisten

4.1 Aufbau

Das Metadata Exchange Scheme ist in seiner ersten Fassung [9] folgendermaßen aufgebaut. Es beschreibt eine Menge von Attributen und schlägt Sets von Attributen für den Austausch vor, um die Informationen für die Sender und Nutzer besser lesbar zu machen. Die P/Meta Komponenten sind:

  • Attribute list. Attribute sind die untersten Elemente. Sie haben einen Identifier und einen Namen. Es werden über 200 Attribute und ihre Bedeutung definiert. Attribute können folgende Werte annehmen: Boolean, Uncontrolled Text, Formatted Code, Controlled Code, Integer, Floating Point usw.
  • Attribute naming convention. Alle Attribute werden mit Großbuchstaben benannt. Einzelne Wörter im Namen werden mit Unterstrich verbunden. Der Name besteht aus drei Teilen, dem Präfix, einem Qualifier und einem Class Name(optional)
  • Lists of defined values. Für Attribute mit Controlled Code muss eine Liste mit allen möglichen Werten zur Verfügung stehen.
  • Set Definitions. Sets sind eine Gruppierung von Attributen und anderen Sets. Sie dienen dazu die Informationen in sinnvollen Zusammenhang zu bringen.

Es werden numerische Codes für Attribute und Standardwerte verwendet, wodurch man den Datenaustausch in unterschiedliche Sprachen übersetzen kann, ohne dass etwas verfälscht wird.

Die neueste Fassung[8] aus dem Jahre 2007 ist als XML Schema verfasst. Die Attribute wurden in XML Elemente oder Attribute und die Sets in XML Complex Types umgewandelt. Aus den Lists of defined values werden Classification Schemes.

P/Meta wurde auf Grundlage des folgenden Modells aufgebaut:

PIC

Daher lassen sich die Metadaten in die folgenden Komponenten-Gruppen einteilen:

  • Programme Group Components
  • Programme Components
  • Item Group Components
  • Item Components
  • Media Object Components
  • Contract and Rights Components
  • Audio, Video and Data Technical Components
  • Others Components
4.1.1 Programme Group Components

Eine Programme Group ist eine Sammlung von Programmen mit einem gemeinsamen redaktionellen Konzept. Es werden für diesen Bereich die folgenden komplexen Typen definiert.

Der ProgrammeGroupType (wie im folgenden Listing definiert) identifiziert und beschreibt eine Programmgruppe und die Details der einzelnen Programme der Gruppe. Die ProgrammeGroupDetails enthalten eine genaue Identifikation und Beschreibung der Gruppe, sowie Informationen zu den Beziehungen des Materials untereinander.

Das Programme enthält grundlegende Informationen zu den Programmen dieser Programmgruppe, darunter Informationen zu Copyright und Austauchformat.

 
<complexType name="ProgrammeGroupType"> 
  <sequence> 
    <element name="ProgrammeGroupDetails" minOccurs="0"> 
      <complexType> 
        <sequence> 
          <element ref="pmeta:ProgrammeGroupIdentification"/> 
          <element ref="pmeta:Classification" 
           minOccurs="0" maxOccurs="unbounded"/> 
          <element ref="pmeta:ProgrammeGroupDescription" 
           minOccurs="0"/> 
          <element ref="pmeta:MaterialRelationshipsDetails" 
           minOccurs="0"/> 
        </sequence> 
      </complexType> 
    </element> 
    <element name="Programme" minOccurs="0" maxOccurs="unbounded"> 
      <complexType> 
        <sequence> 
          <element ref="pmeta:ProgrammeInformation"/> 
          <element ref="pmeta:AvailableExchangeFormat" 
           minOccurs="0" maxOccurs="unbounded"/> 
          <element ref="pmeta:CopyrightHolder" minOccurs="0"/> 
          <element ref="pmeta:CopyrightAgent" minOccurs="0"/> 
          <element ref="pmeta:ContractDetails" minOccurs="0"/> 
        </sequence> 
      </complexType> 
    </element> 
  </sequence> 
</complexType>

Listing 22:

pmeta:ProgrammeGroupType

Der ProgrammeGroupDescriptionType enthält beschreibende Informationen über eine Programmgruppe als Ganzes. Er beinhaltet Elemente zu Language, Synopsis, Keywords, Award, Review usw.

Der ProgrammeGroupIdentificationType beschreibt Identifikationsmerkmale für die Programmgruppe als Ganzes. Er beinhaltet unter anderem die Elemente Identifier, Contribution und ProductionEndDate.

Der ProgrammeGroupTitleHistoryType enthält einen Verlauf der Titel der Programmgruppe. Der "OriginalProgrammeGroupTitle" bezieht sich auf den Originaltitel der Programmgruppe, möglicherweise in verschiedenen Sprachen. Der "OtherProgrammeGroupTitle" bezieht sich auf andere Titel als der Originaltitel. Es können verschiedene Länder und Sprachen angegeben werden.

Der ProgrammeGroupTransmissionCycleType identifiziert durch seinen Code oder Namen einen bestimmten Übertragungskreislauf für die Programmgruppe.

Der SeriesType beschreibt eine Serie als eine selbst definierte Programmgruppe. Die "Episode" enthält zusätzliche Informationen für jede Episode der Serie.

4.1.2 Programme Components

Ein Programme ist ein audiovisuelles Werk. Folgende komplexe Typen werden dafür definiert.

Der ProgrammeInformationType beinhaltet detaillierte Informationen zu einem Programm und den verschiedenen Programm Items und/oder Media Objects, die dieses Programm bilden. Es enthält unter anderem die Elemente "ProgrammeDetails", "MaterialRelationshipsDetails", "ItemDetails", "MediaObjectDetails" und "ContractClausesAndRightsList".

Der ProgrammeDetailsType besteht aus einer "ProgrammeIdentification", einer "Classification" und einer "ProgrammeDescription".

Der ProgrammeDescriptionType (wie im folgenden Listing definiert) beinhaltet eine komplette Programmbeschreibung. Dabei werden Language, Duration, Keywords, Synopsis usw. definiert.

 
<complexType name="ProgrammeDescriptionType"> 
  <sequence> 
    <element ref="pmeta:DataDefaultLanguage" minOccurs="0"/> 
    <element ref="pmeta:Duration" minOccurs="0"/> 
    <element ref="pmeta:ProgrammeSynopsis" minOccurs="0"/> 
    <element ref="pmeta:ProgrammeScript" minOccurs="0"/> 
    <element ref="pmeta:ColourCode" minOccurs="0"/> 
    <element ref="pmeta:SubtitleFlag"/> 
    <element ref="pmeta:LanguageHistory" minOccurs="0"/> 
    <element ref="pmeta:Location" minOccurs="0"/> 
    <element ref="pmeta:Keywords" minOccurs="0"/> 
    <element ref="pmeta:Award" minOccurs="0" 
     maxOccurs="unbounded"/> 
    <element ref="pmeta:ReviewDetails" minOccurs="0" 
     maxOccurs="unbounded"/> 
    <element ref="pmeta:SignLanguageDetails" 
     minOccurs="0" maxOccurs="unbounded"/> 
  </sequence> 
</complexType>

Listing 23:

pmeta:ProgrammeDescriptionType

Der ProgrammeIdentificationType beinhaltet Informationen zur Identifikation eines einzelnen Programms. Es wird durch eine Id und/oder die Position z.B. in einer Serie identifiziert. Das Programm kann aus mehr als einer Episode bestehen, was durch entsprechende Zähler angegeben wird.

Der ProgrammeTitleHistoryType enthält einen Verlauf der Titel der Programms. Wie schon bei der Programmgruppe, gibt es auch hier Informationen zum Originaltitel und zu anderen Titeln.

4.1.3 Item Group Components

Eine Item Group ist eine Sammlung von Items, zusammengefasst als Teil eines Programms oder in anderer Weise redaktionell verwandt.

Der ItemsGroupType beschreibt eine Gruppe von Items als einen einzelnen redaktionellen Teil einen Programms, nicht zwingend zeitlich zusammenhängend. Er beinhaltet Elemente für Sprache, Identifier, Contribution usw.

4.1.4 Item Components

Ein Item ist Bestandteil eines Programms.

Der ItemType identifiziert und beschreibt ein Inhaltselement (content item). Es besteht aus "ItemDetails", "ItemInformation" und "ContractDetails".

Der ItemDetailsType beinhaltet beschreibende Informationen zu einem Inhaltselement. Er umfasst eine "ItemIdentification", eine "Classification" und eine "ItemDescription."

Der ItemInformationType beinhaltet zusätzliche Informationen zum Gebrauch, zum Aufbau und den vorhandenen Verträgen eines Inhaltselements. Es sind Elemente wie "TransmissionPublicationDetails", "RelatedProgrammeInformation" und "MediaObjectDetails" enthalten.

Der ItemDescriptionType beinhaltet alle nötigen Informationen zur Beschreibung eines Inhaltselements. Es werden Elemente zu Synopsis, Duration, Location, Keywords, Language, Review usw. definiert.

Der ItemIdentificationType identifiziert ein Item durch seinen "Identifier", seinen "Title" und, wenn es nur Teil eines anderen Materials ist, seine "Time Position". Weiter gibt es Informationen wer bei der Herstellung mitgewirkt hat usw.

Der ItemTitleHistoryType (wie im folgenden Listing definiert) enthält einen Verlauf der Titel des Items. Auch hier wird wieder dieselbe Aufteilung wie schon bei Programmgruppe und Programm verwendet.

 
<complexType name="ItemTitleHistoryType"> 
  <sequence> 
    <element name="OriginalItemTitle" maxOccurs="unbounded"> 
      <complexType> 
        <sequence> 
          <element ref="pmeta:Language" minOccurs="0"/> 
          <element ref="pmeta:ItemTitle"/> 
          <element ref="pmeta:Item" minOccurs="0"/> 
        </sequence> 
      </complexType> 
    </element> 
    <element name="OtherItemTitle" minOccurs="0" 
     maxOccurs="unbounded"> 
      <complexType> 
        <sequence> 
          <element ref="pmeta:Language" minOccurs="0"/> 
          <element ref="pmeta:Country" minOccurs="0"/> 
          <element ref="pmeta:ItemTitle"/> 
          <element ref="pmeta:Item" minOccurs="0"/> 
          <element ref="pmeta:ExplanatoryNote" minOccurs="0"/> 
        </sequence> 
      </complexType> 
    </element> 
  </sequence> 
</complexType>

Listing 24:

pmeta:ItemTitleHistoryType

4.1.5 Media Object Components

Ein Media Object ist eine einzelne Komponente eines Programms oder Items. Hierzu werden die folgenden komplexen Typen definiert.

Der MediaObjectType identifiziert und beschreibt ein Medienobjekt. Er besteht aus einer "MediaObjectInformation" und den "ContractDetails".

Der MediaObjectInformationType beinhaltet Informationen zu einem Medienobjekt. Diese sind "MediaObjectDetails", "MaterialRelationshipsDetails", "MaterialExchangeInstance" und "ContractClausesAndRightsList".

Der MediaObjectDetailsType identifiziert und beschreibt ein Medienobjekt mit "MediaObjectIdentification", "MediaObjectDescription" und "Classification".

Der MediaObjectIdentificationType stellt Informationen zur Identifikation von Medienobjekten bereit. Ein Identifier und ein Objekttyp müssen angegeben werden. Start und Ende werden wie bei dem Programm oder Item, welche das Medienobjekt enthalten, angegeben. Weiter werden auch "Title" und "Contribution" angegeben.

Der MediaObjectDescriptionType definiert eine Beschreibung für ein Medienobjekt. Der Objekttyp muss angegeben werden, ebenso ein Zeitintervall, das jedoch für Objekttypen wie ein Foto beides auf Null gesetzt werden kann. Zudem kann Location, Language, Keywords, ColourCode usw. angegeben werden.

Der MediaObjectTitleHistoryType enthält einen Verlauf der Titel des Medienobjekts. Dies folgt wieder dem gleichen Schema wie schon bei den anderen Komponenten.

4.1.6 Contract and Rights Components

Es werden verschiedene komplexe Typen zu Rechten und Verträgen definiert.

Der ContractClausesAndRightsListType (wie im folgenden Listing definiert) beinhaltet Informationen über Vertragsklauseln und vergebene Rechte, bezogen auf Segmente des durch Zeitintervalle begrenzten Inhalts. In "SegmentDetails" sind Infomationen über ein zeitlich begrenztes Segment. Die "MediaObjectBasicIdentification" enthält Informationen über das Medienobjekt aus dem das Segment besteht. In "Rights" sind Informationen über die Rechte ein bestimmtes Segment betreffend.

 
<complexType name="ContractClausesAndRightsListType"> 
  <sequence> 
    <element ref="pmeta:DataDefaultLanguage" minOccurs="0"/> 
    <element name="SegmentDetails" maxOccurs="unbounded"> 
      <complexType> 
        <sequence> 
          <sequence> 
            <element ref="pmeta:EventStartElapsedTime"/> 
            <element ref="pmeta:EventEndElapsedTime"/> 
          </sequence> 
          <element name="MediaObjectBasicIdentification" 
           minOccurs="0" maxOccurs="unbounded"> 
            <complexType> 
              <sequence> 
                <element ref="pmeta:MediaObjectTitle" 
                 minOccurs="0"/> 
                <element ref="pmeta:Identifier" minOccurs="0"/> 
                <element ref="pmeta:MediaObjectTypeCode" 
                 minOccurs="0"/> 
              </sequence> 
            </complexType> 
          </element> 
          <element name="Rights"> 
            <complexType> 
              <choice maxOccurs="3"> 
                <element ref="pmeta:ContractNumber"/> 
                <element ref="pmeta:ContractClauseDescription" 
                 minOccurs="0" maxOccurs="unbounded"/> 
                <element ref="pmeta:GrantOfRightsDetails" 
                 minOccurs="0" maxOccurs="unbounded"/> 
              </choice> 
            </complexType> 
          </element> 
          <element ref="pmeta:ContractingParties" minOccurs="0"/> 
        </sequence> 
      </complexType> 
    </element> 
  </sequence> 
</complexType>

Listing 25:

pmeta:ContractClausesAndRightsListType

Der ContractDetailsType umfasst alle Details eines Vertrags zwischen zwei Parteien über den Gebrauch von einem oder mehreren Medienposten. Es enthält unter anderem Typ, Nummer, Name und Beschreibung des Vertrages. Weiter sind Informationen zu "Licensor" und "Licensee" enthalten.

Der ContractFeesDetailsType gibt Details zu Vertragsgebühren und der Zahlungsart an. Dabei werden auch Details angegeben, wohin die Gebühren gezahlt werden sollen. Es können auch Details zu Ratenzahlungen angegeben werden.

Der ContractLineType beschreibt eine Vertragszeile durch die "ContractLineNumber" und/oder den "ContractLineName".

Der ContractTypeType beschreibt den Typ eines Vertrages durch einen Code und/oder einen Namen.

Der GrantOfRightsConditionsType beschreibt die Bedingungen unter denen Rechte für einen bestimmten Zeitraum oder einen bestimmten Bereich vergeben wurden. Es wird Start- und Enddatum, sowie "RightTerritoryDetails", "RightConditionDescription" usw. angegeben.

Der GrantOfRightsDetailsType definiert die vergebenen Rechte und die dazugehörigen Konditionen innerhalb des Vertrags.

Der RightGrantOfRightsMediaType identifiziert den Typ der Medien, die durch die Vergabe der Rechte abgedeckt sind, durch seinen Code und/oder Namen.

Der RightTerritoryDetailsType beschreibt die durch die Vergabe der Rechte abgedeckten Bereiche durch eine Beschreibung oder eine Liste von abgedeckten oder ausgeschlossenen Bereichen.

Der RightTypeType identifiziert den Typ eines Rechtes durch seinen Code oder seine Beschreibung.

4.1.7 Audio, Video and Data Technical Components

Zu den technischen Details von Audio, Video und Daten werden die folgenden komplexen Typen definiert.

Der AudienceScoreRecordingTechniqueType identifiziert die Technik zum erfassen der Publikumsauswertung durch einen Namen oder Code.

Der TechnicalDetailsType definiert die notwendigen technischen Informationen, die benötigt werden um die Instanzen des Materials zu verwenden. Es können Angaben zu Audio, Video und Fotos gemacht werden.

Der AudioCompressionType identifiziert ein Audiokodierungsverfahren durch einen Code und/oder Namen.

Der AudioFormatType identifiziert das Audioformat durch einen Code und/oder Namen.

Der DataCompressionType identifiziert das Datenkompressionsverfahren durch einen Namen oder Code.

Der VideoCompressionType identifiziert das Kodierungsverfahren, das benutzt wird um Videos zu komprimieren, durch einen Code oder Namen.

4.1.8 Others Components

Es werden noch weitere komplexe Typen definiert. Dabei werden unter anderem Typen für Adressen, Personen, Sprache, Organisationen usw. definiert.

4.2 Vergleich von P/Meta mit MPEG-7

Ausgehend von den P/Meta Elementen wurden korrespondierende Elemente aus MPEG-7 gesucht. Die Elemente eines Typs sind unterhalb des Typs mit Doppelpunkt angeführt, nach einer Leerzeile kommt ein neuer Typ. Ist kein "type" bei einem Element angegeben, so bedeutet das, dass beim Namen nur das Wort Type angehängt werden muss. (z. B. pmeta:Classification entspricht type="pmeta:ClassificationType" )

Bei Elementen für die ClassificationSchemes definiert sind ist der Typ meist "anyURI" (z.B. pmeta:AudioFormatCode type="anyURI").

Für einige Element konnte kein passendes Element in Mpeg7 gefunden werden, diese sind mit "-" vermerkt. Sollten die Elemente wichtige Informationen enthalten so kann man dies in einer TextAnnotation vermerken (als Element DescriptionMetadata -> Comment oder Creation -> Abstract). Es wird dabei eine Beschreibung des P/Meta Elements wie in der Dokumentation [11] angegeben.

Es wird immer wieder ein Element Language angegeben, dies kann in MPEG-7 im "mpeg7: ExtendedLanguageType" (CreationInformation -> Classification -> Language) oder im Attribut "xml:lang" (im jeweiligen Element) angegeben werden. Dies wird im untenstehenden Vergleich nicht mehr jedes Mal angegeben.



ProgrammeGroupType:

Eine Programmgruppe, als Sammlung mehrerer Programme gibt es so nicht in MPEG-7. Dies lässt sich aber durch das Element Mpeg7 -> Description -> Relationships darstellen. Damit kann man einen Graph der zusammengehörenden Programme schaffen.



ProgrammeGroupDetails

  • pmeta:ProgrammeGroupIdentification (siehe unten)
  • pmeta:Classification (siehe unten)
  • pmeta:ProgrammeGroupDescription (siehe unten)
  • pmeta:MaterialRelationshipsDetails (siehe unten)
  • siehe unten
  • Mpeg7 -> Description (ClassificationSchemeDescriptionType) -> ClassificationScheme
  • CreationInformation -> Creation
  • Mpeg7 -> Description -> Relationships type="mpeg7:GraphType"


Programme

  • pmeta:ProgrammeInformation (siehe unten)

siehe unten



  • pmeta:AvailableExchangeFormat type= "pmeta:TechnicalDetailsType" (siehe unten)

MediaDescription -> MediaInformation -> MediaProfile -> MediaFormat



  • pmeta:CopyrightHolder type= "pmeta:ContributorDetailsType"

CreationInformation -> Creation -> CopyrightString(type="mpeg7:TextualType") oder

UsageInformation -> Rights



  • pmeta:CopyrightAgent type= "pmeta:ContributorDetailsType" (siehe unten)

CreationInformation -> Creation -> CopyrightString (type="mpeg7:TextualType") oder

UsageInformation -> Rights



  • pmeta:ContractDetails (siehe unten)

UsageInformation -> Rights



 



ProgrammeGroupIdentificationType:

 



pmeta:DataDefaultLanguage type="pmeta:LanguageType"

  • pmeta:LanguageCode type="string"
  • pmeta:LanguageName type="string"

 



pmeta:Identifier type="pmeta:IdentifierDetailsType "

  • pmeta:IdentifierType
    • pmeta:IdentifierTypeName type="string"
    • pmeta:IdentifierTypeCode type="anyURI"
  • pmeta:IdentifierNumber type="string"

DescriptionMetadata -> PublicIdentifier type="mpeg7:UniqueIDType" ->

attribute name="type"

attribute name="organization"

attribute name="authority"

attribute name="encoding"



pmeta:ProgrammeGroupTitleHistory (siehe unten)

siehe unten



pmeta:ProgrammeGroupEpisodeQuantity type="nonNegativeInteger"

-

Die Anzahl der Episoden einer Serie.



pmeta:ProgrammeGroupOrderedFlag type=" boolean "

-

Zeigt an ob ein einzelnes Programm oder eine Episode innerhalb der Programmgruppe geordnet sein muss, um die korrekte Bedeutung wieder zu geben.



pmeta:Contribution (siehe unten)

CreationInformation -> Creation -> Creator



pmeta:ProductionEndDate type="date"

CreationInformation -> Creation -> Date (type="mpeg7:TimeType")



pmeta:EditorialControlDetails (siehe unten)

siehe unten



 



ClassificationType:

Mpeg7 -> Description (ClassificationSchemeDescriptionType) -> ClassificationScheme ->



pmeta:DataDefaultLanguage (siehe oben)

 

 

 



ClassificationIndex

  • pmeta:ClassificationSchemeIdentification
    • pmeta:ClassificationSchemeCode type="anyURI"
    • pmeta:ClassificationSchemeName type="string"
  • pmeta:ClassificationData type= "pmeta:ClassificationTermType" (siehe unten)
  • attribute name="uri" type="anyURI"
  • Term type="mpeg7:TermDefinitionType"


 



ClassificationTermType:

Mpeg7 -> Description (ClassificationSchemeDescriptionType) -> ClassificationScheme -> Term



pmeta:ClassificationDimension

  • pmeta:ClassificationDimensionCode type="anyURI"
  • pmeta:ClassificationDimensionName type="string"

Term -> Definition



pmeta:ClassificationTerm type= "pmeta:ClassificationTermTypeType"

  • pmeta:ClassificationTermCode type="anyURI"
  • pmeta:ClassificationTermName type="string"

Term -> Name



 



ProgrammeGroupDescriptionType:

CreationInformation -> Creation



pmeta:DataDefaultLanguage type="pmeta:LanguageType" (siehe oben)

 



pmeta:ProgrammeGroupSynopsis type="string"

CreationInformation -> Classification -> Subject (type="mpeg7:TextAnnotationType")



pmeta:ColourCode type="anyURI"

MediaInformation -> MediaProfile -> MediaFormat -> VisualCoding -> Format -> colorDomain



pmeta:SubtitleFlag type="boolean"

Subtitle kann angegeben werden, aber es gibt kein Flag dafür.



pmeta:LanguageHistory (siehe unten)

siehe unten



pmeta:Location (siehe unten)

CreationInformation -> Creation -> Location



pmeta:Keywords (siehe unten)

CreationInformation -> Creation -> Abstract -> KeywordAnnotation



pmeta:Award

  • pmeta:AwardName type="string"
  • pmeta:FestivalName type="string"

-

Hier werden Auszeichnungen angegeben



pmeta:ReviewDetails (siehe unten)

CreationInformation -> Classification -> MediaReview



pmeta:SignLanguageDetails (siehe unten)

CreationInformation -> Classification -> SignLanguage



 



MaterialRelationshipsDetailsType:

Mpeg7 -> Description -> Relationships type="mpeg7:GraphType" ->



RelationshipDetails

  • pmeta:MaterialRelationshipTypeCode type="anyURI"

Relation -> type (type="mpeg7:termReferenceListType")

 

 



  • RelatedEntity
    • pmeta:BrandTitleHistory (siehe unten)
    • pmeta:ProgrammeGroupIdentification (siehe oben)
    • pmeta:ProgrammeIdentification (siehe unten)
    • pmeta:ItemIdentification (siehe unten)
    • pmeta:MediaObjectIdentification (siehe unten)

Relation -> target (type="mpeg7:termReferenceListType")



 



ProgrammeInformationType:

 



pmeta:ProgrammeDetails

  • pmeta:ProgrammeIdentification (siehe unten)
  • pmeta:Classification (siehe oben)
  • pmeta:ProgrammeDescription (siehe unten)

Mpeg7 -> Description ... (genaueres bei den jeweiligen Typen)



pmeta:MaterialRelationshipsDetails (siehe oben)

Mpeg7 -> Description -> Relationships



pmeta:TransmissionPublicationDetails (siehe unten)

siehe unten



pmeta:ItemDetails

  • pmeta:ItemIdentification (siehe unten)
  • pmeta:Classification (siehe oben)
  • pmeta:ItemDescription (siehe unten)

Mpeg7 -> Description ... (genaueres bei den jeweiligen Typen)



pmeta:MediaObjectDetails

  • pmeta:MediaObjectIdentification (siehe unten)
  • pmeta:MediaObjectDescription (siehe unten)
  • pmeta:Classification (siehe oben)
  • MediaDescription -> MediaInformation -> MediaIdentification type= "mpeg7:MediaIdentificationType"
  • MediaProfile type="mpeg7:MediaProfileType"
  • siehe oben


pmeta:MaterialExchangeInstance (siehe unten)

siehe unten



pmeta:ContractClausesAndRightsList (siehe unten)

UsageInformation -> Rights



 



TechnicalDetailsType:

MediaDescription -> MediaInformation -> MediaProfile -> MediaFormat:



pmeta:DataDefaultLanguage type="pmeta:LanguageType" (siehe oben)

 



pmeta:AudioFormat

  • pmeta:AudioFormatCode type="anyURI"
  • pmeta:AudioFormatName type="string"

FileFormat type="mpeg7:ControlledTermUseType"



pmeta:AudioCompression

  • pmeta:AudioCompressionCode type="anyURI"
  • pmeta:AudioCompressionName type="string"

AudioCoding -> Format type="mpeg7:ControlledTermUseType"



pmeta:AudioSampleRate type="float"

AudioCoding -> Sample -> rate(type="mpeg7:nonNegativeReal")



pmeta:AudioBitrate type="nonNegativeInteger"

BitRate base="nonNegativeInteger"



pmeta:AudioBitsPerSample type="string"

AudioCoding -> Sample -> bitsPer(type="nonNegativeInteger")



pmeta:AudioFixedBitrateIndicator type="boolean"

-

Zeigt an ob das Kodierungsformat eine feste Bitrate liefert. True bedeutet feste Bitrate.



pmeta:AudioReferenceLevel type="integer"

-

Das Audio Level in Dbm für 0VU.

 

 



pmeta:VideoCompression

  • pmeta:VideoCompressionCode type="anyURI"
  • pmeta:VideoCompressionName type="string"

VisualCoding -> Format base="mpeg7:ControlledTermUseType"



pmeta:VideoSampleRate type="nonNegativeInteger"

AudioCoding -> Sample -> rate



pmeta:VideoSamplingHierarchyCode type="anyURI"

-

Ein Code, der die "component sampling hierarchy for the video pixel matrix” bestimmt.



pmeta:VideoInterlacedSamplingStructureFlag type="anyURI"

-

Gibt an ob es sich um Zwischenzeilenabtastung handelt.



pmeta:VideoTotalSamplesPerLine type="nonNegativeInteger"

-

Gibt die Anzahl der Samples in einer kompletten Linie der Video Pixelmatrix an.



pmeta:VideoTotalLinesPerFrame type="nonNegativeInteger"

VisualCoding -> Frame -> height/width



pmeta:VideoFixedBitrateIndicator type="boolean"

-

Zeigt an ob die Bitrate fest ist im Gegensatz zu variabel.



pmeta:VideoFrameRate type="anyURI"

VisualCoding -> Frame -> rate



pmeta:VideoBitsPerPixel type="nonNegativeInteger"

VisualCoding -> Pixel -> bitsPer



pmeta:VideoAverageBitrate type="nonNegativeInteger"

BitRate



pmeta:VideoActiveSamplesPerLine type="nonNegativeInteger"

-

Die Anzahl der Pixel innerhalb einer Linie, die Information aufnehmen können.



pmeta:VideoActiveLinesPerFrame type="nonNegativeInteger"

VisualCoding -> Frame -> height/width



pmeta:PictureOriginalFramingAspectRatio type="pmeta:AspectRatioType" base="string" mit pattern

VisualCoding -> Frame -> aspectRatio



pmeta:PictureIntendedDisplayAspectRatio type="pmeta:AspectRatioType"

VisualCoding -> Pixel -> aspectRatio



pmeta:PictureDisplayFormatCode type="anyURI"

VisualCoding -> Format



pmeta:PictureActionHorizontalSafePercentage type="decimal"

-

Gibt den Prozentsatz des Bildes an, der außerhalb der "horizontal safe area for action" liegt.



pmeta:PictureActionVerticalSafePercentage type="decimal"

-

Gibt den Prozentsatz des Bildes an, der außerhalb der "vertical safe area for action" liegt.



pmeta:PictureGraphicsHorizontalSafePercentage type="decimal"

-

Gibt den Prozentsatz des Bildes an, der außerhalb der "horizontal safe area for graphics" liegt.



pmeta:PictureGraphicsVerticalSafePercentage type="decimal"

-

Gibt den Prozentsatz des Bildes an, der außerhalb der "vertical safe area for graphics" liegt.



pmeta:DataCompression

  • pmeta:DataCompressionCode type="anyURI"
  • pmeta:DataCompressionName type="string"

OtherCodingFormat type="mpeg7:ControlledTermUseType"

 

 



 



ContributorDetailsType:

CreationInformation -> Creation -> Creator -> Agent



pmeta:DataDefaultLanguage type="pmeta:LanguageType" (siehe oben)

 



pmeta:PersonDetails (siehe unten)

PersonType base="mpeg7:AgentType"



pmeta:OrganisationDetails (siehe unten)

OrganizationType base="mpeg7:AgentType"



pmeta:ExplanatoryNote base="string"

-

Jegliche erläuternde Information, die im Zusammenhang benötigt wird.



 



ContractDetailsType:

UsageInformation -> Rights

Hier werden nur ID´s angegeben, in P/Meta wird das viel weiter aufgeschlüsselt, dies gibt es nicht in MPEG-7, die Informationen können daher nur rein textuell übernommen werden als Annotation



pmeta:DataDefaultLanguage type="pmeta:LanguageType" (siehe oben)

 



pmeta:ContractType

  • pmeta:ContractTypeCode type="anyURI"
  • pmeta:ContractTypeName type="string"

-

Definiert einen Vertragstyp durch einen Code und/oder Namen.



pmeta:ContractNumber type="string"

-

Eine Nummer, die dem Vertrag zugeteilt wurde, um ihn zu identifizieren.



pmeta:ContractDate type="date"

-

Das Datum, an dem ein Vertrag ausgestellt wurde.



pmeta:Licensor type="pmeta:ContributorDetailsType" (siehe oben)

CreationInformation -> Creation -> Creator -> Agent



pmeta:ContractualMaterial type= "pmeta:IdentityMinimumDetailsType"

  • pmeta:DataDefaultLanguage type="pmeta:LanguageType" (siehe oben)

-

Identifiziert die Inhalte, die von dem Vertrag abgedeckt werden.



  • IdentifyingInformation
    • pmeta:Identifier type= "pmeta:IdentifierDetailsType" (siehe oben)
    • pmeta:TitleHistory (siehe unten)

DescriptionMetadata -> PublicIdentifier



pmeta:Licensee type="pmeta:ContributorDetailsType" (siehe oben)

CreationInformation -> Creation -> Creator -> Agent



pmeta:LicenseCoveredMaterial type= "pmeta:IdentityMinimumDetailsType" (siehe oben)

-

Eine minimale Identifizierung und Beschreibung der Inhalte, die von einer Lizenz abgedeckt werden.



pmeta:ContractFeesDetails (siehe unten)

siehe unten



pmeta:ContractTermsOfBusinessDescription type="string"

-

Eine Beschreibung der Geschäftsbedingungen des angegebenen Vertrags oder der Transaktion. Diese variieren von Organisation zu Organisation und teilweise auch von Transaktion zu Transaktion.



pmeta:ContractClauseDescription type="string"

-

Beschreibung einer Klausel innerhalb eines Vertrags.

 

 



pmeta:GrantOfRightsDetails (siehe unten)

siehe unten



pmeta:UsageReportDueDate type="date"

-

Das Datum, an dem ein vertraglicher Report des Materialeinsatzes fällig ist.



pmeta:LicensorSignatory type="pmeta:PersonDetailsType"

-

Informationen zu der Person, die einen Vertrag im Namen eines Lizenzgebers unterschrieben hat.



pmeta:LicenseeSignatory type= "pmeta:PersonDetailsType" (siehe unten)

-

Informationen zu der Person, die einen Vertrag im Namen eines Lizenznehmers unterschrieben hat.



pmeta:TechnicalDetails type= "pmeta:TechnicalDetailsType" (siehe oben)

MediaDescription -> MediaInformation -> MediaProfile -> MediaFormat



 



ProgrammeGroupTitleHistoryType:

 



OriginalProgrammeGroupTitle

  • pmeta:Language type= "pmeta:LanguageType" (siehe oben)

 



  • pmeta:ProgrammeGroupWorkingTitle type="string"

Creation -> Title -> type="alternative"



  • pmeta:ProgrammeGroupTitle type="string"

Creation -> Title -> type="original"



  • pmeta:ProgrammeGroupSubtitle type="string"

Creation -> Title -> type="secondary"



OtherProgrammeGroupTitle

  • pmeta:Language type= "pmeta:LanguageType" (siehe oben)

 



  • pmeta:Country
    • pmeta:CountryCode type="string"
    • pmeta:CountryName type="string"

Creation -> CreationCoordinates -> Location -> Country type="mpeg7:countryCode"



  • pmeta:ProgrammeGroupWorkingTitle type="string"

Creation -> Title -> type="alternative"



  • pmeta:ProgrammeGroupTitle type="string"

Creation -> Title -> type="main"



  • pmeta:ProgrammeGroupSubtitle type="string"

Creation -> Title -> type="secondary"



  • pmeta:ExplanatoryNote base="string"

-



 



ContributionType:

CreationInformation -> Creation -> Creator base="mpeg7:MediaAgentType"



pmeta:DataDefaultLanguage type="pmeta:LanguageType" (siehe oben)

 

 

 



RoleDetails

  • pmeta:RoleDetailsLanguage type="pmeta:LanguageType" (siehe oben)

 



  • pmeta:RoleType
    • pmeta:RoleTypeCode type="anyURI"
    • pmeta:RoleTypeName type="string"

Role type="mpeg7:ControlledTermUseType"



  • ContributionDetails
    • pmeta:RoleName type="string"
    • pmeta:ContributorDetails (siehe oben)

(Character type="mpeg7:PersonNameType") oder

CreationInformation -> Creation -> Creator -> Agent



 



EditorialControlDetailsType:

 



pmeta:DataDefaultLanguage type="pmeta:LanguageType" (siehe oben)

 



pmeta:EditorialControl

  • pmeta:EditorialControlCode type="anyURI"
  • pmeta:EditorialControlName type="string"

CreationInformation -> Classification -> Genre



EditorialControlBy

  • pmeta:OrganisationName type="string"
  • pmeta:Country (siehe oben)

CreationInformation -> Creation -> Creator -> Agent (OrganizationType)



pmeta:ReferenceYear type="gYear"

CreationInformation -> Creation -> CreationCoordinates -> Date



 



LanguageHistoryType:

in CreationInformation -> Classification -> Language kann eine Sprache angegeben werden, eine Language History wie in P/Meta gibt es aber nicht



pmeta:DataDefaultLanguage type="pmeta:LanguageType" (siehe oben)

 



OriginalLanguage

  • pmeta:Language (siehe oben)

CreationInformation -> Classification -> Language



  • pmeta:LanguageUsage
    • pmeta:LanguageUsageCode type="anyURI"
    • pmeta:LanguageUsageDescription type="string"

-

Beschreibt den Gebrauch einer bestimmten Sprache.



ExchangedVersionLanguage

  • pmeta:Language (siehe oben)
  • pmeta:LanguageUsage (siehe oben)

-

Die Beschreibungssprache, in der eine Version benutzt wird.



 



LocationType:

Creation -> CreationCoordinates -> Location type="mpeg7:PlaceType":



pmeta:DataDefaultLanguage type="pmeta:LanguageType" (siehe oben)

attribute ref="xml:lang"



LocationDetails

Role type="mpeg7:TermUseType" (hier Angabe worum es sich handelt, z.B. Setting)



  • Action
    • pmeta:LocationActionName type="string"
    • pmeta:Address (siehe unten)
  • Name type="mpeg7:TextualType"
  • PostalAddress oder StructuredPostalAddress

 

 



  • Capture
    • pmeta:LocationCaptureName type="string"
    • pmeta:Address (siehe unten)

wie bei Action



  • Setting
    • pmeta:LocationSettingName type="string"
    • pmeta:Address (siehe unten)

wie bei Action



 



KeywordsType:

CreationInformation -> Creation -> Abstract -> KeywordAnnotation:



pmeta:DataDefaultLanguage type="pmeta:LanguageType" (siehe oben)

 



Keyword"

  • KeywordLanguage type= "pmeta:LanguageType "
  • pmeta:KeywordName type="string"

Keyword base="mpeg7:TextualType"



  • SubjectContext
    • pmeta:UnclassifiedSubjectContext type= "pmeta:ExplanatoryNoteType" base="string"
    • pmeta:ClassifiedSubjectContext type="pmeta:ClassificationType" (siehe oben)

-

Ein Stichwort kann aus einem Thesaurus stammen oder nicht klassifiziert sein.



  • pmeta:ClassifiedSubject type="pmeta:ClassificationType" (siehe oben)

-

Beinhaltet ein Thema aus einem Thesaurus.



 



ReviewDetailsType:

CreationInformation -> Classification -> MediaReview:



pmeta:DataDefaultLanguage type="pmeta:LanguageType" (siehe oben)

 



pmeta:ReviewTitle type="string"

FreeTextReview type="mpeg7:TextualType"



pmeta:ReviewSubtitle type="string"

FreeTextReview type="mpeg7:TextualType"



ReviewContent

  • pmeta:ReviewCompleteText type="string"

FreeTextReview type="mpeg7:TextualType"

(oder ReviewReference type="mpeg7:RelatedMaterialType")



  • pmeta:ReviewIdentifier type="pmeta:IdentifierDetailsType" (siehe oben)

-



  • pmeta:ReviewExcerptText type="string"

FreeTextReview type="mpeg7:TextualType"



pmeta:ReviewContribution type= "pmeta:ContributionType" (siehe oben)

Reviewer type="mpeg7:AgentType"



ReviewPublicationDetails

  • pmeta:FirstPublicationEventStart type="pmeta:TimestampType"
    • "Date" type="date"
    • "Time" type="time"

Enthält Informationen über die Veröffentlichung der Kritik.

Kann angegeben werden in

Time -> TimePoint type="mpeg7:timePointType"



  • pmeta:PublicationEventStart type= "pmeta:TimestampType" (siehe oben)
  • pmeta:PublicationEventEnd type= "pmeta:TimestampType" (siehe oben)

Kann angegeben werden in

Time -> TimePoint type="mpeg7:timePointType")



 

 

 



SignLanguageDetailsType:

CreationInformation -> Classification -> SignLanguage



SignLanguage

 



  • pmeta:SignLanguage
    • pmeta:SignLanguageCode type="string"
    • pmeta:SignLanguageName type="string"

CreationInformation -> Classification -> SignLanguage base="language"



  • pmeta:SignLanguagePrimaryLanguageIndicator type="boolean"

SignLanguage -> primary type="boolean"



  • pmeta:SignLanguageTranslationIndicator type="boolean"

SignLanguage -> translation type="boolean"



 



BrandTitleHistoryType:

CreationDescription -> CreationInformation -> RelatedMaterial



OriginalBrandTitle

  • pmeta:Language (siehe oben)
  • pmeta:BrandTitle type="string"

RelatedMaterial -> CreationInformation -> Creation -> Title -> type="original"



OtherBrandTitle

  • pmeta:Language (siehe oben)
  • pmeta:Country (siehe oben)

RelatedMaterial -> CreationInformation -> Creation -> CreationCoordinates -> Location -> Country



  • pmeta:BrandTitle type="string"
  • pmeta:ExplanatoryNote base="string"

RelatedMaterial -> CreationInformation -> Creation -> Title -> type="main"

-



 



ProgrammeIdentificationType:

 



pmeta:DataDefaultLanguage type="pmeta:LanguageType" (siehe oben)

 



pmeta:Identifier type= "pmeta:IdentifierDetailsType" (siehe oben)

DescriptionMetadata -> PublicIdentifier



pmeta:ProgrammeTitleHistory (siehe unten)

Creation -> Title (siehe unten)



pmeta:ProgrammeFirstEpisodeCount type="nonNegativeInteger"

-

Wenn ein Programm aus mehr als einer Episode einer Serie besteht, kann die Nummer der ersten und letzten in diesem Programm angegeben werden.



pmeta:ProgrammeLastEpisodeCount type="nonNegativeInteger"

-"-



pmeta:Contribution (siehe oben)

Creation -> Creator



pmeta:ProductionEndDate type="date"

Creation -> CreationCoordinates -> Date type="mpeg7:TimeType"



pmeta:EditorialControlDetails (siehe oben)

siehe oben

 

 



 



ItemIdentificationType:

 



pmeta:DataDefaultLanguage type="pmeta:LanguageType" (siehe oben)

 



pmeta:Identifier type= "pmeta:IdentifierDetailsType" (siehe oben)

DescriptionMetadata -> PublicIdentifier



pmeta:ItemSequenceNumber type="nonNegativeInteger"

-

Eine Zahl, die angibt wo innerhalb einer Sequenz von Elementen eines Programms ein bestimmtes Element gefunden werden kann.



pmeta:EventStartElapsedTime type="duration"

UsageInformation -> Availability -> AvailabilityPeriod (base="mpeg7:TimeType") -> TimePoint type="mpeg7:timePointType"



pmeta:EventEndElapsedTime type="duration"

Time -> TimePoint type="mpeg7:timePointType"



pmeta:ItemTitleHistory (siehe unten)

siehe unten



pmeta:ProductionEndDate type="date"

CreationInformation -> Creation -> CreationCoordinates -> Date



pmeta:Contribution (siehe oben)

CreationInformation -> Creation -> Creator



 



MediaObjectIdentificationType:

 



pmeta:Identifier type= "pmeta:IdentifierDetailsType" (siehe oben)

MediaInformation -> MediaIdentification -> EntityIdentifier type="mpeg7:UniqueIDType"



pmeta:MediaObjectTypeCode type="anyURI"

MediaInformation -> MediaProfile -> MediaFormat -> Content



pmeta:EventStartElapsedTime type="duration"

UsageInformation -> Availability -> AvailabilityPeriod (base="mpeg7:TimeType") -> TimePoint type="mpeg7:timePointType"



pmeta:EventEndElapsedTime type="duration"

Time -> TimePoint type="mpeg7:timePointType"



pmeta:MediaObjectTitleHistory (siehe unten)

siehe unten



pmeta:MaterialCaptureDate type="pmeta:TimestampType" (siehe oben)

CreationInformation -> Creation -> CreationCoordinates -> Date



pmeta:Contribution (siehe oben)

CreationInformation -> Creation -> Creator



 

 

 



ProgrammeDescriptionType:

 



pmeta:DataDefaultLanguage (siehe oben)

 



pmeta:Duration type="duration"

UsageInformation -> Availability -> AvailabilityPeriod (base="mpeg7:TimeType") -> Duration (type="mpeg7:durationType")



pmeta:ProgrammeSynopsis type="string"

CreationInformation -> Classification -> Subject (type="mpeg7:TextAnnotationType")



pmeta:ProgrammeScript type="string"

CreationInformation -> Creation -> Abstract (type="mpeg7:TextAnnotationType")



pmeta:ColourCode type="anyURI"

MediaInformation -> MediaProfile -> MediaFormat -> VisualCoding -> Format -> colorDomain



pmeta:SubtitleFlag type="boolean"

-

Gibt an ob ein Element, ein Programm oder einen Programmgruppe ein Untertitel enthält.



pmeta:LanguageHistory (siehe oben)

siehe oben



pmeta:Location (siehe oben)

CreationInformation -> Creation -> Location type="mpeg7:PlaceType"



pmeta:Keywords (siehe oben)

CreationInformation -> Creation -> Abstract -> KeywordAnnotation



pmeta:Award (siehe oben)

-



pmeta:ReviewDetails (siehe oben)

CreationInformation -> Classification -> MediaReview



pmeta:SignLanguageDetails (siehe oben)

CreationInformation -> Classification -> SignLanguage



 



TransmissionPublicationDetailsType:

 



pmeta:DataDefaultLanguage (siehe oben)

 



PublicationDetails

 



  • pmeta:PublicationEventTransmissionService type="pmeta:ServiceType"
    • pmeta:DataDefaultLanguage (siehe oben)
    • pmeta:OrganisationName type="string"
    • pmeta:ServiceName type="string"

(AudioSignalQuality -> TransmissionTechnology type="mpeg7:TransmissionTechnologyType")



  • pmeta:FirstPublicationEventStart type="pmeta:TimestampType" (siehe oben)
  • pmeta:PublicationEventLiveTransmissionFlag type="boolean"

UsageInformation -> Availability -> AvailabilityPeriod (base="mpeg7:TimeType") :

type="firstShowing"

type="live"



  • pmeta:PublicationEventStart type= "pmeta:TimestampType" (siehe oben)

Time -> TimePoint type="mpeg7:timePointType"

 

 



  • pmeta:PublicationEventEnd type= "pmeta:TimestampType" (siehe oben)

Time -> TimePoint type="mpeg7:timePointType"



  • AudienceScoreDetails
    • pmeta:OrganisationDetails (siehe unten)
    • pmeta:AudienceScoreRecordingTechnique
    • AudienceScore
      • pmeta:AudienceRatingPercentage type="decimal"
      • pmeta:AudienceReachPercentage type="decimal"
      • pmeta:AudienceSharePercentage type="decimal"

keine ganz genaue Entsprechung, aber folgende Elemente können benutzt werden:

UsageInformation -> UsageRecord -> Audience type="nonNegativeInteger" oder

CreationInformation -> Classification -> Target -> Market



 



ItemDescriptionType:

 



pmeta:DataDefaultLanguage (siehe oben)

 



pmeta:Duration type="duration"

UsageInformation -> Availability -> AvailabilityPeriod (base="mpeg7:TimeType") -> Duration (type="mpeg7:durationType")



pmeta:ItemSynopsis type="string"

CreationInformation -> Classification -> Subject (type="mpeg7:TextAnnotationType")



pmeta:ItemScript type="string"

CreationInformation -> Creation -> Abstract (type="mpeg7:TextAnnotationType")



pmeta:ItemStartScriptCueText type="string"

-

Text, der den Hinweis für den Start des Elements gibt.



pmeta:ItemEndScriptCueText type="string"

-

Text, der den Hinweis für das Ende des Elements gibt.



pmeta:Keywords (siehe oben)

CreationInformation -> Creation -> Abstract -> KeywordAnnotation



pmeta:Location (siehe oben)

CreationInformation -> Creation -> Location



pmeta:OriginationCode type="anyURI"

-

Ein definierter Code, der den Ursprung des Materials angibt.



pmeta:ColourCode type="anyURI"

MediaInformation -> MediaProfile -> MediaFormat -> VisualCoding -> Format -> colorDomain



pmeta:SubtitleFlag type="boolean"

-



pmeta:LanguageHistory (siehe oben)

siehe oben



pmeta:ReviewDetails (siehe oben)

CreationInformation -> Classification -> MediaReview



pmeta:SignLanguageDetails (siehe oben)

CreationInformation -> Classification -> SignLanguage



 



MediaObjectDescriptionType:

 

 

 



pmeta:DataDefaultLanguage (siehe oben)

 



pmeta:MediaObjectTypeCode type="anyURI"

MediaInformation -> MediaProfile -> MediaFormat -> Content



"SegmentDetails"

  • pmeta:EventStartElapsedTime type="duration"

MediaTime -> MediaDuration



  • pmeta:EventEndElapsedTime type="duration"

-"-



  • pmeta:MediaObjectScript type="string"

CreationInformation -> Creation -> Abstract -> FreeTextAnnotation



  • pmeta:Keywords (siehe oben)

CreationInformation -> Creation -> Abstract -> KeywordAnnotation



  • pmeta:MediaObjectCapturedDescription type="string"

CreationInformation -> Creation -> Abstract -> FreeTextAnnotation



  • pmeta:SubtitleFlag type="boolean"
  • pmeta:Location (siehe oben)

-

CreationInformation -> Creation -> Location



  • pmeta:OriginationCode type="anyURI"

-



  • pmeta:ColourCode type="anyURI"

MediaInformation -> MediaProfile -> MediaFormat -> VisualCoding -> Format -> colorDomain



  • pmeta:LanguageHistory (siehe oben)

siehe oben



  • pmeta:TextUsageType type="pmeta:TextUsageTypeType"
    • pmeta:TextUsageTypeCode type="anyURI"
    • pmeta:TextUsageTypeName type="string"

-

Gibt Informationen über den Gebrauch von Textmaterial.



  • pmeta:GraphicUsageType type="pmeta:GraphicUsageTypeType"
    • pmeta:GraphicUsageTypeCode type="anyURI"
    • pmeta:GraphicUsageTypeName type="string"

MediaInformation -> MediaIdentification -> ImageDomain



  • pmeta:ShotLogoIndicator type="boolean"

-

Ein Flag, das angibt, dass alle Instanzen des Shots ein on-screen Logo enthalten.



 



MaterialExchangeInstanceType:

 



pmeta:Identifier (siehe oben)

MediaInformation -> MediaIdentification -> EntityIdentifier (type="mpeg7:UniqueIDType")



"SegmentDetails"

  • pmeta:EventStartElapsedTime type="duration"

MediaTime -> MediaDuration



  • "SegmentStart"
    • pmeta:EventStartElapsedTime type="duration"
    • pmeta:EventStartTimecode type="pmeta:TimecodeType" base="string"

MediaTime -> MediaDuration

MediaTime -> MediaTimePoint



  • "SegmentEnd"
    • pmeta:EventEndElapsedTime type="duration"
    • pmeta:EventEndTimecode type="pmeta:TimecodeType" base="string"

MediaTime -> MediaDuration

MediaTime -> MediaTimePoint

 

 



  • pmeta:TechnicalDetails (siehe oben)

MediaDescription -> MediaInformation -> MediaProfile -> MediaFormat



  • "ExchangeDetails"
    • pmeta:MaterialExchangeByServiceInstance (siehe unten)
    • "StorageDetails"
      • pmeta:StorageInstance (siehe unten)
      • pmeta:FileInstance (siehe unten)

(siehe unten)



  • "MediaObjectLocation"
    • pmeta:MediaObjectTitle type="string"
    • pmeta:Identifier (siehe oben)
    • pmeta:MediaObjectTypeCode type="anyURI"
    • pmeta:MediaObjectTrackIdentifier type= "pmeta:IdentifierDetailsType" (siehe oben)
  • MediaInformation -> MediaProfile -> MediaInstance -> LocationDescription
  • MediaInformation -> MediaProfile -> MediaInstance -> InstanceIdentifier
  • MediaInformation -> MediaProfile -> MediaFormat -> Content


 



ContractClauseAndRightsListType:

UsageInformation -> Rights

Hier werden nur ID´s angegeben, in P/Meta wird das viel weiter aufgeschlüsselt, dies gibt es nicht in MPEG-7, die Informationen können daher nur rein textuell übernommen werden als Annotation



pmeta:DataDefaultLanguage (siehe oben)

 



"SegmentDetails"

  • pmeta:EventStartElapsedTime type="duration"

MediaTime -> MediaDuration



  • pmeta:EventEndElapsedTime type="duration"

MediaTime -> MediaDuration



  • "MediaObjectBasicIdentification"
    • pmeta:MediaObjectTitle type="string"
    • pmeta:Identifier (siehe oben)
    • pmeta:MediaObjectTypeCode type="anyURI"
  • MediaInformation -> MediaProfile -> MediaInstance -> InstanceIdentifier
  • MediaInformation -> MediaProfile -> MediaFormat -> Content


  • "Rights"
    • pmeta:ContractNumber type="string"
    • pmeta:ContractClauseDescription type="string"
    • pmeta:GrantOfRightsDetails (siehe unten)

UsageInformation -> Rights



  • pmeta:ContractingParties type="pmeta:ContributionType" (siehe oben)

-

Identifiziert die am Vertrag beteiligten Parteien.



 



PersonDetailsType:

PersonType: mit Element PersonNameType



pmeta:DataDefaultLanguage (siehe oben)

attribute ref="xml:lang"



pmeta:PersonLastName type="string"

Person -> Name -> FamilyName type="mpeg7:NameComponentType"



pmeta:PersonFirstName type="string"

Person -> Name -> GivenName type="mpeg7:NameComponentType"



pmeta:PersonMiddleName type="string"

Person -> Name -> LinkingName type="mpeg7:NameComponentType"



pmeta:PersonSalutationShortForm type="string"

Person -> Name -> Salutation type="mpeg7:NameComponentType"



pmeta:PersonSuffixName type="string"

Person -> Name -> Title



pmeta:PersonDescription type="string"

Person -> PersonDescription type="mpeg7:TextualType"

 

 



pmeta:PersonIdentifier type= "pmeta:IdentifierDetailsType" (siehe oben)

-



pmeta:PersonStageName type="string"

Person -> PersonDescription type="mpeg7:TextualType" oder

CreationInformation -> Creation -> Creator -> Character



pmeta:Address (siehe unten)

Person -> Address type="mpeg7:PlaceType"



pmeta:Contacts type= "pmeta:ContributionType" (siehe oben)

-



 



OrganisationDetailsType:

OrganizationType:



pmeta:DataDefaultLanguage (siehe oben)

 



pmeta:OrganisationName type="string"

Organization -> Name base="mpeg7:TextualType"



pmeta:OrganisationType

  • pmeta:OrganisationTypeCode type="anyURI"
  • pmeta:OrganisationTypeName type="string"

Organization -> Kind type="mpeg7:TermUseType"



pmeta:OrganisationIdentifier type= "pmeta:IdentifierDetailsType" (siehe oben)

-



pmeta:OrganisationDescription type="string"

-



pmeta:Address (siehe unten)

Organization -> Address type="mpeg7:PlaceType"



pmeta:Contacts (siehe oben)

Organization -> Contact type="mpeg7:AgentType"



 

 



TitleHistoryType:

 



pmeta:BrandTitleHistory (siehe oben)

siehe oben



pmeta:ProgrammeGroupTitleHistory (siehe oben)

siehe oben



pmeta:ProgrammeTitleHistory (siehe unten)

siehe unten



pmeta:ItemTitleHistory (siehe unten)

siehe unten



pmeta:MediaObjectTitleHistory (siehe unten)

siehe unten

 

 



 



ContractFeesDetailsType:

UsageInformation -> FinancialResults



pmeta:DataDefaultLanguage (siehe oben)

 



pmeta:ContractNumber type="string"

-



pmeta:BankAccountDetails (siehe unten)

-

Detaillierte Informationen über Konten je Kontoinhaber.



"FeeDetails"

  • pmeta:ContractLine
    • pmeta:ContractLineNumber type="string"
    • pmeta:ContractLineName type="string"
  • pmeta:ContractLineAmount type= "pmeta:CurrencyAmountDetailsType" (siehe unten)

-

UsageInformation -> FinancialResults (siehe unten)



"Instalment"

  • pmeta:ContractPaymentInstalmentCount type="nonNegativeInteger"
  • pmeta:ContractPaymentInstalmentDueDate type= "pmeta:TimestampType" (siehe oben)
  • pmeta:ContractPaymentInstalmentAmount type= "pmeta:CurrencyAmountDetailsType" (siehe unten)

-

Informationen über Abschlagszahlungen.



pmeta:ContractTotalCost type= "pmeta:CurrencyAmountDetailsType" (siehe unten)

UsageInformation -> FinancialResults (siehe unten)



 



GrantOfRightsDetailsType:

UsageInformation -> Rights

Hier werden nur ID´s angegeben, in P/Meta wird das viel weiter aufgeschlüsselt, dies gibt es nicht in MPEG-7, die Informationen können daher nur rein textuell übernommen werden als Annotation



pmeta:DataDefaultLanguage (siehe oben)

 



"GrantedRights"

  • pmeta:RightType
    • pmeta:RightTypeCode type="anyURI"
    • pmeta:RightTypeDescription type="string"

UsageInformation -> Rights



  • pmeta:RightsManagementAuthority type= "pmeta:OrganisationDetailsType" (siehe oben)
  • pmeta:GrantOfRightsConditions (siehe unten)

-



 



AddressType:

Address type="mpeg7:PlaceType":



pmeta:DataDefaultLanguage (siehe oben)

attribute ref="xml:lang"



pmeta:AddressLineName type="string"

PostalAddress -> AddressLine type="mpeg7:TextualType"



pmeta:AddressTownCityName type="string"

StructuredPostalAddress -> City type="string"



pmeta:AddressCountyStateName type="string"

StructuredPostalAddress -> StateProvinceCounty type="string"



pmeta:AddressDeliveryCode type="string"

StructuredPostalAddress/PostalAddress -> PostingIdentifier type="mpeg7:TextualType"

 

 



pmeta:Country (siehe oben)

StructuredPostalAddress -> Country type="mpeg7:countryCode"



pmeta:AddressTelephoneNumber type="pmeta:TelephoneNumberType" base="string"

ElectronicAddress -> Telephone base="string"



pmeta:AddressFacsimileNumber type="pmeta:FacsimileNumberType" base="string"

ElectronicAddress -> Fax type="string"



pmeta:AddressElectronicName type="string" (An electronic mail address (e-mail) )

ElectronicAddress -> Email type="string"



pmeta:AddressWebAddress type="anyURI"

ElectronicAddress -> Url type="anyURI"



 



ProgrammeTitleHistoryType:

CreationInformation -> Creation -> Title



"OriginalProgrammeTitle"

 



  • pmeta:Language (siehe oben)

 



  • pmeta:ProgrammeWorkingTitle type="string"

Title -> type="alternative"



  • pmeta:ProgrammeTitle type="string"

Title -> type="original"



  • pmeta:ProgrammeSubtitle type="string"

Title -> type="secondary"



  • pmeta:ProgrammeEpisodeTitle type="string"

Title -> type="episodeTitle"



"OtherProgrammeTitle"

 



  • pmeta:Language (siehe oben)

 



  • pmeta:Country (siehe oben)

Creation -> CreationCoordinates -> Location -> Country type="mpeg7:countryCode"



  • pmeta:ProgrammeWorkingTitle type="string"

Title -> type="alternative"



  • pmeta:ProgrammeTitle type="string"

Title -> type="main"



  • pmeta:ProgrammeSubtitle type="string"

Title -> type="secondary"



  • pmeta:ProgrammeEpisodeTitle type="string"

Title -> type="episodeTitle"

 

 



  • pmeta:ExplanatoryNote (siehe oben)

-



 



ItemTitleHistoryType:

CreationInformation -> Creation -> Title



"OriginalItemTitle"

 



  • pmeta:Language (siehe oben)

 



  • pmeta:ItemTitle type="string"

Title -> type="original"



  • pmeta:Item
    • pmeta:ItemDetails (siehe oben)
    • pmeta:ItemInformation (siehe unten)
    • pmeta:ContractDetails (siehe oben)

hier evtl. Zuordnung eines Medienobjekts, je nachdem was als Item angegeben ist



"OtherItemTitle"

 



  • pmeta:Language (siehe oben)

 



  • pmeta:Country (siehe oben)

Creation -> CreationCoordinates -> Location -> Country type="mpeg7:countryCode"



  • pmeta:ItemTitle type="string"

Title -> type="main"



  • pmeta:Item (siehe oben)

wie oben



  • pmeta:ExplanatoryNote (siehe oben)

-



 



MediaObjectTitleHistoryType:

CreationInformation -> Creation -> Title



"OriginalTitle"

 



  • pmeta:Language (siehe oben)

 



  • pmeta:MediaObjectTitle type="string"

Title -> type="original"



"OtherTitle"

 



  • pmeta:Language (siehe oben)

 

 

 



  • pmeta:Country (siehe oben)

Creation -> CreationCoordinates -> Location -> Country type="mpeg7:countryCode"



  • pmeta:MediaObjectTitle type="string"

Title -> type="main"



  • pmeta:ExplanatoryNote (siehe oben)

-



 



MaterialExchangeByServiceInstanceType:

-

Ein Basisset an Informationen, die einen Materialaustausch beschreiben, wenn er durch einen Service ausgeführt wird.



pmeta:MaterialExchangeService type="pmeta:ServiceType" (siehe oben)

 



pmeta:MaterialExchangeStart type="pmeta:TimestampType" (siehe oben)

 



pmeta:Duration type="duration"

 



pmeta:ServiceLineupTime type="unsignedLong"

 



pmeta:ServiceHandoffTime type="unsignedLong"

 



pmeta:ServiceTransmissionBitrate type="nonNegativeInteger"

 



 



StorageInstanceType:

 



pmeta:StorageType

  • pmeta:StorageTypeCode type="anyURI"
  • pmeta:StorageTypeName type="string"

MediaInformation -> MediaProfile -> MediaInstance -> LocationDescription



pmeta:StorageIdentifier type="pmeta:IdentifierDetailsType"

MediaInformation -> MediaIdentification -> EntityIdentifier (type="mpeg7:UniqueIDType")



 



FileInstanceType:

MediaInformation -> MediaProfile -> MediaFormat:



pmeta:FileFormatType

  • pmeta:FileFormatTypeCode type="string"
  • pmeta:FileFormatTypeName type="string"

MediaFormat -> FileFormat type="mpeg7:ControlledTermUseType"



pmeta:AudioCompression (siehe oben)

MediaFormat -> AudioCoding -> Format type="mpeg7:ControlledTermUseType"



pmeta:DataCompression (siehe oben)

MediaFormat -> OtherCodingFormat type="mpeg7:ControlledTermUseType"

 

 



pmeta:VideoCompression (siehe oben)

MediaFormat -> VisualCoding -> Format base="mpeg7:ControlledTermUseType"



pmeta:FileSize type="nonNegativeInteger"

MediaFormat -> FileSize type="nonNegativeInteger"



pmeta:FilePathName type="string"

MediaInformation -> MediaProfile -> MediaInstance -> MediaLocator



 



BankAccountDetailsType:

-

Gibt die Kontodetails für mindestens eine Person oder Organisation an. Dabei können mehrere Konten angegeben werden.



pmeta:DataDefaultLanguage (siehe oben)

 



pmeta:AccountHolder

 



"BankAccount"

  • pmeta:AccountNumber type="string"
  • pmeta:AccountName type="string"
  • pmeta:BankDetails type= "pmeta:OrganisationDetailsType" (siehe oben)

 



 



CurrencyAmountDetailsType:

UsageInformation -> FinancialResults



pmeta:DataDefaultLanguage (siehe oben)

 



pmeta:Currency

  • pmeta:CurrencyCode type="string"
  • pmeta:CurrencyName type="string"

FinancialResults -> currency type="mpeg7:currencyCode"



pmeta:CurrencyAmount base="decimal"

FinancialResults -> value type="decimal"



 



GrantOfRightsConditionsType:

-

Beschreibt die Bedingungen unter denen Rechte vergeben wurden.



pmeta:DataDefaultLanguage (siehe oben)

 



pmeta:RightGrantOfRightsMedia

  • pmeta:RightGrantOfRightsMediaCode type="anyURI"
  • pmeta:RightGrantOfRightsMediaName type="string"

 



pmeta:RightTransmissionCount type="nonNegativeInteger"

 



pmeta:RightStartDate type="date"

 



pmeta:RightEndDate type="date"

 

 

 



pmeta:RightSublicenceFlag type="boolean"

 



pmeta:RightExclusivityFlag type="boolean"

 



pmeta:RightTerritoryDetails (siehe unten)

 



pmeta:DubbingSubtitlingGranted type="pmeta:LanguageType" (siehe oben)

 



pmeta:RightConditionDescription type="string"

 



 



ItemInformationType:

 



pmeta:TransmissionPublicationDetails (siehe oben)

siehe oben



pmeta:RelatedProgrammeInformation

  • pmeta:ProgrammeIdentification (siehe oben)
  • pmeta:TransmissionPublicationDetails (siehe oben)
  • pmeta:MaterialRelationshipsDetails (siehe oben)

Mpeg7 -> Description -> Relationships



pmeta:Duration type="duration"

MediaTime -> MediaDuration



pmeta:MediaObjectDetails

  • pmeta:MediaObjectIdentification (siehe oben)
  • pmeta:MediaObjectDescription (siehe oben)
  • pmeta:Classification (siehe oben)

siehe oben



pmeta:MaterialExchangeInstance (siehe oben)

siehe oben



pmeta:ContractClausesAndRightsList (siehe oben)

UsageInformation -> Rights



 



RightTerritoryDetailsType:

-

Beschreibt die durch Rechte abgedeckten Gebiete mit Hilfe einer Liste von abgedeckten und ausgeschlossenen Gebieten.



pmeta:DataDefaultLanguage (siehe oben)

 



pmeta:RightTerritoryDescription type="pmeta:RightTerritoryDetailsType"

 



pmeta:CoveredTerritory type="pmeta:TerritoryType"

  • pmeta:TerritoryCodeScheme type="string"
  • pmeta:TerritoryCode type="string"
  • pmeta:TerritoryName type="string"

 



pmeta:ExcludedTerritory type="pmeta:TerritoryType"

 



 

 

 

 

 

 

 

 

 

 

5 Dublin Core

Das Dublin Core Metadaten Schema wurde entwickelt von der Dublin Core Metadata Initiative , die im Jahre 1994 gegründet wurde. Im März 1995 fand man sich in Dublin zum ersten Metadata Workshop zusammen und einigte sich auf eine Grundmenge von beschreibenden Termen für die Kategorisierung von Webressourcen. Diese Metadatenmenge nannte man nach dem Tagungsort Dublin Core metadata.

Autoren von Webressourcen sollten durch dieses Metadatenschema in die Lage versetzt werden, ihre Ressourcen so zu beschreiben, dass sie etwa von stichwortbasierten Suchmaschinen gefunden werden können. Daraus entwickelte sich ein internationales Übereinkommen über eine Kernmenge von Metadaten.

Die aktuellen Aufgaben der DCMI sind die Weiterentwicklung und Pflege des Metadatenschemas, die Entwicklung von Werkzeugen und Infrastrukturen, die die Verwaltung und Pflege von Metadaten erleichtern und die Verbreitung von Wissen und Kenntnissen über Metadaten durch Schulungen usw.

Dublin Core Metadaten können in RDF/XML dargestellt werden. Ebenso können sie in HTML mit dem allgemeinen meta-Element im Dokumentkopf angegeben werden. Auch bibliografische Angaben können in Dublin Core Metadaten ausgedrückt werden. Und auch in einfachem Text kann man die Dublin Core Metadaten angeben.

5.1 Aufbau

Folgende 15 Kernfelder, engl. core elements, werden als "Dublin Core Metadata Element Set, Version 1.1 (ISO 15836)" von der DCMI empfohlen. Die "DCMI Metadata Terms"[12] empfehlen außerdem zusätzliche Felder und Feld-Verfeinerungen (element refinements), die eine auf speziellere Bedürfnisse zugeschnittene Beschreibung bzw. Kategorisierung erlauben. Alle Felder sind optional, können mehrfach auftauchen und im Gegensatz zu anderen Metadaten-Schemata in beliebiger Reihenfolge stehen.

Im Januar 2008 wurden den Metadatenelementen Domains und Ranges hinzugefügt [13]. Dazu wurde ein Set von Klassen definiert, die für die Domains und Ranges verwendet werden. Die Domain gibt dabei die Klasse von Ressourcen an, die mit dem Element beschrieben werden können. Die Range dagegen gibt die Klasse von Ressourcen an, die als Wert für das Element benutzt wird. Dabei wurden noch nicht für alle Elemente passende Ranges angegeben.

Im Folgenden eine Beschreibung der 15 Kernfelder, dabei werden in Klammern teilweise Feld-Verfeinerungen genannt.

contributor

Name je einer weiteren Person oder Organisation, die zur Erstellung des Dokuments einen Beitrag geleistet bzw. verantwortet hat.

coverage

Eingrenzung des vom Dokuments räumlich oder zeitlich abgedeckten Bereichs, die räumliche Verwendbarkeit des Dokuments oder der Einflussbereich unter dem das Dokument relevant ist.

creator

Eine Person oder Organisation, die primär für die Entstehung des Dokuments verantwortlich ist.

date

Ein charakteristisches Datum oder auch eine Zeitspanne im Lebenszyklus des Dokuments, sinnvollerweise in Notation nach DIN ISO 8601 als JJJJ-MM-TT, auch im Sinne von Bearbeitungsvermerken und durchaus auch in die Zukunft gerichtet.

description

Kurzzusammenfassung des Inhalts des Dokuments in Freitext (abstract), Kopie des Inhaltsverzeichnisses bzw. Liste der Bestandteile (tableOfContents) oder als Verweis auf eine beschreibende Quelle. Das Feld wird in Dialogen von bearbeitenden Programmen häufig als "Kommentar" gelistet.

format

Die Formatangabe soll eine Hilfe geben, womit das Dokument dargestellt bzw. weiterverarbeitet werden kann. Größe oder Laufzeit (extent), Medientyp (medium) als Angabe des physikalischen Datenträgers oder Materials, auf digitale Inhalte bezogen typischerweise als MIME-Typ anzugeben.

identifier

Eine eindeutige Referenz auf das Dokument. Typischerweise benutzt man dazu einen String aus einem formalen Identifikations-System.

language

Eine Sprache des Dokuments. Typischerweise benutzt man dazu vorgegebenen Ausdrücke.

publisher

Name der veröffentlichenden Instanz, typischerweise der Verleger oder Herausgeber.

relation

Verweist auf ein Dokument, mit dem das beschriebene Dokument in Beziehung steht. Dazu sollten die Identifier benutzt werden.

rights

Information zur Klarstellung der Rechte, die an dem Dokument gehalten werden oder dies betreffend zu beachten sind, zum Beispiel Verweise auf Lizenzbedingungen.

source

Verweist (mit Angabe des Identifier) auf ein Dokument, von dem das aktuell beschriebene Dokument ganz oder in Teilen abgeleitet wurde.

subject

Das Thema des Inhalts in suchtauglichen Schlagwörtern, die bestenfalls einem formalen Klassifikationsschema folgen.

title

Der Titel des Dokuments, unter dem es "formell bekannt" gemacht wird.

type

Die Art bzw. Gattung des Dokuments, bezeichnet am besten durch Nennung eines URI aus dem "DCMI Type Vocabulary".

5.2 Vergleich von Dublin Core mit MPEG-7

Zuerst die Elemente des Dublin Core Metadata Element Set. Die enthaltenen Beschreibungen einzelner Elemente stammen aus [12].



contributor

CreationInformation -> Creation -> Creator -> Agent (PersonType oder OrganizationType)



coverage

CreationInformation -> Creation -> CreationCoordinates ->

  • Location type="mpeg7:PlaceType
  • Date type="mpeg7:TimeType"


creator

CreationInformation -> Creation -> Creator -> Agent (PersonType oder OrganizationType)



date

CreationInformation -> Creation -> CreationCoordinates -> Date (type="mpeg7:TimeType")



description

CreationInformation -> Creation -> Abstract (type="mpeg7:TextAnnotationType")



format

MediaInformation -> MediaProfile -> MediaFormat oder

CreationInformation -> Classification -> Form



identifier

MediaInformation -> MediaProfile -> MediaInstance -> MediaLocator -> MediaURI oder

DescriptionMetadata -> PublicIdentifier type="mpeg7:UniqueIDType"



language

CreationInformation -> Classification -> Language



publisher

CreationInformation -> Creation -> Creator -> Role=Publisher



relation

CreationInformation -> RelatedMaterial -> MediaLocator



rights

UsageInformation -> Availability -> Rights



source

CreationInformation -> RelatedMaterial -> MediaLocator



subject

CreationInformation -> Classification -> Subject



title

CreationInformation -> Creation -> Title



type

MediaInformation -> MediaProfile -> MediaFormat -> Content oder

CreationInformation -> Classification -> Genre



 

 

 

 

 

 

 

 

 

 

Es folgen weitere Elemente und Element-Verfeinerungen. Bei mpeg7:RelationType, ein Element von mpeg7:GraphType, kann über das Attribut type das entsprechende Element aus Dublin Core angegeben werden. Diese können in einem ClassificationScheme definiert werden. Bezieht sich das ganze auf eine externe Quelle ist mpeg7:RelatedMaterialType besser.



abstract (refines description)

CreationInformation -> Creation -> Abstract (type="mpeg7:TextAnnotationType")



accessRights (refines rights)

UsageInformation -> Availability -> Rights

Der Rights Datentyp beschreibt Links zum Rechteinhaber des multimedialen Inhalts und zu den Zugangsrechten.



accrualMethod

Die Methode mit der Elemente zu einer Kollektion hinzugefügt werden.

Diese Information wird so nicht unterstützt, man kann die wichtigen Daten in einer Annotation angeben.



accrualPeriodicity

Die Häufigkeit mit der Elemente zu einer Kollektion hinzugefügt werden.

-"-



accrualPolicy

Das Verfahren, dass das Hinzufügen von Elementen zu einer Kollektion regelt.

-"-



alternative (refines title)

CreationInformation -> Creation -> Title -> type="alternative"



audience

CreationInformation -> Classification -> Target -> Market



available (refines date)

UsageInformationType -> Availability -> AvailabilityPeriod



bibliographicCitation (refines identifier)

CreationInformation -> RelatedMaterial -> MediaLocator



conformsTo (refines relation)

CreationInformation -> RelatedMaterial -> MediaLocator oder

Mpeg7 -> Description -> Relationships(type="mpeg7:GraphType") -> Relation



created (refines date)

CreationInformation -> Creation -> CreationCoordinates -> Date(type="mpeg7:TimeType")



dateAccepted (refines date)

CreationInformation -> Classification -> Release -> date(type="mpeg7:timePointType)



dateCopyrighted (refines date)

CreationInformation -> Creation -> CopyrightString(type="mpeg7:TextualType)



dateSubmitted (refines date)

CreationInformation -> Classification -> Release -> date(type="mpeg7:timePointType)



educationLevel (refines audience)

CreationInformation -> Classification -> Target -> Market



extent (refines format)

MediaInformation -> MediaProfile -> MediaFormat -> FileFormat



hasFormat (refines relation)

Mpeg7 -> Description -> Relationships(type="mpeg7:GraphType") -> Relation



hasPart (refines relation)

Mpeg7 -> Description -> Relationships(type="mpeg7:GraphType") -> Relation



hasVersion (refines relation)

Mpeg7 -> Description -> Relationships(type="mpeg7:GraphType") -> Relation



instructionalMethod

CreationInformation -> Classification -> Form

 

 



isFormatOf (refines relation)

Mpeg7 -> Description -> Relationships(type="mpeg7:GraphType") -> Relation



isPartOf (refines relation)

Mpeg7 -> Description -> Relationships(type="mpeg7:GraphType") -> Relation



isReferencedBy (refines relation)

Mpeg7 -> Description -> Relationships(type="mpeg7:GraphType") -> Relation



isReplacedBy (refines relation)

Mpeg7 -> Description -> Relationships(type="mpeg7:GraphType") -> Relation



isRequiredBy (refines relation)

Mpeg7 -> Description -> Relationships(type="mpeg7:GraphType") -> Relation



issued (refines date)

CreationInformation -> Classification -> Release -> date(type="mpeg7:timePointType)



isVersionOf (refines relation)

Mpeg7 -> Description -> Relationships(type="mpeg7:GraphType") -> Relation



license (refines rights)

UsageInformation -> Availability -> Rights



mediator (refines audience)

CreationInformation -> Classification -> Target -> Market



medium (refines format)

MediaInformation -> MediaProfile -> MediaFormat -> Medium



modified (refines date)

CreationInformation -> Creation -> CreationCoordinates -> Date (type="mpeg7:TimeType") oder

DescriptionMetadata -> LastUpdate type="mpeg7:timePointType"



provenance

Hier kann die Information in einer Annotation angegeben werden.



references (refines relation)

CreationInformation -> RelatedMaterial -> MediaLocator oder

Mpeg7 -> Description -> Relationships (type="mpeg7:GraphType") -> Relation



replaces (refines relation)

Mpeg7 -> Description -> Relationships (type="mpeg7:GraphType") -> Relation



requires (refines relation)

Mpeg7 -> Description -> Relationships (type="mpeg7:GraphType") -> Relation



rightsHolder

UsageInformation -> Availability -> Rights



spatial (refines coverage)

CreationInformation -> Creation -> CreationCoordinates -> Location (type="mpeg7:PlaceType)



tableOfContents (refines description)

SummaryDescription -> Summarization -> Summary -> Name="tableOfContents"

Die Summarization Tools beschreiben multimediale Zusammenfassungen und Inhaltsangaben



temporal (refines coverage)

CreationInformation -> Creation -> CreationCoordinates -> Date (type="mpeg7:TimeType")



valid (refines date)

UsageInformationType -> Availability -> AvailabilityPeriod

mit firstShowing und lastShowing wird zum Beispiel angegeben in welchem Zeitraum der Inhalt "gültig" ist

 

 



 

 

 

 

 

 

 

 

 

 

6 SMPTE

Die Society of Motion Picture and Television Engineers, abgekürzt SMPTE , ist ein internationaler Verband aus dem Bereich der professionellen Film- und vor allem Videotechnik mit Sitz in White Plains, New York. Die SMPTE wurde 1916 (damals noch als Society of Motion Picture Engineers (SMPE)) gegründet, um die Entwicklung von Normen und Standards, die Forschung und wissenschaftliche Aktivität und die vernetzte Kommunikation und Ausbildung in der sich schnell entwickelnden Welt bewegter Bilder zu fördern. Dabei erarbeitet der Verband die Standards in der Regel nicht selbst, sondern fungiert als Forum und Dokumentationsinstanz.

Seit Februar 2000 wurde an der Entwicklung der Metadaten innerhalb des Material Exchange Format [14] gearbeitet. Das Metadaten Schema, bekannt als Descriptive Metadata Scheme [15], startete als eine kleine Liste von Metadaten Elementen. Über eine erste Definition von drei Sets (production, clip und scene) kam man schnell zur weiteren Unterteilung in Sets und somit der bekannten Grundstruktur von DMS-1. 2001-2002 wurde das Schema mit P/Meta verglichen und dadurch einige Sets verfeinert und andere entfernt. In den Jahren 2002-2003 wurde DMS-1 mit MPEG-7 und TV-Anytime verglichen und angepasst. 2004 war die Entwicklung von DMS-1 abgeschlossen.

Das Metadata Dictionary [16] beschreibt über 1500 Elemente und gibt damit ein allgemeines Vokabular zwischen den Parteien in der Fernsehindustrie vor. Das Descriptive Metadata Scheme fügt dem Metadata Dictionary Semantik hinzu. Das DMS-1 definiert den Aufbau der Metadaten für den Einsatz im MXF, welches sich als zentrales Dateiformat für den Austausch von audiovisuellem Material und Metadaten etabliert.

6.1 Aufbau

Das DMS-1 ist eingeteilt in drei Descriptive Metadata Frameworks. Ein DM Framework ist eine Sammlung von Descriptive Metadata Properties und Sets, die den Inhalt beschreiben. Diese basieren auf den Elementen des Metadata Dictionary . Es können die selben Descriptive Metadata Properties und Sets in verschiedenen DM Frameworks auftreten.

6.1.1 Die DM Frameworks

Es gibt die folgenden DM Frameworks. Eine genaue Auflistung der Elemente ist in Kapitel 6.2 zu finden.

Production Framework Das Production Framework enthält Descriptive Metadata Sets und Properties, die Identifikations- und Eigentumsdetails zur Verfügung stellen. Die Metadaten beziehen sich auf den audio-visuellen Inhalt der MXF Datei, egal ob es sich dabei um unfertige Werke, eine komplette Episode eines Programms, eine komplette Serie von Programmen oder um Programmteile handelt.

Clip Framework Das Clip Framework enthält Descriptive Metadata Sets und Properties, die Aufnahme- und Herstellungsinformationen für einzelne audio-visuelle Clips zur Verfügung stellen. Ein Clip ist in diesem Zusammenhang ein fortlaufendes Hauptelement wie zum Beispiel eine Instanz einer Stereoaufnahme eines Musikauftritts oder eine Instanz eines "Take" in der Filmindustrie, wobei ein Clip mehrere "Takes" enthalten kann. Clips können Metadaten haben die einen oder mehrere "Shots" beschreiben. Mit "Shot" ist in diesem Zusammenhang die Beschreibung der wahren Eigenschaften des audio-visuellen Inhalts gemeint.

Scene Framework Das Scene Framework enthält Descriptive Metadata Sets und Properties, die Handlungen und Ereignisse innerhalb einer einzelnen Szene des audio-visuellen Inhalts beschreiben. Szene ist in diesem Zusammenhang ein redaktionelles Konzept und beschreibt einen fortlaufenden Abschnitt des Inhalts in einer MXF Datei. Wie der Inhalt in Szenen zerlegt wird ist eine redaktionelle Entscheidung und hängt von den angewandten Kriterien ab. Szenen können sich dabei auch überschneiden und können Metadaten über einen oder mehrere "Shots" haben. Ein "Shot" steht hier nicht unbedingt in Zusammenhang mit den wahren Eigenschaften des audio-visuellen Inhalts, sondern wird redaktionell festgelegt.

6.1.2 Die DMS-1 Sets

Im Folgenden werden die Sets genauer beschrieben. Eine genaue Auflistung der Elemente ist in Kapitel 6.2 zu finden. Das DMS-1 lässt sich auch erweitern, es können sowohl neue Sets als auch Elemente hinzugefügt werden. Dafür gibt es genaue Regeln, die in SMPTE 359M [15] erklärt werden.

Titles, Group Relationship und Branding Dies sind alles sprachabhängige Sets, da die meisten Elemente im Textformat sind. In Titles werden verschiedene Arten von Titeln definiert. Mit den Group Relationships werden die Beziehungen zu anderen Elementen modelliert, z.B. eine Episode innerhalb einer Serie. Im Branding Set wird eine angenommene Marke definiert zu welcher der Inhalt gehört.

Identification Hiermit können alle Arten von Identifiern definiert werden. Dabei wird ein Name für den Identifier angegeben, um ihn genauer zu beschreiben.

Event und Publication Mit dem Event Set können verschiedene Arten von Events mit Start und Ende definiert werden. So zum Beispiel publication start date/time oder repeat date/time usw. Das Publication Set gibt noch zusätzliche Informationen zu einem Publication Event an, wie das Medium (Web, DVD usw.).

Award Dieses Set zeigt auf welche Auszeichnungen für den Inhalt bereits verliehen wurden. Damit kann man auch nach Inhalt mit ganz bestimmten Auszeichnungen suchen.

Captions description Hierbei handelt es sich um ein generisches Set, um jede Art von Beschriftung darzustellen. Die Art kann dabei durch einen Text String im dazugehörigen Thesaurus bestimmt werden.

Annotation und Classification Mit dem Annotation Set kann der A/V Inhalt mit Anmerkungen und Klassifizierungen versehen werden, wie sie zum Beispiel von Bibliotheken und Archiven verlangt werden. Die Art der Anmerkung kann durch einen Text String im dazugehörigen Thesaurus bestimmt werden. So kann man mit dem Annotation Set den Inhalt beispielsweise mit Schlagwörtern versehen, indem man die "annotation kind" auf "keywords" setzt und die "annotation description" den Wert des Schlagwortes bekommt.

Ein Annotation Set kann Classification Sets enthalten, wobei jedes den Gebrauch eines Wissensmanagement-Systems wie zum Beispiel Marc anzeigen kann.

Setting Period Das Setting Period Set wird im Scene Framework verwendet um den Zeitraum zu beschreiben in dem die Szene spielt. Es können auch weit zurückliegende Daten oder Daten in der Zukunft sein, wofür Schlüsselwörter wie "Jurassic" oder "Elizabethan" zur Verfügung stehen.

Scripting Das Scripting Set wird im Clip Framework eingesetzt, um jegliche damit in Verbindung stehenden Skripten anzugeben. Dies können Kamera, Musik, Licht oder Mikrofon Skripte sein. Die Länge ist dabei auf 32 k Zeichen begrenzt, was aber praktisch keine Einschränkung darstellt, da es sich bei den Skripten um einfache Text Strings handelt.

Shot und Key Points Das Shot Set wird innerhalb des Clip und Scene Frameworks benutzt, um einen "Shot" in Bezug auf Zeit, Dauer und die assoziierten "Tracks" abzugrenzen.

Das Key Point Set beinhaltet weitergehende Informationen. Mit dem "key point kind" werden verschiedene Arten von Key Points beschrieben, wie zum Beispiel "key words", "key sounds", "key actions", "key frames" usw.

Participant Das Participant Set wird benutzt, um die Mitwirkung eines Individuums, einer Organisation oder einer Gruppe von Individuen oder Organisationen darzustellen.

Contacts list: Person, Organization und Location Die Contacts list ist ein abstraktes Set, welches Personen, Organisationen und Orte enhält. Die drei Sets wiederum sind alle ähnlich aufgebaut. Sie enthalten eine oder mehrere Adressen, wobei Orte logischerweise nur eine Adresse enthalten können. Das Address Set kann dann wieder mehrere Communications Sets enthalten, da zum Beispiel eine Organisation vieler verschiedene Telefonnummern haben kann.

Contract und Rights Das Contract Set beinhaltet minimale Informationen um jegliche persistente vertragliche Information zu identifizieren. Alle Rights Sets die in einem Contract Set enthalten sind sollten sich ebenfalls auf persistente Informationen beziehen.

Picture Format Das Picture Format Set wird im Production Framework benutzt, um das Bildseitenverhältnis zusammen mit dem Displayformat der gesamten Produktion anzugeben. Es wird auch noch im Clip Framework benutzt für den Fall, dass das Bildseitenverhältnis hier ein anderes ist. Mit dem Displayformat wird angegeben wie das momentane Bild angezeigt wird, z.B. full screen, pillarbox, letterbox usw.

Device Parameters Das Device Parameters Set identifiziert die Geräte, die benutzt wurden bei der Aufnahme und Herstellung des audiovisuellen Inhalts in einem Clip.

Name-Value Das Name-Value Set ist ein generisches Set, das an vielen Stellen eingesetzt wird, um eine Liste mit Namen und zugehörigen Werten bereitzustellen. Ein Name-Value Set enthält die Information für ein einziges Name-Value Paar. Es erlaubt eine Erweiterung bestimmter Sets um zusätzliche Informationen, dabei gehört zu jedem Paar auch eine eindeutige ID.

So kann zum Beispiel das Person Set erweitert werden:

  • Name = "Eye Color"
  • Value = "Blue"
  • Name = "Sex"
  • Value = "Female"

Processing und Project Das Processing Set enthält zusätzliche Informationen für das Clip Framework über die Anzahl und Typ der Bearbeitungsschritte die ein Clip durchgangen hat. Es werden unter anderem folgende Sachen angegeben:

  • Enthält es ein Logo?
  • Der beabsichtige Gebrauch einer Grafik.
  • Die Anzahl der Bearbeitungsschritte und verlusthafte/verlustfreie Kopiervorgänge.

Das Project Set enthält Informationen, die in Beziehung mit dem Projekt stehen aus dem die MXF Datei entstanden ist.

Cue Words Das Cue Words Set enthält verbale oder textuelle Informationen, die dem Produktionsteam helfen das Programm oder Programmteil richtig einzusetzen.

6.1.3 Der Thesaurus und sein Gebrauch

Der Thesaurus ist ein kontrolliertes Vokabular (Attributwertebereich) für das jeweils zu beschreibende Attribut. Er kann angewendet werden auf Text, Zahlen, ULs oder jedes andere Attribut.

Im DMS-1 wird er verwendet, um für ein Attribut feste Begriffe vorzugeben. Dies ist zu vergleichen mit den Classification Schemes in MPEG-7. Es können dadurch Begriffe auf die jeweilige Sparte oder Sprache zugeschnitten werden. Werden die Daten nun in einem anderen Sprachgebrauch verwendet, so bleibt damit die Bedeutung erhalten und der Benutzer weiß was gemeint ist.

Das ideale Format zur Darstellung eines Thesaurus ist XML. Es sollte zur eindeutigen Identifikation folgende Informationen enthalten:

  • Name für den Thesaurus
  • die Branche für die es dient, z.B. Music Recording
  • die Sprache
  • den Set Namen
  • den Attribut Namen
  • eine Liste mit den Werten

6.2 Vergleich von DMS-1 mit MPEG-7

In der folgenden Tabelle werden die Sets des DMS-1 verglichen mit MPEG-7 Elementen. Dabei enthält jedes Set die Elemente Instance UID und Generation UID, diese werden daher nur beim ersten Set genannt.

Es werden immer wieder verschiedene Language Elemente angegeben, diese können in MPEG-7 im "mpeg7: ExtendedLanguageType" (CreationInformation -> Classification -> Language) oder im Attribut "xml:lang" (im jeweiligen Element) angegeben werden. Dies wird im untenstehenden Vergleich nicht mehr jedes Mal angegeben.

Auch das Element Thesaurus Name taucht fast in jedem Set auf, hier wird in MPEG-7 der ClassificationScheme Mechanismus verwendet, daher wird bei den Elementen im Vergleich nicht jedes Mal etwas angegeben.

Für einige Element konnte kein passendes Element in MPEG-7 gefunden werden, diese sind mit "-" vermerkt. Sollten die Elemente wichtige Informationen enthalten so kann man dies in einer TextAnnotation vermerken (als Element DescriptionMetadata -> Comment oder Creation -> Abstract). Es wird teilweise eine Beschreibung des DMS-1 Elements aus [15] angegeben.



Production Framework:

 



Instance UID

MediaInstanceType -> InstanceIdentifier oder

DescriptionMetadataType -> PublicIdentifier



Generation UID

-

Identifier, der das Identifikationsset zur Änderung referenziert.



Framework Extended Text Language Code

 



Framework Thesaurus Name

Hier werden in MPEG-7 ClassificationSchemes eingesetzt



Framework Title

entspricht dem Namen des ClassificationScheme



Primary Extended Spoken Language Code

 



Secondary Extended Spoken Language Code

 



Original Extended Spoken Language Code

 



Integration Indication

Ein Term, der angibt was das Wesentliche ist.

Kann angegeben werden in

DescriptionMetadata -> Comment



Metadata Server Locators

-

Ein Vektor von Referenzen zu Locators für Metadatenservern.



Titles Sets

siehe unten



Annotation Sets

siehe unten



Participant Sets

siehe unten



Contacts List Set

siehe unten



Location Sets

siehe unten



Captions Description Sets

siehe unten



Contract Sets

siehe unten



Picture Format Set

siehe unten



Project Set

siehe unten

 

 



Identification Sets

siehe unten



Group Relationship Sets

siehe unten



Branding Sets

siehe unten



Event Sets

siehe unten



Award Sets

siehe unten



Setting Period Sets (Production)

siehe unten



 



Clip Framework:

 



Framework Extended Text Language Code

 



Framework Thesaurus Name

wie oben



Framework Title

wie oben



Primary Extended Spoken Language Code

 



Secondary Extended Spoken Language Code

 



Original Extended Spoken Language Code

 



Clip Kind

CreationInformation -> Classification -> Genre



Clip Number

-



Extended Clip ID

Clip ID ist ein UMID



Clip Creation Date & Time

CreationInformation -> Creation -> CreationCoordinates -> Date



Take Number

-



Slate Information

-

 

 



Metadata Server Locators

-



Titles Sets

siehe unten



Annotation Sets

siehe unten



Participant Sets

siehe unten



Contacts List Set

siehe unten



Location Sets

siehe unten



Captions Description Sets

siehe unten



Contract Sets

siehe unten



Picture Format Set

siehe unten



Project Set

siehe unten



Scripting Sets

siehe unten



Shot Sets (Clip)

siehe unten



Device Parameters Sets

siehe unten



Processing Set

siehe unten



 



Scene Framework:

 



Framework Extended Text Language Code

 



Framework Thesaurus Name

wie oben



Framework Title

wie oben



Primary Extended Spoken Language Code

 

 

 



Secondary Extended Spoken Language Code

 



Original Extended Spoken Language Code

 



Scene Number

-



Metadata Server Locators

-



Titles Sets

siehe unten



Annotation Sets

siehe unten



Participant Sets

siehe unten



Contacts List Set

siehe unten



Location Sets

siehe unten



Setting Period Sets (Scene)

siehe unten



Shot Sets (Scene)

siehe unten



 



Titles:

CreationInformation -> Creation -> Title



Extended Text Language Code

xml:lang (Attribut in TextualBaseType von dem Title abgeleitet ist)



Thesaurus Name

 



Main Title

Title -> type="main"



Secondary Title

Title -> type="secondary"



Working Title

Title -> type="alternative"



Original Title

Title -> type="original"



Version Title

Title -> type="alternative"

 

 



 



Identification:

UniqueIDType:



Extended Text Language Code

 



Thesaurus Name

 



Identifier Kind

type



Identifier Value

base="string"



Identification Locator

-

Das Universal Label, das die Identifizierungsart in einem Wörterbuch angibt.



Identification Issuing Authority

Die Autorität, die den Identifizierungwert ausgestellt hat.



 



Group Relationship:

 



Extended Text Language Code

 



Thesaurus Name

 



Progamming Group Kind

CreationInformation -> Classification -> Genre



Progamming Group Title

CreationInformation -> Creation -> Title



Group Synopsis

CreationInformation -> Classification -> Subject (type="mpeg7:TextAnnotationType")



Numerical Position in Sequence

-

Position der Gruppe, des Elements, der Serie usw. innerhalb einer Sequenz.



Total Number in Sequence

-

Die Gesamtanzahl an Gruppen, Elementen, Serien usw. in eine Sequenz.



Episodic Start Number

-

Die Episodennummer beim Start einer Serie.



Episodic End Number

-

Die Episodennummer am Ende einer Serie.



 

 

 



Branding:

Das Branding Set wird benutzt um jegliche Marke zu definieren zu der der A/V Inhalt gehören könnte.

CreationInformation -> RelatedMaterial



Extended Text Language Code

 



Brand Main Title

RelatedMaterial -> CreationInformation -> Creation -> Title -> type="main"



Brand Original Title

RelatedMaterial -> CreationInformation -> Creation -> Title -> type="original"



 



Event:

UsageInformation -> Availability



Extended Text Language Code

 



Thesaurus Name

 



Event Indication

-

Ein Term, der beschreibt was das Event ist, als ein Teil des Prozesses.



Event Start Date and Time

AvailabilityPeriod -> type="firstShowing"



Event End Date and Time

AvailabilityPeriod -> type="lastShowing"



Publication Sets

AvailabilityPeriod -> Dissemination



Annotation Sets (Event)

siehe unten



 



Publication:

 



Publication Organization Name

AvailabilityPeriod -> Dissemination -> Disseminator



Publication Service Name

AvailabilityPeriod -> Dissemination -> Source



Publication Medium

AvailabilityPeriod -> Dissemination -> Format



Publication Region

AvailabilityPeriod -> Dissemination -> Location



 

 

 



Award:

Für Award gibt es kein entsprechendes Element. Es werden Auszeichnungen angegeben.



Extended Text Language Code

 



Thesaurus Name

 



Festival

 



Festival Date and Time

 



Award Name

 



Award Classification

 



Nomination Category

 



Participant Sets (Award)

 



 



Caption Description:

Mpeg7 -> Description (CompleteDescription ist Basis für viele andere Typen)



Extended Text Language Code

 



Thesaurus Name

 



Extended CaptionsLanguage Code

-



Caption Kind

Kann über den Typ der Mpeg7 -> Description ausgewählt werden.



 



Annotation:

CreationInformation -> Creation -> Abstract (TextAnnotationType)



Extended Text Language Code

TextAnnotation -> attribute ref="xml:lang"



Thesaurus Name

 



Annotation Kind

-

In MPEG-7 wird kein Kind oder Synopsis für eine Annotation angegeben, es gibt lediglich die Unterscheidung in FreeTextAnnotation, StructuredAnnotation, DependencyStructure oder KeywordAnnotation

 

 



Annotation Synopsis

-"-



Annotation Description

TextAnnotation -> FreeTextAnnotation



Related Material Description

CreationInformation -> RelatedMaterial -> MaterialType



Classification Sets

siehe unten



Cue Words Set (Annotation)

siehe unten



Related Material Locators

CreationInformation -> RelatedMaterial -> MediaLocator



Participant Sets (Annotation)

siehe unten



 



Setting Period:

Dies kann man über die CreationCoordinates modellieren. In CreationCoodinates -> Location -> Role wird angegeben, dass es sich um ein Setting handelt



Extended Text Language Code

 



Thesaurus Name

 



Setting Date & time

Creation -> CreationCoodinates -> Date



Time period Keyword

Creation -> CreationCoodinates -> Location -> NameTerm



Setting Period Description

Creation -> CreationCoodinates -> Location -> Name



 



Scripting:

Die Skripten sind reiner Text und können somit in einer Annotation angegeben werden, oder als RelatedMaterial, es wird für jedes Skript ein eigenes CreationInformation Element generiert.



Extended Text Language Code

 



Thesaurus Name

 



Scripting Kind

CreationInformation -> Classification -> Genre



Scripting Text

CreationInformation -> Creation -> Abstract(TextAnnotation) -> FreeTextAnnotation

 

 



Scripting Locators

CreationInformation -> RelatedMaterial -> MediaLocator



 



Classification:

Hier werden in MPEG-7 ClassificationSchemes eingesetzt



Extended Text Language Code

 



Thesaurus Name

 



Content Classification

 



Name-Value Sets (Classification)

 



 



Shot:

Das optionale Shot Set wird innerhalb des Scene und Clip Frameworks eingesetzt, um den Rahmen eines Shots zu beschreiben, im Bezug auf Start und Dauer. Es wird eine einfache Textbeschreibung angegeben wie z.B. "Shot of rider jumping Beecher’s Brook at Aintree in 1955".

Diese Information kann in MPEG-7 angegeben werden in einem VideoSegment:



Extended Text Language Code

 



Shot Start Position

VideoSegment -> MediaTime -> MediaTimePoint



Shot Duration

VideoSegment -> MediaTime -> MediaDuration



Shot Track IDs

-



Shot Description

VideoSegment -> TextAnnotation



Shot Comment Kind

-



Shot Comment

VideoSegment -> TextAnnotation



Cue Words Set (Shot)

-



Keypoint Sets

siehe unten



 



Key Point:

Kann angegeben werden in

CreationInformation -> Classification -> Subject (TextAnnotationType)

 

 



Extended Text Language Code

 



Thesaurus Name

 



Keypoint Kind

CreationInformation -> Classification -> Subject -> FreeTextAnnotation



Keypoint Value

CreationInformation -> Classification -> Subject -> FreeTextAnnotation oder KeywordAnnotation



Keypoint Position

-



 



Participant:

CreationInformation -> Creation -> Creator (base="MediaAgentType")



Participant UID

-



Extended Text Language Code

 



Thesaurus Name

 



Contribution Status

Creator -> Role



Job Function

Creator -> Role



Job Function Code

Creator -> Role



Role or Identity Name

Creator -> Character



Person Sets

Creator -> Agent (PersonType)



Organization Sets (Participant)

Creator -> Agent (OrganizationType)



 



Person:

Person (base="AgentType")

wo nicht angegeben gilt Person -> Name -> type="main"



Contact UID

-



Extended Text Language Code

Person -> Name -> xml:lang

 

 



Thesaurus Name

 



Family Name

Person -> Name -> FamilyName



First Given Name

Person -> Name -> GivenName



Other Given Names

Person -> Name -> GivenName



Linking Name

Person -> Name -> LinkingName



Salutation

Person -> Name -> Salutation



Name Suffix

Person -> Name -> Title



Honors, qualifications etc.

Person -> Name -> Title



Former Family Name

Person -> Name -> FamilyName

und

Person -> Name -> type="former"



Person Description

Person -> PersonDescription



Alternate Name

Person -> Name -> type="variant"



Nationality

Person -> Nationality



Citizenship

Person -> Citizenship



Organization Sets (Person)

Person -> Affiliation -> Organization



Name-Value Sets (Contact)

-



Address Sets

Person -> Address



 



Organization:

Organization (base="AgentType")



Contact UID

-



Extended Text Language Code

 

 

 



Thesaurus Name

 



Nature of Organization

Organization -> Kind



Organization Main Name

Organization -> Name



Organization Code

Organization -> NameTerm



Contact Department

Organization -> Contact



Name-Value Sets (Contact)

-



Address Sets

Organization -> Address



 



Location:

CreationInformation -> Creation -> CreationCoordinates -> Location (type="PlaceType")



Contact UID

-



Extended Text Language Code

 



Thesaurus Name

 



Location Kind

Place -> Role



Location Description

Place -> PlaceDescription



Name-Value Sets (Contact)

-



Address Sets

Place -> PostalAddress oder StructuredPostalAddress



 



Address:

Person/Organization -> Address (type="PlaceType")



Room or Suite Number

Place -> StructuredInternalCoordinates -> RoomNumber



Room or Suite Name

Place -> StructuredInternalCoordinates -> RoomName

 

 



Building Name

Place -> StructuredInternalCoordinates -> BuildingName



Place Name

Place -> Name



Street Number

Place -> StructuredPostalAddress -> StreetNumber



Street Name

Place -> StructuredPostalAddress -> StreetName



Postal Town

Place -> StructuredPostalAddress -> PostalTown



City

Place -> StructuredPostalAddress -> City



State or Province or County

Place -> StructuredPostalAddress -> StateProvinceCounty



Postal Code

Place -> StructuredPostalAddress -> PostingIdentifier