<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>vfm-Weblog für Mediendokumentation &#187; Projektportal</title>
	<atom:link href="https://www.vfm-online.de/weblog/category/projektportal/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.vfm-online.de/weblog</link>
	<description>Austauschplattform für Mediendokumentation und -information</description>
	<lastBuildDate>Fri, 12 Oct 2018 14:52:16 +0000</lastBuildDate>
	<language>de-DE</language>
		<sy:updatePeriod>hourly</sy:updatePeriod>
		<sy:updateFrequency>1</sy:updateFrequency>
	<generator>https://wordpress.org/?v=3.8.41</generator>
	<item>
		<title>Bildähnlichkeitssuche</title>
		<link>https://www.vfm-online.de/weblog/bildaehnlichkeitssuche/</link>
		<comments>https://www.vfm-online.de/weblog/bildaehnlichkeitssuche/#comments</comments>
		<pubDate>Tue, 15 Jul 2014 15:32:27 +0000</pubDate>
		<dc:creator><![CDATA[Felix Kresing-Wulf]]></dc:creator>
				<category><![CDATA[Bild- und Videodokumentation]]></category>

		<guid isPermaLink="false">http://www.vfm-online.de/weblog/?p=437</guid>
		<description><![CDATA[Name Bildähnlichkeitssuche Funktionsweise Bei der Bildähnlichkeitssuche erfolgt die Anfrage an eine Bilddatenbank über die Auswahl oder Eingabe eines Suchbildes. Anhand von sogenannten Low- bzw. Mid-Level Merkmalen (wie Farb-, Textur- oder Konturbeschreibungen) werden visuelle Ähnlichkeiten zwischen den Bildern berechnet. Dazu muss für jedes Bild entsprechende Merkmale berechnet und gespeichert werden. In einigen Anwendungen ist es möglich, [&#8230;]]]></description>
				<content:encoded><![CDATA[<h2>Name</h2>
<p>Bildähnlichkeitssuche</p>
<h2>Funktionsweise</h2>
<table border="1" cellspacing="0" cellpadding="0">
<tbody>
<tr>
<td valign="top" width="404">Bei der Bildähnlichkeitssuche erfolgt die Anfrage an eine Bilddatenbank über die Auswahl oder Eingabe eines Suchbildes. Anhand von sogenannten Low- bzw. Mid-Level Merkmalen (wie Farb-, Textur- oder Konturbeschreibungen) werden visuelle Ähnlichkeiten zwischen den Bildern berechnet. Dazu muss für jedes Bild entsprechende Merkmale berechnet und gespeichert werden. In einigen Anwendungen ist es möglich, die Suche so zu konfigurieren, dass bestimmte Merkmale (z.B. Farben) priorisiert werden.Die Bildähnlichkeitssuche wird außerdem dazu verwendet, Gruppen (Cluster) von Bildern automatisiert zu erstellen, um damit die Verwaltung und Navigation von großen Bildmengen zu vereinfachen.</p>
<p>Die Qualität der Bildähnlichkeitssuche beruht in der Regel auf einer stärker subjektiv wahrgenommenen Meinung. Die meisten Bildähnlichkeitssuchanwendungen sind in der Lage, ähnliche Bilder zu finden.</p>
<h2>Nutzungspotentiale und Einsatzgebiete</h2>
<p>Bildsuchmaschinen, Bildretrieval, Bilddatenbanken</p>
<h2>Referenzprojekt</h2>
<p>Google Bildersuche</p>
<h2>Anbieter und Ansprechpartner</h2>
<p>Fraunhofer HHI (http://www.hhi.iais.fraunofer.de)</p>
<p>Fraunhofer IDMT  (http://www.idmt.fraunhofer.de)</p>
<p>Fraunhofer IAIS (http://www.iais.fraunhofer.de)</p>
<h2></h2>
<p>&nbsp;</td>
</tr>
</tbody>
</table>
<p>&nbsp;</p>
]]></content:encoded>
			<wfw:commentRss>https://www.vfm-online.de/weblog/bildaehnlichkeitssuche/feed/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Dokumentenklassifikation</title>
		<link>https://www.vfm-online.de/weblog/dokumentenklassifikation/</link>
		<comments>https://www.vfm-online.de/weblog/dokumentenklassifikation/#comments</comments>
		<pubDate>Thu, 16 Jan 2014 11:46:04 +0000</pubDate>
		<dc:creator><![CDATA[Martha Merzbach]]></dc:creator>
				<category><![CDATA[Allgemein]]></category>
		<category><![CDATA[Technologien]]></category>

		<guid isPermaLink="false">http://www.vfm-online.de/weblog/?p=370</guid>
		<description><![CDATA[Einordnung von Textdokumenten in vorgegebene Klassen oder Kategorien Funktionsweise Verfahren zur Dokumentenklassifikation basieren heute durchweg auf Maschinellen Lernverfahren. Dabei wird eine Trainings-Stichprobe von Dokumenten benötigt, welche manuell mit einer oder mehreren Kategorien annotiert sind. Zur Vorbereitung werden die Dokumente in Sätze und einzelne Wörter zerlegt. Beim Training ermitteln die Klassifikationsverfahren den statistischen Zusammenhang der Worte [&#8230;]]]></description>
				<content:encoded><![CDATA[<h2>Einordnung von Textdokumenten in vorgegebene Klassen oder Kategorien</h2>
<h2>Funktionsweise</h2>
<p>Verfahren zur Dokumentenklassifikation basieren heute durchweg auf Maschinellen Lernverfahren. Dabei wird eine Trainings-Stichprobe von Dokumenten benötigt, welche manuell mit einer oder mehreren Kategorien annotiert sind. Zur Vorbereitung werden die Dokumente in Sätze und einzelne Wörter zerlegt. Beim Training ermitteln die Klassifikationsverfahren den statistischen Zusammenhang der Worte mit den annotierten Kategorien und erstellen ein Modell, welches die Wahrscheinlichkeit der Kategorien des Dokuments aus den Worten errechnet. Mit diesem Klassifikationsmodell können dann neue Texte klassifiziert werden.<br />
Es gibt eine große Anzahl unterschiedlicher Klassifikationsverfahren. Dabei kann nicht nur der Inhalt eines Dokuments sondern auch beispielsweise dessen Genre klassifiziert werden. Wichtig ist, dass sich die Zusammensetzung der Trainingsdaten nicht wesentlich von den Eigenschaften der zu klassifizierenden Dokumente unterscheidet. Die Klassifikationsgenauigkeit hängt auch von der verwendeten Klassifikationshierarchie ab, da sich bei sehr vielen Klassen häufig unscharfe Abgrenzungen ergeben. Typischerweise erreicht man bei einigen hundert Klassen Genauigkeiten von 80% bis 95%. Neuere Ansätzen verbessern die Genauigkeit durch die Verwendung von zusätzlichen Merkmalen, welche durch die statistische Analyse großer, nicht-annotierter Textsammlungen gewonnen werden können (z.B. Topic Models und Deep Learning).</p>
<h2>Nutzungspotentiale und Einsatzgebiete </h2>
<p>Erschließung von textuellen Archiven; Suche nach Dokumenten zu einer inhaltlichen Kategorie; Suchfunktionalität für Archivare, Redakteure, Nutzer von Mediatheken; Analyse von Diskussionsseiten und Foren nach inhaltlichen Kategorien; Identifikation von beleidigenden/radikalen Beiträgen</p>
<h2>Referenzen</h2>
<ul>
<li>Deutsche Digitale Bibliothek: <a href="http://www.iais.fraunhofer.de/ddb.html" title="http://www.iais.fraunhofer.de/ddb.html" target="_blank">http://www.iais.fraunhofer.de/ddb.html</a> Kategorisierung von Inhalten.</li>
<li>Überregionale Deutsche Tageszeitung: Kategorisierung unangemessener Inhalte in Benutzerforen.</li>
</ul>
<h2>Anbieter</h2>
<ul>
<li> Fraunhofer IAIS (<a href="http://www.iais.fraunhofer.de/smartsemantics.html" title="http://www.iais.fraunhofer.de/smartsemantics.html" target="_blank">http://www.iais.fraunhofer.de/smartsemantics.html</a>) Dr. Dirk Hecker (Dirk.Hecker@iais.fraunhofer.de, 02241-14 1509)</li>
</ul>
]]></content:encoded>
			<wfw:commentRss>https://www.vfm-online.de/weblog/dokumentenklassifikation/feed/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Musikanteilsmessung</title>
		<link>https://www.vfm-online.de/weblog/musikanteilsmessung/</link>
		<comments>https://www.vfm-online.de/weblog/musikanteilsmessung/#comments</comments>
		<pubDate>Tue, 26 Nov 2013 09:56:25 +0000</pubDate>
		<dc:creator><![CDATA[Martha Merzbach]]></dc:creator>
				<category><![CDATA[Audio- und Sprachdokumentation]]></category>
		<category><![CDATA[Projektportal]]></category>
		<category><![CDATA[Technologien]]></category>

		<guid isPermaLink="false">http://www.vfm-online.de/weblog/?p=270</guid>
		<description><![CDATA[Name Musikanteilsmessung Funktionsweise Mit dem Algorithmus zur automatischen Musikanteilsmessung bietet das Fraunhofer IDMT eine effektive Lösung zur exakten Aufzeichnung von Musik- und Sprachanteilen zur Optimierung von Radio- und TV-Programmen und zur gerechten Abrechnung für Rechteverwerter und Anbieter. Arbeits- und Zeitersparnis Dank des neuen Fraunhofer-Softwaretools ist eine manuelle Ermittlung von Musikanteilen nicht mehr notwendig. Arbeits- und [&#8230;]]]></description>
				<content:encoded><![CDATA[<h2>Name</h2>
<p>Musikanteilsmessung</p>
<h2>Funktionsweise</h2>
<p>Mit dem Algorithmus zur automatischen Musikanteilsmessung bietet das Fraunhofer IDMT eine effektive Lösung zur exakten Aufzeichnung von Musik- und Sprachanteilen zur Optimierung von Radio- und TV-Programmen und zur gerechten Abrechnung für Rechteverwerter und Anbieter.</p>
<p><strong>Arbeits- und Zeitersparnis</strong><br />
Dank des neuen Fraunhofer-Softwaretools ist eine manuelle Ermittlung von Musikanteilen nicht mehr notwendig. Arbeits- und zeitintensive Auswertungen von Inhalts- und Programmlisten gehören somit der Vergangenheit an. Die trainierten und typischen Audiokategorien wie Musik, Sprache (Wortbeiträge), Musik und Sprache sowie Stille werden automatisch im Sendungsverlauf oder innerhalb einer Datei zeitlich ermittelt.</p>
<p><strong>Hohe Genauigkeit</strong><br />
Je nach Einsatzgebiet oder konkreter Verwendung kann ein Erkennungsraster zwischen mehreren Sekunden und 100 Millisekunden gewählt werden, um z. B. statistische Normalisierungen auszunutzen.</p>
<p><strong>Einfache Integration</strong><br />
Die automatische Musikanteilsmessung setzt auf eine skalierbare Integration in Standard-Workflows und Komponenten. Das System ist für den Einsatz in der Produktion, im Live-Betrieb sowie bei Aufzeichnungen – online wie offline – geeignet.</p>
<p><strong>Unkomplizierter Export</strong><br />
Das Softwaremodul kann in vorhandene Content-Management-Systeme integriert werden. Dabei erfolgt die Datenausgabe wahlweise in XML-Dateien, CUE-Sheets oder anderen standardisierten Exportformaten.</p>
<h2>Nutzungspotentiale und Einsatzgebiete</h2>
<ul>
<li>Reporting: zertifizierte Musikanteilsmessung für Verwertungsgesellschaften</li>
<li>Monitoring: Optimierung der Musikanteile von Programmen und Beiträgen</li>
<li>Copyright: Filterung von Musikanteilen vor einer ressourcen-intensiven Abfrage von Titelinfos</li>
</ul>
<h2>Referenzprojekte</h2>
<ul>
<li>BR, HR, NDR Musikanteilsmessung</li>
</ul>
<h2>Anbieter und Ansprechpartner</h2>
<ul>
<li>Fraunhofer IDMT (<a href="http://www.idmt.fraunhofer.de/m2d" target="_blank">http://www.idmt.fraunhofer.de/m2d</a>) – Steffen Holly (Telefon: +49 3677 467 – 190, sholly@idmt.fraunhofer.de )</li>
</ul>
]]></content:encoded>
			<wfw:commentRss>https://www.vfm-online.de/weblog/musikanteilsmessung/feed/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Qualitätsprüfung</title>
		<link>https://www.vfm-online.de/weblog/qualitaetspruefung/</link>
		<comments>https://www.vfm-online.de/weblog/qualitaetspruefung/#comments</comments>
		<pubDate>Tue, 26 Nov 2013 09:55:38 +0000</pubDate>
		<dc:creator><![CDATA[Martha Merzbach]]></dc:creator>
				<category><![CDATA[Audio- und Sprachdokumentation]]></category>
		<category><![CDATA[Projektportal]]></category>
		<category><![CDATA[Technologien]]></category>

		<guid isPermaLink="false">http://www.vfm-online.de/weblog/?p=262</guid>
		<description><![CDATA[Name Qualitätsprüfung – Automatisierte Erkennung von Fehlern und Qualitätsproblemen in A/V-Material Funktionsweise Mit Verfahren der digitalen Signalanalyse können vielfältige Informationen automatisiert aus audiovisuellen Inhalten gewonnen werden. Hierbei werden die decodierten Inhalte direkt auf Signalebene (base-band: Pixels bzw. Samples) analysiert. Es kann eine Vielzahl von technischen und inhaltlichen Parametern, Fehlern oder Qualitätsproblemen ermittelt werden. Auf dieser [&#8230;]]]></description>
				<content:encoded><![CDATA[<h2>Name</h2>
<p>Qualitätsprüfung – Automatisierte Erkennung von Fehlern und Qualitätsproblemen in A/V-Material</p>
<h2>Funktionsweise</h2>
<p>Mit Verfahren der digitalen Signalanalyse können vielfältige Informationen automatisiert aus audiovisuellen Inhalten gewonnen werden. Hierbei werden die decodierten Inhalte direkt auf Signalebene (base-band: Pixels bzw. Samples) analysiert. Es kann eine Vielzahl von technischen und inhaltlichen Parametern, Fehlern oder Qualitätsproblemen ermittelt werden. Auf dieser Grundlage können Lösungen für die automatische Qualitätsprüfung (QC: Quality Control) realisiert werden. Die am Fraunhofer IDMT entwickelten QC-Komponenten sind vielfältig in den Bereichen Broadcasting, Multimedia und digitale Archive einsetzbar.</p>
<p>Typische Qualitätsprobleme, die während des Produktionsprozesses oder auch bei der Übertragung auftreten können, sind z. B. Kodierartefakte wie Blocking oder Ringing, Unschärfe, Rauschen, Black Bars, Freezes, Mono-in Stereo, Clipping usw. Das decodierte A/V-Material wird frameweise untersucht und es werden Messwerte bzw. Qualitätsparameter für jede Fehlerklasse ermittelt. Ausgehend vom detektierten Auftreten einzelner Fehler und insbesondere aus dem kombinierten Auftreten verschiedener Fehlerarten können Rückschlüsse auf die Gesamtqualität des Materials gezogen werden. So ist bspw. eine intuitive Ampeldarstellung (rot/gelb/grün) der Qualität realisierbar. Je nach Anwendungsfall können vollautomatische oder auch teilautomatische (assisted) Prozesse für die Qualitätsprüfung aufgesetzt werden. Es können Fehlerberichte in gewünschtem Detailgrad generiert werden.</p>
<p>Die Qualitätsprüfung aus Signalebene (base-band Analyse) ergänzt die Container-Analyse und die Stream-Analyse und ermöglicht so die sehr detaillierte und effiziente Untersuchung des A/V-Materials.</p>
<p>Das Fraunhofer IDMT entwickelt und liefert Analysekomponenten für verschiedenste Fehlerarten. Das modulare Analysekonzept ermöglicht kundenspezifische Lösungen und auch die Detektion von sehr speziellen Fehlern und Qualitätsproblemen.</p>
<h2>Nutzungspotentiale und Einsatzgebiete</h2>
<p>Die automatisierte Prüfung von A/V-Material kann an verschiedensten Stellen im Produktionsprozess nutzbringend angewendet werden:</p>
<ul>
<li>Eingangskontrolle beim Ingest: automatische Zurückweisung oder Unterstützung der manuellen Prüfung durch Identifizierung potentiell problematischer Abschnitte</li>
<li>Prüfung während der Produktion: Erkennung typischer Fehler beim Schnitt, z. B. Black Frames oder Testpattern/Test Tones, Formatfehler usw.</li>
<li>Ausgangskontrolle, Encoding/Transcoding: Erkennung von Kodierungsfehlern, Prüfung auf Konformität zu Standards und Regularien</li>
</ul>
<h2>Referenzprojekte</h2>
<ul>
<li><strong><a href="http://www.idmt.fraunhofer.de/qc">A/V Analyzing Toolbox</a>:</strong> <a href="http://www.idmt.fraunhofer.de/qc">http://www.idmt.fraunhofer.de/qc</a></li>
<li><strong><a href="http://www.dvbcontrol.com/">DVBcontrol</a>:</strong> <a href="http://www.dvbcontrol.com/">http://www.dvbcontrol.com/</a></li>
</ul>
<h2>Anbieter und Ansprechpartner</h2>
<ul>
<li>Fraunhofer IDMT (<a href="http://www.idmt.fraunhofer.de/m2d" target="_blank">http://www.idmt.fraunhofer.de/m2d</a>) – Steffen Holly (Telefon: +49 3677 467 – 190, sholly@idmt.fraunhofer.de )</li>
</ul>
<h2>Bilder</h2>
<p><a href="http://www.vfm-online.de/weblog/wp-content/uploads/2013/11/A-V_Analyzing-Toolbox.png"><img class="alignnone size-medium wp-image-263" alt="A-V_Analyzing Toolbox" src="http://www.vfm-online.de/weblog/wp-content/uploads/2013/11/A-V_Analyzing-Toolbox-300x182.png" width="300" height="182" /></a></p>
]]></content:encoded>
			<wfw:commentRss>https://www.vfm-online.de/weblog/qualitaetspruefung/feed/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>MusikAnnotationEmpfehlung</title>
		<link>https://www.vfm-online.de/weblog/musikannotationempfehlung/</link>
		<comments>https://www.vfm-online.de/weblog/musikannotationempfehlung/#comments</comments>
		<pubDate>Tue, 26 Nov 2013 09:54:49 +0000</pubDate>
		<dc:creator><![CDATA[Martha Merzbach]]></dc:creator>
				<category><![CDATA[Audio- und Sprachdokumentation]]></category>
		<category><![CDATA[Projektportal]]></category>
		<category><![CDATA[Technologien]]></category>

		<guid isPermaLink="false">http://www.vfm-online.de/weblog/?p=276</guid>
		<description><![CDATA[Name Soundslike 2.0 &#8211; Automatische Annotationen &#38; Empfehlungen für Musik Funktionsweise Das Fraunhofer IDMT als Pionier im Bereich MIR (Music Information Retrieval) beschäftigt sich seit seiner Gründung mit der automatischen Extraktion von musikalischen Eigenschaften. Diese werden aus den gewonnenen akustischen und physikalischen Features der Musik in verständliche und allgemein gültige Beschreibungen übersetzt, die als zusätzliche [&#8230;]]]></description>
				<content:encoded><![CDATA[<h2>Name</h2>
<p>Soundslike 2.0 &#8211; Automatische Annotationen &amp; Empfehlungen für Musik</p>
<h2>Funktionsweise</h2>
<p>Das Fraunhofer IDMT als Pionier im Bereich MIR (Music Information Retrieval) beschäftigt sich seit seiner Gründung mit der automatischen Extraktion von musikalischen Eigenschaften. Diese werden aus den gewonnenen akustischen und physikalischen Features der Musik in verständliche und allgemein gültige Beschreibungen übersetzt, die als zusätzliche Metadaten in Archiven und Musiksammlungen eingetragen werden können.</p>
<p>Dazu zählen u. a.: Style, Genre, Emotion, Valence, Arousal, Mood, MusicColor, MusicTexture, Tempo, Distortion, Dynamic, Percussive, Synthetic, Instrument.</p>
<p>Für die visuelle Unterstützung beim Auffinden der richtigen, passenden Songs oder Teilen von Werken können die Dateien automatisch segmentiert werden, z.B. in Strophe und Refrain.</p>
<p>Als Ergebnis wird eine Ähnlichkeitsmatrix für alle enthaltenen Titel ermittelt, wonach aus dem entsprechenden Konfidenzwerten Playlisten mit ähnlicher Musik erstellt werden können. Zusätzlich können ganze Alben oder Künstlerportfolios an Hand ihrer musikalischen Eigenschaften miteinander verglichen werden.</p>
<p>Das ganze System der inhaltsbasierten Empfehlung ist für den hybriden Einsatz optimiert, d.h. für die Individualisierung von Lösungen können existierende Metadaten oder gesammelte Nutzerdaten (Hörprofile inkl. Titel-IDs) bzw. Daten aus sozialen Netzwerken hinzugefügt und eventuell als Filter benutzt werden.</p>
<p>Außerdem ist es möglich, die komplette Umgebung auf neue Zielgruppen oder Inhaltsgruppen zu trainieren, um z.B. neue oder exotische Genre in bestimmten Regionen oder Produkten besser abzudecken. Dafür wird ein spezielles Training mit Referenz- und Kontrollgruppen der zu verbessernden Inhalte benötigt.</p>
<p>Der Algorithmus ist für alle Betriebssysteme optimiert, ist als Server- und Desktopversion erhältlich und sklalierbar für Archive mit einer 7-stelligen Anzahl an Titeln.</p>
<h2>Nutzungspotentiale und Einsatzgebiete</h2>
<ul>
<li>Musik- und Audio-Archive: automatische Beschreibung von Musik für relevante Suche nach Stichworten (musikalische Merkmale)</li>
<li>Musikproduktion: automatische Zusammenstellung von ähnlichen Stücken für die Nachvertonung auf Basis inhaltlicher-musikalischer Eigenschaften unter Einbeziehung vorhandener Tags oder Schlagworte (in-Haus Datenbanken)</li>
<li>Musikprogramme: automatische Erstellung von Playlisten inhaltlich passender Musik als Vorschlag unter Einbeziehung eigener Metadaten (Filter für eigene Genre-Matrix u. ä.)</li>
</ul>
<h2>Referenzprojekte</h2>
<ul>
<li>Aupeo, Red Bull Mediahouse, Creative Network Design u. a.</li>
</ul>
<h2>Anbieter und Ansprechpartner</h2>
<ul>
<li>Fraunhofer IDMT (<a href="http://www.idmt.fraunhofer.de/m2d" target="_blank">http://www.idmt.fraunhofer.de/m2d</a>) – Steffen Holly (Telefon: +49 3677 467 – 190, sholly@idmt.fraunhofer.de )</li>
</ul>
]]></content:encoded>
			<wfw:commentRss>https://www.vfm-online.de/weblog/musikannotationempfehlung/feed/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Linked Data Stack</title>
		<link>https://www.vfm-online.de/weblog/linked-data-stack/</link>
		<comments>https://www.vfm-online.de/weblog/linked-data-stack/#comments</comments>
		<pubDate>Wed, 20 Nov 2013 14:24:01 +0000</pubDate>
		<dc:creator><![CDATA[Martha Merzbach]]></dc:creator>
				<category><![CDATA[Projektportal]]></category>
		<category><![CDATA[Technologien]]></category>

		<guid isPermaLink="false">http://www.vfm-online.de/weblog/?p=250</guid>
		<description><![CDATA[Name LOD2 Linked Data Stack &#8211; Vernetzung und Integration heterogener Informations- und Datenquellen Funktionsweise Medienarchive müssen mit einer Vielzahl weiterer heterogener Informations- und Datenquellen (andere Archive, Aggregatoren, Taxonomien/Thesauri, Geodaten) vernetzt werden. Das Linked-Data-Konzept bietet dafür ein umfassendes konzeptuelles und technologisches Rahmenwerk. Die Linked-Data-Prinzipien bauen auf den langjährig etablierten W3C-Standards RDF, RDF-Schema und OWL auf. Die [&#8230;]]]></description>
				<content:encoded><![CDATA[<h2>Name</h2>
<p>LOD2 Linked Data Stack &#8211; Vernetzung und Integration heterogener Informations- und Datenquellen</p>
<h2>Funktionsweise</h2>
<p>Medienarchive müssen mit einer Vielzahl weiterer heterogener Informations- und Datenquellen (andere Archive, Aggregatoren, Taxonomien/Thesauri, Geodaten) vernetzt werden. Das Linked-Data-Konzept bietet dafür ein umfassendes konzeptuelles und technologisches Rahmenwerk. Die Linked-Data-Prinzipien bauen auf den langjährig etablierten W3C-Standards RDF, RDF-Schema und OWL auf. Die Grundidee ist, jeden Daten- bzw. Metadateneintrag mittels einer URI weltweit eindeutig zu identifizieren und Informationen entsprechend in RDF-Statements zu repräsentieren. Mit dem LOD2 Linked Data Stack steht eine reife Technologieplattform für Transformation/Mapping, Publikation, automatisierte Verlinkung, Kuratierung und Exploration von Linked Data zur Verfügung. Im Ergebnis können Linked-Data-basierte Archive leicht mit weiteren Informationsquellen verknüpft werden, semantische facetten-basierte Suche erleichtert das Retrieval und Metadaten können mit umfassenden Zusatzinformationen aus öffentlichen (und internen) Quellen angereichert werden.</p>
<h2>Nutzungspotentiale und Einsatzgebiete</h2>
<ul>
<li>Daten-Integration in und zwischen Medienarchiven</li>
<li>Nutzung von Hintergrundwissen aus der Linked Open Data Cloud (z.B. DBpedia)</li>
<li>automatische Verschlagwortung und Verlinkung</li>
<li>semantische Strukturierung von multimedialen Inhalten</li>
<li>semantische, facetten-basierte Suche</li>
</ul>
<h2>Referenzprojekte</h2>
<ul>
<li><strong><a href="http://iswc2012.semanticweb.org/sites/default/files/76500001.pdf">Semantische Informationsflüsse beim Verlag WoltersKluwer</a></strong></li>
<li><strong><a href="http://media.daimler.com/dcmedia/0-921-657591-1-1588269-1-0-0-0-0-0-11701-614316-0-1-0-0-0-0-0.html">Nutzung des Linked Data Stack bei Daimler AG</a></strong></li>
<li>EU Datenportal <strong><a href="http://open-data.europa.eu/">open-data.europa.eu</a></strong> und <strong><a href="http://lod2.eu/">EU Projekt LOD2</a></strong></li>
</ul>
<h2>Anbieter und Ansprechpartner</h2>
<ul>
<li>Fraunhofer IAIS (<a href="http://www.iais.fraunhofer.de/diensteplattform-technologien.html" target="_blank">http://www.iais.fraunhofer.de/diensteplattform-technologien.html</a>) – <a href="http://www.iais.fraunhofer.de/auer.html">Sören Auer</a> (Telefon: 02241 14-1915)</li>
</ul>
<h2>Bilder</h2>
<p><a href="http://www.vfm-online.de/weblog/wp-content/uploads/2013/11/Linked-Data-Cloud.png"><img class="alignnone size-medium wp-image-252" alt="Linked Data Cloud" src="http://www.vfm-online.de/weblog/wp-content/uploads/2013/11/Linked-Data-Cloud-300x198.png" width="300" height="198" /></a></p>
<p><a href="http://www.vfm-online.de/weblog/wp-content/uploads/2013/11/Semantisches-Daten-Wiki-OntoWiki.png"><img class="alignnone size-medium wp-image-253" alt="Semantisches Daten-Wiki OntoWiki" src="http://www.vfm-online.de/weblog/wp-content/uploads/2013/11/Semantisches-Daten-Wiki-OntoWiki-300x191.png" width="300" height="191" /></a></p>
]]></content:encoded>
			<wfw:commentRss>https://www.vfm-online.de/weblog/linked-data-stack/feed/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>DDR-Tageszeitungen</title>
		<link>https://www.vfm-online.de/weblog/ddr-tageszeitungen-der-staatsbibliothek-zu-berlin/</link>
		<comments>https://www.vfm-online.de/weblog/ddr-tageszeitungen-der-staatsbibliothek-zu-berlin/#comments</comments>
		<pubDate>Fri, 24 May 2013 13:28:26 +0000</pubDate>
		<dc:creator><![CDATA[admin]]></dc:creator>
				<category><![CDATA[Printdokumentation]]></category>
		<category><![CDATA[Projektportal]]></category>
		<category><![CDATA[Referenzprojekte]]></category>

		<guid isPermaLink="false">http://www.vfm-online.de/weblog/?p=76</guid>
		<description><![CDATA[DDR-Tageszeitungen der Staatsbibliothek zu Berlin Name DDR-Tageszeitungen der Staatsbibliothek zu Berlin Projektart Forschung/Anwendung Auftraggeber DFG Laufzeit/Jahr 2012 Auftragnehmer Staatsbibliothek zu Berlin, Fraunhofer IAIS, ArchivInForm Kurzbeschreibung Das von der DFG geförderte Projekt digitalisiert und erschließt semi-automatisch drei DDR-Tageszeitungen (Neues Deutschland, Berliner Zeitung, Neue Zeit) mit allen Ausgaben von 1946-1990. Gut 400.000 Zeitungsseiten werden dabei gescannt, Scan- [&#8230;]]]></description>
				<content:encoded><![CDATA[<h1>DDR-Tageszeitungen der Staatsbibliothek zu Berlin</h1>
<h2>Name</h2>
<p>DDR-Tageszeitungen der Staatsbibliothek zu Berlin</p>
<h2>Projektart</h2>
<p>Forschung/Anwendung</p>
<h2>Auftraggeber</h2>
<p>DFG</p>
<h2>Laufzeit/Jahr</h2>
<p>2012</p>
<h2>Auftragnehmer</h2>
<p>Staatsbibliothek zu Berlin, Fraunhofer IAIS, ArchivInForm</p>
<h2>Kurzbeschreibung</h2>
<p>Das von der DFG geförderte Projekt digitalisiert und erschließt semi-automatisch drei DDR-Tageszeitungen (Neues Deutschland, Berliner Zeitung, Neue Zeit) mit allen Ausgaben von 1946-1990. Gut 400.000 Zeitungsseiten werden dabei gescannt, Scan- und Bildfehler automatisch korrigiert und für die Erschließung zur Verfügung gestellt. Über eine Artikelsegmentierung werden Überschriften, Unterschriften und Artikelblöcke erkannt und auf Artikelebene gruppiert. Dabei werden im automatischen Schritt bereits sehr gute Ergebnisse erzielt. Eine OCR erkennt den Text im Bild und stellt die Artikel als Volltext zur Verfügung. In einer manuellen Nachbearbeitung werden die automatischen Ergebnisse optimiert und anschließend in ein gängiges Austauschformat konvertiert. Die so erschlossenen Ausgaben werden über eine Webseite abrufbar und durchsuchbar sowie zusätzlich als PDF mit Volltext bereitgestellt.</p>
<h2>Eingesetzte Technologien</h2>
<p>Automatische Scan-/Bildkorrektur, <a title="Layout-Analyse" href="http://www.vfm-online.de/weblog/layout-analyse/">Artikelsegmentierung </a>(Optical Layout Recognition, OLR), optische Zeichenerkennung (Optical Character Recognition, OCR), Artikelarchivexporter (für METS/MOTS/ALTO)</p>
<h2>Nutzungspotentiale und Einsatzgebiete</h2>
<p>Digitalisierung und Erschließung von Zeitungsarchiven; Verbesserter Zugriff auf Archivinhalte (Durchsuchbarkeit); Redaktionelle Suche; Erstellung kultureller/historischer Sonderausgaben; Recherchesystem für Historiker</p>
<h2>Webseiten/Links</h2>
<ul>
<li><a href="http://www.iais.fraunhofer.de/zeitungserschliessung.html" target="_blank">http://www.iais.fraunhofer.de/zeitungserschliessung.html</a></li>
<li><a href="http://zefys.staatsbibliothek-berlin.de/ddr-presse" target="_blank">http://zefys.staatsbibliothek-berlin.de/ddr-presse</a></li>
<li><a href="http://www.heise.de/newsticker/meldung/Berliner-Staatsbibliothek-digitalisiert-DDR-Tageszeitungen-1812537.html" target="_blank">http://www.heise.de/newsticker/meldung/Berliner-Staatsbibliothek-digitalisiert-DDR-Tageszeitungen-1812537.html</a></li>
</ul>
<h2>Ansprechpartner</h2>
<ul>
<li>Fraunhofer IAIS &#8211; <a title="Ulrich Wernecke" href="http://www.iais.fraunhofer.de/wernecke.html" target="_blank">Ulrich Wernecke</a>  (Telefon: 02241 14 2530)</li>
<li>ArchivInForm, Staatsbibliothek zu Berlin</li>
</ul>
<h2>Ansprechpartner im Medienunternehmen</h2>
<p>Dr. Lieder (Email)</p>
<h2>Bilder</h2>
]]></content:encoded>
			<wfw:commentRss>https://www.vfm-online.de/weblog/ddr-tageszeitungen-der-staatsbibliothek-zu-berlin/feed/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>ProSiebenSat.1 Galileo Videolexikon</title>
		<link>https://www.vfm-online.de/weblog/prosiebensat-1-galileo-videolexikon/</link>
		<comments>https://www.vfm-online.de/weblog/prosiebensat-1-galileo-videolexikon/#comments</comments>
		<pubDate>Fri, 24 May 2013 13:19:59 +0000</pubDate>
		<dc:creator><![CDATA[admin]]></dc:creator>
				<category><![CDATA[Bild- und Videodokumentation]]></category>
		<category><![CDATA[Projektportal]]></category>
		<category><![CDATA[Referenzprojekte]]></category>

		<guid isPermaLink="false">http://www.vfm-online.de/weblog/?p=74</guid>
		<description><![CDATA[Name Galileo Videolexikon Projektart Anwendung Auftraggeber SevenOne Intermedia / ProSiebenSat.1 Media AG Laufzeit/Jahr 2011 Auftragnehmer Fraunhofer IAIS Kurzbeschreibung Für das Galileo Videolexikon wurden automatisch die Galileo-Archivbestände mit Audiomining-Technologie erschlossen, um für Endanwender einen verbesserten Zugriff auf die Inhalte zu erreichen. Die Erschließung ermöglicht die Suche und direkte zeitliche Anwahl von Suchtreffern im gesprochenen Wort aller [&#8230;]]]></description>
				<content:encoded><![CDATA[<h2>Name</h2>
<p>Galileo Videolexikon</p>
<h2>Projektart</h2>
<p>Anwendung</p>
<h2>Auftraggeber</h2>
<p>SevenOne Intermedia / ProSiebenSat.1 Media AG</p>
<h2>Laufzeit/Jahr</h2>
<p>2011</p>
<h2>Auftragnehmer</h2>
<p>Fraunhofer IAIS</p>
<h2>Kurzbeschreibung</h2>
<p>Für das Galileo Videolexikon wurden automatisch die Galileo-Archivbestände mit Audiomining-Technologie erschlossen, um für Endanwender einen verbesserten Zugriff auf die Inhalte zu erreichen. Die Erschließung ermöglicht die Suche und direkte zeitliche Anwahl von Suchtreffern im gesprochenen Wort aller Galileo-Videos. Eine zusätzlich erzeugte Tag-Cloud der wichtigsten Wörter im gesprochenen Inhalt bietet eine zusätzliche Navigationsmöglichkeit durch die Inhalte.</p>
<h2>Eingesetzte Technologien</h2>
<p><a title="Audiomining" href="http://www.vfm-online.de/weblog/audiomining/">Audiomining</a>, Spracherkennung <span style="color: #ff0000;">(LINK)</span>, Keywordextraktion <span style="color: #ff0000;">(LINK)</span></p>
<h2>Nutzungspotentiale und Einsatzgebiete</h2>
<p>Erschließung von audiovisuellen Medien; Verbesserter Zugang zu Videoinhalten über erweiterte Such- und Navigationsfunktionalität</p>
<h2>Webseite</h2>
<ul>
<li><a href="http://www.iais.fraunhofer.de/galileo-videolexikon.html" target="_blank">http://www.iais.fraunhofer.de/galileo-videolexikon.html</a></li>
<li><a href="http://www.galileo-videolexikon.de" target="_blank">http://www.galileo-videolexikon.de</a></li>
</ul>
<h2>Ansprechpartner</h2>
<ul>
<li>Fraunhofer IAIS – <a title="Angelika Pauer" href="http://www.iais.fraunhofer.de/pauer.html" target="_blank">Angelika Pauer</a> (Telefon: 02241 14 2186)</li>
<li>Ansprechpartner im Medienunternehmen: Manuel Seipolt (email)</li>
</ul>
<h2>Bilder</h2>
<p>&nbsp;</p>
]]></content:encoded>
			<wfw:commentRss>https://www.vfm-online.de/weblog/prosiebensat-1-galileo-videolexikon/feed/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Layout-Analyse</title>
		<link>https://www.vfm-online.de/weblog/layout-analyse/</link>
		<comments>https://www.vfm-online.de/weblog/layout-analyse/#comments</comments>
		<pubDate>Fri, 24 May 2013 09:22:20 +0000</pubDate>
		<dc:creator><![CDATA[admin]]></dc:creator>
				<category><![CDATA[Printdokumentation]]></category>
		<category><![CDATA[Projektportal]]></category>

		<guid isPermaLink="false">http://www.vfm-online.de/weblog/?p=47</guid>
		<description><![CDATA[Name Layout-Analyse: Artikelsegmentierung von digitalisierten Zeitungsseiten Funktionsweise Bei der Artikelsegmentierung werden Zeitungsseiten automatisch in einzelne Artikel zerlegt. Jeder Artikel wird mit den genauen Koordinationsdaten gespeichert. Im Fall von z.B. Zeitungen werden dann XML-Beschreibungen der logischen und physischen Struktur von Dokumenten auf der Ebene von Artikeln erzeugt. Damit steht jeder Artikel als einzelnes Asset und Datenendpunkt [&#8230;]]]></description>
				<content:encoded><![CDATA[<h2>Name</h2>
<p>Layout-Analyse: Artikelsegmentierung von digitalisierten Zeitungsseiten</p>
<h2>Funktionsweise</h2>
<p>Bei der Artikelsegmentierung werden Zeitungsseiten automatisch in einzelne Artikel zerlegt. Jeder Artikel wird mit den genauen Koordinationsdaten gespeichert. Im Fall von z.B. Zeitungen werden dann XML-Beschreibungen der logischen und physischen Struktur von Dokumenten auf der Ebene von Artikeln erzeugt. Damit steht jeder Artikel als einzelnes Asset und Datenendpunkt zur Verfügung.<br />
Da eine 100% Artikelsegmentierungsgenauigkeit nicht möglich ist, werden häufig manuelle Nacherarbeitungsschritte und -tools verwendet. Trotz des manuellen Nachverarbeitungsaufwands wird durch die automatische Artikelsegmentierung der Aufwand um den Faktor 5 verringert.</p>
<h2>Nutzungspotentiale und Einsatzgebiete</h2>
<p>Erschließung von Zeitungsseiten; Archive in Bibliotheken; Zeitungs- und Zeitschriftenverlage; Unterstützung der redaktionellen Suche; Einfache Erstellung von Zeitungs-Sonderausgaben (Jubiläumsausgaben, Jahresrückblicke, chronologische Themendossiers, etc.)</p>
<h2>Referenzprojekte</h2>
<ul>
<li><a title="DDR-Tageszeitungen der Staatsbibliothek zu Berlin" href="http://www.vfm-online.de/weblog/ddr-tageszeitungen-der-staatsbibliothek-zu-berlin/">Zeitungsarchiv der Staatsbibliothek zu Berlin</a>.</li>
<li>…</li>
</ul>
<h2>Anbieter und Ansprechpartner</h2>
<p>Fraunhofer IAIS (<a href="http://www.iais.fraunhofer.de/diensteplattform-technologien.html">http://www.iais.fraunhofer.de/diensteplattform-technologien.html</a>) &#8211; <a title="Stefan Eickeler" href="http://www.iais.fraunhofer.de/eickeler.html">Dr. Stefan Eickeler</a> (Telefon: 02241 14 1969)</p>
<h2>Bilder</h2>
]]></content:encoded>
			<wfw:commentRss>https://www.vfm-online.de/weblog/layout-analyse/feed/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>EU Projekt AXES</title>
		<link>https://www.vfm-online.de/weblog/eu-projekt-axes/</link>
		<comments>https://www.vfm-online.de/weblog/eu-projekt-axes/#comments</comments>
		<pubDate>Fri, 24 May 2013 06:57:26 +0000</pubDate>
		<dc:creator><![CDATA[admin]]></dc:creator>
				<category><![CDATA[Audio- und Sprachdokumentation]]></category>
		<category><![CDATA[Projektportal]]></category>
		<category><![CDATA[Referenzprojekte]]></category>

		<guid isPermaLink="false">http://www.vfm-online.de/weblog/?p=36</guid>
		<description><![CDATA[Projektname AXES – Access to Audiovisual Archives Projektart Forschung Auftraggeber EU Laufzeit/Jahr Januar 2011 – Dezember 2014 Projektpartner ERCIM (FR), Katholieke Universiteit Leuven (BE), University of Oxford (UK), INRIA (FR), DCU (IE), Fraunhofer IAIS (DE), Universiteit Twente (NL), BBC (UK), Beeld En Geluid (NL), Deutsche Welle (DE), technicolor (FR), Cassidian (FR), Erasmus Universiteit Rotterdam (NL) [&#8230;]]]></description>
				<content:encoded><![CDATA[<h2>Projektname</h2>
<p>AXES – Access to Audiovisual Archives</p>
<h2>Projektart</h2>
<p>Forschung</p>
<h2>Auftraggeber</h2>
<p>EU</p>
<h2>Laufzeit/Jahr</h2>
<p>Januar 2011 – Dezember 2014</p>
<h2>Projektpartner</h2>
<p><a href="http://www.ercim.eu" target="_blank">ERCIM </a>(FR), <a href="http://www.kuleuven.be" target="_blank">Katholieke Universiteit Leuven</a> (BE), <a href="http://www.robots.ox.ac.uk/~vgg/research/oxbuildings/index.html">University of Oxford</a> (UK), <a href="http://lear.inrialpes.fr/">INRIA </a>(FR), <a href="http://www.clarity-centre.org/">DCU </a>(IE), <a href="http://www.iais.fraunhofer.de/">Fraunhofer IAIS</a> (DE),<a href="http://hmi.ewi.utwente.nl/"> Universiteit Twente</a> (NL), <a href="http://www.bbc.co.uk/rd/">BBC </a>(UK), <a href="http://www.beeldengeluid.nl/?ChapterID=8823#h2626">Beeld En Geluid</a> (NL), <a href="http://www.dw.de/">Deutsche Welle</a> (DE), <a href="http://www.technicolor.com/">technicolor </a>(FR), <a href="http://www.cassidian.com/en_US">Cassidian </a>(FR),<a href="http://www.eshcc.eur.nl/"> Erasmus Universiteit Rotterdam</a> (NL)</p>
<h2>Projektinhalt</h2>
<p>Ziel von AXES ist die Entwicklung von Werkzeugen zur Annotation und Aufbereitung von audio-visuellen Datenbeständen und Archiven. Hierbei kommen verschiedene Technologien zur Erschließung, Verknüpfung und Suche zum Einsatz. Neben der Audiomining-Technologie zur Indizierung und Suche im gesprochenen Wort, können z.B. auch Konzepte im Video oder ähnliche Bilder zu einem Beispielbild gesucht werden.<br />
Durch eine Verbindung der verschiedenen Modalitäten und eine intelligente Verknüpfung werden weitere innovative Such- und Navigationsmöglichkeiten untersucht und entwickelt, um den Zugriff auf und die Verwertung von großen Medienbeständen zu verbessern. Für unterschiedliche Anwendungen und Anwender sollen jeweils optimierte Zugriffsmöglichkeiten vom unterstützten „Durchstöbern“ über geführte Navigation bis hin zur gezielten multimodalen Suche erforscht und bereitgestellt werden.</p>
<h2>Eingesetzte Technologien</h2>
<p><a title="Audiomining" href="http://www.vfm-online.de/weblog/audiomining/">Audiomining</a>, Audiosegmentierung <span style="color: #ff0000;">(LINK)</span>, Videosegmentierung in Shots<span style="color: #ff0000;"> (LINK)</span>, Face-Recognition <span style="color: #ff0000;">(LINK)</span>, Video-Konzepterkennung <span style="color: #ff0000;">(LINK)</span>, Bildähnlichkeitssuche <span style="color: #ff0000;">(LINK)</span></p>
<h2>Nutzungspotentiale und Einsatzgebiete</h2>
<p>Erschließung von audiovisuellen Archiven; Such- und Navigationsfunktionalität für Archivare, Redakteure, Wissenschaftler, Endanwender, etc.; Verknüpfung und Empfehlung ähnlicher Inhalte</p>
<h2>Webseite</h2>
<p><a href="http://www.axes-project.eu" target="_blank">http://www.axes-project.eu</a></p>
<h2>Ansprechpartner</h2>
<p>Fraunhofer IAIS (<a href="http://www.iais.fraunhofer.de/axes.html" target="_blank">http://www.iais.fraunhofer.de/axes.html</a>) – <a title="Jochen Schwenninger" href="http://www.iais.fraunhofer.de/schwenninger.html">Jochen Schwenninger</a> (Telefon 02241 14-2062)</p>
<h2>Ansprechpartner im Medienunternehmen</h2>
<p>Deutsche Welle (Peggy van der Kreeft , Email)</p>
<h2>Bilder</h2>
<p><a href="http://www.axes-project.eu/" target="_blank"><img class="alignleft size-full wp-image-43" alt="Axes-logo-rgb-01-e1345542215627" src="http://www.vfm-online.de/weblog/wp-content/uploads/2013/05/Axes-logo-rgb-01-e1345542215627.png" width="220" height="78" /></a></p>
]]></content:encoded>
			<wfw:commentRss>https://www.vfm-online.de/weblog/eu-projekt-axes/feed/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
	</channel>
</rss>
