Home | Sitemap | Impressum

Frühjahrstagungen in Mainz

Tagung 17
newcomer forum
Call for Papers Zur newcomer-page | Call 2017
Preisträger 2016

Presseinformationen
Medienarchive zu Gast beim ZDF
pdf Pressemitteilung
20jähriges Jubiläum des vfm.

pdf Pressemitteilung

Seminare
Veränderungen in Berufsbild, Arbeitsabläufen, Strukturen
5.-7.9.2017 in Bonn

pdf Jahresprogramm 2017
Mitgliederportal
Tagungsdokumentation 2016
Fotodokumentation 2016
vfm und social media

twitter www.facebook.com/ mediendokumentation medoc

Abstracts der Frühjahrstagung 2013


Eröffnungsvortrag

Recherche und Fiktion
Alex Capus
Alex Capus erzählt von den historischen Recherchen eines Schriftstellers, der im Gegensatz zum Wissenschafter bekanntlich das Privileg hat, bei seiner Spurensuche mutwillig der eigenen Nase zu folgen, gewagte Sinnzusammenhänge zu behaupten und auf jede Vollständigkeit zu verzichten.


Session 1: Menschen, Daten, Fakten

Moderation: Günter Peters (Gruner + Jahr AG & Co KG)
Daten über Menschen sind besondere Daten: sie befriedigen unsere große Neugier an lebenden und toten Mitmenschen und sie sollten, ja sie müssen stimmen, denn es geht um Daten über Menschen. Aus der Idee, Daten über Menschen zusammenzutragen und für eine weitere Verwendung nutzbar zu machen, entsteht zunächst eine Aufgabe, nämlich die, dabei besonders penibel vorzugehen, verifizierte Daten zu liefern. Als Ludwig Munzinger von 100 Jahren diese seine Idee in die Tat umsetzte, hat er nicht nur den Grundstein für ein renommiertes, erfolgreiches Unternehmen geschaffen, sondern auch nebenbei eine Grundlage für Qualitätsjournalismus, egal, wer sich seiner gesammelten Daten wie auch immer bediente. Das Haus Munzinger ist ja in den letzten Jahrzehnten ein Datenhaus geworden, die biographischen Daten sind nur ein Teil der geprüften Daten, die die Firma Munzinger produziert.
Fakten über Menschen sind sensible Daten sind, die selten unkommentiert veröffentlicht werden können, egal, ob sie in der aktuellen Presse oder in Büchern auftauchen oder in Hörfunk und Fernsehen versendet werden. Sie reizen zu Interpretationen, Richtigstellungen und Widerspruch und sind so dann auch Gegenstand rechtlicher Auseinandersetzungen.
Daten und Fakten über Menschen zusammenzutragen ist eine aufwändige Aufgabe und in unserer Medienwelt mit dem Riesenhunger nach Human Touch und dem großen Verbrauch von A- bis E-Promis mit vernünftigem Aufwand nicht vollständig zu bewältigen. Deshalb ist die Aufnahme einer Person in das biographische Munzingerarchiv auch eine Art Ritterschlag geblieben. Da es aber daneben ein großes Bedürfnis nach weiteren Daten über Menschen in den Medien gibt, entstanden weitere biografische Sammlungen und Datenbanken, deren bekannteste die des Infopools der Axel Springer AG ist.
Wir wollen im ersten Block der Frühjahrstagung 2013 über die Geschichte, Gegenwart und Zukunft der Sammlung, Aufbereitung und Verbreitung von biografischen Daten sprechen, lauschen zunächst den Vorträgen von Dr. Willibald Gietl vom Munzinger-Archv in Ravensburg , von Dr. Herbert Hoven aus Köln und von einer/m Mitarbeiter/in des Infopools der Axel Springer AG.

Alles bleibt anders – Veränderungen in der Redaktionsarbeit des Munzinger-Archivs
Willibald Gietl (Munzinger-Archiv GmbH)
Seit seiner Gründung vor 100 Jahren als „Archiv für publizistische Arbeit“ sah sich das Munzinger-Archiv immer wieder mit Phasen tiefgreifender Veränderungen der Informations- und Medienlandschaft konfrontiert, die entsprechende Anpassungsleistungen in Inhalt und Form des Angebotsspektrums  erforderten. Aus aktueller Sicht ungleich größer sind indes die Herausforderungen, die sich für professionelle Informationsvermittler heute mit den nahezu unbegrenzten Kommunikations- und Partizipationsmöglichkeiten stellen, die das world wide web bietet. Noch nie war so viel Information frei und unmittelbar zugänglich, scheint die Utopie der aufgeklärten Wissensgesellschaft so nahe. Noch nie war es aber auch so leicht, in der Flut an Informationen zu ertrinken und bei der Vielzahl an Kommunikationskanälen Überblick und Orientierung zu verlieren. Das über den Tag hinaus Wichtige zu sortieren, zu gewichten, zusammenzufassen und einzuordnen bleibt die Aufgabe professioneller Informationsvermittler. Für diesen Anspruch steht auch die Arbeit des Munzinger-Archivs, heute wie vor 100 Jahren. Unter dem Titel „Alles bleibt anders“ liefert  der Vortrag einen konkreten Einblick in Konstanten und Veränderungen der Redaktionsarbeit des Munzinger-Archivs.

Meine Biographie gehört mir – Wenn Büchern der Prozess gemacht wird
Herbert Hoven (Journalist, Köln)
Fakten sollen unterdrückt und  biographisch Heikles geglättet werden. Wer heute eine Biographie oder die Geschichte eines Unternehmens schreibt, wer sich intensiver mit einer Organisation, eines Verbandes oder Stiftung befasst, muss damit rechnen, dass gegen sein Werk eine einstweilige Verfügung angestrengt wird.
In den allermeisten Fällen geht es den Klägern um ihr Image oder ihr Markenbild in der Öffentlichkeit, das sie nicht angekratzt sehen wollen. Solche juristischen Auseinandersetzungen ziehen sich über Monate. Auch wenn der Beklagte am Ende recht behält, interessert sich die Öffentlichkeit kaum noch für das Werk. Der Buchmarkt ist zu schnelllebig geworden. Es ist ziemlich aussichtslos, ein Buch, das einmal aus dem Sortiment verbannt worden ist, wieder an den Leser zu bringen.

Biographische Datenbank der Axel Springer Syndication
Kirsten Polcuch (Axel Springer Syndication)
Axel Springer Syndication stellt seine Biographische Datenbank vor, die seit über 25 Jahren für die Redaktionen der Axel Springer AG betrieben wird. Der Vortrag wird kurz die Entwicklungsgeschichte der Datenbank beleuchten. Und aufzeigen, wie sinnvolle Strukturierungen komplex erscheinende Recherchen vereinfachen und damit zu schnellen Ergebnissen führen. Ein weiterer Schwerpunkt liegt auf der Darstellung der externen Vermarktung der DB und ihrer Derivate.


Session 2: Datenjournalismus

Moderation: Siegfried Steinlechner (ORF – Österreichischer Rundfunk)
Verstärkt arbeiten Journalisten mit großen Mengen von Daten, die sie in den Weiten des Word Wide Web recherchieren und in ihren Berichten verwenden. Datenjournalismus : ein Thema  das in den letzten Jahren immer stärker eine Herausforderung an Mediendokumentare und –Archive darstellt.
Wir beschäftigen uns mit diversen Fragen, die dazu auftauchen: wie werden die Daten recherchiert, wie werden diese dargestellt und wie vorrätig gehalten. Welche Erfordernisse gibt’s dazu in der alltäglichen Arbeit und wie können wir uns dafür rüsten? Sind wir überhaupt dazu bereit mit diesen Daten umzugehen und was wird künftig in einer trimedialen Welt von uns dahingehend erwartet?
Dazu sprechen und diskutieren drei ExpertInnen, die aus den unterschiedlichsten Bereichen sich mit den diversen Fragestellungen beschäftigen.

Open Government Data & Datenjournalismus
Peter Parycek (Donau-Universität Krems)
Der Trend zur Öffnung der demokratischen Staaten ist seit inzwischen mehr als 5 Jahren zu beobachten. Vor allem die angloamerikanischen Staaten haben hunderttausende Datensätze veröffentlicht und vielfach wird inzwischen von Daten als das „neue“ Öl der digitalen Netzwerkgesellschaft gesprochen. In Deutschland und Österreich wurden die Open Data Initiativen zeitversetzt gestartet und auch die Strategien unterscheiden sich im Hinblick auf die Anzahl der Datensätze von den angloamerikanischen Staaten.  Das Referat wird einerseits einen Überblick über offene Verwaltungsdaten geben und die Potentiale für Zivilgesellschaft und Journalismus aufzeigen.

Zwischen Grauen und Morgen – Wie Daten den Journalismus verändern und damit die Medienarchive herausfordern
Sylke Gruhnwald (Neue Zürcher Zeitung)

Was ist «datengetriebener Journalismus»? Er ist ein Merkmal der neuen öffentlichen Transparenz, die sich weltweit bemerkbar macht. Angesichts ständiger Klagen der Redakteure und Redaktionsmitarbeiter über die heutigen unsicheren Verhältnisse, fällt es schwer zu glauben, aber: Wir befinden uns in einer Zeit unglaublicher Möglichkeiten. Und große Chancen bieten: Daten. Daten können die Berichterstattung unterstützen. Doch welche Daten sollen miteinander verstrickt werden, wie kann informationeller Mehrwert jenseits des Offensichtlichen geschaffen werden? Und wie, wo und in welcher Form können die Ergebnisse gespeichert und veröffentlicht werden? Hier sind die Medienarchive der Redaktionen gefordert.

Datenjournalismus: Unterschätzter Rohstoff
Lorenz Matzat (Lokaler UG)

In den meisten journalistischen Genres spielen seit Jahr und Tag Datensätze und Statistiken eine wichtige Rolle. Doch entgegen anderer Quellen - Texte und Fotos etwa - werden Daten wenig bis gar nicht archiviert. Dieses Manko tritt nun immer deutlicher zutage, wenn Datensätze nicht nur Grundlage sondern auch Bestandteil von datenjournalistischen Stücken im Netz werden. Es fehlt sowohl an Kompetenzen in der Auswertung als auch Infrastruktur, etwa Datenspeichern. Im Vortrag geht es über Grundkonzepte datenjournalistischer Methoden und die Probleme dabei. Zudem wird das Referat auch die Möglichkeiten durch Recherche in Datensätzen und den Einsatz von Datenbanken für neue Erzählformate und Perspektiven behandeln.


Session 3: newcomer-forum im vfm – Neues aus den Hochschulen

Moderation: Heiko Linnemann (Greenpeace)
Der vfm vergibt in diesem Jahr zum zweiten Mal den Marianne-Englert-Preis. Damit sollen qualitativ hochwertige Arbeiten und Projekte von aktiv Studierenden oder AbsolventInnen von Hochschulen mit dokumentarischen, archivarischem oder bibliothekarischem Hintergrund ausgezeichnet werden. Es geht uns dabei um den Blick über den eigenen Tellerrand, und darum, herauszufinden, welche Themen an den Hochschulen aktuell sind und von unseren Nachwuchskräften bearbeitet und diskutiert werden. Die drei Preisträger dieses Jahres stellen sich in dieser Session mit Ihren Arbeiten vor.

Chancen für ein multimediales Produktionsarchiv von WDR-Online -
Die Archivierung der Webinhalte im Westdeutschen Rundfunk
Hanno Jochemich (IID der Fachhochschule Potsdam / WDR)
Die öffentlich-rechtlichen Medienanstalten haben längst erkannt, dass ihre Online-Auftritte nicht nur ein programmbegleitendes Zusatzangebot zu TV, Radio und ihrer PR-Arbeit bieten, sondern immer stärker auch eigenständig informieren, bilden und unterhalten. Die Internetredaktionen generieren inzwischen viele eigenständige, originäre Inhalte. Für den Archivbereich sind einige drängende Fragen allerdings nach wie vor nicht geklärt: Wie kann das Programmvermögen, das mit dem Internetangebot entstanden ist, nachhaltig archiviert werden? Wem könnten die multimedialen Webinhalte zur Wiederverwendung bereitgestellt werden und wie könnte das passieren? Diese Arbeit versteht sich als ein Diskussionsbeitrag zur Webarchivierung. Im Fokus steht die Archivierung von Webcontent mit dem Ziel der Wiederverwendung zur Produktion.

Das Potential von Datenjournalismus im WWW - Mit Daten Geschichten erzählen
Daniela Woytewicz (Fachhochschule Köln / Online-Redakteurin)
Die immer engere Vernetzung von Informationen über das Internet führt zu einem stetigen Wachstum der global verfügbaren Datenmasse, die kaum jemand mehr durchdringen kann. Gerade in diesen Zeiten des „Information-Overflows“ ist es wichtig, aus der Fülle von Daten und Zahlen relevante Informationen herauszufiltern und sie der Öffentlichkeit verständlich zu präsentieren.
Genau darin besteht die Herausforderung für das neue Feld des Online-Journalismus, dem Datenjournalismus. Durch ihn kann die immer komplexer gewordene Gesellschaft anhand von Daten präziser, schneller und umfangreicher dargestellt werden. Durch den Datenjournalismus werden die Daten aus dem World Wide Web systematisch ausgewertet, in interaktiven Grafiken visualisiert und die Originalquellen für die Leserschaft transparent gemacht, sowie Datensätze der Allgemeinheit zur eigenständigen Einsicht und Bearbeitung zur Verfügung gestellt.

Im Netz spielt die Musik - Rezeptionsstudie zu Einfluss und Wirkung cloudbasierter On-Demand-Streaming-Dienste auf das altersspezifische Musiknutzungsverhalten
Konrad Herrfurth (Hochschule für Angewandte Wissenschaften Hamburg / Medien und Information (B.A.))
Gegenstand der Arbeit ist eine rezeptionsorientierte Analyse des altersspezifischen Mu-siknutzungsverhaltens. Dabei wird der Frage nachgegangen, inwiefern Einflussnahme und Wirkungsweisen cloudbasierter On-Demand-Streaming-Dienste bisherige Hörgewohnheiten verändern. Den Ausgangspunkt stellt die Möglichkeit dar, Musik zu hören auch ohne diese besitzen zu müssen. Auf Basis veränderlicher Rezeptionsprozesse, ausgelöst durch technologische Innovationen sowie bestehender Rahmenbedingungen und Funktionsweisen spezieller Streaming-Anbieter, wurden eine Online-Befragung und eine Fokusgruppendiskussion durchgeführt. Durch die Prüfung von breit gefächerten Hypothesen, ist ein Generationentrend ersichtlich, der sowohl signifikante Veränderungen im altersspezifischen Musiknutzungsverhalten feststellt als auch einen Ausblick auf die Art und Weise des zukünftigen Musikkonsums erlaubt.


Session 4: Content-Analyse & Social Tagging

Moderation: Ulrike Spree (Hochschule für Angewandte Wissenschaften Hamburg (HAW))
Intellektuelle Inhaltserschließung durch Informationsprofis, automatische und nutzergenerierte Inhaltserschließung z. B. durch Social Tagging wurden in der Vergangenheit häufig als sich gegenseitig ausschließend diskutiert. Die vier Vorträge der Session Content-Analyse & Social Tagging stellen aus jeweils unterschiedlichen Perspektiven und für unterschiedliche Medien wie Texte, Videos oder Blogbeiträge neue Möglichkeiten der sinnvollen Verbindung dieser unterschiedlichen Erschließungansätze vor.

TOSCA-MP: Aufgabenorientierte Inhaltsanalyse und Suche in der Medienproduktion
Ronald Mies (IRT - Institut fuer Rundfunktechnik GmbH)

Das Projekt TOSCA-MP1 entwickelt nutzerorientierte Werkzeuge für professionelle Anwender zur Annotation und Suche von Inhalten in vernetzten Medienproduktions- und Archivierungsumgebungen. Dabei dienen insbesondere die spezifischen Anforderungen der entsprechenden Anwendungsszenarien und Arbeitsabläufe als Ausgangslage. Neben der Erarbeitung von Methoden zur skalierbaren und verteilten Verarbeitung von Medieninhalten wird die Erschließung von heterogenen Medienspeichern durch multimodale Extraktion von Informationen und semantische Anreicherung erforscht. Des Weiteren wird der Zugriff auf verteilte Medienspeicher über eine Benutzerschnittstelle, die neuartige Präsentationsmethoden für Suchergebnisse, semiautomatische Annotation und Methoden zur Sammlung impliziten Feedbacks durch den Benutzer ermöglicht, untersucht.
Die Suche in großen Mediensammlungen geschieht heute in der Regel über die Eingabe von Schlagworten. Die dafür erforderliche manuelle Verschlagwortung der Medien ist zeitaufwendig und häufig ungenau bzw. unvollständig. In TOSCA-MP werden verschiedene Bildanalyseverfahren entwickelt, die dabei helfen sollen, diesen Prozess zu automatisieren bzw. die manuelle Annotation zu beschleunigen. Dazu werden in der Regel vorab annotierte Trainingsdaten benötigt, die die jeweiligen Schlagwörter repräsentieren. Auch der Ton wird für die automatische Generierung von beschreibenden Daten verwendet: u.a. werden Tools für die automatische Generation von Audiotranskripten und die Sprechererkennung im Projekt entwickelt und eingesetzt. Zusätzlich werden in TOSCA-MP Verfahren erforscht, die auf externe Datenquellen (z. B. aus dem Internet) zurückgreifen, um die Qualität der Annotation zu verbessern bzw. den Bedarf an annotiertem Material zu verringern.

Im Labyrinth der Content-Analyse-Verfahren –
Wege, Auswege und Umwege

Andreas Pozatzidis (Westdeutscher Rundfunk)
Content-Analyse-Verfahren gibt es viele: Allein der Bereich des Bildmining umfasst Objekt-/Konzepterkennung, Personenerkennung, Fingerprint-Verfahren, Video-OCR und noch einiges mehr. Wenn dann noch bei einem audio-visuellen Medium die Tonspuren analysiert werden sollen, so kommen noch ein paar weitere Verfahren rund um das Audiomining hinzu. Und nachdem die Essenz analysiert ist - und sei es weiterhin konventionell durch Dokumentare - lässt sich über Textmining und die Anbindung ans Semantic Web nachdenken.
Welche Informationen erhält der Nutzer aus den einzelnen Verfahren? Ergänzen sich die Verfahren? Gibt es manchmal nicht bereits Informationsquellen, die ein Miningverfahren unnötig machen? Welche Ziele lassen sich mit bestimmten Verfahren erreichen und welche Rahmenbedingungen gibt es?
Der Vortag versucht, Ihnen erste Antworten auf diese Fragen zu geben.

Folksonomies & Social Tagging – Was steckt in den nutzergenerierten Schlagwörtern?
Dr. Isabella Peters (Heinrich-Heine-Universität Düsseldorf)

Der Beitrag führt in das Thema »Folksonomies und Social Tagging« ein und präsentiert ihre Anwendungsfelder. Folksonomies kommen vor allem in Social-Media-Umgebungen zum Einsatz und erlauben den Nutzern, verschiedene Informationsressourcen mit selbst-gewählten Schlagwörtern zu indexieren. Im Gegensatz zu traditionellen Methoden der Wissensrepräsentation machen Folksonomies keinen Gebrauch von Indexierungsregeln, was oftmals als großer Mangel empfunden wird. Im Vortrag wird daher hauptsächlich auf das Potential von Folksonomies für das Retrieval sowie die Beschreibung von Informationsressourcen eingegangen. Außerdem wird beispielhaft der Nutzen von Folksonomies bei der Inhaltsanalyse von wissenschaftlichen Publikationen erläutert.

Von Stanbol nach Marmotta – Content Enhancement und Smarte Annotationen für die Medienindustrie
Sebastian Schaffert (Salzburg Research Forschungsges.m.b.H.)

Im Vortrag wird anhand der Open Source-Systeme Apache Stanbol und Apache Marmotta beschrieben, wie herkömmliche Inhalte mit Methoden der natürlichen Sprachverarbeitung analysiert, mit Zusatzinformationen aus einem lokalen Thesaurus und dem "Web of Data" verknüpft, und für die semantische Suche aufbereitet werden können. Wesentlicher Bestandteil des Vortrages ist eine Softwaredemonstration, welche den vollständigen Prozess anhand eines Blogs zeigt. Zunächst wird mit dem Werkzeug SKOSjs ein einfacher Thesaurus erstellt, der die für das Blog wesentlichen Konzepte in Zusammenhang bringt. Anschließend wird der Blog-Inhalt mit Hilfe von Apache Stanbol analysiert und mit dem Thesaurus verknüpft. Die Ergebnisse der Analyse werden in die Linked Open Data Plattform Apache Marmotta importiert. Als letzter Schritt wird eine semantische Suche konfiguriert, welche die Analyseergebnisse berücksichtigt. Der Benutzer kann mit Hilfe dieser semantischen Suche Blog-Inhalte schneller und präziser finden.

Workshop 1: Fernsehen

Mario Müller (ProSiebenSat.1 Produktion GmbH)
Bei einer Entscheidung für eine professionelle Archivierungsmöglichkeit von Programmbeständen bei TV-Sendern bietet der Markt den Verantwortlichen eine Fülle von unterschiedlichen Technologien an. Die Archivierung ist heute vor allem auch ein IT-Thema. Die zentralen Fragen dabei sind: Wie stellen wir für die Zukunft sicher, dass der Content ohne Qualitätsverluste noch nutzbar ist, wenn sich die Datenbanksysteme sowie Medienformate ständig erneuern? Auf welche Strategien in Sachen Technik, inhaltlicher Aufbereitung und kaufmännischer Sicht sollten die Verantwortlichen setzen? Wie stellt sich der Sachverhalt für die operativ verantwortlichen Dokumentare und Archivare dar? Ändert sich das Berufsbild – welche neuen Kompetenzen werden gefordert? Werden die Entscheidungen den IT-Verantwortlichen überlassen oder ist das ein gemeinschaftlicher Prozess?

Formate, Migrationen und Techniken zur Langzeitsicherung von Medieninhalten für die Zukunft
Jakob Rosinski (IBM Deutschland GmbH)

Der Vortrag umfasst die Konzeption von Archiv-Kernformaten und wie diese prozessgesteuert konsolidiert oder zukünftig auf neue Formate migriert werden können.
Weiterhin sollen unterschiedliche Möglichkeiten dargestellt werden die strukturellen, deskriptiven sowie essentiellen Eigenschaften von Medien zu analysieren, Fehler zu korrigieren um damit die Qualität der Essenzen zu erhalten.
Schlussendlich wird die eigentliche Kurz- und Langzeitspeicherung beschrieben: Welche Speichertechnik für Medien und Metadaten ist aktuell oder in Entwicklung und wie skaliert diese. Und welche Rollenbilder beim Betrieb und der Pflege eines
solchen Archivs werden benötigt.

Die Strategie von Red Bull Media House bei der Sicherung von Medieninhalten?
Fabian Dorschel und Linda Wolf (Red Bull Media House GmbH)
Als jungem Unternehmen in der Medienbranche bot sich der Red Bull Media House GmbH 2008 die Möglichkeit, eine zukunftssichere Archivierungsstrategie ohne bestehende Altlasten umzusetzen - zumindest in der Theorie. Der Vortrag zeigt die Herausforderungen, auf die das Red Bull Media House bei der Umsetzung dieser Strategie gestoßen ist und welche Maßnahmen bzw. Veränderungen getroffen wurden. Es wird das bestehende Setup für Kurz- und Langzeitarchivierung vorgestellt sowie ein Einblick in den Umgang mit der bestehenden Formatvielfalt und der inhaltlichen Erschließung von Archivinhalten gegeben.
Stichworte: Globale Formatvielfalt, Video- und Filmstandards, Kernformat, QC, Media Asset Management, Taxonomie

Workshop 2: Presse

Moderation: Dr. Ute Essegern (Dresdner Druck- und Verlagshaus GmbH & Co. KG)
Multimediakompetenz als Chance
Ein Artikel in der Zeitung, Fotos, passend dazu Videos oder Audiosequenzen Online, interaktive Umfragen, Grafiken, eine eigene App: Zeitungshäuser verabschieden sich zunehmend von ihrem Image, ein „klassisches“ Medium zu sein. Multimedia und Crossmedia sind alte und neue Schlagworte, die durch die Redaktionsräume geistern und nicht nur die Redakteure vor neue berufliche Anforderungen stellen. Es entstehen neue Geschäftsmodelle und Distributionswege. Und mittendrin: Die Dokumentationen. Zeitungsdokumentare müssen zunehmend auch in der Lage sein, neue mediale Produkte in ihre Datenbanken zu integrieren und zu erschließen, Vernetzungen herzustellen, sich den verändernden journalistischen Anforderungen zu stellen und Synergien zwischen den verschiedenen Plattformen für Medieninhalte zu schaffen. Diesen Themen nähert sich der diesjährige Workshop Presse in zwei Vorträgen. Philipp Diekmeyer stellt vor, wie der WDR seine Rechercheoberflächen mithilfe von Usability-Tests nutzergerecht weiterentwickelt. Dr. Hendrik Groth, Chefredakteur der Schwäbischen Zeitung, referiert über die besondere Bedeutung der Dokumentation in einem multimedial publizierenden, regionalen Medienhaus.

Und sie reden Tacheles – Usability-Testing als Methode zur Objektivierung von Anforderungen an kundengerechte Rechercheoberflächen
Philipp Diekmeyer (Westdeutscher Rundfunk)

Jeder kennt das Erfolgsrezept von iPod, iPhone und Co: Sieht gut aus, fühlt sich gut an und ist einfach zu bedienen. Ebenso beunruhigt IuD-Kräfte der Erfolg der Suchmaschine „Google“. Aber wie machen die das? Reicht die vielzitierte Garage in
Kalifornien?
Die Entwicklung von Usability (Gebrauchstauglichkeit) ist nicht Sache von Zufall oder Intuition. Die Strategie ist ein professionelles Usabilty-Testing, welches möglichst objektive Erkenntnisse zu den Themen Design, Bedienbarkeit und Wording
hervorbringt – also zu den Themen, die die Schnittstelle zum Nutzer ausmachen.
Am Beispiel der Kundenoberflächen der für die Datenbanken ARD-PresseArchiv und ARD-Zeitlupe durchgeführten Usabilty-Testings werden die Methoden erläutert, die Ergebnisse präsentiert und Handlungsempfehlungen abgeleitet. Der Focus liegt insbesondere auf der Bedeutung des Usabilty-Testings im Anforderungsmanagement. Denn UT stellt nicht nur den User in den Mittelpunkt der Anforderungen, sondern bietet auch ein erhebliches Einsparpotential durch Vermeidung von Entwicklungskosten und durch Kürzung von Diskussions- und Entscheidungsprozessen. Ferner stärkt eine auf UT-Ergebnissen aufgebaute Datenbank die Akzeptanz gegenüber dem Kunden und ermöglicht eine Beurteilung unabhängig von Einzelwahrnehmungen und
diffuser Kritik.

Multimediale Dokumentation in der Region
Hendrik Groth (Schwäbische Zeitung)

Der Archivierung und Dokumentation in einem multimedial publizierenden, regionalen Medienhaus wie Schwäbisch Media kommt eine besondere Bedeutung zu. Wir sind in vielerlei Hinsicht auf uns allein gestellt und können auf keine der sonst bei der Recherche obligatorischen Quellen zurückgreifen. Viele unserer Text- und Bildinhalte sind in der Tat exklusiv, weder durch einfaches googeln noch durch eine Wikipedia-Recherche zu finden. Die Schwäbische Zeitung ist in vielen Bereichen ihres Verbreitungsgebiets Monopolist und auf regionale Informationen angewiesen, die sich in keinem anderen Archiv finden. Viele unserer Fotos sind Dokumente der Zeitgeschichte. Umso mehr Bedeutung kommt bei uns daher der Aufgabe zu, diese Inhalte aufzubewahren und verfügbar zu machen.


Workshop 3: Games

Moderation: Gabriele Fröschl (Österreichische Mediathek)

Computerspiele: Pioniere und Motor der digitalen Informationsgesellschaft – über Sinn und Möglichkeiten ihrer Bewahrung
Winfried Bergmeyer (Computerspielemuseum)
Schon vor der Ära der Videospiele in den 70er und 80er Jahren war es Spiele, die den Menschen die Möglichkeiten von Computern, waren zunächst in Form von Großrechnern, vermitteln sollten, wie beispielsweise Nimrod, das auf der Industrieausstellung 1951 in Berlin zu sehen war und die Umsetzung eines einfachen Streichholzspiels auf einem Großrechner zeigte. Die Mensch-Maschine-Schnittstelle bildete immer schon ein wichtiges Experimentierfeld der Computerspieleentwicklung. Hier wurden und werden viele Dinge erprobt, die Eingang in unsere Alltagswelt finden.
Mit der Bewahrung, d. h. dem Erhalt der Spielbarkeit der Objekte sind zahlreiche rechtliche, technische und konzeptionelle Probleme verbunden. Die zu diesem Zweck notwendige Erarbeitung geeigneter Erschließungssysteme einerseits und Programmierung von Nutzungssystemen mit automatisierter Emulationsumgebung andererseits, machen die Bewahrung von Computerspielen zu einem Innovationsfeld der digitalen Langzeiterhaltung.

Das Gesellschaftsspiel als Spiegel des Zeitgeistes – Dokumentation und Archivierung von Spiegel und Spiegelbild
Tristan Schwennsen (Ravensburger AG)

Das Spiel ist nicht erst seit Schach, Hazard und Schafskopf Kulturgut. Seit mehr als 5.000 Jahren ist der Mensch ein Spieler. Neben den so genannten „klassischen Spielen“ wie Mühle oder Backgammon werden seit dem 19. Jahrhundert ständig neue Brett-, Karten- und Würfelspiele entwickelt. Dabei kommen immer wieder neue Spielmechanismen und –materialien hinzu. Zunehmend sind es jedoch die Themen, die den Antrieb für neue Spiele geben. Aus diesem Blickwinkel sind Spiele immer auch Spiegel des Zeitgeistes. Die große Fülle an Neuerscheinungen und die immer schnellere Entwicklung des Spielemarktes führen zu vielfachen Aufgaben in der Archivierung von Spielen. Neben den Wegen der Bestandserhaltung ist es vor allem auch die Frage der Klassifikation zu beachten. Besondere Bedeutung kommt dem Kontext der Spiele zu. Die Nachvollziehbarkeit von der Spielidee bis hin zu Marketing- und PR-Aktionen kommen dabei ebenso in den Blick wie der Spielemarkt als Ganzes. Doch auch die äußeren Einflüsse, wie gesellschaftspolitische Entwicklungen und Trends sind in ihrem jeweiligen Einfluss auf den Spielemarkt und die einzelnen Spiele zu dokumentieren, um das Kulturgut Spiel in Gänze begreifbar zu machen.


Session 5: Berufsbild und -bildung

Moderation: Ralph Schmidt (Hochschule für Angewandte Wissenschaften Hamburg – HAW)
Die Berufsbilder im Arbeitssegment Medieninformation und -dokumentation haben sich in den letzten Jahren stark verändert, sodass die einschlägigen Ausbildungsinstitutionen ihre Qualifizierungskonzepte ständig anpassen und aktualisieren müssen.
Für das Institut für Information und Dokumentation (IID), eine der wichtigsten Lehreinrichtungen für neue Fachkräfte im Berufsfeld Mediendokumentation und –archiv, präsentiert sein neuer Leiter Prof. Dr. Ernesto William De Luca die neuen Konzepte für eine zukünftige Informationsausbildung und spricht über neue Gestaltungsmöglichkeiten und Integrationsanstrengungen einer Ausbildung von Mediendokumentaren.
Josefine Bäßler und Jana Paul von der Hochschule für Angewandte Wissenschaften Hamburg untersuchen in Ihrem Beitrag die Wahrnehmung, Akzeptanz und Effektivität der reformierten europäischen Hochschulabschlüsse Bachelor und Master aus Sicht Hamburger Unternehmen und Organisationen des Medien- und Informationssektors. Welche Kenntnisse und Fähigkeiten Informationsprofis für eine Tätigkeit im SEO-Bereich mitbringen sollten, darüber informiert Thomas Adler von der Performance-Marketing-Agentur eprofessional.

Zukunftsorientierung des IID Potsdam
Ernesto William de Luca (Institut für Information und Dokumentation – IID)

Das Institut für Information und Dokumentation (IID) führt seit 1992 als Institut der FH Potsdam eine berufsbegleitende Fortbildung durch, die zu dem staatlich anerkannten Abschluss "Wissenschaftliche/r Dokumentar/in Information Specialist" führt. Es ist die einzige Ausbildungsstätte dieser Art in der Bundesrepublik Deutschland.
Das IID versteht sich nicht nur als Aus-, Fort- und Weiterbildungseinrichtung, sondern möchte darüber hinaus Ansprechpartner für die Absolventen/innen in der Berufspraxis sowie für die Einrichtungen der Informationsbranche überhaupt sein. Zu den Kunden des IID zählen private und öffentlich-rechtliche Rundfunkanstalten, Verlage, wissenschaftliche Einrichtungen, Wirtschaftsunternehmen u.a., die zum großen Teil seit Jahren mit dem Institut verbunden sind. Die Teilnehmenden der Fort- und Weiterbildungsangebote sind überwiegend berufserfahrene Akademiker verschiedener Fachrichtungen, die sich in der Informationsarbeit weiterbilden oder einen berufsqualifizierenden Abschluss erwerben.
In der heutigen Informationsgesellschaft haben Wissenschaftliche Dokumentare als Information Professionals eine zentrale Funktion. In dem Maße, wie Information und Wissen in den Unternehmen strategische Bedeutung gewinnen, werden Informationsspezialisten benötigt, die Informationspotenziale innerhalb und außerhalb des Unternehmens strukturieren und für die Nutzung aufbereiten. Die rasche Entwicklung der Informationstechnologie beeinflusst so stark die Gesellschaft, so dass auch die derzeitige „Wissenschaftliche/r Dokumentar/in“ Fortbildung verändern muss, um Bestand zu haben. Diese Veränderungen werden erläutert und diskutiert.

Mind The Gap – Meinungen und Haltungen Hamburger Arbeitgeber aus der Medienbranche zu Bachelor und Master (mit Jana Paul)
Josefine Bäßler (Hochschule für Angewandte Wissenschaften Hamburg – HAW)
Die vom vfm in Auftrag gegebene Studie »Mind the Gap« aus dem Jahr 2012 wurde von Studierenden des Masterstudiengangs „Informationswissenschaft und –management“ der Hochschule für Angewandte Wissenschaften (HAW) Hamburg durchgeführt. Im Rahmen des Projekts wurden die Wahrnehmung, die Akzeptanz und die Effektivität der reformierten europäischen Hochschulabschlüsse Bachelor und Master aus Sicht Hamburger Unternehmen und Organisationen aus dem Medien- und Informationssektor analysiert. Ziel des Projekts war es, die Bekanntheit und das Ansehen der aktuellen Studienabschlüsse bei Hamburger Personal- und Arbeitsmarktexperten zu ermitteln. Dazu wurden mündliche Interviews mit 18 Personalverantwortlichen und vier Arbeitsmarktexperten durchgeführt. Wichtigste Ergebnisse sind die mangelnden Kenntnisse und die fehlende Differenzierung zwischen den Abschlüssen Bachelor, Master und Diplom im Einstellungsverfahren vieler Unternehmen. Hauptkriterien zur Einstellung sind Persönlichkeit und Praxiserfahrung während die Art des Abschlusses weniger relevant ist.

Mind The Gap – Meinungen und Haltungen Hamburger Arbeitgeber aus der Medienbranche zu Bachelor und Master (mit Josefine Bäßler)
Jana Paul (Hochschule für Angewandte Wissenschaften Hamburg – HAW)

Die vom vfm in Auftrag gegebene Studie „Mind the Gap“ aus dem Jahr 2012 wurde von Studierenden des Masterstudiengangs „Informationswissenschaft und –management“ der Hochschule für Angewandte Wissenschaften (HAW) Hamburg durchgeführt.
Im Rahmen des Projekts wurden die Wahrnehmung, die Akzeptanz und die Effektivität der reformierten europäischen Hochschulabschlüsse Bachelor und Master aus Sicht Hamburger Unternehmen und Organisationen aus dem Medien- und Informationssektor analysiert. Ziel des Projekts war es, die Bekanntheit und
das Ansehen der aktuellen Studienabschlüsse bei Hamburger Personal- und Arbeitsmarktexperten zu ermitteln. Dazu wurden mündliche Interviews mit 18 Personalverantwortlichen und vier Arbeitsmarktexperten durchgeführt. Wichtigste Ergebnisse sind die mangelnden Kenntnisse und die fehlende Differenzierung
zwischen den Abschlüssen Bachelor, Master und Diplom im Einstellungsverfahren vieler Unternehmen. Hauptkriterien zur Einstellung sind Persönlichkeit und Praxiserfahrung während die Art des Abschlusses weniger relevant ist.

Suchmaschinenoptimierung als Skill für Information Manager
Thomas Adler (eprofessional GmbH)
Informationsvermittlung findet zunehmend über Suchmaschinen statt. Egal wie eine Anfrage über den Suchschlitz lautet, Suchmaschinen finden fast immer Millionen von Antworten. Leider sind die Ergebnisse aber nicht nach einer objektiven Relevanz sortiert, sondern nach der Relevanz, die viele verschiedene Algorithmen für jedes Dokument berechnet haben. Wer Informationen über den Vertriebsweg der Suchmaschine bereit stellt und in der Masse der Ergebnisse gefunden werden will, muss sich deshalb mit der Funktionsweise der Suchmaschinen-Algorithmen auseinandersetzen. Es gibt hierbei auch einen soziokulturellen Aspekt: Zur Erreichung einer Top-Position bei Google und Co. ist  sogenannter Content inzwischen eines der wichtigsten Kriterien. Das führt dazu, dass immer mehr Webseiten mit ausschließlich kommerziellem Interesse in ihr Produktangebot Inhalte einbinden, die keine wertigen Informationen sind, sondern lediglich der Suchmaschinenoptimierung dienen. Umso wichtiger ist es, dass originäre und wertvolle Informationen suchmaschinenkonform aufbereitet werden, damit sie nicht vollständig von „Scheininhalten“ verdrängt werden.


Session 6: Kommunikationswege

Moderation: Michael Vielhaber (Österreichischer Rundfunk)
„Man kann nicht nicht kommunizieren“ meinte Paul Watzlawick schon 1967. Und damals, wie heute gaben  ‚wie‘ und ‚worüber‘ treffliche Anlässe zum Diskurs. 
Nun haben sich Kommunikationsformen und ihre Wege in den letzten Jahrzehnten zunehmenden verändert und beschleunigt. Und heute stehen wir an einem Punkt, an dem die Vielfältigkeit und die Variabilität von Kommunikation alle Vorstellungen sprengen.
Mögliche Wege durch diese komplexen und oftmals abstrakten Themen von Informationsaustausch und Informationsbewertung ist Ziel dieser Session. 

Bausteine im Wissensportal – Integration von Publikationen in Munzinger Online
Bernhard Ziegler (Munzinger-Archiv GmbH)
In Munzinger Online sind die eigenen Publikationen durch eine wachsende Zahl an Werken anderer Anbieter ergänzt. Ziel dabei war und ist es, dem Nutzer nicht nur eine Vielzahl von Datensammlungen anzubieten, sondern ihm einen Mehrwert durch die gemeinsame Bereitstellung zu bieten. Durch Links, Verweise und Hinweise auf ergänzende Texte in anderen Publikationen soll ein Wissensnetz geschaffen werden, das eine aufwändige Suche über Suchmaschinen im Internet vermeidet. Auf welche Weise dieser Anspruch erfüllt wird, soll in diesem Vortrag erklärt und an Beispielen gezeigt werden.

Archivische Nutzung von Social-Media-Daten
Franz-Josef Ziwes (Landesarchiv Baden-Württemberg)

Die Bewertung behördlicher Unterlagen gehört zu den zentralen Aufgaben in den Archiven öffentlich-rechtlicher Träger. Ziel der Bewertung ist die Feststellung der Archivwürdigkeit bei dem von den Behörden ausgesonderten Schriftgut. Bewertungsmodelle bzw. Dokumentationsprofile gehören schon seit Jahren zu den unverzichtbaren Hilfsmitteln, um diese arbeitsintensive Tätigkeit rationeller zu gestalten. Bei der Auswahl massenhaft anfallender personenbezogener Einzelfall-Akten sind solche Modelle allerdings nur begrenzt hilfreich, zumal wenn es um die Ermittlung von „berühmten oder berüchtigten“ Personen geht. Aus diesem Grund nutzt das Landesarchiv Baden-Württemberg die Möglichkeiten, die das Web 2.0 bietet. Der Vortrag zeigt, wie mit Hilfe von Wikipedia und Fachdatenbanken behördliche Unterlagen zu Personen des öffentlichen Interesses für die historische Forschung ermittelt werden können.

Wege durch Big Data – Beobachtung und Analyse sozialer Medien
Thomas Lubasch (Deutsche Medienbeobachtungs Agentur GmbH)

Essentiell für jede Form von gelungener Kommunikation ist genaues Zuhören – auch im Social Web. Das steigende Datenaufkommen in Social Media stellt Unternehmen und Organisationen vor eine große Herausforderung. Allein ein Netzwerk wie Facebook generiert im deutschsprachigen Raum durchschnittlich 1,9 Millionen neue Likes und Kommentare pro Minute. Um grundlegende Fragen wie „Wo hält sich meine Zielgruppe auf?“, „Was wird in den Social Media über mich diskutiert?“, „Wer bestimmt das Meinungsbild im Social Web?“ und ähnliche beantworten zu können, müssen relevante Informationen zunächst aus einer Flut an Daten gefiltert werden. Ein probates Mittel, um über eine solche Masse an Informationen die Übersicht zu bewahren, ist Social Media-Monitoring. Anhand von Beispielen aus unserer Arbeitspraxis können wir beleuchten, welche Vorteile sich aus diesem ergeben können und welche Aspekte zu beachten sind. Zudem wird die Verlässlichkeit automatisierter Monitoring-Tools diskutiert werden.

Abschlussvortrag:
Vom Memory spielen – zum Werden und Werten, Verwerfen und Verwerten von klingendem Kulturgut; ein Fallbeispiel
 
Thomas Hengartner (Universität Zürich)

Seit Dezember 2012 beschäftigt sich eine Forschergruppe aus Kultur- und Sozialwissenschaftlern der Universitäten Zürich und Basel sowie der Musikhochschule Luzern in Kooperation mit SRF und Memoriav mit einem klingenden Stück Schweizerischer Gedächtnisgeschichte: Gefördert vom Schweizerischen Nationalfonds untersucht das Projekt die Konstruktion und Vermittlung von "Swissness"mittels (Volks-)Musik. Im Zentrum steht die "Sammlung Dür" – ein zwischen 1957 und 1967 vom Musik wissen schaftler Fritz Dür im Auftrag von Schweizer Radio International (SRI) als musikalische Visitenkarte der Schweiz zusammengestelltes Konvolut von zirka 8.000 Tonbändern mit "Schweizer Volksmusik", das 1987 in die Schweizer Nationalbibliothek überführt wurde und im Zeitalter von Erinnerungsdatenbanken ins nationale AV-Gedächtnis überführt werden soll. Die Leitfrage des gesamten Projektes ist diejenige, wie und vor welchen gesellschaftlichen wie institutionellen Hintergründen sich (volks)musikalisches Schaffen mit der Insti tu tion Rundfunk zu einer wirkmächtigen Stimme zur Verbreitung von – klingender – Swissness etablieren konnte.  Der Vortrag nutzt Materialien des Projekts um darauf aufbauend der Frage nachzugehen, was es bedeutet (und macht), wenn die etwas schwurbelige Größe „Gedächtnis“ mittels kultureller und insbesondere sozialer Parameter aufgeladen wurde und wird.

 

Letzte Änderung: 17.04.2013