Beiträge

Die 3. Podcasting Welle – warum Audio der Text der mobilen Generation ist

Am Wochenende fand mit der Subscribe 9 die halbjährliche Podcasting-Konferenz mit Barcamp beim Bayerischen Rundfunk in München statt. Das Programm der zweieinhalb Tage war wieder dicht gepackt mit Vorträgen und Workshops und dank des Video Operation Center des Chaos Computer Club (@c3voc) gibt es alle Vorträge auch online zum nachsehen.

In seiner Keynote am Freitag hat Tim (@timpritlove) schön beschrieben, warum wir uns aktuell in der dritten Welle des Podcasting befinden. Die erste Welle begann 2005, als Apple Podcasts zusammen mit dem iPod (daher auch der Name PODcast) in das Zentrum der Aufmerksamkeit gestellt hat. Die zweite Welle hat Tim im Zeitraum 2008-2011 verankert. Sie ist gekennzeichnet durch die Verbreitung von Smartphones, die Verfügbarkeit von schnellem Internet auf Smartphones und die Trennung der Medien Audio und Video (Stichwort YouTube). Die dritte Welle startete dann 2016/2017. In ihr wird der Nutzen des Mediums Podcast erst so richtig erkannt, es gibt sichtbare Leuchtturm-Projekte (Serial Podcast) und ein tieferes Verständnis für das Medium Podcast entsteht. Dazu gehören nach Tim insbesondere die Faktoren Persönlichkeit, Communities, Kommentar-Kultur sowie die Tatsache, dass Podcast das am besten parallel zu nutzende Medium ist (beim Bügeln, Kochen, Spazieren, Reisen, Pendeln).

Der zweite Vortrag von Sven (@graphorama) hatte den Titel Influencer A – Anstecken am Social Web. Darin zog er die Parallele zwischen Podcaster*innen und anderen Content Creators wie z.B. YouTuber und Instagrammer. Seine provokante These: Wir sind gar keine Podcaster*innen, wir sind Audio Creators. Und als solche dürfen wir nicht nur in unserem Medium, sondern müssen auch transmedial denken. Andere Medien wie YouTube und Instagram sollten wir in die Verbreitung unserer inhaltlichen Botschaften und die Erreichung unserer Zielgruppe einbeziehen. Wie an vielen anderen Stellen der Subscribe 9 war auch ihm das Digitale Storytelling über verschiedene Medien hinweg sehr wichtig (s.a. Transmediales Erzählen).

Die Subscribe war ursprünglich der Treffpunkt einer Community von Leuten, die privat oder im Kontext kleiner Unternehmen Podcasts erstellen und veröffentlichen. Doch seit einigen Jahren kommen immer mehr Akteure aus dem öffentlich-rechtlichen Rundfunk wie beispielsweise dem Deutschlandfunk oder dem Bayerischen Rundfunk zu der Veranstaltung. Interessant fand ich den Vortrag BR Podcasts – Hinter den Kulissen, in dem Christoph und Eric mal die Geschichte des Relaunch der BR-Podcast-Webseite erzählen (geplant für Ende 2017). Eine ähnliche Überarbeitung werden in den kommenden Jahren sicherlich auch die bestehenden “Medienportale” in Unternehmen erfahren.

Neben dem öffentlich-rechtlichen Rundfunk scheinen sich auch Verlage zunehmend mit dem Medium Podcast zu beschäftigen. Bekannte Beispiele sind der Spiegel (Spiegel Online Podcasts), Zeit (Zeit Online Podcasts), die c’t (c’t Uplink), t3n (Filterblase) und der Harvard Business Review (HBR IdeaCast). Luca Caracciolo erklärt in seinem Vortrag Community, Brand, Persönlichkeit – Warum t3n Podcasts macht sehr schön, wie der Verlag Podcasts als auditive Erweiterung des Print-Magazins versteht. Schönes Zitat im Vortrag auch die Aussage des Chefredakteurs der Rheinischen Post, der Audio als Text der mobilen Generation bezeichnet.

Ich denke in den kommenden Jahren werden wir in Unternehmen ähnliche Tendenzen der Nutzung von Podcasts zur Verbreitung von Wissen sehen. Zwei wichtige Handlungsfelder sind in meinen Augen die Unternehmenskommunikation (z.B. Kampagnen, Podcasts zu erklärungsbedürftigen Strategie-Themen wie Digitalisierung) und die Weiterbildung (Flipped-Classroom-Ansätze, Mitarbeiter-schulen-Mitarbeiter, Lessons-Learned-Podcasts). Zum Einsatz von Podcasts in Lehr- und Lernprozessen empfehle ich auch den Vortrag Mehr als nur Hören – Podcasts in Schule und Unterricht von Lothar.

Auch der Ansatz, Working Out Loud nicht nur über interne Tweets in Kurzform, sondern über Podcasts in Langform zu praktizieren, ist ein vielversprechender Ansatz. Die Verbreitung von Smartphones in Unternehmen wird immer besser (siehe z.B. Smartphone-Initiative von dm) und im Gegensatz zu Video ist für die Mitarbeiter der Einarbeitungs- und Produktionsaufwand viel geringer. Ich habe beispielsweise im Siemens Learning Campus letztes Jahr mal einen eintägigen Workshop mit dem Titel “Podcast Lab” gehalten. Die Teilnehmer*innen sahen sich nach diesem einen Tag schon in die Lage versetzt, ihre eigenen Podcasts in Lernkontexten zu verwenden. Im Online-Forum Sendegate gibt es einen Beitrag zu Corporate Podcasting, wer sich für das Thema interessiert, kann sich dort gerne einklinken.

Also: Podcast Out Loud!

How to Record a Podcast in a Remote Setup

Today I recorded an episode of the Management 2.0 Podcast with Prof. Leif Edvinsson about Intellectual Capital, Knowledge Management and Future Centers. Leif was at home in Sweden and I in the library of the Cogneon Akademie in Nuremberg. He asked me to write a short tutorial on how to record a remote podcast so here we go.

First of all a list of the necessary equipment. There many alternatives to record audio like recording phone calls or skype calls (e.g. via a skype recorder). But the audio quality of telephone lines and skype conversations is poor and I suggest that only in emergency cases. My setup was based on a local USB audio interface with a high quality headset and the software package studio link for the remote connection. Here is what you will need for that setup:

  • PC or Mac with software Reaper (Digital Audio Workstation) and the Ultraschall extension (Ultraschall already comes with the needed studio link pluging build in)
  • The studio link standalone version (German page) for the remote podcaster
  • USB audio interface to connect the headset to the PC (I used a Focusrite Scarlett Solo)
  • A combination of microphone and a headphone for monitoring (I used a Beyerdynamic DT 297)
  • A good internet connection (use LAN not WIFI)

The workflow to record the podcast looks like this:

  1. Connect the headset to the audio interface
  2. Connect the audio interface to your computer
  3. Start Reaper
  4. Configure your audio interface in the settings
  5. Add a track with the input from your audio interface
  6. Add another track as „studio link track“
  7. After step 6. a browser opens with the studio links controls (Tip: put that side by side with the Reaper window)
  8. In the browser window you will the your studio link ID (it has the format of an email „XY@studio-link.de). You have to send that to your remote podcaster and he has to enter that in the studio link standalone version to call you
  9. If the remote podcaster calls you, you get a notification in the browser window. Accept the call and you can hear each other
  10. Hit the record button in Reaper, record the podcast and hit the stop button when you‘re finished. That‘s it.

If I find some time in the future, I will do a short screencast with the whole setup. If you have feedback, comments or questions just use the comment field below.

DIY Livestream Session auf dem Knowledge Camp

Auf dem Knowledge Camp in Potsdam habe ich eine Session mit dem Titel “DIY Livestream” gehalten. Ziel der Session war, den Session-Teilnehmer*innen beizubringen, den Vortrag von Prof. Eric Tsui am ersten Barcamp-Tag von 18:30-20:00 live zu streamen. In der Session jabe ich zunächstmal unsere verwendete Sendekette vorgestellt.

Den Redner Eric Tsui haben wir mit einem Lavallier-Funk-Mikrofon ausgestattet. Zusätzlich hatten wir ein Hand-Funk-Mikrofon für den Moderator/das Publikum und eine Hör-Sprech-Kombination für die Regie. Alle Audiosignale haben wir in ein Audio-Mischpult gespeist. Das Summensignal des Mischpults ging per XLR-Kabel in die Kamera.

Der Präsentationsrechner war mit HDMI-Ausgang ausgestattet. Mit einem HDMI-Splitter haben wir das Videosignal geteilt. Das eine Kabel haben wir direkt in den Beamer eingespeist. Das andere Kabel haben wir zunächst in einen HDMI-Scaler gersteckt, der uns ein 720p50 Signal erzeugt hat. Dieses Signal ging dann in einen zweikanaligen Videomischer.

Die Kamera war oben im Hörsaal auf einem Stativ mit Videokopf platziert, damit wir Eric mit der Kamera gut verfolgen konnten. Über den SDI-Anschluss der Kamera haben wir das Videobild in den Videomischer einzuspeisen und dort zwischen Eric und seinen Folien hin- und herschalten zu können. Die Kamera haben wir zusätzlich verwendet, um ein Backaup auf SD-Karte aufzuzeichnen.

Der verwendete Videomischer hatte einen USB-2.0-Ausgang, über den wir die Verbindung zu einem Windows-10-Laptop hergestellt haben. Der Videomischer ist dort als Signalquelle wie eine Webcam verfügbar. Mit einer Video-Streaming-Software haben wir über das Videosignal noch das GfWM-Logo gelegt und das Ergebnis dann zu YouTube-Live übertragen.

Als Rollen hatten wir (in Anlehnung an die CCC VOC Rollen) definiert: Kamerakind, Tontechnik, Videoregie, Stream, Streamkontrolle, Komentarmoderation und Mikrofon-Engel definiert und eingeübt. Im Bild oben seht Ihr das Dreamteam/Streamteam in Aktion. Wir haben gezeigt, dass man auch ohne oder mit wenig Vorkenntnis einen Livestream auf die Beine stellen kann, mit (nur) einer Barcamp-Session als Vorbereitung. Das Ergebnis könnt Ihr Euch auf YouTube ansehen.

Making of Seminar WM&ISO9001 Livestream

Heute habe ich im Rahmen der GfWM Mitgliederversammlung ein Seminar zum Thema Wissensmanagement und ISO 9001:2015 in der Praxis gehalten. Das Seminar habe ich live ins Internet übertragen, um die Teilnahme für einen größeren Personenkreis zu ermöglichen. Vor Ort haben 8 Personen teilgenommen, im Livestream 24. Wenige Stunden nach Seminarende hatte das Video bereits über 100 Abrufe. In diesem Blog will ich kurz das technische Setup des Livestreams beschreiben.

Als Streaming-Plattform habe ich YouTube-Live (Konto der GfWM) verwendet. Für die Übertragung eines Videostreams zu YouTube wird das Real Time Messaging Protokoll (RTMP) verwendet. Gestreamt habe ich in 720p-Auflösung (1280×720, kleines HD).

Die Folien mit dem Vortrag habe ich in der Akademie von meinem Notebook (Lenovo Carbon X1, Windows 10) präsentiert. An diesem Notebook war ein USB-Headset (Sennheiser PC 36) und eine USB-Webcam (Logitech ConferenceCam Connect) angeschlossen.

Um aus dem Bildschirm und dem Webcam-Video einen Livestream zu machen benötigt man eine sog. Encoder-Software. Hierfür habe ich die Open-Source-Software OBS Studio verwendet. In OBS kann man verschiedene Audio-/Videoquellen kombinieren. Im Fall des Seminars war das der Notebook-Bildschirm und die Webcam im Side-by-Side-Modus (im Gegensatz zu Picture-in-Picture nebeneinander, damit die Folien nicht überdeckt werden). In OBS trägt man einfach den Streaming-Key aus seinem YouTube-Kanal ein, klickt “Streaming starten” und der Stream ist live.

YouTube stellt nach Beendigung des Livestreams das aufgezeichnete Video direkt im Kanal zur Verfügung. Mit dem YouTube-Video-Editor habe ich Anfang und Ende des Videos getrimmt und das Video dann gespeichert.

Falls Ihr Fragen zum Workflow, der Software oder der Hardware habt, gerne unten in die Kommentare.

Livestreaming von Vorträgen – Ein Beispiel

Heute war ich bei einer Akademie für genossenschaftliche Organisationen, um dort im Rahmen einer zweitägigen Veranstaltung einen der Vorträge live zu streamen. Im Folgenden ein Überblick und ein kurzer Erfahrungsbericht zum Projekt.

Die wichtigste zu klärende Frage im Vorfeld ist immer die der Konnektivität vor Ort. Für einen HD-Livestream benötigt man ca. 2,5 MBit Bandbreite im Upstream. Die Netzanbindung sollte über Kabel und nicht über WLAN erfolgen. Idealerweise ist man mit dem Videostream nicht im Gastnetz der Teilnehmer, sondern in einem separaten Netz mit garantierter Bandbreite. Mit Diensten wie dem DSL Speedtest kann man sich einen Überblick über die vorhandene Bandbreite verschaffen. In Fall in Montabaur sah die Messung schonmal sehr positiv aus:

montabaur-bandbreite

Da ich mit dem Zug am Vortag für Aufbau und Test angereist bin, habe ich mich aus unserem Media Lab für ein sehr leichtgewichtiges Setup entschieden:

  • Kamera: Canon XA25 mit Speisemöglichkeit für externe Audioquellen über XLR. Zusätzlich habe ich die Zoom-Fernbedienung mitgenommen, um den Zoom am Stativgriff bequem einstellen zu können.
  • Stativ: Manfrotto 290 xtra mit Carbon-Füßen (Gewicht) und einem Manfrotto Fluid-Videokopf 509 HD für flüssige Schwenks.
  • Streaming: Matrox Monarch HD, das über ein HDMI-Kabel (Mini-HDMI auf HDMI) das Audio- und Video-Signal bekommt und über einen LAN-Anschluss an den Videostreaming-Dienst (in unserem Fall YouTube Live) überträgt.
  • Audio-Backup: für den Fall, dass man den Ton nicht aus der Mikrofonanlage der Akademie vor Ort bekommt, hatte ich eine Sennheiser EW100 G3 Funkstrecke dabei (musste sie aber glücklicherweise nicht einsetzen).
  • Kabel: 20 Meter Netzwerkkabel Cat6, 10m Verlängerungskabel Strom, Mehrfachsteckdose 4 x Strom und 2 x USB, 30 Meter Audiokabel XLR-XLR.
  • Erste-Hilfe-Koffer: ein Zipper Bag mit Adaptern, Werkzeug, Klebeband, Batterien etc.

So sah der Aufbau nach ca. 30 Minuten Aufbauzeit dann aus:

streaming-aufbau

Als kleine Checkliste für die Veranstalter (und alle, die so etwas auch mal machen wollen) hier die wichtigsten Schritte des Aufbaus:

  1. Geigneten Ort für den Kameraaufbau finden. Darauf achten, dass Redner in der Standard-Position nicht vor den Folien stehen (Kamera diagonal zum Redner). Kameraposition sollte so hoch sein, dass Publikum i.d.R. nicht im Bild ist (Stichwort: Recht am eigenen Bild). Außerdem sollte die Kamera außerhalb der Laufwege platziert sein, damit das Publikum nicht aus versehen dagegen stößt.
  2. Beamer- oder Fernsehfrequenz testen. Videokameras (in Europa) nehmen meist mit 25 Hz Frequenz (=25 Bilder pro Sekunde) auf. Manche Beamer oder Fernseher projezieren mit anderen Bildwiederholraten, z.B. 60 Hz bei Beamer. Das führt dazu, dass das aufgenommene Beamerbild flackert. Einfachste Abhilfe in dem Fall ist, den Beamer auf 50 Hz umzustellen.
  3. Beleuchtung testen und einstellen. In vielen Veranstaltungslokation gibt es keine separate Bühnenbeleuchtung, sondern nur Deckenlicht. Das führt dazu, dass projezierte Folien und Redner von der Helligkeit sehr unterschiedlich sind. Ist in der Kamera die automatische Belichtung aktiviert, führt das meist dazu, dass das helle Beamer-Bild dominiert und sich die Kamera danach ausrichtet. In der Folge erscheint der Sprecher dann zu dunkel (“absaufen”). Optimiert mann die Helligkeit auf den Redner, ist das Beamer-Bild so hell, dass kein Kontrast mehr vorhanden und die Folien nicht lesbar sind (“ausbrennen”). In meinem Fall habe ich versucht, die Belichtung über eine Spanne von 2,5 Stufen manuell nachzuführen.
  4. Tonsignal in die Kamera einspeisen. In meinem Fall hat die Kamera einen Audioeingang über XLR-Kabel. Die Techniker vor Ort konnten mir aus der Mikrofonanlage ein langes Cinch-Kabel mit dem gemischten Tonsignal (Redner-Mikro, Moderatoren-Mikro, Publikums-Mikro) bereitstellen. Mit einem Cinch-XLR-Adapter ging das dann in die Kamera. Wichtig: alle Mikrofone sollten gleich laut sein. Am besten auch die Redner und in der Moderation darauf hinweisen, dass der Abstand Mikrofon-Mund idealerweise immer gleich sein sollte.
  5. Streaming-Device anschließen und testen. Der Matrox Monarch HD verfügt nur über einen LAN Zugang. Die Techniker vor Ort konnten mir am Kamera-Ort ein LAN-Kabel zur Verfügung stellen. Für die Verbindung musste die MAC-Adresse des Matrox in der Netzwerkumgebung freigeschaltet weden (der Matrox kann nicht über Netze, die Login/Passwort benötigen, verbunden werden!). Das hat problemlos geklappt, ein Knopfdruck und der Livestream war im YouTube-Kanal der Organisation zu sehen.

Soweit mein Bericht. Falls jemand dieses kleine Rezept verwendet oder andere Ansätze hat, bin ich auf weitere Tipps und Erfahrungen per Kommentar gespannt.