Andreas Dorner

Mein Name ist Andreas Dorner und ich absolviere derzeit meinen Master an der Fachhochschule St. Pölten im Bereich Digital Media Production. Neben meinem Studium arbeite ich als freiberuflicher Programmierer mit Spezialisierung auf datenstromorientierte Programmiersprachen (Max/MSP, Pure Data). Außerdem widme ich den Großteil meiner Freizeit der Produktion elektronischer Musik und präsentiere diese seit 2015 in Form von Livesets auf diversen Veranstaltungen in Europa.

©Sebastian Meinke

Interessensgebiete

Multimedia – Programmierung, Softwareentwicklung, elektronische Musikproduktion, modulare Klangsynthese, Recording, Sounddesign

Software- & Programmierkenntnisse

Ableton Live, ProTools, Nuendo/Cubase, Max/MSP, Pure Data, Arduino, C#, JAVA, Python, Matlab, Javascript

Semesterprojekt: Bat Vision

Im Rahmen des ersten Projektsemesters der Masterklasse Audiodesign mussten alle Masterklassen-Teilnehmer ein Projekt zum Thema „Lautsprecher“ umsetzen. Ich habe mich dazu entschlossen, mit Ultraschall zu arbeiten.

Bat Vision ist ein System, welches auf der Ortung mittels Ultraschall aufbaut.

Ein mit Ultraschall-Abstandssensoren versehenes Headset soll dem Benutzer dabei helfen, sich ohne Sicht in Gebäuden oder im öffentlichen Raum fortbewegen zu können. Die Ultraschallsensoren befinden sich sowohl über den Ohren des Benutzers als auch an der Stirn. Die Sensoren senden ein Triggersignal im nicht-hörbaren Frequenzbereich aus und empfangen dieses nach einer Reflexion an einer Fläche wieder. Über die Laufzeit der Triggersignale werden somit die Abstände zu den Flächen errechnet. Die Steuerung der Sensoren, sowie die weitere Datenverarbeitung geschieht über einen Joy-It R3DIP-Mikrocontroller (Klon eines Arduino Uno). Durch die Abstandsdaten der einzelnen Sensoren werden akustische Signale gesteuert, die dem Benutzer Informationen zu Flächen in seinem nahen Umfeld geben. Diese Signale werden dem Benutzer über Kopfhörer zugespielt. Anhand der Richtung der Signale erkennt der Benutzer, ob er sich auf Flächen zubewegt.

Bat Vision könnte vor allem blinden oder sehbehinderten Menschen dabei helfen, sich besser in ihrer Umgebung orientieren zu können.

„Deep Space“ by The Freeharmonic Orchestra is licensed under CC BY-ND 2.0

Summer School: Audio Augmented Reality mit Wwise

Im Zuge der Summer School habe ich an dem Workshop „Audio Augmented Reality“ teilgenommen. Ziel des Workshops war es, innerhalb einer Woche eine interaktive AR-Installation zu produzieren. Die Installation wurde für den Domplatz in der St. Pöltner Innenstadt produziert, mit der Aufgabe, die Geschichte dieses Platzes wiederaufleben zu lassen.

Ich war in diesem Projekt für die Implementierung der Soundbanks in der Audiomiddleware Audiokinetic Wwise zuständig.

Semesterprojekt: Elemental Devices – oXYgen~

Konzept 

oXYgen~ ist ein digitales Effektmodul für den Eurorack Synthesizer Standard. Das Modul fungiert hauptsächlich als Dual Delay Effekt und Klangerzeuger. Durch den experimentellen Umgang im Bezug auf die Verschaltung verschiedener Module, wie dies in der Welt der Modularsynthesizer üblich ist, lassen sich durchaus auch andere Effekte mit dem Modul erzeugen. 

Das Modul besteht aus zwei Delaylines, welche über jeweils einen Input zugänglich sind. Diese sind nicht zwingend für den linken und rechten Kanal vorgesehen, sondern als InX und InY gekennzeichnet. Pro Delayline gibt es Regler für Feedback, Delaytime, Tone, Diffusion und Mix. Weiters verfügt das Modul über Pushbuttons, 2-fach und 3-fach Schalter, um auf weitere Funktionen des Moduls zugreifen zu können. Die 3-fach Schalter dienen beispielsweise für den Wechsel zwischen verschiedenen Modi (Delay-Modes, Delaytime-Ranges). Für die Parameter Delaytime, Feedback, Diffusion und Tone gibt es jeweils CV-Inputs (die anliegende Steuerspannung zur Kontrolle der Delaytime kann über einen Abschwächer in Form eines Potentiometers in der Amplitude reduziert werden). 

Als Alleinstellungsmerkmal für das Modul dient die vielseitige Anwendbarkeit der Delaylines. So können diese über den Schalter der mittleren Sektion des Interfaces als Dual Mono, Stereo, Ping Pong oder Mid Side eingestellt werden. Am Eurorack Markt gibt es kein MS-Delay, somit füllt sich hier auch eine Marktlücke.

Werden die Delayzeiten auf ein Minimum reduziert, kann das Modul mit dem Einsatz von hohen Feedback-Werten als Stereo-Klangerzeuger fungieren (Karplus Strong Synthese). Durch den timeCV-Eingang können von einem Sequenzer Notensignale entgegengenommen werden. Die Notensignale können durch den zugehörigen Abschwächer entsprechend skaliert werden. Weiters kann die Delaytime mit der „small“ Einstellung der seitlich liegenden 3-fach Schalter in die dafür passende Range gebracht werden. Dieser spezielle Anwendungsfall profitiert ebenfalls von den Einstellmöglichkeiten der Delaylines. Durch verschiedene Kombinationen dieser genannten Techniken regt das Modul zum Experimentieren an und kann eine Vielzahl von abstrakten Sounds erzeugen. 

Ein früherer Entwurf des Interaktionsdesign, der statt Schaltern und Buttons einen Encoder mit LED-Display enthält, findet sich auf unserer Website:

https://elemental-devices.jimdosite.com/store/oxygen~/

Diese Website wurde erstellt, um in Foren Feedback von Eurorack-Usern sammeln zu können.

Projektumsetzung 

Das Modul basiert auf dem Daisy Seed Mikrocontroller. Dieser bietet Audio Ein- und Ausgänge mit 192 kHz und 24 Bit, sowie diverse ADC´s und DAC´s für Steuerspannungen. Der Algorithmus wird in gen~ geschrieben und über oopsy (gen~ Einbindung für den Daisy) auf den Mikrocontroller geflasht. Die Parameter werden durch Encoder, Potentiometer und Buttons gesteuert. Getestet wird diese Steuerung zunächst auf dem Daisy Patch Modul, daraufhin durch einen Schaltungsaufbau auf einem Steckbrett. Anschließend wird der Daisy Seed mit der entworfenen Schaltung auf einer Platine verlötet. Die Stromversorgung bekommt das System über die Busplatine eines Eurorack Cases. 

Ein Frontpanel, welches zur Befestigung des Moduls in dem Eurorack Case dient, wird designed. Neben der Parameterbeschriftung und weiterem Interaktionsdesign (LED´s, CV-Buchsen,…) steht hierbei auch ein ausgefallenes, ansprechendes Design des Frontpanels im Vordergrund. 

Frontpaneldesign von oXYgen~

Elemental Devices – oXYchrome

Eine weitere Entwicklung von Elemental Devices, welche von meinem Studienkollegen Jonathan Wimer umgesetzt wurde, bildet der oXYchrome Controller. Über diesen Controller können über zwei XY-Touchsensor-Pads, sowie einen Multitouchfähigen Sensorring CV Signale ausgegeben werden. Weiters bieten die Touchpads einen Z-Parameter, welcher die Fläche der Finger als eigenen Wert ausgibt.

Weitere Informationen zu oXYchrome finden Sie unter folgenden Links:

https://elemental-devices.jimdosite.com/store/oxychrome/

In Verbindung mit dem oXYchrome Controller wird das oXYgen~ zum interaktiven Instrument. 

Projektpräsentation Tonmeistertagung 2021

https://www.fhstp.ac.at/de/newsroom/news/die-audiowelt-versammelt-sich-in-duesseldorf

Game-Audio „SNO“ mit Wwise

Im Rahmen der Ausschreibungen der Masterklasse habe ich in Kooperation mit Studenten der AR/VR Masterklasse eine Soundbank fürein VR-Multiplayergame erstellt.

Projekte Bachelorstudium Medientechnik

Mirage: An Interactive Experience (Interaktive Installation im Ars Electronica Museum Linz)

https://ars.electronica.art/keplersgardens/en/mirage/

https://www.fhstp.ac.at/de/studium-weiterbildung/medien-digitale-technologien/medientechnik/projekte/mirage-eine-interaktive-experience

Mirage ist eine interaktive Installation im Deep Space des Ars Electronica Linz. Bis zu 15 Spieler können gemeinsam verschiedene Rätsel lösen. Als Controller dient eine 16x9m große Projektsjonsfläche auf dem Boden, welche durch ein Lasertrackingsystem die Positionen von bis zu 15 Personen gleichzeitig tracken kann. Das Projekt entstand im Rahmen des Projektsemesters an der FH St. Pölten. In diesem Projekt war ich für die Audio Implementierung in Max/MSP zuständig.

Lehrveranstaltung IAS: Glass Piano

Ein Synthesizer, der durch eine Klaviatur auf einer Plexiglasplatte angespielt werden kann. Ein Leap Motion Device trackt dabei die Höhe und XY Positionen der Fingerspitzen. Weiters können verschiedene Parameter des Synthesizers über Handgesten verändert werden.

Semesterprojekt SeMu (Sensoric Music)

Im Rahmen des 3. Semesters an der FH St. Pölten wurde das Projekt SeMu gestaltet. Vier verschiedene, durch Sensoren gesteuerte Instrumente kommunizieren über MIDI und OSC miteinander.

Drone Box – Ein Karton, in dem mehrere Smartphones versteckt sind. Über Schnüre und ein Hebelsystem können diese Smartphones geneigt werden. Jedes Smartphone steuert über die Neigungssensoren die Lautstärke einer Note eines Drone-Synthesizers.

Leap Motion Theremin – Über einen Leap Motion Device können Pitch und weitere Syntheseparameter über die Positionen der Hände, sowie über verschiedene Handgesten gesteuert werden.

Spinning Chair – Ein Autositz, der zu einem Bürostuhl umgebaut wurde. Im Inneren des Stuhls befindet sich ein Smartphone, das Rotationsdaten über OSC an Pure Data sendet. Die Daten werden skaliert und über MIDI-CC an Ableton Live weitergeleitet. Durch das Drehen des Bürostuhls kann eine Tonleiter angespielt werden – ähnlich dem Drehen des Pitch-Reglers eines Synthsizers.

Solenoid Controlled Drums – Über eine elektronische Schaltung werden Trigger-Signale eines Arturia Beatstep Pro Controllers verstärkt. Über die verstärkten Signale werden Hubmagneten angesteuert, die zum Anschlagen einer Snare Drum und einer Ride verwendet werden.

Bachelorarbeiten

Bachelorarbeit 1

Abstract

This bachelor thesis is concerned with different sensor types and their respective
audio-related implementations. In the field of interactive audio, sensors are used
in installations, live performances and in the development of electronic musical
instruments. Sensors measure various physical or chemical properties and the
data obtained can be used to control various audio-technical software parameters.
Which sensor types are implemented, differs from the respective use case.
The suitability of the sensor types for various audio-related tasks was explored
through a literature research. The literature consisted of papers and publications
from conferences and was found using search engines specially designed for
scientific literature. Based on this literature, several developments of sensorcontrolled audio systems were presented. The use cases of the implemented
sensors, including the gestures with which they were controlled, were summarized.
Thus, the suitability of the sensors and gestures for various audio-related tasks
could be determined.
For triggering events, force sensing resistors or finger motion detected by infrared
cameras, proved to be performant. Flex sensors, ultrasonic wave sensors and
hand gestures, also recognized by infrared cameras, are suitable for the gradual
change of parameters. However, the possibilities for sensor controls in audio
technology, especially in the field of gesture recognition, will expand strongly in the
future.

Bachelorarbeit 2

Abstract

Diese Bachelorarbeit befasst sich mit der Implementierung von verschiedenen
Hallalgorithmen. Algorithmische Halleffekte finden in nahezu allen Bereichen der
Audioproduktion Verwendung. Durch den Einsatz von Halleffekten kann der Klang
von realen und artifiziellen Räumen simuliert werden. Dabei wird zwischen
verschiedenen Hallarten unterschieden.
Die Unterscheidungen in der Implementierung der Algorithmen der verschiedenen
Hallarten, sowie ihre Anwendungsfälle und Klangeigenschaften wurden anhand
einer Literaturrecherche erforscht. Durch die Ergebnisse der Literaturrecherche
wurden verschiede Algorithmen von Raumsimulationen, Plate Reverbs,
Federhallen und musikalischen Hallen präsentiert.
Im Zuge des praktischen Teils dieser Arbeit wurde der von Jon Dattorro
veröffentlichte Hallalgorithmus als Modell dargestellt und in der
datenstromorientierten Programmiersprache Max/MSP mit einigen Änderungen
implementiert. Anschließend wurde die Implementierung dieser Arbeit mit dem
Relab Development LX480 Hall-Plugin anhand der Auswertung von
Impulsantworten verglichen. Für den Vergleich wurden Presets mit den Hall- und
Ambience-Algorithmen des LX480 Plugins erstellt.
Im Vergleich des Hall-Algorithmus erwies sich die Implementierung dieser Arbeit
sowohl anhand der Auswertungen der Impulsantworten als auch anhand des
Klangs als ähnlich zu dem Plugin. Der Ambience-Algorithmus wies starke
Unterschiede in den Auswertungen der Impulsantworten und anhand des Klangs
auf.

Im Rahmen der Baachelorarbeit wurde ein Reverb Effekt (basierend auf dem Algorithmus von Jon Dattorro) implementiert

Blockschaltbild des Implementierten Hallalgorithmus

Implementierung des Feedbackloops in Max/MSP

Summierung der Output-Taps – Blockschaltbild

Summierung der Output-Taps – Max/MSP

Praktika

Praktikum bei SteinHof Musikproduktion GmbH (2020)

https://www.ingosteinbach.at/

Werbespot Wiener Wohnen 2020

Radiospot Nah und Frisch 2020

Produktion der Wochenschau Videos auf Ingo Steinbachs Youtube Channel (Playlist auf Youtube)

Link zum Youtube Channel: https://www.youtube.com/channel/UC1uprOOx06tKMj8ezUVe_fw

Tätigkeit als Freelancer bei Amadeus Acoustics

https://www.amadeusacoustics.com/

Musikprojekt: Logic Psycho

EP: Floating Mental (2020, Lunatic Alien Records) with the German Producer Duo GUNATAMA

https://lunaticalienrec.bandcamp.com/album/logic-psycho-vs-gunatama-floating-mental

Floating Mental EP Trailer

LIVE

Masters of Puppets Shorttrips 2021 (Czech Republic)

Spirit Base Festival 2020 (Czech Republic)

Amsterdam Blast Events 2020 (Netherlands)

Masters of Puppets Festival 2019 (Czech Republic)

Chernobyl Destruction Party 2019 (Zürich, Switzerland)

Psykult Festival 2018 (Porta Westfalica, Germany)

Murda Noiz 2018 (Arena Wien)

Void Club Berlin 2017

Sakog Kulturwerk 2017 (Salzburg, Austria)