Film mit Untertitel für Hörgeschädigte in Spanien. Eine Korpus-Studie
Film with SDHoH in Spain: a Corpus Study
E
inführung
Der technologische Fortschritt macht vor nichts halt. In jedem Haushalt finden sich Produkte aus der audiovisuellen Multimedia-Branche. Der letzte Jahresbericht des Sector de Contenidos Digitales en España (ONTSI 2019: 51) verweist darauf, dass der Kino- und Videobereich seine Filmproduktion in den letzten zehn Jahren um 50 % steigern konnte, wobei besonders die Produktion von Filmserien für Internetportale signifikant zunahm.
Der Konsum von audiovisuellen Unterhaltungsmedien hat sich zu einer der wichtigsten und häufigsten Freizeitaktivitäten der aktuellen Gesellschaft entwickelt, vor allem unter den jüngeren Nutzern. Gerade dadurch nimmt seine soziale Bedeutung zu, was sich auch darin zeigt, dass immer mehr audiovisuelle Produkte auf den Markt kommen, welche die Bedürfnisse von Menschen mit einer visuellen oder auditiven Behinderung berücksichtigen. Dies besagt gleichzeitig, dass unsere Gesellschaft der UN-Behindertenrechtskonvention von 2006 langsam, aber sicher Taten folgen lässt, indem alle Fernsehprogramme, Theateraufführungen und jede Art von kulturellen Veranstaltungen für Menschen mit einer Behinderung barrierefrei sein müssen.
Es lassen sich nun drei audiovisuelle Modalitäten der Barrierefreiheit unterscheiden: die Audiodeskription für Personen mit einer visuellen Behinderung sowie die Gebärdensprache und Untertitel für Personen mit einer auditiven Behinderung (Díaz-Cintas 2007: 14-15).Von diesen drei interessiert uns in diesem Artikel vor allem der Einsatz von Untertiteln, denn diese gehören zur intersemiotischen Übersetzung, wenn es darum geht, mittels einer multimodalen Übersetzung schriftlich zu kodieren, was z. B. in einem Film akustisch wahrnehmbar ist.
Wenn sich jetzt nun allgemein ein Bewusstsein dafür feststellen lässt, dass die Medienprodukte barrierefrei sein sollten, so muss man leider auch erkennen, dass sich die Sorge um die Produktqualität hinsichtlich der Barrierefreiheit nicht in anerkannten Mindestanforderungen oder Standards zeigt. Noch ist man auf der Suche nach Analysemodellen, die dabei helfen könnten, diese sozialen, kulturellen und technologischen Herausforderungen zu meistern. In den letzten Jahren wurden immer wieder Studien durchgeführt, die analysieren, wie die Dialoge und die Geräuschkulissen eines Films z. B. in den Untertiteln für auditiv Behinderte wiedergegeben und gestaltet werden. Meist handelt es sich dabei um Fallstudien ohne ein repräsentatives Korpus (Kalantzi 2008) oder die Analyse eines etikettierten Korpus einiger Serienepisoden im streaming (Allés Dopico 2018; Martínez-Martínez 2020). Zwar gibt es schon einige Korpus-Studien zu unserem Thema (Martínez-Martínez 2015; Pessoa de Nascimiento 2017; Jiménez-Hurtado & Martínez-Martínez 2018), aber dennoch liegt noch ein weiter Weg vor uns, wenn wir unseren Studien eine solide wissenschaftliche Grundlage geben wollen.
Wir verfolgen nun in diesem Artikel mehrere Ziele. Zum einen analysieren wir ein Korpus von 30 Filmen mit Untertiteln für Personen mit einer auditiven Behinderung und fragen danach, wie die drei wichtigsten Elemente des Soundtracks, nämlich Musik, Dialoge und Geräusche, in den Untertiteln wiedergegeben wurden. Uns erscheint es als besonders wichtig und aufschlussreich, wenn man Untertitel nach homogenen Standards für Personen mit auditiver Behinderung erstellen möchte, dass die Herkunft der Geräusche klassifiziert wird. Damit lässt sich erkennen, ob vorzugsweise die Geräuschquelle einfach genannt oder ob das Geräusch an sich definiert wird. In einem zweiten Schritt untersuchen wir, welche Übersetzungsstrategien und –techniken bei den Geräuschen auf Grund ihrer vorhergehenden Klassifizierung verwendet wurden. Unser drittes Ziel besteht darin, aus den zwei vorher genannten Analysen Schlussfolgerungen aus diesem Übersetzungsprozess zu ziehen, um eine homogene und standardisierte Qualitätsbeschreibung von Untertiteln für Personen mit einer auditiven Behinderung erstellen zu können.
Bevor wir die beiden genannten Analyseschritte und deren Resultate vorstellen, fassen wir kurz die Entwicklung und Geschichte der Untertitelung für Hörbehinderte in Spanien zusammen, erklären, wie unser Filmkorpus zusammengestellt wurde und wie unser Etikettierungssystem funktioniert.
2. Die Situation der Untertitelung für Gehörlose und Hörgeschädigte in Spanien
Audiovisuelle Texte für Gehörlose oder für Hörgeschädigte zugänglich zu machen, hat schon eine lange Tradition (Bravo 2011: 38; Carmona 2014: 8). Die ersten Versuche reichen in die 70er Jahre zurück, als in den USA die sogenannten Closed Captions (CC) zum Einsatz kamen (Izard 2001: 169). Dennoch setzte sich dieses System erst im Laufe der 90er Jahre in den verschiedenen Anwendungsbereichen durch. So wurden in Spanien die ersten Untertitel für Gehörlose und Hörgeschädigte (UGH) erst 1990 produziert. Nach Díaz-Cintas (2008: 162) entstand die UGH für das Fernsehen im Jahr 1979 in Großbritannien, als die BBC einen Dokumentarfilm über taube Kinder mit dem Titel Quietly in Switzerland sendete, wobei die Technologie Ceefax verwendet wurde. Seither werden Programme regelmäßig mit Untertiteln ausgestrahlt.
Im Unterschied zu Ländern wie Großbritannien und den USA, wo die UGH schon in den 70er Jahren zur Anwendung kam, ist die Geschichte der UGH in Spanien jüngeren Datums. Pereira (2005: 164) weist darauf hin, dass die ersten UGH im Jahr 1990 im katalonischen Fernsehen Televisió de Catalunya (TV3) gezeigt wurden und dabei jedoch nur Programme zeitversetzt übersetzt wurden (Díaz-Cintas 2005: 17). Ein paar Monate später begann das spanische Fernsehen Televisión Española (TVE) für ganz Spanien mit Untertiteln zu senden und in wenigen Jahren steigerte sich der Anteil von Programmstunden mit UGH. Im Laufe der 90er Jahre folgten auch die restlichen spanischen Fernsehsender (Pereira & Lorenzo 2006: 651). So begann Telecinco 1997 mit der UGH und baute von Jahr zu Jahr das Angebot an Sendungen mit UGH zu verschiedenen Uhrzeiten und über unterschiedlichste Themen aus. Das andalusische Fernsehen Canal Sur folgte ein Jahr später, das baskische Fernsehen Euskal Televista 1999; Antena 3 und Cartoon Network im Jahr 2000, Tele Madrid und Canal Nou im Jahr 2002 und Disney Chanel 2003 (Pereira & Lorenzo 2006: 651; Orero et al., 2007: 34; Díaz-Cintas 2008: 161).
Neben Teletext finden heutzutage Gehörlose und Hörgeschädigte Zugang zu Filmprodukten durch spezielle Videoausgaben und einem breiten DVD-Angebot, das seit den 90er Jahren ständig gewachsen ist sowohl mit Untertitel für Normalhörer als auch mit UGH (Díaz-Cintas 2008: 161-162; Sanz 2009: 55), wie z. B. in der seit 15 Jahren bestehenden Videoteca subtitulada para personas sordas (Videothek mit UGH), die auf eine Initiative der Gehörlosenorganisation FIAPAS (Confederación de Familias de Personas Sordas) zurückgeht. Das CESyA (Centro Español del Subtitulado y la Audiodescripción / Spanisches Zentrum für Untertitelung und Audiodeskription) richtete eine Web-Anwendung ein, die spezielles Material für Gehörlose und Blinde anbot. Auch wenn dabei das Ziel angestrebt wird, 100 % der Filme mit Untertiteln zu versehen, kommt es jedoch leider oft zu einem bedauerndswerten Qualitätsverlust.
Zweifellos stellt die Veröffentlichung der spanischen Norm UNE 153010 (2003), die im Jahr 2012 verbessert und neu herausgegeben wurde, einen Wendepunkt in der Standardisierung der UGH dar. Deren Beachtung erscheint mehr als notwendig, da es bis heute anscheinend weder eine Organisation noch eine allgemeine Richtlinie gibt, die sich für Mindeststandards in der Qualität bei der UGH aussprechen. Einige Unternehmen verwenden ihre eigenen internen Vorschriften, die manchmal überhaupt nichts mit der besagten UNE-Norm zu tun haben und die nicht konsequent angewendet werden, wobei es dann dazu kommen kann, dass eine Lesegeschwindigkeit vorausgesetzt wird, die man unmöglich einhalten kann und die darüber hinaus Rechtschreibfehler und zusammenhanglose Untertitel aufweisen (Peña 2009: 67-68; Ruíz et al., 2013: 71).
Allerdings hat die besagte Norm dazu beigetragen, z.B. Farben systematisch zur Identifizierung von Filmfiguren zu benutzen oder die Übersetzung von Geräuscheffekten auf einem bestimmten Platz des Bildschirms zu platzieren. Mit diesen Strategien lassen sich auch gewisse Aspekte der Beschreibung von akustischen Elemente eines Films vereinheitlichen und so z.B. die kognitive Anstrengung von Gehörbehinderten beim Lesen der Untertitel genauer erfassen. Dennoch stehen zu diesem Thema noch weitere Studien im Stile von Cuéllar Lázaro (2018: 61) aus, um beurteilen zu können, ob die ausgewählten Parameter der besagten Norm den gestellten Ansprüchen genügen.
3. Der Übersetzungsprozess der UGH oder wie übersetzt man den Ton?
All das zuvor Gesagte macht deutlich, dass es bei einer wissenschaftlich tiefergehenden Untersuchung darauf ankommt zu zeigen, worum es eigentlich geht, wenn unterschiedliche Ton- und Klangphänomene für Personen übersetzt werden sollen, die nicht hören können oder dabei Schwierigkeiten haben. Der Ausgangspunkt dafür ist die klare Festlegung des Studienobjektes, um dann seine epistemologischen Charakteristiken untersuchen zu können. In diesem Zusammenhang sehen wir den Ausgangstext (AT) als einen multidimensionalen und multisemiotischen Makrotext an, der auch die besagten audiovisuellen Texte umfasst.
Pedersen (2011: 12) definiert die Untertitel oder Closed Captions (CC) als eine Modalität, die drei Übersetzungstypen in Anlehnung an Jakobson (1959: 234) mit einschließt: die intralinguistische, die eine mündliche sprachliche Äußerung in eine schriftliche derselben Sprache transkribiert; die interlinguistische, die diese Übertragung in eine andere Sprache als der im Film gehörten vornimmt, und die intersemiotische, die Toneffekte verschriftlicht, wie z. B. “es klopft an der Tür”, um zu gewährleisten, dass ein Film von Gehörlosen und Hörgeschädigten verstanden werden kann. Trotz der Unterschiede, die es zwischen den Untertiteln für Normalhörende und für Gehörlose und Hörgeschädigte gibt, hat man historisch gesehen mehr die Gemeinsamkeiten betont als eben die Unterschiede. Natürlich trifft es zu, dass beide in einem audiovisuellen Medium verwendet werden, wobei sie die gesprochene Sprache in einen geschriebenen Text umwandeln und gleichzeitig denselben Einschränkungen unterworfen sind; dennoch ist es nicht zu leugnen, dass sich Unterschiede aufzeigen lassen, die gewichtiger sind, als man oft glauben möchte.
Von einem epistemologischen Standpunkt aus sind daher die allgemeine Untertitelung wie auch die UGH gemäß ihrer vorausgesetzten Wissensbereiche zu definieren. In diesem Sinn scheint es natürlich, dass diese Modalitäten zuerst mal in der Übersetzungswissenschaft angesiedelt wurden und dann dort als unterstützende Kommunikationswerkzeuge oder aufbereitete Kommunikationsmodalitäten definiert wurden (Gottlieb 2000: 15). Aber gerade heute, da nun diese besonderen Übersetzungsarten mit Entschiedenheit in die Studienpläne und Forschungslinien aufgenommen wurden und außergewöhnlich produktiv sind, ist es an der Zeit einige Kriterien aufzustellen, die es erlauben, beide Modalitäten, die allgemeine Untertitelung und die UGH, in einen bestimmten Bereich der Übersetzungswissenschaft zu integrieren und von dort aus damit zu beginnen, den jeweiligen Übersetzungsprozess mit seinen charakteristischen Eigentümlichkeiten genauer zu untersuchen und sie jeweils begrifflich als eine besondere Übersetzungsaktivität zu beschreiben.
Aber schauen wir uns erstmal die epistemologische Frage etwas genauer an, indem wir auf Holmes (1988: 69) zurückgreifen, der die Übersetzungswissenschaft als eine eigenständige Disziplin versteht. Er unterscheidet je nach Kommunikationsmedium zwischen intralinguistischen, interlinguistischen und intersemiotischen Übersetzungen. Das führt uns zu der ersten Unterscheidung zwischen Untertitelung und UGH, denn Untertitel sind im Allgemeinen das Resultat einer meist interlinguistischen Übersetzung, können aber auch das Ergebnis einer intralinguistischen Übersetzung sein, aber nicht einer intersemiotischen. Anders sieht es bei der UGH aus. Diese ist generell intralinguistisch, jedoch vor allem intersemiotisch und fast nie interlinguistisch. Das bedeutet, dass diese Kategorien uns erlauben, beide Übersetzungsarten gerade im Hinblick auf die theoretische Einordnung in die Übersetzungswissenschaft voneinander zu unterscheiden.
Bezüglich der angewandten Übersetzungswissenschaft interessieren wir uns besonders für die deskriptiven Ansätze, die vor allem den Übersetzungsprozess fokussieren, weil wir dabei erkennen können, welche Übersetzungsstrategien in Anwendung kamen, was uns wiederum erlaubt zu sehen, wo die Unterschiede und Gemeinsamkeiten zwischen den Vorgehensweisen bei der Untertitelung und der UGH liegen. Beide Übersetzungsweisen wenden die allgemeinen Übersetzungsstrategien in unterschliedlichen Graden und Formen an, wobei im jeweiligen Übersetzungsprozess die Kenntisse und Analysen des AT sehr voneinander abweichen können.
Abschließend lässt sich auf Grund der deskriptiven Ansätze in der Übersetzungswissenschaft sagen, dass die Funktion, die der übersetzte Text in der Zielsprache und –kultur übernehmen soll, von fundamentaler Bedeutung ist (vgl. Siever 2010: 281 ff.). Gerade dieser Gesichtspunkt macht einen wichtigen Unterschied zwischen diesen zwei Modalitäten aus. Obwohl beide die Funktion haben, Wissen zugänglich zu machen, handelt es sich bei der Untertitelung um Nutzer, die eine bestimmte Fremdsprache nicht beherrschen, während es bei der UGH darum geht, einen Zugang zu einem Wissen für eine bestimmte Personengruppe zu ermöglichen, die sich dadurch charakterisieren lässt, dass sie eine Hörbehinderung hat. Dieser Umstand kann zur Folge haben, dass diese Gruppe in kulturellen Angelegenheiten aus der kulturell dominierenden Gemeinschaft ausgegrenzt wird, da ihr Zugang zu kulturellen Erfahrungen z.B. in Filmen nicht so umfassend ist. Das Ziel, diese soziale und kulturelle Ausgrenzung zu vermeiden, ist ein Umstand, der gerade die UGH im Gegensatz zur Untertitelung grundlegend kennzeichnet.
4. Erstellung eines Filmkorpus
Der Ton stellt für die UGH die grundlegende Komponente des AT dar. Konkret bedeutet das, es handelt sich um die Tonspur oder den Soundtrack eines Filmprodukts, wobei das Augenmerk besonders auf dessen Charakteristiken und Funktionen gerichtet ist. Diese Tonspur lässt sich in ihre einzelnen Strukturelemente unterteilen und man kann dabei z. B. zwischen den im Film dargebotenen Dialogen und den sogenannten Soundeffekten und Hintergrundgeräuschen, aber auch der Filmmusik unterscheiden (Beck 2004). Es kommt also darauf an, den Film als einen Gesamttext zu verstehen, der sich in einzelne Teile fragmentieren lässt, die wir als Etiketteinheiten auffassen können und die mehr oder weniger die unterschiedlichen Kommunikationsweisen reflektieren, die insgesamt das auditive Bedeutungssystem des Filmtextes ausmachen (Chion 1993, 1998, 2004; Sonnenschein 2001; Martínez-Martínez 2015; Chica 2016). Letztendlich geht es darum, die gewonnenen Daten der Tonspur methodologisch so darzustellen, dass sie untereinander vergleichbar sind. Dies erlaubt es dann, multimodale Variablen und Äquivalente herauszuarbeiten, die uns die Frage beantworten können, welche akustischen Elemente durch welche sprachlichen Strukturen intersemiotisch übersetzt wurden. Unsere Aufgabe besteht demnach darin, eine Methode zu erarbeiten, die den Übersetzungsprozess erklärt, wie das akustisch Hörbare eines Films durch geschriebene Sprache für Hörgeschädigte sichtbar und verstehbar gemacht werden kann (Tsaouisi 2015: 247). In der Sprache der Übersetzungswissenschaft können wir sagen, der AT ist das multimodale Filmprodukt mit seinem gesamten verbalen und non-verbalen oder auditiv-semiotischen Kommunikationssytem; bei dem Zieltext handelt es sich dann um die UGH, wobei uns besonders die angewandten Übersetzungsstrategien und -techniken interessieren (Martínez-Martínez 2015: 248).
Relevanz, Representativität und Homogenität stehen bei der Materialauswahl für jede Art von Korpus im Vordergrund und sind heutzutage eine Selbstverständlichkeit bei empirischen Untersuchungen gerade in den Geisteswissenschaften, besonders in der Linguistik, wo es kaum noch zulässig ist, Forschungsergebnisse ohne ein sie unterstützendes Korpus vorzustellen (Valentini 2006; Heiss & Soffritti 2008). Gerade bei Filmen, so glaubten wir, sollte die Materialauswahl eigentlich kein Problem sein. Da unser Vorhaben jedoch Texte untersucht, die multimodal und aus linguistischer Sicht sehr unterschiedlichen Texttypen angehören, erwies sich gerade dies als besonders schwierig, da es bekannterweise sehr viele Filmgenres gibt, jedoch nicht sehr viele Filme mit UGH, die gewissen Qualitätsansprüchen genügen (s. u.) bzw. die von Unternehmen erstellt wurden, die explizit den Richtlinien der Norm UNE 153010 (2003 und 2012) folgen.
Unsere erste Aufgabe bestand folglich darin, eine nahezu lückenlose Liste der Filme auf dem spanischen Markt zu erarbeiten, die durch eine UGH zugänglich sind. Dabei ist darauf hinzuweisen, dass alle diese Filme nach der Veröffentlichung der Norm UNE 153010 für Gehörgeschädigte untertitelt wurden. Der erste Film war Laberinto de pasiones (Almodóvar 1982), der im Jahr 2004 untertitelt wurde, und der letzte Los amantes pasajeros (Almodóvar 2013). Bei unserer Untersuchung haben wir eine diachrone Betrachtungsweise des Kopus nicht berücksichtigt, was sicherlich für zukünftige Studien von Interesse sein dürfte.
Das Ergebnis dieser Liste war sehr ernüchternd, denn es gibt wider Erwarten recht wenige Filme mit UGH. Daher umfasst unser Gesamtkorpus 30 Filme aus den unterschiedlichsten Filmgattungen und Stilrichtungen. Es bleibt nur noch darauf hinzuweisen, dass alle diese audiovisuellen Fimprodukte mit Untertiteln für Hörbehinderte auf dem Markt angeboten werden.
5. Untersuchungsmethode
Nach der Erstellung des Korpus gingen wir dazu über, die einzelnen Audiospuren zu extrahieren. Dabei werden die Audio- und Videodaten auf einen digitalen Träger gesondert kopiert, wozu das Programm Camtasia Studio benutzt wurde, da es erlaubt, in einfacher Weise ein Video zu erstellen und unterschiedlich zu formatieren. Nach der Einspeisung der Videos in die Datenbank wurden die einzelnen Texte der Untertitel extrahiert. Anfangs verwendeten wir dazu das spezielle Programm SubRip, jedoch verfügen nicht alle DVDs über das für eine automatische Extraktion notwendige VOB-Dokument, so dass wir meistens die Filme selbst transkribieren mussten.
Nun ging es aber auch darum, sich darüber im Klaren zu sein, wie wir dieses Material bearbeiten sollten, d. h., wie man dieses Korpus etikettieren könnte und ob sich dieser Vorgang mechanisieren ließe. Hierzu wurden unterschiedliche Computerprogramme ausprobiert, die ein nützliches Werkzeug zu sein schienen. Letztlich entschieden wir uns für MAXQDA, eine Software, die eine qualitative Analyse erlaubt, da sie sehr flexibel und benutzerfreundlich ist, denn sie verfügt über verschiedene Möglichkeiten Daten unterschiedlicher Texte systematisch zu analysieren, zu vergleichen, zu bewerten und zu interpretieren.
Nach Erstellung eines repräsentativen Korpus mit bestimmten Qualitätsansprüchen und der Wahl eines Computerprogramms, das erlaubt, Zeit zu sparen und in übersichtlicher Weise Ergebnisse darzustellen, musste ein Etikettierungssystem erarbeitet werden, das gleichzeitig folgende grundsätzliche Fragen beantworten sollte: Welche semiotischen Elemente des AT wurden mit welchen intersemiotischen Übersetzungstechniken wie übersetzt? In diesem Zusammenhang interessierte uns vor allem, wie die akustischen Elemente des multimodalen AT durch semantische Etikettierungen wiedergegeben wurden.
Demnach kommt es vor allem darauf an, im Originalfilm die unterschiedlichen akustischen verbalen wie auch non-verbalen Elemente, die der Übersetzer für die multimodale Bedeutung des Films als relevant einstufte, zu bestimmen, zu analysieren und zu klassifizieren und sie dann auf die verwendeten Techniken der intra- und interlinguistischen und / oder intersemiotischen Übersetzung hin bei der Untertitelung zu untersuchen.
Wie wir bereits wissen, setzt sich das Etikettierungsystem der UGH aus zwei Subsystemen zusammen, welche die Vorgehensweise bei der Übersetzung des Tons in Wörter des Zieltextes beschreiben (Martínez-Martínez 2015: 117). Für die erste Ebene mussten die semiotischen Elemente des AT bestimmt, isoliert und analysiert werden. In einem zweiten Schritt wurden dann die semiotischen Darstellungsmittel des AT in den drei von Bordwell & Thompson (2010) unterschiedenen Makrostrukturen (Dialoge, Musik und Geräusch- und Hintergrundeffekte) auf ihre Kommunikationsfunktionen hin untersucht, wobei es sich als sehr schwierig herausstellte zu entscheiden, welche Darstellungsmittel die kommunikativ gesehen relevantesten sind und warum.
Als nächstes werden dann in einem zweiten Schritt die Übersetzungstechniken untersucht.
5.1. Die Etikettierung der Tonspur
Alles, was in einem Film zu hören ist, lässt sich durch ein akustisches Etikettierungssystem in einer Ontologie darstellen, die sich auf Filmstudien (Flückiger 2001: 199 ff.; Chion 2008: 40; Bordwell & Thompson 2010: 307) und linguistische Filmuntersuchungen (Poyatos 1994 I: 28-29, II: 143) stützt. Der Ton, allgemein auch Audiospur oder Soundtrack genannt, spielt demnach in jedem Film eine herausragende Rolle, weil durch ihn beim Zuschauer bestimmte Reaktionen hervorgerufen werden können (Cuadrado 2013: 29). Zahlreiche Untersuchungen aus der Wahrnehmungspsychologie und Akusmatik haben gezeigt, dass der Ton ein Mittel zur Manipulation von Affekten und Bedeutungen ist und den Zuschauer unmittelbar beeinflusst. Da der Ton sich auf eine Tonquelle zurückverfolgen lässt und daher über eine räumliche Dimension verfügt, übt der Hörprozess eine nicht zu unterschätzende Wirkung darauf aus, wie wir den Ton verstehen bzw. interpretieren, d. h., ob wir z. B. Freude oder Angst empfinden (Bordwell & Thompson 2010: 307). Infolgedessen kann man den Filmton in Bezug auf seinen Inhalt nach zwei Gesichtspunkten in unserem Etikettierungssytem klassifizieren: einmal von der Filmnarratologie aus nach der narrativen Ebene und von einer mehr physischen Ontologie aus nach der physischen Ebene.
Auf der narrativen Ebene wird im Allgemeinen zwischen einer diegetischen und extradiegetischen Tonverwendung unterschieden. Unter diegetischem Ton versteht man einen Filmton, der von Gegenständen und Personen der erzählten Filmwelt erzeugt wird und somit unmittelbar zur Filmhandlung gehört, d. h., die Personen im Film hören diesen Ton. Die Stimmen von Personen oder die Töne, die irgendwelche Gegenstände der Filmhandlung erzeugen, z. B. ein vorbeifahrendes Auto, zählen zu den diegetischen Tönen. Im Gegenzug versteht man unter nicht– oder extradiegetischen Tönen solche, die nicht zur erzählten Filmwelt gehören bzw. nicht von dieser erzeugt werden. Chion (2008: 22) definiert den extradiegetischen Ton als einen Ton, dessen Ursprungsort auf der Leinwand nicht zu sehen ist oder in der Filmhandlung nicht implizit auszumachen ist. Als nicht-diegetisch können auch Kommentare des Erzählers, zusätzliche Geräuscheffekte zur Dramatisierung der Handlung oder auch die Hintergrundmusik in einem Film verstanden werden.
Auf der sogenannten physischen Ebene untersucht man den Ton als akustisches Phänomen ohne Rücksicht auf den Produktionsprozess eines multimodalen Filmtextes. Wiederum lassen sich bei der Analyse der UGH zwei Kategorien unterscheiden: der natürlich produzierte und der künstlich produzierte Ton.
Schaubild 1. Die physische Ebene der Tonspur
5.1.1. Der natürliche Ton
Unter natürlichen Tönen sind Stimmen und Geräusche zu verstehen, die von natürlich vorkommenden Phänomenen erzeugt werden, z. B. von Lebewesen oder Naturerscheinungen wie Donner oder Regen. Die menschlichen Geräusche können dann noch weiter differenziert werden und man unterscheidet dann zwischen Körpergeräuschen, Sprache, unterschiedlicher Sprachverwendung bzw. Dialekten und Parasprache.
Schaubild 2. Unterteilung menschlicher Geräusche.
Die erste Unterteilung in Körpergeräusche umfasst alle Geräusche, die durch den menschlichen Körper erzeugt werden wie z. B. Applaus oder menschliche Schritte auf verschiedenen Untergrundmaterialien (Poyatos 1994 II: 185 f.). Sprache bezieht sich z. B. auf die vorkommenden Dialoge, die Erzählung und / oder den Liedtext und die unterschiedliche Sprachverwendung bzw. Dialekt kategorisiert den Sprachgebrauch nach Dialekt, Fremdsprache oder Akzent. Bei der Subkategorie Parasprache handelt es sich nach Poyatos (1994 I: 28 f.) um eine kommunikative nicht-verbal-vokale Aktivität, die sich auf sprachbegleitende, an Laute gebundene Erscheinungen bezieht. Damit lassen sich dann z. B. Tonhöhe, Lautstärke, Redepausen etc. beschreiben, die charakteristisch für die Sprachverwendung sein können.
Bei der Etikettierung der menschlichen Stimme müssen wir folglich ihre Merkmale in Augenschein nehmen und die Stimme nach Klang, Intensität oder Lautstärke, Sprechgeschwindigkeit, Intonation und Rhythmus beschreiben. Hier werden dann auch andere Faktoren wichtig, die einen bestimmten Einfluss auf die menschliche Stimme haben, wie z. B. Geschlecht und Alter oder physiologische, psychologische, soziokulturelle und berufliche Faktoren (Poyatos 1994 I: 28 ff.). Saldaña Rosique (2002: 22) weist darauf hin, dass all diese Eigenschaften der Stimme gesellschaftlich als positiv oder negativ aufgefasst werden können. So kann z. B. ein Flüstern als Zeichen von Intimität interpretiert werden, was jedoch unter gewissen Umständen als lästig und unhöflich empfunden wird. Indirekt können diese Faktoren auch dazu dienen, Stimmungen wie z. B. Traurigkeit oder Zuneigung auszudrücken, indem wir dabei langsamer sprechen, als wenn wir Ärger oder Freude zeigen.
Während die bisher genannten Faktoren sich konkret auf die Kennzeichnung der menschlichen Stimme beziehen, gibt es jedoch noch andere Merkmale, die einfach nur nonverbale Laute sind, die aber auch eine kommunikative Funktion haben können: die Sprachäußerung begleitende Laute. Darunter sind nonverbale Mitteilungen zu verstehen, wie z. B. Seufzen, Räuspern, Ein- und Ausatmen, Schnarchen, Schlucken, mit der Zunge schnalzen etc., die jeweils einen Kommentar zu etwas Gesagtem oder einem Geschehen darstellen können.
5.1.2. Der künstliche Ton
In direktem Gegensatz zum natürlichen Ton definieren Bordwell & Thompson (2010: 120) den künstlichen Ton als ein akustisches Phänomen, das von einem Gegenstand, den der Mensch hergestellt hat, erzeugt wird. Darunter sind dann die Geräusche z. B. eines vorbeifahrenden Autos, eines Telefons, eines Radios, eines Musikinstruments etc. zu verstehen, wobei die Frage zweitrangig ist, ob man im Film sehen kann, wo dieses Geräusch herkommt, z. B. wenn Glocken läuten. Dies bedeutet, dass der künstliche Ton bei der Untertitelung durch die Gegenstände (z. B. Motor, Waschmaschine oder Straßenbahn), die ihn verursachen, veranschaulicht und so ein besseres Verständnis der Filmhandlung gewährleistet wird.
Eine besondere und daher eigenständige Kategorie nimmt in der Rubrik künstlicher Ton die Untergruppe Musik ein. Von Anfang an waren Musik und Lieder untrennbare Begleiter der audiovisuellen Produkte, da sie erlauben eine Stimmung zu erzeugen, die Freude, Heiterkeit, Leid oder auch Traurigkeit widerspiegeln. Dies bedeutet daher auch, es lässt sich eine funktionale Verbindung zwischen Bild und Musik herstellen. Chion (2008: 82) weist darauf hin, dass es zwei Arten von Filmmusik gibt. Zum einen gibt es Musik, die das Bild untermalt und nichts mit der Filmhandlung zu tun hat. Diese Musikart wird als Off-Musik oder nicht-diegetische Musik bezeichnet. Ist im Gegensatz dazu die Musik Teil der Filmwirklichkeit, d. h., die Figuren im Film können die Musik hören, so spricht man von On-Musik oder diegetischer Musik.
5.2. Die Etikettierung der Übersetzungstechniken
Die Klassifizierung der Übersetzungstechniken bei der UGH stützt sich auf Studienergebnisse, die vor allem von Martí Ferriol (2013: 73-123), Díaz-Cintas & Remael (2007: 68-101), Neves (2005: 240) und Martínez-Martínez (2015: 137-144) erbracht wurden. Unser Ziel ist es dabei, die verwendeten Techniken bei der Übersetzung der in der Phase 1 aufgefundenen Elemente zu identifizieren und klassifizieren, indem drei Untergliederungen vorgenommen werden, die den unterschiedlichen Vorgehensweisen bei der Untertitelung entsprechen: die interlinguistische, die intersemiotische und die intralinguistische Übersetzung (Jakobson 1959; Pedersen 2011: 12).
Obwohl die interlinguistische Übersetzung bei der UGH nicht so oft vorkommt, wurde sie dennoch in unser Etikettierungssystem aufgenommen, um ihre Bedeutung in der Statistik zu ermitteln.
Bei der UGH bezieht sich die intersemiotische Übersetzung ausschließlich auf die Übersetzung von nicht sprachlichen Tönen des Originaltextes in Untertiteln. Die Übersetzung von Tönen in Wörter ist als die eigentliche Übersetzung bei der UGH anzusehen, denn sie macht den audiovisuellen Filmtext für Hörgeschädigte zugänglich.
In der Kategorie der intersemiotischen Übersetzung lassen sich sieben Übersetzungstechniken feststellen, die sich wiederum in drei Gruppen unterteilen lassen:
(a) Auslassung und Transkription
Martí Ferriol (2013: 120) definiert Auslassung als die Übersetzungstechnik, bei der ein auditives Element des AT im Zieltext nicht vorkommt, weil es für die weitere Filmhandlung ohne gröβere Bedeutung ist. Bei der Transkription handelt es sich um bestimmte Arten von Interjektionen und lautmalerischen Äußerungen, die sich einfach transkribieren lassen, wie sie z. B. in Comics (grrr, brrr etc.) vorkommen.
(b) Kategorisierung, Attributisierung und Erklärung
Bei der Durchsicht unseres Filmkorpus mit UGH konnten wir feststellen, dass die Übersetzungsstrategien bei der Tonspur gewissen Regeln folgen, die Verbindungen und Rückschlüsse auf unsere Klassifizierung zulassen. Unser Klassifizierungssystem setzt voraus, dass das menschliche Wissen auf der Fähigkeit beruht, Gegenstände und Ereignisse kognitiv zu erfassen und zu kategorisieren, indem wir unsere Erfahrungswelt – Dinge, Handlungen und / oder Prozesse – konzeptualisieren, diese Konzepte durch sprachliche Zeichen darstellen und somit klassifizieren, was uns gleichzeitig erlaubt, miteinander zu kommunizieren (Martínez-Martínez 2015: 236). Diese kognitiven Abläufe lassen sich auch bei den Übersetzungsprozessen feststellen, in unserem Fall bei der intersemiotischen Übersetzung des Soundtracks in geschriebene Sprache, indem wir Gegenstände und Ereignisse klassifizieren und somit Wissen zusammenfassend darstellen. Im Grunde genommen ist die Kategorisierung die wichtigste intersemiotische Übersetzungstechnik der Untertitelung, denn sie besteht darin, ein Geräusch oder einen Ton einer Begriffskategorie (z. B. Tiergeräusche) zuzuordnen, den Verursacher (Vogel, Löwe etc.) und / oder die Handlung, die es / er beschreibt (brüllt, schreit, weint etc.) zu benennen, das Resultat der Handlung (Lachen, Weinen, Musik) anzuzeigen oder zu erklären, wodurch das Geräusch verursacht wird (Tür, Klavier, Auto etc.).
Die Attributisierung ist die nähere Beschreibung eines Tons und setzt eine zuvorige Kategorisierung voraus, die explizit (melodische Musik) oder implizit ([spricht] nervös / ironisch / fröhlich) sein kann. Dahingegen handelt es sich bei der Erklärung um eine genauere Angabe über die Entstehung, Dauer oder das Ende eines Tons (Musik beginnt, weiterhin Musik, Musik endet); dies bedeutet, in einer Erklärung wird ein Ton im Zusammenhang mit anderen Geräuschen und Tönen hervorgehoben und näher erläutert.
(c) Symbole / Icons und Typographie
Symbolen / Icons stehen für Zeichen, die in der schriftlichen Kommunikation für Gefühle, Emotionen und Stimmungen stehen können und sich daher sehr für die entsprechenden Tonübersetzungen eignen. Bei der Typographie lassen sich unterschiedliche Arten wie Groß- und Kleinschreibung, Farbe, Gedankenstrich, Lokalisierung etc. unterscheiden, die dazu dienen, Normabweichungen zu kennzeichnen.
Als letzte Modalität in der UGH bleibt nun noch die intralinguistische Übersetzung, die in drei Arten zu unterteilen ist: wörtliche Übersetzung (z. B. von Dialekt in die Standardsprache), lexikalische und / oder syntaktische Vereinfachung und Reduktion (Kondensation und Elimination). Die beiden letzten Techniken kommen vor allem bei der UGH deshalb vor, weil sich so innerhalb des vorgegebenen Zeit- und Raumschemas die Untertitel besser anpassen lassen und bei der UGH im Allgemeinen die Erfahrung gemacht wurde, dass die Untertitel in einfach gehaltener Sprache den Hörgeschädigten eher erlauben, das Filmgeschehen besser zu verstehen.
Durch die Aufteilung des Filmdiskurses in solche kleinere Analyseeinheiten (im Originaltext vorkommende Geräusch- und Tontypen) und der Beschreibung der einzelnen Übersetzungstechniken, die dabei zur Anwendung kommen, wird ein System von Etikettierungen erstellt, das Aufschluss darüber gibt, welche Aspekte dieser Art von intersemiotischer Übersetzung Schwierigkeiten bei der UGH bereiten können.
6. Erste Forschungsergebnisse
6.1. Analysebeispiel: der Film Gegen die Wand und seine Etikettierung
Die Analyse des Filmmaterials nach der vorgestellten Arbeitsmethode ermöglicht erst einmal eine vorläufige Beschreibung der gängigen Praktiken in der UGH. Die Ergebnisse beruhen vor allem auf zwei grundlegenden Aspekten des Übersetzungsprozesses: (a) der Auswahl der Tonelemente des Originalfilms, die für Hörgeschädigte als die intendierten Rezeptoren relevant sind, um den Film verstehen zu können, und (b) den dafür verwendeten Übersetzungstechniken, um die ausgewählten akustischen Elemente in Worten wiederzugeben.
Nachdem durch die Filmanalyse die entsprechenden Daten zur Tonübersetzung ermittelt wurden, konnte in einem weiteren Schritt eine Statistik zu ihrer Häufigkeit erstellt werden. Als Beispiele dienen hier die Analyseergebnisse beim Film Gegen die Wand (Akin 2004). Dieser Film wurde deshalb ausgewählt, weil seine UGH den Richtlinien der UNE 153010 folgt, wie sie das bekannte Unternehmen Aristia bei seinen UGH benutzt. Darüberhinaus verfügt dieser Film über eine reichhaltige Tonspur, die gerade in den drei Analysebereichen (Dialog, Musik und Toneffekte) besonders interessant erscheint. Im folgenden Schaubild sind die Etiketten und ihr prozentuales Aufkommen zu sehen.
Schaubild 3. Die verwendeten Etiketten zur Unterscheidung des Soundtracks im Film Gegen die Wand (Akin 2004)
Aus dem Schaubild 3 zur Unterscheidung des Soundtracks bzw. der Tonspur geht hervor, dass die meistbenutzten Etiketten zur physischen Ebene der Sprache (41,67 %) und zur narrativen Ebene des diegetischen Tons (43,33 %) gehören. Dies ist insofern nicht sehr überraschend, als Dialoge die häufigste Komponente der Tonspur in einem Film ausmachen. Jedoch ist es schon auffallend, dass die restlichen Tonkomponenten aus dem physischen und narrativen Bereich nur zwischen den Werten von 0,04 % und 1,45 % schwanken. Jedoch ist es überraschend, dass ein Film, der kein Musical ist, beim Etikett Musik auf 6,32 % kommt. Dies dürfte dem Umstand geschuldet sein, dass bei der UGH dieses Films Wert darauf gelegt wurde, jede Information zur Musik weiterzugeben, um so ein besseres und vollständigeres Verstehen zu ermöglichen. Ähnlich verhält es sich bei den Lauten, die eine Sprachäußerung begleiten, wenn auf die Form abgehoben werden soll, wie Dialogpartner sprechen, z. B. stottern, lispeln etc., was in diesem Film einen Prozentsatz von 1,45 % erreicht. Anscheinend handelt es sich hierbei um Daten, die bei unserer vorläufigen Untersuchung noch ohne größeres Gewicht sind und vielleicht in zukünftigen Studien näher in Augenschein genommen werden sollten.
Die Kategorien Naturgeräusche, Tiergeräusche, Körpergeräusche, Sprachverwendung / Dialekt, menschliche Stimme und Sprachäuβerung begleitende Laute kommen in der Statistik überhaupt nicht vor, offensichtlich weil der Film sich vor allem in Innenräumen abspielt und daher solche Stimmen und Geräusche nicht zu hören sind. Dies erklärt auch, warum die Kategorie Gegenstand kaum vorkommt, was darauf hindeutet, dass die Dialoge im Vordergrund stehen und andere Geräusche verdrängen.
Im nachstehenden Diagramm sind die Übersetzungstechniken zu sehen, die bei der Untertitelung des Films Gegen die Wand zur Anwendung kamen.
Schaubild 4. Die für die Übersetzungstechniken verwendeten Etiketten (Gegen die Wand, Akin 2004)
Die Verteilung der Werte für die einzelnen Gruppen ist äußerst uneinheitlich. Da die Hauptfiguren des Films türkischstämmig sind, aber in Deutschland leben und kaum türkisch sprechen, kommt die interlinguistische Übersetzung mit 0,07 % kaum vor, wohingegen die wörtliche Übersetzung 85,56 % ausmacht. Daran ist zu erkennen, dass der Film ins Spanische synchronisiert wurde und in der Filmhandlung daher fast keine interlinguistische Übersetzung benötigt wird.
In der Statistik folgen Kategorisierung (6,63 %), Erklärung (1,69 %), Lokalisierung (1,55 %), Kondensation (1,33 %), Groß- /Kleinschreibung (1,11 %), Attributisierung (0,44 %), syntaktische Vereinfachung (0,52 %), und lexikalische Vereinfachung (0,07 %).
Innerhalb der intersemiotischen Übersetzung erscheinen die Techniken der Kategorisierung, Attributisierung und Erklärung als die wichtigsten und interessantesten. Wie festzustellen ist, handelt es sich bei dieser Verteilung nahezu um ein klassisches Phänomen, das sich im Gesamtkorpus zuerst zeigt und dann auch bei der Analyse nach Unternehmen und Filmgenre auftaucht.
6.2. Datenerhebung im Gesamtkorpus
Nach dem Beispiel der Datenerhebung im Film Gegen die Wand gehen wir nun zur Erfassung des gesamten Korpus von 30 analysierten Filmen über. Wiederum stellen wir alle vorkommenden Etiketten zusammen und berechnen ihren prozentualen Anteil.
6.2.1. Analyse der auditiven Inhalte
Aus dem Schaubild 5 geht klar hervor, dass der akustische Inhalt des Filmtextes, der am häufigsten in den UGH übertragen wird, der sogenannte diegetische Ton (55,4 %) und die in den Filmdialogen verwendete Sprache (34,70 %) ist. Bei den übrigen nicht-sprachlichen Kategorien können wir festhalten, dass sie jeweils nicht einmal an 1,32 % heranreichen. Der extradiegetische Ton, also Geräusche und Töne, die nicht zu den Dialogen gehören, belegt mit 2,62 % den dritten Platz, die menschliche Stimme erreicht 1,32 %, die sprachbegleitenden Laute sind mit 0,90 % vertreten, Musik mit 1,12 %, die Kategorie Gegenstand erlangt 0,70 %, Sprachverwendung / Dialekt kommt auf 0,74 %, Körpergeräusche schlägt mit 1 % zu Buche, Tiergeräusche erreichen 0,58 % und Naturgeräusche belaufen sich auf 0,90 %. Dies bedeutet, im Allgemeinen wiederholt sich das Analyseergebnis, das wir bei dem Film Gegen die Wand kennengelernt haben, nämlich alle Etiketten werden aktiviert, auch wenn sie nur selten vorkommen.
Schaubild 5. Vorkommen der Etikettierungen auf der Tonspur
Wenn wir einmal von den ersten zwei Etiketten absehen, die am meisten verwendet werden, so sind die am häufigsten auftauchenden Etikettierungen die Stimme und ihre sie begleitenden Laute, was im Grunde genommen nicht sehr verwunderlich ist, denn die auditiven Elemente beziehen sich auf die Interpretationsmöglichkeiten der menschlichen Stimme an sich zusammen mit den sie begleitenden Lautunterschieden, ein Umstand, der bei der UGH von größter Bedeutung ist, denn dadurch wird das Filmverständnis des Hörbehinderten an das Filmverständnis des Nicht-Hörbehinderten annähernd angeglichen.
Interessanterweise folgen nun die Etikettierungen Gegenstand und Musik, was deutlich macht, dass die Musik ein elementaler Teil der Filmerzählung ist und die Kategorie Gegenstand alle anderen überragt. Offensichtlich ist dies darauf zurückzuführen, dass bei der UGH die Tonquelle übersetzt bzw. kategorisiert wird.
6.2.2. Analyse der verwendeten Übersetzungstechniken
Auf dem folgenden Schaubild 6 sind die einzelnen Übersetzungstechniken mit ihrem prozentualen Aufkommen zu sehen. Dabei fällt vor allem auf, dass die drei verschiedenen Übersetzungsmodalitäten, also die intralinguistische, intersemiotische und interlinguistische, in abfallender Reihenfolge erscheinen. Die Gründe dafür sind folgende.
In Spanien wird wie in Deutschland der Synchronisierung der Filme der Vorzug gegeben, was zur Folge hat, dass der UGH die synchronisierte Fassung zugrunde liegt und somit ein intralinguistischer Übersetzungsprozess vollzogen wird. Dies zeigt sich in der Zusammenstellung unseres Filmkorpus für die UGH bei 14 auf Spanisch synchronisierten Filmen, und bei 16 Filmen, deren Originalversion auf Spanisch gedreht wurde. Diese Tatsache erklärt, warum im Allgemeinen die intralinguistische Übersetzung bei der UGH den Vorrang hat, wobei in Erfüllung der Norm UNE 153010 (2012) die Übersetzungstechnik der wörtlichen Übersetzung mit 75 % an erster Stelle steht. In nur 25 % der Fälle werden andere Übersetzungstechniken bei der intralinguistischen, intersemiotischen und interlinguistischen Übersetzungsmodalität benutzt. Es überrascht bei der UGH, dass die intersemiotische Übersetzung nur mit 17,17 % vertreten ist und die damit verbundenen Techniken der lexikalischen Vereinfachung, syntaktischen Vereinfachung, der Kondensation und Elimination jeweils gerade mal auf knapp 1,1 % kommen. Man hätte denken können, dass diese Techniken bei der UGH viel öfters zum Einsatz kämen, denn so manche Spezialisten der multimedialen Übersetzung und der UGH (Gottlieb 1992: 164; Lomheim 1995: 291; Díaz-Cintas & Remael 2007: 79-80; Martí-Ferriol 2013: 118-123) haben die herausragende Bedeutung dieser vier Techniken hervorgehoben, zumal diese es ermöglichen, den vorgegebenen Rahmen für Standzeit und den vorgesehenen Platz der Untertitelung optimal auszuschöpfen. Jedoch zeigt sich in der Praxis, wie unsere Korpusstudie belegt, dass dies nicht der professionellen Wirklichkeit entspricht. Mit anderen Worten, in der UGH gibt es eine Tendenz hin zur wörtlichen Übersetzung und andere Adaptationstechniken verlieren an Bedeutung.
Schaubild 6. Vorkommen der Etikettierungen bei den Übersetzungstechniken
Dass die intersemiotische Übersetzungsmodalität den zweiten Platz in unserer Statistik belegt, lässt sich auch dadurch erklären, dass die entsprechenden Techniken die Informationen bündeln. Die am meisten benutzte Technik ist die Kategorisierung (5 %), die eine akustische Information einer konzeptuellen Kategorie aus der Natur (Wind, Regen, Donner), der Tierwelt (Hund, Möwe, Elefant) oder des Menschen (lachen, weinen, brüllen) zuordnet und dadurch dem Benutzer der UGH einen Zugang zu dieser Wirklichkeit ermöglicht. Die nächste Übersetzungstechnik ist die Erklärung (2 %) der Tonquelle (Spielt Klavier, Türklopfen, vorbeifahrendes Auto), der Tondauer (Musikende, weiter Musik, Musik fängt an) oder der Tonqualität (Off-Stimme). Die Attributisierung (2,17 %) beschreibt bekanntlicherweise die Tonqualität etwas näher und kann sich auf deren Ursachen (melodisch), Zustand (zufrieden) oder deren Art (Popmusik, Klassische Musik) beziehen. Eigentlich bezieht sich die Attributisierung immer auf eine vorhergehende Kategorisierung.
Es bleiben nun noch die Übersetzungstechniken der Lokalisierung (1,20 %), Groß- / Kleinschreibung (1,10 %) und Kursiv (1,10 %). Auch wenn diese drei Techniken der orthotypographischen Norm der Real Académia Española UNE 153010 (2012: 17), deren Kriterien die UGH folgen sollte, nicht entsprechen, ist ihr Prozentsatz so gering, dass wir sie vernachlässigen können.
Die Auslassung, die sich auf solche Fälle bezieht, wo bestimmte akustische, aber non-verbale Informationen des Filmtextes, die für das bessere Verständnis der Filmhandlung von Bedeutung sein können, aber nicht in der Untertitelung vorkommen, erscheint in unserer Statistik mit 0,20 % als nahezu bedeutungslos. Ähnlich ist es bei den übrigen Techniken der interlinguistischen Übersetzung der Transkribierung, Symbole und Icons, Klammer, Bindestrich, Farbe, lexikalischen Vereinfachung, syntaktischen Vereinfachung, Kondensation und Elimination, die zusammen weniger als 9 % ausmachen.
Zusammenfassend lässt sich nun zu den untersuchten Etikettierungen sagen, dass die diegetischen, also die zum Filmton gehörenden akustischen Elemente, die sprachlichen und die wörtliche Übersetzung am meisten vorkommen, gefolgt von der Kategorisierung und den restlichen Etiketten. Als das wichtigste Ergebnis unserer Untersuchung können wir festhalten, dass die Kategorisierung die kennzeichnende Übersetzungstechnik der UGH darstellt, die der Tendenz entspricht, den Benutzer der UGH in Bezug auf einen Gegenstand in der Erzählwelt zu situieren. Offensichtlich entspricht diese Tatsache dem Anliegen, einen bedeutungstragenden Rahmen für die Filmhandlung zu schaffen, der es dem Hörbehinderten ermöglicht, die dargestellten Zustände und Handlungsabläufe besser zu verstehen.
Diese ersten Resultate aus der Untersuchung unseres Filmkorpus erlauben des Weiteren Überlegungen darüber anzustellen, was genau und wie untertitelt wird. Wir sind uns dessen bewusst, dass unsere Untersuchung nur eine vorläufige Studie und noch nicht allzu aussagekräftig ist und folglich noch weitere Analysen erfordert.
7. Fazit
Durch unsere Korpusstudie wurde der Nachweis erbracht, dass sich die Untertitelung als ein grundsätzliches Instrument für die Gemeinschaft der Hörgeschädigten und Gehörlosen beim Zugang zum allgemeinen Wissen etabliert hat. Jedoch ist darauf hinzuweisen, dass es zwar eine Norm UNE 153010 (2012) zur UGH gibt, die auf allgemein akzeptierten Richtlinien beruht, aber es dennoch auffällt, wie unterschiedlich die Übersetzungstechniken dabei gehandhabt werden.
Die UGH erfordert eine spezielle Übersetzungsart, nämlich eine multidimensionale und multisemiotische Übersetzung, deren wissenschaftliche Grundlagen und Methoden jedoch noch nicht ausreichend untersucht und diskutiert sind. Noch immer fehlt es an allgemein akzeptierten Grundbegriffen, um angeben zu können, was den AT dieser Übersetzungsmodalität ausmacht. In diesem Artikel wurden ein paar kleine Schritte in diese Richtung unternommen, indem wir davon ausgehen, dass die Tonspur eines multimodalen Textes die Funktion des AT bei der UGH übernehmen kann, wobei die Bilder des Films dazu dienen, den Kontext für eine semantische und pragmatische Disambiguierung zu bieten. Dies bedeutet gleichzeitig, dass der audiovisuelle Text bzw. Film nicht das eigentliche Studienobjekt darstellt, sondern dass der AT aus allen akustischen Elementen des Films besteht.
Mit unserer Analyse der UGH in Spanien konnten wir aktuelle Praktiken bei der UGH beschreiben, wobei sich besonders zwei Aspekte in dieser Modalität hervorheben lassen: Zum einen gibt es überraschenderweise kaum korpusbasierte Studien zur Untertitelung in der audiovisuellen Übersetzung bzw. in der UGH, die ein eigenes Beschreibungssystem für diese Überseztungsmodalität haben; als Ausnahme wären zu erwähnen Cuéllar Lázaro (2020) und Pessoa do Nascimiento (2017).
Dies bedeutet, dass unsere Ergebnisse nur vorläufig sein können und wir noch nicht in der Lage sind, mit Sicherheit zu sagen, was und wie bei der Untertitelung übersetzt wird.
Zum anderen gilt es, wenn wir die UGH als eine besondere Art der intersemiotischen Übersetzung verstehen wollen, deren charakteristische Eigenschaften zu definieren, um eine epistemologische Grundlegung der UGH vornehmen zu können. Auch wenn die UGH mit der allgemeinen Untertitelung verschiedene Parameter gemein hat, lassen sich dennoch jetzt schon drei spezifische Unterschiede ausmachen:
Auch wenn unsere Untersuchung nur ein bescheidener Anfang in der wissenschaftlichen Dartellung der Prozesse, die der UGH zugrunde liegen, repräsentiert, so ist es wichtig das Ziel nicht aus den Augen zu verlieren: Personen mit einer auditiven Behinderung die Filmrezeption weitgehendst zu ermöglichen. Wir sind uns daher bewusst, dass unser Vorschlag einer neuen Methode zur Erfassung der Untertitelung als intersemiotische Übersetzungsmodalität im Hinblick auf die Tonspur eines Films nur einen Anfang für weiterführende Studien sein kann. Grundlegend ist daher festzustellen und zu betonen, dass die Tonspur eines Films den AT für einen Übersetzungsprozess darstellt, bei dem akustische Filmelemente sprachlich als Zieltext dargestellt werden. Um diese Forschungslinie zu festigen, wäre noch ein größeres Filmkorpus nötig, das auch noch andere Sprachen und Filmgenres umfasst. Dies würde uns erlauben zu untersuchen, ob es bestimmte Übersetzungsmethoden für die einzelnen Tontypen bei der Untertitelung gibt und ob diese von Sprache zu Sprache variieren.
Dieser Beitrag wurde innerhalb des Forschungsprojekts “Acceso universal a museos andaluces a través de la traducción (AL-MUSACTRA)” Code: B-TIC-352-UGR18 erstellt, das von der Junta de Andalucía finanziert wird.
Silvia Martínez Martínez
Linus Jung
Wissenschaftliche Artikel/Artículos Científicos
Zusammenfassung:
Dieser Artikel untersucht, wie Filme in Spanien für Hörgeschädigte untertitelt werden. Bei einem Korpus von 30 Filmen beruht unsere Untersuchungsmethode auf einem System semantischer Etikettierung, das zwei unterschiedliche Aspekte herauszuarbeiten versucht (Martínez-Martínez 2015). Vor allem geht es um die Frage, welche akustischen Elemente in der intersemiotischen Übersetzungspraxis als Wörter wiedergegeben werden und welche Übersetzungstechniken dabei zum Einsatz kommen. Dabei fällt auf, dass die akustischen Elemente nicht nur unterschiedlich intersemiotisch übersetzt werden, sondern es auch keine direkte Verbindung zwischen akustischem Element und angewandter Übersetzungstechnik gibt. Beide Phänomene dürften auf einem fehlenden Konsens beruhen. Offensichtlich wäre eine offene Debatte zwischen Translationswissenschaftlern und professionellen Übersetzern erforderlich, die epistemologische, theoretische und methodologische Fragestellungen diskutiert, um letztendlich den komplexen Übersetzungsprozess zwischen zwei semiotisch differenzierten, mit eigenen grammatikalischen und funktionalen Strukturen versehenen Kommunikationsmedien genauer zu erfassen und beschreiben zu können.
Schlagwörter: Korpus, Etikettierung, akustische Elemente, Übersetzungstechniken, Untertitelung für Hörgeschädigte.
Abstract:
This article examines how films are subtitled for hearing impaired people in Spain. With a corpus of 30 films, our research method is based on a system of semantic tagging that aims to highlight two different aspects (Martínez-Martínez 2015): the acoustic elements that are reproduced as words in this intersemiotic translation practice and the translation techniques that are used. It is noticeable that the acoustic elements are not only translated differently intersemiotically, but that there is also no direct connection between the acoustic element and the applied translation technique. Both phenomena are probably based on a lack of consensus. Obviously, an open debate between translation scholars and professional translators would be necessary, where epistemological, theoretical and methodological issues could be discussed in order to precisely describe and understand the complex translation process between two semiotically differentiated communication media, each with its own grammatical and functional structures.
Keywords: Corpus, tagging, acoustic elements, translation techniques, SDHoH.
Bibliographie:
Allés Dopico, S. F. (2018). El subtitulado para sordos: análisis de la estrategia de simplificación. [Bachelorarbeit, Universität Granada].
AENOR (2003). Norm UNE 153010. Subtitulado para personas sordas y personas con discapacidad auditiva. Subtitulado a través del teletexto. https://www.une.org/encuentra-tu-norma/busca-tu-norma/norma/?c=N0029761
AENOR (2012). Norm UNE 153010. Subtitulado para personas sordas y personas con discapacidad auditiva. https://www.une.org/encuentra-tu-norma/busca-tu-norma/norma/?c=N0049426
Beck, J., Uhle, B., Fahlenbrach, K. & Föllmer, G. (2004). Einführung in den Filmsound. http://server4.medienkomm.uni-halle.de/filmsound/index.htm
Bordwell, D. & Thompson, K. (2010). El arte cinematográfico: una introducción. Paidós.
Bravo Gozalo, J. M. (2011). Las nuevas tendencias de la traducción cinematográfica. In E. Di Giovanni (Hrsg.), Diálogos intertextuales 5: Between text and receiver: Translation and accessibility. Entre texto y receptor: traducción y accesibilidad (S. 21-56). Peter Lang.
Carmona, B. (2014). Análisis de la traducción del humor en el doblaje de la serie “Futurama”. [Masterarbeit, Universität Sevilla].
Chica Núñez, A. J. (2016). La traducción de la imagen dinámica en textos multimodales. Ediciones Tragacanto.
Chion, M. (1993). La audiovisión. Introducción a un análisis conjunto de la imagen y el sonido. Paidós.
Chion, M. (1998). El sonido. Paidós.
Chion, M. (2004). La voz en el cine. Cátedra.
Chion, M. (2008). La audiovisión: introducción a un análisis conjunto de la imagen y el sonido. Paidós.
Cuadrado Méndez, F. J. (2013). Los procesos de auricularización en el cine. Revista Comunicación, 11(1), 24-39.
Cuéllar Lázaro, C. (2018). Traducción accesible: avances de la “Norma española UNE 153010:2012”. Revista Ibero-Americana Pragensia, XLVI(1), 51–65. http://dx.doi.org/10.14712/24647063.2018.22
Cuéllar Lázaro, C. (2020). Untertitel für Gehörlose vs. subtitulado para sordos: el reto de hacer visible lo inaudible. MonTI. Monografías de Traducción e Interpretación, 12, 144-179. https://doi.org/10.6035/MonTI.2020.12.05
Díaz Cintas, J. (2005). Nuevos retos y desarrollos en el mundo de la subtitulación. Puentes, 6, 13-20.
Díaz Cintas, J. (2007). Traducción audiovisual y accesibilidad. In C. Jiménez Hurtado (Hrsg.), Traducción y accesibilidad. Subtitulación para sordos y audiodescripción para ciegos: nuevas modalidades de Traducción Audiovisual (S. 9-23). Peter Lang.
Díaz Cintas, J. (2008). La accesibilidad a los medios de comunicación audiovisual a través del subtitulado y la audiodescripción. In Actas del IV Congreso “El Español, lengua de traducción”: El español, lengua de traducción para la cooperación y el diálogo (S. 157-180). https://cvc.cervantes.es/lengua/esletra/pdf/04/020_diaz.pdf
Díaz Cintas, J. & Remael, A. (2007). Audiovisual Translation: Subtitling. St. Jerome Publishing. https://doi.org/10.4324/9781315759678.
Flückiger, B. (2001). Sound Design. Die virtuelle Klangwelt des Films. Schüren.
Gottlieb, H. (2000). Screen Translation: Six studies in subtitling, dubbing and voice-over. Center of Translation Studies of Copenhaguen.
Heiss, C. & Soffritti, M. (2008). Forlixt 1 - The Forlí Corpus of Screen Translation: Exploring microstructures. In D. Chiaro, C. Heiss & C. Bucaria (Hrsg.), Between text and image. Updating research in Screen Translation (S. 38-51). John Benjamins. https://doi.org/10.1075/btl.78.07hei.
Holmes, J. S. (1988). The name and nature of Translation Studies. In J. S. Holmes (Hrsg.), Translated Papers on Literary Translation and Translation Studies (S. 67-80). Rodopi.
Izard, N. (2001). La subtitulación para sordos del teletexto en Televisión Española. In L. Lorenzo & A. Pereira (Hrsg.), Traducción subordinada inglés-español / galego II: el subtitulado (S. 169-194). Servicio de Publicacións de la Universidade de Vigo.
Jakobson, R. (1959). On linguistic aspects of translation. In R. A. Brower (Hrsg.), On Translation (S. 232-239). Harvard University Press. https://doi.org/10.4159/harvard.9780674731615.c18.
Jiménez Hurtado, C. & Martínez Martínez, S. (2018). Concept selection and translation strategy: Subtitling for the deaf and hard-of-hearing based on corpus analysis. Linguistica Antverpiensia, New Series: Themes in Translation Studies, 14, 114-139.
Kalantzi, D. (2008). Subtitling for the deaf and hard of hearing: A corpus-based methodology for the analysis of subtitles with a focus on segmentation and deletion. [Doktorarbeit, Universität Manchester].
Lomheim, S. (1995). L’écriture sur l’écran: strategies de sous-titrage à NRK: une étude de cas. FIT Newsletter-Nouvelles de la FIT, 14(3-4), 288-293.
Martí Ferriol, J. L (2013). El método de traducción. Doblaje y subtitulación frente a frente. Trama.
Martínez Martínez, S. (2015). El subtitulado para sordos: estudio de corpus sobre tipología de estrategias de traducción. [Doktorarbeit, Universität Granada].
Martínez Martínez, S. (2020). Análisis de corpus en alemán, español e inglés: estrategias de traducción en SpS. In T. Barceló Martínez, I. Delgado Pugés & F. García Luque (Hrsg.), Tendencias actuales en Traducción Especializada, Traducción Audiovisual y Accesibilidad (S. 371-394). Tirant Humanidades.
Neves, J. (2005). Audiovisual Translation: Subtitling for the deaf and hard-of-hearing. [Doktorarbeit, University of Surrey-Roehampton].
ONTSI (2019). Informe del Sector de los Contenidos Digitales en España. https://tinyurl.com/yyy5xxtk
Orero, P., Pereira A. & Utray F. (2007). Visión histórica de la Accesibilidad en los medios en España. TRANS, 11, 31-43. https://doi.org/10.24310/TRANS.2007.v0i11.3096
Pedersen, J. (2011). Subtitling norms for television. An exploration focussing on extralinguistic cultural references. John Benjamins. https://doi.org/10.1075/btl.98.
Peña Roldán, M. L. (2009). El consejo nacional de la discapacidad. La oficina permanente especializada: consultas y quejas en materia de televisión y ocio. In Accesibilidad a los contenidos audiovisuales para personas con discapacidad Amadis ‚09 (S. 67-74). Real Patronato sobre Discapacidad. https://www.cesya.es/sites/default/files/documentos/amadis09.pdf
Pereira Rodríguez, A. (2005). El subtitulado para sordos: estado de la cuestión en España. Quaderns, 12, 161-172.
Pereira Rodríguez, A. & Lorenzo García, L. (2006). La investigación y formación en accesibilidad dentro del ámbito de la traducción audiovisual. In C. Gonzalo & P. Hernúñez (Hrsg.), Corcillum. Estudios de traducción, lingüística y filología dedicados a Valentín García Yebra (S. 649-568). Arco/Libros.
Pessoa do Nascimiento, A. K. (2017). Translating sounds into words in subtitles for the deaf and hard of hearing: A corpus based approach. Trabalhos em Linguística Aplicada, 56(2), 561-587. https://doi.org/10.1590/010318138649221274641
Poyatos F. (1994, I, II.). La comunicación no verbal. Istmo.
Ruiz, B., Quintana, I., García Crespo, Á., de Castro, M., Souto, M., González, I., López, J. L., Heredia, J. & Sánchez, J. M. (2013). Guía de accesibilidad al teatro a través del subtitulado y la audiodescripción. Real Patronato sobre Discapacidad.
Saldaña Rosique, A. (2002). Signos no verbales españoles y alemanes: estudio comparativo. [Masterarbeit, Universität Alcalá de Henares].
Sanz Escudero, M. L. (2009). Accesibilidad de las personas con discapacidad auditiva al cine. In Accesibilidad a los contenidos audiovisuales para personas con discapacidad Amadis ‚09 (S. 53-58). Real Patronato sobre Discapacidad. https://www.cesya.es/sites/default/files/documentos/amadis09.pdf
Siever, H. (2010). Übersetzen und Interpretation: die Herausbildung der Übersetzungswissenschaft als eigenständige wissenschaftliche Disziplin im deutschen Sprachraum von 1960 bis 2000. Peter Lang. https://doi.org/10.1515/tran-2016-0012
Sonnenschein, D. (2001). Sound Design. The expressive power of music, voice and sound effects in cinema. Michael Wiese Productions.
Tsaouisi, A. (2015). Making sound accessible. The labelling of sound-effects in subtitling for the deaf and hard-of-hearing. Hermeneus, 17, 233-252.
UN-Behindertenrechtskonvention (2006). Übereinkommen über Rechte von Menschen mit Behinderung. New York, 13.12.2006. https://www.behindertenbeauftragte.de/SharedDocs/Publikationen/UN_Konvention_deutsch.pdf?__blob=publicationFile&v=2
Valentini, C. (2006). A multimedia database for the training of audiovisual translators. Jostrans, 6, 68-84.
Filmografie
Amor (Hanecke, 2012)
Balada triste de trompeta (de la Iglesia, 2010)
Bienvenidos al norte (Boon, 2006)
Bon Appéttit (Pinillos, 2010)
Cerezos en flor (Dörrie, 2008)
Combustión (Calparsoro, 2013)
Contra la pared (Akin, 2004)
Cuatro minutos (Kraus, 2006)
Dos días en París (Delpy, 2007)
El árbol (Bertucelli, 2010)
El cuerpo (Paulo, 2012)
Grupo 7 (Rodríguez, 2012)
Habitación en Roma (Medem, 2010)
La piel que habito (Almodóvar, 2011)
Las aventuras de Tadeo Jones (Gato, 2012)
Las nieves del Kilimanjaro (Guédiguian, 2011)
Lope (Waddington, 2010)
Los abrazos rotos (Almodóvar, 2009)
Los amantes pasajeros (Almodóvar, 2013)
Mar adentro (Amenábar, 2004)
María y yo (Fernández, 2010)
No controles (Calleja, 2010)
No habrá paz para los malvados (Urbizu, 2011)
Pan y rosas (Loach, 2000)
Saraband (Bergman, 2003)
Scoop (Allen, 2006)
Tengo ganas de ti (González, 2012)
The good heart (Kári, 2009)