ATMM2013 PROCEEDINGS

Transkript

ATMM2013 PROCEEDINGS
ATMM 2013
PROCEEDINGS
Audio Technologies for Music and Media
International Conference
Bilkent University
Faculty of Art, Design and Architecture
Department of Communication and Design
Bilkent, 06800 Ankara, Turkey
Phone: +90-312-290-1749
www.atmm-conference.org
ATMM 2013 PROCEEDINGS
CONTENTS
Introduction
THE FUNCTIONS OF SOUND AND MUSIC IN TARKOVSKY'S FILMS
KYMA PROGRAMMING ENVIRONMENT FOR SOUND
BAND ANT: MUSIC MADE BY AN ANT COLONY
VOCODING TECHNIQUE IN AUDIO APPLICATIONS
ALIASING IN AUDIO AND SOLUTION APPROACHES
A GENERATIVE SYNTHESIS DRUM MACHINE MODEL IN MAX MSP
A SYSTEM FOR MATCHING THE TUNING IN A RECORDING
PAPERS IN TURKISH
MüzİK TEKNOLOjİSİ EğITİMİNDE TüRKİYE’DEKİ
DEVLET üNİVERSİTELERİNDE UYGULANAN MODELLER üzERİNE BİR İNCELEME
MİKROTONAL PERDELERİN MIDI İLE SESLENDİRİLMESİ: BİR MAX/MSP ÇALIŞMASI
REKLAM İLETİŞİMİNDE KULLANILAN MüzİK TASARIMININ HEDEF KİTLE
üzERİNDEKİ ROLü
zAMAN KODLU SENKRON SORUNLARININ KöKENİ
“THE ROOT OF THE TIME-CODE SYNC. PROBLEMS”
TüRKİYE'DE KLASİK VE ÇAğDAŞ MüzİK PRODüKSİYONLARINDA
SES MüHENDİSİ İLE SANATÇI ARASINDAKİ İLETİŞİM
TINI ARAŞTIRMALARINDA SİSTEMATİK VE YENİLİKÇİ BİR YAKLAŞIM İHTİYACI
VİDEO OYUN SEKTöRüNDE KULLANILAN SES TASARIMI TEKNİKLERİ,
SANAL MüzİSYENLİK KAVRAMI VE DEğİŞEN MüzİSYENLİK PRATİKLERİ:
ROCKSMITH OYUNU öRNEğİ
KONTROL ODASI MODELLERİNDE TASARIM YAKLAŞIMLARI
ATMM 2013 PROCEEDINGS
INTRODUCTION
Audio Technologies for Music and Media is an international interdisciplinary
conference that focuses on the various aspects of audio, audiovisual and
music technologies for music and media, and, also, on the relationship
between sound, music and image in both ‘traditional’ and ‘new’ media.
ATMM welcomes not only academics, professionals and students, but
also all those who have interest in music, sound and media technologies.
After the success of ATMM 2012, the first international conference
in Turkey in the fields of audio, music and media, ATMM returned to Bilkent
University on 31 October – 1 November 2013.
Hosted by Department of Communication and Design, ATMM 2013
featured a tightly-packed program with 27 presentations, two workshops,
a panel, a performance and an exhibition of student works. The number of
registered participants was 400, a huge leap compared to last year.
7
AUDIO TECHNOLOGIES FOR MUSIC AND MEDIA 2013
INTERNATIONAL CONFERENCE
(Bilkent University)
(Independent Researcher)
(Interelektro)
(Bilkent University)
(KV331 Audio)
(Voispectra)
(Bilkent University)
(Bahçeşehir University)
(Bilkent University)
(Özdem Music)
(Independent Researcher)
(9 Eylül University)
(İnönü University)
(Müziktek)
(Bilkent University)
(İnönü University)
(Plato College of Higher Education)
(9 Eylül University)
(Bilkent University)
(Bilkent University)
(Bilkent University)
(Bilkent University)
(Bilkent University)
ATMM 2013 PROCEEDINGS
9
(Rector, Bilkent University)
(Bilkent University)
(Independent Researcher)
(ITU MIAM)
(Bahçeşehir University)
(Cyprus International University)
(Cloud 18 Productions)
(Bahçeşehir University)
(METU Informatics Institute),
(Voispectra)
(Independent Researcher)
(Cumhuriyet University)
(İnönü University)
(ITU TMDK & MIAM)
(ITU MIAM)
(Cumhuriyet University)
(İnönü University)
(Marmara University)
(Dokuz Eylül University)
(Dokuz Eylül University)
(Dokuz Eylül University)
(Sakarya University State
Conservatory)
Moderator:
(Berklee Valencia)
(İnönü University)
(METU Informatics Institute)
(SAE Institute NYC and Mercy
College)
(UCLA Extension)
(Bilkent University)
(ITU MIAM)
(ITU MIAM)
(NOMAD)
(NOMAD)
(NOMAD)
(1000names)
(1000names)
(Medea Electronique)
(Medea Electronique)
ATMM 2013 PROCEEDINGS
11
(Medea Electronique)
(Medea Electronique)
(Medea Electronique)
(Medea Electronique)
(Medea Electronique)
(Medea Electronique)
(Medea Electronique)
(Medea Electronique)
(Medea Electronique)
(Medea Electronique)
(Medea Electronique)
(Medea Electronique)
(Bilkent University)
(Bilkent University)
(Bilkent University)
(Bilkent University)
(Bilkent University)
(Bilkent University)
THE FUNCTIONS OF SOUND AND MUSIC IN TARKOVSKY'S FILMS
Abstract
The use of sound and music has caused several debates in filmmaking. While one group
of film directors assert that the use of sound and music (especially music) increase the
effects of cinema, other group of directors propound that its use decreases the strength of
cinematographic image and pulls it away from reality. Distinctions in views become
especially visible when the use of music is in question. Minimalist film directors, including
Robert Bresson and Ingmar Bergman, opposed the excessive use of music and saw and
used it as the minimal element of their film language.
This point of view is shared by the Russian filmmaker Andre Tarkovsky, who has a
special status in the auteur film tradition. His thoughts about the minimalist use of music
and sound in cinema can be found in his seminal work Sculpting in Time which contains
his sincere ideas about life, art, culture and politics. His films, within this perspective,
confirm his views in this direction. At this point it must be stressed that while his thoughts
seem to contravene the excessive use of music, the soundtracks in his films become the
constitutive parts of the filmic narration within this minimalist usage. Typical examples
are his Solaris (1972) and Stalker (1979).
This study examines the rationality behind the usage of sound and music in
Tarkovsky's films. It focuses on the primary sound effects (especially in his science fiction
films) and the soundtracks of his films. In this context, especially his Solaris (1972), Mirror
(1975), Stalker (1979), and Nostalghia (1983) will be analysed and compared.
Introduction
"Every element in a narrative has a function for narrative" (89) writes French critic Roland
Barthes. We encounter the constitutive elements of sound and music in narrative, in film
experience. This experience consists of different elements among which sound and music
play an important role. What are the components of a film soundtrack? "Spoken dialogue,
noise, and music –used singularly or in combination- are the components of a film
soundtrack" (Winter 152).
Sound is another important element in cinema that constitutes cinematographic
image. Cinematographic image cannot be effective without soundtrack completely.1 Even
"films cannot be understood without consideration of the relations between sound and
image" (Johnson 24). Although it is thought that the sound is inferior to the image, the
interaction between them is actually inseparable. "The basis of a film is a continuous
interaction between sound and image" (Johnson 25).
ATMM 2013 PROCEEDINGS
13
When we look closely to the history of film we might see that the soundtrack came
to the fore in the late 1920s. Therefore, it can be said that cinema was born in the silent
era. For this reason, the first considerations and theories on cinema focused on the
relations between cinematographic image and reality. In other words image in these views
is superior to other elements. With the 1920s, with the introduction of soundtrack in film
production, sound became to be understood as being as important as the image. At this
point, the experience in the first film theatres played an important role. In the silent era,
lone pianists in the film theatres were responsible for the emotional index of the films.
They accompanied the film projections with their simultaneous appropriate musical pieces
that reflected rhythm and tension of the films. These pieces increase the filmgoers'
attention and repressed the intensity of noise that the film projectors made. As might be
expected, these musical pieces were mechanical and accidental when compared to current
film soundtrack experiences. "A functional concept of film emerged in this imperative"
(Winter 146).
However the more interesting side of this imperative was the understanding of
effects of soundtrack on film narratives. Who could predict that the solution developing
for repressing the noise of projection machine made an enormous effect on the
development of film language! This meant that the film language gained a new dimension:
The elimination of the boundaries between image and real life. At this point one of the
basic discussions that interests both professional filmmakers and scholars in cinema
begins. While one group of film directors and writers asserted that the use of sound and
music (especially music) increase the effects of cinema, other groups of directors and
writers propounded that the uses decreases the strength of cinematographic image and
pulls it away from reality.
Distinctions in views become especially visible when the use of music is in question.
Minimalist film directors, including Robert Bresson and Ingmar Bergman, opposed the
excessive use of music and saw and used it as a minimal element of their film language.
What really matters for these film directors are filmic narration and the belief that it should
not be degraded by other elements. Sounds are selected meticulously in this direction; it
is seen that they are selected in through a process of elimination. The section of reality
that is related to a narrative is recorded in the soundtrack. Other sounds that are
unnecessary are carefully and particularly excluded. Similarly, music is used in the same
direction by these directors; it is minimized and used as a constitutive part in the film
narration. It, as in the other cinematographic components, cannot be upward on narrative.
These types of films, although they seem easy at first, leave behind a strong feeling of
resemblance, resemblance of reality in their minimalist styles. Bresson's A Man Escaped
(1956), Balthazar (1966) and Mouchette (1967), for example, affect us with their
eliminated sounds and develop this feeling of resemblance. Similarly, Bergman's
eclecticism in Winter Light (1962), and the classical music pieces and cello sound between
the parts in Shame (1968) and Funny and Alexander (1983) take part as the formative
elements in the narratives.
This point of view was shared by the Russian filmmaker Andre Tarkovsky who has
a special status in the auteur film tradition. His thoughts about the minimalist use of music
and sound in cinema can be found in his seminal work Sculpting in Time which contains
his profound ideas about life, art, culture and politics. His films confirm his views in this
direction. At this point it must be stressed that while his thoughts seem to contravene the
excessive use of music, the soundtracks in his films become the constitutive parts of the
filmic narration within this minimalist usage. . Typical examples, within this perspective,
are his Solaris (1972) and Stalker (1979). However, before going to the analyses of these
films, it would be useful to discuss Tarkovsky's main views on the use of sound and music
to develop further thoughts about the roles of these elements in his film aesthetics.
Tarkosvky's Main Views on the Use of Sound and Music in Cinema
Although image is superior to the other factors in his films2, Tarkovsky states that there
must be a natural use of sound and music as there is in reality (158-159). What is stressed
here is that the film image must be composed with the soundtrack after elimination of
unnecessary sounds, rather than recording all sounds in the frames as it is in reality. The
director, moving under the necessity of selection of particular sounds and music, composes
his/her image within a balance. Tarkovsky gives Bergman's Winter Light as an example
within this perspective:
He singles out one sound and excludes all the incidental circumstances of the sound
world that would exist in real life. In Winter Light he has the noise of the water in
the stream where the suicide's body has been found on the bank. Throughout the
entire sequence, all in long and medium shots, nothing can be heard but the
uninterrupted sound of the water—no footsteps, no rustle of clothes, none of the
words exchanged by the people on the bank. That is the way sound is made
expressive in this sequence, that is how he uses it. (162)
This situation should also be applicable for music. Tarkovsky, who writes "the sounds of
this world are so beautiful in themselves that if only we could learn to listen to them
properly" (162), stresses that the world, life, and is musical in its essence:
Music in cinema is for me a natural part of our resonant world, a part of human life.
Nevertheless, it is quite possible that in a sound film that is realised with complete
theoretical consistency, there will be no place for music: it will be replaced by
sounds in which cinema constantly discovers new levels of meaning. (159)
After these considerations on sound and music, he explains that music adds a new
dimension to the film story, enriching it:
I find music in film most acceptable when it is used like a refrain. When we come
across a refrain in poetry we return, already in possession of what we have read,
to the first cause which prompted the poet to write the lines originally. The refrain
brings us back to our first experience of entering that poetic world, making it
immediate and at the same time renewing it. (158)
To Tarkovsky, music not only enriches the interactions between audience and film, it also
gives possibilities to the director to put special lyrical notes, metaphors into film stories.
He mentions his thoroughly autobiographical film, Mirror, within this sense. While the
Mirror reflects Tarkovsky's spiritual experience as a whole, the music in this film functions
as the mirror that reflects the protagonist's life in the modern fragmented world. As will
be explained below, composer Eduard Artemyev's distinctive electronic music was
especially used in some of the scenes within this direction in this film. The aim was to
produce a sound,
close to that of an earthly echo, filled with poetic suggestion—to rustling, to
sighing.The notes had to convey the fact that reality is conditional, and at the same
time accurately to reproduce precise states of mind, the sounds of a person's
interior world (Tarkovsky 162).
ATMM 2013 PROCEEDINGS
15
According to Tarkovsky, music also functions in another important role for the other side,
the film audience:
By using music, it is possible for the director to prompt the emotions of the
audience in a particular direction, by widening the range of their perception of the
visual image. The meaning of the object is not changed, but the object itself takes
on a new colouring. The audience sees it (or at least, is given the opportunity of
seeing it) as part of a new entity, to which the music is integral. Perception is
deepened. (158)
The director, here, leaves his/her intentional effects on viewers the directions of their
perceptions, feelings and thoughts. At this point, music is an important tool for director.
However, Tarkovsky makes an additional point here. According to him, the use of music in
this direction does not mean that a director insists on his visions for an audience using
this element, rather it should be used to produce different meanings for the audience. After
all, film image should be constructed by poetical rhythm, and for this reason, according to
Tarkovsky (183) it has contradiction with Sergei Eisenstein's despotic film formulas.
Stalker and Nostalghia were produced after a long film career starting with the film,
Ivan's Childhood (1962). Tarkovsky's films have passed several phases until the final usage
of sound effects and music. Dramatic flow and usage of music in his first film, Ivan's
Childhood, were extended to the interference with the image in his last films, Solaris, Mirror
and Nostalghia.
The Use of Sound and Music in Solaris, Mirror, Stalker and Nostalghia
The usage of sound and music in Tarkovsky's cinema gained a new dimension especially
in his final films. There is little doubt that this dimension is connected with a journey to
Tarkovsky's inner world. While the Mirror, as a biographical film, concentrating on
Tarkovsky's past, the effects of past experiences on his interior, Nostalghia continues this
journey into exile. One (the Mirror) tells the story of a man's fragmented memory in his
homeland, Russia, the other (Nostalghia) takes this story to Italy, while the director is in a
self-imposed exile. Solaris concentrates on more general themes comparing these two
films.
Solaris and Stalker, made in the science fiction genre, establish their film discourses
and cinematographic elements on criticism of the rationality of modern science that was
born in the Enlightenment. The sound and music in these films has composed on the
nature-science, human-nature dichotomies. Both films (also the Mirror) are the products
of the collaboration of Tarkovsky and composer Eduard Artemyev. Tarkovsky and
Artemyev developed a special sound, "an idiosyncratic sonic voice in cinema" (Smith 43).
"This is achieved by a complex blend of layers, where sound and music are rarely
descriptive in a literal sense, always retaining the feeling that they are operating as more
than representation" (Smith 43). The three films can be read as the stories that focus on a
mankind which introverted the inner world in the fragmented reality of the modern world.
The sound and music were developed especially to reflect this situation. Thus film images
would reproduce precise states of mind, the sound of a person's interior world in a reality
which is conditional (Tarkovsky 162).
Besides Artemyev's music Tarkovsky used Johann Sebastian Bach's chorale prelude
for organ, Ich ruf' zu dir, Herr Jesu Christ (BWV 639), in Solaris which was based on the
science fiction writer Stanislaw Lem's story.
Tarkosvky asked Artemyev to mix this sound with the ambient sounds as a musical
score. Artemyev mixed experimental sounds with the natural ambient sounds in the film.
While the film tells the story of Kris Kelvin on the planet Solaris, it also represents to us
how the scientific rationality becomes an ideology which externalizes the impossible, the
spiritual in modern societies. When Kelvin encounters his dead wife's replica, Hari, on
Solaris, this strange creature is examined as an impossible happening by the scientists.
Not only did these scientists internalize this scientific rationality, but also Kelvin, who loves
his dead wife and is very happy to see her replica on the planet, also embraced it. Solaris
makes visible the boundaries of what is human and non-human.
The sounds in the film reinforce these contradictions: While Bach's prelude
reminds us of regaining the essence of life; Artemyev's experimental timbres indicate the
impossibility of this retrieval in the current times. Even Hari's phrase "but I am becoming
human being" cannot change this situation. What is constant is certainly the modern
scientific rationality and its continuity.3 This rationality and knowledge are received by
modern individuals; they have to act in this mode of thinking. This imperative is constantly
reminded to us by the scientists throughout the film. Tarkovsky writes "man's unending
quest for knowledge, given him gratuitously, is a source of great tension, for it brings with
it constant anxiety, hardship, grief and disappointment" in Sculpting in Time (198).
Therefore, in this rationality, in the flow of scientific knowledge there has always been
anxiety, hardship, grief and disappointment. The film, for this reason, ends with terrific
hopelessness; it is no longer possible to regain, resurrect Kelvin's Hari within this
rationality.
The characters in Solaris were dogged by disappointments, and the way out we
offered them was illusory enough. It laid in dreams, in the opportunity to recognise their
own roots—those roots which for ever link man to the Earth which bore him. But even
those links had already become unreal for them (199).
Bach's cantus firmus which was used as the subtheme of Hari by Artemyev is heard in the
final scene where Hari is dying. This usage of music completes Solaris' hopeless final scene.
This hopeless situation, this pessimistic usage of sound and music continued in
Tarkovsky's next film, the Mirror.
In his thoroughly autobiographical film, the Mirror, Tarkovsky starts a journey into
his childhood, people whom he saw as important. This journey for Tarkovsky, as King has
correctly noted, "is the attempt through memory to regain what is lost" (67). There are
parallel points about the retrieval of what is lost in both films: Kelvin's impossible task to
regain his wife whom he lost in the real world, turned into a struggle, another impossible
task in which the protagonist turns to the past where he lost his secure family atmosphere,
his childhood, his people, his innocence, in the Mirror. The director of the films knows this
impossible task lies ahead, but continues with the fragmented.4 It can be said that the film
was shaped with this fragmentation. Memories play an important role for the director's
journey to the past. They appear disconnected from each other like in a dream. The film
leaps from sequence to sequence without regard for chronology, as in a dream. This
fragmentation and disconnected flow of images are completed with Artemyev's electronic
music.
Tarkovsky continues his journey to past in Nostalghia. Nostalghia is like a second
chapter after his biographical film, the Mirror. The film Nostalghia tells the story of a poet,
Andrei Gorchakov who came to Italy to research the life of the Russian serf composer Pavel
Sosnovsky. It seems that Sosnovsky was not a fictional character, he led a normal life.
ATMM 2013 PROCEEDINGS
17
He is known as a talented composer because of his successful musical works. However,
when he got caught up by nostalgia he decided to return to serf-owing country Russia.
Shortly after his return he hanged himself. Although he knew that there was no way out
for him there he wanted to die in his home country. Gorchakov fragmented inside himself
in the foreign land, Italy. He "watches other people's lives from a distance, crushed by the
recollections of his past, by the faces of those dear to him, which assail his memory
together with the sounds and smells of home" (Tarkovsky 203). In one aspect, he feels the
fate of Sosnovsky, in the other aspect, as a modern individual, he develops an attachment
after the speeches (they criticize the modern world) of Italian mystic Domenico. Sosnovksy
is stuck in his past the modern life lies ahead of him. He dreams throughout the film,
returning to his past, his family home. The past seems as if it is an antidote to the present.
This deadlock situation completes with some special sound effects (heard in drops of rain,
steps, flow of water, etc) in the film. Although Nostalghia uses less music in comparison to
his other films, it comes to the fore especially for two sound usages: A sole woman's song
is heard in the opening and final scenes and part of Beethoven's Symphony No. 9 is heard
where Domenico puts himself on fire.
In the opening scene a family and their dog seem to be descending a hill. The
countryside vanishes into the rolling fog. The camera dollies in continuously from the
beginning. A sole woman sings at this moment and the starting credits seen over the
screen. When the family and dog stop moving, Verdi's Messa de Requem is heard in the
background. The sole woman also sings in the final scene where the Russian house appears
in the middle of the Italian cathedral. The sounds with which we are familiar in the West
and the sound that we hear in the East are intertwined, as in the life story it is combined
with what is individual and what is universal. The one reflects a poet's fragmented inner
world; the other represents reasons behind this fragmented inner world in modern society.
Another usage of sound and music is observed where Domenico puts himself on
fire. When Domenico realizes despair and lack of freedom in his time, modern society, he,
like Sosnovsky, wants to commit suicide in the same way:
Domenico chooses his own way of martyrdom rather than give in to the accepted,
cynical pursuit of personal material privilege, in an attempt to block, by his own
exertions, by the example of his own sacrifice, the path down which mankind is
rushing insanely towards its own destruction (Tarkovsky 208).
At this point, the final part of Beethoven's Symphony No. 9 (which later became the
European Union Anthem) is heard in the background in the scene and Italy with its
magnificent ruins is no longer meaningful.
After Solaris, Tarkovsky continued his science fiction genre in Stalker. However,
Stalker is not purely a science fiction film. The film uses science fiction film conventions
to a limited extent. It tells the journey of three people, the Writer, the Professor (of Physics),
and Stalker, and the secrets of the Zone. The film, like , is intensely critical about the
rationality of modern science. Stalker problematicises the externalization of what is
spiritual in modern world and scientific rationality. Stalker, like a prophet in the modern
world, who knows every way, every secret in the Zone, guides the Writer, and the Professor
in the journey to the Zone. However, in the course of the journey, when we, the viewers,
witness the dialogues among the three, we realize what type of reality it is in which we
live, and the deep crisis about creativity (the Writer wants to go the Room in the Zone to
regain his inspiration) we encounter in the current times. The special soundtrack
developed by Artemyev accompanies the dialogues where the film message becomes
critical. The music supports the discourses of the dialogue in these scenes. "The
boundaries between music and sound were blurred, as natural sounds and music interact
to the point were they are indistinguishable. In fact, many of the natural sounds were not
production sounds but were created by Artemyev on his synthesizer" (Varaldiev, "Russian
Composer Eduard Artemyev") .
There is an interesting music usage in a distinctive scene where the three travelling to the
Zone on a motorized draisine. Music, the experimental timbres of Artemyev was added to
natural ambient sounds and to the motorized draisine in this scene. The camera is focused
on the characters and we hear sonic voices along with natural ambient sounds, thus "we
are not distracted by their surroundings and as a result the physical journey becomes
transformed into an inner journey" (Smith 45):
In the opening and the final scene Beethoven's Ninth Symphony was removed and
in the opening scene in Stalker's house ambient sounds were added, changing the
original soundtrack, in which this scene was completely silent except for the sound
of a train (Bielawsky & Tronsden, "The RusCiCo Stalker DVD").
During their journey in the Zone, the sound of water becomes more significant. The more
hopeless the situation becomes, after the dialogue among the characters, the more
prominent the sounds of water becomes. Thus the latter depends on the first; the sound
of water seems to symbolize the beginning, the wish of change and flux.5 When Stalker
understands that he cannot change the Professor and Writer's rooted visions, feelings, and
thoughts on the world, humanity, and the spirituality, he notices that he is alone on earth.
He wants to change them, invite them to the mystical, the impossible, like a prophet, until
the final sequence; but he realizes that he cannot change them.
Conclusion
Image is superior to all other elements in Tarkovsky's film aesthetics. Filmic narration, to
Tarkovsky, is produced in the process of poetical images. Thus, according to him, a
filmmaker must concentrate on the cinematographic image first. However, although it is
not as important as the image, sound and music are other significant components in
filmmaking. Sound and music give the chance to the director to produce distinctive
cinematographic atmospheres.
Tarkovsky does not resist the use of music. Although he is critical of its use heavily,
he did not altogether avoid the use of music elements in his films. The typical examples
are those of the Solaris and Stalker. As explained above, he even did not hesitate to use
experimental sounds in these films. Sound and music complete his film aesthetics, so that
when we hear or read something about his Stalker, Solaris, Mirror, and Nostalghia we
cannot imagine them without these elements.
ATMM 2013 PROCEEDINGS
19
References
Barthes, Roland. Image, Music, Text. New York: Fontana Press, 1977. Print.
Bielawsky, Jan, and Trond S. Tronsden. "The RusCiCo Stalker DVD". 20 June 2013. Web.
‹http://nostalghia.com›.
Harvey, David. The Condition of Postmodernity: An Inquiry into the Origins of Cultural
Change. Oxford & Massachusetts: Blackwell, 1992. Print.
Jameson, Fredric. Postmodernism, or the Cultural Logic of Late Capitalism. Durham: Duke
University Press, 1991. Print.
Johnson, William. "Sound and Image: A Further Hearing." Film Quarterly 43.1 (1989): 2435. Print.
King, Peter. "Memory and Exile: Time and Place in Tarkovsky's Mirror", Housing,
Theory and Society, 25 (2008): 66-78. Print.
Lukacs, Georg. The Theory of the Novel; Georg Lukacs, The Meaning of Contemporary
Realism. London: Merlin Press, 1963. Print.
Mitchell, Tony. "Tarkovsky in Italy". 20 June 2013. Web. ‹http://nostalghia.com›.
Smith, Stefan. "The Edge of Perception: Sound in Tarkovsky's Stalker." The Soundtrack 1.1
(2007): 41-52. Print.
Swensson, Owe. "Sound in Tarkovsky's Sacrifice". 12 June 2013. Web.
‹http://filmsound.org›.
Tarkovsky, Andrei. Sculpting in Time: Reflections on the Cinema. Austin: University of Texas
Press, 1987. Print.
Varaldiev, Anneliese. "Russian Composer Eduard Artemyev". Web. 17 June 2013.
‹http://electroshock.ru/eng/edward/interview/varaldiev/›.
Winter, Marian Hannah. "The Function of Music in Sound Film." The Musical Quarterly 27.2
(1941): 146-164. Print.
Notes
This can even be said for D.W. Griffith's masterpieces, The Birth of a Nation (1915) and
Intolerence (1916), and even Charlie Chaplin films in the silent era. Griffith's films, and
Chaplin's style become more perfected and reaches a peak with music used between parts.
2
Owe Svensson, the sound mixer of Tarkosvky's Sacrifice, also stresses this fact.
3
The journey to Solaris was designed not to present this planet to humanity, but to extend
knowledge to its outermost boundaries. This fact is stressed in one of the scenes in the
film. This means that knowledge moved away from human beings and reified in itself in
modern capitalist societies.
4
They are fragmented, because they have to construct their inner world, their tastes and
pleasures, thoughts and views under disintegrated experiences in modern society, as
Hungarian philosopher Georg Lukacs (1963) expresses in a different context. The problem
of disintegrated social experience occurs from mainly time-space compression in late
capitalist societies, as Jameson (1991) and Harvey (1992) convincingly argue, after
utilizing the main theses of Georg Lukacs and German writer Walter Benjamin, becomes
significant in Tarkovsky's films, particularly in Mirror and Nostalghia: They are the
complementary chapters of a creative director's unique individual past and terrifying and
unhappy present social experiences. Nostalghia fills the gap the Mirror had created.
5
In an interview, on the film Nostalghia he said "Water is a mysterious element, a single
molecule of which is very photogenic. It can convey movement and a sense of change and
flux" (Quoted in Mitchell).
1
KYMA PROGRAMMING ENVIRONMENT FOR SOUND
Abstract
Kyma is one of the most powerful and profound audio production systems available today...
And, it's easy to learn. Musicians, students and professionals around the world use it. Its
superb sound quality, interactive processes, and ease of running complex algorithms in
real time, make it an ideal path towards professional problem-solving in sound design,
post production, film scoring, game development, sound installations, live performance,
research, and any other creative musical application. Anybody who is serious about sound
should give this wonderful environment a chance. One may approximate aspects of it by
assembling numerous other tools at one’s disposal but, in the end, the workflow and "feel"
with Kyma is different. Moreover, Kyma itself is quite malleable, adjusting to the individual
user's personality and needs, as long as s/he commits to mastering it. Simply put, Kyma is
less a product or tool and more a way of working, a way of living the sound alchemist's
reality. The longer one uses Kyma the more it becomes one’s personal sound design
workstation.
What Is Kyma?
Kyma consists of a combination of software and hardware components. The software is
where the Kyma programming language operates, while the hardware serves the software
by calculating the sound to be produced. The software component of Kyma is an object
oriented, visual language. It is a data driven language where the many faces of data are
revealed by providing a multiplicity of ways to see, acquire and manipulate data with the
objective of creating a musical piece. We might consider Kyma to be a "domain specific"
language in that it is specifically dedicated and optimized to facilitate the synthesizing and
modification of sound, as well as the performance and creation of musical compositions.
Based on Smalltalk,1 the language's focus on musical objectives (as opposed to generalpurpose languages such as C/C+, Fortran, Java, etc.) provides the user with tremendous
leverage in realizing his or her musical goals. The Kyma system is highly expandable, yet
even before any such extension the edges of the Kyma universe are quite distant and farreaching.
Kyma uses a special hardware audio accelerator called Pacarana. The Pacarana
frees the host computer from computational burden of real time sound generation, just
as graphics accelerator cards do in host computers working on computations for real time
graphics displays. The Pacarana can be connected to commercially available audio
interfaces to communicate with the outside world.
ATMM 2013 PROCEEDINGS
21
Since Kyma is a language, as opposed to application software, users quickly feel the
difference between Kyma and a software program. Application software concentrate on
much narrower objectives and typically offer a much narrower set of operational
paradigms in the form of pre-defined options that can be selected from menus. Languages,
on the other hand, are less prescriptive in terms of how their components are used and
more flexible in terms of what operational paradigms are in force. In Kyma, chunks of
software code can be quite flexibly connected together, kind of like words in a spoken
language, so the user controls the musical paths to be travelled and what the aesthetic
destiny of a composition will be. Kyma is a language where the possibilities of shaping
the world of sound are endless, a universe that can easily take a lifetime to explore.
Currently Kyma is being used in many contexts, such as in musical composition,
film scoring, Foley sound effects, studio based sound design, real time music performance,
interactive sound installations (with interaction via audio inputs, MIDI, or other software
like Max), and scientific research.
How Does It Work?
In Kyma, the fundamental building blocks are Sound Objects. Sound objects are small
chunks of software that execute basic tasks such as generating, modifying, combining,
storing, or routing of audio or audio control data, and they are symbolized with icons. An
icon consists of a specific outer shape and an inner pictograph, which together indicate
the underlying algorithm of an individual Sound Object. All sound objects that share the
same icon are in the same Sound Class. Kyma has more than 190 distinctive classes of
sound objects. Individual sound objects are connected to one another using
communication lines in the Sound Editor to make more complex Kyma sounds. In many
cases multiple musical processes collapse into a single, efficient module to make complex
tasks easier. This scheme of connecting modules makes it very easy to see where the signal
is going, how it is processed and what parameters are available to interact with the process.
Oftentimes parameter fields accept samples, script or the even more involved real time
control code known as Capytalk.2 Capytalk is how Kyma controls sonic parameters in real
time, and it can generate a single number or inexhaustible streams of numbers that may
be used to control any parameter. The techniques to generate these numbers include
performing arithmetic and logical operations, accessing values from arrays, generating
dynamically changing streams of numbers, and realizing analysis and measurement of
sound attributes.
The user interacts with the sound in many ways. The Virtual Control Surface (VCS)
controls parameters with a set of faders, knobs, toggles and buttons, which can be
mimicked in the physical world via MIDI, OSC or sound. Kyma offers many other
tools/utilities/editors. Amongst them, the Sample Editor can be used to edit several
different file formats or to create new audio files in these formats. The Spectrum Editor
performs a two-part process that first involves the execution of an analytic procedure
where spectral content of a sound is derived, and second, the use of the data as the basis
to drive and control other synthesis methodologies. Some of these methodologies include
Group Additive Synthesis, Aggregate Synthesis, Resonator/Exciter (RE) Analysis and
Resynthesis. Another great Kyma tool is the TAU-Time Alignment Utility. The TAU is a
modifying, morphing and Resynthesis tool where temporally coordinated amplitude,
frequency, formant, and bandwidth envelopes can be mixed or morphed to yield stunning
timbral nuance.
Timeline
The Timeline is a workbench where all the Kyma generated sounds can be presented in an
organized fashion. In other words, the Timeline is an environment where sounds are
scheduled to occur at a certain time, layered on top of one another, routed and spatialized,
and data that controls the Sounds are specified and mapped to parameters. This makes
the Timeline an ideal place to design the structure and form of a composition or
improvisation and to shape large-scale musical journeys. The Timeline shares some
features with the traditional digital audio workstation, but presents as well profound
differences. Two of the most important differences are: First, the typical digital audio
workstation plays back audio files while Kyma plays back algorithms. Often the algorithm
will rely on indeterminate Capytalk expression(s) or live input that cannot be forecast.
This leads to the second big difference. While DAW's display fixed waveforms, in Kyma
there is often no fixed or even determined waveform until the algorithm is sonically
realized in real time. Hence, Kyma does not display waveforms on the Timeline but
rectangles that denote the timespan a particular algorithm occupies on a particular track
of the Timeline. This makes the Timeline an all-encompassing environment in which to
work.
What Makes Kyma Unique?
The original version of Kyma appeared in 1986 and was created by Carla Scaletti. That
first version was software only (operated on a Macintosh 512k) and was decidedly nonreal time in nature. With the conception of the hardware component Platypus (a signal
processor)3 designed by Lippold Haken and Kurt Hebel, it became one of the earliest
commercially available examples of a graphical signal flow language for real time digital
audio signal processing. Since then, there have been six major software releases, added
support for Windows platforms, newly redesigned hardware accelerators, and the addition
of countless new sound synthesis and processing algorithms. Kyma today embodies nearly
three decades of continuous development by Symbolic Sound. The team responsible for
its creation still continues to develop and support the product. This is probably one of the
most unique things about Kyma. Even though its roots are in academia, this kind of
longevity and maturation as a commercial product is very rare. Kyma's user base is
incredibly diverse and active in this process. Since it is used in sound design for music,
film, advertising, television, speech and hearing research, computer games, and other
virtual environments, there exists a very wide range of interests within the Kyma user
base. Interaction between users is very close-nit and highly technical. Feedback from users
can and does influence where the system goes next. Thus, Kyma grows with its users.
Control over virtually every aspect of the sound does not only make for a mindexpanding experience, it also becomes an education in how to think of sound at the highest
level. It is a learning tool for discovering new concepts. This makes it a long but very fruitful
learning process. One could say there is an art to working with sound in Kyma. Like any
art form, the more you do it, the more ideas and possibilities it generates.
The undeniable fact is that, in Kyma, sound quality is untouchable. It is immediately
apparent when you start working with it. This all stems from the fact that all sound
computations happen in real time within one clock cycle or sample. What that means is
that the Pacarana DSP sound engine uses a custom operating system appropriate for
sample-by-sample real time processing, as opposed to personal computers that use
ATMM 2013 PROCEEDINGS
23
operating systems where samples are grouped into blocks and those blocks are then
processed. So... Kyma is sample accurate! This makes a big difference with processes like
FFT Synthesis/Resynthesis.
Who Is It For?
By assembling numerous other available tools, one may approximate aspects of Kyma. In
the end though the workflow and "feel" of using Kyma is simply different. Furthermore,
Kyma itself is quite adaptable. This means that the individual user may adjust it to his or
her needs and personality, if willing to devote the requisite time and energy towards
mastery.
Less a product or tool, more a way of working within the sonic realm, Kyma includes
quite a few novel and interesting sounds that can be used "as is". Nevertheless, these are
best seen as a place to start a journey. Kyma's workflow entreats you to begin such an
exploration. Even the newest user can manipulate Kyma's Virtual Control Surface from
their computer screen or a controller to fashion exhilarating new sounds. These can be
saved and used another day as either a finished sound or a component in some new
creation of your choosing. Acquiring Kyma and then using its included sounds (and others
from the community) is a legitimate and fruitful course, but it is only a first step, only a
scratching of the surface. The full benefit comes solely after many months of use, practice,
and study. However, the journey is exciting and you never realize all the work you are
investing along the way. The longer you use Kyma the more it becomes your personal
sound design workstation. Ultimately, neither the monetary investment nor whether it
uses proprietary hardware and software matter. What matters is that Symbolic Sound has
created a rich sonic world for you to explore and make your own.
References
Scaletti, Carla. Kyma X Revealed! Secrets of the Kyma Sound Design Language. Champaign,
Illinois: Symbolic Sound Corporation, 2004. Print.
Stolet, Jeffrey. Kyma and the SumOfSines Disco Club. Self-published. 2011. Print.
"Is Kyma Still Relevant?" Delora. Harmony Systems, Inc., n.p. Web. 2012.
http://www.delora.com/tips_and_trends/kyma_relevant/kyma_relevant.html
Notes
Smalltalk is an object-oriented, dynamically typed, reflective programming language.
Capytalk is an embedded, event-driven, real time control language.
3
The Platypus and its descendant the Capybara were large multiprocessor computing
engines with dedicated convertors and I/O. The Pacarana (already mentioned in the text)
is the latest incarnation of the hardware accelerators and is a very portable one-rack unit.
It is the most capable open-ended hardware design yet and uses 3rd party audio/midi
converters.
1
2
BAND ANT: MUSIC MADE BY AN ANT COLONY
Abstract
Music composed and generated by life forms other than human beings have been
investigated in numerous studies. Within my work "Band Ant" the inherent rhythm,
harmony and energy within the movements and interactions of the members of an ant
colony have been analyzed by digital image processing techniques and utilized as the basis
of a musical outcome. At the same time, the swarm intelligence that forms the basis of
these activities is mapped onto the domain of music so that one can experience "evolution"
at work as an artist.
Musical compositions utilized generative processes, chance processes as well as the
involvement of life forms in numerous works in the composition and performance stages.
Sound art has been an area with similar works. As was noted by R.Murray Schafer, concert
halls are just substitutes for outdoor life [1], so the involvement of nature and/or the
organic components of nature into this process most of the time enables us to involve
"evolution as an artist" [2] into the composition activity. Frequently these generative
composition processes are based upon either stochastic or algorithmic approaches and
may lack a certain ingredient and as was noted by David Rothenberg and quoted in [3],
"can we trust machines to create for us?" Therefore, in my work Band Ant I have involved
an ant colony into the composition process as the seed input and welcomed their swarm
intelligence and the evolutionary processes that came up with this artifact to play their
roles as artists. At the end, as was quoted in [4], "there is no process even in the most
complex industry which has not been in continuous use by people, animals and plants".
Band Ant utilizes the activities and interactions of ants as a basis for music
composition. In doing so, the ant movements are captured by a video camera and further
analyzed and mapped into the MIDI domain by the usage of STEIM's software tool Junxion.
In Figure 1 modules of Band Ant has been out
Figure 1 Block diagram of Band Ant
ATMM 2013 PROCEEDINGS
25
Junxion has been created at STEIM (Studio for Electro Instrumental Music in Amsterdam)
and enables human interface devices, gaming console inputs, and sensor board inputs,
audio and video inputs to be converted into MIDI messages. In utilizing Junxion as a video
input/processor for MIDI mapping, certain actions, patches and activities can be
implemented and different types of processors may be utilized throughout the process to
refine the image/object detection and identification.
Junxion enables the video stream to be analyzed and makes it possible for different
types of filters to be applied to the image stream. Thus, one can identify the objects, their
movements, activities and locations within the scene. In addition to that, certain actions
(like MIDI notes or CC messages) can be assigned to these dynamic components. So within
Band Ant, I have observed the activities of an Ant Colony living within a transparent jelly
like environment (that both acts as their livelihood and food supply at the same time),
digitally analyzed the stream utilizing digital image processing techniques and further
mapped these onto MIDI signals. Figures 2 and 3 show the raw video image from the
camera and the movement detection algorithm at work within Junxion. One of the key
issues with the setup was related with the ants themselves. Each time ant colony members
(band members / musicians) are transferred to the jelly like environment, it takes around
7-10 days for them to settle, get accustomed to the environment, start digging the material,
move actively as a colony within this environment. This is similar to a band moving into a
studio or recording environment and achieving the relevant vibe for artistic production.
It is also critical not to mix members of different colonies of ants as they fight and even
eat each other. So just like a real music production environment, it is best to keep only the
members of the same band within the same studio.
Figure 2 Raw image at Junxion
Different filters can be applied to the raw image within Junxion like Threshold, Difference,
Color Table and Despeckle to further refine the object detection process. In Band Ant, the
application of Difference and Despeckle filters were adequate to isolate the ant's
movements and interactions. Individual ants and/or groups of ants and their movements
could be identified with the adequate settings of these parameters and the definition of
object size within Junxion.
Figure 3 Difference, despeckle filters and object detection applied to the raw image
Musical Outcome
Just observing the activities of an ant group one can easily deduct that there is an inherent
harmony within their movements. Ants communicate among each other by touching their
antennae and it is not a rare occasion to witness a group of ants gather like a football team
and touch each other's antenna for extended periods. This may even seem like a business
meeting and all of a sudden, they break up and continue their never-ending search rituals.
Even the actions of the overall ant group have a rhythm that changes its pace in extended
periods. Therefore, when translated/mapped into a music piece, all these actions have a
counterpart in the domain of music and one can witness a synesthesia like feeling between
their observed activities and the musical translation/composition. Most of the time the
MIDI mapping on to percussive instruments produce better results (even has a tribal party
quality) however MIDI CC note assignments or MIDI note assignments to certain pad like
sounds are also suitable especially during the minutes long group gatherings (meetings).
Junxion enables the mapping of the X, Y coordinates or certain movements into
MIDI notes or CC messages. Thus, the digital image processing applied to the ant colony
and their image is reminiscent of an X-Y pad and can be utilized accordingly. In addition,
different instrument note and instrument types may be assigned to the different sections
of the two dimensional image. In our experience, the movements of the ant colony or the
performances of Band Ant are best captured in MIDI notes assigned to percussive
instruments. As was noted before, minutes long exposure to the Band Ant's music gives
the impression of an orchestra playing through different sections of a composition (with
different time signatures) and there are certain unexpected passages with heightened
emotion that all of a sudden can be witnessed among the colony as a whole. Most probably,
this is due to a pheromone based messaging process.
Actually, the swarm intelligence of the ant colonies has mathematical counterparts
and is defined using similar mathematical models in the form of Ant Colony Optimization
(ACO) algorithms [5]. So based upon the inherent relationship between mathematics and
music [6] it is evident that their swarm intelligence has direct constructive effects with
the harmonic, rhythmic and compositional basis of this bio-generative sound art work. In
Figure 4 the overall setup of Band Ant is depicted.
ATMM 2013 PROCEEDINGS
Conclusion
27
Figure 4 Band Ant setup
Life forms have been included in the musical composition processes in numerous works.
Within Band Ant the swarm intelligence of an ant colony is mapped onto musical outcomes
and enables the listener to synesthetically experience and witness the swarm intelligence
(thus evolution as an artist) at work. From a luthier (or cyber luthier) perspective the
expressiveness of the instrument (or the setup) lies in the mapping of the digital image
processing of the ant colony's actions into sounds. In doing so I have witnessed positive
outcomes in using the percussive sounds and X,Y location based actions within the Junxion
software environment. As was noted before even the feeling of a tribal ceremony was
experienced when Band Ant is at work. As a further study, the inclusion of more than one
video signal focused at different groups of the colony is envisioned to come up with an Ant
Symphony as a successor to the Band Ant.
References
Schafer, R.Murray. The Soundscape: Our Sonic Environment and the Tuning of the World.
Vermont: Destiny Books, 1994. Print.
Ray, Thomas S. Evolution as artist. In "Art @ Science", Sommerer, Christa and Laurent
Mignonneau. [Eds]. Vienna/NewYork: Springer Verlag, 1997. 81-91. Print.
Toop, David. The Generation Game:Experimental Music and Digital Culture. In "Audio
Culture Readings in Modern Culture", Cox, Christoph and Daniel Warner. [Eds]. New
York: Continuum, 2004. 239-247. Print.
Licht, Alan. Sound Art: Beyond Music, Between Categories. New York: Rizzoli, 2007. Print.
Floreano, Dario and Claudio Mattiussi, Bio-Inspired Artifical Intelligence: Theories,
Methods, and Technologies. Cambridge, MA: MIT Press, 2008. Print.
Loy, Gareth. Musimathics: The Mathematical Foundations of Music. Cambridge, Mass: MIT
Press, 2006. Print.
VOCODING TECHNIQUE IN AUDIO APPLICATIONS
Abstract
Originally being invented for enhancing the voice-carrying capabilities of the telephone
lines, potential usage of the vocoder in music productions was recognized in the following
years. Initial experiments performed with the vocoder then led to the progress of the
electronic music, and starting from the '70s it was used in numerous albums. Due to its
unique sound and popularity, the vocoder is still a widely used effect in today's music
productions from various genres. Obviously, creative usage of the vocoder requires some
knowledge about the working principle behind it, whether it is a hardware unit or software
plug-in. In this paper, details of the audio processing approach used in the vocoder are
investigated with the corresponding typical parameters and application techniques.
VOCODERS FROM PAST TO PRESENT
The vocoder term comes from the voice and encoder words. It was invented by Homer
Dudley who was a physicist working at Bell Laboratories in 1939. His purpose was actually
to develop the voice-carrying capabilities of the telephone lines of the company by
performing audio compression technique. After his visit to Werner Meyer-Eppler, who was
studying at Phonetics Department of Bonn University, the potential usage of the vocoder
in music productions was recognized soon. Following its further development phase, the
vocoder became quite popular and it was used by the producers and bands starting from
the '70s and '80s. Its usage continued until recent years and nowadays it is still featured
in productions of music, game and cinema industries.
During the past years some vintage vocoder models were produced including
Roland VP-330 Vocoder Plus, Roland SVC-350, EMS 2000/3000, Bode 7702, Moog 16channel vocoder and Korg VC-10.
There are also some modern hardware
synthesizer/vocoder models of today such as Korg MS2000, Korg Radias, MicroKorg XL,
Roland VP-550, Roland V-Synth, Nord Modular G2, Yamaha Motif XS/XF, Alesis Micron and
Novation MiniNova.
In recent years, the vocoders also became widely available in software plug-ins
including Orange Vocoder, Native Instruments The Mouth, Virsyn Matrix and Image Line
Vocodex.
ATMM 2013 PROCEEDINGS
29
Figure 1 Some of the Hardware Vocoders
PRINCIPLES OF THE VOCODING
The vocoder is fed with two separate input signals: the modulator and carrier. The
modulator input of the vocoder generally receives a signal with some spoken words or
phrases. Percussion type sound signals can also be used for this purpose; however,
speeches and spoken phrases are usually the most common types of modulator signals.
Carrier input of the vocoder can be fed with any signal preferably having a rich
harmonic content for obtaining the best results. It is processed according to the frequency
distribution of the modulator signal. The spectral content of the modulator signal is
analyzed by passing it through a number of band-pass filters. The modulator signal is split
into a number of separate signals by using these filters and the sonic information of each
frequency band in that signal is captured by the band-pass filters accordingly. There are
typically 8, 16, 24 or 32 bands in the vocoders. The number of bands essentially specifies
how precise the content of the modulator signal is detected. In other words, as the number
of the bands increases, the modulator signal is split into narrower bands, and hence, the
content of the modulator signal is analyzed more accurately. In an opposite manner, if the
vocoder has fewer bands, the modulator signal is analyzed less precisely so that the
intelligibility of the output signal gets worse. It is to be recalled, however, that increased
number of band-pass filters does not always produce better results. In fact, using more
than necessary number of bands may even prevent to obtain the characteristic sound of
the vocoder. It is also to be considered that frequency content above 3 kHz is not so
important for the human voice.
After the frequency content is analyzed, the modulator signal is then sent to a series
of envelope followers working in parallel. The amplitude information of the modulator
signal is captured and the control signal is generated in this phase. The output level of the
control signal is adjusted according to the volume envelope of the modulator signal. There
is a dedicated envelope follower for each band-pass filter. The amplitude level of the
envelope followers in each band is specified according to the frequency content of the
modulator signal. Determined amplitude data for the envelope followers are then applied
to the carrier signal during the amplifier stage as shown in Figure 2.
The carrier signal is also split into separate frequency bands with the same set of
the band-pass filters as in the case of the modulator signal. The output of the band-pass
filters is then routed to an amplifier as indicated in Figure 2.
Figure 2 Signal flow of a vocoder
According to the data obtained from the envelope followers, each band of the carrier signal
is processed in the amplifier stage. Namely, the amplitude level of the carrier signal bands
is adjusted by considering the content of the envelope followers which was initially
determined from the modulator signal. This is essentially the stage in which the vocoding
effect takes place.
If the carrier signal does not have any frequency content in a certain band,
obviously no sonic data would be generated by the amplifier in that band. Hence, there
would be a lacking sound in that band of vocoded output signal. Therefore, the carrier
signal is expected to have a rich spectral content to obtain better vocoder effects. For
instance, sawtooth or pulse waveforms that usually include large number of overtones
from a synthesizer, or white noise are usually preferred for the carrier signals.
Mixing the output of the bands processed by the amplifier to a single output is the
final step in the vocoding process. There is usually an internal mixer in today’s vocoders
that enables the panning the output of each band in stereo panorama in order to get a
wider sound. The result of vocoding is essentially a robotic sounding effect which is also
attributed as a talking/singing synthesizer. The modulator signals usually include some
sibilant (consonant) sounds with high frequency content which are generally not captured
well by the vocoding. In order to get a more understandable vocoded phrases or speeches,
modern vocoders generally have the capability of extracting the high-frequency content
of the modulator signal above a certain frequency, and route it directly to the output stage
as a dry signal without applying the vocoding. The high-frequency components of the
modulator signal are then mixed with the carrier signal in variable amounts as shown in
Figure 3.
ATMM 2013 PROCEEDINGS
31
Figure 3 Signal flow of a vocoder with an unprocessed modulator signal
Since the pitch data is obtained from the carrier signal, there is actually no need to sing in
correct notes/pitch into a vocoder. In other words, speaking in a normal way to the
microphone or having an audio signal with some speeches is sufficient as a modulator
signal, as the pitch data of the vocoded output signal is created by the note information of
the carrier signal by playing a keyboard live, or sending it through a MIDI track, etc.
PARAMETERS USED IN THE VOCODERS
There are numerous vocoders available in both hardware and plug-in form produced by
different companies. Each model has its unique parameter setup and conventions which
can be different from the others. However, some of the typical parameters used in a
vocoder are Audio Source Carrier Level, Band Pass Filter Level, Band Pass Filter Pan, Cutoff Frequency Offset, Envelope Follower Sensitivity, Formant Shift, Gate Sensitivity, High
Pass Filter (HPF) Gate, High Pass Filter (HPF) Level, Modulation Intensity of the Cut-off
Frequency Offset, Modulation Source for the Cut-off Frequency Offset, Threshold, Vocoder
Resonance, Vocoder Level, Direct Modulator Signal Level.
RECOMMENDATIONS FOR THE VOCODING TECHNIQUE
In a live setup, the modulator signal from a vocal or percussion is typically routed to the
microphone input of the vocoder. Obviously, it is also possible to send the previously
recorded audio tracks to the microphone (XLR) or audio input (line) jack of the vocoder
device. As mentioned previously, the modulator signal is initially processed by the bandpass filters and then routed to the envelope followers. On the other hand, the carrier signal
is typically created in the vocoder by using its internal waveforms via sending some note
or chord progressions data to the vocoder. It is also possible to use the signals with rich
spectral content or distorted sounds with overtones as the carrier signals as an alternative
to the reasonable synthesizer waveforms. For obtaining more intelligible vocoded output,
high frequency portion of the modulator signal can be sent to the vocoder output with a
suitable amount by critical listening. Besides, in order not to lose the effect of vocoded
sound, the gating process applied during the silent passages of the modulator signal is
recommended to be adjusted with gradual attack settings with suitable threshold levels.
The modulator signal may also be routed to a compressor before entering the vocoder to
prevent volume fluctuations which may happen during the live microphone input or may
exist in the previously recorded audio. Another recommendation might be to mix the
unprocessed (dry) modulator signal with the vocoded signal in reasonable amounts to
increase the intelligibility of the vocoded sound further.
While the hardware vocoders have still a common usage among the musicians and
producers, software plug-in versions are also quite popular nowadays. The vocoder plugin is typically attached to an audio track, which is used as a modulator input, as an insert
effect. Audio track is usually composed of some speeches and/or percussion content which
are the typical modulator input signals for the vocoder sound. On the other hand a MIDI
track featuring some note/chord progression information is added for generating the
carrier signal which uses the built-in waveforms of the vocoder plug-in. In order to trigger
the internal waveforms of the vocoder with the note/chord data, output of the MIDI track
is sent to the vocoder plug-in in a Digital Audio Workstation (DAW) environment. Such a
vocoder setup is shown in Figure 4.
Figure 4 Vocoder setup in a DAW
Note/chord progression information is played back from the MIDI track. On the other hand
it is also possible to route the output of a MIDI device to the input of the MIDI track in a
live setup.
ATMM 2013 PROCEEDINGS
33
CONCLUSION
Being one of the most popular signal processors, vocoders are still widely used in today’s
music, game and cinema productions. Experimenting with the presets and tweaking the
aforementioned parameters with some knowledge is usually the key aspect to obtain
unique vocoded sounds.
References
Rose, Jay. Audio Postproduction for Film and Video. Burlington: Elsevier, 2009. Print.
Korg Inc., microKORG XL Synthesizer/Vocoder Owner’s Manual. Tokyo: Korg Inc, 2008.
Print."
ALIASING IN AUDIO AND SOLUTION APPROACHES
Abstract
Aliasing is an unwanted side effect when sampling analog signals if the sampling rate is
not adequate for covering the complete bandwidth or conversely the signal to be sampled
has a wider bandwidth for a given sampling rate.
In this paper, the aliasing phenomenon is discussed in detail and the necessary techniques
used for eliminating the spurious signals formed as a result of aliasing are overviewed.
The simplest rule of thumb for sampling a continuous signal is to set the sampling
frequency at least twice as much as the highest frequency component appearing in the
signal. This is known as the Nyquist Criteria and the highest frequency allowed is the
Nyquist Frequency which is half the sampling frequency. The criteria is the condition used
for the lossless recovery of the signal when converted to analog from digital form. In
practice, analog signals are digitized using analog-to-digital converts (ADC) by sampling,
quantizing and encoding the signal successively, and are reproduced by digital-to-analog
converters (DAC) using a reconstruction or anti-imaging filter. ADCs usually come with
one or more sampling rate options for the user depending on the application area and
specific needs. Any given sampling rate specifies the maximum allowable frequency that
can be reproduced correctly without any disturbance by the aforementioned Nyquist limit.
The so-called Anti-Aliasing Filter structure is widely used for taking care of the aliasing
phenomenon occurring in audio applications as well as in other areas requiring sampling
process for that matter.
NYQUIST THEOREM
Nyquist Theorem, also known as the Sampling Theorem, states that if any continuous
signal with the highest frequency f is sampled with a sampling rate greater than or equal
to 2f then it can be reconstructed completely from its samples. In this relation, the highest
frequency allowed in the signal, which is f, is called the Nyquist frequency and the
corresponding double value 2f is the Nyquist Rate or Sampling Rate. A typical frequency
distribution for a continuous signal is given in Figure-1 below.
ATMM 2013 PROCEEDINGS
35
Figure 1 A Typical Frequency Spectrum
It must be noted that the bandwidth of the signal is the frequency span from 0 Hz to f Hz.
So, according to the Nyquist Theorem the sampling rate must be at least twice the signal
bandwidth. Nyquist Criterion is the first condition to be taken into account when sampling
analog signals without any problem. As is discussed below, the Nyquist Criterion doesn’t
always guarantee a problem free sampling process all the time. For this, the mechanism
for ADC and DAC must be well understood first.
Before further discussing the ADC and DAC facts, it would be helpful to look closer
into the Nyquist Criterion stated by the theorem. The interdepence between the highest
allowable frequency component and the sampling rate implies that at least one of these
factors must be controllable to obey the criterion. That is, either the highest allowable
frequency component in the analog signal should be controllable by some filtering
mechanism or it is necessary to control the sampling rate to handle the uncontrollable
highest frequency. This further means that, depending on the application, we either have
the choice of determining the frequency content of the signal to be sampled or the choice
of adjusting the sampling rate accordingly. In practice, sampling operation is usually a part
of the sound card or the audio interface functionality with some of the preset sampling
rate options, ranging from 44.1 kHz up to 192 kHz. In a majority of cases, however, this
vast array of sampling options may not be available at all. In that case, controlling the
bandwidth of the analog signal may seem a more obvious choice thanks to a simple Low
Pass Filter structure. Both choices, however, can be used to create the necessary condition
to obey the Nyquist Criterion. Violation of this criterion results in the so-called aliasing
effect further discussed below. The Low Pass Filter structure for bandlimiting the given
signal is called as Anti-Aliasing Filter.
ALIASING
Aliasing phenomenon occurs due to the frequencies that exceed the Nyquist limit by being
reflected back to the frequency region below the limit. The main reason for such a
mirroring effect is the wrong sampling of the high frequencies during digitization process.
If the signal spectrum is visualized as two separate pages with the Nyquist frequeny being
in the middle, then aliasing can be thought of as folding the right page onto the left one.
The folded frequencies from right to the left are usually not harmonically related to the
existing ones on the left or lower part. This usually leads to unpleasant enharmonic tones
to be formed as a result of the aliasing phenomenon.
Frequencies appearing below the Nyquist frequency are actually wrong frequencies
or are formed at wrong positions due to the insuffiency of the sampling rate. Such aliased
frequencies are unpleasant as long as they fall into the audible region. However, for high
sampling rates like 192 kHz the Nyquist frequency will accordingly be high as well. In such
cases, some of the alias frequencies can be well above the hearing limit, namely 20 kHz.
Such inaudible alias frequencies can create intermodulation effect on audio systems, that
indirectly becomes an audible artifact again. The two page analogy mentioned above can
be used to visualize the function of the anti-alias filter. What anti-alias filter does is to clear
out the right page and the associated frequencies above the Nyquist limit on that page
such that any folding of the emptied right page onto the left one doesn’t create any aliasing.
One practical limitation here is that all filters have a finite slope or roll off value so that
they can’t immediately start filtering out frequencies right above the cut off. This means
some leakage of the frequencies above the cut off value. For this reason, cut off frequency
is usually set to a lower value than the Nyquist limit, usually 5% less than the limit such
that filtering starts below the limit and compensates for the post-filtering leakage.
One important question that can be asked is whether the frequencies above the
limit are allowed to be sampled or the sampling rate itself is insufficient for these higher
frequency components for a given case. Actually, both are valid questions and the answer
is highly dependent on which factor is controllable. If the sampling rate choices offered by
the ADC are not high enough for the input signal, then using an anti-aliasing filter to control
the signal spectrum is the logical choice. If, for whatever reason, the spectrum is not
controllable or not wanted to be altered then increasing the sampling rate is the only
choice.
It must be noted using an anti-aliasing filter that is set roughly to half of the
sampling rate eliminates the problematic high frequencies, but also slightly alters the
spectral behavior of the input analog signal. That is, there is a compromise between the
signal characteristics and the alias-free sampling. Another concern here is that the antialiasing filter has no control over the rest of the digitization process. In other words, any
high frequency component that has already been filtered out by the LPF and should not
appear in the digitization process after the filter may still be present due to some other
controllable and uncontrollable factors. The most dominant factor that may lead to such
a problem is allowing higher analog signal levels that can be tolerated by the digitization
stage. It must be noted that although the filtered version of the signal has no problematic
high frequencies its amplitude may still create problem during digitization. Every ADC
has a certain amplitude limit below which it can flawlessly convert analog signal into
digital form. If the LPF cutoff is misadjusted not taking into account the filter slope, it may
also leak some high frequencies after the filtering action. So, it still seems possible to face
ATMM 2013 PROCEEDINGS
37
with higher frequencies than the ADC can handle even with the use of the anti-aliasing
filter precaution. Similar to the anti-aliasing filter application before the digitization
process, there is also a filter structure employed after the DAC stage. It is again an LPF and
has the same filter cut off frequency as the former. It is called a reconstruction or antiimaging filter. The reason for using such an LPF is to filter out the unwanted high
frequencies or image frequencies resultant of the analog-digital conversion process. It
must be noted that such frequencies are different from the alias frequencies that appear
either due to misadjustment of the anti-aliasing filter’s cutoff frequency or high input signal
levels and are direct result of the sampling process which is equivalent to some form of
amplitude modulation.
SAMPLING AS AMPLITUDE MODULATION
How sampling creates such image frequencies or side bands is seen in Figure-2. Image
frequencies must definitely be filtered out to be able to get audio band output analog
signals. Otherwise, as stated earlier, frequencies above the hearing limit may not directly
result in an unpleasant hearing experience, but may indirectly create problems due to
intermodulation distortion phenomenon when considering nonlinear amplifiers or
speakers. For this reason, reconstruction filters are as important as anti-imaging filters
when digitizing analog signals and then obtaining analog format again.
In Figure-2, sampling frequency is chosen to be 48 kHz for simplicity and the Nyquist
frequency limit is obviously 24 kHz, both of which are shown as solid lines. The dashed
line at 35 kHz represents a leaked frequency component due to overloaded ADC and is
subject to sampling. Otherwise, 35 kHz can easily be filtered out by the anti-aliasing filter.
The amplitude modulation process which is sampling here creates two side bands around
sampling rate 48 kHz, one being at 48+35=83 kHz and the other one at 48-35=13 kHz. It
must be noted that 35 kHz component is above 24 kHz, so the Nyquist limit is exceeded
and the criteria is violated. The result is an image as an aliased frequency component
appearing at 13 kHz which is within the hearing limits. The other image at 83 kHz is well
above the hearing limit, but still exists. As can easily be guessed, 13 kHz alias image can’t
be filtered out with the reconstruction filter having 24 kHz or similar cutoff, but the 83
kHz component is handled by the filter.
Figure 2 Sampling as Amplitude Modulation and Aliasing Effect
CONCLUSION
If the sampling rate can’t be adapted to high frequencies within the analog signal, then it
is obvious that the input signal can be filtered with an anti-aliasing filter prior to the
sampling operation. In this case, carefully adjusting the level of the signal to be sampled
such that no new harmonics are excited post filtering then it can be sampled without any
unexpected alias frequencies. It must also be stressed that the filter cutoff frequency
should be slightly lower than the Nyquist limit so that any filter slope issues can be
compensated for.
References
Bruno A. Olshausen. "Aliasing", PSC 129-Sensory Processes, 2000. PDF File.
Dunn Julian. "Anti-Alias and Anti-Image Filtering" Nanophon Limited, Cambridge, UK, 1998.
Wikipedia contributors. "Aliasing." Wikipedia, The Free Encyclopedia. Wikipedia, The Free
Encyclopedia, 17 Nov. 2013. Web. 6 Dec. 2013."
ATMM 2013 PROCEEDINGS
39
A GENERATIVE SYNTHESIS DRUM MACHINE MODEL IN MAX MSP
Abstract
This paper presents an interactive rhythm synthesis system implemented in Max MSP. The
user is expected to record four two-second samples of audio into buffer. These sound
samples are to be used as the voices of the instrument in order to be fine-tuned and saved
into presets at the end of the process if desired. The system aims for instant interaction
and the user is encouraged to explore the sonic environment he/she is in or has access to.
Once the samples are ready, the user can generate rhythmic sounds in the determined
BPM, play variations through the pattern generator and play tempo variations via the
tempo modulation modules. The system model presented is built with four voices yet it is
modular and can be expanded to cover a wider range of voices and irregular meter
generation.
1) Introduction
Drum machines and rhythmic sound processors are common practices of sound synthesis
devices, often presented as MIDI instruments. These devices offer pre-programmed
rhythmic patterns, they can create patterns via generative synthesis and/or they are
programmable through the MIDI protocol. Most of these devices offer hundreds of presets
that comprise sound samples and pre-programmed rhythm patterns either to simulate
acoustic percussion instruments or to play rhythmic electronic sounds. However, this type
of conventional approach may prevent the user/musician to get into instant interaction
with the musical instrument hence the musical idea. It also produces a question of
authenticity since commercial electronic music instruments are available to a wide range
of musicians. The aim of the new model of generative synthesis approach presented in this
paper is to reveal the possibilities of environmental acoustic data (or available digital audio
media) and how these sounds can be played analogous to tapping a rhythm with hands
and fingers (Jylha et al. 37).
2) The system architecture
The core of the system contains four voices that use computer buffer to playback audio
data. Each voice of the instrument is designed as a tape machine. The sound is played once
with every hit to the play button. Playing in half speed results in half the pitch (drops the
sound an octave lower), doubling the play speed transposes up an octave. An ADSR
envelope is provided within the module to control the percussive articulation of each voice
if desired.
,
Figure 1 A single sample player of the system
The sound samples are either recorded acoustically via a specified input chain or read
from disk, into the buffer. It is possible to use previous two-second recordings or any other
music media available. Once a voice is triggered, the digital audio samples in the buffer
are read in the determined duration hence the pitch (Cipriani and Giri 95). Waveform
displays for each voice are provided in the user interface in order to visualize the audio
data and present opportunities for interaction. During the adjustment phase of the voices,
it is possible to trigger the desired voice via specified key input for feedback before moving
on to the generative synthesis phase.
ATMM 2013 PROCEEDINGS
41
2.1 Generative synthesis modules
After setting the voices and BPM, then user clicks the start button to initiate generative
synthesis. The first rhythm played is set to by default a simple duple 4/4 meter. Once the
pattern generator is activated the generative synthesis starts and rhythms are produced
in various types of simple / compound and duple / triple meters. The algorithm presents
two different types of pattern generators, and three modes for them to operate in.
The first type of pattern generation randomizes the timing of each voice by
multiplying the time interval of the default 4th note value by two, four, six or eight.
Therefore random patterns are generated every measure of the determined BPM. It is
possible to adjust tempo in real time during pattern generation. The second type of pattern
generation randomizes the initial time interval by either keeping the current value,
dividing it by two or multiplying it by two or four. Due to this bi-polar approach to
randomization, it is possible for this experimental type to produce non-musical rhythms
since some of the voices may play faster than a 64th note while the others may be playing
slower than 4th notes.
The rate of change of meters at this point is determined by the modes of the pattern
generation. Mode one’s frequency is equal to the BPM of the actual rhythm, so a new
pattern emerges once in every measure. Mode two keeps same, doubles or halves the BPM
of the pattern generation in every beat of the global tempo. Mode three takes the BPM
value from global tempo too, yet the value is updated by the random values of double or
half times generated. This states that the patterns generated complete at least one measure
before proceeding to a new variation.
Figure 2 Pattern generator algorithm
Another generative synthesis algorithm is provided to manipulate the tempo continuously.
The module can generate a series of random tempo modulations in the form of doubles
and halves. This algorithm has two modes. Mode one is synched to the global tempo, it is
possible to set the tempo manipulation frequency to whole number multiples or divisions
of the global tempo. Mode two is synch free; the rate of tempo manipulation is determined
manually.
Figure 3 Tempo modulation algorithm
ATMM 2013 PROCEEDINGS
43
An additional option enables the two algorithms of pattern generation and tempo
manipulation to be fed into each other. When this feature is enabled, the global tempo
display in the interface is updated every time tempo manipulation occurs. When the global
tempo is updated, if mode one of the tempo manipulation algorithm is active, the frequency
of the selected synced mode is updated. This results in a new frequency of tempo
manipulation and the updated tempo updates the synced mode again, hence a loop is
formed. This option can produce endless possibilities without any interaction from the
user.
2.2 Time Domain Processing Matrix
The matrix provided comprises volume faders with level meters and pan pots of each voice
for mixing in stereo. A master fader sets the master level to the desired output level. There
are sends from each voice to the effect layers such as delay lines. A stereo 1000-msec delay
is provided for each voice with delay time values synced to the global tempo in order to
punctuate certain patterns in the dry rhythm section (Farnell 68). Manual delay time entry
is possible if the user desires sync free operation. It is possible to mute these sends or set
their levels. The relation between the left and the right channels of the stereo panorama
for each voice can be adjusted with rhythmic or synch free input as well. During
improvisation, the user can interact with the matrix to form nuances of composition.
2.3 User interaction model
The intended user interaction model for this software generative rhythm synthesizer
primarily focuses on the issue of the instance of interaction hence the realization of musical
idea (Bolter and Gromala 133). The secondary concern is the individualization of the
instrument. By encouraging awareness to acoustic data or transformation of the sounds
in our digital media library, the voices of the instrument are determined by the user. This
feature may be considered a disadvantage yet it presents the opportunity to work
creatively and think musically. In resemblance to musical acoustic instruments, it requires
time and effort to come up with pleasing sounds and when this is achieved, the result is
unique (Ariza 56).
The user starts the interaction by recording four sounds using the built in
microphone of the computer or via another specified input chain into the buffer. It is also
possible to read audio data from disk or read previously recorded samples. Then the user
selects the portions of audio via the waveform displays, sets the pitch & play duration and
determines the ADSR envelope for percussive articulation if needed. During this operation
it is possible to hear the sounds via specified keyboard input. After completion of this
process for all the voices the user sets the BPM and clicks the start button to start the initial
rhythm (a basic 4/4 duple meter). This first rhythm presents an appropriate moment to
adjust the level faders and pan pots of the voices. Once the user selects and activates one
of the modes of pattern generation, the generative synthesis starts. At this moment it is
up to the user to leave the generative synthesis on and improvise with the modes or to
stop the generative synthesis at certain moments. When this action is done, the last rhythm
generated keeps on playing so that the user can interact to discover various possibilities.
If tempo manipulation is desired, the user can activate the algorithm either in synced mode
or with manual time entry. When both generative synthesis algorithms are active, endless
patterns emerge continuously. At any moment during operation, the user can adjust the
global BPM manually to set it into an appropriate range in accordance with the rhythmic
structure being generated. When two algorithms are fed into each other, the global tempo
is updated automatically. The user can also improvise with delay sends of the voices;
synced and manual delay times in order to punctuate patterns.
3) Conclusion
Further possibilities of the system present the implementation of Java interfaces for the
use of randomized procedures via interactive visual simulation algorithms. Similar
generative synthesis algorithms driving the parameters of the time domain processing
matrix can contribute to the creation of sonic soundscapes.
References
Ariza, Christopher. "The Interrogator as Critic: The Turing Test and the Evaluation of
Generative Music Systems." Computer Music Journal 33.2 (2009): 48-70. Print.
Bolter, Jay David, and Diane Gromala. Windows and Mirrors: Interaction Design, Digital Art
and the Myth of Transparency. Cambridge: The MIT Press, 2003. Print.
Cipriani, Alessandro, and Murizio Giri. Electronic Music and Sound Design: Theory and
Practice with Max/MSP – Volume 1. Rome: Contemponet, 2010. Print
Farnell, Andy. Designing Sound. Cambridge: MIT Press, 2010. Print
Jylhä, Antti, Inger Ekman, Cumhur Erkut, and Koray Tahiroğlu. "Design and Evaluation of
Human–Computer Rhythmic Interaction in a Tutoring System." Computer Music Journal
35.2 (2011): 36-48. Print.
ATMM 2013 PROCEEDINGS
45
A SYSTEM FOR MATCHING THE TUNING IN A RECORDING
Abstract
This paper presents a new tuner system implemented in Java. The main difference from
existing tuners is the use of one or more recordings as reference instead of theoretical
presets. The target here is to help the musician to tune her instrument as in one or more
given recordings. For that purpose, first, the fundamental frequency analysis is performed
for the given recordings. Then, pitch distributions are obtained and matched to get an
overall distribution plot. Finally, on the main display panel of the tuner, the real-time
frequency estimate from the input signal is plotted together with the pitch distribution.
The musician adjusts her instrument to match the frequency estimate of the input signal
with a peak of the histogram to perform the tuning operation.
1) Introduction
Musical instrument tuners are widely used devices or software that help the musicians
adjust the tuning of musical instruments to match a given theoretical preset such as a 12Tet (tone equal temperament), Pythagorean tuning, etc. For some instruments (for
example the wind instrument family), tuning refers to adjustment of a single tone
frequency since the hole positions are fixed on the instrument. In string instruments
however, multiple strings need to be tuned. One extreme example is the Turkish
instrument kanun which has 24 to 26 triplets of strings hence a large number of strings
need to be tuned. In addition, in various folk music traditions, many string instruments
use movable frets (the Turkish folk instrument, baglama, is one example). For this case,
one may need or would like to tune all the possible tones with respect to a reference, to
adjust fret locations.
Until recently, handheld tuning devices were among the popular electronic devices
in the music technology market. The literature on musical tuners mainly contains patents
on hand-held electronic devices. Today, consumers are more and more inclined towards
preferring software tuners that run on smartphones or other multipurpose computing
machines.
Conventional tuners designed for 12 TET (tone equal temperament) find limited
use within the context of various folk music traditions due to use of non-standard tonescale systems. In such context, there is also the danger that conventional tuners induce
changes in the traditional tuning system (causing a shift towards the 12 TET system) since
no other technology is available to help the musicians. We have to be aware that use of
technology dedicated to a specific standardized music theory may be a threat to the local
music cultures if culture specific technologies are not available.
In many folk music traditions, tuning choices vary with respect to the master
musicians or the local culture and may not necessarily fit to a specific tuning theory. For
tuning in such a setting, the main source of the tuning information, or the main reference,
is the recording of a master musician. A system that uses recordings as reference for tuning
operation is needed.
In this work, we propose a software tuner system that accepts one or more
recordings provided by the user and perform an automatic analysis to create a reference
for the tuning operation. The user then adjusts her instrument to match the tuning in the
recording with the help of the tuner interface. The output of the analysis part is a text file
containing the reference information and can be shared among users of the tuner. The
work proposed here is an alternative implementation to (Bozkurt 1). In that work,
automatic stable segment detection and loop creation were used to create the references
from the audio signal and fundamental frequency estimation was avoided by using a
frequency comparison algorithm (without actually measuring the frequency). The method
described here does not include any of the mentioned steps and is based on a pitch
histogram representation.
2) The system architecture
The tuner system proposed in this work contains two parts. The first part is for analysis
of the given recordings to form the reference information. The second part is the user
interface/ display (implemented in Java) which presents real-time visualization for the
actual tuning operation. Once the first part performs an analysis of the recording(s), the
results/references are saved and analysis does not need to be redone next time the tuner
is operated. These references obtained from authentic recordings are considered as
presets of the tuner system. After the analysis of a recording is performed, the data can be
stored and shared as a preset so that it can be reloaded with ease. This feature presents
the possibility of a large library of authentic tuning presets.
2.1 Recording analysis part
For a given recording, first, frequency analysis is performed for each 10 msec.
window/frame using YIN (de Cheveigne and Kawahara 17), a popular fundamental
frequency detection algorithm. In the second step, pitch histograms are obtained for each
recording as explained in (Bozkurt 43) with a resolution of 159 bins per octave. Since the
diapason may vary in a traditional music context, it is advantageous to represent the pitch
information as interval information (with respect to tonic). The tonic detection can be
performed automatically (Salamon, Gulati and Serra 499) or manually, depending on the
specific music culture.
In Figure 1, we present an example pitch interval histogram computed from Tanburi
Cemil Bey's Çeçen Kızı recording (in makam Hüseyni). The tonic (automatically found
using the makam information) is indicated as 0 on the x-axis. As seen from Figure 1, all
histogram peaks do not match the vertical lines (which correspond to the 12-Tet presets).
ATMM 2013 PROCEEDINGS
47
Figure 1 Pitch histogram of Tanburi Cemil Bey's Çeçen Kızı recording [1].
Vertical lines indicate 12-Tet tones
This histogram is saved in a text file as the reference. If desired, the peaks of the histogram
could be detected to automatically estimate interval sizes. In our tuning system, this is not
necessary since the histogram plot itself is sufficient for visual feedback as explained in
the next section. If more than one recording is given, pitch histograms are matched using
cross-correlation (Bozkurt 43) and an overall pitch histogram is obtained by averaging
histograms.
2.2 User display for tuning
The user display part of the microtonal tuning software acquires musical data from the
analysis part and displays the authentic intervals along with the live input from the user.
The system has been implemented in Java. Once the software is run, a file browser dialog
appears so that the user can select the analysis data obtained from the desired recording.
The histogram is a text file containing the frequencies with corresponding frequency of
occurrences as a data matrix.
Once the file is selected, the algorithm detects the file path in disk and assigns the
data in the analysis file to two string arrays. The contents of the row and column arrays
are stored in a two-dimensional float number matrix. In order to identify the peak values
of the histogram, the second column values are sorted and assigned to another float array.
On user request, the histogram can be smoothed to get rid of spurious peaks.
The histogram is displayed with the default 30 frame rate within the looping draw
function. A two-dimensional iteration scans and matches each value of the matrix and
these points are connected with lines to visualize the histogram. Another task that runs
during the two-dimensional iteration is the detection of the corresponding frequency
values of the sorted array's largest values. By this data, the algorithm suggests the peak
values by highlighting them with circles. This provides visual feedback during the tuning
operation.
The software uses the Minim Audio class (Di Fede, "Minim") to analyze real time
audio input and synthesize pure tones for the peak frequencies. A forward fft (Fast Fourier
Transform) operation is performed on the audio input buffer to detect the frequency
partial with the highest amplitude. Autocorrelation and salience function methods are
used in order to estimate the fundamental frequency. The input frequency estimate
acquired is displayed as a vertical red line that moves horizontally on the histogram
display. The location of the line is calibrated so that it matches the frequency axis of the
histogram, hence the tuning operation can be achieved by vertically aligning the input
frequency with the peaks in the histogram. During the interaction, the user is provided
with visual feedback as the vertical tuning cursor's color switches to green every time
alignment with a histogram peak is achieved.
For the sake of better interaction as well as efficient input data analysis, the tuning
cursor's movement is smoothed out with an easing factor. A gain meter is provided so that
the user can adjust input microphone level if it is too weak or strong. It is possible to click
on the peaks in the histogram and synthesize pure tones if the user prefers to tune by ear
to the analyzed frequencies without the aid of the real-time frequency input display. Once
a preset is loaded and the histogram is visualized, the tonic is displayed at its original
frequency. If the user wants to transpose to a certain register in order to match her
instrument, it is possible to transpose the display to the desired range via specified key
input. Figure 2 displays the tuner interface during tuning operation. The analysis data of
Tanburi Cemil Bey's Çeçen Kızı recording is loaded as a preset and the smoothed pitch
histogram option is selected by the user.
Figure 1 Tuner display
3) Conclusion
In this paper we have presented a novel musical instrument tuner that is specifically
designed for folk music traditions. While the first tests with the authors' instruments are
satisfactory, we should mention here that no testing has been yet performed and this is
among our future goals.
Acknowledgments
This work was funded in part by the European Research Council under the European
Union's Seventh Framework Programme (FP7/2007-2013) / ERC grant agreement
267583 (CompMusic).
ATMM 2013 PROCEEDINGS
References
49
de Cheveigne, Alain, and Hideki Kawahara. "YIN, a Fundamental Frequency Estimator for
Speech and Music." Journal of the Acoustical Society of America 111.4 (2002): 17-30. Print.
Bozkurt, Barış. "An Automatic Pitch Analysis Method for Turkish Maqam Music." Journal
of New Music Research 37.1 (2008): 1–13. Print.
Bozkurt, Barış. "A System for Tuning Instruments using Recorded Music Instead of TheoryBased Frequency Presets." Computer Music Journal 36.3 (2012): 43–56. Print.
Cemil Bey, Tanburi. Traditional Crossroads, Re-mastered from the Orfeon 10498 original 78
RPM record, 1910–1914. Orfeon, 1994. CD.
Di Fede, Damien. Code Compartmental. Kokoromi Collective, Nov. 2009. Web. 10 June 2013.
<http://code.compartmental.net/tools/minim/>.
Salamon, Justin, Sankalp Gulati and Xavier Serra. ISMIR 2012, Porto: A multi-pitch approach
to tonic identification in Indian classical music. Porto: FEUP Edições, 2012. Print.
PAPERS IN TURKISH
ATMM 2013 PROCEEDINGS
51
MüzİK TEKNOLOjİSİ EğITİMİNDE TüRKİYE’DEKI DEVLET
üNİVERSİTELERİNDE UYGULANAN MODELLER üzERİNE BİR
İNCELEME
Abstract
Music technology education at the govermental universities in Turkey gives different
outcome results. Their education models and student acceptance criterias differ from each
other. Music technology education is a new concept for the Higher Education System in
Turkey. Within these facts, Music technology education programs and student acceptance
criterias and prequesities show difference from university to university. In this paper, pros
and cons of this education models will be reviewed by the author.
özet
Türkiye'deki devlet üniversitelerinde müzik teknolojisi eğitimi, birbirinden farklı eğitim
modelleri ve öğrenci seçiminde uygulanan kriterler bağlamında birbirinden farklı sonuçlar
doğurmaktadır. Ayrıca müzik teknolojisi eğitimi, Yükseköğretim Kurumu tarafından yeni
yeni tanınmaya başlanan bir eğitim modeli olmaya başlamıştır. Bu olgular göz önüne
alındığında, Türkiye'deki devlet üniversitelerinde müzik teknolojisi alanında eğitim
vermeye başlayan ilgili kurumlarda gelişen yapısal dokularda ve öğrenci seçimi
kriterlerinde uygulanan yöntemler, çeşitli sonuçlar doğurmuştur. Bu çalışmada, bu
sonuçların artıları ve eksileri masaya yatırılacaktır.
1 - Aile Geçmişi ve Teknoloji İlişkisi
Babam Mustafa Kâmi Acim, Elektrik Meslek Lisesini bitirdikten sonra Türkiye Radyo ve
Televizyon Kurumu (TRT) Ankara Radyosu ve ardından İstanbul Radyosunda çalışmış ve
aynı kurumdan emekli olmuş bir kişidir. Ayrıca, İstanbul'da ilk ses kayıt stüdyolarından
biri olan Stüdyo Elektronik adını taşıyan özel ses kayıt stüdyosunu kurmuştur. Burada
amcam Sıtkı Acim'i tonmeister olarak yetiştirmiş ve kendisini ses kayıt camiasına
kazandırmıştır. Amcam Sıtkı Acim, daha sonra kurulan ve Arı Yapım başlığını taşıyan ses
kayıt stüdyosuna geçmiştir ve ardından Stüdyo Elektronik başlığını taşıyan ses kayıt
stüdyosu kapanmıştır.
Stüdyo Elektronik faaliyette iken ben de Şişli Ortaokuluna gitmekte idim. Okul
çıkışında stüdyoya gider ve kayıtları izlerdim. Bu stüdyodaki kayıtlarına şahit olduğum
isimleri hatırladığım kadarıyla sıralamak isterim: Garo Mafyan, Onno Tunç, Cezmi
Başeğmez, Neşet Ruacan, Timur Selçuk, Modern Folk Üçlüsü, Erol Büyükburç, Metin
Özülkü, Şerif Yüzbaşıoğlu ve Şenay Yüzbaşıoğlu, Aydın Esen (Şerif Yüzbaşıoğlu'ndan piyano
ve kompozisyon dersleri alırken), Neco, İskender Doğan, Nükhet Duru. Şahit olmadığım
ama kayıt yaptıklarını bildiğim isimler ise hatırladığım kadarıyla şöyle idi: Behiye Aksoy,
MFÖ ("Heyecanlı" parçasının kaydını yapmıştı), Barış Manço (Dağlar Dağlar parçasının
kaydını yapmıştı).
Stüdyo Elektronik'in kapanmasından sonra buradaki cihazların çoğunu babam eve
getirmişti. Ben de o sırada 4 Kanallı Makara Teyp, 24 Kanallı Mikser gibi aygıtlarla evde
kayıt denemeleri yapmakta idim. Babam evinde hali hazırda Atari Commodore 64 cihazı
üzerinde, Cubase 1.0 yazılımını floppy disket ile çalıştırmaya devam etmektedir.
1978 yılında Mimar Sinan Güzel Sanatlar Üniversitesi Devlet Konservatuvarına (o
zamanki adıyla İstanbul Devlet Konservatuvarı) girmemle birlikte akademik sanatçılık
yolundaki ilk adımları attım ve bugünlere geldik.
1998 - 2002 yılları arasında çalıştığım Yıldız Teknik Üniversitesi Sanat ve Tasarım
Fakültesinin kurucu üyelerinden birisi olarak, bu fakültenin Müzik ve Sahne Sanatları
Bölümünde Yardımcı Doçent olarak çalışırken bir yandan da buradaki ilk ses kayıt
stüdyosunun kuruluşuna da öncülük ettim.
Daha sonra, 2004 - 2007 tarihleri arasında, yine kurucu üyesi olduğum İnönü
Üniversitesi Güzel Sanatlar ve Tasarım Fakültesindeki ses kayıt stüdyosunun kurulmasında
ve ardından yine aynı birimde Midi laboratuvarının kurulmasına öncülük ettim. İnönü
Üniversitesi, Güzel Sanatlar ve Tasarım Fakültesi, Müzik Bölümü, Müzik Teknolojisi
Anabilim Dalının 2004 - 2005 Eğitim Öğretim Yılındaki ilk öğrencilerini seçme sürecinde,
bir yandan Dekan Yardımcılığı görevini üstlenirken bir yandan da müzik teknolojisi adayı
seçimi sürecinde belki de ilk kez olarak, adaylara sesi teknolojik boyutu ile algılamalarını
ölçen sesli sorular sorduk. Daha sonra adayların, sesi müziksel olarak ne denli doğru olarak
algıladıklarını ölçen bilindik sınavı uyguladık. Daha sonra Güzel Sanatlar ve Tasarım
Fakültesi Müzik Bölümü Müzik Teknolojisi Anabilim Dalına Yrd. Doç. Dr. Arda Eden'in
gelmesiyle bu birimimiz son derece güçlü bir hale gelmiş bulunmaktadır.
Ayrıca, besteci olarak kendime ait bir küçük ev stüdyosunda Behringer Analog
Mixer, MAC Mini Bilgisayar, Ensoniq TS-12 Keyboard, Native Instruments Audio Kontrol 1
Ses Kartı gibi cihazları; Logic Pro, Cubase LE AI Elements 7, Audacity gibi yazılımları
kulllanmaya devam ediyorum.
2 - Müzik Teknolojisi Kavramı Hakkında
Müzik teknolojisi terimi ve kavramı, ülkemizdeki devlet üniversiteleri ve vakıf
üniversitelerinin geçmişi göz önüne alındığında ve de bu üniversitelerden bazılarında
sanat, müzik gibi kavramların farklı değerlendirmelere tutulduğu düşünüldüğünde, ilk
algılamada bireyde hafif bir sersemleme ve algıda bulanıklık etkisi yaratmaktadır. Çünkü,
bugüne değin müziğin icracılık, bestecilik, orkestra şefliği ve hatta müzikoloji/müzik bilimi
gibi alt alanları konusunda bir bilgi ve fikir sahibi olanların müzik ile teknoloji
kavramlarının birleşiminde ilk anda akıllarına "bilgisayar ile müzik arasındaki bir ilişkiden
bahsediliyor olsa gerek!!!" şeklinde bir düşünce gelmesinden daha doğal bir sonucun
olamayacağı düşünülebilir.
Müziğin teknoloji ile birleşmesinde elbette bilgisayar yazılımları önemli bir yer
tutar. Ancak, 1983 yılı civarında müziksel elektronik tuşlu çalgılarla bilgisayarlar
arasındaki iletişimi sağlayan MIDI standardının yeni bir olgu olarak ortaya çıkmasından
sonra başlayan macera günümüzde çok farklı sonuçlara ulaşmıştır. Ayrıca, müzik ve
elektrik arasındaki ilişki karşımıza analog terimini, sonrasında da müzik ve bilgisayar
arasındaki ilişki ise karşımıza digital terimini çıkarmıştır. Yani müzik teknolojisi terimi
içinde müzisyenlik ile birlikte elektrik, elektronik gibi mühendislik çekirdeğini de
barındırır. Bu açıdan, bu alanda eğitim alacak olan kişilerin müziğin temel bilgileri ve
becerilerine sahip olmalarının yanı sıra, bir elektrik mühendisinin sahip olması gereken
ATMM 2013 PROCEEDINGS
53
bilginin en azından bir kısmına sahip olması gerekir. Bu da sayısal düşünme beceri ve
zekâsına sahip olunması gerekliliğini bir zorunluluk olarak karşımıza çıkartacaktır.
3 - Müzik Teknolojisi Eğitimi Veren Devlet üniversiteleri
- Yıldız Teknik Üniversitesi Sanat ve Tasarım Fakültesi Müzik ve Sahne Sanatları
Bölümü, Duysal (Ses) Sanatlar Tasarımı Anabilim Dalı, Müzik Teknolojisi dalı
- Dokuz Eylül Üniversitesi Güzel Sanatlar Fakültesi Müzik Bilimleri Bölümü, Müzik
Teknolojisi Anabilim Dalı
- Cumhuriyet Üniversitesi Güzel Sanatlar Fakültesi Müzik Bölümü, Müzik
Teknolojisi Anabilim Dalı
- İnönü Üniversitesi Güzel Sanatlar ve Tasarım Fakültesi Müzik Bölümü, Müzik
Teknolojisi Anabilim Dalı
4 - Müzik Teknolojisi Alanı - özel Yetenek Sınavları Yapısı
4.1 Yıldız Teknik Üniversitesi Sanat ve Tasarım Fakültesi Müzik ve Sahne Sanatları Bölümü,
Duysal (Ses) Sanatlar Tasarımı Anabilim Dalı, Müzik Teknolojisi dalına öğrenci seçiminde
öncelikle baraj niteliğinde bir Duyum Düzeyi sınavı yapılmaktadır. Bu barajı geçen ve ikinci
aşamaya girmeye hak kazanan adaylara Müzik Teknolojisi dalı alanında bir dosya sunumu
yapması istenmekte ve ayrıca kendileriyle bir mülakat yapılmaktadır. Sınav kılavuzunda
yazılan açıklamayı görelim:
Adayların başvurdukları müzik teknolojileri dalı kapsamında eğitimi yapılacak
teknik konulara olan ilgisi ve yatkınlığını yansıtan ve kendi tasarlayarak ürettiği
çalışmalardan oluşan (kayıt, miks, ses tasarımı ve/veya aranje içeren) hem audio
hem de bir adet WAV formatındaki CD kaydını, müzik teknolojisi kavramını
tanımladığı ve verdiği CD'deki içeriğe ait açıklamaların olduğu bir A4 sayfası
tutarındaki metin çalışmasını ve konuya ilişkin bilgi ve kişisel çalışmalarının
dökümünün yer aldığı bir dosyayı beş nüsha halinde sınav jürisine sunmak.
Yukarıdaki açıklamadan da anlaşılacağı gibi, adayın müzik teknolojisi eğitimi almaya hazır
bulunuşlukları ölçülmektedir.
4.2 Dokuz Eylül Üniversitesi Güzel Sanatlar Fakültesi Müzik Bilimleri Bölümü, Müzik
Teknolojisi Anabilim Dalına öğrenci seçiminde ise dört aşamalı bir sınav yapılmaktadır.
a) Birinci Aşama: Müziksel İşitme Sınavı,
b) İkinci Aşama: Mesleki İşitme Sınavı, (Kılavuz metninde "Bu sınavda kaydedilmiş
örneklerden yola çıkarak adayın tını ayrıştırma ve ses karşılaştırma becerisi ölçülür."
ibaresi bulunmaktadır.)
c) Üçüncü Aşama: Test Sınavı, (Kılavuz metninde
60 dk. sürecek bu sınavda adayın müzik teknolojisine yönelik genel kültür, mantık ve
bilgisinin ölçülmesi amaçlanmıştır. Sınavda ağırlıklı olarak mesleki genel kültür, sektörel
yaklaşıma yönelik ayrıştırma ve bilgi becerisi, detay donanım-yazılım bilgisi, dört işleme
dayalı temel matematik hesaplamaları vb. konuları içeren sorular sorulur.
açıklaması yapılmıştır.)
d) Dördüncü Aşama: Mülakat Sınavı, (Kılavuz metninde
Burada adaylar tek tek görüşmeye alınır ve adayın müzik teknolojisine yönelik eğilimi
sorgulanır. Bu aşamada aday, eğer varsa, geçmişte yaptığı çalışmaları herhangi bir medya
aracılığı ile (CD, DVD, HDD, Flash vb.) sunabilir ve 2dk. süre ile sınırlı tutulacak çalgı
ve/veya vokal performansını gösterebilir.
ifadesi yer almaktadır.
4.3 Cumhuriyet Üniversitesi Güzel Sanatlar Fakültesi Müzik Bölümü, Müzik Teknolojisi
Anabilim Dalına öğrenci almak için yapılan sınavda müzik teknolojisi ile ilgili neler
sorulduğuna dair bir bilgiye ulaşılamamıştır.
4.4 İnönü Üniversitesi Güzel Sanatlar ve Tasarım Fakültesi Müzik Bölümü, Müzik Teknolojisi
Anabilim Dalına öğrenci seçiminde müzik teknolojisine başvuran öğrencilere yönelik
olarak hazırlanmış bulunan ve yirmi sorudan oluşan bir yazılı test sınavı yapılmakta ve
sonrasında ise müziksel algılama sınavı yapılmaktadır.
5. Müzik Teknolojisi Anabilim Dalı/Dalı Eğitim Programları
Müzik teknolojisi alanında eğitim veren devlet üniversitelerinde sekiz yarıyıllık
programlara ulaşmaya çalıştığımızda genel olarak Müzik Teknolojisine Giriş, Ses Tasarımı,
Elektronik Bilgisi, Akustik gibi temel teorik derslerin yanı sıra birbiri arasında başlıklar
bakımından farklılık gösteren; ama özünde birimlerdeki ses kayıt stüdyolarında öğrencinin
çeşitli kayıt projeleri oluşturmalarına olanak sağlayan dersler olduğunu görmekteyiz. Ders
programlarını detaylarıyla incelemek ve aralarında karşılaştırma yapmak, başka bir bildiri
konusu olacak kadar geniş bir araştırma alanıdır.
6. özel Eğitim Kurumları
Google üzerinde müzik teknolojisi kursları yazarak yapılan bir aramada karşımıza 3.310
sonuç çıktı ("Müzik Teknolojisi Kursları"). Bunlar arasında birbirinden farklı geçmişe,
birikime ve tecrübeye sahip ve ağırlıklı olarak İstanbul ve kısmen de Ankara ve İzmir
merkezli sonuçlara ulaştık. Yaptığımız bir göz gezdirme sonucunda web sayfalarına kurs
içeriklerini detaylı bir şekilde ekleyen veya üstünkörü bilgiler veren ağ bağlantılarıyla
karşılaştık. Elbette, özel sektör diyebileceğimiz bu yapıda, müzik teknolojisi alanı ciddi bir
ilgi uyandırabilmektedir.
7. Dünyadan İki örnek
Amerika Birleşik Devletleri denildiğine elbette insanların akıllarına ilk gelen yerlerden
birisi doğal olarak Boston, Berklee College of Music adresi olacaktır. Burada Music
Production and Engineering başlığını taşıyan bir dal bulunmaktadır ("Music Production
and Engineering"). Bu okula öğrenci seçimi sırasında on beş dakikalık bir audition yani
özdinleti olarak dilimize çevirebileceğimiz, adayın bir çalgıda becerisini göstereceği bir
parçayı çalmasını, çalgıda doğaçlama yapabilme becerisini sergilemesini, bir deşifre
yapmasını, müziksel işitme becerisini sergilemesini istemektedirler. Daha sonra
kendileriyle bir mülakat yapılmaktadır.
ATMM 2013 PROCEEDINGS
55
Amerika Birleşik Devletleri'ndeki önemli üniversitelerden biri de Indiana University
Jacobs School of Music başlığını taşıyan birimdir. Recording Arts başlığını taşıyan dal, müzik
teknolojisi alanında eğitim almak isteyenlerin başvuracağı bir alandır. Bu dala başvurmak
için birim öğrenci adaylarından portfolio denilen bir dosya istemektedir. Bu dosyada aday
özgeçmişinin yanı sıra bu alanla ilgili yapmış olduğu çalışmalarını sergilemesini
istemektedir. Domestic, international, internal ve visiting gibi farklı kategorilerde başvuru
türlerinin yanı sıra eğitim seviyesi olarak undergraduate, graduate ve domestic kategorisi
içinde transfer başlığını taşıyan türler bulunmaktadır. Başvuru sırasında adaydan birinci
aşamada Recorded Audition adında eğer icracılık alanından başvuruyorsa kaydedilmiş kısa
bir dinleti istenmektedir. Bu kişiler arasından uygun bulunanlar interview denilen
mülakata çağrılmaktadır.
Recording Arts Department ("Jacobs School of Music – Recording Arts
Department"), geniş bir donanım ve akademik kadroya sahiptir. 1982 yılında kurulan bu
bölümde ders programları ilk iki yılda daha çok teorik alanda yürüdükten sonra geri kalan
iki yılda da öğrencilerin stüdyo ortamında çeşitli kayıtlar yapmasına, DAW (Digital Audio
Workstation) uygulamaları üzerinde çalışmalarına olanak tanıyacak şekilde
yapılandırılmıştır. Kayıt projeleri giderek önem kazanmaktadır. Burada verilen eğitim
öğrencileri mezuniyet sonrası karşılaşacakları ortamlara hazırlayacak şekilde
biçimlendirici bir felsefe izlemektedir. Bu birimde dört konser salonundaki ses kayıt
stüdyoları, iki adet Pro Tools yapım odası, bir adet çok kanallı stüdyo ve bir adet elektronik
laboratuvarı şeklinde oluşturulmuş bir donanımsal yapı içinde eğitim verilmektedir.
Verilen konserlerin kaydını öğrenciler ders projeleri olarak gerçekleştirmektedir.
8. Müzik Teknolojisi öğrencileri için Mesleki İngilizce Dersi
Malatya İnönü Üniversitesi Güzel Sanatlar ve Tasarım Fakültesinin 2003 yılında başlayan
kuruluş sürecinde yer alan bir öğretim üyesi olarak, bu alanda ilk ve tek örnek oluşturan
bir dersi hayata geçirmiş bulunmaktayım. Bu dersi 2008 yılından beri aynı birimde
vermekteyim.
Mesleki İngilizce kavramı son on yılda giderek gelişen bir kavram olmuş
bulunmaktadır. Size Global Vizyon başlığını taşıyan bir firmanın web sayfası adresini örnek
olarak vermek istiyorum ("Mesleki İngilizce Kursları").
Bu sayfaya göz atarsanız Mühendisler için İngilizce, Doktorlar için İngilizce, Pilotlar
için İngilizce gibi alt başlıklarda eğitimler verilmekte olduğu görebilirsiniz. Bazı
üniversitelerimizin mühendislik fakültelerinde de benzer adı taşıyan derslerin verilmekte
olduğunu biliyorum.
Ben de müzik teknolojisi alanında eğitim alanların bu alandaki terimlerin
anlamlarını, kullanım örneklerini anlayarak, çözümleyerek ve bilinçli bir şekilde cihazları
ve yazılımları kullanmalarını sağlayacak kültürlenme hedefli bir amaçla böyle bir dersi
oluşturdum. Dersin ilk döneminde Müzik Teorisi alt alanındaki terminolojiyi; ikinci
dönemde ise ses mikserleri, kompressörler, effect processor gibi analog donanımlarda
karşılarına çıkan terminolojiyi ve Finale, Sibelius, Cubase, Pro Tools ve Logic gibi
yazılımlardaki terminolojiyi işliyorum. Bu dersten faydalananlar olduğu gibi zorlananlar
da oluyor. Çünkü, İngilizce alt yapısı belirli bir seviyeye ulaşamamış öğrencilerle bu
anlamda bir çalışma yapmanın ne denli zor olabileceği tahmin edilebilir.
Ülkemizde müzik teknolojisi alanındaki Türkçe kaynak kitapların oluşturulmasında
Ufuk Önen ve Teoman Pasinlioğlu'nun çalışmaları önemli bir yer tutmaktadır. Bunun
dışında Serhat Durmaz'ın MIDI kitabının dışında başka bir örnek hatırlamakta
zorlanıyorum. Ben, kendi ders notları web sayfamda (Acim, "Prof. Server Acim Ders Notları
– 2013") "Elektronik Müzik Tarihi" başlığını taşıyan bir PDF belgesini hazırladım ve
öğrencilerimin kullanımına sundum (Acim, "Elektronik Müzik Tarihi – Ders Notu"). Ancak,
müzik teknolojisi öğrencilerinin eğitimleri boyunca ve eğer mezuniyet sonrası da bu
mesleği sürdürmek gibi bir niyetleri varsa faydalanabilecekleri kaynakların çok büyük bir
çoğunluğu İngilizce dilinde yazılmış kitaplar, cihaz el kitapları (Manuals), yazılım el
kitapları (Quick Start, User Manual ve benzeri...) gibi materyallerden oluşmaktadır. Bu
kaynakların ciddi olarak taranması ve hatta iyice özümsenmeye çalışılması gerekliliği bu
eğitimin idealist öğrenci profiline uyan bir hayal gibi gözükse de, dünyada bu alanda eğitim
veren okulların çoğunda benzer yönlendirmeler yapılmaktadır. Benim bu dersi
oluşturmaktaki amacım da, öğrencilerin bu kaynakları ideal seviyede olmasa da, biraz
gayret göstererek temel dokuyu çözümleyebilecek seviyeye ulaşmalarını sağlayacak
ipuçlarını vermeye çalışmaktır. Sanırım, müzik temel alanı altındaki Müzik Teknolojisi
Öğrencileri İçin Mesleki İngilizce dersi kendi türünde tek örnek olmaya bir süre daha devam
edecek. Bu alandaki bilgi ve tecrübelerim ışığında bir kitap oluşturma fikrini taşımaktayım.
Umarım bu amacımı gerçekleştirecek zamanı bulabilirim.
9. Eleştiriler ve öneriler
Bu çalışmamızın dördüncü bölümünde yaptığımız dökümde müzik teknolojisi alanında
eğitim veren devlet üniversitelerinde yapılan Özel Yetenek Sınavları içinde en kapsamlı ve
doğru çizgideki sınavın Dokuz Eylül Üniversitesi Güzel Sanatlar Fakültesi Müzik Bilimleri
Bölümü, Müzik Teknolojisi Anabilim Dalında yapılmakta olduğunu söyleyebiliriz. Ayrıca,
bu birimin eğitim programında da son derece mantıklı bir pedagojik bir planlama
yapılmıştır. İlk iki yıl, öğrenciler bir müzisyenin sahip olması gereken temel kazanımları
edinip, sonraki iki yılda ise müzik teknolojisi ağırlığını taşıyan dersler almakta ve ders
projeleri gerçekleştirmektedirler.
İkinci sırada Yıldız Teknik Üniversitesi Sanat ve Tasarım Fakültesi Müzik ve Sahne
Sanatları Bölümü, Duysal (Ses) Sanatlar Tasarımı Anabilim Dalı, Müzik Teknolojisi dalı yer
almaktadır. Buradaki öğrenci seçimi ve dersler de alanın gerektiği yapıya uygun bir model
oluşturmuştur.
Üçüncü sırada ise benim de ders verdiğim İnönü Üniversitesi Güzel Sanatlar ve
Tasarım Fakültesi Müzik Bölümü, Müzik Teknolojisi Anabilim Dalında yapılan Genel Kültür
Müzik Teknolojisi Alanı Yazılı Test Sınavı olduğunu söyleyebiliriz. Bu testin on sorusu Genel
Müzik Kültürü olup sonraki on sorusu müzik teknolojisi alanı ile ilgilidir. Ve bu yazılı testin
genel puana etkisi yüzde yirmidir.
Bu sınavdaki öğrenci seçimi kriterleri ile ilgili endişelerimi şöyle
sıralayabilirim:
Adayın bilgisayar okuryazarı olup olmadığı ile ilgili hiç bir ölçüm
yapılmamaktadır.
Öğrenci olduğunda alacağı derslerde matematiksel bazı formüller ile
karşılaşacaktır. Aday buna hazır mıdır?
Müzik Teknolojisi Anabilim Dalına başvuran adayın ÖSYS sınavının sayısal
puanının 140'tan daha fazla olması gerekir. Bu alanda eğitim alacak kişinin
sayısal zekâ açısından belirli bir seviyede olması gerekmektedir.
ATMM 2013 PROCEEDINGS
-
57
Yukarıda belirttiğim kriterlerin tam olarak gerçekleşerek öğrenci seçimi
yapılması durumunda, 15 kişilik kontenjanın tam olarak dolamayabileceği
endişesi taşınıyor olması ne kadar doğrudur?
Eğitim sürecinde, İngilizce okuryazarlık seviyesi yeterli olmayan, sayısal
zekâsı yerlerde sürünen öğrenciye örneğin Akustik dersindeki bilgileri
vermeye başladığınızda ve Pro Tools, Cubase gibi yazılımları kullanamayan
öğrenciden ses kaydı projesi istediğinizde, tüm bunları başarımının nasıl
bir seviyede olabileceğini tahmin etmek zor olmasa gerektir.
10. Performans Kriterleri, Bologna Süreçleri ve Gerçekler!
Üniversitelerin söylemlerinde eğitimde kalite, mezuniyet sonrası öğrencilerle ilişkiler
alumni gibi yaldızlı ifadeler kullanılmasına rağmen Bologna Süreci ile ilişkili performans
kriterleri gibi ölçümlerde mezunların alanları ile ilgili işlere yerleşip yerleşmedikleri gibi
sorgulamalar yapılmaktadır. Ancak, müzik teknolojisinden mezun olmuş bulunan
öğrenciler çoğunlukla T.C. Milli Eğitim Bakanlığına bağlı bir okulda müzik öğretmeni olarak
çalışabilmek için pedagojik formasyonlarını tamamladıktan ve KPSS sınavına girdikten
sonra çoğunlukla müzik öğretmeni olarak atanmaktadır.
Bu sorunu çözmek için öncelikle öğrenci seçimimizdeki eksiklerimizi gidermemiz
ve kontenjanı doldurmakla ilgili zorunluluğu gündemden kaldırmamız gerekmektedir.
Ayrıca, müzik teknolojisi alanında eğitim verilen bölge insanının, bu eğitime karşı hazır
bulunuşluk ve isteklilik verilerini değerlendirip ona göre bazı kararlar almak yoluna
gidilmesi gerekmektedir.
Yukarıdaki paragrafların sonlarına doğru bahsetmiş olduğum gerçekler İnönü
Üniversitesi Güzel Sanatlar ve Tasarım Fakültesi Müzik Bölümü, Müzik Teknolojisi Anabilim
Dalını kapsayan eleştirilerdir. Bu eleştirileri okuyan kişilerin yazılanları "duygusal" bir
çerçevede değil, "akılcı" bir çerçevede değerlendirmeleri gerekmektedir. Ancak,
Türkiye'nin herhangi bir devlet üniversitesinin herhangi bir Güzel Sanatlar Fakültesi
içindeki Müzik Bölümünde Müzik Teknolojisi Anabilim Dalı oluşturulması düşünüldüğü
takdirde, bu karara varma yetkisine sahip olan kişilerin aşağıdaki paragrafta sıralayacağım
kriterleri çok "gerçekçi, ayağı yere basan" bir yapıda gözden geçirmeleri gerekmektedir.
Bu bölgenin öğrenci profili, müzik teknolojisi eğitimine kaynaklık edecek
olan kitapların büyük oranda İngilizce olduğu göz önüne alınarak, bu
kitapları okuyup anlayabilecek oranda İngilizce okuryazarlığı seviyesinde
midir?
Verilecek olan derslerde (Akustik, Elektronik Bilgisi ve benzeri...) öğrenciler
bu dersleri kavrayacak sayısal zekâ seviyesine ulaşabilmişler midir? Öğrenci
seçiminde bu seviyenin varlığını değerlendiren ölçümler yapılmakta mıdır?
Öğrencilerin mezuniyet sonrasında, müzik teknolojisi alanında ihtiyaç
duyulan bir iş kolunda (TRT, özel TV veya radyolar, özel ses kayıt stüdyoları,
devlet veya özel kuruluşların konser salonlarında ses sorumlusu gibi ve
benzeri) bir yerde çalışma durumlarını izleyen bir yapı kurulmuş mudur?
Yukarıda maddeler haline sıralanan kriterler (ön gereklilikler) müzik teknolojisi eğitimi
vereceğini iddia eden bir birimin dikkate alması gereken değerlerdir. Özel Yetenek
Sınavlarının yukarıdaki kriterler göz önüne alınarak yapılması sonucunda kontenjanın
planlanan sayının altında olması, bölüm başkanı ve dekan gibi üst yöneticilerin kendi
üstündeki yöneticiye bu durumu gerçekçi ve bilimsel bir üslup içerisinde anlatması
sonucunda birim amirinin ikna olup olmamasına göre, eğitim farklı çıktılara ulaşacaktır.
Kontenjanın doldurulması konusunda ısrarlı olunması durumunda, eğitim sürecinde dersi
veren öğretim elemanları büyük sıkıntılar yaşayacaklar ve mezuniyet çıktı sonuçları
yetersiz olacaktır. Aksi durumda ise, gerçekten müzik teknolojisi alanında eğitim almak
isteyen öğrenciler ile bu profile sahip öğrencilere iştahlı bir şekilde ders veren öğretim
elemanlarının eğitim sürecini karşılıklı olarak başarıyla tamamlamaları sonucunda
mezuniyet çıktıları ve mezuniyet sonrası çıktıların daha başarılı sonuçlar doğuracağına
tanık olunacaktır.
Kaynakça
Acim, Server. "Prof. Server Acim Ders Notları – 2013." 22 Ağustos 2013. Web.
< http://dersnotlari.acim.name.tr/php/ana.php>
Acim, Server. "Elektronik Müzik Tarihi – Ders Notu." Şubat 2012. Web.
< http://acim.name.tr/yenidersnotlari/emt/EMT_Ders_Notu.pdf>
"Jacobs School of Music – Recording Arts Department." music.indiana.edu. n.p., n.d. Web.
<http://www.music.indiana.edu/departments/academic/recording-arts/index.shtml>
"Mesleki İngilizce Kursları." Global Vizyon. n.p., 01 Mart 2012. Web.
<http://www.globalvizyon.com/3023-mesleki-ingilizce-kurslari.aspx>
"Müzik Teknolojisi Kursları." Google. Google Search. Web.
<http://www.google.com/search?q=m%C3%BCzik+teknolojisi+kurslar%C4%B1#bav=
on.2,or.r_qf.&ei=Xo4OUpqmHuiz4AS5rIGQDg&fp=270fdecd85578733&q=m%C3%BCzi
k+teknolojisi+kurslar%C4%B1&sa=N&start=0>
"Music Production and Engineering." Berklee. n.p., n.d. Web.
<http://www.berklee.edu/mpe>
"The Steinberg History." Steinberg. n.p., n.d. Web.
<http://www.steinberg.net/en/company/aboutsteinberg.html>
ATMM 2013 PROCEEDINGS
59
MİKROTONAL PERDELERİN MIDI İLE SESLENDİRİLMESİ: BİR
MAX/MSP ÇALIŞMASI
Abstract
MIDI which has a very important place in relation to music with Computer today supports
only tonal music and is available for use only with tampare curtain system. Therefore, for
the Turkish authorities' microtonal compositions of many scenes MIDI system and
microtonal pitch systems adapted for use with Digital Audio Workstation's is not possible.
In this study, microtonal pitch voicing with MIDI and Digital Audio Workstation
software to be used in Max / MSP-based microtonal programmed MIDI interface is
discussed. MIDI interface, MIDI Channel Voice messages generated algorithm used in the
programming, presentation, and how to use the basic issues such as the adequacy of
microtonal voicing curtains constitute the content of our research.
özet
Bilgisayar ile müzik ilişkisi içinde çok önemli bir yere sahip olan MIDI günümüzde sadece
tampare perde sistemini kullanan tonal müzik için kullanılabilir durumdadır. Dolayısıyla,
Türk makam müziğinin de içinde bulunduğu pek çok mikrotonal perde sisteminin MIDI'ye
uyarlanması ve mikrotonal perde sistemlerinin "Digital Audio Workstation"lar ile
kullanılması mümkün değildir.
Araştırmamızda mikrotonal perdelerin MIDI ile seslendirilmesi ve Digital Audio
Workstation yazılımı içinde kullanılabilmesine yönelik Max/MSP tabanlı bir mikrotonal
MIDI arayüzü programladık. MIDI arayüzünün programlanmasında kullanılan MIDI
Channel Voice mesajlarıyla oluşturulan algoritma, MIDI arayüzünün sunumu, mikrotonal
perdeleri seslendirmekteki yeterliliği ve nasıl kullanılacağı gibi temel konular
araştırmamızın içeriğini oluşturur.
Giriş
MIDI, gerek donanım ve yazılım desteği, gerekse müziğin temel dinamiklerini karşılama
becerisi ile özellikle bilgisayar destekli müzik üretim pratiği içinde büyük önem taşır.
Ancak, Türk müziğinde kullanılan çeşitli makamsal yapıların MIDI içinde kullanımı ya da
MIDI'nin ve MIDI network üzerinden adreslenen sanal enstrümanlarla seslendirme
olanaklarının Türk makam müziği icraları içinde kullanımına yönelik literatürdeki bilimsel
çalışmalar kısıtlıdır. Hatta Türk makam müziği dışında genel anlamda mikrotonal olarak
ifade edilebilecek tuning yapılarının MIDI ile kullanılması, MIDI ile seslendirilmesi ile ilgili
bilimsel çalışmalar da yok denecek kadar azdır. Bunun temel nedeni, değişime uygun
olmayan MIDI tuning yapısıdır.
Genel anlamda mikrotonal tuning sistemlerinin özelde Türk makam müziği tuning
sisteminin MIDI ile kullanılabilmesinin amaçlandığı ve Erciyes Üniversitesi Bilimsel
Araştırma Projeleri Birimi tarafından SBD-12-4097 kodlu proje ile desteklenen doktora
tez konumun içeriğini Max/MSP programlama diliyle oluşturulan ve MIDI arayüzüyle
kullanılan çok kanallı MIDI pitch bend mesajının yeniden programlanması oluşturur.
Doktora tezimin özeti niteliğindeki bildiri metni içinde, programlanan MIDI arayüzünün
yeterlilikleri ve sınırlılıkları, çok kanallı pitch bend mesajının algoritmik yapısı konularına
yer verildi.
MIDI ve Mikrotonalite
1983'de elektronik çalgılar arasında iletişimi sağlamak için ortak bir dil olarak tasarlanan
MIDI, sayısal mimarisi gereği bilgisayar yazılımlarına kolaylıkla adapte olacak yapıdadır.
Perde, gürlük, ritim gibi müziğin temel dinamikleri, stacato, legato, portamento gibi çalış
teknikleri ve daha birçok müzikal nüansı çeşitli MIDI mesajları ile ifade etmek mümkündür.
MIDI mesajlarının sayısal kodlar halinde derlenmesi, midi formatıyla kaydedilmesi ve
küçük boyutundan dolayı paylaşılabilir olması özellikle bilgisayar yazılımları içinde MIDI
ye olan ilgiliyi artırır. Nota yazım ve aranjman programlarının, MIDI mesajlarını, müzikal
semboller şeklinde sunması ile müzisyen, aklındaki ezgiyi birçok MIDI çalgısıyla
seslendirebilme, çok kanallı çalışabilme, istediği ritmik değişimi yaparak dinleyebilme
fırsatı bulur.
Cep telefonları ve bilgisayar oyunlarına da adapte edilen MIDI mimarisi kuşkusuz
en büyük ilgiyi Cubase, Logic, Protools gibi "Digital Audio Workstation"ların (DAW)
gelişmesiyle birlikte görür. "Synthesizer"ların, sanal çalgıların, sampler, looper gibi "plugin" lerin birlikte kullanılabildiği DAW yazılımları da MIDI mimarisi ve MIDI network ile
şekillenir. DAW yazılımları içindeki "MIDI editör"de yazılan ezgi gerçeğine çok yakın sanal
enstrümanlarla, çeşitli ses bankalarıyla ya da "synthesizer"ların sentetik tınılarıyla
seslendirilebilir.
Ancak, günümüz müzik üretim pratikleri içinde bu derecede önem taşıyan bir
anlamda bilgisayar tabanlı müziğin olmazsa olmazı olan MIDI, sadece tampare perde
sistemi üzerine kurulu tonal müzik için kullanılabilir durumdadır. Bir oktavı 12 eşit
parçaya bölen tampare perde sisteminin yarım aralığından daha küçük aralık birimlerini
kullanan ve 53 parçalı Türk makam müziği perde sisteminin de içinde bulunduğu
mikrotonal perde sistemlerinin MIDI ile kullanılabilmesi ve General MIDI (GM)
enstrümanları ile seslendirilmesi, "MIDI specification"ın güncellenmesi ya da MIDI
mesajlarının yeniden programlanması ile mümkündür.
MIDI protokolünün iletişim mimarisini belirleyen MIDI specification 1.0 sürümünü
takip eden version 95.2 ve 96.1 sürümleriyle eklenen MIDI system exclusive mesajı ve
MIDI tuning standart güncellemesi (MIDI Manufacturers Association, 1995) ile MIDI,
mikrotonal seslendirme için uygun hale getirilmiş olsa da system exclusive mesajı MIDI
network üzerinde tanınan bir kanal mesajı olmaması ve MIDI Manufacturers Association
(MMA) tarafından belirlenen Device ID bilgisine ihtiyaç duymasından dolayı sadece özel
amaçlar için üretilmiş "Keyboard Workstation"lar için kullanılabilir durumdadır. Bu
nedenle MIDI system exclusive mesajının kullanıldığı "Workstation Keyboard"lardan
alınacak veri bilgisi DAW yazılımları içinde herhangi bir anlam taşımaz ve MIDI Network
üzerinde taşınabilen bir veri türü değildir. Benzer bir şekilde MIDI Tuning Standart halen
DAW yazılımları içinde standart haline gelebilmiş kabul gören bir güncelleme olmamıştır.
Dolayısıyla "MIDI Tuning Standart"ı kullanan bir takım müzik yazılımlarında (özellikle
ATMM 2013 PROCEEDINGS
61
nota yazım programları) mikrotonal aralık birimleri seslendirilebilirken bu yazılımlardan
alınacak çıktılar DAW yazılımları içinde kullanıldığında tanımlandırılamayan MIDI Tuning
Standart verileri değerlendirme dışında tutulacak ve mikrotonal aralıklar DAW yazılımı
içinde seslendirilemeyecektir.
Literatüre bakıldığında mikrotonal perdelerin MIDI ile seslendirilmesine yönelik
en ilgi çekici çalışma tuş üzerindeki basınç farklılıklarını algılayan Aftertouch mesajının
kullanılmasıdır (Moussa). Keyboard tuşları üzerinde yapılan dikey basınç değişimiyle
tuning değişimi yaratılmış olsa da her seferinde aynı basınç değişimini yaratmak keyboard
kullanıcısı için bir takım çalış problemleri yaratacaktır. Bu nedenle özellikle uygulama
alanında pratik bir çözüm değildir.
MIDI perdelerindeki tuning değişimi ve MIDI network için en uygun kanal mesajı
pitch bend mesajıdır. Gitar tekniğinde kullanılan bend hareketini (telin parmakla
kaldırılması) taklit eder. Pitch bend mesajı mikrotonal perdelerin seslendirilmesi için
kullanılsa da tuning değişimi için uygun değildir. Tek bir MIDI kanal içinde yapılacak tuning
değişimi, aynı kanal içindeki diğer MIDI perdelerini de etkiler. Birden fazla mikrotonal
perdenin seslendirilmesi için pitch bend tekerleğinin kullanılması ses de sürekli kayma
etkisi (glisando) yaratacağından, bu durum tuning entenasyonu için uygun değildir. Kayma
etkisinin önlenmesi için her mikrotonal perde için farklı bir MIDI kanal seçilmelidir. Ancak,
çok kanallı MIDI pitch bend mesajının kullanılması sistem üzerinde aşırı veri yüküne sebep
olur ve MIDI network üzerinde veri kayıplarıyla sonuçlanır (Keislar). Bunun temel nedeni,
pitch bend tekerleği ile tetiklenerek oluşan pitch bend mesajının continuous control
özellikli olmasıdır. Çünkü, pitch bend tekerleğiyle yapılacak her hareket sisteme sürekli
olarak veri akışı sağlar. "MIDI network üzerinden yapılan data iletişimi (MIDI Bandwith)
saniyede 31.250 'bit'tir" (Collins 47). Pitch bend tekerleğinin her bir hareketi start, "stop
bit"leri, Most Significiant Bit (MSB), Least Significiant Bit (LSB) ve kanal numarasıyla
birlikte sisteme yaklaşık 30 bitlik veri gönderir ve 30 "bit"lik veri 960 mikrosaniyede
iletilir. Dolayısıyla farklı MIDI kanal numarasıyla birlikte pitch bend tekerleğinin sürekli
kullanımı MIDI network üzerindeki veri yükünün artmasına sebep olur ve bu durum
sistemi aşırı zorlar, gecikmelere ve iletişim kopmalarına sebep olur. Max/MSP'den alınan
örnekte pitch bend tekerleğinin hareketiyle oluşan continuous control özellikli veri yapısı
(Şekil 1) ve MIDI arayüzünün kullanımı ile oluşturulan switch control özellikli veri yapısı
(Şekil 2) karşılaştırıldığında veri miktarı arasındaki fark rahatlıkla görülür.
Şekil 2 Pitch Bend Switch Control
Şekil 1 Pitch Bend Continuous Control
Çok kanallı pitch bend mesajının mikrotonal perdelerin seslendirilmesinde
kullanılabilmesi için kontrol yapısının continuous özelliği çıkartılarak switch özelliği
kazandırılmalıdır. Araştırmamızın temel algoritması bu yöntem üzerine kuruludur: Bu
sayede pitch bend tekerleği ile kullanıldığında MIDI network üzerinde yük oluşturan
continuous control özelliği yerine hazırlanan MIDI arayüzü ile nokta atışı diyebileceğimiz
switch özelliği kazandırılmış olur. Bunun için 1983'de MIDI specification 1.0, amacımız
olan çok kanallı MIDI "pitch bend"e switch özelliği kazandırılarak yeniden programlandı.
MIDI Arayüzü
1983'de bir protokol olarak kabul edilmesinden bu yana çok küçük güncelemeler dışında
hiçbir değişiklik yapılmamış olan MIDI, sayısal mimarisi gereği farklı amaçlar için
programlanabilmektedir. Biz araştırmamızda özellikle ses ve MIDI programlama
konusunda uzmanlaşmış, gelişmiş arayüz objelerine sahip, grafiksel tabanlı Max/MSP
programlama dilini kullandık. MIDI keyboard ile sistem arasında çalışabilen bir arayüz
programladık. Bu arayüz "MIDI keyboard"tan –ya da herhangi bir MIDI enstrümandangelen tampare perde sistemine ait verileri, Türk makam müziğinde kullanılan mikrotonal
perde verilerine dönüştürebilir, mikrotonal sent değerlerini General MIDI
enstrümanlarıyla seslendirebilir ve midi formatında çıktı verebilir özelliktedir.
ATMM 2013 PROCEEDINGS
63
Şekil 3 Mikrotonal MIDI Arayüzü
MIDI arayüzünün veri tabanını hüseyni, neva, uşşak, rast, hicaz, humayun, uzzal, karcığar,
suzinak ve kürdi makamlarının çeşitli derecelerinde kullanılan mikrotonal perdelerin sent
değerleri oluşturur. Mikrotonal sent değerlerinin belirlenmesinde Türk makam müziği
kuramında (Arel-Ezgi-Uzdilek Kuramı) belirlenen sent değerlerinden ve kanun ve tanbur
icracılarının uygulama sent değerlerinden yararlanıldı. İcracılardan elde edilen uygulama
sent değerleri Melodyne Single Track yazılımıyla yapılan analiz sonuçlarından elde edildi.
Analiz edilen icracıların isimleri ve karşılık gelen sent değerleri hazırladığımız MIDI arayüz
üzerinde kullanıcıya seçenek olarak sunuldu. Bu sayede arayüz kullanıcısı, belirlediği
makam için kullanacağı mikrotonal perde için alternatif sent değeri ile seslendirme imkânı
bulur. Bununla birlikte mikrotonal perdenin sent değeri kullanıcı tarafından da
değiştirilebilir özelliktedir. Kuram ve uygulama sent değerleri dışında kullanıcı kendi
belirleyeceği sent değerini arayüz penceresinde atayabilir.
Seslendirme sürecinde GM sound fontu içindeki 113 farklı enstrüman, sıra
numarası ve ismiyle birlikte belirlenebilir. 113 enstrüman, Piano, Organ, Guitar, Bass,
String, Ensemble, Brass, Reed, Pipe, Synth Leed, Synth Pad, Synth Effect, Ethnic
gruplarından oluşur. Bu sayede belirlenen makamlar yukarıdaki enstrümanlarla
seslendirilebilir. MIDI arayüzünde transpoze yapmak mümkündür: 12 kromatik adımdan
herhangi biri ile transpoze yapılarak seslendirme yapılabildiği gibi istenildiğinde
mikrotonal perdeler anlık değişimlerle tampare perde sistemine geri dönebilir. Bu sayede
makamın seyri içinde mikrotonal perdelerden natürel perdelere hızlı bir biçimde geçiş
yapılır.
MIDI arayüzünde pitch bend tekerleğinin kullanımı mümkündür. Türk makam
müziğinde en küçük aralık 22.64 sentlik koma birimlerinden oluştuğundan pitch bend
tekerleğinin çözünürlüğü koma değerlerine göre değiştirildi. Bu sayede pitch bend
tekerleğinin alt ve üst sınırı 1 koma, 2 koma olarak sınırlandırılarak Türk makam müziği
seyrinde kullanılabilecek geçici mikrotonal perdelerin seslendirilmesi için daha uygun
hale getirildi.
MIDI arayüzünde kullanıcıya geri bildirimde bulunan objeler bulunur. Bu sayede
kullanıcı MIDI keyboard üzerinde kullandığı tuşun sent değerini, 7 bitlik pitch bend
değerini ve velocity değerini gerçek zamanlı olarak kontrol eder. Aynı zamanda transport
bölümüyle bütün seslendirme süreci çok kanallı pitch bend bilgisiyle birlikte midi ya da
text formatında kaydedilebilir, dosyadan çağırılabilir ve tekrar seslendirebilir. Arayüzden
alınacak midi çıktısı DAW yazılımı içine çağrıldığında kullanılan mikrotonal perde sayısı
kadar MIDI kanalı açılarak DAW yazılımı içindeki sanal enstrümanlarla seslendirilebilir.
Hüseyni (Çeçen kızı), uşşak (Telgrafın Telleri), rast (Nakış Beste) ve karcığar (Bu Kış Hanım
İstanbul'a Taşında) makamlarından seçilen eserlerin MIDI arayüzü kullanılarak DAW
(Logic Pro 9. 1. 2) yazılımıyla seslendirilmesinde MIDI network üzerinde aşırı yük oluşumu
ve sistem zorlanmasıyla karşılaşılmadı
Sonuç
Mikrotonal perdelerin MIDI ile seslendirilmesini sağlayan ve hem Windows hem de
MacosX işletim sisteminde standalone çalışan bir MIDI arayüzü programladık. Makamın
yapısına göre en fazla dört farklı MIDI kanal numarası kullanılsa da mikrotonal perde
değerlerinin pitch bend mesajıyla seslendirilmesi, sistemde kopmaya sebep olmaz. Bu
noktasıyla "pitch bend"in switch özellikli kullanımı mikrotonal perdelerin MIDI ile
seslendirilmesinin mümkün olduğunu gösterir. Harici MIDI enstrüman ve denetleyicileri
ile kullanıldığında mikrotonal perdeler gerçek zamanlı olarak GM sound fontunun 113
çalgısıyla seslendirilmekle birlikte, midi dosya formatıyla çıktı alınabilir.
MIDI arayüz üzerinde değerlendirilen veriler sanal MIDI network üzerinden DAW
yazılımlarına gönderilebilmekle birlikte mikrotonal perdeler yalnızca DAW yazılımı
içindeki pitch bend desteği olan "sound"larla seslendirildi. MIDI arayüz, mikrotonal perde
verileriyle derlenmiş midi dosya çıktısı verebildiğinden mikrotonal perdelerin DAW
yazılımları ve nota yazım programları ile kullanımı uygundur. Araştırmamız, gelecekte
mikrotonal perdelerin MIDI ile seslendirilmesi ve DAW yazılımları içinde kullanılmasına
yönelik benzer çalışmalar için çok kanallı pitch bend mesajının kullanılabilir olduğunu
kanıtlar.
Kaynakça
Collins, Nick. Introduction to Computer Music. United Kingdom: John Wiley & Sons Ltd,
2010. Print.
Keislar, Douglas. "History and Principles of Microtonal Keyboards." Computer Music Journal
11.1 (1987): 18-28. Print.
MIDI Manufacturers Association. MIDI 1.0 Detailed Specification. New York: Document
Version 4.2, 1995. Print.
Moussa, Ahmet Shawky. "A Dynamic Microtunable MIDI System: Problems and Solutions."
Proceedings of the 5th Biannual World 13.1 (2002): 339-344. Print.
ATMM 2013 PROCEEDINGS
65
REKLAM İLETİŞİMİNDE KULLANILAN MüzİK TASARIMININ HEDEF
KİTLE üzERİNDEKİ ROLü
özet
Toplumsal yaşamın bir parçası olarak incelenen ve değerlendirilen iletişim, bireylerin
yaşam süreçlerinde ihtiyaç duydukları bir kavramdır. İletişime eğitimden sağlığa, aile
yaşantısından tüketime, haber ve bilgi almadan ticari süreçlere kadar hayatın her alanında
gereksinim hissedilmektedir. Ayrıca bireyin gelişmesinde ve değişmesinde de iletişim
önemli rol oynamaktadır. Bu bağlamda gelişen teknolojiyle beraber evrende bulunan tüm
ses, söz, sembol ve işaretler iletişim bir parçası olarak karşımıza çıkmaktadır. Bu çalışma
kapsamında iletişimin ticari boyutunda önemli bir yeri olan reklam iletişiminde kullanılan
görsellik ve müzik incelenmiştir. Farklı araştırmalarla ortaya konan reklam müziklerinin
etkinliği konusunda yapılan bu betimleyici çalışma, sunulan literatür taraması ve reklamın
müzikle olan ilişkisinin, bu ilişkide önemli yeri olan reklam cıngıllarının açıklanması
üzerine kurgulanmıştır.
Giriş
Evrende mevcut olan cisim, insan, hayvan ve tüm varlıkların kendilerine has bir sese, bir
nidaya sahip oldukları şüphesizdir. İnsanlar başta olmak üzere yaratılmış tüm canlıların
temel gereksinimlerinden biri olan iletişim kurmalarını sağlayacak yol ve yöntemlerin
içerişinde ilk sırada ses/konuşma gelmektedir. Konuşma yeteneği olmayan insanlar dahi
iletişim kurmak için bir yola ve yönteme başvurmaktadır ve adına da beden dili
denmektedir. "İnsanlar konuşa konuşa, hayvanlar koklaşa koklaşa anlaşır" atasözü de
durumun gerçekliğini yansıtan bir özet niteliği taşımaktadır.
Toplumsallaşma sürecinde vazgeçilmez olan iletişim kurma ihtiyacı insanın var
olmasıyla beraber gelişen bir süreç olarak karşımıza çıkmaktadır. Temel ihtiyaçların
giderilmesinden sosyal hayatın düzenlenmesine kadar birçok anlamda iletişime duyulan
ihtiyaç tartışılmaz düzeydedir. Bilimden sanata spora kadar birçok toplumsal alanın
temelinde bulunan, doğumdan ölüme kadar olan süreyi kapsayan ve evde, okulda,
işyerinde, her türlü sosyal ortamda gerekliliği hissedilen iletişim, kişiler arası ve kitlesel
olmak üzere birçok biçimde ortaya çıkmaktadır. Ayrıca sözsüz, yazılı ve sözlü iletişim
biçimlerinde uygulamada karşılığı olan iletişim sürecinin sözlü biçimi yani konuşmaya ve
sese dayalı olan biçimi bu çalışmanın temel odağını oluşturmaktadır.
Sözlü iletişim biçiminde insanlar sesi yalnızca konuşma olarak değil tiyatral ya da
müzikal gibi farklı biçimlerde bir ahenk ve farklı bir düzen içerisinde de kullanmaktadır.
Bu düzen ve ahenk denildiğinde akla tüm sanat dallarının temel yapıtaşı olan müzik
gelmektedir. Müzik başta olmak üzere birçok sanat dalında bulunan kendilerine has
figürler iletişim sürecinin öğelerini oluşturmaktadır. Müzik, ses, görsellik gibi birçok
figürün bir arada kullanıldığı kitlesel iletişim süreçlerinden biri olan reklam, bu anlamda
incelenmeye değer bir platform olarak seçilmiştir. Temelde etkilemek, fikir, tavır ve
davranış değişikliğine yol açmak, ikna etmek ve algıyı yönetmek gibi birçok amacı olan
reklam iletişiminde kullanılan ses, müzik ve görsel figürlerin tamamı sürecin başarısını
etkilemektedir. Bu bağlamda çalışma kapsamında, iletişim, sözlü iletişim, sanat ve iletişim,
reklam ve reklamda kullanılan müzik ve ses figürlerinin önemi gibi kavramsal bazı
başlıklar tanımlanarak konuya açıklık getirilmeye çalışılmıştır.
Tanımlar
İletişim kavramı İngilizcedeki communication kelimesinin Türkçedeki karşılığı olarak
kullanılmaktadır. Kavramın kökeni olan commun incelendiğinde; odaklaşmak, ortak
kılmak kökünden türediği görülmektedir. Kavramın genel tanımı yapılacak olursa "insanlar
arasındaki her türlü bilgi, duygu ve düşünce alışverişi, bilginin ortaklaşa kullanılmasıdır"
(Işık 31). Bireyin yaşamında önemli bir role sahip olan iletişim bilginin aktarılması ve
bilgiye ulaşma noktasında gösterdiği etkinlik sayesinde toplumsallaşmanın önemli bir
parçasıdır. İletişim; insanoğlunun yaşama dair perspektifinin genişlemesine, nüfusun
artmasına, teknolojinin gelişmesine, üretimin artmasına, toplumların ve örgütlerin daha
karmaşık bir boyuta kavuşmasına paralel olarak hiç bitmeyen bir evrim süreci
yaşamaktadır (Yılmaz ve Arslan 1).
Fiske adlı düşünür de iletişimi bir insan etkinliği olarak değerlendirmektedir. Bu
anlamda iletişim, yüz ifadelerinden edebi eleştiriye kadar birçok biçimleri kapsamaktadır.
Bu nedenle Fiske, iletişim süreçlerinin tamamında disiplinler arası bir yaklaşımı gerekli
görmektedir. Her türlü iletişim göstergeler ve kodlar içermekte; göstergeleri aktarma ve
alma da toplumsal ilişkiler pratiğinde belirlenmektedir. Fiske, iletişimin kültürün
merkezinde yer aldığını bu nedenle iletişim sürecini anlamak için yapılan araştırmaların
kültür araştırmalarını da içermesi gerektiğini savunmaktadır (Yılmaz 5). Bu bağlamda,
iki birim arasındaki birbirine ilişkin mesaj alışverişi olarak tanımlanabilen iletişimin üç
temel özelliğinden söz edilebilir (Işık 32): İlk olarak; iletişimin ortaya çıkabilmesi, başka
bir ifadeyle iletişimin varlığından söz edilebilmesi için en az iki birimin mevcut olması
gerekmektedir. Buna göre; kaynak, kod, kanal (araç), mesaj, hedef kitle ve geri bildirimden
oluşan iletişim sürecinin temel unsurlarından ikisinin başka bir ifadeyle, kaynak ve alıcı
olarak ifade edilen hedef kitlenin bulunması zorunludur. İkinci olarak ise, iletişime taraf
olan birimler arasında bir ortaklık kurulması şartı bulunmaktadır. Söz konusu ortaklığın
gerçekleşebilmesi için ise mesaj alışverişinin gerçekleşmesi gerekmektedir. Üçüncü ve son
olarak ise, bu mesaj alışverişinin de birbiriyle ilişkili olması gerekmektedir.
İletişim; kaynak, kod, kanal, mesaj, hedef kitle ve feedback (geri bildirim) olarak
belirtilebilecek bir süreçten oluşmaktadır (Çakır 18-20). Kaynak: Kaynak, mesajı oluşturan
ve içeriğini belirleyen birimdir. Mesajı oluşturan kişi, küme, örgüt ya da aygıt birer
kaynaktır. Kaynak mesaj üretimine katkı sağlayan kişi ya da grubu kapsayabilir. Kaynağın
amacı, ilettiği mesajın alıcı, başka bir ifadeyle hedef kitle tarafından anlaşılması ve
etkilenmesidir. Kod: Kod, mesajın işaret haline dönüşmesinde kullanılan simgeler ve
bunlar arasındaki ilişkileri düzenleyen kurallar bütünüdür. Tanımdan da anlaşıldığı gibi
kaynak tarafından gönderilen mesajın kodlanması demek; mesajın kaynak tarafından
hedef kitleye gönderilmeden önce, mesajın yine kaynak tarafından biçimlendirilmesidir.
Kodlama ile bir anlama dönüşen mesaja, kaynak ve alıcının aynı anlamı vermesiyle,
iletişimdeki ideal durum sağlanmış olacaktır. Kanal: Kanal, kaynak tarafından
oluşturularak kodlanan iletilerin hedef kitleye iletilmesinde kullanılan bir araçtır.
ATMM 2013 PROCEEDINGS
67
İster yüz yüze iletişimde, isterse kitle iletişiminde iletileri kaynaktan alıcıya ulaştırmak
için mutlaka bir kanala ihtiyaç duyulmaktadır. Yüz yüze iletişimde kişinin bedeni, yüzü,
giysileri ve sesi kanal olarak nitelendirilirken; kitle iletişiminde ise gazete, radyo ve
televizyonlar birer kanaldır. Mesaj (İleti): Gönderici ve alıcı olmak üzere her iki taraf
açısından anlam içeren işaret ve sembollerdir. Sembol ve işaretler bütünü olan mesaj
kaynak tarafından kodlanarak hedef kitleye, başka bir ifadeyle alıcıya gönderilmektedir.
Kaynak tarafından hedef kitleye gönderilen mesajın hedef kitle tarafından kabul görmesi
için, mesajın hedef kitlede dikkat çekip, ilgi ve istek uyandırmasının yanında, kaynak ve
hedef kitlenin bu mesaja aynı anlamı vermesi gerekmektedir. Alıcı (Hedef Kitle): İletişim
sürecinde hedef kitle; "kaynağın iletisini ulaştırmak istediği kişi ya da kitledir". Babasının
öğütlerini dinleyen çocuk, kişi konumundaki bir alıcıdır. Öğretmenini dinleyen öğrenci
grubu, küme konumundaki alıcıdır. Medya kuruluşu için alıcı, izler kitledir. Reklamcı için
ise hedef alıcı tüketicilerdir. Feedback (Geri bildirim): Feedback, kaynağın gönderdiği
mesaja karşılık hedef kitlenin verdiği cevap mesajı olarak tanımlanabilir. Dolayısıyla geri
besleme ile kaynak, gönderdiği mesajın alıcı tarafından kabul derecesi hakkında bilgi
edinirken, bu bilgilenme doğrultusunda sonraki mesajlarını alıcının istekleri
doğrultusunda şekillendirecektir. Geri besleme bir anlamda etkin bir iletişimin gerçekleşip
gerçekleşmediğinin test edilmesidir.
Yapılan tanımların içerisinden, iletişim en yalın tanımıyla, "duygu, düşünce veya
bilgilerin akla gelebilecek her türlü yolla başkalarına aktarılmasıdır" (Baltaş A. ve Baltaş
Z. 20). İletişime ilişkin yapılan tanımlarda iki yaklaşım görülmektedir. Birincisi, "GöndericiMesaj-Kanal-Alıcı çizgisel modeliyle karakterize edilen" bir yaklaşımdır. Bu tür modeller
bir fikrin, duygunun, tutumun vb. birinden bir başkasına nasıl aktarıldığını ortaya
koymaktadır. Diğer bir yaklaşım ise; karşılıklılık, ortak algılama ve paylaşma gibi
unsurların altını çizmektedir (Mutlu 169). İletişim süreci, iletilmek istenen iletiyi gönderen
ile iletiyi alan arasında düz çizgi gibi bir aktarım olarak görülse de, iletişim süreci; ileten,
ileti, iletiyi alan ve iletinin aktarıldığı kanaldan kaynaklanan birçok nedenden dolayı
karmaşık bir süreçtir. Bu sürecin karmaşıklığı iletişimin özellikleri ile açıklanabilir.
İletişimin temel özellikleri şunlardır (Çakır 20-21):
- Bilinçli ya da bilinçsiz olarak gerçekleşebilmekte,
- Kullanılan sembollere, alıcı ve kaynak farklı anlamlar verebilmekte,
- Sözcüklerle ve beden diliyle gerçekleşmekte,
- Sözel olmayan iletişim duyu organlarıyla algılanabilmekte,
- Meydana geldiği ortamdan etkilenmektedir.
- Geri-bildirime gereksinim duyan çift yönlü bir eylemdir.
İletişim sürecinde bireyler tarafından algılanabilen her şey bir iletişim sürecini
başlatmaktadır. Aynı uyarıyı algılayan iki insanın birbirleri ile kuracakları toplumsal ilişki,
uyarı aracılığı ile olmaktadır. Bu ilişki, bir toplumsal etkileşim, büyük ölçüde bir iletişim
süreci olarak işlemeye başlamaktadır. Bu etkileşim süreçlerinde, insan ile diğer canlı türleri
arasında farklılaşmanın en önemli aracı dildir. Dil insanlar arasında oluşan iletişim
biçimlerinin gelişmesine ve insanlık tecrübelerini kuşaktan kuşağa aktarmada hayati bir
işleve sahiptir. Dil sayesinde hem aynı kuşaktan insanlar hem de kuşaklar arasında ortak
bir dünya inşa edilmektedir. Dil aracılığıyla insan yaşamı birliktelik, süreklilik, ortaklık
kazanmakta ve bu nedenlerle de, iletişim (dil) toplumun oluşumunun en etkin aracı
olmaktadır (Yılmaz 10).
Sanat ve Sözlü İletişim
Her toplumda kendine özgü bir biçimde mevcudiyetini sağlayan kültürel formlar ve
değerler de müzik başta olmak üzere sanat anlayışının oluşmasında etkilidir. Özellikle
Türk Halk Müziği ve halk ozanlarından yola çıkarak birçok toplumda durumun benzer
olduğu sonucuna ulaşılmaktadır. Kendine özgü doğası, anlatım biçimi, dili ve yapısal
özellikleri ile müzik, insan ruhunu anlatma kabiliyeti ile toplumsal farkındalığın
oluşmasına yardımcı olmaktadır. Biyolojik yapısı itibariyle insan ruhsal olarak etkilendiği
müzik sayesinde kültürel öğeleri sembolik olarak betimleyerek bir grubun ya da toplumun
yaşam biçimi hakkında bilgi sahibi olabilmektedir. Geçmişin ezgileri ve figürleri ile bugüne
ışık tutan ve geçmiş toplumların sosyal, ekonomik, toplumsal anlamda yaşanmışlıklarını
ifade eden geleneksel müzik ve sanat önemli bir tarihi hazine niteliği taşımaktadır. Bu
sebeple, geçmiş ve gelecek arasında köprüler kurarak toplumsallaşma sürecinde bireylere
yol gösterme misyonunu da taşımaktadır.
Toplumu oluşturan insanlar ister toprakla uğraşsın isterse üretim aktivitelerine
katılsın fark etmeksizin müziği hayatlarında hep var etmektedir. Bunun yanı sıra dini
anlamda yaşanan farklılıklarda yalnızca müzik tarzlarını farklılaştırmaktadır. Örneğin
Müslümanlar için önemi olan ezan ezgileri tasavvuf müziğinin, Hıristiyanlar için önemi
olan kiliselerdeki ezgiler de batı müziğinin gelişmesine fayda sağlamıştır. Buna benzer
kültürel ve dinsel ayrımlar müziği insan hayatına hep geliştirerek var etmiştir.
Hedeflediği bireyler üzerinde bir estetik ve hoşluk duygusu oluşturmakla birlikte,
aynı zamanda toplum, çevre, doğa gibi birçok konuda düşündürmesi de gereken müzik,
diğer tüm sanat dallarında görüldüğü gibi öncelikle güzellik duygusunu oluşturmayı ve
bu duygunun oluşmasını arzuladığı insan ruhuna uyarıcı bir etki yapabilmeyi
amaçlamaktadır. Burada ifade edildiği gibi yalnızca hoş ve sempatik duygular oluşturmanın
dışında kimi zaman dinleyen insan da umutsuzluk, karamsarlık, mutsuzluk ve depresif
durumlar gibi bazı olumsuzluklar da ortaya çıkarabilmektedir. İnsanlık tarihi boyunca
çeşitli psikolojik düzeylerin ve toplumsal yönlendirmelerin oluşmasında kullanılan müzik
aynı zamanda heyecanı yatıştırma, sakinleştirme gibi özellikleri sayesinde de ruhsal ve
akılsal rahatsızlıkların tedavisi içinde kullanılmıştır. Ülkemizin Sivas ili Divriği ilçesinde
bulunan ve UNESCO'nun Dünya kültür mirası listesine alınan Ulu Camii bu uygulamaya
güzel bir örnek olarak karşımıza çıkmaktadır (Özaygün, "Divriği Ulu Camii ve Darüşşifası").
Tüm sanat dallarının temel yapıtaşı olan müzik kimi zaman ilham kaynağı kimi zaman da
verilmek istenen mesajın ta kendisi olarak iletişim sürecinde kendini göstermektedir. Bir
aşığın aşkını ifade edişinden, bir sevgilinin isyanına, katledilen doğanın sessiz çığlığından,
bir çocuğa duyulan sevgiye kadar insana dair tüm duygu ve düşüncelerin bir ifade biçimidir
müzik. Bu bağlamda önemli bir iletişim sürecinin oluşmasına aracılık ederek mesajların
oluşturulması ve yayılmasından beklenen ve istenen amaca ulaşmaya kadar birçok
aşamada etkin bir rol oynamaktadır. Bu aşamalarda oynadığı etkin rolü görmek açısından
iletişimin kitlesel etki uyandırmada önemli bir biçimi olan reklam iletişimi üzerinde konu
değerlendirilmiştir.
Reklam Sanatı
Reklamcılar, etkili bir iletişim ve reklam ortamı yaratabilmek için tüketiciler üzerine ikna
edici iletişim uygulamaları kullanmaktadır. Bunlardan birisi de reklamlarda kullanılan
kültürel imgeler diye geçen resim, müzik gibi sanat dallarıyla desteklenen figürlerdir.
Reklam bir işin, bir malın veya bir hizmetin para karşılığında, kitle iletişim
araçlarında, tarif edilerek geniş halk kitlelerine duyurulmasıdır. Sherry'e göre reklamcılık,
ATMM 2013 PROCEEDINGS
69
dünyayı temsil eden kültürel bir dokümandır (Kocabaş ve Elden 14).
Reklamın kendine özgü dilinde tekrarlandığı imgesel mesajlar, alışkanlık şeklinde
kültürel yapıya geçmektedir, bunu yanında reklam mevcut kültürle tamamen örtüşmeyen
mesajların yenilik, şov, şok farklılık gibi süreçler içinde kullanılarak bir tür kültürel
değişimi teşvik etmektedir. Reklam bir iletişim olayıdır demek mümkündür. Kitle iletişim
araçları yoluyla yapılan reklamlardaki mesajın ulaştığı alanlarda hedef kitleyi her yönüyle
tanıma, ortak yönlerini belirleme bağıntı ve izafet çerçevelerini bulmak neredeyse
imkânsızdır. O nedenle belirli yaş, cinsiyet, toplumsal sınıf ve tabakalardaki bireylerin
reklamlara maruz kalan hedef kitle içi ve dışı insanların söz konusu reklamlara ne şekilde,
nasıl tepki vereceği kestirilememektedir (Topçuoğlu 200). Bu sebeple reklamın kültürel
değişmeye önemli etkileri olmaktadır.
Toplumsal değişimler sonucunda oluşan kültürel değerler¬deki değişimin
reklamlara yansıması, "reklamın kültürel bir ol¬gu, reklam metninin de kültürel bir metin"
olma tezini güçlen¬dirmektedir (Doğtaş 89). Çeşitli sanat dalları gibi reklam dünyası da
kendi düzenini ve değerlerini oluşturmuştur. Bu nedenle reklam dünyasına giren her şey
değişime uğramaktadır. Yıldızlar, nesneler, hayvanlar vb. hepsi simgesel, temsili varlıklara
ve olgulara dönüşmektedirler. Bu dönüşüm esnasında reklam içindeki im¬gelerin her biri
eşit anlam ve öneme sahip değildir. İmgeler çok şey anlatmakta ve herkes imgeyi kendi
anla¬yabildiği şekilde yorumlamaktadır. Bu nedenle de reklamcıların imgeleri çok dikkatli
kullanması gerekmektedir (Şimşek 74). İmgeler yoluyla reklamcı, tüketiciye hayran kaldığı
bir gerçeklik sunarak söz konusu ürünlerin satın alındığında rüyalarını gerçekleştireceğini
telkin etmektedir.
Ortaçağ dönemindeki dinsel yaşamda çok önemli bir yere sahip ikonalar ile reklam
imgeleri arasındaki tuhaf benzerliğe dikkat çeken Rutherford, bu benzerliği şu cümlelerle
açıklamaktadır: "İkona gibi, bir reklam da kültürel gücün bir aracıdır; bizim konumuzda
resmi bir kilisenin değil ticaretin aracıdır. İkonaların katedrallerin duvarlarını süslemeleri
gibi, reklamlar çağdaş yaşamın en önemli kurumların birinde, televizyonda, ayrıcalıklı bir
yere sahiptir. Reklamlar yüksek derecede stilize ve kozmopolittir ve bu nedenle dil ve sınıf
sınırlarını rahatlıkla geçmektedir. Aynı zamanda, ikonalarda olduğu gibi reklamların da
bir ulusal kültürün kendine özgü tarzlarını ya da mitoslarını nasıl anlattığını göstermek
mümkündür. İkonalar, hepsi de tinsel şeyleri yüceltmeyi amaçlayan, azizlerin resimlerini,
tapınma eylemlerini, şehitlerin hikâyelerini sergiler; reklamlar ise hepsi maddesel olan
şeyleri yüceltmeyi amaçlayan, ünlü kişilerin görüntülerini, tüketim eylemlerini, doğum
öykülerini sergilemektedir" ( Rutherford 17-18).
Reklamın bir başka işlevi, hiç yoktan ihtiyaçlar ortaya çıkara¬rak bireyleri tüketime
yöneltmeleridir. İhtiyaç olmayan ürün ve hizmetleri zorunlu ihtiyaçlarmış gibi tüketicide
sahte ihtiyaçlar uyandırarak tüketimin hacmini artırmaktadırlar (Orçan 289). İyi reklam,
keskin bir ifa¬deye sahip oluşuyla diğerlerinden ayrılmaktadır. Dili olduğu kadar kültürü
de anlatmalıdır (Sutherland ve Sylvester 65). İnsanların geçmişten yaşadıkları ve
gördükleri şeylerden elde ettikleri birikimlerle oluşan imgelerin reklamlarda kullanılması,
kişiye aidiyet duygusu hissettirecektir ve hem satın alma davranışı hem de gündelik
yaşantısında değişiklikler ortaya çıkacaktır. Çünkü, reklam gündelik yaşantımızı
şekillendiren ve yansıtan en önemli kültürel faktörlerden biridir. Bireyin yaşamının her
anında karşısına çıkan reklamlar, adeta kaçınılmaz olmuştur. Bireyler, gazete okumasalar
veya televizyon izlemeseler bile, kentsel ortama egemen kılınan imgelerden kaçınamazlar.
Bütün medyayı kullanım alanına dönüştüren ve hiçbir sınırı bulunmayan reklamcılık,
açıkça bağımsız ve özgür bir varoluşa ve ciddi bir etkileme gücüne sahip geniş bir üstyapıyı
oluşturmaktadır.
Kullanım alanı itibariyle bir üstyapı halinde olan medya araçları kullanılarak
yapılan tüm reklam çalışmaları da şüphesiz ki bireyleri tüketmeye yönlendirme amacı
güdülmektedir. Yalnızca ihtiyacı karşılamak değil yeni ihtiyaçlar yaratmak amacı olan
günümüz üretim sürecinin önemli bir dayanağı olan reklam, popüler tüketim
mekanizmasının da belkemiğidir.
Reklamda Müzik ve Cıngıl
Her bilim dalında ve sanat dalında olduğu gibi müziğin reklam süreçlerinde de bir takım
işlevleri vardır. Bu işlevler bireysel, toplumsal, kültürel, ekonomik ve eğitimsel olmak üzere
farklı başlıklar altında kendini göstermektedir. Şüphesiz ki bireyleri ve toplumları
biçimlendirme, değiştirme, geliştirmede ve bireylerin yaşam standartları ve tüketim
biçimleri gibi konularda sergiledikleri yaklaşımları düzenlemede eğitim en etkili
süreçlerden biridir; insanın kültürel bütünlüğünü sağlamada müziğin eğitim aracı olarak
kullanılması ve toplumsal işlerlik kazanması da yaygın bir uygulamadır. Müziğin toplumsal
işlevi, toplum üzerindeki etkinliği demektir. Bu işlevler "birey ile birey, birey ile toplum,
toplumsal kesimler ve toplumlar arasında anlaşma, dayanışma, kaynaşma, paylaşma,
işbirliği yapma, birleşme ve bütünleşme sağlanmasında müziğin oynadığı rolleri
kapsamaktadır" (Uçan 29).
Bir müzik yapıtını oluşturan ses, armoni, melodi ve ritim gibi unsurların bir araya
getirilmesinin ürün ve reklam üzerindeki etkisi önemli derecededir. Bu etkileri; (1) bilişsel
ve davranışsal süreçte tüketicinin sürece katılımı (2) bu unsurlarla oluşturulan müziğin
reklam fikrine nasıl uyum sağladığı (3) müzik unsurlarının organizasyonunun reklamı
nasıl etkilediği şeklinde ifade etmek mümkündür. Özellikle reklamın tüketiciye ulaşma
noktasında oluşturduğu ortamlarda kullanımına dair, atmosfer yaratma ve satışı
rahatlatma gibi fonksiyonlarıyla ele alan pek çok araştırma bulunmaktadır. Reklamcılıkta
müzik kullanımı bunun yanında, bir duygusal mesaj kullanımı olarak, özel mesaj
seçimlerinden biri olarak kabul edilmektedir. Bu çerçevede, pek çok araştırmada reklam
mesajlarının hatırlanılırlık, bilinirlik ve dikkat çekiciliğe olan etkisi anlamında müzik
önemli görülmektedir (Batı 4).
Tüm iletişim süreçlerinde olduğu gibi reklam iletişimiyle iletilen mesajlara birey
dikkatini ne kadar çok verirse o kadar farkındalık oluşmakta ve daha sonra hatırlanması
kolaylaşmaktadır. Bu bağlamda reklam iletişiminde yapılan kurgular genellikle gerçek
hayattan kesitler yansıtacak şekilde ve insanların duygusal durumlarını konu alacak
şekilde kurgulanmaktadır. Bu yapılan kurgular bilindik bir başrol oyuncusu ya da kültürel
bir sembol ya da belirli bir aksesuar ile desteklenip gösterilerek bireyi izleyici olmaktan
ziyade hikâyenin bir kahramanı olmaya yönlendirerek farklı tecrübeler sağlamaktadır.
Böylece mesajın hatırlanma düzeyi ve bilinç düzeyi artırılmış olmaktadır. Reklam
iletişiminin bu özelliği esasen tüm iletişim biçimlerinin de ortak özelliğidir. Bireylerin
zihinlerindeki anılar canlandırılarak eskiye yönelik bir çağrışımla mesajın hatırlanma ve
kabul düzeyi de yükseltilmektedir. Bireylere tanıdık ve bildik gelen tüm yeni bilgiler
eskisiyle özdeşleşerek bir bağ kurulmasına ve dolayısıyla da kabul görülmesine olanak
sağlamaktadır.
Reklam iletişiminde bahsedilen bu zihinsel aktivitelerin gerçekleşmesi, hatırlama
ve kabul görmenin sağlanması açısından müzik ve melodi kullanımı da son derece
yaygındır. Bireyler tarafından sevilen ve arzu edilen bir melodinin reklama dâhil edilmesi
yalnızca bireylerin dikkatini çekmekle kalmayarak aynı zamanda da psikolojik ve duygusal
durumuna da tesirde bulunacaktır. Reklama konu olan markaya has oluşturulmuş bir
melodi ya da bireylere eskiyi hatırlatacak mevcut bir melodi kullanımı zihinsel çağrışımı
ATMM 2013 PROCEEDINGS
71
da beraberinde getirmektedir. Reklam cıngılı adıyla da üretilen ya da oluşturulan bu
melodiler söz konusu markanın bireyler tarafından hatırlanmasını sağlayacak önemli bir
parametre olarak karşımıza çıkmaktadır. Reklama konu olan söz konusu markaya dair iyi
ve doğru planlanmış stratejik bir cıngıl sayesinde dünya çapında bir bilinirlik ve farklılık
yaratmak mümkündür. Dünyada müzik ve cıngıl kullanımı yalnızca eğlenmek için değil
kimi zaman toplumsal bir mesaj vermek için kimi zaman da ruhu beslemek için
olabilmektedir. Birçok mesajı kolaylıkla insanlara ulaştırmada kullanılan bir araç olan
müziğin reklam iletişiminde mesajların desteklenmesi ve hatırlanma oranının artırılması
noktasında payı oldukça fazladır.
Türkiye ve dünyada markaların birçoğu hazırladıkları reklam cıngıl ve müzikleriyle
yıllar boyu hatırlanma oranını yüksek tutmayı başarmıştır. Pek çok reklam da kendi
sözlerini yerleşmiş veya özel olarak bestelenmiş melodilere göre ayarlamaktadır. Örneğin,
Coca Cola 1970'lerde, uluslararası bir gençlik korosu tarafından söylenen "I'd like to buy
the World a coke" cıngılıyla o kadar başarılı olmuştur ki, şarkı uzatılmış, kaydedilmiş,
piyasaya sürülmüş ve 1971'de müzik listelerine hit olarak girmiştir. Dünyada bunun
dışında verilecek diğer örnekler şöyledir (Sutherland ve Sylvester 150);
-
Sonuç
-
"I'm a stuck on Band-Aids' cause Band Aids stuck on me" (Band Aids'e
yapıştım çünkü Band Aids bana yapıştı)
"You deserve a break today. Mc Donald's" (Bugün paydosu hakettiniz)
"Just for the taste of it.. Diet Coke" (Sadece tadı için)
"Stayin' alive.. Volvo" (Hayatta kalmak için)
"Heard it through the grapevine.. California Raisins" (Dedikodusunu
duydum)
"Take good care of my baby.. Johnson&Johnson" (Bebeğime iyi bak)
"You can tell a Wella Woman by the way she wears her hair" (Wella kullanan
bir bayanı saç stilinden tanıyabilirsiniz)
"Come see the softer side of Sears" (Gelin Sears'ın daha yumuşak tarafını
görün)
"Be all that you can be.. US Army" (Olabildiğinizin en iyisini olun)
"Oh, what a feeling.. Toyota" (Ah ne güzel bir duygu)
İletişim daha önceki tanımlamalarda ifade edildiği şekilde hayatın her alanında, her
durumda, her süreçte insanlar ve kurumlar tarafından belirli bir ölçüde ihtiyaç hissedilen
bir kavramdır ve müzik sanatı da bu ihtiyacın temel tamamlayıcılarından biridir. Daha
önce yapılan iletişim tanımlarından yola çıkılarak; bir ressamın iletişim kanalı tuali, fırça
darbeleri ise mesajı, vaadi, kodudur; bir müzisyenin sazıdır iletişim kanalı, teline yaptığı
her vuruş ise ise mesajı, vaadi, kodudur; bir heykeltıraşın yapıtının ta kendisidir iletişim
kanalı, verdiği her şekil ise mesajı, vaadi, kodudur; bir tiyatrocunun sahnesidir iletişim
kanalı, sergilediği oyun ise mesajı, vaadi, kodudur; bir dansçının sokaktır iletişim kanalı,
her kıvrak figürü ise mesajı, vaadi, kodudur şeklindeki tanımlama ve benzetmeler yanlış
olmayacaktır.
Reklam iletişimine başvuran marka sahipleri ve firmaların asli amaçları arasında
hiç şüphesiz ki ticari karlılığı sağlamak için iyi bir marka oluşturmak, doğru bir imaj inşa
etmek ve markanın hatırlanma düzeyini yüksek tutmak gibi şıklar vardır. Çalışma
kapsamında bahsedildiği üzere reklam, iletişimin maddiyata en çok ihtiyaç duyduğu
boyutudur. Bu bağlamda yapılış ve sunuluş şekli son derece önemlidir. Tüketiciyle
buluştuktan sonra bıraktığı etki, hatırlanma düzeyi, satın alma davranışındaki rolü gibi
birçok elde edilen sonuç incelenmektedir. Etkin ve doğru bir reklam iletişiminin
sağlanmasının göstergelerinden biri de hatırlanma düzeyidir. İşte bu noktada reklamda
kullanılan görsellik, mesajlar, reklamın vaadi, müzik gibi birçok parametre hatırlanma
düzeyinde rol oynamaktadır.
Çalışma kapsamında betimsel olarak incelenen reklamda müzik ve reklam cıngıllarının
kullanılması, müziğin ve reklamın bir araya gelmesi, reklamın tüketiciye ulaşma ve tüketici
üzerinde amaçlanan iletişim etkisini yaratma sürecinde, reklama farklı katma değerler
sağlamaktadır. Bireylerin psikolojik düzeylerine göre mutlu, hüzünlü, eğlenceli gibi
evrensel ve duygusal bağlara sahip ortak noktalarından biridir müzik. Bu ortak noktalar
bağlamında müzik ile birlikte kullanılan reklam gibi etkileyici bir iletişim biçimi, hem söz
konusu markalara amaçları yönünde ciddi kazanımlar sağlamakta, hem de bu markaların
toplumsal yaşamla bütünleşmesini ve insanların bazı hassasiyetlerine dokunmayı
sağlayarak tüketim alışkanlıklarını etkilemektedir. Tüketiciyle buluşturulan reklamlarda
müziğin kullanımı, reklam ve reklam vaadinin tüketici ile kontak kurmasını sağlayarak
mesajı güçlendirmekte ve mesaj bombardımanın arasından farklılaşarak tüketici
tarafından görülmeyi ya da duyulmayı kolaylaştırmaktadır.
Reklam müziğinin uygulamada sıklıkla kullanılan bir biçimi olan reklam cıngılları
da reklam iletişiminin biçimlerinden biridir. Yapılan reklam çalışmasında doğru
kurgulanmış ve iyi bir stratejiyle reklam mesajıyla buluşturulmuş olan cıngıl markaya
değer katmaktadır. Seçilen müzik veya kullanılan ses sayesinde verilmek istenen reklam
mesajının içeriğindeki sevinç, coşku, heyecan, endişe, üzüntü gibi bir takım hisler doğru
olarak aktarılarak reklam görseli desteklenmektedir. Reklamda kullanılan tüm görsel ve
verilmek istenen ana mesajın önemli bir destekleyicisi olarak müzik ve cıngıl reklam
iletişiminde yoğun bir biçimde kullanılmaktadır ve kullanılmaya da devam edilecektir.
Kaynakça
Baltaş, Acar, ve Zuhal Baltaş. Bedenin Dili. İstanbul: Remzi Kitabevi, 1992. Basılı Yayın.
Batı, Uğur. "Hedef Kitle Davranışını Etkileyen Bir Unsur Olarak Reklamlarda Müzik
Kullanımı Konusundaki Yazının İncelenmesi." Uluslararası İnsan Bilimleri Dergisi. Cilt:7
Sayı:2, 2004. Basılı Yayın.
Çakır, Mehmet Fatih. "Marka Oluşumunda Reklamın Yeri." Yüksek Lisans Tezi, Elazığ: Fırat
Üniversitesi, 2007. Basılı Yayın.
Doğtaş, Dilek. Her Yönüyle Türkiye'de Kadın Olgusu. İstanbul: Şehir Yayınevi, 1992, 1. Baskı.
Basılı Yayın.
Işık, Metin. İletişimden Kitle İletişimine. Konya: Selçuk Üniversitesi İletişim Fakültesi
Yayınları, 2000. Basılı Yayın.
Kocabaş, Füsun, ve Müge Elden. Reklamcılık. İstanbul: İletişim Yayınları, 2002, 4. Baskı.
Basılı Yayın.
Mutlu, Erol. İletişim Sözlüğü. Ankara: Ark Bilim ve Sanat Yayınları, 1998. Basılı Yayın.
Orçan, Mustafa. Osmanlı'dan Günümüze Modern Türk Tüketim Kültürü. Ankara: Kadim
Yayınları, 2004. Basılı Yayın.
Rutherford, Paul. Yeni İkonalar (Çeviren: Mustafa Gerçekler), İstanbul: Yapı Kredi
Yayınları, 1996. Basılı Yayın.
Sutherland, Max, ve Alice K. Sylvester. Reklam ve Tüketici Zihni. Mediacat, 2004. Basılı
Yayın.
ATMM 2013 PROCEEDINGS
73
Şimşek, Sedat. Reklam ve Geleneksel İmgeler. Konya: Remzi Kitabevi, 2006. Basılı Yayın.
Topçuoğlu, Nur. Basında Reklam ve Tüketim Olgusu. Ankara: Vadi Yayınları, 1996. Basılı
Yayın
Uçan, Ali. Müzik Eğitim Temel Kavramlar, İlkeler Yaklaşımlar. Ankara: 1997. Basılı Yayın.
Williamson, Judith. Reklamların Dili: Reklamlarda Anlam ve İdeoloji (Çeviren: Ahmet
Fethi). Ankara: Ütopya Yayınevi, 2001. Basılı Yayın.
Yılmaz, Süleyman Sırrı. "Kültür ve Bilincin Türdeşleşmesi Açısından Televizyon." Yüksek
Lisans Tezi. Konya: Selçuk Üniversitesi, 2001.
Yılmaz, Serpil, ve Erhan Arslan. "İşletmelerin Hedef Kitlelerine Ulaşabilmeleri İçin Yerel
Radyo Ve Reklamların Kullanımı Ve Etkinliği." Kütahya: Dumlupınar Üniversitesi Sosyal
Bilimler Dergisi Sayı:18, 2007.
Özaygün, Ruhan. Divriği Ulu Camii ve Darüşşifası. 13 Mart, 2013. Web. Haziran 2013.
<http://www.divrigi.gov.tr/divrigi-ulu-camii-ve-darussifasi-13s.htm>
zAMAN KODLU SENKRON SORUNLARININ KöKENİ
“THE ROOT OF THE TIME-CODE SYNC. PROBLEMS”
Abstract
Syncronization (sync.) is a communication protocol that allows hardware to manage from
a unique center in audio-video system. Two or more equipment are processed or expected
to processing in harmony using time and speed values. Sometimes the theory and practice
doesn't match in content-intensive applications of audio recording and serious problems
come into existence. Most of these problems are caused by the structure of sync. type
except user error or connections.
In this paper, some sync. problems caused by digital structure of selected time-code
sync. such as MTC, MMC, HUI are discussed. MTC is a quarter-frame message included
acting a limited area of audio system. MMC works in SysEx message that requires full
compliance with hardware using full frame of MTC. Also, HUI is a part of automation more
than sync. However, these entire structural properties are able to base on the problem of
time coded synchronization.
özet
Senkron (eşgüdüm, synchronization), donanımlar arasında uygun adım hareketi sağlayan
bir iletişim, sistemin bir merkezden yönetilmesine olanak tanıyan makinalar arası bir
protokoldür. Eşgüdüm sayesinde iki ya da daha fazla donanım zaman ve hız değerlerinde
anlaşıp uyum içinde çalışır veya çalışması beklenir. Çünkü özellikle yoğun içerikli
profesyonel ses kayıt uygulamalarında bazen teoriyle pratik her zaman örtüşmeyebilir ve
eşgüdüm kaynaklı ciddi sorunlar ortaya çıkar. Bu sorunların pek çoğunun bağlantı, ayar
ya da kullanım hatasından ortaya çıktığı düşünülse de aslında hiç de azımsanmayacak
kadarı eşgüdüm tipinden, seçilen protokolün olağan yapısından kaynaklanır.
Bu çalışma, teorik olarak hiçbir sorun olmayacağı beklentisiyle yola çıkılan
uygulamalarda bile yalnızca seçilen zaman kodlu (time code) eşgüdümün dijital yapısı
gereği ortaya çıkan ciddi sorunlar, sorunların kaynağı olan protokollerin içyapıları ve
çözüm önerilerini içermektedir. Sözü edilecek protokoller, uygulamalarda en çok
kullanıldığı tespit edilen ve geleneksel zaman kodu SMPTE'nin MIDI protokolündeki
temsilcisi MTC ve türevleriyle (tam kare, MMC vs.), özel bir otomasyon eşgüdüm sistemi
olan HUI'dir. Çözüm için otomasyonun devreye girdiği HUI'yi bir tarafa bırakacak olursak,
MTC'nin ana hatlarıyla bir çeyrek kare mesajı olması, MMC'nin ise içinde tam kare MTC'yi
barındırmasına rağmen klasik bir SysEx yapısı taşıyor olması, zaman kodlu eşgüdüm
sorunlarının en önemli kökenidir.
ATMM 2013 PROCEEDINGS
Giriş
75
Müzik teknolojisi yalnızca bir bütünü içermez. Bütünü oluşturan her bir parça, kendine
ait disiplini farklı olsa da mutlaka müzik teknolojisi kapsamına girer, bu kapsamda
incelenir. Bu bağlamda, profesyonel müzik kayıtlarını bir bütün olarak kabul edersek, bu
bütünün parçalarından biri de müzik teknolojisi kapsamına giren eşgüdümdür
(synchronization).
Eşgüdüm, donanımlar arasında uygun adım gidişi sağlayan bir iletişim, sistemin
bir merkezden yönetilmesine olanak tanıyan makinalar arası bir protokoldür (Durmaz 93)
Eşgüdüm sayesinde iki ya da daha fazla donanım zaman ve hız değerlerinde anlaşarak
eşzamanlı çalışır. Örneğin bilgisayar, çok kanallı kayıt cihazı, video oynatıcı, ses masası,
sound modül, klavye gibi tek bir sistem içinde birbirine bağlı farklı donanımlar, ancak
eşgüdüm sayesinde aynı anda uygun adım çalışırlar.
Eşgüdüm için öncelikle, eşgüdümü sağlayacak protokolün belirlenmesi gerekir.
Çünkü eşgüdümün temeli olan zaman ve hız, onu içeren verileriyle bir saat dilimini, bir
tempoyu, bir geri sayımı ve hatta herhangi bir sürekli tınıyı kendine kılavuz seçebilir
(Huber 223). Protokol seçiminden sonra bu protokolü donanımlara aktaracak bağlantının
yapılması şarttır. Bu doğrudan bir audio da olabilir, MIDI gibi akışın kendine özgü
protokolle sağlandığı herhangi bir verisel bağlantı da. Bu adımdan sonra seçilecek
eşgüdüm tipine göre kullanım detayları devreye girer. Bundan sonrası, kullanıcı ve
kontroller arasındaki ilişkiye bağlı olarak gelişir.
Ancak her teknolojik içerikte olduğu gibi eşgüdümde de veri akışının her zaman
sorunsuz yürümesi beklenemez. Yani, eşgüdüm için her şeyin sağlandığı uygulamalarda
bile daha yolun en başında ya da işe başladıktan sonra birçok sorunla karşılaşılabilir. Bu
sorunların pek çoğu bağlantı, ayarlar ya da kullanıcı hatasından kaynaklıdır ancak hiç de
azımsanmayacak kadarı eşgüdüm tipinin, bir başka ifadeyle protokolün kendisindedir. İşte
bu olası sorunun zor olan çözümü için, eşgüdüm protokolünün yapısına, yani sorunun
kökenine inmek gerekir. Bunun için ses kayıt stüdyolarında en çok kullanılan eşgüdüm
protokollerini masaya yatırdık, yapısını inceledik. Çünkü incelemede amaç eşgüdümde
kullanılan her bir protokol tipini tanıtmak değil; piyasada en çok kullanımda olanların
sorunlarına eğilmekti. Bu da hiç kuşkusuz bizi, zaman kodlu çalışan eşgüdüm tipine
götürdü.
Zaman kodlu eşgüdümün atası SMPTE'dir (Işıkhan 2009a). Adını, 20. yy. başlarında
faaliyete geçen Society of Motions Picture and Television derneğinin baş harflerinden alan
SMPTE, bugün zaman kodunda bir dünya standardıdır. SMPTE, eşgüdümde saat-dakikasaniye ve kare bilgilerini referans alarak üretim yapar ve bu bilgileri karşı tarafa analog
ya da dijital audio sinyaliyle aktarır. Birkaç istisna hariç günümüzde neredeyse tüm ses
kayıt stüdyolarında eşgüdüm için SMPTE kullanılır. SMPTE'nin dijital ortamdaki en iyi
temsilcilerinden biri MIDI olduğundan, MIDI araçlı zaman kodları SMPTE için en uygunu
sayılabilir. Dolayısıyla bu çalışmada zaman kodlu eşgüdüm sinyali olarak MIDI tabanlı
sinyaller ele alınacaktır.
Bu çalışmada hedeflenen, MIDI'li eşgüdüm için kullanılan zaman kodlarının yapısını
incelemek ve mimari yapıyı bağlantı-ayar ya da kullanıcıdan kaynaklanmayan olası
eşgüdüm sorunlarıyla örtüştürerek çözüm yolu ya da yolları önermektir.
MTC ve Yapısı
MTC (MIDI Time Code) kısaca, üzerinde zaman bilgisi taşıyan MIDI mesajıdır. Taşınan
zaman bilgisi, sistemdeki diğer donanımlarla eşgüdüm sağlar. Bir başka ifadeyle MTC
kullanılarak sisteme ait tüm donanımlar zaman bilgisi üzerinden eşgüdüm kurar. Burada
zaman, sırasıyla kare (frame), saniye (second), dakika (minute) ve saat (hour) bilgilerinin
tümüyle ve aynı anda taşınmasıyla oluşturulur. Dolayısıyla MTC, MIDI'ye özel bir zaman
kodudur (Işıkhan 2009c).
Aslında MTC'deki bu özel kodlama, 1987 yılında Digidesign bilgi işlem uzmanı Chris
Meyer ve kurucu ortaklarından Evan Brooks tarafından SMPTE yapısının aynen MIDI'ye
uyarlanmış halidir. Dolayısıyla sistemde SMPTE ile eşgüdüm sağlayan audio donanımlar,
MIDI ile eşgüdüm sağlayan MIDI'li donanımlarla bağlantı kurabilir, onlarla eşgüdümlü
çalışabilir. Bunun için yalnızca SMPTE audio sinyalini MIDI verisine çeviren harici ya da
dâhili donanımlara ihtiyaç duyulur. Dolayısıyla MTC, mimari yapısı gereği adı SMPTE ile
birlikte anılması gereken bir MIDI mesajıdır.
MIDI'deki 241 numaralı (Heximal: F1, Binary: 1111 0001) mesaj MTC için
ayrılmıştır. MIDI'li donanım, üzerindeki MTC üreteci açıldığında 241 numaralı mesajdan
zaman bilgisini kendine MIDI ile bağlı diğer donanıma iletir veya mesajı karşılar. Bu
mesajın veri akışı soldan sağa şu şekildedir:
Akışta önce MTC bilgisi taşındığını belirten 241 numaralı sistem mesajı iletilir: 1111 0001
Ardından veri "byte"ı (data byte) olduğunu gösteren sabit 0 değeriyle hangi zaman
bilgisinin taşındığını gösteren 3 "bit"lik değişken bir kod (n ve z) gelir. Burada n ve z, 8
farklı zaman bilgisinin karşılığıdır (23). Bunlar sırasıyla,
0
1
2
3
4
5
6
7
Frames Low Nibble
Frames High Nibble
Seconds Low Nibble
Seconds High Nibble
Minutes Low Nibble
Minutes High Nibble
Hours Low Nibble
Hours High Nibble and SMPTE Type
olarak kodlanmıştır. SMPTE tipini belirleyecek olan ve y diyebileceğimiz özel bir değişken
atamasıyla kare bilgisi seçilir ve sonrasında Low Nibble’lar akışta "n", High Nibble’lar ise
"z"ye karşılık gelir. Dolayısıyla mesaj sırasına göre önce n (low) sonra z (high) zaman bilgisi
ayrı-ayrı taşınır. Bunun nedeni, d veya m ile gösterilen zaman değerinde gizlidir.
Zaman değeri, bilgisine göre şekillenen zamanın sayısal karşılığıdır. Örneğin zaman bilgisi
saat (hour) ise d ve m 0–23 arasında değer alır. Dakika veya saniye ise 0–59, kare ise y
atama değerine göre 1–24/1–25/1–30 gibi değerler döndürür. Şimdi buraya dikkat: d ve
m için akışta 4 bit kullanıldığından, örneğin 59 gibi bir değer ikili sayı sisteminde 4 bit ile
doğrudan taşınamaz. Çünkü 4 "bit"in alacağı en büyük ondalık değer 16'dır (24). Bunu
ortadan kaldırmak için tek yapılması gereken 4 "bit"in 8'e çıkarılmasıdır. Ancak, MIDI
ATMM 2013 PROCEEDINGS
77
mimarisinin yapısı gereği her veri en az fazla 1 byte (8 bit) ile taşınacağından, 4 bit ile
(nibble) tutulan tek bir verinin 8 "bit"e çıkarılması mimariye terstir. Bu nedenle sorunu
çözmek için ilginç bir yöntem kullanılmış, zaman değeri tam ortadan ikiye bölünerek
tersten haneler paylaştırılmıştır. Yani örneğin 59 sayısı veri akışında önce 9 sonra 5 ile
iletilir. Bu bölünme sırasında doğal olarak 241 numaralı sistem mesajı tekrar araya girer.
Böylece MTC veri yapısı tamamlanarak karşı tarafa iletilmiş olur. Örneğin 59. saniyenin
(00:00:59:00) MTC veri yapısındaki karşılığı şu şekildedir:
241 numaralı MTC mesajı, low ve high olarak 8 farklı bilgiyi ikişerli gruplar halinde dört
zamana böldüğünden (saat, dakika, saniye kare), MIDI jargonunda Çeyrek Kare Mesajı,
(Quarter-Frame Message) olarak adlandırılır. Dolayısıyla 241 numaralı MTC mesajının
MIDI'deki gerçek tanımı Çeyrek Kare Mesajı (ÇKM)'dır.
MMC ve Yapısı
MMC (MIDI Machine Control), 1992 yılında MIDI ailesine katılan gelişmiş bir sistem mesajı
türüdür. MIDI'li donanımlara çalma (play), durma (stop), ileri-geri sarma (forwardbackward) gibi komutları iletmek olan MMC sayesinde her bir donanım, herhangi bir
zaman kaygısı gözetmeksizin kullanıcının eşgüdüm için ihtiyacı olan hareket bilgilerini
otomatik olarak almış olur (Işıkhan 2009b).
MMC mesajı, aslında kendi başına bir mesaj olmayıp, MIDI'de 240 numaralı mesajla
başlayan (SysEx= Hex: F0, Binary: 1111 0000) ve 247 numaralı mesajla sonlanan (EOX
(End of Exclusive= Hex: F7, Binary: 1111 0111)) SysEx (System Exclusive) mesajı içinde
yer alır. Bu nedenle, bir kullanıcı için aslında bilinmesi gereken yapı SysEx mesajıdır. Bu
mesaj kısaca, firma ve ürünlerine göre değişen özgün bilgi gruplarını içerir. Örneğin bir
MIDI uygulamasının hangi marka ve hangi model bir donanımla yapıldığını gösteren üretici
bilgileri, tıpkı barkodlar gibi SysEx mesajında gizlidir. Ancak sistem otomasyon, veri
yedekleme veya transfer etme gibi uygulamalarda çok daha geçerli olan üretici bilgileri,
MMC gibi evrensel zaman kodlarının içine gömüldüğü durumlarda 0000 0110 sayı
değeriyle sabitlenir. Yani MMC, yapısında firma kimlik bilgisi içermez. MMC bir SysEx
mesajı olduğundan, üretici firmalara göre farklılık gösterebilir. Yani bazı MMC komutları
bazı firmalar tarafından üretilmeyebilirler. Bu da MMC'li eşgüdüm sorunlarının en temel
boyutu, bir başka ifadeyle sorunun kökenidir…
MMC veri yapısı şu biçimdedir:
Bu yapıda 240 (1111 0000) ile başlayıp 247 (1111 0111) ile tamamlanan SysEx içinde
konumlanır ve Sub-ID olarak adlandırılan bir durum "byte"ı ile sabitlenir (0000 0110).
Yapıda, SysEx sonrası gelen "'kimlik' byte"ı daha önce belirtildiği gibi sabittir ve SysEx ile
gelecek olan verinin, zamana bağımlı evrensel bir mesaj (universal real-time message)
olduğunu gösterir. Bu mesajın yazılabilir olması, yani SysEx mesajının otomasyon veya
yedekleme gibi tümden veri transferine (data dump) açık olması nedeniyle, MMC için MIDI
içinde global bir kanal ayrılabilir. Kanal bilgisi (c) genelde her donanım için 1 veya 16
olarak sabitlenmiştir. Mesajda k ile gösterilen değişken, MMC'nin karşı tarafa donanım
kontrollerinden hangisinin yapıldığını belirtir komutu temsil eder. Daha önce MMC
tanımını yaparken kullanıcı için donanımın hareket bilgisi olarak belirttiğimiz bu komutlar,
7 bit ile temsil edilirler. Bu komutların neler olduğu ise Tabloda gösterilmiştir. Örneğin
MMC ile eşgüdümlü bir MIDI sistemde kayıt yazılımının stop tuşuna bastığınızda, mesajın
komut "byte"ına 0000 0001 (Hex: 01) değeri yerleşir ve diğer donanımlara iletilir. Böylece
MMC ile eşgüdümlü diğer tüm donanımlar durdurulmuş olur.
Tablo. Eşgüdüm için kullanılan MMC hareket komutları
MMC yapısında eşgüdüm, MMC içine gömülen MTC'de gizlidir. Bu özel yapı nedeniyle MMC
içindeki MTC bilgisine tam kare mesajı verilir. Bu tanım daha önce salt MTC kodu için
hatırlanacağı gibi çeyrek kare mesajıydı.
Bir kullanıcı, uygulamasının synchronization menüsünden eşgüdüm olarak MMC'yi
seçtiğinde o uygulama, eşgüdüm için diğer donanımlara hareket bilgilerini göndermeye
hazır hale gelir. MMC bir zaman kodu içermediğinden, aynı kullanıcı bu kez zaman kodu
için tercih yapmak zorundadır ve bunun için çoğunlukla MTC tercih edilir. Eşgüdüm için
asıl tercih MMC olduğundan, zaman kodunda MTC tercihi aslında MTC'nin Tam Kare
mesajını çağırmak anlamına gelir. Bu yolla Tam Kare mesajları devreye girer ve zaman
kodu SysEx üzerinden taşınır. Eğer kullanıcı MMC’yi devreye sokmadan doğrudan MTC ile
çalışırsa bu durumda MTC Çeyrek Kare mesajları görevde olacaktır. Dolayısıyla, bir zaman
kodu olarak MTC'nin hangi durumlarda hangi mesajla devreye girmesi gerektiğini aslında
MMC belirler.
Kimi durumlarda bazı hareket komutları, MMC yerine MTC yeteneğiyle karşı tarafa
iletilebilir. İşte bu iletilen özel durumlu komutlara MTC Cueing mesajları adı verilir. MIDI
jargonunda MTC kullanıcı bitleri (users bits) olarak tanımlanan bu özel eşgüdüm biçimi,
tıpkı Tablo ile belirtilen MMC komutları gibi start, stop, fast forward, punch in-out vs. gibi
hareket bilgilerini SysEx mesajı içine yapılandırılmış MTC zaman koduyla birlikte karşı
tarafa gönderir.
ATMM 2013 PROCEEDINGS
Sonuç
79
Artık herkes ister istemez kabul etmelidir ki günümüz teknolojik yapıda ses kayıtlarında
eşgüdüm gerekliliğinin pek bir hükmü kalmadı. Şimdilerde pek çok uygulama yazılımların
dar ama bir o kadar bütünsel hizmetlerinde gerçekleştiriliyor. Ancak yine de ses ile
görüntünün birleştirildiği uygulamaların birçoğunda harici eşgüdüm kurulumlarının
desteği şart. Ancak bu destek, geçmişte olduğu gibi sayıca fazla olan eşgüdüm tiplerinden
çok, zaman kodlu olmak kaydıyla neredeyse tek bir eşgüdüm tipine kaydırılmış durumda:
SMPTE.
SMPTE denildiğinde ise artık neredeyse istisnasız bir şekilde MIDI akla gelmekte.
Zaman kodlu eşgüdümün en büyük yardımcısı MIDI, bünyesindeki MTC ve MMC
mesajlarıyla eşgüdümde neredeyse tek başına bir kaynak durumunda.
Ancak her içerikte olduğu gibi bu tür eşgüdümlerde de kendi yapılarından
kaynaklanan pek çok sorun mevcut. Önemli olan bu soruların üstesinden gelebilmek için
sorunun kaynağına inebilmek. Yani kökenine ulaşmak.
MTC'deki ÇKM yapısından kaynaklı akışın doğrusal olmaması, sistemdeki olası MTC
zaman kodu sorunlarının aslında en büyük sebebidir. Yani yukarıda belirtilen akışta zaman
diliminin ikiye bölünmesi, örneğimizdeki 59. saniyenin veri akışında önce 9 sonra 5 olarak
görülmesi ve üstelik 9 ve 5 arasına 241 numaralı mesajın tekrar yazılması, doğrusal akması
gereken MTC mesajını farklı bir yapıya çekerek akışı etkiler. Bu durum maalesef MIDI veri
akışında bant genişliğine yansır. Sistemde yalnızca MTC değil, aynı zamanda nota bilgileri,
süreler, hiç kaybolmayan MIDI Clock vs. gibi birçok MIDI verisi hareket ettiğinden, bu
verilerin arasına denk gelen MTC, çok dar bir alanda hareket etmek zorunda kalır. MTC
bant genişliği, %100'lük bir dilimde ancak %8'lik bir aralığa denk gelir. Nota akışının %60
olduğu bir MIDI bağlantısında bu değer oldukça küçüktür.
Bu bir sorundur. Hatta bu sorun, MTC'de ender oluşan ve kullanıcının elinde
olmayan eşgüdüm hatalarının da kökeni sayılır. Hatanın uygulamadaki görünümü,
donanımların eşgüdümde birbirine eşit olmayan MTC değerleri olarak karşımıza çıkar.
Örneğin bir donanım 3. saniyedeyken diğeri henüz 2. saniyeye ulaşır veya daha büyük
farklarla eşgüdüm sağlanmaya çalışılır. Hatta kısmen de olsa eşgüdümün hiç
kurulmamasına veya durmasına neden olabilir.
Bu sorunun iki farklı çözümü vardır. Birincisi, MIDI bağlantısı için gerekli MIDI
kablolarını kaliteli seçmek ve uzunluklarını kısa tutmaktır. Yani olası bir eşgüdüm
sorununda eğer tüm seçenekler doğruysa ama halen MTC'de sıkıntı yaşanıyorsa, önce
kablo kalitesinden ve sonra uzunluğundan kuşkulanmak gerekir. Uzunluk mutlaka 2
metreden az tutulmalı, kablonun ve dolayısıyla soket ve jackların alaşımı, yoğunluklu
yüksek bakırdan veya platinyuma kadar giden diğer maddelerden seçilmelidir. Sorunun
kökeni sayısal veri akışında ve MTC yapısında olduğundan, kullanıcının ilk seçenekten
başka bir müdahalesi maalesef beklenemez.
Tam kare mesajları, çeyrek kare olanların handikapı sayılan MIDI'de bantgenişliğini
ortadan kaldıracak biçimde tasarlanmıştır. Tıpkı çeyrek karede olduğu gibi tam kare zaman
kodu da saat-dakika-saniye-kare bilgisi taşır ancak en önemli fark, bu bilgilerin
yerleştirildiği mesajdadır. Çeyrek kareler MIDI'de tek başlarına bağımsız bir mesajla
giderlerken (241 numaralı mesaj), tam kareler SysEx mesajının içine gömülü bulunurlar.
Böylece alan darlığı meselesi kendiliğinden ortadan kalkar. MMC mesajının SysEx içine
gömülü bir küresel zaman kodu olduğu; genelde 1. veya 16. global MIDI kanalı üzerinden
kendi adına kodlanmış özel yapısıyla saat, dakika, saniye ve kare bilgilerinden oluştuğu
açıktır. Böylece her bir zaman dilimi 7 "bit"lik, yani doğal olanından da fazla bir kümeyle
taşındığından çeyrek karede olan zaman sorunlarının neredeyse hiçbiri tam karede
yaşanmaz dersek abartmış olmayız. Yani MIDI kablo uzunluğu veya kalitesi, fazla veri
içeren uygulamalar tam kare zaman kodu için bir sorun değildir. Ancak bunun yerini,
kaynağında MMC'nin olduğu başka sorunlar alır ki maalesef bu sorunların kökeni de
zaman kodunun SysEx ile olan ilişkisinde, yani yapısında gizlidir.
MMC'deki gerçek yapısal sorun, MMC ile harekete geçen komut ve zaman koduna
dayalı eşgüdümün SysEx mesajı ile taşınmasındadır. Eşgüdümü hareket komutları ve
zaman kodu etkileşimiyle ayrı iki koldan yönetmek, her bir komut ve kod için neredeyse 1
Byte kullanmak MMC'nin eşgüdümde sağladığı en büyük avantaj gibi görülebilir. Ancak bu
mesajların kendine özel yapısıyla değil de SysEx mesajı içine gömülerek gönderilmesi,
donanımlar arasında uyuşmazlığı ortaya çıkarır ve işte MMC eşgüdümlü zaman koduna
ait sorunların kökeninde de bu durum yatar. Aynı marka veya farklı marka ama birbirlerini
desteklediği uluslararası bildirgelerde açıklanmış donanımlardan oluşan bir sistem için
MMC ile sağlanan eşgüdümlerde neredeyse sorun çıkmazken; çok farklı marka ve
modellerin kullanıldığı sistemlerde MMC ile kurulan eşgüdümde zaman kodu sorunları
hat safhaya varabilir. Çünkü her ne kadar MMC veya MTC Tam Kare mesajları SysEx içinde
firma bilgisi yerine sabit bir kod taşısa da, özellikle zaman kodlarında mesajın SysEx içinde
gönderilmesi, mutlaka karşı donanımlarda bir marka/model sorgulamasını tetikler.
Örneğin ProTools destekli donanımlar kendi içlerinde sorun yaşamazken, ProTools
tarafından açıkça desteği belirtilmeyen Tascam veya Mackie gibi dijital masalar sisteme
girdiğinde MMC ile sorunlar ortaya çıkabilir.
MTC ve MMC bu yapılarıyla yukarıda sözü edilen bir takım sorunları ortaya
çıkarmakla birlikte, bu sorunlara karşı üretilen diğer bir takım teknolojiler de ön plana
çıkıyor. Örneğin bunlardan biri HUI'dir. Mackie ve Digidesign firmalarının başlarda
otomasyon amaçlı yola çıktıkları HUI, şimdilerde MTC ve MMC kaynaklı sorunları aşmak
adına eşgüdüm için uygulamaya konulan bir başka yapı. Ancak yine de HUI'yi aslında
bütünüyle bir otomasyon sisteminin adı olarak düşünmek gerektiğinden, yapısıyla değil
uygulamasındaki MMC amaçlı eşgüdümle bu noktada anımsamakta fayda var.
İster MTC olsun ister MMC veya HUI, bu türden eşgüdüm teknolojilerinin aslında
sorunsuz üretildiklerini düşünmemek gerek. Bir kullanıcı olarak elbette sorun
denildiğinde ilk akla gelen bağlantılar veya ilgili ayarlar olur ancak burada anlatılmaya
çalışılan aslında pek çok eşgüdüm sorununun doğrudan eşgüdüm tipinden de
kaynaklanıyor olabileceğidir. Dolayısıyla özellikle MTC ve MMC mimarisi, yapılarındaki
özel durumlar nedeniyle özellikle günümüzde birçok eşgüdüm sorunlarının kökenidir.
Kaynakça
Durmaz, Serhat. MIDI, İzmir: Dokuz Eylül Yayınları, 2000. Basılı Yayın.
Huber, David Miles. The MIDI Manual: A Practical Guide to MIDI in the Project Studio, 3rd
ed. Burlington: Focal Press, 2007. Print.
Işıkhan, Cihan. "Eşgüdüm (senkronizasyon)." Sound Dergisi Mart 2009a: 48–51. Basılı
Yayın.
Işıkhan, Cihan. "Eşgüdüm (senkronizasyon) ve MMC Yapısı." Sound Dergisi Nisan 2009b:
48–51. Basılı Yayın.
Işıkhan, Cihan. "Eşgüdüm (senkronizasyon) ve MIDI Time Code." Sound Dergisi Mayıs
2009c: 48–51. Basılı Yayın.
ATMM 2013 PROCEEDINGS
81
TüRKİYE'DE KLASİK VE ÇAğDAŞ MüzİK PRODüKSİYONLARINDA
SES MüHENDİSİ İLE SANATÇI ARASINDAKİ İLETİŞİM
Abstract
As recording technology progresses, newly developed music production methods have
positive and negative influences on recording artists of our era. Even an experienced live
performer may go through a difficult time recording an album in a studio environment.
Likewise an experienced studio artist may benefit from the possibilities of technology in
a debated way. In various recording projects where there is no official producer in charge,
the decisions that a producer should make are perforce put on the shoulders of the sound
engineer. This situation may cause projects to end up without optimal artistic and technical
results. This work will discuss the responsibilities of both leading actors of the recording
project, namely the sound engineer and the artist, regarding the multitrack recording
sessions of mostly classical and contemporary music projects in Turkey. Suggestions for
improving the music education that should prepare a performer for a recording career
will be mentioned as well.
özet
İlerleyen kayıt teknolojisiyle birlikte evrilen müzik yapım yöntemleri günümüz
sanatçılarını olumlu veya olumsuz şekilde etkilemektedir. Yıllarca canlı icra konusunda
tecrübe biriktirmiş bir icra sanatçısı bile stüdyo kaydına girdiği zaman sıkıntılar
çekebilmektedir. Aynı şekilde oldukça fazla kayıt tecrübesi olan bir sanatçı ise teknolojinin
olanaklarından tartışmalı bir şekilde faydalanabilmektedir.Sanat yönetmeni (producer)
rolünün tam olarak doldurulamadığı birçok kayıt projesinde, bu rolün vermesi gereken
birçok karar mecburen ses mühendisine yıkılmakta olup sağlıksız sonuçlara yol
açabilmektedir. Bu bildiride, işte bu sıkıntılı iletişim sorunununçözüme yaklaştırılabilmesi
için çok kanallı klasik veya çağdaş müzik kayıt projelerinde iki esas aktör olan ses
mühendisi ve sanatçının üzerine düşen görevler ve de bu aşamaya gelene kadar alacakları
müzik eğitimi için öneriler tartışılacaktır.
Giriş
Çok kanallı kayıt için dünyada kabul edilmiş birçok yöntem önerisi olduğu gibi bu
yöntemler her kayda özel olacak şekilde ayrıntılarında esnetilerek uygulanmaktadır.
Mikrofon yerleştirme teknikleri ile ilgili bazı kitaplarda da önerildiği gibi aslında tam
olarak uyulması gereken kurallardan ziyade yol gösterici bazı öneriler vardır (Huber 1).
Her kayıt, farklı aktörlerin buluşması olduğu gibi, akustik mekân ve kayıt cihazlarının
oluşturduğu üretim aracıyla estetik ve algı kararlarına göre en uygun şekilde bir çözüme
bağlandığı mühendislik destekli bir sanat üretimidir. Kayıt teknikleri için öngörülen
kurallar ses mühendisine belli bir noktaya kadar yol gösterebilir ama neticede bu üretimin
sonucunda çıkacak ürün müzikten başka bir şey olmamalıdır (Karadoğan 126).
Bir müzik kaydının neden yapıldığı sorusunun herkes için farklı bir cevabı olmakla
birlikte birçok kişinin buluştuğu ortak noktadan biri ideal bir icranın yaratılması cevabıdır
(Streicher 41). İdeal bir kayıt bir topluluğun belli bir eser grubunu olabilecek en iyi şekilde
yorumladığı halini aktarmalıdır. Bu arayış bütün müzik tarzları için geçerli olmakla birlikte
aynı hedefe farklı yöntemler kullanarak ulaşılmaktadır.
Kayıt teknikleri ilkeleri üzerine yazılmış birçok yayının bulunduğu ortadadır. Bu
yazının amacı esasında son ürünü bir sanat eseri olan bir mühendislik kolunun günümüzde
ve ülkemizdeki uygulanışı hakkında geleceğini tartışacak bir durum tespiti yapmaktır.
Yazının hazırlanış nedeninin altında bulunan esas amaç topluluk müziğini yaşatmak ve bu
evrensel müzik geleneğindeki güzellikleri kayıt projelerine en özgün hallerinde aktarmak
için gerekli eleştiri ortamına katkıda bulunmaktır. Bu amaçla kayıtlarda sıklıkla
gözlemlenen ve kayıt projesinin akışını yavaşlatan bazı ana noktalar tartışılacaktır.
Çok Kanallı Kayıtlar
Bir topluluğun kaydını veya başka bir deyişle birçok müzisyenin beraber yer aldığı bir
kayıt projesini gerçekleştirmek için kullanılan iki ana yaklaşımtürü vardır denebilir: Birinci
yaklaşım topluluğun bir konserde icra edermişçesine bütün üyeleri ile beraber icra
ettikleri çok kanallı hücum kayıt yöntemidir. İkinci yaklaşım ise çok kanallı üst üste kayıt
yöntemidir.
Her iki yaklaşımda da kayıt işlemi sonunda edit, miks ve mastering için bekleyen
birçok ses kanalından oluşan bir parçadan müzik eseri yayına hazır hale getirilir.
Hücum Kayıt Yaklaşımı
Akustik olarak icra edilen birçok müzik hücum kayıt yöntemi ile kayıt edilir. Akustik
müziklerinin yanında birçok caz projesi, Türk Müziği icraları da bu yöntemi tercih eder.
Bu tarz kayıtlarda bireysel olarak iyi bir icranın yanında topluluk olarak beraber müzikal
hareketlerin yakalanması amaçtır. Topluluk büyüdükçe müzisyenlerin uyumu zorlaşır.
Kayıt için daha büyük mekânlara ihtiyaç doğar, bazen kayıt projelerinin konser salonlarına
taşınması gerekebilir.
Klasik ve çağdaş müzik yapımlarını popüler müzik yapımlarından ayıran temel
unsur akustik olarak provası yapılabilen müziklerin yine akustik olarak, yani bir kulaklık
sistemine ihtiyaç duymadan tek büyük bir mekândakaydının yapılmasıdır.
ATMM 2013 PROCEEDINGS
83
üst üste Kayıt Yöntemi
Ağırlıklı olarak popüler müziklerin kaydı için kullanılan yöntemdir. Genelde hücum kayıt
yaklaşımı ile karşılaştırıldığında stüdyo kayıt ve miks süresi olarak daha uzun süreler alan
bir yöntemdir. Yapım estetiği ve kontrolü arttırdığı için özellikle popüler müziklerde tercih
edilmektedir. Çoğunlukla müzisyenler birlikte çalmaz. Demo olarak hazırlanan kanalları
kılavuz alarak üstüne gerçek kanallar temize çekilir. Genellikle alt yapının sağlam olmasını
sağlayabilmek için önce ritim işlevi gören çalgıları daha sonra armonik işlevi olan çalgılar
ve de en son melodi işlevini yürüten çalgılar veya (şan gibi) solistler kaydedilir. Bunların
yanında MIDI ile hazırlanmış diğer kanallar da projede beraberinde korunur.
Topluluk ile icra edilen müziklerin bir kısmı mekân yetersizliği veya sanatçıların
buluşma zorlukları nedeniyle üst üste kayıt yöntemi kullanılarak gerçekleştirilmektedir.
Bu yapımların sıklığı belli bir alışkanlık doğurmakta ve artık topluluk olarak stüdyolarda
beraber çalma sıkıntılı bir deneyime dönüşmektedir. Başka bir deyişle üst üste kaydın
toplu çalma ile yapılan kayıt kültürünün varoluşunu tehdit etmeye başladığı söylenebilir.
Müzik Yapımlarında Roller: Tonmeister ve Ses Mühendisi
Almancada tonmeister unvanı ses mühendisliği eğitimi almış, konservatuar mezunu, teknik
bilgisi olduğu kadar yüksek bir icra ve yorumlama yapabilecek kadar müzisyenliğe sahip
kişiler için kullanılmaktadır. Bir kayıt projesi esnasında eserin notalarına bakıp, hangi
formda olduğunu bilip, kayıt odasında icra eden kişiye notada önerilen yorumla ilgili
yönlendirmeleri yaptırabilir, aynı şekilde kayda başlamadan ses mühendisine eserin
tarzına göre hangi mikrofonları, hangi teknikle uygulamak istediğini söyleyebilir. Eğer
kısım, kısım kayıt almayı tercih ettiyse, olası montaj noktalarının eserin hangi ölçülerinde
yapılıp yapılamayacağının planını yapabilir.
Tabii ideal bir dünyada böyle çalışan bir tonmeisterin yanında tam zamanlı olarak
bulunacak bir ses mühendisi bir de yardımcı mühendis olması gerekir ki herkes kendi
sorumluluk alanında tam olarak dikkatini verebilsin. Ama maalesef bu ekibin tutulmasının
kayıt için ayrılan bütçeyi yükseltmesi kaçınılmazdır. Hele klasik ve çağdaş müzik
yapımlarına olan talebin düşük olduğu bir dönemde kayıt yapmak isteyen sanatçılar
çoğunlukla kayıt masraflarını kendi ceplerinden karşılamak yoluna girerler. O zaman
sadece stüdyonun teknik kısmını halledecek olmazsa olmaz bir ses mühendisi ile kayıt
projesine başlanır. Bölünmeler kaçınılmazdır: Sanatçı hem icra edip hem de kendi sanat
yönetmenliğini yapmaya soyunacak, neticede bunu eş zamanlı yapamayacağından süreç
kısalması gerekirken uzayacaktır.Aynı şekilde kontrol odasında tek başına çalışan bir ses
mühendisi dikkatini yalnızca duyduğu sese ve sinyal seviyelerine vermesi gerekirken, hem
bu işi yapacak hem de bir yandan elindeki notalara icradaki hataları işaretleyip üstüne bir
de içerideki sanatçıyı rahatlatmaya çalışacaktır.Bu eş zamanlı görev yoğunluğunda bazı
ayrıntıların gözden kaçması ve bunun sonucunda kaydın uzaması kaçınılmazdır.
Türkiye'deki Yapımlarda Gözlemlenen Sorunlar
Birçok sanatçı ses mühendislerinin sabırsız ve huysuz tavrından şikâyetçidir. Aynı şekilde
birçok ses mühendisi de sanatçıların kayıtlara bilgisiz girip imkânsız taleplerde
bulunmalarından bahseder. Buna neden olan koşullar nelerdir? Ses mühendisleri veya
sanatçılar hangi hesap hatasına sürekli düşüp durmakta ve neticede mutsuz
olmaktadırlar?
İlk stüdyo kaydı: İlk defa stüdyoya giren bir sanatçı, açıkça ifade etmese de süreçten
oldukça çekinmektedir. Sanki ömürleri boyunca icra ettikleri bir çalgıdan imtihana girer
gibi hissedip normalin dışında bir yüzleşme korkusu yaşarlar. Ama bu ilk adımı iyi atmaları
onlara büyük bir üretim ivmesi kazandırabileceği gibi bu sayede dünya kültürüne de birçok
eserin dinlenebilirliğini katabilir. Bu aşamada ses mühendisinin en önemli görevi hem bu
geçiş aşamasında hem de kayıt sürecinin başından sonuna kadar gerekli psikolojik desteği
sağlamaktır. Topluluk kaydında bu çekince birden fazla icracıda belirirse topluluğun bütün
olarak iyi icra vermesi zorlaşabilir.
Kayıt Sürecinin Bilinmezliği: Sanatçı tarafındaki bir başka çekince ise sürecin
belirsizliğinden ileri gelmektedir: Albüm üretimi denen iş hangi aşamalarda oluşur? Bir
saatlik bir repertuarı bir konser gibi tek nefeste mi çalmalıdır? Bir tane tam kayıt
çıkmadığında, montajla ilgili konular konuşulurken ses mühendisine iş mi çıkarmış
olmuştur? Montaj yapıp hatalı kısımları düzeltmek etik olarak yanlış bir işlem midir?
Kafada bu kadar sıkıntılı soru varken "şimdi baştan alalım" dendiğinde iyi bir icranın
gerçekleşme ihtimali oldukça azalmıştır. Sürecin bilinmezliği bir projenin saat veya gün
bazında ne kadar sürede yapılacağının tahminini zorlaştırdığından fiyatlandırmasını da
zorlaştırmaktadır. Edit işlemleri bazen kayıt almaktan uzun sürebilir. Aynı şekilde bol bol
kayıt alan bir sanatçı da günün sonunda yaptığı en iyi kaydı edit yapamadan olduğu gibi
tutmak isteyebilir.
Yeni Akustik Mekânlar: Akustik müzik icra eden sanatçılar prova odasındaki
çınlamaya alışıpstüdyonun nispeten kuru ortamında sıkıntı çekebilmektedirler. Özellikle
keman ve şan icracıları bu yüzden konser salonlarının çınlama sürelerini kayıt yapacakları
stüdyoların oldukça kuru kayıt odalarında bulmayı beklerler.
Türk Makam Müziği kayıtlarında çalgı sayısı çoğaldıkça kulaklıkla çalma ihtiyacının
doğduğu gözlemlenmektedir. Hem oluşturulacak ortak perde entonasyonu için, hem de
parçaların usulüyle ilgili zamanlama problemleri nedeniyle kulaklık kullanımı faydalı
olabilmektedir. Fakat provalar başka mekânlardakulaklık olmadan yapıldığından stüdyo
çalımında uyum sorunları gözlenmektedir.
Akustik Denge Bilgisi: Özellikle piyano veya vurmalı çalgıların eşlik ettiği birçok
toplulukta rastlanan bu problem genelde provalarda göz ardı edilmektedir. Kayıt
projelerinde olduğu kadar konserlerde de nasıl bir mikrofonlama ile çözülmesi gerektiği
de belirsizdir. Batı çalgıları ile klasik Türk müziği çalgılarını beraber kullanan besteci ve
toplulukların oldukça hassas yaklaşması gereken bu mühim sorun, bu tarz projelerin kayda
aktarımında ses mühendisine de zorluklar çıkarabilmektedir. Bu yeni suni dengeler aslında
akustik çalımda sonucunu veremezken kayıtta yeni bir ses dünyası içinde dengesini
bulması için hayal edilmiştir. Kayıt esnasında topluluğun şefi de salt akustik duyumla takip
ettiği müziğin son haline varıp varmadığını bilemez. Bu tarz bir projeye kalkışan her
besteci kayıt sırasında bu öncelikleri atlamamalıdır.
ATMM 2013 PROCEEDINGS
85
Mikrofonununçalgının akustik sesini kayda aktarırken nasıl dönüştürdüğüne aşina
olmamak da birçok müzisyenin ilk kayıttan sonra şaşırmasına yol açmaktadır. Sık kayıt
yaparak aşinalık kazanılabilir.
Oturma düzeni: Klasik Batı müziğinde oturma düzenleri oldukça standartlaşmıştır.
Buna göre kayıt teknikleri de kendini uyarlamış ve panoramadaki beklentileri karşılar hale
gelmiştir. Türk Makam Müziği kayıtlarında karşılaşılan zorluklardan biri de çoğunluk
müzisyen tarafından kabul edilmiş ve kalıplaşmış bir oturma düzeninin eksikliğidir.
Çoğunlukla kanunun ortada oturduğu gözlemlenirken mızraplı ve yaylı sazların stereo
panoramada nerede olması gerektiği hususu çoğunlukla bir bilinmeyendir.
Teknolojinin Sonsuz İmkânları: Akustik kayıtlarda aynı mekânı paylaşan çalgıların
sesleri birbirine az da olsa karışmaktadır. Bu şekliyle beraber mikslendiğinde her ufak
ayrıntının bütün tını içinde bir katkısı mevcuttur. Bu durumda kaydedilmiş bir topluluğun
tek bir çalgısındaki hatayı tek başına düzeltmek mümkün değildir. Ancak izole edilmiş bir
odada çalan bir çalgı bu düzeltmeyi yapabilir.
Sonuç ve öneriler
Hızla gelişen teknolojiye koşut bir şekilde evirilen birçok öğrenim programı gibi güzel
sanatların müzik alanındaki klasik çalgı ve kompozisyon öğrenimi de teknolojik
farkındalığa uyum göstermek zorundadır. Dünyada kayıt imkânı olan belli başlı müzik
okullarında hâlihazırda var olan bu uygulamaları ülkemiz okullarının da takip etmesi
gerekmektedir. Aynı şekilde ses mühendisi veya müzik yapımcısı adayı yetiştiren bütün
kurumlarda ülkenin müzik doğası ile ilgili bilginin temel ders müfredatı içine alınması
gerekir. Buna göre yukarıda yapılan bu durum tespitinden yola çıkarak sık karşılaşılan
problemlerle ilgili şu öneriler yapılabilir:
Referans Kayıtları Dinlemek: Bir kaydın her iki taraf açısından da mutluluk verici
sonuçlanması için beklentilerin gerçek dünya koşullarıyla beraber şekillenmesi gerekir.
Bunu sağlamak için kayıt ile ilgili ön görüşmeler yapılmalı, bu görüşmelerde sanatçı bu
kayıtla ulaşmak istediği tını hedefini izah etmeye çalışmalı, ses mühendisi de, her
mühendislik kolunun olmazsa olmazı olan verim meselesini sanatçıya izah etmelidir.
Kaynaklar doğrultusunda olabilecek en sağlıklı çözüm zaten en iyi çözümdür. Bir tınıyı
hayal ederken onu gerçek dünyaya aktaracak olan ses mühendisinin bu dönüştürme
işlemine en faydalı olabilecek şey sanatçının yapacağı kayıt ile ilgili beklentisine yakın bir
örneği dinletmesi olacaktır. Sanatçı, özellikle sıra dışı bir düzenleme girişiminde
bulunuyorsa yakın tınlamasını istediği bazı albümleri mutlaka dinletmelidir. Bitmiş ve
yayınlanmış bazı yapımlardakikayıt yaklaşımları bir ses mühendisi için oldukça fazla ipucu
içerebilir. O zaman sanatçının hayal ettiği tınıyı kelimelerle anlatmasına bile gerek kalmaz.
Bu kayıt durumunun böyle olacağı aşikârken kayda giren sanatçının bunu önceden
kestirebilmesi için neleri yapmışolması gerekir? Daha da büyük bir zaman dilimini
düşününce çalgı eğitimi alan bir sanatçı ile ses mühendisliği eğitimi alan bir başka sanatçı
okul bitmeden, gerçek hayata atılmadan bu konuda nasıl tecrübe kazandırılabilir?
Kritik İşitme: Ses tasarımı öğrencilerine zaten öğretilen kritik işitme alıştırmaları
sanatçılar için de faydalı olabilir. Çalgı bölümü öğrencileri, öğrenimleri boyunca bir yandan
sazlarını icra etmede ustalaşırken, diğer yandan sazlarının solo veya topluluk ile beraber
kayıtlarda nasıl tınladığı konusunda kendilerini geliştirmeleri gerekir. Bu şekilde
kendilerini ilerde yapacakları stüdyo albümlerine ve de mikrofonlama yapılacak
konserlerine hazırlamaya başlamış olurlar. Taleplerini dile getirdikleri ölçüde de beraber
çalışacakları ses mühendisleriyle de daha iyi anlaşabilirler.
Okul Bitirme Prodüksiyonları: Müzik okullarının çalgı eğitimi ve kompozisyon
bölümlerinde mezuniyete yakın oldukları 7. ve 8. yarıyıllarda ufak çapta bir müzik
yapımının parçası olmaları gereklidir. Birçoğu belki stüdyolarda kayıt tecrübesi edinmeye
başlamıştır ama sorumluluğun tamamen kendilerine ait olduğu ve de zaman planlamasını
da yine aynı okuldan bir müzik teknolojisi öğrencisi ile yapabileceği bir proje yapmasının
faydaları çoktur. Bu yapımın çok büyük bir şey olması gerekmez ama süreci anlaması için
yetecek zorlukta bir iş olmalıdır.
Bu tarz yapımlar ses mühendisliği programlarında genelde her dönemde yapıldığı
gibi okulu bitirirken de daha kapsamlı projeler yaparlar. Bu projeleri yaparken bazı
unsurlar yine de atlanabilir.
Ses Mühendisi Adaylarının Atlamaması Gereken Noktalar: Bir kayıt projesini
yaparken eldeki en önemli malzeme sanatçının kendisidir. Ses mühendisi adayları
tamamen kendi alanlarında kalan alet edevat ve yazılım kullanımına aşırı önem verip işin
icracı boyutunu ihmal edebilirler. Oysa icracı ile olan iletişim bir kaydı onca stres ve
sıkıntıya rağmen sonuna kadar taşıyacak olan güçtür. Yukarıda bahsedilen ilk kayıt durumu
da göz önüne alındığında, ses mühendisinin sanatçıyı bütün bu başı sonu bilinmeyen
süreçten geçiren bir yoldaş ve sırdaş olması gerekir. Onun iyi icra yapabilmesi için gereken
bütün koşulları sağlamalı ve belli bir rahatlama noktasına gelene kadar oluşabilecek bütün
gerilim noktalarında sağduyulu davranmalıdır. Aslında belki bütün bu diyalog müzik
yapımcısı üzerinden yürümesi gerekirken, çoğu kayıtta eksik olduğundan dolayı
sorumluluk ses mühendisine kalmıştır.
Söz konusu olan bir topluluk kaydıysa icracıların göz teması stüdyodaki yerleşimde
öncelikle göz önüne alınmalıdır. Göz teması mesela caz kayıtlarında veya başka serbest
formlu çalışmalarda sololara giriş çıkış ile ilgili işaretleşme için oldukça yararlıdır. Bazı
kayıtlar parçanın ilk çalımında bitebilir. Bu yüzden ses mühendisi kaydın her anında
kendini projeye vermeli ve teknik bir hataya imkân bırakmamalıdır. Bazı kayıtların tekrarı
yapılamaz.
Kayıtların en hassas anlarında kontrol odasındaki ses mühendisinin, kayıt
odasındaki sanatçı ile iletişimi talkback üzerinden gerçekleşir. Bu konuşma esnasında
çoğunlukla iki taraf da birbirini görmediğinden bir kaydın sonunda yapılacak yorumlarda
kullanılan ses tonu ve ifade çok önemlidir. Zaten hassas bir durumda icrasını tamamlamış
olan sanatçı,kendi icrası ile ilgili gerçeği ses mühendisinin sesinde arayacaktır. Bu
diyalogda ses mühendisi sağduyulu davranmalı ve de sanatçıyı kırmadan yönlendirmelidir.
Birçok kuralı da olsa her kayıt kendine özgü uygulamasıyla bir başka benzer kayıttan farklı
olacaktır. Duyarlı bir ses mühendisi, hazırlanmış bir sanatçı ile beraber çalıştığında,
çıkabilecek aksilikler yok olmasa da en aza inecektir. Bu şekilde yapılan müzik üretimiyle
geleceğe sağlıklı bir işitsel miras bırakılacaktır.
ATMM 2013 PROCEEDINGS
Kaynakça
87
Huber, David Miles, and Philip Williams. Professional Microphone Techniques. Emeryville:
Mix Books, 1998. Print.
Karadoğan, Can. "Statistical Evaluation of Production Techniques as They Relate to
Perceived Turkish Makam Music: Case Study Kanun." PhD thesis, Istanbul Technical
University, 2010.
Streicher, Ron, and Anton Everest. The New Stereo Soundbook. Pasadena: Audio
Engineering Associates, 1998. Print.
TINI ARAŞTIRMALARINDA SİSTEMATİK VE YENİLİKÇİ BİR
YAKLAŞIM İHTİYACI
Abstract
Timbre is frequently described as the characteristics of sound apart from pitch and
dynamics enabling one to differentiate between different sound sources. This description
has a blurred conceptual framework as it mostly describes what is not timbre rather than
what it is, based on only sound sources. With the rise of high technology in studio
equipment offering almost unlimited possibilities to record and process sounds, timbre
has become the most discussed feature of sound in the studios among professionals.
However, these discussions take place mostly with a terminology heavily based on
subjective expressions and experiences and therefore communication among professionals
are not fluent.
By reviewing the description of timbre considering its multi-dimensional and
complex nature, creating a common terminology about timbre leading to effective
communication among professionals and researching the concept of timbre, which is
proved to be signified integrally by our visual and kinesthetic perceptual system in
addition to our auditory system, with the use of continously developing high technology
tools, timbre studies could become more systematic and present a clearer conceptual
framework.
özet
Tını, sıklıkla sesin perdesi ve dinamiği dışında kalan ve bir ses kaynağının diğerinden ayırt
edilebilmesini sağlayan özellikleri olarak tanımlanır. Bu tanım, gerek tınının ne olduğundan
ziyade ne olmadığını belirtmesi, gerekse tınıyı sadece ses kaynağı üzerinden açıklamasıyla
bulanık bir kavramsal çerçeveye sahiptir. Tını aynı zamanda, teknolojinin hızlı gelişimi
sayesinde sesin işlenebilmesi açısından neredeyse sınırsız olanaklar sunan stüdyolarda
sesin en çok tartışılan özelliği haline gelmiştir. Ancak, bu tartışmalarda, genellikle kişisel
deneyimlere dayalı bir terminoloji kullanılmakta ve profesyoneller arası iletişimde
kopukluklar yaşanmaktadır.
Gerek tınının çok boyutlu ve karmaşık yapısının göz önüne alınarak yeniden
tanımlanması, gerek bu iletişim kopukluklarının giderilerek tınıyla ilgili ortak bir
terminoloji oluşturulması, gerekse son dönem araştırmalarında işitsel algı yanında, görsel
ve kinestetik algıyla bütünlüklü şekilde anlamlandırıldığı kanıtlanan tını kavramının, son
dönemde ortaya çıkan teknolojik araçlar kullanılarak ve çok disiplinli bir şekilde
araştırılmasıyla, tını çalışmaları sistematik hale getirilebilir ve berrak bir kavramsal
çerçeveye oturtulabilir.
ATMM 2013 PROCEEDINGS
Tanım: Tını Ne Değildir?
89
Geleneksel Batı müziği besteciliği, notasyonu, icrası ve analizinde en sık kullanılan ve
araştırılan iki kavram, sesin perdesi ve dinamiğidir. ANSI'nın 1973'teki tanımına göre,
sesin bu özelliklerinin aynı olması durumunda, bir ses kaynağının diğerinden
ayırtedilebilmesini sağlayan özellikler ise sesin tınısal özellikleri olarak tanımlanmıştır. Bu
tanım, tını kavramını çok-boyutlu yapısına değinmeden kısıtlı olarak ele almakta ve bu
çok-boyutlu yapının dinamiklerinin araştırılmasıyla ortaya konabilecek daha net bir
kavramsal çerçeve yerine, sınırları belirsiz ve kaygan bir düzleme oturtmaktadır. Bu tanımı
incelemeden önce, tınının sesin diğer özelliklerinden farklılıkları incelenebilir.
İlk olarak sesin perdesi ve dinamik özellikleri tınıdan farklı olarak çeşitli
yöntemlerle sistematik olarak araştırılan alanlardır. Örneğin, dB birimi üzerinden ve hatta
sese bağlı olarak dB-A, dB-B ve dB-C gibi farklı ağırlıklama ölçekleriyle ifade edilen sesin
dinamik özellikleri, kişinin öznel algısından bağımsız olarak nesnel bir ölçme ve
değerlendirme sistemiyle belirlenebilmektedir. Her ne kadar dinamik özellikler kadar
nesnel olarak değerlendirilemese de, sesin perdesi de başta frekans analizi ve bu alanda
yapılmış psikoakustik çalışmalarla sistematik olarak araştırılabilen bir alandır. Bir başka
deyişle, tınıdan farklı olarak sesin bu özellikleri, yapılan çalışmalar ile insan algısından
önemli ölçüde bağımsızlaştırılmış ve bilimsel bir çerçeveye oturtulmuştur.
İkinci olarak, tını kavramı yukarıda da belirtildiği gibi, geleneksel Batı müziği
pratiğinde sesin görece olarak en az notasyona dökülen, artiküle edilen ve araştırılan
kavramıdır. Geleneksel Batı müziğinde notasyonda belirtilen ses olaylarının perdeleri,
uzunlukları ve şiddetlerinin aksine tınıya ait özelliklere notasyonda fazla yer verilmemiş
ve daha çok performansçının yorumuna bırakılmıştır. Bu durum, müzikoloji çalışmalarında
da kendisini göstermiş, sesin dinamik özellikleri ve perdesi ile karşılaştırıldığında tınının
değerlendirilmesi ve anlamlandırılması ile ilgili oldukça az çalışma yapılmıştır.
Son olarak tını, sesin diğer özelliklerine göre insanın farklı algı biçimleriyle en çok
etkileşimde olan ve en öznel anlamlandırılan ses özelliğidir. Bundan dolayı, tınının
algılanması ve anlamlandırılması oldukça karmaşık süreçlere dayanır. Bu yüzden de, diğer
özelliklerle karşılaştırıldığında araştırılması çok-disiplinli çalışmalara en çok ihtiyaç duyan
özelliğidir.
Bu farklılıklar göz önüne alındığında yukarıda verilen tanımda tınının, üzerine
birçok sistematik çalışma yapılmış, yöntem geliştirilmiş ve tınıya göre çok daha net ve basit
bir kavramsal çerçeveye sahip sesin diğer özelliklerinin aynı olması durumundan hareketle
tanımlanması, kavramın ne olduğundan ziyade daha çok ne olmadığını ifade etmektedir.
Ayrıca, tınının oldukça etkileşim içerisinde olduğu bu kavramlardan ayrıştırılarak
tanımlanması, kavramın doğasının tam olarak anlaşılamamasına yol açmaktadır.
Tanımın ikinci bölümünde geçen bir ses kaynağının diğerinden ayırt edilebilmesini
sağlayan özellikler ifadesi ise tını kavramını farklı ses kaynakları arasındaki
karşılaştırmalar üzerinden açıklamaktadır. Bu ifade, kavrama kısıtlı işlevsel bir boyut
getirmekte ve bir ses kaynağının başka kaynaklardan bağımsız olarak sahip olduğu farklı
tınısal özellik ve olasılıklarını vurgulamamaktadır. Ayrıca, sesin tınısal özelliklerinin sadece
ses kaynakları üzerinden açıklanması, örneğin akusmatik müzik gibi sesin tınısal
özelliklerinin sıklıkla kaynaklarından bağımsız tartışıldığı pratikler için yetersiz
kalmaktadır.
Sonuç olarak, araştırılmasında ilk adım olan tanımlama aşamasında tını kavramının
yeniden ele alınması ve aşağıda da yer verilen çok yönlü yapısının da göz önüne alınarak
tanımlanması gerekmektedir.
Terminoloji: Stüdyo örneği
Tanım konusuna benzer şekilde, sesin tınısal özellikleriyle ilgili terminoloji, perde ve
dinamik özelliklerine göre çok daha havada ve belirsizdir. Batı müziği pratiğine benzer
şekilde, sesin diğer özellikleriyle ilgili terminoloji oturmuş da olsa, sesin tınısal
özellikleriyle ilgili konuşmalar genelde öznel deneyim ve ifadelerden beslenmekte, bu
yüzden de tını hakkında ortak bir terminoloji belirlenememektedir.
20. yüzyılda teknolojideki ilerlemelerle sesin daha steril şekilde kaydedilebilmesi
ve kaydedilen sesin işlenebilmesi için kullanılabilecek araçların sınırsızlığı, özellikle
stüdyolarda kayıt aşamasından miks-mastering aşamasına kadar sesin tınısal özelliklerinin
geçmişe göre çok daha fazla tartışılmasını kaçınılmaz hale getirmiştir. Bununla ilgili çarpıcı
bir örnek, Feld ve arkadaşlarının yaptığı çalışmada verilmiştir (323-328) . Bu çalışmada,
Porcello'nun stüdyolarda aldığı konuşma kayıtlarının ve çok sayıda profesyonel ses
dergisini kapsamlı incelenmesi sonrası, müzisyenlerin kayıt seanslarında tını hakkında
konuşurken 5 farklı strateji kullandıkları ortaya konmuştur:
1)
Üzerinde konuşulan sesin tınısal özelliklerinin ağızla taklit edilmesi. Buna
örnek olarak, trampet metal çubuklarının trampetin alt tarafında yarattığı
titreşimler için /dz:::/ sesi veya 3' lü ritmli marakas çalınması için /s::: ts
ts/ gibi örnekler verilebilir. Bu örnekler, tını üzerine konuşanların tınıyı
adeta icra ederek anlatmaya çalıştıkları bir stratejidir.
2)
Konuşulan sese fonolojik olarak benzerlik gösteren sözcükler kullanılması.
Bu stratejide, üzerine konuşulan sese duyum anlamında benzerlik gösteren
sözcükler kullanılır. Örnek olarak, klik, bazz, hiss gibi kelimeler verilebilir.
Bu stratejinin yukarıdan farkı, tınının anlamsal içeriği bulunan sözcükler
kullanılarak anlatılmasıdır.
3)
Saf metafor kullanılması. Burada, tını üzerinde konuşulurken, akustik
benzerliklerden bağımsız olarak genelde diğer algısal alanlara hitap eden
sözcükler kullanılır. Örnek olarak, her biri sinestetik birer metafor olan ıslak,
kuru, derin, parlak, yuvarlak, köşeli gibi kelimeler verilebilir. Genelde görüş
ve dokunuşa yönelik kelimeler kullanılır. Birinci stratejide olduğu gibi, bu
stratejide de tınının farklı algılar üzerinden düşünüldüğü ve ifade edildiği
görülmektedir.
4)
Başka örneklere referans verilmesi. Bu stratejide de tını başka müzisyenler,
kayıtlar, sesler, teknolojiler üzerinden ifade edilerek anlatılır. Bu stratejide,
konuşanlar tınıyı kendi üzerinden açıklamak yerine, ortak kültürel bilgiye
sahip olduklarını düşündükleri referanslarla ilişkilendirerek anlatırlar.
5)
Değerlendirme. Burada, sesin tınısal özelliklerinin kendi üzerinden veya
referanslar kullanılarak anlatılması yerine, ortak estetik ve teknik kriterler
üzerinden ortaya çıkarılan tını değerlendirilir.
Tını üzerinden yapılan tartışmalarda, yukarıda verilen stratejiler sıklıkla birlikte kullanılır.
Kişiler arasında etkin bir iletişim oluşması için de tüm bu stratejilerde kişilerin yakın
kültürel ortaklığa sahip olması gereklidir. Dolayısıyla, tını ile ilgili ortak bir terminoloji
oluşturulması için önemli bir rehber olabilecek yukarıdaki stratejilerden haberdar olmak,
stüdyo profesyonellerinin birbirleriyle iletişiminin daha etkin olmasını sağlayacaktır. Tını
ATMM 2013 PROCEEDINGS
91
araştırmalarının, daha berrak bir çerçeveye oturması için bu alandaki akustik bilimciler,
algı bilimciler, müzikologlar ve profesyonellerle işbirliği içerisinde, kendi terminolojisini
oluşturması gerekmektedir.
Rehber Ses Araştırmaları
Her ne kadar, sesin dinamik özellikleri ve perdesi ile ilgili çalışmalarla karşılaştırıldığında
tını ile ilgili çok az çalışma olsa da, yine de özellikle 20. yüzyılın ikinci yarısından itibaren
yapılan bazı çalışmalar, tını kavramının yeniden tanımlanması ve ortak bir terminoloji
oluşturulması için önemli bir kaynak oluşturabilir. Bu bölümde, bu çalışmalardan bazı
örnekler verilmiştir.
Ses ve dolaylı olarak tını üzerinde daha sistematik araştırmalara örnek olarak,
Schaeffer'in 20 yıllık deney ve araştırmalarının sonucu ortaya çıkan Müzik Objelerinin
Bilimsel İncelemesi (Traité des objets musicaux) eseri verilebilir. Bu eserde Schaeffer, sesi
notalar ve işaretlerden bağımsız şekilde, deneyimler üzerinden açıklamış, ses objeleri
olarak çeşitlerine ve morfolojilerine göre kategorilendirmiş, ve geleneksel ve çağdaş müzik
alanında alternatif bir sistematik ortaya koymuştur. Schaeffer bu çalışmalarında, sesin
indirgenmiş dinleme yoluyla tamamen sessel özellikleri üzerinden değerlendirilebileceğini
iddia etse de, gerek kendisinin daha sonraki ifadeleri gerekse daha sonra yapılmış
çalışmalar, sesin diğer algı biçimlerinden tamamen bağımsız değerlendirilemeyeceği
Schaeffer sonrası literatürde kabul görmüştür. Ancak, yine de ses araştırmalarında ortaya
koyduğu teori ve çeşit ve morfoloji üzerinden ortaya koyduğu sistematikle bu alanda baş
yapıtlardan birine imza atmıştır.
Smalley de, öncelikli olarak elektroakustik müziğin açıklanması ve anlaşılması
amacıyla, Schaeffer'in teorisini de kullanarak, sesin spektral ve morfolojik özellikleri
üzerine yoğunlaşmış ve insan algısının farklı boyutlarını (örn. görsel, davranışsal, vb.) ve
gündelik yaşamda kullanılan kavramları (örn. kümelenme, birikme, yükselme, vs.)
kullanarak kendi deyimiyle, sessel şekilleri sesin spektromorfolojisi üzerinden açıklamıştır
(107-125). Çalışmasında, yukarıda belirtilen tını ile ilgili kavramsal çerçeve ve terminoloji
ihtiyacını, Smalley dinleme deneyiminin ifadesi ve analizi için ortaya koymuştur.
Smalley'in çalışmasında sunduğu kavram ve çerçeve, sesin dinleme deneyimiyle en
yakın ilişkide olan özelliği olan tınısal özelliklerle ilgili olarak değerlendirilebilir. Örneğin,
çalışmada elektroakustik müzik için kullanılan hareket ve büyüme metaforları farklı
kategorilerde detaylandırılmış ve kullanımlarıyla ilgili örnekler verilmiştir. Bu çalışmada
kullanılan kavramlar, tını için geliştirilecek terminoloji ve kavramsal çerçeve için önemli
katkılar sağlama potansiyelini taşımaktadır.
"Tını Paradoksu" adlı makalesinde Fales, tını kavramını incelerken, tınının ses
kaynaklarının belirlenmesinde kilit özellik olarak tanımlanmasına karşın, sesin diğer
özelliklerine göre en öznel ve fiziksel dünya ile en ayrık özellik olması dolayısıyla kendi
içinde bir paradoks barındırdığını öne sürmüştür (56-95). Bu paradoksu açıklarken de,
insanın ses algısını oluştururken algısal dengesini sağlamak için akustik sinyalin içinde
barınmayan ancak algısal çıktının oluşması sürecinde devreye giren algısal operasyonlar
olarak algısallaştırma kavramını kullanmış ve bu algısallaştırma süreçleri üzerinde
çalışmıştır. Algısallaştırmanın daha yoğun olduğu zamanlarda akustik sinyal girdisiyle
algısal çıktı arasındaki farkın daha da arttığını belirtmiş ve tınının perde ve dinamik
özelliklere göre algısallaştırmada en çok kullanılan özellik olduğunu öne sürmüştür. Bir
başka deyişle, zaman zaman fiziksel bir sinyal olarak sesin frekans spektrumu üzerinden
araştırılan tını kavramı, aynı zamanda bu akustik sinyali alıcıda dönüştüren algısal
süreçleri de en çok tetikleyen özellikleri barındırmaktadır.
Schaeffer, Smalley ve Fales gibi araştırmacıların çalışmaları, tını araştırmalarını
sadece fiziksel veya Batı müziği pratiği üzerinden yürütülen kısıtlı çalışmalar olmaktan
öteye taşıyarak, tınıyla ilgili çok-disiplinli çalışma pratiği geliştirilmesine katkı koyma ve
bundan sonraki çalışmalar için yenilikçi bir anlayış geliştirme potansiyeli sunmaktadır.
Etkileşim: Tınının Farklı Algı Biçimleriyle İlişkisi
Doğumdan itibaren –hatta bazı kaynaklara göre anne karnında iken- insanların sesleri
ayırt etme ve yorumlamasıyla ilgili yetkinlikleri çeşitli çalışmalarla kanıtlanmıştır. Yakın
zamanda yapılan çalışmalarda, deneylere katılan dinleyicilerin sesin oluşmasına yol açan
çeşitli kaynakların ve hareketlerin özelliklerini ve oluşan süreçlerin özelliklerini oldukça
iyi seviyede belirleyebildikleri görülmüştür (Neuhoff 89-106). Rosenblum'un yaptığı
araştırmada, örneğin vurulan çubukların genişlik ve uzunlukları, malzeme çeşitleri, vazolar
içine konan sıvıların seviyeleri ve ayak seslerinden yürüyen kişinin cinsiyeti gibi çok
spesifik özelliklerin dinleyiciler tarafından yüksek isabetle tespit edildiği belirlenmiştir
(213-248). Mehler ve diğerlerinin çalışmasında da, bir aylık bebeklerin annelerinin
seslerini ayırt edebilme yetenekleri ortaya konmuştur (491-497). Bir başka çalışmada da
(Haueisen ve Knösche 786-792), profesyonel piyanistlerin piyano müziği dinlediklerinde,
piyano çalarken beyinlerinde aktif hale gelen bölgenin harekete geçtiğini, ayrıca bu
durumun iki haftalık piyano çalışması sonucu profesyonel olmayan kişilerde de
gerçekleştiği gösterilmiştir (Bangert ve Altenmüller 1-14).
Tını, sadece işitsel değil aynı zamanda görsel ve kinestetik (dokunsal, bedensel)
algıyla da yakın ilişki içerisindedir. Örneğin, tını yerine sıklıkla ses rengi sözcüklerinin
kullanılması veya bir sesi nitelemek için parlak, donuk sıfatlarının kullanılması sesin görsel
algıyla ilişkisinin en açık örnekleridir. Horaccio Vaggione ve Bernard Parmegiani gibi
bestecilerin eserlerinin, seslerin ve formun görsel algıda oluşturduğu güçlü imgeler
nedeniyle elektroakustik müzik literatüründe görsel müzik olarak nitelendirilmesi de bu
açıdan farklı bir örnek olarak verilebilir.
1990'ların sonuna doğru algının bedenselleşmesi ile ilgili sistematik çalışmalar
artmış ve bu konu üzerinde çalışan birçok araştırmacı ortaya çıkmıştır. Bu araştırmalarda,
algıladığımız veya düşündüğümüz herhangi bir şeyin kafamızda, kendimizin veya
başkasının geçmişteki, şimdiki veya gelecekteki beden hareketinden veya kaynağı
olduğunu düşündüğümüz şeylerin veya ona ait algıladığımız dokunsal ve hareketsel
özelliklerden kaynaklanan mental simülasyonlarla oluştuğu bilgisinden yola çıkılmıştır
(Godoy 54-62). Sesin veya müziğin bedenselleşmiş algısında ise en baskın özellikler, gerek
sesin kaynağı algısıyla ayrılmaz ilişkisi, gerekse diğer algı biçimleriyle yakın etkileşimiyle
sesin tınısal özellikleridir. Bu anlamda, bedenselleşmiş ses algısıyla ilgili çalışmalar da
sistematik tını araştırmaları için önemli veriler sunmaktadır.
Örneğin, Godoy ses ve hareket arasında benzerlik kurarak, hem sesin hem de sesle
ilişkili jestlerin enerji-hareket eğrilerine sahip olduğunu, seste zarf olarak gösterilebilen
bu eğrinin sensörler yoluyla harekette tespit edilebildiğini ve bu iki veri arasında
bedenselleşmiş algı çalışmaları kapsamında ilişkiler kurulabileceğini öne sürmüştür (5462).
Caramiaux ve arkadaşlarının bu ilişkiyi araştıran bir çalışmasında, sesin kaynak
bilgisine bağlı olarak bedenselleşmesi ile ilgili ilginç sonuçlar çıkarılmıştır (144-148).
Çalışmada, kaynağı belirgin ve kaynağı belirgin olmayan iki kategoride sesler katılımcılara
dinletilmiş ve bu seslerin kaynağını kelimelerle ifade etmeleri, hareketleriyle de
benzetmeleri istenmiştir. Çalışma sonucunda kaynağı belirgin seslerin kaynağının
kelimelerle ifadesinde yüksek oranda benzerlikler, hareketlerle benzetilmesinde ise
yüksek oranda farklılıklar olduğu belirlenmiştir. Kaynağı belirgin olmayan seslerde ise tam
ATMM 2013 PROCEEDINGS
93
tersi bir durum gözlenmiş, kaynağın kelimelerle ifadesinde farklılıklar görülürken,
hareketlerle benzetilmesinde yüksek oranda tutarlılık tespit edilmiştir. Sonuç olarak bu
çalışmada, sesin bedenselleşmesinde kaynağın belirginliğinin oldukça etkili olduğu ortaya
konmuştur. Bunun gibi çalışmalarla, tınının bedenselleşmesiyle ilgili önemli veriler elde
edilebilir ve bu veriler tını araştırmalarında kullanılabilir.
Tartışma ve Sonuç
Tını kavramı, temelde sesin perdesi ve dinamik özelliklerinin dışında kalan özellikler
olarak yapılan yüzeysel ve negatif tanımlamalarla bulanık bir kavramsal çerçeveye sahiptir.
Akustik bilimciler, müzikologlar, davranış bilimciler, tınıyla yakın ilişkili çalışan
profesyonellerin ve hatta elektroakustik müzik bestecileri ve araştırmacılarının birlikte
yapacakları çok-disiplinli çalışmalarla oldukça karmaşık algılanma ve anlamlandırma
süreçleri içeren tını üzerine daha kapsamlı bir tanım, terminoloji, sistematik araştırma
yöntemleri ve yenilikçi yaklaşımlar geliştirilmelidir.
Buna yönelik olarak;
- Zihnimizde çeşitli imgelemlerle oluşan hareket algısının ve sesin zarfına benzer
şekilde enerji-hareket eğrilerine sahip müzikal jestlerin, tınıyla karşılıklı olarak
birbirlerini nasıl etkiledikleri araştırılmalıdır. Bedenselleşmiş ses algısı çalışmaları,
bu araştırmalarda önemli bir kaynak olarak kullanılabilir.
- Günümüz görsel ve işitsel prodüksiyonlarında ve elektroakustik müzikte görsel
imgeler yaratan eserlerde sıklıkla kullanılan tınının sinestetik karakteri, tını
alanında yapılacak çalışmalara dâhil edilmelidir.
- Bu araştırmalarda kullanılacak yöntemlerle ilgili yakın zamanda ilerleyen
teknolojinin olanakları, örneğin bilgisayarların işlem gücüyle yüksek hızda
işlenebilen sensörler, hareketlerdeki görsel değişimi bilgisayarlara aktararak
sistematik veriler sunan görüntü işlem araçları ve kişinin algısal faaliyetlerinin
izlenmesine olanak sunan beyin görüntüleme teknikleri kullanılabilir.
Sesin tınısal özellikleriyle ilgili yukarıda verilen kapsamda yapılacak çalışmalarda ortaya
çıkacak sonuçlar, etkin sesle etkileşim stratejilerine ihtiyaç duyan dijital müzik
enstrümanları tasarımlarında, sesle hareketin etkileşimin enstrüman icracısı üzerinde net
bir şekilde görülebildiği ve icra kalitesine doğrudan yansıdığı konser analizlerinde ve de
sesle etkileşimin kişinin davranışsal, fiziksel ve ruhsal durumuna doğrudan etki ettiği
müzik terapisi gibi yeni gelişen araştırma alanlarında kullanılabilir.
Kaynakça
Caramiaux, Baptiste, Patrick Susini, Tommaso Bianco, Frédéric Bevilacqua, Olivier Houix,
Norbert Schnell, and Nicolas Misdariis. "Gestural Embodiment of Environmental Sounds:
an Experimental Study." Proceedings of the International Conference on New Interfaces
for Musical Expression (2011): 144-148. Print.
Chion, Michel. "Guide to sound objects." Pierre Schaeffer and Musical Research (English
translation by Dack, J. and North, C.). Buchet/Chastel (1983). Print.
Keil, Charles, and Steven Feld. Music grooves. Chicago, IL: University of Chicago Press, 1994.
Print.
Feld, Steven, Aaron A. Fox, Thomas Porcello, and David Samuels. "Vocal anthropology: from
the music of language to the language of song." A companion to linguistic anthropology
(2004): 321-45. Print.
Ferrer, Rafael. "Embodied cognition applied to timbre and musical appreciation:
Theoretical foundation." British Postgraduate Musicology 10 (2009). Print.
Godøy, Rolf Inge. "Images of sonic objects." Organised Sound 15.01 (2010): 54-62. Print.
Haslinger, Bernhard, et al. "Transmodal sensorimotor networks during action observation
in professional pianists." Journal of cognitive neuroscience 17.2 (2005): 282-293. Print.
Haueisen, Jens, and Thomas R. Knösche. "Involuntary motor activity in pianists evoked by
music perception." Journal of cognitive neuroscience 13.6 (2001): 786-792. Print.
Kozak, Mariusz, Kristian Nymoen, and Rolf Inge Godøy. "Effects of spectral features of
sound on gesture type and timing." Gesture and Sign Language in Human-Computer
Interaction and Embodied Communication. Springer Berlin Heidelberg, 2012. 69-80. Print
Leman, Marc. Embodied Music: Cognition and Mediation Technology. The MIT Press, 2008.
Mehler, Jacques, et al. "Infant recognition of mother’s voice." Perception 7.5 (1978): 491497. Print.
Neuhoff, John G. ed. Ecological psychoacoustics. Amsterdam: Elsevier Academic Press, 2004.
Print.
Rosenblum, Lawrence. "Perceiving Articulatory Events: Lessons for an Ecological
Psychoacoustics. In Neuhoff, John G., ed. Ecological psychoacoustics. Amsterdam: Elsevier
Academic Press, 2004. Print.
Porcello, Thomas. "Sonic Artistry: Music, Discourse and Technology in the Sound Recording
Studio, PhD Dissertiation", Department of Anthropology, University of Texas at Austin,
(1996).
Smalley, Denis. "Spectromorphology: explaining sound-shapes." Organised sound 2.2
(1997): 107-126. Print.
ATMM 2013 PROCEEDINGS
95
VIDEO OYUN SEKTöRüNDE KULLANILAN SES TASARIMI
TEKNİKLERİ, SANAL MüzİSYENLİK KAVRAMI VE DEğİŞEN
MüzİSYENLİK PRATİKLERİ: ROCKSMITH OYUNU öRNEğİ
Giriş
Video oyunlar değişik yaş grupları için en az sinema kadar tercih edilen bir eğlence
unsurudur. Günümüzde, oldukça artan bütçeleriyle video oyun geliştiricileri, sürekli olarak
daha gerçekçi ve dramatik bir görsel – işitsel deneyim yaratma arayışındadır. Oyunlar için
ses tasarımı özellikle son 35 yılda oldukça ilerleme kaydetmiştir (Paterson vd. 1). Bu
süreçte oyunlardaki işitsel deneyim, basit seslerden büyük orkestral kayıtların, saatler
süren diyalog ve efekt kayıtlarının bulunduğu, oyuncunun hareketlerine ve değişen
ortamlara göre kendini adapte edebilen büyük boyutlu audio kanallarına evrilmiştir. Bu
durum ses sektörü için de yeni bir çalışma alanı oluşturmuş, ses mühendisleri için
öğrenilecek yeni teknik ve yöntemleri beraberinde getirmiştir.
Bu çalışmada öncelikle günümüz ses teknolojisi ile oyun sektörü arasındaki ilişkiler
özetlenecek, kullanılan prodüksiyon tekniklerine yönelik bilgiler verilecektir. Daha sonra
özellikle müzisyenlik ve müzik icrasına yönelik oyunların, bireylerin gerçek yaşamda elde
edemedikleri kimi beceri ve statüleri elde etmelerini sağlayan birer sanal deneyim aracısı
olarak nasıl iş gördüğü anlaşılmaya çalışılacaktır.
Oyunlarda Ses Tasarımı ve Temel Aşamalar
Film sektöründeki müzik ve ses tasarımı teknikleri oyunlarda kullanılan teknikler ile
büyük ölçüde örtüşür çünkü oyun sektörü temel yöntem ve tekniklerini film sektöründen
almıştır. Bunun sonucu olarak oyun sektörünün ve teknolojik olanakların gelişmesi ile
beraber oyun prodüksiyonunda çalışan ses mühendislerinden Hollywood Tarzı ses
tasarımları beklenmeye başlamıştır (akt. Walder 2). Her iki sektörde de görüntü ile
beraber akan sesin görsel gerçekçiliği desteklemesi ve deneyimi geliştirmesi beklentisi
temeldir. Böylece izleyici – oyuncu ekrandaki sanal ortam ile ilgili daha tatmin edici bir
ilişki kurabilmektedir. Sinema sektörü sadece bu amaçla dinleyici noktasındaki ses algısını
geliştirecek sistemlerin geliştirilmesine de ön ayak olmuştur. Surround, ambisonics gibi
dinleme formatları bu amaca hizmet etmekte ve oyun sektörü tarafından da tüm olanakları
ile kullanılmaktadır. Eğer oynanan oyun bu sistemlerin kullanımına yönelik 3D bir ses
motoru kullanıyorsa, oyunun uzaysal ortamındaki her alan için ayrı akustik karakterler
belirlenebilir (Gal vd. 2).
Oyunlarda kullanılan ses tasarımı yöntemlerinin görüntü üzerine sesle çalışılan
diğer ortamlardaki tekniklerden beslendiğinden bahsetmiştik. Ancak oyunlarda
deneyimlenen ses ile lineer akan görüntü üzerine yerleştirilmiş ses arasında ciddi farklar
bulunmaktadır. Oyunlardaki ses tasarımı oyunun belirlediği alan içerisinde kısmi bir
belirsizliğe dayalı olması ile nispeten televizyondaki canlı yayınlara benzetilebilir. Post
prodüksiyon aşamasından geçmiş lineer medya ürünlerinde rastlamsal seslendirme
unsurları yoktur. Örneğin filmlerde ses tasarımcısı hangi frame de hangi sesin gireceğini
bilir, hangi müziğin hangi sahnede çalınacağı, hangi seslendirme unsurunun hangi kişi,
obje ya da olayla ilişkilendirileceği bellidir. Prodüksiyon aşamasından izleyiciye ulaşıncaya
kadar bu bahsettiğimiz unsurların yerleri, tekrar sayıları ya da miksaj özellikleri değişmez.
Tüm bu unsurlar görüntüye adeta damgalanmış ve prodüksiyonun sabit, değişmez bir
parçası olmuşlardır.
Oyun için seslendirme ise nispeten rastlamsal ve ortama göre adaptasyon becerileri
olan ses tasarımlarını gerektirir. Bu başka bir deyişle interaktivite olarak tanımlanabilir
ve interaktivite oyun için seste en büyük mücadeledir (akt. Walder 1). Bu ortamda
çalınacak sesler için tetikleyici olan unsurlar bir hareket, bir ortam değişikliği, oyundaki
karakterin ruh hali değişikliği gibi sürekli değişken olan durumlara bağlıdır. İki farklı
oyuncunun aynı oyunu oynaması durumunda dahi oyuncuların aynı ses tasarımlarını
dinlemesi mümkün değildir. Oyunlardaki bu ses tasarım yöntemlerinin oyun bazlı detaylı
incelenmesi ne yazık ki o kadar da kolay değildir. Piyasadaki oyun sistemleri araştırmacılar
için serbestçe kullanıma açık değildirler ve işbirliği ile yapılan çalışmalarda dahi
araştırmanın yayınlanması entelektüel mülkiyet sınırlamaları yüzünden mümkün
olamamaktadır (Huiberts Van Tol, Went 1). Bunun yerine genel olarak oyunlar için ses
tasarımı yapılırken hangi aşamalardan geçildiğine ve tasarım sürecine göz atmakta fayda
vardır.
Oyun sektöründe ses tasarımı aşamalarını Schmidt, spotting, ses yaratımı ve miksaj
aşamaları olarak tanımlar (Schmidt 2). Spotting aşaması seslerin yerleştirileceği anların
belirlenmesi aşamasıdır. Bu aşama film gibi lineer akışa sahip medyalarda zamansal
ipuçlarının ya da sektördeki adı ile timecodeların (zamansal kodlar) belirlenmesi ile
sağlanır. Ancak video oyunlar lineer bir akışa sahip olmadıkları için timecodelar sadece
oyunda yer alan ara sahnelerde (cutscene) işe yarayabilir. Oyunun oynanırken kullanıcının
oyun ile etkileşimi sonucu gerçekleşen davranışlar ve bunlara verilen tepkiler söz
konusudur. Örneğin oyuncunun bastığı bir tuşla oyundaki karakter elindeki sopayı savurur.
Sopa savrulurken veya sopa bir yüzeye temas ettiğinde de farklı sesler oluşur. Dolayısıyla
video oyunlarda spotting belirli davranışlar, ortam değişimleri, ruh hali değişimleri gibi
ipuçları ve olaylarla ilişkilendirilerek sağlanır.
Schmidt'in belirttiği ikinci aşama olan ses yaratım aşaması, yani oyuncunun oyunu
oynarken deneyimlediği ortamlar, kişiler, olaylar, anlar ve davranışlarla ilgili seslerin
oluşturulması aşamasıdır. Bu seslerin yaratımı kayıt edilerek ve sentezleme ile sağlanabilir.
Kayıt edilen sesler aynen geleneksel ses tasarımında olduğu gibi ambiyans, efekt,
diyalog, foley ve müzik kayıtlarıdır. Sentezleme ise kayıtlı seslerin değiştirilmesi, bozulması
ya da yepyeni seslerin yaratılması, tasarlanması için kullanılır. Günümüzde çoğunlukla
başvurulan yöntem tetiklenen kayıt edilmiş seslerle çalışma yöntemidir. Raghuvanshi'ye
göre bu yöntemin avantajı basit ve hızlı çalışma imkânı sağlamasıdır ancak Raghuvanshi
bu yöntemin iki dezavantajını vurgular. Bunlardan ilki bu seslerin tekrar edici sesler olması
yani oyunda tetiklendikleri her anda aynı seslerin çalınmasıdır. Bu yüzden hem gerçekçi
değildir hem de oyuncu açısından sıkıcı bir etkisi olmaktadır. İkinci sorun ise büyük
prodüksiyonlarda oyundaki sesler için orijinal seslerin kayıt edilmesi yönteminin iş gücü
gerektirmesi ve yorucu bir süreç olmasıdır. Bu sebeple sentezleme teknikleri de
kullanılmaya başlanmış ve oyunlarda yer almaya başlamıştır. Fiziksel ses sentezleme
oyundaki değişken faktörlere (yer, materyal özellikleri, obje geometrisi vb.) bağlı olarak
seste değişiklikler yapabilmekte ve bunu yaparken kayıt edilmiş sesin dezavantajlarını
ATMM 2013 PROCEEDINGS
97
taşımamaktadır. Ancak bu tekniğin kullanılması ses motorunu bilgilendirecek bir fizik
motorunu gerektirmekte ve kayıtlı sese göre daha fazla işlem gücü gerektirmektedir.
(Raghuvanshi vd. 68) Hem kayıt edilmiş ses hem de sentezleme yöntemleri kullanılarak
seste tekrar problemini yok edecek bir yöntem de granular synthesis (granüler sentezleme)
yöntemidir. Bu yöntemde basit bir anlatımla ses motoru aynı olay ya da tetikleyici için
kayıt edilmiş birden çok ses dosyasını alır ve bu ses dosyalarını küçük parçalara böler.
Daha sonra bu parçaların rastgele birleşimleri ile sınırsız sayıda ses üretilebilir. Bu durumu
Vachon'un verdiği bir örnek çok iyi açıklamaktadır. Örnek şu şekildedir. İçerisinde patlayan
objeler bulunduran bir oyunda sesler kısa sürede tekrar edici bir hal alacaktır. Bu durumda
patlama olayları için alternatif ses örnekleri kullanılabilir ancak bu sesin uzunluğuna da
bağlı olarak belirgin bir RAM tüketimine sebep olacaktır. Ancak granüler sentezleme
yöntemi ile birkaç patlama örneği frekans bileşenlerine ve fonksiyonlarına (patlama bang
etkisi, bas gürlemeleri, gövdeleri ve yüksek frekansta çatırdamalar gibi) göre bölünebilir.
Bunları ses motoru bu özellikleri ile birleştirdiğinde ve perde, ses seviyesi ve atak
zamanlarına göre rastgele yerleştirdiğinde birkaç temel ses örneği ile birbirine benzeyen
ancak özgün patlama sesleri elde edilebilir (Vachon 5). Granüler sentezleme yönteminde
kullanılan küçük ses partiküllerine wavelet adı da verilir ve farklı oyun platformlarında ve
mobil cihazlarda oyun müziği sentezlenirken kullanılırlar (Paterson vd. 3).
Son aşama olan miks aşaması Schmidt'e göre ses tasarımının diğer alanlarında
karşılığı olmayan bir aşamadır çünkü oyun içerisinde miksi yapan bir kişi değil oyunun
kendisidir. Bitmiş görüntüye sesin yerleştirildiği bir post prodüksiyon süreci yoktur çünkü
bitmiş bir video yoktur. Video oyuncu oyun içerisinde ilerledikçe oluşmaktadır (Schmidt
3). Bu noktada interaktif miks kavramı ve interaktif miks için yeni yöntem ve araçların
kullanımı başlamıştır. Bu yöntemlere bir örnek, çalınacak ses dosyalarının oyun içerisinde
nasıl seslendirileceğine ve dosyaların organizasyonunun sağlanmasına yöneliktir. Oyun
motorlarının ve oyun oynanan cihazların seslendirme becerileri geliştikçe mikslenecek
ses dosyalarının boyutu ve organizasyonu da değişmiştir. Örneğin eski oyunlarda çalınacak
ses dosyalarının her biri, ayrı birer dosya olarak saklanır ve gerektiğinde oyun tarafından
çağırılırdı. Ancak interaktif miksin bir sonucu olarak yeni oyunlarda ses dosyalarının
boyutları oldukça büyümüş, yeni bir dosya organizasyonu ve dosya sıkıştırması ile
boyutların küçültülmesi gerekmiştir. Böylece kullanılan seslerin hepsinin bir arada ve
sıkıştırılmış olarak bulunduğu öbek dosyalar devreye girmiş ve istenilen sesler oyun
tarafından bu öbeklerin içerisinden çağırılarak ve gerekli miks parametreleri oyunun kodu
tarafından gerçek zamanlı olarak belirlenerek seslendirilmeye başlanmıştır. Bu
parametreler reverberation, frequency modulation, eq otomasyonu vb. miks
parametreleridir ve oyunda oyuncunun davranışlarına göre ses tasarımcısının belirlediği
şekilde değişirler. Örneğin oyundaki karakter oyuncu tarafından küçük hacimli bir odadan
büyük hacimli bir odaya geçirildiği anda ortamdaki reverberation ses tasarımcısının
belirlediği RT değerlerine bağlı olarak değişir. Bu örnekteki interaktif miks unsurunu
tetikleyen oyundaki karakterin bir odadan diğer odaya geçişidir ve bu tamamen oyuncuya
bağlıdır. Bunların yanında oyun için yapılan ses tasarımının oyunun koduna
emplementasyonu miks aşaması ile iç içe, ancak başlı başına bir görev ve süreçtir. Bu
aşamada yapılan ses tasarımı sonucu oluşturulmuş ses yığınları oyun motoruna tanıtılır
ve hangi davranış ya da olayın ardından hangi sesin nasıl parametreler ile seslendirileceği
oyunun kodu içerisine tanımlanır. Bu oyunun ses motoru olarak işlev gören araçlar yardımı
yapılır ve tasarlanan seslerin oyunda belirlenen an, davranış ve olaylara bağlı olarak
yerleştirilmesi işlemidir. Bu aşama için günümüzde Wwise, Fmod, Xact gibi araçlar
kullanılmaktadır. Bu araçlar miks aşaması için de kullanılmakta ve değişecek
parametrelerin, eklenecek efektlerin veya otomasyonların hangi anlarda tetikleneceğini,
oyunda hangi ortamda hangi ambiyans etkisinin etkin olacağını, hangi durum ve olayda
hangi müzikal öğenin seslendirileceğini belirlememizi de sağlarlar. Örneğin Guitar Hero
oyununda ekrandaki yol üzerindeki bir butona basılması gereken an geldiğinde ses
motoruna iki davranış tanımlanır. Bunlardan ilki butona doğru anda basıldığını belirleyen
davranıştır ve bu tetikleme algılandığında ses motoru o davranışla ilgili olan ses parçasını
çalmaya başlar. Bu ses parçası o an çalınan eserin birkaç notalık, saniyelik ya da ölçülük
bir parçasıdır. Eğer butona zamanında basılmadıysa ikinci davranış yani basılması gereken
butona zamanında basılamadı davranışı etkin olur ve ses motoru hata sesini çalar. Bu
noktada Wwise, Fmod gibi araçların işlevi oyun motoru ile senkronize olarak ses ve miksaj
öğelerine ait tetikleme anlarının belirlenmesi, her bir tetiklemede hangi seslerin
çalınacağının miksaj özellikleri ile belirlenmesi ve oyunun oynanacağı platforma göre (PC,
Playstation, Xbox vs.) ilgili ses motorunun oluşturulup öbek dosyalar şeklinde
hazırlanmasıdır. Bahsettiğimiz bu son aşama emplementasyon aşamasını oluşturmaktadır.
Rocksmith Oyunundaki Ses Tasarımı özellikleri
Her ne kadar oyunun ses motoruna ve ses motorunun işleyişine doğrudan ulaşmak
mümkün olmasa da bu türdeki oyunlar için kullanılan kimi ses tasarım özelliklerinden
bahsetmek mümkündür. Rocksmith'in ses tasarımı özellikleri de türe özgü olan farklılıklar
içermektedir. Bu tip oyunlarda herhangi bir karakterin ya da nesnenin birinci kişi ya da
üçüncü kişi gözünden gerçek zamanlı olarak kontrolü söz konusu değildir. Onun yerine
kontrol edilen şey doğru anda doğru notayı ya da akoru basma ya da belirli bir çalım
becerisini (nota kaydırma, süsleme vb.) gerçekleştirme eylemidir. Bu sebeple oyun
motorunda tanımlanan komutların pek çok oyun türüne göre daha basit komutlar olduğu
söylenebilir.
Guitar Hero, Rock Band, Rocksmith gibi oyunlarda seslendirilecek eserlerin çok
kanallı kayıtları kullanılır. Bu kayıtlar doğrudan eseri besteleyen grup / sanatçılardan ya
da parçayı piyasaya süren prodüksiyon şirketlerinden temin edilir. Kullanılan kayıtlarda
kayıt kanallarına ulaşılamadığı durumlarda aynı eserin oyun için tekrar kayıt edilmesi
olasıdır. Örneğin Sex Pistols grubunun Guitar Hero 3 oyununda kullanılacak parçalarına
ait kanal kayıtlara ulaşılamadığından, grup tekrar stüdyoya girmiş ve parçaları yeniden
kaydetmiştir. Kimi durumlarda da telif hakkı sorunları yüzünden bazı gruplarla
çalışılamadığı bilinmektedir. Bu gibi durumlarda o parçayı çalan bir cover grubunun
parçayı orijinali gibi çaldığı kayıtlar kullanılır.
Guitar Hero ve Rock Band gibi oyunlarda oyuncu gitar, bas, davul çalabilir ya da
vokal yapabilir. Rocksmith de ise sadece gitar ve bas çalınabilmektedir. Diğer kanallardan
izole edilmiş gitar kanalları ve bas kanalları parçanın ölçü sayısı ve nota değerlerine göre
zamansal olarak işaretlenir. Daha sonra aynı wavelet ya da granüler sentezleme mantığında
olduğu gibi gitar ya da bas kanalı parçalara bölünür. Her bir tetikleyici bu parçaların
seslendirilmesini sağlamakta ve oyunda elde edilen başarı ya da başarısızlığı
belirlemektedir. Yukarıda bahsettiğimiz tüm bu sistem Rocksmith oyununda Wwise
yazılımı aracılığıyla oluşturulmuş ses motoru tarafından yürütülmektedir.
Bir oyuncunun oynadığı oyundan keyif alması oyunun sağladığı atmosfer – ortam
içerisinde aldığı keyif ile ilişkilidir. Farklı türlerdeki oyunlar tabii ki farklı deneyimler
sağlarlar ve bu durum oyunların tercih edilmelerinde önemli bir etkendir. Uzun yıllardır
da piyasada spor oyunları, bulmaca tipi oyunlar gibi kişisel becerileri kullanmayı
gerektiren oyunlar bulunmaktadır. Son yıllarda ise sadece belirli becerileri ön plana
çıkaran oyunlar piyasaya çıkmıştır. Müzik icrasına yönelik oyunlar bunlara iyi örneklerdir.
ATMM 2013 PROCEEDINGS
99
Band Hero, Guitar Hero, Rock Band vb. oyunlar bir kontrol arabirimi ile doğru anda doğru
tuş veya tuş kombinasyonlarına basılarak bir müzik eserinin icrasına dayanan oyunlardır.
Gitar, bas, davul ve vokal tercihleri ile oynanabilen bu oyunlar, çeşitli zorluk seviyeleri ile
müzisyen olan - olmayan herkesin oynayabilmesi için tasarlanmışlardır. Bu oyunların
herhangi bir şekilde çalgı çalmak ya da vokal becerisini öğretmek gibi bir amacı yoktur.
Nitekim oyunda kullanılan arabirimler çalgı çalma becerisini geliştirebilecek arabirimler
değildir. Ancak 2011 yılında Ubisoft firmasının piyasaya sürdüğü Rocksmith oyunu bu
noktada türdeşlerinden ayrılır. Bu oyunu oynamak için oyun konsolu ya da bilgisayara USB
bağlantı noktasına özel bir giriş arabirimi ile bağlanan gerçek bir gitar kullanmak
gerekmektedir. Oyuncunun yapması gereken oyunun sizi yönlendirdiği şekilde ve başarı
durumuna göre kendini oyun sırasında adapte eden zorluk seviyelerinde çalgı icrasında
bulunmaktır. Oyunun geliştiricileri oyunun bu özellikleri ile gitar ya da basgitar çalmayı
öğreten bir araç olduğunu belirtmektedirler.
Bu özellikleri ile oyun çalgı çalmayı öğrenme ve basitten zora bilindik eserleri
seslendirme deneyimlerinin yanında prova odasından başlayarak büyük konserlere kadar
çeşitli müziksel icra deneyimlerini oyuncuya yaşatmaktadır. Başka bir deyişle oyun
oyuncuya sanal bir müzisyenlik deneyimi yaşatmaktadır.
Rocksmith, Sanal Deneyim ve Sanal Müzisyenlik
Son yıllarda bilgisayar oyunları hem popüler kültürün bir görünümü olarak hem de
bağımsız sanat yaratımları olarak akademik literatürün ilgisini çeker. Bununla ilişkili
olarak araştırmacılar, oyunları oluşturan unsurları ve bu unsurlardan biri olarak oyun
oynama deneyiminde müziğin rolünü soruştururlar. Araştırmaların çoğu oyunlar için
hazırlanan müziklerin yaratım süreçleri ve işlevlerine odaklanır (Gibbons 40). Özellikle
ludomusicology adı verilen ve müzik araştırmacılığında yeni bir alt disiplin olarak
görünürlük kazanan alan, konuyla ilgili çalışmalarda başat rol oynar. Bu disiplinde yapılan
çalışmalar daha çok oyun müziklerinin yaratım süreçleri, oyun içindeki işlevleri gibi
meseleleri betimsel düzeyde inceler. Müzikte kullanılan simge ve kodların, oyunun
atmosferi ve oyun içi sahnelerin etkisini arttırmada ne şekilde iş gördüğü, uzlaşımsal film
müziği klişelerinden hareketle anlaşılmaya çalışılırken kimi çalışmalar da oyunlarda tercih
edilen müzik türleri ile oyun içeriği arasında ilişki kurmayı amaçlar. Band Hero, Guitar
Hero ve bu çalışmanın konusu olan Rocksmith gibi oyunlar örneğinde müziğin bir oyun
olarak kullanımı, bu disiplin içerisinde henüz el değmemiş bir konu görünümündedir.
Müzisyenliğin bir oyuna dönüştüğü ve oyuncunun müzisyen konumuna yerleştiği bu tip
oyunlarda amaç oyuncuyu doğrudan müzik pratiği içine almaktır. Yani bir anlamda oyuncu,
oyunun asıl amacı olan müziğin icracısı konumuna gelir.
Rocksmith adlı oyun ilk bakışta Band Hero, Guitar Hero gibi oyunlardan çok da farklı
görünmez. Ancak oyun, öncelikle gerçek çalgı kullanması, bu çalgıyı çalmayı hiç bilmeyen
birine müzisyenlik deneyimi yaşatması ve oyun içerisinde yapılan modellemeler yoluyla
oyuncuya, gerçeğe yakın sahne deneyimleri yaşatması gibi unsurlarla muadillerinden
ayrılır. Rocksmith bu içeriğiyle oyuncuyu, gerçek bir müzik etkinliği içine, müzisyen kimliği
ile yerleştirir. Daha önce herhangi bir çalgı çalmamış bir birey dahi, başlangıç seviyesindeki
egzersizlerini tamamladıktan sonra, bazı şarkılara eşlik edebilir hale gelir. Böylelikle
oyuncu/birey, gündelik yaşam pratiği içerisinde sahip olmadığı bir role (müzisyenlik)
bürünür. Oyuncu bu role Band Hero, Guitar Hero gibi oyunlarda olmayan önemli bir
unsurla, yani gerçek çalgıyla bürünmüş olur. Gündelik yaşam deneyiminde uzun saatler
hatta aylar sonunda elde edilebilecek olan, bir müzik grubunda çalma yeterliliği, oyun
yoluyla yaklaşık iki saatlik bir alıştırma sonucu elde edilir. Yani oyuncu, sanal dünyanın
kendisine kazandırdığı, gündelik yaşamdakinden çok daha fazla sayıdaki aktivite
alanlarına dâhil olur.
İnternet ve video oyunlarının yaygınlaşması ile sanal alem (cyberspace), bireylere
yeni aktivite alanları yaratır. Giderek "gerçekliğin" yerini almaya başlayan sanal alem,
sadece günümüz politikasını ve ekonomisini şekillendiren bir unsur olarak kalmaz.
Bireyler, bilgisayarlarının kazandırdığı imkânlar dâhilinde sosyal medya ve oyunlar başta
olmak üzere hem vakit geçirmeye yönelik aktiviteleri sürdürürler hem de bu aktiviteler
yoluyla kendi kimliklerini yeniden tanımlarlar. Bireyler artık bir anlamda kendi
kimliklerini, televizyonlarının ve bilgisayarlarının ekranlarından baktıkları şeyler
çerçevesinde tanımlamaya başlarlar. Bireyin ne izliyor olduğu, hangi siteleri takip ediyor
olduğu, hangi haber sayfalarından günceli takip ediyor olduğu gibi basit pratikler, bireyin
kendi entelektüel, politik, sosyal kimliklerini tanımlamada kullandığı simgelere dönüşür.
Bunun yanı sıra bilgisayar oyunları bireye, başka bir hayatı yaşayabildiği yeni deneyim
alanları verir. Bireyler, bilgisayarlarında seçtikleri alternatif yaşamları ile kendilerine
alternatif kimlikler yaratırlar.
Rol yapma oyunları (role playing) başta olmak üzere, oyun karakterinin kendisine
ait bir yaşamının sürdüğü pek çok oyun örneğinde, oyuncu konumundaki birey, kendi
yaşamına alternatif bir gerçeklik yaratır. Gündelik yaşamın normal, rutin ve olağandışı
olmayan yapısından (Lefebvre'den aktaran Harris 55) oyuncu, bu yolla uzaklaşmaya çalışır.
Bu oyunlar yoluyla bireyler, gündelik yaşamın akışı içerisinde gerekli olan kimi süreçleri
yaşamadan, pek çok farklı sosyal rolü de elde ederler. Örneğin kapitalist ekonominin
gerektirdiği şirketleşme sürecinin gereklerini yerine getirmeden başarılı bir iş adamı
haline gelebilirler, büyük risklere girmeden ve yıllar sürecek eğitimlere gerek kalmadan
bir komando olabilirler ya da sosyal anlamda prestijli kabul edilen kimi yetenekleri
(müzisyenlik becerileri gibi) oyun içerisindeki akışı başarılı biçimde yerine getirerek elde
edebilirler.
Oyuncular bu oyunlarda, çoğu zaman fantezi ya da bilim kurgu edebiyatından
ödünç alınan başka dünyalarda, o dünyaya özgü ırklardan birinin üyesi olarak, gerçek
zamanlı bir yaşam sürdürür. Oyun içerisinde zaman ve oyun sadece aksiyon sahneleri ya
da üstesinden gelinmesi gereken görevlerle geçmez. Uyuma, yeme/içme, cinsel aktivite,
muhabbet, yürüyüş, ev yapma, alışveriş gibi gündelik yaşamda karşılığı olan aktiviteler de
oyuncu tarafından sürdürülür. Bu aktivitelerin tümü, oyuncunun alternatif yaşamının doğal
parçaları olarak, oyuncuda gerçeklik hissini artırmaya yarar. Bu oyunların en önemli
özelliği oyuncuların iyi bir savaşçıya dönüşürken, eşsiz atletik yetenekler kazanırken ya
da mükemmel bir eş olurken, aslında yerlerinden bile kalkmamaları yani bu aktivitelerin
hiç birini yapmamalarıdır. Gündelik yaşamda kazanımı, ciddi anlamda emek isteyen
beceriler, tuşların kullanımı ile elde edilir. Tabiii ki yaşanılan bu deneyim, gerçek bir
deneyim olmanın ötesinde bir sanal deneyim (virtual experience) olarak, geçeğin yerine
geçen bir biçim alır.
Heeter'a göre sanal deneyim (ve dolaylı deneyimler) aracılı deneyimlerdir. Sanal deneyim,
sanal sağlayıcılığın doğası itibariyle etkileşimli (interactive) sanal ürünler tarafından
sağlanır (aktaran Li, Daugherty ve Biocca 395). Sanal kavramı, elektronik aracılar
tarafından gerçekleştirilen ya da uygulanan kavramlar, pratikler ve organizasyonları,
gerçek yaşamdaki eşdeğerine benzetilen referanslarla işleyen deneyimler anlamına gelir.
Böylelikle sanal, doğrudan bir deneyimin çevrim içi (on-line) modellemesini (simulation)
veren, deneyime dayalı ürünün aktarımı olarak tanımlanır. Sanal deneyim, sanal bir
iletişim kanalı aracılığıyla gerçekleşen bir doğrudan deneyimdir. Ürünün (ya da durumun),
deneyime dayalı niteliklerinin dijitalleştirilmesi ve çevrim içi iletilmesi söz konusudur
ATMM 2013 PROCEEDINGS
101
(Griffith ve Qimei 56). Griffith ve Qimei'ye göre mevcut teknolojiler tını (sound) gibi bazı
deneyime dayalı niteliklerin aktarımına olanak sağlarken, dokunma ve tat alma gibi bazı
nitelikler halen sıkıntılıdır. Bazı durumlarda müzik gibi kimi unsurlar bütün olarak
dijitalleştirilebilmekte, giyim gibi bazı unsurlar da kısmen dijitalleştirilebilmektedir
(Griffith ve Qimei 57). Dijitalleştirilen unsurun modellemesinin yarattığı gerçeklik hissi
önemlidir. Sanal deneyimin özünü oluşturan şey işte burada kendini gösterir: orada ya da
o durumun içinde olmadan, orada ya da o durumun içinde gibi olma. Yani sanal deneyim,
modellemeler yoluyla yaratılan gerçek gibi algısının işletildiği ve deneyimi yaşayan kişiye,
olabildiğince gerçek hissinin verildiği bir yanılsama sağlar. Oyun aşağıda sıralanan
özellikleriyle sanal deneyimi oyunculara yaşatır:
1.
Oyun gitar ya da bas icrası ile belirli eserlerin seslendirilmesi üzerine
kuruludur. Bu seslendirme esnasında oyuncu her eserin orijinal tınısına
sadık kalacak şekilde gitar ya da bas tonlarını kullanabilir. Yani eserin
orijinal soundu oyun sırasında elde edilir.
2.
Oyunda bir kariyer modu bulunmakta, dolayısı ile oyuncu-icracıdan ilerleme
beklenmektedir. Bu ilerleme oyun tarafından oyuncuya sanal deneyimi
boyunca gösterdiği başarıların bir ödülü olarak verilir. Oyuncu müzik
kariyerine küçük kulüp ve underground barlarda başlarken oyunda ilerleme
kaydettikçe büyük stadyum konserlerine kadar yükselebilmektedir.
3.
Oyuncunun sahne aldığı mekânlarda oyuncu aynı zamanda izlerkitle ile de
ilişki halindedir. 3 boyutlu modelleme ile elde edilen ortamda, izleyici grubu
icrası yapılan eserler boyunca oyuncunun bakış açısından görülür. İzlerkitle
oyuncunun icra sırasında gösterdiği başarıya göre tepkiler verir ve
oyuncunun ilerlemesi üzerinde doğrudan etkilidirler. İcra edilen parçada
gösterilen başarı oyuncunun yuhalanmasını, alkışlanmasını hatta sahneye
tekrar çağırılmasını sağlayabilir. Oyuncunun iyi performansıyla paralel
olarak kimi izleyicilerin cep telefonları ile video ya da fotoğraf çekmeleri,
alkış, dans ve tezahüratla şarkıya eşlik etmeleri, hatta bazı izleyicilerin
oyuncunun sanal karakteri ile flört etmeleri görülebilir.
4.
Oyuncu oyun içerisinde ilerledikçe ve yeni eserler seslendirdikçe o eserlerde
eserin gerçek sahibi olan grupların ya da kişilerin kullandığı ekipmanlara
sanal olarak sahip olabilmektedir. Bu pek çok kişi için gerçek hayatta
yaşanamayacak bir deneyim halini alır.
Sonuç
Oyunlar için ses tasarım teknikleri seslendirme ve ses tasarımı sektörünün yeni ilgi
alanlarındandır. Bu alanda çalışan deneyimli ses teknisyenlerinin ve ses mühendislerinin
varlığı oyun sektörü için de eşsiz önem taşımakta, programlanan oyunların ve kullanıcıya
sunulan prodüksiyonların kalitesinde gözle görülür bir artışı da beraberinde getirmektedir.
Artan audio - video gerçekçiliğin oyun severler üzerindeki bilişsel ve kişisel becerilere
yönelik etkileri ise tartışma konusudur. Oyuncuyu her geçen gün daha gerçekçi bir sanal
deneyimin bir parçası yapan oyun sektörü, kişisel becerilerin geliştirilmesi, öğrenme
yöntem ve tekniklerine olan etkileri ile de oyuncuyu etkilemektedir. Oyun sektörünün bu
etkileri ile bireyin oyunda yaratılan sanal dünya ile etkileşimi özellikle müzisyenlik
pratiğinin ön planda olduğu oyunlarda dikkat çekicidir. İnternet ve video oyunlarının
yaygınlaşması ile sanal alem (cyberspace), giderek gerçekçiliğin yerini, almaya başlamıştır.
Bireyler, bilgisayarlarının kazandırdığı imkânlar dâhilinde sosyal medya ve oyunlar başta
olmak üzere hem vakit geçirmeye yönelik aktiviteleri sürdürürler hem de bu aktiviteler
yoluyla kendi kimliklerini yeniden tanımlarlar.
Rocksmith oyunu bu şekilde oynanan ve oyuncuyu gerçek müzisyenlik deneyimi
ile buluşturan bir oyundur. Oyun oyuncuyu bir grupta gitar ya da bas çalan müzisyen
olarak prova ve canlı performanslardan oluşan bir sürece sokmaktadır. Bu süreçte oyuncu
provasını gerçekleştirdiği parçaları bütçesi giderek artan konser etkinliklerinde sanal
dinleyiciler ile paylaşmakta ve dinleyicilerden aldığı beğeni miktarına göre kariyerinde
yükselmektedir. Oyuncunun bu serüven esnasında çaldığı parçaların zorluğu giderek
artmakta ve oyuncunun yeni çalım teknikleri de öğrenmesini gerektirmektedir. Oyuncu
böylelikle gündelik yaşamında elde edemeyeceği alternatif bir kimliği (müzisyenlik,
popülerlik) ve bu kimliğin getirdiği pek çok deneyimi sanal olarak yaşar.
Kaynakça
Gal, Viviane, Cecile Le Prado, J.B. Merland, Stephane Natkin, ve Liliana Vega. "Processes
and Tools Used in the Sound Design for Computer Games." International Computer Music
Conference Proceedings. Vol. 2002. San Francisco, 2002. Basılı Yayın.
Gibbons, William. "Blip! Bloop! Bach! Some Uses of Classical Music on the Nintendo
Enterteinment System." Music and the Moving Image 2. 1 (2009): 40 52. Basılı Yayın.
Griffith, David A., ve Qimei Chen. "The Influence of Virtual Direct Experince on On-Line Ad
Message Effectiveness." Journal of Advertising 33. 1 (2004): 55- 68. Basılı Yayın.
Harris, Keith K. "Extreme Metal: Music and Culture on Edge." Berg Publishers. New York,
2007. Basılı Yayın.
Huiberts, Sander, Richard Van Tol, ve Kees Went. "Game Audio Lab – An Architectural
Framework for Nonlinear audio in Games." AES 35th International Conference. London.
AES E-Library, 2009. Basılı Yayın.
Li, Hairong, Daugherty Terry, ve Biocca Frank. "The Role of Virtual Experince in Consumer
Learning." Journal of Consumer Psychology 13.4 Lawrence Erlbaum Associates. (2003):
395- 407. Basılı Yayın.
Paterson, Natasa, Katsiaryna Naliuka, Soren Kristian Jensen, Tara Carrigy, Mads Haahr, ve
Fionnula Conway. "Spatial Audio And Reverberation in an Augmented Reality Game Sound
Design." Audio Engineering Society 40th International Conference. Tokyo. AES E-Library,
2010. Basılı Yayın.
Paterson, Natasa, Katsiaryna Naliuka, Tara Carrigy, Mads Haahr, ve Fionnula Conway.
"Location Aware Interactive Game Audio." AES 41st International Conference. London. AES
E-Library, 2011. Basılı Yayın.
Raghuvanshi, Nikunj, Christian Lauterbach, Anish Chandak, Dinesh Manocha, ve Ming C.
Lin. "Real-time Sound Synthesis and Propagation for Games." Communications of the ACM
Magazine 50.7 (2007): 66-73. New York. Basılı Yayın.
Schmidt, Brian. "Interactive Mixing of Game Audio." Audio Engineering Society 115th
Convention. New York. AES E-Library, 2003. Basılı Yayın.
Vachon, Jean-Frederic. "Avoiding Tedium: Fighting Repetition in Game Audio." AES 35th
International Conference. London. AES E-Library, 2009. Basılı Yayın.
Walder, Col. "Intelligent Audio for Games." Audio Engineering Society 120th Convention.
Paris. AES E-Library, 2006. Basılı Yayın.
ATMM 2013 PROCEEDINGS
103
KONTROL ODASI MODELLERİNDE TASARIM YAKLAŞIMLARI
Abstract
Control rooms had been insignificant parts which standing ordinarily in the corner of
recording studios until middle of the fifties. The rooms, from aspect of design, have
changed due to increasing popularity of stereo recording and its consuming since about
end of the 50s. The goal of the different control room design approaches; such as DDA,
LEDE, RFZ, Non-Environment, CID, ESS is to provide a listening environment to mix
engineer with being faithfully to orginal recording. This paper aims to give information
about different design approaches of control rooms from early times to present, under
favour of presence and accessible sources.
özet
Kontrol odaları 1950'li yılların ortalarına kadar ses stüdyolarının bir kenarında gelişi güzel
yer almaktaydı. Stereo kaydın popüler olmaya başladığı ve tüketiminin arttığı 50'li yılların
sonlarında önemi artan kontrol odaları, tasarım yaklaşımları açısından o yıllardan
günümüze değişiklik geçirerek gelmiştir. LEDE, RFZ, Non-Environment, CID, ESS gibi
kontrol odası tasarımlarındaki farklı yaklaşımların ortak özelliği miks mühendisine kaydın
aslına sadık kalacak şekilde bir dinleme ortamı sağlamaktır. Bu yazıda kontrol odalarının
geçmişten günümüze tasarım yaklaşımlarının, mevcut ve ulaşılabilen kaynaklar ışığında
ortaya konması amaçlanmıştır.
Ses Kayıt Stüdyoları
Profesyonel ses kayıt stüdyoları müzik albümlerinin düzenleme, kayıt ve miks işlemlerinin
geçtiği belli başlı mekânlardır. Bir müzik prodüksiyonunun sonucunda ortaya çıkacak olan
ürünün kalitesi ve başarısı, o ürünün kayıt edildiği stüdyodaki çalışanların mesleki
becerilerinin yanı sıra, hem o stüdyonun donanım-yazılım kalitesine; hem de o stüdyonun
akustik niteliklerine sıkı sıkıya bağlıdır.
Bilindiği üzere tipik bir ses kayıt stüdyosu en az iki kısımdan oluşmaktadır: Birinci
kısım performansın yapıldığı kayıt odası, ikinci kısım ise performansın kayıt edildiği
kontrol odasıdır. Genelde kayıt odalarının dizaynları yapılacak performansın tarzına bağlı
olarak değişiklikler gösterir. Ancak kontrol odalarının akustik karakterlerinin olabildiğince
yakın özelliklere sahip olmaları beklenir. Bu beklentiyi karşılamak adına kontrol odalarının
öneminin arttığı ilk yıllardan bu yana bazen farklı, bazen de birbirinin türevi olan kontrol
odası tasarımları ortaya konmuştur.
Ses Kayıt Stüdyoları ve İlk Yılları
Ses stüdyoları önceleri radyo istasyonlarının içinde bulunan mekânlardı. San Francisco'da
1910'lu yıllarda Charles Herrold'ın yaptığı ilk geniş-bant (broadband) radyo yayınından
yaklaşık 25 yıl sonra radyo istasyonları orkestra performanslarını sonradan tekrar
yayınlamak amacı ile plaklara kaydetmeye başladı (Johnson 10). Albüm kayıtları genelde
ya konser salonlarında ya da radyo istasyonlarında yapılıyordu. Amerika'da 1949'dan 1963
yılına kadar Blackhawk, Jazz Workshop, El Matador gibi o dönemin caz kulüpleri canlı
kaydın yapıldığı önemli mekanlardı (Johnson 11).
RCA, Columbia ve Decca ile birlikte çabucak büyüyen Capitol Records gibi plak
şirketleri kayıt endüstrisinin çoğunluğuna hâkimdiler. 1940'lı yılların sonlarında bağımsız
stüdyoların sayısı azdı. Bunlar arasında Hollywood'daki Radio Recorders öne çıkmaktaydı.
Chicago'da Universal Recording Company 1946 yılında kuruldu ve bir yıl sonra adını
duyurmaya başladı. Bu şirketler kayıtları için kendi stüdyoları dışında o dönemin akustik
açıdan dikkat çeken ve büyük orkestralar için uygun olan konser salonlarını
kullanıyorlardı. Columbia pop kayıtları için Liederkranz Hall'u kullanmada öncülük etmişti.
Birçok ünlü orkestra kayıtları bu karakteristik salonda yapılmıştı ve bazıları geleneksel
stüdyolarla yapılan cılız kayıtlarla kıyaslandığında harikaydılar. Richard Himber
Orchestra'nın kayıtları gibi İngiltere'de yapılan kayıtlar da geniş bir mekânın hacimli
etkisini karakterize etmekteydi. (Putnam, "35 Years Old History and Evolution of the
Recording Studio" 2)
40 ve 50'li yıllarda kayıt şirketlerindeki stüdyolar yaklaşık 424-990 m3
hacmindeydi. Akustik iyileştirmeler genelde perdeler, arka kısmı taş yünüyle kaplı delikli
panaller, Celotex C2 ve diğer akustik levhalar ile sağlanır, bazen bu levhalar arka duvarlara
az ya da hiç hava boşluğu olmadan uygulanırdı. Polisilindirik yayıcılar RCA ve NBC gibi
stüdyolara özgüydüler ve sonradan diğer bağımsız stüdyolarda da kullanımları arttı.
O dönem stüdyoların akustik özelliklerinin önemi üzerine ilk fikirler atılmaya
başlandı diyebiliriz: Bill Putnam o yıllardaki stüdyoların akustik karakterini belirtirken,
bas frekans bölgesindeki emiciliğin düşük olması nedeniyle kayıtların çamurlaştığını
belirtmektedir. Putnam'a göre çamurlaşmaya neden olan etkenlerden birincisi odanın bas
frekans bölgesindeki yansışım süresinin fazla oluşu, ikincisi ise o dönemlerde kullanılan
mikrofonların kutupsal biçimleriydi (Putnam 3).
Kontrol Odalarının Ortaya Çıkışı ve Tasarımlar
Kontrol odalarının önemi 50'li yılların sonlarında arttı. O dönem, yani "mono"dan
"stereo"ya geçiş döneminde, çoğu tüketicinin stereo dinleme yapabilecek imkânlara sahip
olamamasına paralel, kontrol odalarında stereo kayıt ve dinleme yapabilmek için gerekli
donanım ve akustik ihtiyaçların giderilmesi de acil değildi. İlk kontrol odaları küçüktüler;
monitör hoparlörler oda içerisine, ses sistemiyle olan uyumuna bakılmadan ve oda akustiği
düşünülmeden yerleştiriliyordu. Çoğu kontrol odası hacim olarak yetersizdi ve stereo
dinleme sistemleri için gerekli olan geometrik adaptasyonlara hazır değildi (Putnam, "The
Loudspeaker and Control Room As a Wholly Integrated System" 2). Stereo kayıt tekniğinin
ticari olarak kullanımının yaygınlaşmaya başlaması ile kontrol odalarında hoparlör
yerleşimi, dinleme pozisyonu ve dizayn özellikleri önem kazandı.
ATMM 2013 PROCEEDINGS
105
50 ve 60'lı Yıllar
Hem stereo hem de mono monitörlemeye olanak sağlayacak şekilde tasarlanan ilk
stüdyolardan biri olan United Record Corp'un B stüdyosu 1958 yılında Bill Putnam
tarafından tasarlandı. Bu stüdyo ayrıntılı tasarım özelliklerine sahip olan ilk stüdyoydu.
Kontrol odasında bulunan üç adet monitörden biri mono dinleme, diğer ikisi ise stereo
dinleme için kullanılıyordu. Ayrıca bu oda bas frekansların istenmeyen etkilerini azaltmak
amacı ile olabildiğince büyük tasarlanmıştı (Putnam, "Recording Studio and Control Room
Facilities of Advance Design" 112). Bu tasarım 1960'da Western Record stüdyoların
inşasında da kullanıldı ve o dönem üç numaralı stüdyo efsanevi olarak adlandırıldı (Cogan,
"Bill Putnam").
Şekil 1 United Record Corp'un B stüdyosunun kontrol odası,
miks konsolu ve hoparlörler görülmektedir (Putnam 113).
60'lı yıllarda önemli tasarımcılardan biri de Tim Hidley'di. 80'lerin ortalarına kadar birçok
stüdyonun tasarımını yapmış olan Hidley'in oda tasarımındaki önerdiği tipik özellikler
şöyledir: İyi bir stereo imaj için oda simetrik olmalı, yansımalar arka duvardan ve tavandan
gelmemeli, hoparlörler duvara gömülü olmalı, yansışım süresi bas frekans bölgesinde kısa
olmalı.
Hidley 1982 yılında Danish Radio'nun klasik müzik kayıtları için kullanılan 1
numaralı stüdyosunun kontrol odasını yeniden tasarladı (Voetman 3). Bu dizayn Hidley'in
kontrol odalarının bütün karakteristik özelliklerine sahipti. Hoparlörler ön duvara
gömülüydü, ön-yan duvarın bir kısmı cam olan çıplak bir duvardı. Bu duvarın karşısında
bulunan dolap ise simetri sağlaması açısından cam ile kaplanmıştı. Bas yutucular yaklaşık
2.5 metre yüksekliğe yerleştirilmişti. Odanın arka kısmı perdelerle kaplı ve perdelerin
arkasında yine bas yutucular vardı. Bu kontrol odası olabildiğince düzgün bir yansışıma
sahipti ve ses mühendisleri tarafından beğenilen bir tasarım oldu.
1984 yılında Hidley Dannish Radio Corp. için yeni bir stüdyo daha tasarladı. Bu
stüdyo modern ve çok kanallı pop kayıtları için olacaktı ve binadaki eski iki orijinal stüdyo
1977 yıllında Mike Rettinger ön kısmı kornaya benzer (horn shape) bir oda şekli önerdi
tekrar inşa edilip birleştirilecekti. Yine bu tasarımında Hidley hoparlörleri duvara gömdü,
odanın arka kısmı ve tavanda bas yutucular kullandı. Ancak bu kez bir önceki tasarımından
farklı olarak ön duvarı ve yan duvarların ön duvara yakın kısımlarını biraz emici; yan
duvarların arka duvara yakın olan kısımlarını ise yansıtıcı olarak tasarladı. Hidley'in
tasarımdaki değişiklik TDS (Time Delay Spectrometry) yöntemini kullanması ve oluşacak
tarak filtreleme (comb filtering) etkisini fark etmesinden kaynaklanmıştır (Voetman 4)
1966 yıllında kontrol odalarının akustik karakteri ve hoparlör yerleşiminin önemi
John E. Volkmann tarafından ortaya konmuştur. Volkmann'a göre hoparlörlerin miks
mühendisine olan uzaklığının 20-25 cm mesafeden fazla olmaması gerekmektedir. Bunun
nedeni miks mühendisine doğrudan ve yansıyarak gelen seslerin enerji seviyelerinin
dengeli olmasını sağlamak; yani tarak filtreleme etkisini en aza indirgemekti. Bu
Volkmann'ın Nashville'deki RCA stüdyolarını tasarlarken vurguladığı bir özellikti.
(Volkmann 326)
70'li Yıllar
1970'lerin ortalarında DDA (Directional Dual Acoustics) modeli uygulanmaktadır. Wolfgan
W. Jensen tarafından önerilen bu kontrol odasının yan yüzeyleri testere dişi şeklinde
yerleştirilmiş paneller ile kaplanmıştı. Bu panellerin yüzeyleri yansıtıcı ve odanın ön
kısmına bakan kumaşla kaplı dik kenar kısımları emici özellikteydi. Odanın arka duvarının
emiciliği istenilen akustik özelliklere göre değişebiliyordu. Bu sayede odanın bas frekans
bölgesindeki sönümleme süresi konutlardaki sönümleme değerlerine yakın olması
amaçlanmıştı. Jensen'in tasarımının dikkat çekici olmasının nedeni monitörleme için
gerekli akustik koşullara ek olarak görece canlı akustik koşulların arasındaki farkı net bir
şekilde ortaya koymasıydı (Newell 388).
Şekil 2 DDA'nın üstten görünüşü (Newell 388)
ATMM 2013 PROCEEDINGS
107
(Şekil 3). Yanlamasına, ortadan ikiye bölündüğünde ön kısmı korna benzeri olacak şekilde
tasarlanan oda 141 m3 hacmindeydi. Odanın ön tarafı, korna benzeri yan kısımlar hariç,
biraz yansıtıcıydı. Asma tavanın ön kısmı, duvara gömülü monitörlerden doğrudan gelen
sesi miks mühendisine iletecek şekilde yansıtıcı özellikte, ön duvar ile kontrol masası
arasındaki boş kısım ise emici olacak şekilde dizayn edildi. Arka-yan duvarlar ve arkatavan optimum yansışım süresini sağlamak için orta derecede emici, arka duvar ise
tamamen emiciydi (Rettinger).
Şekil 3 Horn Shape üstten ve yandan görünüşü (Rettinger 18)
1978 yılında Chips and Don Davis yeni bir tasarım olan LEDE'yi (Live-End, Dead-End)
tanıttılar. Bu tasarımda miks mühendisinin hoparlörden doğrudan gelen sesi duyması için
odanın ön kısmı (yani hoparlörün olduğu kısım) olabildiğince emici yapıldı, ki bu o dönem
yapılan uygulamalara zıt olan bir yaklaşımdı. Ancak bir kontrol odasının anakoik
özelliklere sahip olmaması gerektiğinden, odanın arka kısmı sesleri tarak filtrelemeye
neden olamayacak şekilde yayarak yansıtmalıydı. LEDE prensibinin önemli bir özelliği
küçük boyutlu kontrol odalarına uygundu. Odanın küçük olması dinleyici pozisyonuna
gelen ilk yansımaların (early reflections) varış süresinde yeterli gecikmeye neden oluyordu
(Voetman 5).
LEDE kontrol odası fikri kontrol odalarındaki hoparlörlerden gelen direkt sesler
ile ilk gelen yansımaların etkileşiminin incelenmesi sonucu geliştirildi. Bu incelemeler
miks mühendisinin kulak hizasında, oda içerisinde doğrudan ve yansıyarak gelen seslerin
ayrı ayrı incelenmesine olanak sağlayan TDS (Time Delay Spectrometry) yöntemi ile
yapıldı.
Tasarımcılar 1979 yılında LEDE'yi tanıttıkları bir makalede, o döneme kadar
kontrol odası tasarımında çok üzerinde durulmamış bir özellikten bahsetmektedir; Tarak
filtreleme (Comb Filter Effect). Bilindiği üzere tarak filtreleme etkisi dinleyici/alıcı
pozisyonuna doğrudan ve yansıyarak gelen seslerin neden olduğu kötü bir
renklendirmedir. Bu renklendirme alıcıya gelen yansıma seslerin birleşimine ait genliğin,
kaynaktan doğrudan gelen sesin genliğiyle eşit, ancak farklı fazlara sahip olmaları
durumda en iyi gözlemlenebilir.
Don Davis frekans cevabı anomalileri üzerine yaptığı çalışmalarda geniş-bant
frekans anomalilerinin dar-bant anomalilere göre daha iyi algılandığını gözlemlemişti. Bu
gözleme bağlı olarak Davis; ilk, genelde yüksek genlikli, geniş-bant yansımalardan kaynaklı
ITDG (Initial Time Delay Gap, şekil 4) süresinin odanın kendi ITDG süresini maskelediğini
vurgulamaktadır. ITDG kaynaktan dinleyiciye doğrudan gelen ses ile ilk önemli yansıma
sesin arasındaki zaman farkıdır ve bir odanın hacminin algılanmasında önemli rol oynar.
Söz konusu maskeleme etkisini önlemek adına dinleme pozisyonu sınır olacak şekilde
LEDE kontrol odalarının ön kısmı emici arka kısmı ise yayıcı tasarlanır. Böylece tarak
filtreleme etkisi azaltılacak ve ITDG değeri geniş bir mekân etkisi verecek şekilde (20-40
ms) ayarlanabilecektir. LEDE'nin bu psiko-akustik tasarım özelliği sayesinde, miks
mühendisine kaydın yapıldığı geniş mekânın hacmi sağlanmış olur (Davis D. & Davis C.).
Şekil 4 ITDG (Davis D. & Davis C. 591 )
ATMM 2013 PROCEEDINGS
109
Şekil 5 LEDE tasarımının üstten görünüşü (Davis D. & Davis C. 587)
80'li Yıllar
80'li yıllara gelindiğinde kontrol odasına tamamen entegre hoparlör fikri ile ilgili
çalışmalar görülmektedir (Şekil 6). Putnam'ın 1981 yılında tasarladığı kontrol odası
modelinde hoparlör yerleşimi bir çift horn gibiydi. Kontrol odasındaki ön cam ve konsol
arasında kalan boşluğun bas frekanslarda kestirilemez problemlere neden olmasından;
duvara gömülü hoparlörlerin horn benzeri eğimli bir kasa içine yerleştirilmesi ve bu
kasanın miks konsoluna kadar uzatılması bu tasarımın temel özelliğiydi. Putnam bu
tasarımı Stereophonic Horn olarak adlandırmaktadır. Böylece elektrik enerjisinin akustik
enerjiye dönüşümünü daha verimli bir hale getirmeyi hedefleyen tasarımcı oda içerisinde
yayılan (doğrudan ve yansıma) seslerin oranını nominal seviyede tutarak kritik dinleme
pozisyonunu daha geniş bir alana yaymayı hedeflemişti. Proje prototipi yaklaşık 105 metre
küp hacme sahipti. Odanın arka kısmı olabildiğince emici yapıldı, yan duvarlara ise toplam
yüzeyin %60'ını kaplayacak şekilde 25 derece açılı hareketli paneller (hinged panels)
yerleştirilmişti (Putnam "The Loudspeaker and Control Room As a Wholly Integrated
System").
Şekil 6 (Stereophonic Horn) Kontrol odasına tamamen entegre hoparlör tasarımı (Putnam, 7)
1984 yılında RFZ (Reflection Free Zone) prensibi Peter D'Antonio ve John H. Kohnert
tarafından önerildi (Şekil 7). RFZ, LEDE prensibinin biraz daha geliştirilmiş halidir.
Geometrik unsurlara dayanan bu fikirde odanın ve tavanın ön kısmının
şekillendirilmesiyle, monitörlerden dinleme alanına doğrudan gelen seslerin, odanın ön
kısımdaki yansımalardan etkilenmemesi amaçlandı. Bu yaklaşım sadece yüksek
frekanslarda geçerliydi; ama amaç 500-5000 Hz arasındaki frekans bölgesiyle ilişkili olan
sabit bir stereo imajı sürdürebilmekti. (Voetman 5). Şekil 7'de görüldüğü gibi odanın arka
kısmında RPG yayıcılar kullanılmıştır.
ATMM 2013 PROCEEDINGS
111
Şekil 7 RFZ çiziminin üstten ve yandan görünüşü (D'Antonio & Kohnert 3)
90'lı Yıllar
1993 yılına gelindiğinde BBC stüdyolarından R. Walker, CID (Controlled Image Design)
fikrini tanıttı (Şekil 9). Bu tasarımdaki temel prensip dinleme noktasına ilk-gelen
yansımaların genlik kontrolünü, oda tasarımında olabildiğince az emici malzeme
kullanarak, yansıtıcılarla kontrol altına almaktı. Böylece odadaki stereo imajı geliştirirken
onun tınısal karakterinin ölü olmaktan çok, bir yaşam alanının özelliklerine (0.3-0.4 sn
yansışım süresine) sahip olmasını sağlamaktı (Walker).
Şekil 8 CID tasarımının üstten görünüşü. Çizikli kısım kontrol odasının ön kısmıdır. (Walker)
1997 yılında Philip Newell ve Keith Holland Non-Environment (Şekil 8) kontrol odası
tasarımını tanıttılar. Bu tasarım ilk olarak 1982'de Tom Hidley tarafından ortaya
konmuştur (Newell 392). Kontrol odalarının dizayn tartışmalarının yaşandığı tüm bu yıllar
boyunca her zaman karşılaşılan problem söz konusu odaların akustik karakterlerinin farklı
olmasıydı. Bu kontrol odalarında nötr dinleme alanı yaratılmasını zorlaştırıyor; miks
mühendisini odanın duyusal etkisi olmadan, hoparlörden doğrudan gelen saf sesi
dinlemeye yönlendiriyordu (Voetman 6).
Philip Newell ve Keith Holland Non-Environment kontrol odası tasarımını
tanıtırken; o dönem yakın dinleme hoparlörlerinin bas frekanslarda yetersiz olmasından,
oda içerisinde dinleme pozisyonundaki tutarsızlıktan, miks konsolu ve diğer
ekipmanlardan yansıyarak gelen seslerin neden olduğu problemlerden bahsetmiştir.
Yansışım süresininin yaşam alanlarındaki yansışım süresine yakın olması fikrine dayanan
kontrol odası tasarımlarının küçük odalar için uygun olmamasından bahseden
tasarımcılar; Non-Environment oda tasarımındaki akustik koşulların olabildiğince serbestalan (free field) koşullarına yakın olması gerektiğini belirtirler. Tasarımcılara göre bu tür
koşullara sahip odalarda yansımaların sönümleme süreleri ve modal enerjileri düşük
olacağı için; dinleme sırasında, kayıttaki kusurları algılamak daha kolay hale gelmektedir.
Ek olarak bu tasarımda yaratılan yarı anakoik koşullar odanın akustik özelliklerini,
özellikle bas frekans bölgesinde, oda şekli ve boyutundan bağımsız hale getirmektedir.
Bazı tasarımcılar kontrol odalarındaki yüksek emiciliğin, bas frekanslarında eksikliğe ve
miks sırasında fazla reverb kullanımına neden olacağını söylemesine rağmen, "dinleme
yapılırken, kontrol odasındaki yüksek emicilik nedeniyle miks mühendisi yalnızca
kullandığı reverb’ün etkisini duyacaktır." diyen Newell, Non-Environment kontrol
odalarında yapılan mikslerde reverb kullanımının daha bilinçli olduğunu vurgular (Newell
& Holland 7).
Şekil 9 Non-Environment üstten görünüşü. Yatay çizgiler geniş bant emicileri göstermektedir.
(Newell & Holland 19)
ATMM 2013 PROCEEDINGS
113
1997 Ocak ayına ait Sound on Sound dergisinde yayınlanan bir yazıda Andrew Parry ESS
(Early Sound Scattering) tasarımından bahsetmektedir. Parry'e göre, LEDE ve RFZ
yaklaşımlarına alternatif bir yaklaşım olan bu kontrol odası tasarımda anahtar rol
karakteristik yüzey yansımalarının eş olmasıdır. Oda ilk yansımaları sağlamak adına, ön
duvar da dâhil olmak üzere yayıcılar ile kaplıdır. Ayrıca yayıcılar ile duvar arasında,
emicilikleri bas frekans bölgesinde etkili olan Damped Membrane paneller kullanıldı. LEDE,
RFZ gibi modellerle karşılaştırıldığında oldukça canlı, düzgün frekans cevabına sahip ve
arka duvarın köşelerine kadar iyi bir stereo imajı sürdüren bir tasarım olduğu
vurgulanmaktadır. ESS prensibi, çok küçük hacme sahip olan Lisa Stansfield'in Rochdale
isimli stüdyosunun kontrol odasında, monitörlere çok yakın yer alan Amek 9098
konsolunun neden olduğu yansımaların RFZ gibi uygulamalarla çözülememesinden
doğmuştur (Parry, "Early Sound Scattering and Control Room Design").
2000'li Yıllar
ESS tasarımı için başka bir örnek de Nashville'deki Blackbird C (Şekil 10) stüdyosudur.
George Messenberg tarafından 2000'li yılarda düzenlenen stüdyonun zemin hariç tüm
yüzeyleri 2D yayıcılar (Two Dimensional Diffusers) ile kaplıdır. Odanın frekans cevabının
çok dengeli olduğu ve yayıcılar sayesinde tarak filtrelemenin ortadan kaldırıldığı tasarımcı
tarafından belirtilmektedir. RPG yayıcıların tasarımcısı Peter D'Antonio bu odanın akustik
özelliğini Ambechoic olarak adlandırmıştır (Bonzai). Bu kontrol odası Şekil 10'da
görülmektedir.
Şekil 10 Blackbird C kontrol odasının fotoğrafı (Bonzai)
2006 yılında B. Petrovic ve Z. Davidovic'den, 76 ve 33 metre küp hacimlere sahip iki odanın
kontrol odası olarak tasarlanması istendi (Şekil 11). İçerisinde stereo ve surround dinleme
yapılacak olan kontrol odaları, bir kontrol odasının olması gereken en küçük hacimden;
yani, 80 metre küp hacimden daha küçüktüler. 2D yayıcıların bu boyutlardaki odalarda
kullanılması yer kaplamaları açısından işlevsel değildi. ESS tasarımına benzer şekilde
taban hariç bütün yüzeylerin yayıcı olması ve odanın iyi bir bas emiciliğe sahip olması
hedeflendi. Ancak bu tasarımdaki 2D yayıcılar yayıcılara göre daha az yer kaplayan 1D
yayıcılar kullanıldı. Tasarımcılarına göre bu prensip 30 metre küplük odalardan 100 metre
küplük ve daha büyük hacimlere sahip odalara kadar uygulanabilmektedir (Petrovic &
Davidovic ).
Şekil 11 Bu tasarımın uygulandığı 1 no'lu stüdyonun fotoğrafı (Petrovic & Davidovic 9)
Sonuç
Kontrol odası tasarımı üzerine yapılan çalışmalarda değişik dönemlerde farklı
tasarımcıların önderliğinde bazı akımlar olduğu dikkat çekmektedir. Buna en iyi örnek
RFZ, CID tasarımlarının LEDE prensibi üzerine kurulmasıdır. Kontrol odası tasarımlarında
ilk önceleri akustik olarak ölü odalar tercih edilse de; 70'li yıllardan sonra TDS yöntemi
gibi teknik gelişmelerin uygulanması, 80'li yıllarda ise difizörlerin kullanılmaya başlanması
ile yansışım sürelerinin giderek daha bilinçli kontrol edildiği söylenebilir. 2000'li yıllardan
sonra ise kontrol odalarının boyutlarının küçülmesi sorun olmaktan çıkmış ve bu tür
odalarda difizör uygulamaları ile (psiko-akustik açıdan) büyük mekan algısı
yaratılabilmiştir.
ATMM 2013 PROCEEDINGS
115
Sonuç olarak bu yazıda geçen (ya da gözden kaçmış olabilecek) farklı kontrol odası
tasarımlarının bitmiş projeleri üzerine farklı özelliklere sahip (1D, 2D, 3D gibi) difizör
uygulamaları yaparak IR (impulse response) verilerinin incelenmesi ve akustik simülasyon
programları ile var olan kontrol odası tasarımının akustik parametrelerinin gözden
geçirilmesi, yeni kontrol odası tasarımlarının ortaya çıkmasında etkili olacaktır.
Kaynakça
Newell, Philip. Recording Studio Design 3rd Edition.
Ohttp://www.delora.com/tips_and_trends/kyma_relevant/kyma_relevant.html xford:
Focal Press. 2012.
Johnson, Heather. A Historical Tour through San Francisco Recording Studios. Boston:
Thomson Course Tech.. 2006.
Putnam, Milton T. "Recording Studio and Control Room Facilities of Advance Design"
Journal of Audio Engineering Society Vol 8, Number 2, (1960): 111-119.
Putnam, Milton T. "35 Years Old History and Evolution of The Recording Studio." Audio
Engineering Society 66th convention, May 1980, Los Angeles.
Putnam, Milton T. "The Loudspeaker and Control Room As a Wholly Integrated System."
Audio Engineering Society 70th Convention. Oct. 1981, New York.
Voetman, Jan. "50 Years of Sound Control Room Design." Audio Engineering Society
May122th Convention. May 2007. Vienna, Austria.
Volkmann, John E. "Acoustic Requirenments of Stereo Recording Studios", Journal of the
Audio Engineering Society Volume 14/4, (1966): 324-327.
Rettinger, Mike. "On the Acoustics of Control Rooms." Audio Engineering Society 57th
Convention, May 1977. Los Angeles.
Davis, Don, and Chips Davis. "1979-The LEDE™ Concept for the Control of Acoustic and
Psychoacoustic Parameters in Recording Control Rooms." Journal of Audio Engineering
Society Volume 28/9, (Sept.1980): 585-595.
Putnam T. Milton. "The Loudspeaker and Control Room As a Wholly Integrated
System."Audio Engineering Society 70th Convention. Nov.1981. New York.
D'Antonio, Peter, and John H. Konnert. "The RFZ-RPG Approach to Control Room
Monitoring." Audio Engineering Society 76th Convention. Oct. 1984. New York.
Philip R. Newell, and Keith R. Holland. "A Proposal for a More Perceptually Uniform Control
Room for Stereophonic Music Recording Studio." Audio Engineering Society 103th
Convention, Sept.1997. New York.
Walker R. "A New Approach to the Design of Control Room Acoustics for Stereophony."
Audio Engineering Society 94th Convention. 1993. Berlin.
Petrovic, Bogic, and Zorica Davidovic. "Acoustic Design of Control Room for Stereo and
Multichannel Production and Reproduction, a Novel Approach." Audio Engineering Society
129th Convention. Paper 8295. Nov. 2010. San Francisco, CA.
Cogan, Jim. "Bill Putnam." MixOnline. 1 Nov. 2003. Web. 10 Aug. 2013.
<http://mixonline.com/recording/business/audio_bill_putnam_2/>
Parry, Andrew. "Early Sound Scattering and Control Room Design." Sound on Sound. Jan.
1997. Web. 10 Aug. 2013.
<http://www.soundonsound.com/sos/1997_articles/jan97/controlrooms.html>
Bonzai. "George Messenberg Builds a Blackbird Room." Digizine. Web. 10 Aug. 2013.
<http://www2.digidesign.com/digizine/dz_main.cfm?edition_id=101&navid=907>

Benzer belgeler