ATMM2013 PROCEEDINGS
Transkript
ATMM2013 PROCEEDINGS
ATMM 2013 PROCEEDINGS Audio Technologies for Music and Media International Conference Bilkent University Faculty of Art, Design and Architecture Department of Communication and Design Bilkent, 06800 Ankara, Turkey Phone: +90-312-290-1749 www.atmm-conference.org ATMM 2013 PROCEEDINGS CONTENTS Introduction THE FUNCTIONS OF SOUND AND MUSIC IN TARKOVSKY'S FILMS KYMA PROGRAMMING ENVIRONMENT FOR SOUND BAND ANT: MUSIC MADE BY AN ANT COLONY VOCODING TECHNIQUE IN AUDIO APPLICATIONS ALIASING IN AUDIO AND SOLUTION APPROACHES A GENERATIVE SYNTHESIS DRUM MACHINE MODEL IN MAX MSP A SYSTEM FOR MATCHING THE TUNING IN A RECORDING PAPERS IN TURKISH MüzİK TEKNOLOjİSİ EğITİMİNDE TüRKİYE’DEKİ DEVLET üNİVERSİTELERİNDE UYGULANAN MODELLER üzERİNE BİR İNCELEME MİKROTONAL PERDELERİN MIDI İLE SESLENDİRİLMESİ: BİR MAX/MSP ÇALIŞMASI REKLAM İLETİŞİMİNDE KULLANILAN MüzİK TASARIMININ HEDEF KİTLE üzERİNDEKİ ROLü zAMAN KODLU SENKRON SORUNLARININ KöKENİ “THE ROOT OF THE TIME-CODE SYNC. PROBLEMS” TüRKİYE'DE KLASİK VE ÇAğDAŞ MüzİK PRODüKSİYONLARINDA SES MüHENDİSİ İLE SANATÇI ARASINDAKİ İLETİŞİM TINI ARAŞTIRMALARINDA SİSTEMATİK VE YENİLİKÇİ BİR YAKLAŞIM İHTİYACI VİDEO OYUN SEKTöRüNDE KULLANILAN SES TASARIMI TEKNİKLERİ, SANAL MüzİSYENLİK KAVRAMI VE DEğİŞEN MüzİSYENLİK PRATİKLERİ: ROCKSMITH OYUNU öRNEğİ KONTROL ODASI MODELLERİNDE TASARIM YAKLAŞIMLARI ATMM 2013 PROCEEDINGS INTRODUCTION Audio Technologies for Music and Media is an international interdisciplinary conference that focuses on the various aspects of audio, audiovisual and music technologies for music and media, and, also, on the relationship between sound, music and image in both ‘traditional’ and ‘new’ media. ATMM welcomes not only academics, professionals and students, but also all those who have interest in music, sound and media technologies. After the success of ATMM 2012, the first international conference in Turkey in the fields of audio, music and media, ATMM returned to Bilkent University on 31 October – 1 November 2013. Hosted by Department of Communication and Design, ATMM 2013 featured a tightly-packed program with 27 presentations, two workshops, a panel, a performance and an exhibition of student works. The number of registered participants was 400, a huge leap compared to last year. 7 AUDIO TECHNOLOGIES FOR MUSIC AND MEDIA 2013 INTERNATIONAL CONFERENCE (Bilkent University) (Independent Researcher) (Interelektro) (Bilkent University) (KV331 Audio) (Voispectra) (Bilkent University) (Bahçeşehir University) (Bilkent University) (Özdem Music) (Independent Researcher) (9 Eylül University) (İnönü University) (Müziktek) (Bilkent University) (İnönü University) (Plato College of Higher Education) (9 Eylül University) (Bilkent University) (Bilkent University) (Bilkent University) (Bilkent University) (Bilkent University) ATMM 2013 PROCEEDINGS 9 (Rector, Bilkent University) (Bilkent University) (Independent Researcher) (ITU MIAM) (Bahçeşehir University) (Cyprus International University) (Cloud 18 Productions) (Bahçeşehir University) (METU Informatics Institute), (Voispectra) (Independent Researcher) (Cumhuriyet University) (İnönü University) (ITU TMDK & MIAM) (ITU MIAM) (Cumhuriyet University) (İnönü University) (Marmara University) (Dokuz Eylül University) (Dokuz Eylül University) (Dokuz Eylül University) (Sakarya University State Conservatory) Moderator: (Berklee Valencia) (İnönü University) (METU Informatics Institute) (SAE Institute NYC and Mercy College) (UCLA Extension) (Bilkent University) (ITU MIAM) (ITU MIAM) (NOMAD) (NOMAD) (NOMAD) (1000names) (1000names) (Medea Electronique) (Medea Electronique) ATMM 2013 PROCEEDINGS 11 (Medea Electronique) (Medea Electronique) (Medea Electronique) (Medea Electronique) (Medea Electronique) (Medea Electronique) (Medea Electronique) (Medea Electronique) (Medea Electronique) (Medea Electronique) (Medea Electronique) (Medea Electronique) (Bilkent University) (Bilkent University) (Bilkent University) (Bilkent University) (Bilkent University) (Bilkent University) THE FUNCTIONS OF SOUND AND MUSIC IN TARKOVSKY'S FILMS Abstract The use of sound and music has caused several debates in filmmaking. While one group of film directors assert that the use of sound and music (especially music) increase the effects of cinema, other group of directors propound that its use decreases the strength of cinematographic image and pulls it away from reality. Distinctions in views become especially visible when the use of music is in question. Minimalist film directors, including Robert Bresson and Ingmar Bergman, opposed the excessive use of music and saw and used it as the minimal element of their film language. This point of view is shared by the Russian filmmaker Andre Tarkovsky, who has a special status in the auteur film tradition. His thoughts about the minimalist use of music and sound in cinema can be found in his seminal work Sculpting in Time which contains his sincere ideas about life, art, culture and politics. His films, within this perspective, confirm his views in this direction. At this point it must be stressed that while his thoughts seem to contravene the excessive use of music, the soundtracks in his films become the constitutive parts of the filmic narration within this minimalist usage. Typical examples are his Solaris (1972) and Stalker (1979). This study examines the rationality behind the usage of sound and music in Tarkovsky's films. It focuses on the primary sound effects (especially in his science fiction films) and the soundtracks of his films. In this context, especially his Solaris (1972), Mirror (1975), Stalker (1979), and Nostalghia (1983) will be analysed and compared. Introduction "Every element in a narrative has a function for narrative" (89) writes French critic Roland Barthes. We encounter the constitutive elements of sound and music in narrative, in film experience. This experience consists of different elements among which sound and music play an important role. What are the components of a film soundtrack? "Spoken dialogue, noise, and music –used singularly or in combination- are the components of a film soundtrack" (Winter 152). Sound is another important element in cinema that constitutes cinematographic image. Cinematographic image cannot be effective without soundtrack completely.1 Even "films cannot be understood without consideration of the relations between sound and image" (Johnson 24). Although it is thought that the sound is inferior to the image, the interaction between them is actually inseparable. "The basis of a film is a continuous interaction between sound and image" (Johnson 25). ATMM 2013 PROCEEDINGS 13 When we look closely to the history of film we might see that the soundtrack came to the fore in the late 1920s. Therefore, it can be said that cinema was born in the silent era. For this reason, the first considerations and theories on cinema focused on the relations between cinematographic image and reality. In other words image in these views is superior to other elements. With the 1920s, with the introduction of soundtrack in film production, sound became to be understood as being as important as the image. At this point, the experience in the first film theatres played an important role. In the silent era, lone pianists in the film theatres were responsible for the emotional index of the films. They accompanied the film projections with their simultaneous appropriate musical pieces that reflected rhythm and tension of the films. These pieces increase the filmgoers' attention and repressed the intensity of noise that the film projectors made. As might be expected, these musical pieces were mechanical and accidental when compared to current film soundtrack experiences. "A functional concept of film emerged in this imperative" (Winter 146). However the more interesting side of this imperative was the understanding of effects of soundtrack on film narratives. Who could predict that the solution developing for repressing the noise of projection machine made an enormous effect on the development of film language! This meant that the film language gained a new dimension: The elimination of the boundaries between image and real life. At this point one of the basic discussions that interests both professional filmmakers and scholars in cinema begins. While one group of film directors and writers asserted that the use of sound and music (especially music) increase the effects of cinema, other groups of directors and writers propounded that the uses decreases the strength of cinematographic image and pulls it away from reality. Distinctions in views become especially visible when the use of music is in question. Minimalist film directors, including Robert Bresson and Ingmar Bergman, opposed the excessive use of music and saw and used it as a minimal element of their film language. What really matters for these film directors are filmic narration and the belief that it should not be degraded by other elements. Sounds are selected meticulously in this direction; it is seen that they are selected in through a process of elimination. The section of reality that is related to a narrative is recorded in the soundtrack. Other sounds that are unnecessary are carefully and particularly excluded. Similarly, music is used in the same direction by these directors; it is minimized and used as a constitutive part in the film narration. It, as in the other cinematographic components, cannot be upward on narrative. These types of films, although they seem easy at first, leave behind a strong feeling of resemblance, resemblance of reality in their minimalist styles. Bresson's A Man Escaped (1956), Balthazar (1966) and Mouchette (1967), for example, affect us with their eliminated sounds and develop this feeling of resemblance. Similarly, Bergman's eclecticism in Winter Light (1962), and the classical music pieces and cello sound between the parts in Shame (1968) and Funny and Alexander (1983) take part as the formative elements in the narratives. This point of view was shared by the Russian filmmaker Andre Tarkovsky who has a special status in the auteur film tradition. His thoughts about the minimalist use of music and sound in cinema can be found in his seminal work Sculpting in Time which contains his profound ideas about life, art, culture and politics. His films confirm his views in this direction. At this point it must be stressed that while his thoughts seem to contravene the excessive use of music, the soundtracks in his films become the constitutive parts of the filmic narration within this minimalist usage. . Typical examples, within this perspective, are his Solaris (1972) and Stalker (1979). However, before going to the analyses of these films, it would be useful to discuss Tarkovsky's main views on the use of sound and music to develop further thoughts about the roles of these elements in his film aesthetics. Tarkosvky's Main Views on the Use of Sound and Music in Cinema Although image is superior to the other factors in his films2, Tarkovsky states that there must be a natural use of sound and music as there is in reality (158-159). What is stressed here is that the film image must be composed with the soundtrack after elimination of unnecessary sounds, rather than recording all sounds in the frames as it is in reality. The director, moving under the necessity of selection of particular sounds and music, composes his/her image within a balance. Tarkovsky gives Bergman's Winter Light as an example within this perspective: He singles out one sound and excludes all the incidental circumstances of the sound world that would exist in real life. In Winter Light he has the noise of the water in the stream where the suicide's body has been found on the bank. Throughout the entire sequence, all in long and medium shots, nothing can be heard but the uninterrupted sound of the water—no footsteps, no rustle of clothes, none of the words exchanged by the people on the bank. That is the way sound is made expressive in this sequence, that is how he uses it. (162) This situation should also be applicable for music. Tarkovsky, who writes "the sounds of this world are so beautiful in themselves that if only we could learn to listen to them properly" (162), stresses that the world, life, and is musical in its essence: Music in cinema is for me a natural part of our resonant world, a part of human life. Nevertheless, it is quite possible that in a sound film that is realised with complete theoretical consistency, there will be no place for music: it will be replaced by sounds in which cinema constantly discovers new levels of meaning. (159) After these considerations on sound and music, he explains that music adds a new dimension to the film story, enriching it: I find music in film most acceptable when it is used like a refrain. When we come across a refrain in poetry we return, already in possession of what we have read, to the first cause which prompted the poet to write the lines originally. The refrain brings us back to our first experience of entering that poetic world, making it immediate and at the same time renewing it. (158) To Tarkovsky, music not only enriches the interactions between audience and film, it also gives possibilities to the director to put special lyrical notes, metaphors into film stories. He mentions his thoroughly autobiographical film, Mirror, within this sense. While the Mirror reflects Tarkovsky's spiritual experience as a whole, the music in this film functions as the mirror that reflects the protagonist's life in the modern fragmented world. As will be explained below, composer Eduard Artemyev's distinctive electronic music was especially used in some of the scenes within this direction in this film. The aim was to produce a sound, close to that of an earthly echo, filled with poetic suggestion—to rustling, to sighing.The notes had to convey the fact that reality is conditional, and at the same time accurately to reproduce precise states of mind, the sounds of a person's interior world (Tarkovsky 162). ATMM 2013 PROCEEDINGS 15 According to Tarkovsky, music also functions in another important role for the other side, the film audience: By using music, it is possible for the director to prompt the emotions of the audience in a particular direction, by widening the range of their perception of the visual image. The meaning of the object is not changed, but the object itself takes on a new colouring. The audience sees it (or at least, is given the opportunity of seeing it) as part of a new entity, to which the music is integral. Perception is deepened. (158) The director, here, leaves his/her intentional effects on viewers the directions of their perceptions, feelings and thoughts. At this point, music is an important tool for director. However, Tarkovsky makes an additional point here. According to him, the use of music in this direction does not mean that a director insists on his visions for an audience using this element, rather it should be used to produce different meanings for the audience. After all, film image should be constructed by poetical rhythm, and for this reason, according to Tarkovsky (183) it has contradiction with Sergei Eisenstein's despotic film formulas. Stalker and Nostalghia were produced after a long film career starting with the film, Ivan's Childhood (1962). Tarkovsky's films have passed several phases until the final usage of sound effects and music. Dramatic flow and usage of music in his first film, Ivan's Childhood, were extended to the interference with the image in his last films, Solaris, Mirror and Nostalghia. The Use of Sound and Music in Solaris, Mirror, Stalker and Nostalghia The usage of sound and music in Tarkovsky's cinema gained a new dimension especially in his final films. There is little doubt that this dimension is connected with a journey to Tarkovsky's inner world. While the Mirror, as a biographical film, concentrating on Tarkovsky's past, the effects of past experiences on his interior, Nostalghia continues this journey into exile. One (the Mirror) tells the story of a man's fragmented memory in his homeland, Russia, the other (Nostalghia) takes this story to Italy, while the director is in a self-imposed exile. Solaris concentrates on more general themes comparing these two films. Solaris and Stalker, made in the science fiction genre, establish their film discourses and cinematographic elements on criticism of the rationality of modern science that was born in the Enlightenment. The sound and music in these films has composed on the nature-science, human-nature dichotomies. Both films (also the Mirror) are the products of the collaboration of Tarkovsky and composer Eduard Artemyev. Tarkovsky and Artemyev developed a special sound, "an idiosyncratic sonic voice in cinema" (Smith 43). "This is achieved by a complex blend of layers, where sound and music are rarely descriptive in a literal sense, always retaining the feeling that they are operating as more than representation" (Smith 43). The three films can be read as the stories that focus on a mankind which introverted the inner world in the fragmented reality of the modern world. The sound and music were developed especially to reflect this situation. Thus film images would reproduce precise states of mind, the sound of a person's interior world in a reality which is conditional (Tarkovsky 162). Besides Artemyev's music Tarkovsky used Johann Sebastian Bach's chorale prelude for organ, Ich ruf' zu dir, Herr Jesu Christ (BWV 639), in Solaris which was based on the science fiction writer Stanislaw Lem's story. Tarkosvky asked Artemyev to mix this sound with the ambient sounds as a musical score. Artemyev mixed experimental sounds with the natural ambient sounds in the film. While the film tells the story of Kris Kelvin on the planet Solaris, it also represents to us how the scientific rationality becomes an ideology which externalizes the impossible, the spiritual in modern societies. When Kelvin encounters his dead wife's replica, Hari, on Solaris, this strange creature is examined as an impossible happening by the scientists. Not only did these scientists internalize this scientific rationality, but also Kelvin, who loves his dead wife and is very happy to see her replica on the planet, also embraced it. Solaris makes visible the boundaries of what is human and non-human. The sounds in the film reinforce these contradictions: While Bach's prelude reminds us of regaining the essence of life; Artemyev's experimental timbres indicate the impossibility of this retrieval in the current times. Even Hari's phrase "but I am becoming human being" cannot change this situation. What is constant is certainly the modern scientific rationality and its continuity.3 This rationality and knowledge are received by modern individuals; they have to act in this mode of thinking. This imperative is constantly reminded to us by the scientists throughout the film. Tarkovsky writes "man's unending quest for knowledge, given him gratuitously, is a source of great tension, for it brings with it constant anxiety, hardship, grief and disappointment" in Sculpting in Time (198). Therefore, in this rationality, in the flow of scientific knowledge there has always been anxiety, hardship, grief and disappointment. The film, for this reason, ends with terrific hopelessness; it is no longer possible to regain, resurrect Kelvin's Hari within this rationality. The characters in Solaris were dogged by disappointments, and the way out we offered them was illusory enough. It laid in dreams, in the opportunity to recognise their own roots—those roots which for ever link man to the Earth which bore him. But even those links had already become unreal for them (199). Bach's cantus firmus which was used as the subtheme of Hari by Artemyev is heard in the final scene where Hari is dying. This usage of music completes Solaris' hopeless final scene. This hopeless situation, this pessimistic usage of sound and music continued in Tarkovsky's next film, the Mirror. In his thoroughly autobiographical film, the Mirror, Tarkovsky starts a journey into his childhood, people whom he saw as important. This journey for Tarkovsky, as King has correctly noted, "is the attempt through memory to regain what is lost" (67). There are parallel points about the retrieval of what is lost in both films: Kelvin's impossible task to regain his wife whom he lost in the real world, turned into a struggle, another impossible task in which the protagonist turns to the past where he lost his secure family atmosphere, his childhood, his people, his innocence, in the Mirror. The director of the films knows this impossible task lies ahead, but continues with the fragmented.4 It can be said that the film was shaped with this fragmentation. Memories play an important role for the director's journey to the past. They appear disconnected from each other like in a dream. The film leaps from sequence to sequence without regard for chronology, as in a dream. This fragmentation and disconnected flow of images are completed with Artemyev's electronic music. Tarkovsky continues his journey to past in Nostalghia. Nostalghia is like a second chapter after his biographical film, the Mirror. The film Nostalghia tells the story of a poet, Andrei Gorchakov who came to Italy to research the life of the Russian serf composer Pavel Sosnovsky. It seems that Sosnovsky was not a fictional character, he led a normal life. ATMM 2013 PROCEEDINGS 17 He is known as a talented composer because of his successful musical works. However, when he got caught up by nostalgia he decided to return to serf-owing country Russia. Shortly after his return he hanged himself. Although he knew that there was no way out for him there he wanted to die in his home country. Gorchakov fragmented inside himself in the foreign land, Italy. He "watches other people's lives from a distance, crushed by the recollections of his past, by the faces of those dear to him, which assail his memory together with the sounds and smells of home" (Tarkovsky 203). In one aspect, he feels the fate of Sosnovsky, in the other aspect, as a modern individual, he develops an attachment after the speeches (they criticize the modern world) of Italian mystic Domenico. Sosnovksy is stuck in his past the modern life lies ahead of him. He dreams throughout the film, returning to his past, his family home. The past seems as if it is an antidote to the present. This deadlock situation completes with some special sound effects (heard in drops of rain, steps, flow of water, etc) in the film. Although Nostalghia uses less music in comparison to his other films, it comes to the fore especially for two sound usages: A sole woman's song is heard in the opening and final scenes and part of Beethoven's Symphony No. 9 is heard where Domenico puts himself on fire. In the opening scene a family and their dog seem to be descending a hill. The countryside vanishes into the rolling fog. The camera dollies in continuously from the beginning. A sole woman sings at this moment and the starting credits seen over the screen. When the family and dog stop moving, Verdi's Messa de Requem is heard in the background. The sole woman also sings in the final scene where the Russian house appears in the middle of the Italian cathedral. The sounds with which we are familiar in the West and the sound that we hear in the East are intertwined, as in the life story it is combined with what is individual and what is universal. The one reflects a poet's fragmented inner world; the other represents reasons behind this fragmented inner world in modern society. Another usage of sound and music is observed where Domenico puts himself on fire. When Domenico realizes despair and lack of freedom in his time, modern society, he, like Sosnovsky, wants to commit suicide in the same way: Domenico chooses his own way of martyrdom rather than give in to the accepted, cynical pursuit of personal material privilege, in an attempt to block, by his own exertions, by the example of his own sacrifice, the path down which mankind is rushing insanely towards its own destruction (Tarkovsky 208). At this point, the final part of Beethoven's Symphony No. 9 (which later became the European Union Anthem) is heard in the background in the scene and Italy with its magnificent ruins is no longer meaningful. After Solaris, Tarkovsky continued his science fiction genre in Stalker. However, Stalker is not purely a science fiction film. The film uses science fiction film conventions to a limited extent. It tells the journey of three people, the Writer, the Professor (of Physics), and Stalker, and the secrets of the Zone. The film, like , is intensely critical about the rationality of modern science. Stalker problematicises the externalization of what is spiritual in modern world and scientific rationality. Stalker, like a prophet in the modern world, who knows every way, every secret in the Zone, guides the Writer, and the Professor in the journey to the Zone. However, in the course of the journey, when we, the viewers, witness the dialogues among the three, we realize what type of reality it is in which we live, and the deep crisis about creativity (the Writer wants to go the Room in the Zone to regain his inspiration) we encounter in the current times. The special soundtrack developed by Artemyev accompanies the dialogues where the film message becomes critical. The music supports the discourses of the dialogue in these scenes. "The boundaries between music and sound were blurred, as natural sounds and music interact to the point were they are indistinguishable. In fact, many of the natural sounds were not production sounds but were created by Artemyev on his synthesizer" (Varaldiev, "Russian Composer Eduard Artemyev") . There is an interesting music usage in a distinctive scene where the three travelling to the Zone on a motorized draisine. Music, the experimental timbres of Artemyev was added to natural ambient sounds and to the motorized draisine in this scene. The camera is focused on the characters and we hear sonic voices along with natural ambient sounds, thus "we are not distracted by their surroundings and as a result the physical journey becomes transformed into an inner journey" (Smith 45): In the opening and the final scene Beethoven's Ninth Symphony was removed and in the opening scene in Stalker's house ambient sounds were added, changing the original soundtrack, in which this scene was completely silent except for the sound of a train (Bielawsky & Tronsden, "The RusCiCo Stalker DVD"). During their journey in the Zone, the sound of water becomes more significant. The more hopeless the situation becomes, after the dialogue among the characters, the more prominent the sounds of water becomes. Thus the latter depends on the first; the sound of water seems to symbolize the beginning, the wish of change and flux.5 When Stalker understands that he cannot change the Professor and Writer's rooted visions, feelings, and thoughts on the world, humanity, and the spirituality, he notices that he is alone on earth. He wants to change them, invite them to the mystical, the impossible, like a prophet, until the final sequence; but he realizes that he cannot change them. Conclusion Image is superior to all other elements in Tarkovsky's film aesthetics. Filmic narration, to Tarkovsky, is produced in the process of poetical images. Thus, according to him, a filmmaker must concentrate on the cinematographic image first. However, although it is not as important as the image, sound and music are other significant components in filmmaking. Sound and music give the chance to the director to produce distinctive cinematographic atmospheres. Tarkovsky does not resist the use of music. Although he is critical of its use heavily, he did not altogether avoid the use of music elements in his films. The typical examples are those of the Solaris and Stalker. As explained above, he even did not hesitate to use experimental sounds in these films. Sound and music complete his film aesthetics, so that when we hear or read something about his Stalker, Solaris, Mirror, and Nostalghia we cannot imagine them without these elements. ATMM 2013 PROCEEDINGS 19 References Barthes, Roland. Image, Music, Text. New York: Fontana Press, 1977. Print. Bielawsky, Jan, and Trond S. Tronsden. "The RusCiCo Stalker DVD". 20 June 2013. Web. ‹http://nostalghia.com›. Harvey, David. The Condition of Postmodernity: An Inquiry into the Origins of Cultural Change. Oxford & Massachusetts: Blackwell, 1992. Print. Jameson, Fredric. Postmodernism, or the Cultural Logic of Late Capitalism. Durham: Duke University Press, 1991. Print. Johnson, William. "Sound and Image: A Further Hearing." Film Quarterly 43.1 (1989): 2435. Print. King, Peter. "Memory and Exile: Time and Place in Tarkovsky's Mirror", Housing, Theory and Society, 25 (2008): 66-78. Print. Lukacs, Georg. The Theory of the Novel; Georg Lukacs, The Meaning of Contemporary Realism. London: Merlin Press, 1963. Print. Mitchell, Tony. "Tarkovsky in Italy". 20 June 2013. Web. ‹http://nostalghia.com›. Smith, Stefan. "The Edge of Perception: Sound in Tarkovsky's Stalker." The Soundtrack 1.1 (2007): 41-52. Print. Swensson, Owe. "Sound in Tarkovsky's Sacrifice". 12 June 2013. Web. ‹http://filmsound.org›. Tarkovsky, Andrei. Sculpting in Time: Reflections on the Cinema. Austin: University of Texas Press, 1987. Print. Varaldiev, Anneliese. "Russian Composer Eduard Artemyev". Web. 17 June 2013. ‹http://electroshock.ru/eng/edward/interview/varaldiev/›. Winter, Marian Hannah. "The Function of Music in Sound Film." The Musical Quarterly 27.2 (1941): 146-164. Print. Notes This can even be said for D.W. Griffith's masterpieces, The Birth of a Nation (1915) and Intolerence (1916), and even Charlie Chaplin films in the silent era. Griffith's films, and Chaplin's style become more perfected and reaches a peak with music used between parts. 2 Owe Svensson, the sound mixer of Tarkosvky's Sacrifice, also stresses this fact. 3 The journey to Solaris was designed not to present this planet to humanity, but to extend knowledge to its outermost boundaries. This fact is stressed in one of the scenes in the film. This means that knowledge moved away from human beings and reified in itself in modern capitalist societies. 4 They are fragmented, because they have to construct their inner world, their tastes and pleasures, thoughts and views under disintegrated experiences in modern society, as Hungarian philosopher Georg Lukacs (1963) expresses in a different context. The problem of disintegrated social experience occurs from mainly time-space compression in late capitalist societies, as Jameson (1991) and Harvey (1992) convincingly argue, after utilizing the main theses of Georg Lukacs and German writer Walter Benjamin, becomes significant in Tarkovsky's films, particularly in Mirror and Nostalghia: They are the complementary chapters of a creative director's unique individual past and terrifying and unhappy present social experiences. Nostalghia fills the gap the Mirror had created. 5 In an interview, on the film Nostalghia he said "Water is a mysterious element, a single molecule of which is very photogenic. It can convey movement and a sense of change and flux" (Quoted in Mitchell). 1 KYMA PROGRAMMING ENVIRONMENT FOR SOUND Abstract Kyma is one of the most powerful and profound audio production systems available today... And, it's easy to learn. Musicians, students and professionals around the world use it. Its superb sound quality, interactive processes, and ease of running complex algorithms in real time, make it an ideal path towards professional problem-solving in sound design, post production, film scoring, game development, sound installations, live performance, research, and any other creative musical application. Anybody who is serious about sound should give this wonderful environment a chance. One may approximate aspects of it by assembling numerous other tools at one’s disposal but, in the end, the workflow and "feel" with Kyma is different. Moreover, Kyma itself is quite malleable, adjusting to the individual user's personality and needs, as long as s/he commits to mastering it. Simply put, Kyma is less a product or tool and more a way of working, a way of living the sound alchemist's reality. The longer one uses Kyma the more it becomes one’s personal sound design workstation. What Is Kyma? Kyma consists of a combination of software and hardware components. The software is where the Kyma programming language operates, while the hardware serves the software by calculating the sound to be produced. The software component of Kyma is an object oriented, visual language. It is a data driven language where the many faces of data are revealed by providing a multiplicity of ways to see, acquire and manipulate data with the objective of creating a musical piece. We might consider Kyma to be a "domain specific" language in that it is specifically dedicated and optimized to facilitate the synthesizing and modification of sound, as well as the performance and creation of musical compositions. Based on Smalltalk,1 the language's focus on musical objectives (as opposed to generalpurpose languages such as C/C+, Fortran, Java, etc.) provides the user with tremendous leverage in realizing his or her musical goals. The Kyma system is highly expandable, yet even before any such extension the edges of the Kyma universe are quite distant and farreaching. Kyma uses a special hardware audio accelerator called Pacarana. The Pacarana frees the host computer from computational burden of real time sound generation, just as graphics accelerator cards do in host computers working on computations for real time graphics displays. The Pacarana can be connected to commercially available audio interfaces to communicate with the outside world. ATMM 2013 PROCEEDINGS 21 Since Kyma is a language, as opposed to application software, users quickly feel the difference between Kyma and a software program. Application software concentrate on much narrower objectives and typically offer a much narrower set of operational paradigms in the form of pre-defined options that can be selected from menus. Languages, on the other hand, are less prescriptive in terms of how their components are used and more flexible in terms of what operational paradigms are in force. In Kyma, chunks of software code can be quite flexibly connected together, kind of like words in a spoken language, so the user controls the musical paths to be travelled and what the aesthetic destiny of a composition will be. Kyma is a language where the possibilities of shaping the world of sound are endless, a universe that can easily take a lifetime to explore. Currently Kyma is being used in many contexts, such as in musical composition, film scoring, Foley sound effects, studio based sound design, real time music performance, interactive sound installations (with interaction via audio inputs, MIDI, or other software like Max), and scientific research. How Does It Work? In Kyma, the fundamental building blocks are Sound Objects. Sound objects are small chunks of software that execute basic tasks such as generating, modifying, combining, storing, or routing of audio or audio control data, and they are symbolized with icons. An icon consists of a specific outer shape and an inner pictograph, which together indicate the underlying algorithm of an individual Sound Object. All sound objects that share the same icon are in the same Sound Class. Kyma has more than 190 distinctive classes of sound objects. Individual sound objects are connected to one another using communication lines in the Sound Editor to make more complex Kyma sounds. In many cases multiple musical processes collapse into a single, efficient module to make complex tasks easier. This scheme of connecting modules makes it very easy to see where the signal is going, how it is processed and what parameters are available to interact with the process. Oftentimes parameter fields accept samples, script or the even more involved real time control code known as Capytalk.2 Capytalk is how Kyma controls sonic parameters in real time, and it can generate a single number or inexhaustible streams of numbers that may be used to control any parameter. The techniques to generate these numbers include performing arithmetic and logical operations, accessing values from arrays, generating dynamically changing streams of numbers, and realizing analysis and measurement of sound attributes. The user interacts with the sound in many ways. The Virtual Control Surface (VCS) controls parameters with a set of faders, knobs, toggles and buttons, which can be mimicked in the physical world via MIDI, OSC or sound. Kyma offers many other tools/utilities/editors. Amongst them, the Sample Editor can be used to edit several different file formats or to create new audio files in these formats. The Spectrum Editor performs a two-part process that first involves the execution of an analytic procedure where spectral content of a sound is derived, and second, the use of the data as the basis to drive and control other synthesis methodologies. Some of these methodologies include Group Additive Synthesis, Aggregate Synthesis, Resonator/Exciter (RE) Analysis and Resynthesis. Another great Kyma tool is the TAU-Time Alignment Utility. The TAU is a modifying, morphing and Resynthesis tool where temporally coordinated amplitude, frequency, formant, and bandwidth envelopes can be mixed or morphed to yield stunning timbral nuance. Timeline The Timeline is a workbench where all the Kyma generated sounds can be presented in an organized fashion. In other words, the Timeline is an environment where sounds are scheduled to occur at a certain time, layered on top of one another, routed and spatialized, and data that controls the Sounds are specified and mapped to parameters. This makes the Timeline an ideal place to design the structure and form of a composition or improvisation and to shape large-scale musical journeys. The Timeline shares some features with the traditional digital audio workstation, but presents as well profound differences. Two of the most important differences are: First, the typical digital audio workstation plays back audio files while Kyma plays back algorithms. Often the algorithm will rely on indeterminate Capytalk expression(s) or live input that cannot be forecast. This leads to the second big difference. While DAW's display fixed waveforms, in Kyma there is often no fixed or even determined waveform until the algorithm is sonically realized in real time. Hence, Kyma does not display waveforms on the Timeline but rectangles that denote the timespan a particular algorithm occupies on a particular track of the Timeline. This makes the Timeline an all-encompassing environment in which to work. What Makes Kyma Unique? The original version of Kyma appeared in 1986 and was created by Carla Scaletti. That first version was software only (operated on a Macintosh 512k) and was decidedly nonreal time in nature. With the conception of the hardware component Platypus (a signal processor)3 designed by Lippold Haken and Kurt Hebel, it became one of the earliest commercially available examples of a graphical signal flow language for real time digital audio signal processing. Since then, there have been six major software releases, added support for Windows platforms, newly redesigned hardware accelerators, and the addition of countless new sound synthesis and processing algorithms. Kyma today embodies nearly three decades of continuous development by Symbolic Sound. The team responsible for its creation still continues to develop and support the product. This is probably one of the most unique things about Kyma. Even though its roots are in academia, this kind of longevity and maturation as a commercial product is very rare. Kyma's user base is incredibly diverse and active in this process. Since it is used in sound design for music, film, advertising, television, speech and hearing research, computer games, and other virtual environments, there exists a very wide range of interests within the Kyma user base. Interaction between users is very close-nit and highly technical. Feedback from users can and does influence where the system goes next. Thus, Kyma grows with its users. Control over virtually every aspect of the sound does not only make for a mindexpanding experience, it also becomes an education in how to think of sound at the highest level. It is a learning tool for discovering new concepts. This makes it a long but very fruitful learning process. One could say there is an art to working with sound in Kyma. Like any art form, the more you do it, the more ideas and possibilities it generates. The undeniable fact is that, in Kyma, sound quality is untouchable. It is immediately apparent when you start working with it. This all stems from the fact that all sound computations happen in real time within one clock cycle or sample. What that means is that the Pacarana DSP sound engine uses a custom operating system appropriate for sample-by-sample real time processing, as opposed to personal computers that use ATMM 2013 PROCEEDINGS 23 operating systems where samples are grouped into blocks and those blocks are then processed. So... Kyma is sample accurate! This makes a big difference with processes like FFT Synthesis/Resynthesis. Who Is It For? By assembling numerous other available tools, one may approximate aspects of Kyma. In the end though the workflow and "feel" of using Kyma is simply different. Furthermore, Kyma itself is quite adaptable. This means that the individual user may adjust it to his or her needs and personality, if willing to devote the requisite time and energy towards mastery. Less a product or tool, more a way of working within the sonic realm, Kyma includes quite a few novel and interesting sounds that can be used "as is". Nevertheless, these are best seen as a place to start a journey. Kyma's workflow entreats you to begin such an exploration. Even the newest user can manipulate Kyma's Virtual Control Surface from their computer screen or a controller to fashion exhilarating new sounds. These can be saved and used another day as either a finished sound or a component in some new creation of your choosing. Acquiring Kyma and then using its included sounds (and others from the community) is a legitimate and fruitful course, but it is only a first step, only a scratching of the surface. The full benefit comes solely after many months of use, practice, and study. However, the journey is exciting and you never realize all the work you are investing along the way. The longer you use Kyma the more it becomes your personal sound design workstation. Ultimately, neither the monetary investment nor whether it uses proprietary hardware and software matter. What matters is that Symbolic Sound has created a rich sonic world for you to explore and make your own. References Scaletti, Carla. Kyma X Revealed! Secrets of the Kyma Sound Design Language. Champaign, Illinois: Symbolic Sound Corporation, 2004. Print. Stolet, Jeffrey. Kyma and the SumOfSines Disco Club. Self-published. 2011. Print. "Is Kyma Still Relevant?" Delora. Harmony Systems, Inc., n.p. Web. 2012. http://www.delora.com/tips_and_trends/kyma_relevant/kyma_relevant.html Notes Smalltalk is an object-oriented, dynamically typed, reflective programming language. Capytalk is an embedded, event-driven, real time control language. 3 The Platypus and its descendant the Capybara were large multiprocessor computing engines with dedicated convertors and I/O. The Pacarana (already mentioned in the text) is the latest incarnation of the hardware accelerators and is a very portable one-rack unit. It is the most capable open-ended hardware design yet and uses 3rd party audio/midi converters. 1 2 BAND ANT: MUSIC MADE BY AN ANT COLONY Abstract Music composed and generated by life forms other than human beings have been investigated in numerous studies. Within my work "Band Ant" the inherent rhythm, harmony and energy within the movements and interactions of the members of an ant colony have been analyzed by digital image processing techniques and utilized as the basis of a musical outcome. At the same time, the swarm intelligence that forms the basis of these activities is mapped onto the domain of music so that one can experience "evolution" at work as an artist. Musical compositions utilized generative processes, chance processes as well as the involvement of life forms in numerous works in the composition and performance stages. Sound art has been an area with similar works. As was noted by R.Murray Schafer, concert halls are just substitutes for outdoor life [1], so the involvement of nature and/or the organic components of nature into this process most of the time enables us to involve "evolution as an artist" [2] into the composition activity. Frequently these generative composition processes are based upon either stochastic or algorithmic approaches and may lack a certain ingredient and as was noted by David Rothenberg and quoted in [3], "can we trust machines to create for us?" Therefore, in my work Band Ant I have involved an ant colony into the composition process as the seed input and welcomed their swarm intelligence and the evolutionary processes that came up with this artifact to play their roles as artists. At the end, as was quoted in [4], "there is no process even in the most complex industry which has not been in continuous use by people, animals and plants". Band Ant utilizes the activities and interactions of ants as a basis for music composition. In doing so, the ant movements are captured by a video camera and further analyzed and mapped into the MIDI domain by the usage of STEIM's software tool Junxion. In Figure 1 modules of Band Ant has been out Figure 1 Block diagram of Band Ant ATMM 2013 PROCEEDINGS 25 Junxion has been created at STEIM (Studio for Electro Instrumental Music in Amsterdam) and enables human interface devices, gaming console inputs, and sensor board inputs, audio and video inputs to be converted into MIDI messages. In utilizing Junxion as a video input/processor for MIDI mapping, certain actions, patches and activities can be implemented and different types of processors may be utilized throughout the process to refine the image/object detection and identification. Junxion enables the video stream to be analyzed and makes it possible for different types of filters to be applied to the image stream. Thus, one can identify the objects, their movements, activities and locations within the scene. In addition to that, certain actions (like MIDI notes or CC messages) can be assigned to these dynamic components. So within Band Ant, I have observed the activities of an Ant Colony living within a transparent jelly like environment (that both acts as their livelihood and food supply at the same time), digitally analyzed the stream utilizing digital image processing techniques and further mapped these onto MIDI signals. Figures 2 and 3 show the raw video image from the camera and the movement detection algorithm at work within Junxion. One of the key issues with the setup was related with the ants themselves. Each time ant colony members (band members / musicians) are transferred to the jelly like environment, it takes around 7-10 days for them to settle, get accustomed to the environment, start digging the material, move actively as a colony within this environment. This is similar to a band moving into a studio or recording environment and achieving the relevant vibe for artistic production. It is also critical not to mix members of different colonies of ants as they fight and even eat each other. So just like a real music production environment, it is best to keep only the members of the same band within the same studio. Figure 2 Raw image at Junxion Different filters can be applied to the raw image within Junxion like Threshold, Difference, Color Table and Despeckle to further refine the object detection process. In Band Ant, the application of Difference and Despeckle filters were adequate to isolate the ant's movements and interactions. Individual ants and/or groups of ants and their movements could be identified with the adequate settings of these parameters and the definition of object size within Junxion. Figure 3 Difference, despeckle filters and object detection applied to the raw image Musical Outcome Just observing the activities of an ant group one can easily deduct that there is an inherent harmony within their movements. Ants communicate among each other by touching their antennae and it is not a rare occasion to witness a group of ants gather like a football team and touch each other's antenna for extended periods. This may even seem like a business meeting and all of a sudden, they break up and continue their never-ending search rituals. Even the actions of the overall ant group have a rhythm that changes its pace in extended periods. Therefore, when translated/mapped into a music piece, all these actions have a counterpart in the domain of music and one can witness a synesthesia like feeling between their observed activities and the musical translation/composition. Most of the time the MIDI mapping on to percussive instruments produce better results (even has a tribal party quality) however MIDI CC note assignments or MIDI note assignments to certain pad like sounds are also suitable especially during the minutes long group gatherings (meetings). Junxion enables the mapping of the X, Y coordinates or certain movements into MIDI notes or CC messages. Thus, the digital image processing applied to the ant colony and their image is reminiscent of an X-Y pad and can be utilized accordingly. In addition, different instrument note and instrument types may be assigned to the different sections of the two dimensional image. In our experience, the movements of the ant colony or the performances of Band Ant are best captured in MIDI notes assigned to percussive instruments. As was noted before, minutes long exposure to the Band Ant's music gives the impression of an orchestra playing through different sections of a composition (with different time signatures) and there are certain unexpected passages with heightened emotion that all of a sudden can be witnessed among the colony as a whole. Most probably, this is due to a pheromone based messaging process. Actually, the swarm intelligence of the ant colonies has mathematical counterparts and is defined using similar mathematical models in the form of Ant Colony Optimization (ACO) algorithms [5]. So based upon the inherent relationship between mathematics and music [6] it is evident that their swarm intelligence has direct constructive effects with the harmonic, rhythmic and compositional basis of this bio-generative sound art work. In Figure 4 the overall setup of Band Ant is depicted. ATMM 2013 PROCEEDINGS Conclusion 27 Figure 4 Band Ant setup Life forms have been included in the musical composition processes in numerous works. Within Band Ant the swarm intelligence of an ant colony is mapped onto musical outcomes and enables the listener to synesthetically experience and witness the swarm intelligence (thus evolution as an artist) at work. From a luthier (or cyber luthier) perspective the expressiveness of the instrument (or the setup) lies in the mapping of the digital image processing of the ant colony's actions into sounds. In doing so I have witnessed positive outcomes in using the percussive sounds and X,Y location based actions within the Junxion software environment. As was noted before even the feeling of a tribal ceremony was experienced when Band Ant is at work. As a further study, the inclusion of more than one video signal focused at different groups of the colony is envisioned to come up with an Ant Symphony as a successor to the Band Ant. References Schafer, R.Murray. The Soundscape: Our Sonic Environment and the Tuning of the World. Vermont: Destiny Books, 1994. Print. Ray, Thomas S. Evolution as artist. In "Art @ Science", Sommerer, Christa and Laurent Mignonneau. [Eds]. Vienna/NewYork: Springer Verlag, 1997. 81-91. Print. Toop, David. The Generation Game:Experimental Music and Digital Culture. In "Audio Culture Readings in Modern Culture", Cox, Christoph and Daniel Warner. [Eds]. New York: Continuum, 2004. 239-247. Print. Licht, Alan. Sound Art: Beyond Music, Between Categories. New York: Rizzoli, 2007. Print. Floreano, Dario and Claudio Mattiussi, Bio-Inspired Artifical Intelligence: Theories, Methods, and Technologies. Cambridge, MA: MIT Press, 2008. Print. Loy, Gareth. Musimathics: The Mathematical Foundations of Music. Cambridge, Mass: MIT Press, 2006. Print. VOCODING TECHNIQUE IN AUDIO APPLICATIONS Abstract Originally being invented for enhancing the voice-carrying capabilities of the telephone lines, potential usage of the vocoder in music productions was recognized in the following years. Initial experiments performed with the vocoder then led to the progress of the electronic music, and starting from the '70s it was used in numerous albums. Due to its unique sound and popularity, the vocoder is still a widely used effect in today's music productions from various genres. Obviously, creative usage of the vocoder requires some knowledge about the working principle behind it, whether it is a hardware unit or software plug-in. In this paper, details of the audio processing approach used in the vocoder are investigated with the corresponding typical parameters and application techniques. VOCODERS FROM PAST TO PRESENT The vocoder term comes from the voice and encoder words. It was invented by Homer Dudley who was a physicist working at Bell Laboratories in 1939. His purpose was actually to develop the voice-carrying capabilities of the telephone lines of the company by performing audio compression technique. After his visit to Werner Meyer-Eppler, who was studying at Phonetics Department of Bonn University, the potential usage of the vocoder in music productions was recognized soon. Following its further development phase, the vocoder became quite popular and it was used by the producers and bands starting from the '70s and '80s. Its usage continued until recent years and nowadays it is still featured in productions of music, game and cinema industries. During the past years some vintage vocoder models were produced including Roland VP-330 Vocoder Plus, Roland SVC-350, EMS 2000/3000, Bode 7702, Moog 16channel vocoder and Korg VC-10. There are also some modern hardware synthesizer/vocoder models of today such as Korg MS2000, Korg Radias, MicroKorg XL, Roland VP-550, Roland V-Synth, Nord Modular G2, Yamaha Motif XS/XF, Alesis Micron and Novation MiniNova. In recent years, the vocoders also became widely available in software plug-ins including Orange Vocoder, Native Instruments The Mouth, Virsyn Matrix and Image Line Vocodex. ATMM 2013 PROCEEDINGS 29 Figure 1 Some of the Hardware Vocoders PRINCIPLES OF THE VOCODING The vocoder is fed with two separate input signals: the modulator and carrier. The modulator input of the vocoder generally receives a signal with some spoken words or phrases. Percussion type sound signals can also be used for this purpose; however, speeches and spoken phrases are usually the most common types of modulator signals. Carrier input of the vocoder can be fed with any signal preferably having a rich harmonic content for obtaining the best results. It is processed according to the frequency distribution of the modulator signal. The spectral content of the modulator signal is analyzed by passing it through a number of band-pass filters. The modulator signal is split into a number of separate signals by using these filters and the sonic information of each frequency band in that signal is captured by the band-pass filters accordingly. There are typically 8, 16, 24 or 32 bands in the vocoders. The number of bands essentially specifies how precise the content of the modulator signal is detected. In other words, as the number of the bands increases, the modulator signal is split into narrower bands, and hence, the content of the modulator signal is analyzed more accurately. In an opposite manner, if the vocoder has fewer bands, the modulator signal is analyzed less precisely so that the intelligibility of the output signal gets worse. It is to be recalled, however, that increased number of band-pass filters does not always produce better results. In fact, using more than necessary number of bands may even prevent to obtain the characteristic sound of the vocoder. It is also to be considered that frequency content above 3 kHz is not so important for the human voice. After the frequency content is analyzed, the modulator signal is then sent to a series of envelope followers working in parallel. The amplitude information of the modulator signal is captured and the control signal is generated in this phase. The output level of the control signal is adjusted according to the volume envelope of the modulator signal. There is a dedicated envelope follower for each band-pass filter. The amplitude level of the envelope followers in each band is specified according to the frequency content of the modulator signal. Determined amplitude data for the envelope followers are then applied to the carrier signal during the amplifier stage as shown in Figure 2. The carrier signal is also split into separate frequency bands with the same set of the band-pass filters as in the case of the modulator signal. The output of the band-pass filters is then routed to an amplifier as indicated in Figure 2. Figure 2 Signal flow of a vocoder According to the data obtained from the envelope followers, each band of the carrier signal is processed in the amplifier stage. Namely, the amplitude level of the carrier signal bands is adjusted by considering the content of the envelope followers which was initially determined from the modulator signal. This is essentially the stage in which the vocoding effect takes place. If the carrier signal does not have any frequency content in a certain band, obviously no sonic data would be generated by the amplifier in that band. Hence, there would be a lacking sound in that band of vocoded output signal. Therefore, the carrier signal is expected to have a rich spectral content to obtain better vocoder effects. For instance, sawtooth or pulse waveforms that usually include large number of overtones from a synthesizer, or white noise are usually preferred for the carrier signals. Mixing the output of the bands processed by the amplifier to a single output is the final step in the vocoding process. There is usually an internal mixer in today’s vocoders that enables the panning the output of each band in stereo panorama in order to get a wider sound. The result of vocoding is essentially a robotic sounding effect which is also attributed as a talking/singing synthesizer. The modulator signals usually include some sibilant (consonant) sounds with high frequency content which are generally not captured well by the vocoding. In order to get a more understandable vocoded phrases or speeches, modern vocoders generally have the capability of extracting the high-frequency content of the modulator signal above a certain frequency, and route it directly to the output stage as a dry signal without applying the vocoding. The high-frequency components of the modulator signal are then mixed with the carrier signal in variable amounts as shown in Figure 3. ATMM 2013 PROCEEDINGS 31 Figure 3 Signal flow of a vocoder with an unprocessed modulator signal Since the pitch data is obtained from the carrier signal, there is actually no need to sing in correct notes/pitch into a vocoder. In other words, speaking in a normal way to the microphone or having an audio signal with some speeches is sufficient as a modulator signal, as the pitch data of the vocoded output signal is created by the note information of the carrier signal by playing a keyboard live, or sending it through a MIDI track, etc. PARAMETERS USED IN THE VOCODERS There are numerous vocoders available in both hardware and plug-in form produced by different companies. Each model has its unique parameter setup and conventions which can be different from the others. However, some of the typical parameters used in a vocoder are Audio Source Carrier Level, Band Pass Filter Level, Band Pass Filter Pan, Cutoff Frequency Offset, Envelope Follower Sensitivity, Formant Shift, Gate Sensitivity, High Pass Filter (HPF) Gate, High Pass Filter (HPF) Level, Modulation Intensity of the Cut-off Frequency Offset, Modulation Source for the Cut-off Frequency Offset, Threshold, Vocoder Resonance, Vocoder Level, Direct Modulator Signal Level. RECOMMENDATIONS FOR THE VOCODING TECHNIQUE In a live setup, the modulator signal from a vocal or percussion is typically routed to the microphone input of the vocoder. Obviously, it is also possible to send the previously recorded audio tracks to the microphone (XLR) or audio input (line) jack of the vocoder device. As mentioned previously, the modulator signal is initially processed by the bandpass filters and then routed to the envelope followers. On the other hand, the carrier signal is typically created in the vocoder by using its internal waveforms via sending some note or chord progressions data to the vocoder. It is also possible to use the signals with rich spectral content or distorted sounds with overtones as the carrier signals as an alternative to the reasonable synthesizer waveforms. For obtaining more intelligible vocoded output, high frequency portion of the modulator signal can be sent to the vocoder output with a suitable amount by critical listening. Besides, in order not to lose the effect of vocoded sound, the gating process applied during the silent passages of the modulator signal is recommended to be adjusted with gradual attack settings with suitable threshold levels. The modulator signal may also be routed to a compressor before entering the vocoder to prevent volume fluctuations which may happen during the live microphone input or may exist in the previously recorded audio. Another recommendation might be to mix the unprocessed (dry) modulator signal with the vocoded signal in reasonable amounts to increase the intelligibility of the vocoded sound further. While the hardware vocoders have still a common usage among the musicians and producers, software plug-in versions are also quite popular nowadays. The vocoder plugin is typically attached to an audio track, which is used as a modulator input, as an insert effect. Audio track is usually composed of some speeches and/or percussion content which are the typical modulator input signals for the vocoder sound. On the other hand a MIDI track featuring some note/chord progression information is added for generating the carrier signal which uses the built-in waveforms of the vocoder plug-in. In order to trigger the internal waveforms of the vocoder with the note/chord data, output of the MIDI track is sent to the vocoder plug-in in a Digital Audio Workstation (DAW) environment. Such a vocoder setup is shown in Figure 4. Figure 4 Vocoder setup in a DAW Note/chord progression information is played back from the MIDI track. On the other hand it is also possible to route the output of a MIDI device to the input of the MIDI track in a live setup. ATMM 2013 PROCEEDINGS 33 CONCLUSION Being one of the most popular signal processors, vocoders are still widely used in today’s music, game and cinema productions. Experimenting with the presets and tweaking the aforementioned parameters with some knowledge is usually the key aspect to obtain unique vocoded sounds. References Rose, Jay. Audio Postproduction for Film and Video. Burlington: Elsevier, 2009. Print. Korg Inc., microKORG XL Synthesizer/Vocoder Owner’s Manual. Tokyo: Korg Inc, 2008. Print." ALIASING IN AUDIO AND SOLUTION APPROACHES Abstract Aliasing is an unwanted side effect when sampling analog signals if the sampling rate is not adequate for covering the complete bandwidth or conversely the signal to be sampled has a wider bandwidth for a given sampling rate. In this paper, the aliasing phenomenon is discussed in detail and the necessary techniques used for eliminating the spurious signals formed as a result of aliasing are overviewed. The simplest rule of thumb for sampling a continuous signal is to set the sampling frequency at least twice as much as the highest frequency component appearing in the signal. This is known as the Nyquist Criteria and the highest frequency allowed is the Nyquist Frequency which is half the sampling frequency. The criteria is the condition used for the lossless recovery of the signal when converted to analog from digital form. In practice, analog signals are digitized using analog-to-digital converts (ADC) by sampling, quantizing and encoding the signal successively, and are reproduced by digital-to-analog converters (DAC) using a reconstruction or anti-imaging filter. ADCs usually come with one or more sampling rate options for the user depending on the application area and specific needs. Any given sampling rate specifies the maximum allowable frequency that can be reproduced correctly without any disturbance by the aforementioned Nyquist limit. The so-called Anti-Aliasing Filter structure is widely used for taking care of the aliasing phenomenon occurring in audio applications as well as in other areas requiring sampling process for that matter. NYQUIST THEOREM Nyquist Theorem, also known as the Sampling Theorem, states that if any continuous signal with the highest frequency f is sampled with a sampling rate greater than or equal to 2f then it can be reconstructed completely from its samples. In this relation, the highest frequency allowed in the signal, which is f, is called the Nyquist frequency and the corresponding double value 2f is the Nyquist Rate or Sampling Rate. A typical frequency distribution for a continuous signal is given in Figure-1 below. ATMM 2013 PROCEEDINGS 35 Figure 1 A Typical Frequency Spectrum It must be noted that the bandwidth of the signal is the frequency span from 0 Hz to f Hz. So, according to the Nyquist Theorem the sampling rate must be at least twice the signal bandwidth. Nyquist Criterion is the first condition to be taken into account when sampling analog signals without any problem. As is discussed below, the Nyquist Criterion doesn’t always guarantee a problem free sampling process all the time. For this, the mechanism for ADC and DAC must be well understood first. Before further discussing the ADC and DAC facts, it would be helpful to look closer into the Nyquist Criterion stated by the theorem. The interdepence between the highest allowable frequency component and the sampling rate implies that at least one of these factors must be controllable to obey the criterion. That is, either the highest allowable frequency component in the analog signal should be controllable by some filtering mechanism or it is necessary to control the sampling rate to handle the uncontrollable highest frequency. This further means that, depending on the application, we either have the choice of determining the frequency content of the signal to be sampled or the choice of adjusting the sampling rate accordingly. In practice, sampling operation is usually a part of the sound card or the audio interface functionality with some of the preset sampling rate options, ranging from 44.1 kHz up to 192 kHz. In a majority of cases, however, this vast array of sampling options may not be available at all. In that case, controlling the bandwidth of the analog signal may seem a more obvious choice thanks to a simple Low Pass Filter structure. Both choices, however, can be used to create the necessary condition to obey the Nyquist Criterion. Violation of this criterion results in the so-called aliasing effect further discussed below. The Low Pass Filter structure for bandlimiting the given signal is called as Anti-Aliasing Filter. ALIASING Aliasing phenomenon occurs due to the frequencies that exceed the Nyquist limit by being reflected back to the frequency region below the limit. The main reason for such a mirroring effect is the wrong sampling of the high frequencies during digitization process. If the signal spectrum is visualized as two separate pages with the Nyquist frequeny being in the middle, then aliasing can be thought of as folding the right page onto the left one. The folded frequencies from right to the left are usually not harmonically related to the existing ones on the left or lower part. This usually leads to unpleasant enharmonic tones to be formed as a result of the aliasing phenomenon. Frequencies appearing below the Nyquist frequency are actually wrong frequencies or are formed at wrong positions due to the insuffiency of the sampling rate. Such aliased frequencies are unpleasant as long as they fall into the audible region. However, for high sampling rates like 192 kHz the Nyquist frequency will accordingly be high as well. In such cases, some of the alias frequencies can be well above the hearing limit, namely 20 kHz. Such inaudible alias frequencies can create intermodulation effect on audio systems, that indirectly becomes an audible artifact again. The two page analogy mentioned above can be used to visualize the function of the anti-alias filter. What anti-alias filter does is to clear out the right page and the associated frequencies above the Nyquist limit on that page such that any folding of the emptied right page onto the left one doesn’t create any aliasing. One practical limitation here is that all filters have a finite slope or roll off value so that they can’t immediately start filtering out frequencies right above the cut off. This means some leakage of the frequencies above the cut off value. For this reason, cut off frequency is usually set to a lower value than the Nyquist limit, usually 5% less than the limit such that filtering starts below the limit and compensates for the post-filtering leakage. One important question that can be asked is whether the frequencies above the limit are allowed to be sampled or the sampling rate itself is insufficient for these higher frequency components for a given case. Actually, both are valid questions and the answer is highly dependent on which factor is controllable. If the sampling rate choices offered by the ADC are not high enough for the input signal, then using an anti-aliasing filter to control the signal spectrum is the logical choice. If, for whatever reason, the spectrum is not controllable or not wanted to be altered then increasing the sampling rate is the only choice. It must be noted using an anti-aliasing filter that is set roughly to half of the sampling rate eliminates the problematic high frequencies, but also slightly alters the spectral behavior of the input analog signal. That is, there is a compromise between the signal characteristics and the alias-free sampling. Another concern here is that the antialiasing filter has no control over the rest of the digitization process. In other words, any high frequency component that has already been filtered out by the LPF and should not appear in the digitization process after the filter may still be present due to some other controllable and uncontrollable factors. The most dominant factor that may lead to such a problem is allowing higher analog signal levels that can be tolerated by the digitization stage. It must be noted that although the filtered version of the signal has no problematic high frequencies its amplitude may still create problem during digitization. Every ADC has a certain amplitude limit below which it can flawlessly convert analog signal into digital form. If the LPF cutoff is misadjusted not taking into account the filter slope, it may also leak some high frequencies after the filtering action. So, it still seems possible to face ATMM 2013 PROCEEDINGS 37 with higher frequencies than the ADC can handle even with the use of the anti-aliasing filter precaution. Similar to the anti-aliasing filter application before the digitization process, there is also a filter structure employed after the DAC stage. It is again an LPF and has the same filter cut off frequency as the former. It is called a reconstruction or antiimaging filter. The reason for using such an LPF is to filter out the unwanted high frequencies or image frequencies resultant of the analog-digital conversion process. It must be noted that such frequencies are different from the alias frequencies that appear either due to misadjustment of the anti-aliasing filter’s cutoff frequency or high input signal levels and are direct result of the sampling process which is equivalent to some form of amplitude modulation. SAMPLING AS AMPLITUDE MODULATION How sampling creates such image frequencies or side bands is seen in Figure-2. Image frequencies must definitely be filtered out to be able to get audio band output analog signals. Otherwise, as stated earlier, frequencies above the hearing limit may not directly result in an unpleasant hearing experience, but may indirectly create problems due to intermodulation distortion phenomenon when considering nonlinear amplifiers or speakers. For this reason, reconstruction filters are as important as anti-imaging filters when digitizing analog signals and then obtaining analog format again. In Figure-2, sampling frequency is chosen to be 48 kHz for simplicity and the Nyquist frequency limit is obviously 24 kHz, both of which are shown as solid lines. The dashed line at 35 kHz represents a leaked frequency component due to overloaded ADC and is subject to sampling. Otherwise, 35 kHz can easily be filtered out by the anti-aliasing filter. The amplitude modulation process which is sampling here creates two side bands around sampling rate 48 kHz, one being at 48+35=83 kHz and the other one at 48-35=13 kHz. It must be noted that 35 kHz component is above 24 kHz, so the Nyquist limit is exceeded and the criteria is violated. The result is an image as an aliased frequency component appearing at 13 kHz which is within the hearing limits. The other image at 83 kHz is well above the hearing limit, but still exists. As can easily be guessed, 13 kHz alias image can’t be filtered out with the reconstruction filter having 24 kHz or similar cutoff, but the 83 kHz component is handled by the filter. Figure 2 Sampling as Amplitude Modulation and Aliasing Effect CONCLUSION If the sampling rate can’t be adapted to high frequencies within the analog signal, then it is obvious that the input signal can be filtered with an anti-aliasing filter prior to the sampling operation. In this case, carefully adjusting the level of the signal to be sampled such that no new harmonics are excited post filtering then it can be sampled without any unexpected alias frequencies. It must also be stressed that the filter cutoff frequency should be slightly lower than the Nyquist limit so that any filter slope issues can be compensated for. References Bruno A. Olshausen. "Aliasing", PSC 129-Sensory Processes, 2000. PDF File. Dunn Julian. "Anti-Alias and Anti-Image Filtering" Nanophon Limited, Cambridge, UK, 1998. Wikipedia contributors. "Aliasing." Wikipedia, The Free Encyclopedia. Wikipedia, The Free Encyclopedia, 17 Nov. 2013. Web. 6 Dec. 2013." ATMM 2013 PROCEEDINGS 39 A GENERATIVE SYNTHESIS DRUM MACHINE MODEL IN MAX MSP Abstract This paper presents an interactive rhythm synthesis system implemented in Max MSP. The user is expected to record four two-second samples of audio into buffer. These sound samples are to be used as the voices of the instrument in order to be fine-tuned and saved into presets at the end of the process if desired. The system aims for instant interaction and the user is encouraged to explore the sonic environment he/she is in or has access to. Once the samples are ready, the user can generate rhythmic sounds in the determined BPM, play variations through the pattern generator and play tempo variations via the tempo modulation modules. The system model presented is built with four voices yet it is modular and can be expanded to cover a wider range of voices and irregular meter generation. 1) Introduction Drum machines and rhythmic sound processors are common practices of sound synthesis devices, often presented as MIDI instruments. These devices offer pre-programmed rhythmic patterns, they can create patterns via generative synthesis and/or they are programmable through the MIDI protocol. Most of these devices offer hundreds of presets that comprise sound samples and pre-programmed rhythm patterns either to simulate acoustic percussion instruments or to play rhythmic electronic sounds. However, this type of conventional approach may prevent the user/musician to get into instant interaction with the musical instrument hence the musical idea. It also produces a question of authenticity since commercial electronic music instruments are available to a wide range of musicians. The aim of the new model of generative synthesis approach presented in this paper is to reveal the possibilities of environmental acoustic data (or available digital audio media) and how these sounds can be played analogous to tapping a rhythm with hands and fingers (Jylha et al. 37). 2) The system architecture The core of the system contains four voices that use computer buffer to playback audio data. Each voice of the instrument is designed as a tape machine. The sound is played once with every hit to the play button. Playing in half speed results in half the pitch (drops the sound an octave lower), doubling the play speed transposes up an octave. An ADSR envelope is provided within the module to control the percussive articulation of each voice if desired. , Figure 1 A single sample player of the system The sound samples are either recorded acoustically via a specified input chain or read from disk, into the buffer. It is possible to use previous two-second recordings or any other music media available. Once a voice is triggered, the digital audio samples in the buffer are read in the determined duration hence the pitch (Cipriani and Giri 95). Waveform displays for each voice are provided in the user interface in order to visualize the audio data and present opportunities for interaction. During the adjustment phase of the voices, it is possible to trigger the desired voice via specified key input for feedback before moving on to the generative synthesis phase. ATMM 2013 PROCEEDINGS 41 2.1 Generative synthesis modules After setting the voices and BPM, then user clicks the start button to initiate generative synthesis. The first rhythm played is set to by default a simple duple 4/4 meter. Once the pattern generator is activated the generative synthesis starts and rhythms are produced in various types of simple / compound and duple / triple meters. The algorithm presents two different types of pattern generators, and three modes for them to operate in. The first type of pattern generation randomizes the timing of each voice by multiplying the time interval of the default 4th note value by two, four, six or eight. Therefore random patterns are generated every measure of the determined BPM. It is possible to adjust tempo in real time during pattern generation. The second type of pattern generation randomizes the initial time interval by either keeping the current value, dividing it by two or multiplying it by two or four. Due to this bi-polar approach to randomization, it is possible for this experimental type to produce non-musical rhythms since some of the voices may play faster than a 64th note while the others may be playing slower than 4th notes. The rate of change of meters at this point is determined by the modes of the pattern generation. Mode one’s frequency is equal to the BPM of the actual rhythm, so a new pattern emerges once in every measure. Mode two keeps same, doubles or halves the BPM of the pattern generation in every beat of the global tempo. Mode three takes the BPM value from global tempo too, yet the value is updated by the random values of double or half times generated. This states that the patterns generated complete at least one measure before proceeding to a new variation. Figure 2 Pattern generator algorithm Another generative synthesis algorithm is provided to manipulate the tempo continuously. The module can generate a series of random tempo modulations in the form of doubles and halves. This algorithm has two modes. Mode one is synched to the global tempo, it is possible to set the tempo manipulation frequency to whole number multiples or divisions of the global tempo. Mode two is synch free; the rate of tempo manipulation is determined manually. Figure 3 Tempo modulation algorithm ATMM 2013 PROCEEDINGS 43 An additional option enables the two algorithms of pattern generation and tempo manipulation to be fed into each other. When this feature is enabled, the global tempo display in the interface is updated every time tempo manipulation occurs. When the global tempo is updated, if mode one of the tempo manipulation algorithm is active, the frequency of the selected synced mode is updated. This results in a new frequency of tempo manipulation and the updated tempo updates the synced mode again, hence a loop is formed. This option can produce endless possibilities without any interaction from the user. 2.2 Time Domain Processing Matrix The matrix provided comprises volume faders with level meters and pan pots of each voice for mixing in stereo. A master fader sets the master level to the desired output level. There are sends from each voice to the effect layers such as delay lines. A stereo 1000-msec delay is provided for each voice with delay time values synced to the global tempo in order to punctuate certain patterns in the dry rhythm section (Farnell 68). Manual delay time entry is possible if the user desires sync free operation. It is possible to mute these sends or set their levels. The relation between the left and the right channels of the stereo panorama for each voice can be adjusted with rhythmic or synch free input as well. During improvisation, the user can interact with the matrix to form nuances of composition. 2.3 User interaction model The intended user interaction model for this software generative rhythm synthesizer primarily focuses on the issue of the instance of interaction hence the realization of musical idea (Bolter and Gromala 133). The secondary concern is the individualization of the instrument. By encouraging awareness to acoustic data or transformation of the sounds in our digital media library, the voices of the instrument are determined by the user. This feature may be considered a disadvantage yet it presents the opportunity to work creatively and think musically. In resemblance to musical acoustic instruments, it requires time and effort to come up with pleasing sounds and when this is achieved, the result is unique (Ariza 56). The user starts the interaction by recording four sounds using the built in microphone of the computer or via another specified input chain into the buffer. It is also possible to read audio data from disk or read previously recorded samples. Then the user selects the portions of audio via the waveform displays, sets the pitch & play duration and determines the ADSR envelope for percussive articulation if needed. During this operation it is possible to hear the sounds via specified keyboard input. After completion of this process for all the voices the user sets the BPM and clicks the start button to start the initial rhythm (a basic 4/4 duple meter). This first rhythm presents an appropriate moment to adjust the level faders and pan pots of the voices. Once the user selects and activates one of the modes of pattern generation, the generative synthesis starts. At this moment it is up to the user to leave the generative synthesis on and improvise with the modes or to stop the generative synthesis at certain moments. When this action is done, the last rhythm generated keeps on playing so that the user can interact to discover various possibilities. If tempo manipulation is desired, the user can activate the algorithm either in synced mode or with manual time entry. When both generative synthesis algorithms are active, endless patterns emerge continuously. At any moment during operation, the user can adjust the global BPM manually to set it into an appropriate range in accordance with the rhythmic structure being generated. When two algorithms are fed into each other, the global tempo is updated automatically. The user can also improvise with delay sends of the voices; synced and manual delay times in order to punctuate patterns. 3) Conclusion Further possibilities of the system present the implementation of Java interfaces for the use of randomized procedures via interactive visual simulation algorithms. Similar generative synthesis algorithms driving the parameters of the time domain processing matrix can contribute to the creation of sonic soundscapes. References Ariza, Christopher. "The Interrogator as Critic: The Turing Test and the Evaluation of Generative Music Systems." Computer Music Journal 33.2 (2009): 48-70. Print. Bolter, Jay David, and Diane Gromala. Windows and Mirrors: Interaction Design, Digital Art and the Myth of Transparency. Cambridge: The MIT Press, 2003. Print. Cipriani, Alessandro, and Murizio Giri. Electronic Music and Sound Design: Theory and Practice with Max/MSP – Volume 1. Rome: Contemponet, 2010. Print Farnell, Andy. Designing Sound. Cambridge: MIT Press, 2010. Print Jylhä, Antti, Inger Ekman, Cumhur Erkut, and Koray Tahiroğlu. "Design and Evaluation of Human–Computer Rhythmic Interaction in a Tutoring System." Computer Music Journal 35.2 (2011): 36-48. Print. ATMM 2013 PROCEEDINGS 45 A SYSTEM FOR MATCHING THE TUNING IN A RECORDING Abstract This paper presents a new tuner system implemented in Java. The main difference from existing tuners is the use of one or more recordings as reference instead of theoretical presets. The target here is to help the musician to tune her instrument as in one or more given recordings. For that purpose, first, the fundamental frequency analysis is performed for the given recordings. Then, pitch distributions are obtained and matched to get an overall distribution plot. Finally, on the main display panel of the tuner, the real-time frequency estimate from the input signal is plotted together with the pitch distribution. The musician adjusts her instrument to match the frequency estimate of the input signal with a peak of the histogram to perform the tuning operation. 1) Introduction Musical instrument tuners are widely used devices or software that help the musicians adjust the tuning of musical instruments to match a given theoretical preset such as a 12Tet (tone equal temperament), Pythagorean tuning, etc. For some instruments (for example the wind instrument family), tuning refers to adjustment of a single tone frequency since the hole positions are fixed on the instrument. In string instruments however, multiple strings need to be tuned. One extreme example is the Turkish instrument kanun which has 24 to 26 triplets of strings hence a large number of strings need to be tuned. In addition, in various folk music traditions, many string instruments use movable frets (the Turkish folk instrument, baglama, is one example). For this case, one may need or would like to tune all the possible tones with respect to a reference, to adjust fret locations. Until recently, handheld tuning devices were among the popular electronic devices in the music technology market. The literature on musical tuners mainly contains patents on hand-held electronic devices. Today, consumers are more and more inclined towards preferring software tuners that run on smartphones or other multipurpose computing machines. Conventional tuners designed for 12 TET (tone equal temperament) find limited use within the context of various folk music traditions due to use of non-standard tonescale systems. In such context, there is also the danger that conventional tuners induce changes in the traditional tuning system (causing a shift towards the 12 TET system) since no other technology is available to help the musicians. We have to be aware that use of technology dedicated to a specific standardized music theory may be a threat to the local music cultures if culture specific technologies are not available. In many folk music traditions, tuning choices vary with respect to the master musicians or the local culture and may not necessarily fit to a specific tuning theory. For tuning in such a setting, the main source of the tuning information, or the main reference, is the recording of a master musician. A system that uses recordings as reference for tuning operation is needed. In this work, we propose a software tuner system that accepts one or more recordings provided by the user and perform an automatic analysis to create a reference for the tuning operation. The user then adjusts her instrument to match the tuning in the recording with the help of the tuner interface. The output of the analysis part is a text file containing the reference information and can be shared among users of the tuner. The work proposed here is an alternative implementation to (Bozkurt 1). In that work, automatic stable segment detection and loop creation were used to create the references from the audio signal and fundamental frequency estimation was avoided by using a frequency comparison algorithm (without actually measuring the frequency). The method described here does not include any of the mentioned steps and is based on a pitch histogram representation. 2) The system architecture The tuner system proposed in this work contains two parts. The first part is for analysis of the given recordings to form the reference information. The second part is the user interface/ display (implemented in Java) which presents real-time visualization for the actual tuning operation. Once the first part performs an analysis of the recording(s), the results/references are saved and analysis does not need to be redone next time the tuner is operated. These references obtained from authentic recordings are considered as presets of the tuner system. After the analysis of a recording is performed, the data can be stored and shared as a preset so that it can be reloaded with ease. This feature presents the possibility of a large library of authentic tuning presets. 2.1 Recording analysis part For a given recording, first, frequency analysis is performed for each 10 msec. window/frame using YIN (de Cheveigne and Kawahara 17), a popular fundamental frequency detection algorithm. In the second step, pitch histograms are obtained for each recording as explained in (Bozkurt 43) with a resolution of 159 bins per octave. Since the diapason may vary in a traditional music context, it is advantageous to represent the pitch information as interval information (with respect to tonic). The tonic detection can be performed automatically (Salamon, Gulati and Serra 499) or manually, depending on the specific music culture. In Figure 1, we present an example pitch interval histogram computed from Tanburi Cemil Bey's Çeçen Kızı recording (in makam Hüseyni). The tonic (automatically found using the makam information) is indicated as 0 on the x-axis. As seen from Figure 1, all histogram peaks do not match the vertical lines (which correspond to the 12-Tet presets). ATMM 2013 PROCEEDINGS 47 Figure 1 Pitch histogram of Tanburi Cemil Bey's Çeçen Kızı recording [1]. Vertical lines indicate 12-Tet tones This histogram is saved in a text file as the reference. If desired, the peaks of the histogram could be detected to automatically estimate interval sizes. In our tuning system, this is not necessary since the histogram plot itself is sufficient for visual feedback as explained in the next section. If more than one recording is given, pitch histograms are matched using cross-correlation (Bozkurt 43) and an overall pitch histogram is obtained by averaging histograms. 2.2 User display for tuning The user display part of the microtonal tuning software acquires musical data from the analysis part and displays the authentic intervals along with the live input from the user. The system has been implemented in Java. Once the software is run, a file browser dialog appears so that the user can select the analysis data obtained from the desired recording. The histogram is a text file containing the frequencies with corresponding frequency of occurrences as a data matrix. Once the file is selected, the algorithm detects the file path in disk and assigns the data in the analysis file to two string arrays. The contents of the row and column arrays are stored in a two-dimensional float number matrix. In order to identify the peak values of the histogram, the second column values are sorted and assigned to another float array. On user request, the histogram can be smoothed to get rid of spurious peaks. The histogram is displayed with the default 30 frame rate within the looping draw function. A two-dimensional iteration scans and matches each value of the matrix and these points are connected with lines to visualize the histogram. Another task that runs during the two-dimensional iteration is the detection of the corresponding frequency values of the sorted array's largest values. By this data, the algorithm suggests the peak values by highlighting them with circles. This provides visual feedback during the tuning operation. The software uses the Minim Audio class (Di Fede, "Minim") to analyze real time audio input and synthesize pure tones for the peak frequencies. A forward fft (Fast Fourier Transform) operation is performed on the audio input buffer to detect the frequency partial with the highest amplitude. Autocorrelation and salience function methods are used in order to estimate the fundamental frequency. The input frequency estimate acquired is displayed as a vertical red line that moves horizontally on the histogram display. The location of the line is calibrated so that it matches the frequency axis of the histogram, hence the tuning operation can be achieved by vertically aligning the input frequency with the peaks in the histogram. During the interaction, the user is provided with visual feedback as the vertical tuning cursor's color switches to green every time alignment with a histogram peak is achieved. For the sake of better interaction as well as efficient input data analysis, the tuning cursor's movement is smoothed out with an easing factor. A gain meter is provided so that the user can adjust input microphone level if it is too weak or strong. It is possible to click on the peaks in the histogram and synthesize pure tones if the user prefers to tune by ear to the analyzed frequencies without the aid of the real-time frequency input display. Once a preset is loaded and the histogram is visualized, the tonic is displayed at its original frequency. If the user wants to transpose to a certain register in order to match her instrument, it is possible to transpose the display to the desired range via specified key input. Figure 2 displays the tuner interface during tuning operation. The analysis data of Tanburi Cemil Bey's Çeçen Kızı recording is loaded as a preset and the smoothed pitch histogram option is selected by the user. Figure 1 Tuner display 3) Conclusion In this paper we have presented a novel musical instrument tuner that is specifically designed for folk music traditions. While the first tests with the authors' instruments are satisfactory, we should mention here that no testing has been yet performed and this is among our future goals. Acknowledgments This work was funded in part by the European Research Council under the European Union's Seventh Framework Programme (FP7/2007-2013) / ERC grant agreement 267583 (CompMusic). ATMM 2013 PROCEEDINGS References 49 de Cheveigne, Alain, and Hideki Kawahara. "YIN, a Fundamental Frequency Estimator for Speech and Music." Journal of the Acoustical Society of America 111.4 (2002): 17-30. Print. Bozkurt, Barış. "An Automatic Pitch Analysis Method for Turkish Maqam Music." Journal of New Music Research 37.1 (2008): 1–13. Print. Bozkurt, Barış. "A System for Tuning Instruments using Recorded Music Instead of TheoryBased Frequency Presets." Computer Music Journal 36.3 (2012): 43–56. Print. Cemil Bey, Tanburi. Traditional Crossroads, Re-mastered from the Orfeon 10498 original 78 RPM record, 1910–1914. Orfeon, 1994. CD. Di Fede, Damien. Code Compartmental. Kokoromi Collective, Nov. 2009. Web. 10 June 2013. <http://code.compartmental.net/tools/minim/>. Salamon, Justin, Sankalp Gulati and Xavier Serra. ISMIR 2012, Porto: A multi-pitch approach to tonic identification in Indian classical music. Porto: FEUP Edições, 2012. Print. PAPERS IN TURKISH ATMM 2013 PROCEEDINGS 51 MüzİK TEKNOLOjİSİ EğITİMİNDE TüRKİYE’DEKI DEVLET üNİVERSİTELERİNDE UYGULANAN MODELLER üzERİNE BİR İNCELEME Abstract Music technology education at the govermental universities in Turkey gives different outcome results. Their education models and student acceptance criterias differ from each other. Music technology education is a new concept for the Higher Education System in Turkey. Within these facts, Music technology education programs and student acceptance criterias and prequesities show difference from university to university. In this paper, pros and cons of this education models will be reviewed by the author. özet Türkiye'deki devlet üniversitelerinde müzik teknolojisi eğitimi, birbirinden farklı eğitim modelleri ve öğrenci seçiminde uygulanan kriterler bağlamında birbirinden farklı sonuçlar doğurmaktadır. Ayrıca müzik teknolojisi eğitimi, Yükseköğretim Kurumu tarafından yeni yeni tanınmaya başlanan bir eğitim modeli olmaya başlamıştır. Bu olgular göz önüne alındığında, Türkiye'deki devlet üniversitelerinde müzik teknolojisi alanında eğitim vermeye başlayan ilgili kurumlarda gelişen yapısal dokularda ve öğrenci seçimi kriterlerinde uygulanan yöntemler, çeşitli sonuçlar doğurmuştur. Bu çalışmada, bu sonuçların artıları ve eksileri masaya yatırılacaktır. 1 - Aile Geçmişi ve Teknoloji İlişkisi Babam Mustafa Kâmi Acim, Elektrik Meslek Lisesini bitirdikten sonra Türkiye Radyo ve Televizyon Kurumu (TRT) Ankara Radyosu ve ardından İstanbul Radyosunda çalışmış ve aynı kurumdan emekli olmuş bir kişidir. Ayrıca, İstanbul'da ilk ses kayıt stüdyolarından biri olan Stüdyo Elektronik adını taşıyan özel ses kayıt stüdyosunu kurmuştur. Burada amcam Sıtkı Acim'i tonmeister olarak yetiştirmiş ve kendisini ses kayıt camiasına kazandırmıştır. Amcam Sıtkı Acim, daha sonra kurulan ve Arı Yapım başlığını taşıyan ses kayıt stüdyosuna geçmiştir ve ardından Stüdyo Elektronik başlığını taşıyan ses kayıt stüdyosu kapanmıştır. Stüdyo Elektronik faaliyette iken ben de Şişli Ortaokuluna gitmekte idim. Okul çıkışında stüdyoya gider ve kayıtları izlerdim. Bu stüdyodaki kayıtlarına şahit olduğum isimleri hatırladığım kadarıyla sıralamak isterim: Garo Mafyan, Onno Tunç, Cezmi Başeğmez, Neşet Ruacan, Timur Selçuk, Modern Folk Üçlüsü, Erol Büyükburç, Metin Özülkü, Şerif Yüzbaşıoğlu ve Şenay Yüzbaşıoğlu, Aydın Esen (Şerif Yüzbaşıoğlu'ndan piyano ve kompozisyon dersleri alırken), Neco, İskender Doğan, Nükhet Duru. Şahit olmadığım ama kayıt yaptıklarını bildiğim isimler ise hatırladığım kadarıyla şöyle idi: Behiye Aksoy, MFÖ ("Heyecanlı" parçasının kaydını yapmıştı), Barış Manço (Dağlar Dağlar parçasının kaydını yapmıştı). Stüdyo Elektronik'in kapanmasından sonra buradaki cihazların çoğunu babam eve getirmişti. Ben de o sırada 4 Kanallı Makara Teyp, 24 Kanallı Mikser gibi aygıtlarla evde kayıt denemeleri yapmakta idim. Babam evinde hali hazırda Atari Commodore 64 cihazı üzerinde, Cubase 1.0 yazılımını floppy disket ile çalıştırmaya devam etmektedir. 1978 yılında Mimar Sinan Güzel Sanatlar Üniversitesi Devlet Konservatuvarına (o zamanki adıyla İstanbul Devlet Konservatuvarı) girmemle birlikte akademik sanatçılık yolundaki ilk adımları attım ve bugünlere geldik. 1998 - 2002 yılları arasında çalıştığım Yıldız Teknik Üniversitesi Sanat ve Tasarım Fakültesinin kurucu üyelerinden birisi olarak, bu fakültenin Müzik ve Sahne Sanatları Bölümünde Yardımcı Doçent olarak çalışırken bir yandan da buradaki ilk ses kayıt stüdyosunun kuruluşuna da öncülük ettim. Daha sonra, 2004 - 2007 tarihleri arasında, yine kurucu üyesi olduğum İnönü Üniversitesi Güzel Sanatlar ve Tasarım Fakültesindeki ses kayıt stüdyosunun kurulmasında ve ardından yine aynı birimde Midi laboratuvarının kurulmasına öncülük ettim. İnönü Üniversitesi, Güzel Sanatlar ve Tasarım Fakültesi, Müzik Bölümü, Müzik Teknolojisi Anabilim Dalının 2004 - 2005 Eğitim Öğretim Yılındaki ilk öğrencilerini seçme sürecinde, bir yandan Dekan Yardımcılığı görevini üstlenirken bir yandan da müzik teknolojisi adayı seçimi sürecinde belki de ilk kez olarak, adaylara sesi teknolojik boyutu ile algılamalarını ölçen sesli sorular sorduk. Daha sonra adayların, sesi müziksel olarak ne denli doğru olarak algıladıklarını ölçen bilindik sınavı uyguladık. Daha sonra Güzel Sanatlar ve Tasarım Fakültesi Müzik Bölümü Müzik Teknolojisi Anabilim Dalına Yrd. Doç. Dr. Arda Eden'in gelmesiyle bu birimimiz son derece güçlü bir hale gelmiş bulunmaktadır. Ayrıca, besteci olarak kendime ait bir küçük ev stüdyosunda Behringer Analog Mixer, MAC Mini Bilgisayar, Ensoniq TS-12 Keyboard, Native Instruments Audio Kontrol 1 Ses Kartı gibi cihazları; Logic Pro, Cubase LE AI Elements 7, Audacity gibi yazılımları kulllanmaya devam ediyorum. 2 - Müzik Teknolojisi Kavramı Hakkında Müzik teknolojisi terimi ve kavramı, ülkemizdeki devlet üniversiteleri ve vakıf üniversitelerinin geçmişi göz önüne alındığında ve de bu üniversitelerden bazılarında sanat, müzik gibi kavramların farklı değerlendirmelere tutulduğu düşünüldüğünde, ilk algılamada bireyde hafif bir sersemleme ve algıda bulanıklık etkisi yaratmaktadır. Çünkü, bugüne değin müziğin icracılık, bestecilik, orkestra şefliği ve hatta müzikoloji/müzik bilimi gibi alt alanları konusunda bir bilgi ve fikir sahibi olanların müzik ile teknoloji kavramlarının birleşiminde ilk anda akıllarına "bilgisayar ile müzik arasındaki bir ilişkiden bahsediliyor olsa gerek!!!" şeklinde bir düşünce gelmesinden daha doğal bir sonucun olamayacağı düşünülebilir. Müziğin teknoloji ile birleşmesinde elbette bilgisayar yazılımları önemli bir yer tutar. Ancak, 1983 yılı civarında müziksel elektronik tuşlu çalgılarla bilgisayarlar arasındaki iletişimi sağlayan MIDI standardının yeni bir olgu olarak ortaya çıkmasından sonra başlayan macera günümüzde çok farklı sonuçlara ulaşmıştır. Ayrıca, müzik ve elektrik arasındaki ilişki karşımıza analog terimini, sonrasında da müzik ve bilgisayar arasındaki ilişki ise karşımıza digital terimini çıkarmıştır. Yani müzik teknolojisi terimi içinde müzisyenlik ile birlikte elektrik, elektronik gibi mühendislik çekirdeğini de barındırır. Bu açıdan, bu alanda eğitim alacak olan kişilerin müziğin temel bilgileri ve becerilerine sahip olmalarının yanı sıra, bir elektrik mühendisinin sahip olması gereken ATMM 2013 PROCEEDINGS 53 bilginin en azından bir kısmına sahip olması gerekir. Bu da sayısal düşünme beceri ve zekâsına sahip olunması gerekliliğini bir zorunluluk olarak karşımıza çıkartacaktır. 3 - Müzik Teknolojisi Eğitimi Veren Devlet üniversiteleri - Yıldız Teknik Üniversitesi Sanat ve Tasarım Fakültesi Müzik ve Sahne Sanatları Bölümü, Duysal (Ses) Sanatlar Tasarımı Anabilim Dalı, Müzik Teknolojisi dalı - Dokuz Eylül Üniversitesi Güzel Sanatlar Fakültesi Müzik Bilimleri Bölümü, Müzik Teknolojisi Anabilim Dalı - Cumhuriyet Üniversitesi Güzel Sanatlar Fakültesi Müzik Bölümü, Müzik Teknolojisi Anabilim Dalı - İnönü Üniversitesi Güzel Sanatlar ve Tasarım Fakültesi Müzik Bölümü, Müzik Teknolojisi Anabilim Dalı 4 - Müzik Teknolojisi Alanı - özel Yetenek Sınavları Yapısı 4.1 Yıldız Teknik Üniversitesi Sanat ve Tasarım Fakültesi Müzik ve Sahne Sanatları Bölümü, Duysal (Ses) Sanatlar Tasarımı Anabilim Dalı, Müzik Teknolojisi dalına öğrenci seçiminde öncelikle baraj niteliğinde bir Duyum Düzeyi sınavı yapılmaktadır. Bu barajı geçen ve ikinci aşamaya girmeye hak kazanan adaylara Müzik Teknolojisi dalı alanında bir dosya sunumu yapması istenmekte ve ayrıca kendileriyle bir mülakat yapılmaktadır. Sınav kılavuzunda yazılan açıklamayı görelim: Adayların başvurdukları müzik teknolojileri dalı kapsamında eğitimi yapılacak teknik konulara olan ilgisi ve yatkınlığını yansıtan ve kendi tasarlayarak ürettiği çalışmalardan oluşan (kayıt, miks, ses tasarımı ve/veya aranje içeren) hem audio hem de bir adet WAV formatındaki CD kaydını, müzik teknolojisi kavramını tanımladığı ve verdiği CD'deki içeriğe ait açıklamaların olduğu bir A4 sayfası tutarındaki metin çalışmasını ve konuya ilişkin bilgi ve kişisel çalışmalarının dökümünün yer aldığı bir dosyayı beş nüsha halinde sınav jürisine sunmak. Yukarıdaki açıklamadan da anlaşılacağı gibi, adayın müzik teknolojisi eğitimi almaya hazır bulunuşlukları ölçülmektedir. 4.2 Dokuz Eylül Üniversitesi Güzel Sanatlar Fakültesi Müzik Bilimleri Bölümü, Müzik Teknolojisi Anabilim Dalına öğrenci seçiminde ise dört aşamalı bir sınav yapılmaktadır. a) Birinci Aşama: Müziksel İşitme Sınavı, b) İkinci Aşama: Mesleki İşitme Sınavı, (Kılavuz metninde "Bu sınavda kaydedilmiş örneklerden yola çıkarak adayın tını ayrıştırma ve ses karşılaştırma becerisi ölçülür." ibaresi bulunmaktadır.) c) Üçüncü Aşama: Test Sınavı, (Kılavuz metninde 60 dk. sürecek bu sınavda adayın müzik teknolojisine yönelik genel kültür, mantık ve bilgisinin ölçülmesi amaçlanmıştır. Sınavda ağırlıklı olarak mesleki genel kültür, sektörel yaklaşıma yönelik ayrıştırma ve bilgi becerisi, detay donanım-yazılım bilgisi, dört işleme dayalı temel matematik hesaplamaları vb. konuları içeren sorular sorulur. açıklaması yapılmıştır.) d) Dördüncü Aşama: Mülakat Sınavı, (Kılavuz metninde Burada adaylar tek tek görüşmeye alınır ve adayın müzik teknolojisine yönelik eğilimi sorgulanır. Bu aşamada aday, eğer varsa, geçmişte yaptığı çalışmaları herhangi bir medya aracılığı ile (CD, DVD, HDD, Flash vb.) sunabilir ve 2dk. süre ile sınırlı tutulacak çalgı ve/veya vokal performansını gösterebilir. ifadesi yer almaktadır. 4.3 Cumhuriyet Üniversitesi Güzel Sanatlar Fakültesi Müzik Bölümü, Müzik Teknolojisi Anabilim Dalına öğrenci almak için yapılan sınavda müzik teknolojisi ile ilgili neler sorulduğuna dair bir bilgiye ulaşılamamıştır. 4.4 İnönü Üniversitesi Güzel Sanatlar ve Tasarım Fakültesi Müzik Bölümü, Müzik Teknolojisi Anabilim Dalına öğrenci seçiminde müzik teknolojisine başvuran öğrencilere yönelik olarak hazırlanmış bulunan ve yirmi sorudan oluşan bir yazılı test sınavı yapılmakta ve sonrasında ise müziksel algılama sınavı yapılmaktadır. 5. Müzik Teknolojisi Anabilim Dalı/Dalı Eğitim Programları Müzik teknolojisi alanında eğitim veren devlet üniversitelerinde sekiz yarıyıllık programlara ulaşmaya çalıştığımızda genel olarak Müzik Teknolojisine Giriş, Ses Tasarımı, Elektronik Bilgisi, Akustik gibi temel teorik derslerin yanı sıra birbiri arasında başlıklar bakımından farklılık gösteren; ama özünde birimlerdeki ses kayıt stüdyolarında öğrencinin çeşitli kayıt projeleri oluşturmalarına olanak sağlayan dersler olduğunu görmekteyiz. Ders programlarını detaylarıyla incelemek ve aralarında karşılaştırma yapmak, başka bir bildiri konusu olacak kadar geniş bir araştırma alanıdır. 6. özel Eğitim Kurumları Google üzerinde müzik teknolojisi kursları yazarak yapılan bir aramada karşımıza 3.310 sonuç çıktı ("Müzik Teknolojisi Kursları"). Bunlar arasında birbirinden farklı geçmişe, birikime ve tecrübeye sahip ve ağırlıklı olarak İstanbul ve kısmen de Ankara ve İzmir merkezli sonuçlara ulaştık. Yaptığımız bir göz gezdirme sonucunda web sayfalarına kurs içeriklerini detaylı bir şekilde ekleyen veya üstünkörü bilgiler veren ağ bağlantılarıyla karşılaştık. Elbette, özel sektör diyebileceğimiz bu yapıda, müzik teknolojisi alanı ciddi bir ilgi uyandırabilmektedir. 7. Dünyadan İki örnek Amerika Birleşik Devletleri denildiğine elbette insanların akıllarına ilk gelen yerlerden birisi doğal olarak Boston, Berklee College of Music adresi olacaktır. Burada Music Production and Engineering başlığını taşıyan bir dal bulunmaktadır ("Music Production and Engineering"). Bu okula öğrenci seçimi sırasında on beş dakikalık bir audition yani özdinleti olarak dilimize çevirebileceğimiz, adayın bir çalgıda becerisini göstereceği bir parçayı çalmasını, çalgıda doğaçlama yapabilme becerisini sergilemesini, bir deşifre yapmasını, müziksel işitme becerisini sergilemesini istemektedirler. Daha sonra kendileriyle bir mülakat yapılmaktadır. ATMM 2013 PROCEEDINGS 55 Amerika Birleşik Devletleri'ndeki önemli üniversitelerden biri de Indiana University Jacobs School of Music başlığını taşıyan birimdir. Recording Arts başlığını taşıyan dal, müzik teknolojisi alanında eğitim almak isteyenlerin başvuracağı bir alandır. Bu dala başvurmak için birim öğrenci adaylarından portfolio denilen bir dosya istemektedir. Bu dosyada aday özgeçmişinin yanı sıra bu alanla ilgili yapmış olduğu çalışmalarını sergilemesini istemektedir. Domestic, international, internal ve visiting gibi farklı kategorilerde başvuru türlerinin yanı sıra eğitim seviyesi olarak undergraduate, graduate ve domestic kategorisi içinde transfer başlığını taşıyan türler bulunmaktadır. Başvuru sırasında adaydan birinci aşamada Recorded Audition adında eğer icracılık alanından başvuruyorsa kaydedilmiş kısa bir dinleti istenmektedir. Bu kişiler arasından uygun bulunanlar interview denilen mülakata çağrılmaktadır. Recording Arts Department ("Jacobs School of Music – Recording Arts Department"), geniş bir donanım ve akademik kadroya sahiptir. 1982 yılında kurulan bu bölümde ders programları ilk iki yılda daha çok teorik alanda yürüdükten sonra geri kalan iki yılda da öğrencilerin stüdyo ortamında çeşitli kayıtlar yapmasına, DAW (Digital Audio Workstation) uygulamaları üzerinde çalışmalarına olanak tanıyacak şekilde yapılandırılmıştır. Kayıt projeleri giderek önem kazanmaktadır. Burada verilen eğitim öğrencileri mezuniyet sonrası karşılaşacakları ortamlara hazırlayacak şekilde biçimlendirici bir felsefe izlemektedir. Bu birimde dört konser salonundaki ses kayıt stüdyoları, iki adet Pro Tools yapım odası, bir adet çok kanallı stüdyo ve bir adet elektronik laboratuvarı şeklinde oluşturulmuş bir donanımsal yapı içinde eğitim verilmektedir. Verilen konserlerin kaydını öğrenciler ders projeleri olarak gerçekleştirmektedir. 8. Müzik Teknolojisi öğrencileri için Mesleki İngilizce Dersi Malatya İnönü Üniversitesi Güzel Sanatlar ve Tasarım Fakültesinin 2003 yılında başlayan kuruluş sürecinde yer alan bir öğretim üyesi olarak, bu alanda ilk ve tek örnek oluşturan bir dersi hayata geçirmiş bulunmaktayım. Bu dersi 2008 yılından beri aynı birimde vermekteyim. Mesleki İngilizce kavramı son on yılda giderek gelişen bir kavram olmuş bulunmaktadır. Size Global Vizyon başlığını taşıyan bir firmanın web sayfası adresini örnek olarak vermek istiyorum ("Mesleki İngilizce Kursları"). Bu sayfaya göz atarsanız Mühendisler için İngilizce, Doktorlar için İngilizce, Pilotlar için İngilizce gibi alt başlıklarda eğitimler verilmekte olduğu görebilirsiniz. Bazı üniversitelerimizin mühendislik fakültelerinde de benzer adı taşıyan derslerin verilmekte olduğunu biliyorum. Ben de müzik teknolojisi alanında eğitim alanların bu alandaki terimlerin anlamlarını, kullanım örneklerini anlayarak, çözümleyerek ve bilinçli bir şekilde cihazları ve yazılımları kullanmalarını sağlayacak kültürlenme hedefli bir amaçla böyle bir dersi oluşturdum. Dersin ilk döneminde Müzik Teorisi alt alanındaki terminolojiyi; ikinci dönemde ise ses mikserleri, kompressörler, effect processor gibi analog donanımlarda karşılarına çıkan terminolojiyi ve Finale, Sibelius, Cubase, Pro Tools ve Logic gibi yazılımlardaki terminolojiyi işliyorum. Bu dersten faydalananlar olduğu gibi zorlananlar da oluyor. Çünkü, İngilizce alt yapısı belirli bir seviyeye ulaşamamış öğrencilerle bu anlamda bir çalışma yapmanın ne denli zor olabileceği tahmin edilebilir. Ülkemizde müzik teknolojisi alanındaki Türkçe kaynak kitapların oluşturulmasında Ufuk Önen ve Teoman Pasinlioğlu'nun çalışmaları önemli bir yer tutmaktadır. Bunun dışında Serhat Durmaz'ın MIDI kitabının dışında başka bir örnek hatırlamakta zorlanıyorum. Ben, kendi ders notları web sayfamda (Acim, "Prof. Server Acim Ders Notları – 2013") "Elektronik Müzik Tarihi" başlığını taşıyan bir PDF belgesini hazırladım ve öğrencilerimin kullanımına sundum (Acim, "Elektronik Müzik Tarihi – Ders Notu"). Ancak, müzik teknolojisi öğrencilerinin eğitimleri boyunca ve eğer mezuniyet sonrası da bu mesleği sürdürmek gibi bir niyetleri varsa faydalanabilecekleri kaynakların çok büyük bir çoğunluğu İngilizce dilinde yazılmış kitaplar, cihaz el kitapları (Manuals), yazılım el kitapları (Quick Start, User Manual ve benzeri...) gibi materyallerden oluşmaktadır. Bu kaynakların ciddi olarak taranması ve hatta iyice özümsenmeye çalışılması gerekliliği bu eğitimin idealist öğrenci profiline uyan bir hayal gibi gözükse de, dünyada bu alanda eğitim veren okulların çoğunda benzer yönlendirmeler yapılmaktadır. Benim bu dersi oluşturmaktaki amacım da, öğrencilerin bu kaynakları ideal seviyede olmasa da, biraz gayret göstererek temel dokuyu çözümleyebilecek seviyeye ulaşmalarını sağlayacak ipuçlarını vermeye çalışmaktır. Sanırım, müzik temel alanı altındaki Müzik Teknolojisi Öğrencileri İçin Mesleki İngilizce dersi kendi türünde tek örnek olmaya bir süre daha devam edecek. Bu alandaki bilgi ve tecrübelerim ışığında bir kitap oluşturma fikrini taşımaktayım. Umarım bu amacımı gerçekleştirecek zamanı bulabilirim. 9. Eleştiriler ve öneriler Bu çalışmamızın dördüncü bölümünde yaptığımız dökümde müzik teknolojisi alanında eğitim veren devlet üniversitelerinde yapılan Özel Yetenek Sınavları içinde en kapsamlı ve doğru çizgideki sınavın Dokuz Eylül Üniversitesi Güzel Sanatlar Fakültesi Müzik Bilimleri Bölümü, Müzik Teknolojisi Anabilim Dalında yapılmakta olduğunu söyleyebiliriz. Ayrıca, bu birimin eğitim programında da son derece mantıklı bir pedagojik bir planlama yapılmıştır. İlk iki yıl, öğrenciler bir müzisyenin sahip olması gereken temel kazanımları edinip, sonraki iki yılda ise müzik teknolojisi ağırlığını taşıyan dersler almakta ve ders projeleri gerçekleştirmektedirler. İkinci sırada Yıldız Teknik Üniversitesi Sanat ve Tasarım Fakültesi Müzik ve Sahne Sanatları Bölümü, Duysal (Ses) Sanatlar Tasarımı Anabilim Dalı, Müzik Teknolojisi dalı yer almaktadır. Buradaki öğrenci seçimi ve dersler de alanın gerektiği yapıya uygun bir model oluşturmuştur. Üçüncü sırada ise benim de ders verdiğim İnönü Üniversitesi Güzel Sanatlar ve Tasarım Fakültesi Müzik Bölümü, Müzik Teknolojisi Anabilim Dalında yapılan Genel Kültür Müzik Teknolojisi Alanı Yazılı Test Sınavı olduğunu söyleyebiliriz. Bu testin on sorusu Genel Müzik Kültürü olup sonraki on sorusu müzik teknolojisi alanı ile ilgilidir. Ve bu yazılı testin genel puana etkisi yüzde yirmidir. Bu sınavdaki öğrenci seçimi kriterleri ile ilgili endişelerimi şöyle sıralayabilirim: Adayın bilgisayar okuryazarı olup olmadığı ile ilgili hiç bir ölçüm yapılmamaktadır. Öğrenci olduğunda alacağı derslerde matematiksel bazı formüller ile karşılaşacaktır. Aday buna hazır mıdır? Müzik Teknolojisi Anabilim Dalına başvuran adayın ÖSYS sınavının sayısal puanının 140'tan daha fazla olması gerekir. Bu alanda eğitim alacak kişinin sayısal zekâ açısından belirli bir seviyede olması gerekmektedir. ATMM 2013 PROCEEDINGS - 57 Yukarıda belirttiğim kriterlerin tam olarak gerçekleşerek öğrenci seçimi yapılması durumunda, 15 kişilik kontenjanın tam olarak dolamayabileceği endişesi taşınıyor olması ne kadar doğrudur? Eğitim sürecinde, İngilizce okuryazarlık seviyesi yeterli olmayan, sayısal zekâsı yerlerde sürünen öğrenciye örneğin Akustik dersindeki bilgileri vermeye başladığınızda ve Pro Tools, Cubase gibi yazılımları kullanamayan öğrenciden ses kaydı projesi istediğinizde, tüm bunları başarımının nasıl bir seviyede olabileceğini tahmin etmek zor olmasa gerektir. 10. Performans Kriterleri, Bologna Süreçleri ve Gerçekler! Üniversitelerin söylemlerinde eğitimde kalite, mezuniyet sonrası öğrencilerle ilişkiler alumni gibi yaldızlı ifadeler kullanılmasına rağmen Bologna Süreci ile ilişkili performans kriterleri gibi ölçümlerde mezunların alanları ile ilgili işlere yerleşip yerleşmedikleri gibi sorgulamalar yapılmaktadır. Ancak, müzik teknolojisinden mezun olmuş bulunan öğrenciler çoğunlukla T.C. Milli Eğitim Bakanlığına bağlı bir okulda müzik öğretmeni olarak çalışabilmek için pedagojik formasyonlarını tamamladıktan ve KPSS sınavına girdikten sonra çoğunlukla müzik öğretmeni olarak atanmaktadır. Bu sorunu çözmek için öncelikle öğrenci seçimimizdeki eksiklerimizi gidermemiz ve kontenjanı doldurmakla ilgili zorunluluğu gündemden kaldırmamız gerekmektedir. Ayrıca, müzik teknolojisi alanında eğitim verilen bölge insanının, bu eğitime karşı hazır bulunuşluk ve isteklilik verilerini değerlendirip ona göre bazı kararlar almak yoluna gidilmesi gerekmektedir. Yukarıdaki paragrafların sonlarına doğru bahsetmiş olduğum gerçekler İnönü Üniversitesi Güzel Sanatlar ve Tasarım Fakültesi Müzik Bölümü, Müzik Teknolojisi Anabilim Dalını kapsayan eleştirilerdir. Bu eleştirileri okuyan kişilerin yazılanları "duygusal" bir çerçevede değil, "akılcı" bir çerçevede değerlendirmeleri gerekmektedir. Ancak, Türkiye'nin herhangi bir devlet üniversitesinin herhangi bir Güzel Sanatlar Fakültesi içindeki Müzik Bölümünde Müzik Teknolojisi Anabilim Dalı oluşturulması düşünüldüğü takdirde, bu karara varma yetkisine sahip olan kişilerin aşağıdaki paragrafta sıralayacağım kriterleri çok "gerçekçi, ayağı yere basan" bir yapıda gözden geçirmeleri gerekmektedir. Bu bölgenin öğrenci profili, müzik teknolojisi eğitimine kaynaklık edecek olan kitapların büyük oranda İngilizce olduğu göz önüne alınarak, bu kitapları okuyup anlayabilecek oranda İngilizce okuryazarlığı seviyesinde midir? Verilecek olan derslerde (Akustik, Elektronik Bilgisi ve benzeri...) öğrenciler bu dersleri kavrayacak sayısal zekâ seviyesine ulaşabilmişler midir? Öğrenci seçiminde bu seviyenin varlığını değerlendiren ölçümler yapılmakta mıdır? Öğrencilerin mezuniyet sonrasında, müzik teknolojisi alanında ihtiyaç duyulan bir iş kolunda (TRT, özel TV veya radyolar, özel ses kayıt stüdyoları, devlet veya özel kuruluşların konser salonlarında ses sorumlusu gibi ve benzeri) bir yerde çalışma durumlarını izleyen bir yapı kurulmuş mudur? Yukarıda maddeler haline sıralanan kriterler (ön gereklilikler) müzik teknolojisi eğitimi vereceğini iddia eden bir birimin dikkate alması gereken değerlerdir. Özel Yetenek Sınavlarının yukarıdaki kriterler göz önüne alınarak yapılması sonucunda kontenjanın planlanan sayının altında olması, bölüm başkanı ve dekan gibi üst yöneticilerin kendi üstündeki yöneticiye bu durumu gerçekçi ve bilimsel bir üslup içerisinde anlatması sonucunda birim amirinin ikna olup olmamasına göre, eğitim farklı çıktılara ulaşacaktır. Kontenjanın doldurulması konusunda ısrarlı olunması durumunda, eğitim sürecinde dersi veren öğretim elemanları büyük sıkıntılar yaşayacaklar ve mezuniyet çıktı sonuçları yetersiz olacaktır. Aksi durumda ise, gerçekten müzik teknolojisi alanında eğitim almak isteyen öğrenciler ile bu profile sahip öğrencilere iştahlı bir şekilde ders veren öğretim elemanlarının eğitim sürecini karşılıklı olarak başarıyla tamamlamaları sonucunda mezuniyet çıktıları ve mezuniyet sonrası çıktıların daha başarılı sonuçlar doğuracağına tanık olunacaktır. Kaynakça Acim, Server. "Prof. Server Acim Ders Notları – 2013." 22 Ağustos 2013. Web. < http://dersnotlari.acim.name.tr/php/ana.php> Acim, Server. "Elektronik Müzik Tarihi – Ders Notu." Şubat 2012. Web. < http://acim.name.tr/yenidersnotlari/emt/EMT_Ders_Notu.pdf> "Jacobs School of Music – Recording Arts Department." music.indiana.edu. n.p., n.d. Web. <http://www.music.indiana.edu/departments/academic/recording-arts/index.shtml> "Mesleki İngilizce Kursları." Global Vizyon. n.p., 01 Mart 2012. Web. <http://www.globalvizyon.com/3023-mesleki-ingilizce-kurslari.aspx> "Müzik Teknolojisi Kursları." Google. Google Search. Web. <http://www.google.com/search?q=m%C3%BCzik+teknolojisi+kurslar%C4%B1#bav= on.2,or.r_qf.&ei=Xo4OUpqmHuiz4AS5rIGQDg&fp=270fdecd85578733&q=m%C3%BCzi k+teknolojisi+kurslar%C4%B1&sa=N&start=0> "Music Production and Engineering." Berklee. n.p., n.d. Web. <http://www.berklee.edu/mpe> "The Steinberg History." Steinberg. n.p., n.d. Web. <http://www.steinberg.net/en/company/aboutsteinberg.html> ATMM 2013 PROCEEDINGS 59 MİKROTONAL PERDELERİN MIDI İLE SESLENDİRİLMESİ: BİR MAX/MSP ÇALIŞMASI Abstract MIDI which has a very important place in relation to music with Computer today supports only tonal music and is available for use only with tampare curtain system. Therefore, for the Turkish authorities' microtonal compositions of many scenes MIDI system and microtonal pitch systems adapted for use with Digital Audio Workstation's is not possible. In this study, microtonal pitch voicing with MIDI and Digital Audio Workstation software to be used in Max / MSP-based microtonal programmed MIDI interface is discussed. MIDI interface, MIDI Channel Voice messages generated algorithm used in the programming, presentation, and how to use the basic issues such as the adequacy of microtonal voicing curtains constitute the content of our research. özet Bilgisayar ile müzik ilişkisi içinde çok önemli bir yere sahip olan MIDI günümüzde sadece tampare perde sistemini kullanan tonal müzik için kullanılabilir durumdadır. Dolayısıyla, Türk makam müziğinin de içinde bulunduğu pek çok mikrotonal perde sisteminin MIDI'ye uyarlanması ve mikrotonal perde sistemlerinin "Digital Audio Workstation"lar ile kullanılması mümkün değildir. Araştırmamızda mikrotonal perdelerin MIDI ile seslendirilmesi ve Digital Audio Workstation yazılımı içinde kullanılabilmesine yönelik Max/MSP tabanlı bir mikrotonal MIDI arayüzü programladık. MIDI arayüzünün programlanmasında kullanılan MIDI Channel Voice mesajlarıyla oluşturulan algoritma, MIDI arayüzünün sunumu, mikrotonal perdeleri seslendirmekteki yeterliliği ve nasıl kullanılacağı gibi temel konular araştırmamızın içeriğini oluşturur. Giriş MIDI, gerek donanım ve yazılım desteği, gerekse müziğin temel dinamiklerini karşılama becerisi ile özellikle bilgisayar destekli müzik üretim pratiği içinde büyük önem taşır. Ancak, Türk müziğinde kullanılan çeşitli makamsal yapıların MIDI içinde kullanımı ya da MIDI'nin ve MIDI network üzerinden adreslenen sanal enstrümanlarla seslendirme olanaklarının Türk makam müziği icraları içinde kullanımına yönelik literatürdeki bilimsel çalışmalar kısıtlıdır. Hatta Türk makam müziği dışında genel anlamda mikrotonal olarak ifade edilebilecek tuning yapılarının MIDI ile kullanılması, MIDI ile seslendirilmesi ile ilgili bilimsel çalışmalar da yok denecek kadar azdır. Bunun temel nedeni, değişime uygun olmayan MIDI tuning yapısıdır. Genel anlamda mikrotonal tuning sistemlerinin özelde Türk makam müziği tuning sisteminin MIDI ile kullanılabilmesinin amaçlandığı ve Erciyes Üniversitesi Bilimsel Araştırma Projeleri Birimi tarafından SBD-12-4097 kodlu proje ile desteklenen doktora tez konumun içeriğini Max/MSP programlama diliyle oluşturulan ve MIDI arayüzüyle kullanılan çok kanallı MIDI pitch bend mesajının yeniden programlanması oluşturur. Doktora tezimin özeti niteliğindeki bildiri metni içinde, programlanan MIDI arayüzünün yeterlilikleri ve sınırlılıkları, çok kanallı pitch bend mesajının algoritmik yapısı konularına yer verildi. MIDI ve Mikrotonalite 1983'de elektronik çalgılar arasında iletişimi sağlamak için ortak bir dil olarak tasarlanan MIDI, sayısal mimarisi gereği bilgisayar yazılımlarına kolaylıkla adapte olacak yapıdadır. Perde, gürlük, ritim gibi müziğin temel dinamikleri, stacato, legato, portamento gibi çalış teknikleri ve daha birçok müzikal nüansı çeşitli MIDI mesajları ile ifade etmek mümkündür. MIDI mesajlarının sayısal kodlar halinde derlenmesi, midi formatıyla kaydedilmesi ve küçük boyutundan dolayı paylaşılabilir olması özellikle bilgisayar yazılımları içinde MIDI ye olan ilgiliyi artırır. Nota yazım ve aranjman programlarının, MIDI mesajlarını, müzikal semboller şeklinde sunması ile müzisyen, aklındaki ezgiyi birçok MIDI çalgısıyla seslendirebilme, çok kanallı çalışabilme, istediği ritmik değişimi yaparak dinleyebilme fırsatı bulur. Cep telefonları ve bilgisayar oyunlarına da adapte edilen MIDI mimarisi kuşkusuz en büyük ilgiyi Cubase, Logic, Protools gibi "Digital Audio Workstation"ların (DAW) gelişmesiyle birlikte görür. "Synthesizer"ların, sanal çalgıların, sampler, looper gibi "plugin" lerin birlikte kullanılabildiği DAW yazılımları da MIDI mimarisi ve MIDI network ile şekillenir. DAW yazılımları içindeki "MIDI editör"de yazılan ezgi gerçeğine çok yakın sanal enstrümanlarla, çeşitli ses bankalarıyla ya da "synthesizer"ların sentetik tınılarıyla seslendirilebilir. Ancak, günümüz müzik üretim pratikleri içinde bu derecede önem taşıyan bir anlamda bilgisayar tabanlı müziğin olmazsa olmazı olan MIDI, sadece tampare perde sistemi üzerine kurulu tonal müzik için kullanılabilir durumdadır. Bir oktavı 12 eşit parçaya bölen tampare perde sisteminin yarım aralığından daha küçük aralık birimlerini kullanan ve 53 parçalı Türk makam müziği perde sisteminin de içinde bulunduğu mikrotonal perde sistemlerinin MIDI ile kullanılabilmesi ve General MIDI (GM) enstrümanları ile seslendirilmesi, "MIDI specification"ın güncellenmesi ya da MIDI mesajlarının yeniden programlanması ile mümkündür. MIDI protokolünün iletişim mimarisini belirleyen MIDI specification 1.0 sürümünü takip eden version 95.2 ve 96.1 sürümleriyle eklenen MIDI system exclusive mesajı ve MIDI tuning standart güncellemesi (MIDI Manufacturers Association, 1995) ile MIDI, mikrotonal seslendirme için uygun hale getirilmiş olsa da system exclusive mesajı MIDI network üzerinde tanınan bir kanal mesajı olmaması ve MIDI Manufacturers Association (MMA) tarafından belirlenen Device ID bilgisine ihtiyaç duymasından dolayı sadece özel amaçlar için üretilmiş "Keyboard Workstation"lar için kullanılabilir durumdadır. Bu nedenle MIDI system exclusive mesajının kullanıldığı "Workstation Keyboard"lardan alınacak veri bilgisi DAW yazılımları içinde herhangi bir anlam taşımaz ve MIDI Network üzerinde taşınabilen bir veri türü değildir. Benzer bir şekilde MIDI Tuning Standart halen DAW yazılımları içinde standart haline gelebilmiş kabul gören bir güncelleme olmamıştır. Dolayısıyla "MIDI Tuning Standart"ı kullanan bir takım müzik yazılımlarında (özellikle ATMM 2013 PROCEEDINGS 61 nota yazım programları) mikrotonal aralık birimleri seslendirilebilirken bu yazılımlardan alınacak çıktılar DAW yazılımları içinde kullanıldığında tanımlandırılamayan MIDI Tuning Standart verileri değerlendirme dışında tutulacak ve mikrotonal aralıklar DAW yazılımı içinde seslendirilemeyecektir. Literatüre bakıldığında mikrotonal perdelerin MIDI ile seslendirilmesine yönelik en ilgi çekici çalışma tuş üzerindeki basınç farklılıklarını algılayan Aftertouch mesajının kullanılmasıdır (Moussa). Keyboard tuşları üzerinde yapılan dikey basınç değişimiyle tuning değişimi yaratılmış olsa da her seferinde aynı basınç değişimini yaratmak keyboard kullanıcısı için bir takım çalış problemleri yaratacaktır. Bu nedenle özellikle uygulama alanında pratik bir çözüm değildir. MIDI perdelerindeki tuning değişimi ve MIDI network için en uygun kanal mesajı pitch bend mesajıdır. Gitar tekniğinde kullanılan bend hareketini (telin parmakla kaldırılması) taklit eder. Pitch bend mesajı mikrotonal perdelerin seslendirilmesi için kullanılsa da tuning değişimi için uygun değildir. Tek bir MIDI kanal içinde yapılacak tuning değişimi, aynı kanal içindeki diğer MIDI perdelerini de etkiler. Birden fazla mikrotonal perdenin seslendirilmesi için pitch bend tekerleğinin kullanılması ses de sürekli kayma etkisi (glisando) yaratacağından, bu durum tuning entenasyonu için uygun değildir. Kayma etkisinin önlenmesi için her mikrotonal perde için farklı bir MIDI kanal seçilmelidir. Ancak, çok kanallı MIDI pitch bend mesajının kullanılması sistem üzerinde aşırı veri yüküne sebep olur ve MIDI network üzerinde veri kayıplarıyla sonuçlanır (Keislar). Bunun temel nedeni, pitch bend tekerleği ile tetiklenerek oluşan pitch bend mesajının continuous control özellikli olmasıdır. Çünkü, pitch bend tekerleğiyle yapılacak her hareket sisteme sürekli olarak veri akışı sağlar. "MIDI network üzerinden yapılan data iletişimi (MIDI Bandwith) saniyede 31.250 'bit'tir" (Collins 47). Pitch bend tekerleğinin her bir hareketi start, "stop bit"leri, Most Significiant Bit (MSB), Least Significiant Bit (LSB) ve kanal numarasıyla birlikte sisteme yaklaşık 30 bitlik veri gönderir ve 30 "bit"lik veri 960 mikrosaniyede iletilir. Dolayısıyla farklı MIDI kanal numarasıyla birlikte pitch bend tekerleğinin sürekli kullanımı MIDI network üzerindeki veri yükünün artmasına sebep olur ve bu durum sistemi aşırı zorlar, gecikmelere ve iletişim kopmalarına sebep olur. Max/MSP'den alınan örnekte pitch bend tekerleğinin hareketiyle oluşan continuous control özellikli veri yapısı (Şekil 1) ve MIDI arayüzünün kullanımı ile oluşturulan switch control özellikli veri yapısı (Şekil 2) karşılaştırıldığında veri miktarı arasındaki fark rahatlıkla görülür. Şekil 2 Pitch Bend Switch Control Şekil 1 Pitch Bend Continuous Control Çok kanallı pitch bend mesajının mikrotonal perdelerin seslendirilmesinde kullanılabilmesi için kontrol yapısının continuous özelliği çıkartılarak switch özelliği kazandırılmalıdır. Araştırmamızın temel algoritması bu yöntem üzerine kuruludur: Bu sayede pitch bend tekerleği ile kullanıldığında MIDI network üzerinde yük oluşturan continuous control özelliği yerine hazırlanan MIDI arayüzü ile nokta atışı diyebileceğimiz switch özelliği kazandırılmış olur. Bunun için 1983'de MIDI specification 1.0, amacımız olan çok kanallı MIDI "pitch bend"e switch özelliği kazandırılarak yeniden programlandı. MIDI Arayüzü 1983'de bir protokol olarak kabul edilmesinden bu yana çok küçük güncelemeler dışında hiçbir değişiklik yapılmamış olan MIDI, sayısal mimarisi gereği farklı amaçlar için programlanabilmektedir. Biz araştırmamızda özellikle ses ve MIDI programlama konusunda uzmanlaşmış, gelişmiş arayüz objelerine sahip, grafiksel tabanlı Max/MSP programlama dilini kullandık. MIDI keyboard ile sistem arasında çalışabilen bir arayüz programladık. Bu arayüz "MIDI keyboard"tan –ya da herhangi bir MIDI enstrümandangelen tampare perde sistemine ait verileri, Türk makam müziğinde kullanılan mikrotonal perde verilerine dönüştürebilir, mikrotonal sent değerlerini General MIDI enstrümanlarıyla seslendirebilir ve midi formatında çıktı verebilir özelliktedir. ATMM 2013 PROCEEDINGS 63 Şekil 3 Mikrotonal MIDI Arayüzü MIDI arayüzünün veri tabanını hüseyni, neva, uşşak, rast, hicaz, humayun, uzzal, karcığar, suzinak ve kürdi makamlarının çeşitli derecelerinde kullanılan mikrotonal perdelerin sent değerleri oluşturur. Mikrotonal sent değerlerinin belirlenmesinde Türk makam müziği kuramında (Arel-Ezgi-Uzdilek Kuramı) belirlenen sent değerlerinden ve kanun ve tanbur icracılarının uygulama sent değerlerinden yararlanıldı. İcracılardan elde edilen uygulama sent değerleri Melodyne Single Track yazılımıyla yapılan analiz sonuçlarından elde edildi. Analiz edilen icracıların isimleri ve karşılık gelen sent değerleri hazırladığımız MIDI arayüz üzerinde kullanıcıya seçenek olarak sunuldu. Bu sayede arayüz kullanıcısı, belirlediği makam için kullanacağı mikrotonal perde için alternatif sent değeri ile seslendirme imkânı bulur. Bununla birlikte mikrotonal perdenin sent değeri kullanıcı tarafından da değiştirilebilir özelliktedir. Kuram ve uygulama sent değerleri dışında kullanıcı kendi belirleyeceği sent değerini arayüz penceresinde atayabilir. Seslendirme sürecinde GM sound fontu içindeki 113 farklı enstrüman, sıra numarası ve ismiyle birlikte belirlenebilir. 113 enstrüman, Piano, Organ, Guitar, Bass, String, Ensemble, Brass, Reed, Pipe, Synth Leed, Synth Pad, Synth Effect, Ethnic gruplarından oluşur. Bu sayede belirlenen makamlar yukarıdaki enstrümanlarla seslendirilebilir. MIDI arayüzünde transpoze yapmak mümkündür: 12 kromatik adımdan herhangi biri ile transpoze yapılarak seslendirme yapılabildiği gibi istenildiğinde mikrotonal perdeler anlık değişimlerle tampare perde sistemine geri dönebilir. Bu sayede makamın seyri içinde mikrotonal perdelerden natürel perdelere hızlı bir biçimde geçiş yapılır. MIDI arayüzünde pitch bend tekerleğinin kullanımı mümkündür. Türk makam müziğinde en küçük aralık 22.64 sentlik koma birimlerinden oluştuğundan pitch bend tekerleğinin çözünürlüğü koma değerlerine göre değiştirildi. Bu sayede pitch bend tekerleğinin alt ve üst sınırı 1 koma, 2 koma olarak sınırlandırılarak Türk makam müziği seyrinde kullanılabilecek geçici mikrotonal perdelerin seslendirilmesi için daha uygun hale getirildi. MIDI arayüzünde kullanıcıya geri bildirimde bulunan objeler bulunur. Bu sayede kullanıcı MIDI keyboard üzerinde kullandığı tuşun sent değerini, 7 bitlik pitch bend değerini ve velocity değerini gerçek zamanlı olarak kontrol eder. Aynı zamanda transport bölümüyle bütün seslendirme süreci çok kanallı pitch bend bilgisiyle birlikte midi ya da text formatında kaydedilebilir, dosyadan çağırılabilir ve tekrar seslendirebilir. Arayüzden alınacak midi çıktısı DAW yazılımı içine çağrıldığında kullanılan mikrotonal perde sayısı kadar MIDI kanalı açılarak DAW yazılımı içindeki sanal enstrümanlarla seslendirilebilir. Hüseyni (Çeçen kızı), uşşak (Telgrafın Telleri), rast (Nakış Beste) ve karcığar (Bu Kış Hanım İstanbul'a Taşında) makamlarından seçilen eserlerin MIDI arayüzü kullanılarak DAW (Logic Pro 9. 1. 2) yazılımıyla seslendirilmesinde MIDI network üzerinde aşırı yük oluşumu ve sistem zorlanmasıyla karşılaşılmadı Sonuç Mikrotonal perdelerin MIDI ile seslendirilmesini sağlayan ve hem Windows hem de MacosX işletim sisteminde standalone çalışan bir MIDI arayüzü programladık. Makamın yapısına göre en fazla dört farklı MIDI kanal numarası kullanılsa da mikrotonal perde değerlerinin pitch bend mesajıyla seslendirilmesi, sistemde kopmaya sebep olmaz. Bu noktasıyla "pitch bend"in switch özellikli kullanımı mikrotonal perdelerin MIDI ile seslendirilmesinin mümkün olduğunu gösterir. Harici MIDI enstrüman ve denetleyicileri ile kullanıldığında mikrotonal perdeler gerçek zamanlı olarak GM sound fontunun 113 çalgısıyla seslendirilmekle birlikte, midi dosya formatıyla çıktı alınabilir. MIDI arayüz üzerinde değerlendirilen veriler sanal MIDI network üzerinden DAW yazılımlarına gönderilebilmekle birlikte mikrotonal perdeler yalnızca DAW yazılımı içindeki pitch bend desteği olan "sound"larla seslendirildi. MIDI arayüz, mikrotonal perde verileriyle derlenmiş midi dosya çıktısı verebildiğinden mikrotonal perdelerin DAW yazılımları ve nota yazım programları ile kullanımı uygundur. Araştırmamız, gelecekte mikrotonal perdelerin MIDI ile seslendirilmesi ve DAW yazılımları içinde kullanılmasına yönelik benzer çalışmalar için çok kanallı pitch bend mesajının kullanılabilir olduğunu kanıtlar. Kaynakça Collins, Nick. Introduction to Computer Music. United Kingdom: John Wiley & Sons Ltd, 2010. Print. Keislar, Douglas. "History and Principles of Microtonal Keyboards." Computer Music Journal 11.1 (1987): 18-28. Print. MIDI Manufacturers Association. MIDI 1.0 Detailed Specification. New York: Document Version 4.2, 1995. Print. Moussa, Ahmet Shawky. "A Dynamic Microtunable MIDI System: Problems and Solutions." Proceedings of the 5th Biannual World 13.1 (2002): 339-344. Print. ATMM 2013 PROCEEDINGS 65 REKLAM İLETİŞİMİNDE KULLANILAN MüzİK TASARIMININ HEDEF KİTLE üzERİNDEKİ ROLü özet Toplumsal yaşamın bir parçası olarak incelenen ve değerlendirilen iletişim, bireylerin yaşam süreçlerinde ihtiyaç duydukları bir kavramdır. İletişime eğitimden sağlığa, aile yaşantısından tüketime, haber ve bilgi almadan ticari süreçlere kadar hayatın her alanında gereksinim hissedilmektedir. Ayrıca bireyin gelişmesinde ve değişmesinde de iletişim önemli rol oynamaktadır. Bu bağlamda gelişen teknolojiyle beraber evrende bulunan tüm ses, söz, sembol ve işaretler iletişim bir parçası olarak karşımıza çıkmaktadır. Bu çalışma kapsamında iletişimin ticari boyutunda önemli bir yeri olan reklam iletişiminde kullanılan görsellik ve müzik incelenmiştir. Farklı araştırmalarla ortaya konan reklam müziklerinin etkinliği konusunda yapılan bu betimleyici çalışma, sunulan literatür taraması ve reklamın müzikle olan ilişkisinin, bu ilişkide önemli yeri olan reklam cıngıllarının açıklanması üzerine kurgulanmıştır. Giriş Evrende mevcut olan cisim, insan, hayvan ve tüm varlıkların kendilerine has bir sese, bir nidaya sahip oldukları şüphesizdir. İnsanlar başta olmak üzere yaratılmış tüm canlıların temel gereksinimlerinden biri olan iletişim kurmalarını sağlayacak yol ve yöntemlerin içerişinde ilk sırada ses/konuşma gelmektedir. Konuşma yeteneği olmayan insanlar dahi iletişim kurmak için bir yola ve yönteme başvurmaktadır ve adına da beden dili denmektedir. "İnsanlar konuşa konuşa, hayvanlar koklaşa koklaşa anlaşır" atasözü de durumun gerçekliğini yansıtan bir özet niteliği taşımaktadır. Toplumsallaşma sürecinde vazgeçilmez olan iletişim kurma ihtiyacı insanın var olmasıyla beraber gelişen bir süreç olarak karşımıza çıkmaktadır. Temel ihtiyaçların giderilmesinden sosyal hayatın düzenlenmesine kadar birçok anlamda iletişime duyulan ihtiyaç tartışılmaz düzeydedir. Bilimden sanata spora kadar birçok toplumsal alanın temelinde bulunan, doğumdan ölüme kadar olan süreyi kapsayan ve evde, okulda, işyerinde, her türlü sosyal ortamda gerekliliği hissedilen iletişim, kişiler arası ve kitlesel olmak üzere birçok biçimde ortaya çıkmaktadır. Ayrıca sözsüz, yazılı ve sözlü iletişim biçimlerinde uygulamada karşılığı olan iletişim sürecinin sözlü biçimi yani konuşmaya ve sese dayalı olan biçimi bu çalışmanın temel odağını oluşturmaktadır. Sözlü iletişim biçiminde insanlar sesi yalnızca konuşma olarak değil tiyatral ya da müzikal gibi farklı biçimlerde bir ahenk ve farklı bir düzen içerisinde de kullanmaktadır. Bu düzen ve ahenk denildiğinde akla tüm sanat dallarının temel yapıtaşı olan müzik gelmektedir. Müzik başta olmak üzere birçok sanat dalında bulunan kendilerine has figürler iletişim sürecinin öğelerini oluşturmaktadır. Müzik, ses, görsellik gibi birçok figürün bir arada kullanıldığı kitlesel iletişim süreçlerinden biri olan reklam, bu anlamda incelenmeye değer bir platform olarak seçilmiştir. Temelde etkilemek, fikir, tavır ve davranış değişikliğine yol açmak, ikna etmek ve algıyı yönetmek gibi birçok amacı olan reklam iletişiminde kullanılan ses, müzik ve görsel figürlerin tamamı sürecin başarısını etkilemektedir. Bu bağlamda çalışma kapsamında, iletişim, sözlü iletişim, sanat ve iletişim, reklam ve reklamda kullanılan müzik ve ses figürlerinin önemi gibi kavramsal bazı başlıklar tanımlanarak konuya açıklık getirilmeye çalışılmıştır. Tanımlar İletişim kavramı İngilizcedeki communication kelimesinin Türkçedeki karşılığı olarak kullanılmaktadır. Kavramın kökeni olan commun incelendiğinde; odaklaşmak, ortak kılmak kökünden türediği görülmektedir. Kavramın genel tanımı yapılacak olursa "insanlar arasındaki her türlü bilgi, duygu ve düşünce alışverişi, bilginin ortaklaşa kullanılmasıdır" (Işık 31). Bireyin yaşamında önemli bir role sahip olan iletişim bilginin aktarılması ve bilgiye ulaşma noktasında gösterdiği etkinlik sayesinde toplumsallaşmanın önemli bir parçasıdır. İletişim; insanoğlunun yaşama dair perspektifinin genişlemesine, nüfusun artmasına, teknolojinin gelişmesine, üretimin artmasına, toplumların ve örgütlerin daha karmaşık bir boyuta kavuşmasına paralel olarak hiç bitmeyen bir evrim süreci yaşamaktadır (Yılmaz ve Arslan 1). Fiske adlı düşünür de iletişimi bir insan etkinliği olarak değerlendirmektedir. Bu anlamda iletişim, yüz ifadelerinden edebi eleştiriye kadar birçok biçimleri kapsamaktadır. Bu nedenle Fiske, iletişim süreçlerinin tamamında disiplinler arası bir yaklaşımı gerekli görmektedir. Her türlü iletişim göstergeler ve kodlar içermekte; göstergeleri aktarma ve alma da toplumsal ilişkiler pratiğinde belirlenmektedir. Fiske, iletişimin kültürün merkezinde yer aldığını bu nedenle iletişim sürecini anlamak için yapılan araştırmaların kültür araştırmalarını da içermesi gerektiğini savunmaktadır (Yılmaz 5). Bu bağlamda, iki birim arasındaki birbirine ilişkin mesaj alışverişi olarak tanımlanabilen iletişimin üç temel özelliğinden söz edilebilir (Işık 32): İlk olarak; iletişimin ortaya çıkabilmesi, başka bir ifadeyle iletişimin varlığından söz edilebilmesi için en az iki birimin mevcut olması gerekmektedir. Buna göre; kaynak, kod, kanal (araç), mesaj, hedef kitle ve geri bildirimden oluşan iletişim sürecinin temel unsurlarından ikisinin başka bir ifadeyle, kaynak ve alıcı olarak ifade edilen hedef kitlenin bulunması zorunludur. İkinci olarak ise, iletişime taraf olan birimler arasında bir ortaklık kurulması şartı bulunmaktadır. Söz konusu ortaklığın gerçekleşebilmesi için ise mesaj alışverişinin gerçekleşmesi gerekmektedir. Üçüncü ve son olarak ise, bu mesaj alışverişinin de birbiriyle ilişkili olması gerekmektedir. İletişim; kaynak, kod, kanal, mesaj, hedef kitle ve feedback (geri bildirim) olarak belirtilebilecek bir süreçten oluşmaktadır (Çakır 18-20). Kaynak: Kaynak, mesajı oluşturan ve içeriğini belirleyen birimdir. Mesajı oluşturan kişi, küme, örgüt ya da aygıt birer kaynaktır. Kaynak mesaj üretimine katkı sağlayan kişi ya da grubu kapsayabilir. Kaynağın amacı, ilettiği mesajın alıcı, başka bir ifadeyle hedef kitle tarafından anlaşılması ve etkilenmesidir. Kod: Kod, mesajın işaret haline dönüşmesinde kullanılan simgeler ve bunlar arasındaki ilişkileri düzenleyen kurallar bütünüdür. Tanımdan da anlaşıldığı gibi kaynak tarafından gönderilen mesajın kodlanması demek; mesajın kaynak tarafından hedef kitleye gönderilmeden önce, mesajın yine kaynak tarafından biçimlendirilmesidir. Kodlama ile bir anlama dönüşen mesaja, kaynak ve alıcının aynı anlamı vermesiyle, iletişimdeki ideal durum sağlanmış olacaktır. Kanal: Kanal, kaynak tarafından oluşturularak kodlanan iletilerin hedef kitleye iletilmesinde kullanılan bir araçtır. ATMM 2013 PROCEEDINGS 67 İster yüz yüze iletişimde, isterse kitle iletişiminde iletileri kaynaktan alıcıya ulaştırmak için mutlaka bir kanala ihtiyaç duyulmaktadır. Yüz yüze iletişimde kişinin bedeni, yüzü, giysileri ve sesi kanal olarak nitelendirilirken; kitle iletişiminde ise gazete, radyo ve televizyonlar birer kanaldır. Mesaj (İleti): Gönderici ve alıcı olmak üzere her iki taraf açısından anlam içeren işaret ve sembollerdir. Sembol ve işaretler bütünü olan mesaj kaynak tarafından kodlanarak hedef kitleye, başka bir ifadeyle alıcıya gönderilmektedir. Kaynak tarafından hedef kitleye gönderilen mesajın hedef kitle tarafından kabul görmesi için, mesajın hedef kitlede dikkat çekip, ilgi ve istek uyandırmasının yanında, kaynak ve hedef kitlenin bu mesaja aynı anlamı vermesi gerekmektedir. Alıcı (Hedef Kitle): İletişim sürecinde hedef kitle; "kaynağın iletisini ulaştırmak istediği kişi ya da kitledir". Babasının öğütlerini dinleyen çocuk, kişi konumundaki bir alıcıdır. Öğretmenini dinleyen öğrenci grubu, küme konumundaki alıcıdır. Medya kuruluşu için alıcı, izler kitledir. Reklamcı için ise hedef alıcı tüketicilerdir. Feedback (Geri bildirim): Feedback, kaynağın gönderdiği mesaja karşılık hedef kitlenin verdiği cevap mesajı olarak tanımlanabilir. Dolayısıyla geri besleme ile kaynak, gönderdiği mesajın alıcı tarafından kabul derecesi hakkında bilgi edinirken, bu bilgilenme doğrultusunda sonraki mesajlarını alıcının istekleri doğrultusunda şekillendirecektir. Geri besleme bir anlamda etkin bir iletişimin gerçekleşip gerçekleşmediğinin test edilmesidir. Yapılan tanımların içerisinden, iletişim en yalın tanımıyla, "duygu, düşünce veya bilgilerin akla gelebilecek her türlü yolla başkalarına aktarılmasıdır" (Baltaş A. ve Baltaş Z. 20). İletişime ilişkin yapılan tanımlarda iki yaklaşım görülmektedir. Birincisi, "GöndericiMesaj-Kanal-Alıcı çizgisel modeliyle karakterize edilen" bir yaklaşımdır. Bu tür modeller bir fikrin, duygunun, tutumun vb. birinden bir başkasına nasıl aktarıldığını ortaya koymaktadır. Diğer bir yaklaşım ise; karşılıklılık, ortak algılama ve paylaşma gibi unsurların altını çizmektedir (Mutlu 169). İletişim süreci, iletilmek istenen iletiyi gönderen ile iletiyi alan arasında düz çizgi gibi bir aktarım olarak görülse de, iletişim süreci; ileten, ileti, iletiyi alan ve iletinin aktarıldığı kanaldan kaynaklanan birçok nedenden dolayı karmaşık bir süreçtir. Bu sürecin karmaşıklığı iletişimin özellikleri ile açıklanabilir. İletişimin temel özellikleri şunlardır (Çakır 20-21): - Bilinçli ya da bilinçsiz olarak gerçekleşebilmekte, - Kullanılan sembollere, alıcı ve kaynak farklı anlamlar verebilmekte, - Sözcüklerle ve beden diliyle gerçekleşmekte, - Sözel olmayan iletişim duyu organlarıyla algılanabilmekte, - Meydana geldiği ortamdan etkilenmektedir. - Geri-bildirime gereksinim duyan çift yönlü bir eylemdir. İletişim sürecinde bireyler tarafından algılanabilen her şey bir iletişim sürecini başlatmaktadır. Aynı uyarıyı algılayan iki insanın birbirleri ile kuracakları toplumsal ilişki, uyarı aracılığı ile olmaktadır. Bu ilişki, bir toplumsal etkileşim, büyük ölçüde bir iletişim süreci olarak işlemeye başlamaktadır. Bu etkileşim süreçlerinde, insan ile diğer canlı türleri arasında farklılaşmanın en önemli aracı dildir. Dil insanlar arasında oluşan iletişim biçimlerinin gelişmesine ve insanlık tecrübelerini kuşaktan kuşağa aktarmada hayati bir işleve sahiptir. Dil sayesinde hem aynı kuşaktan insanlar hem de kuşaklar arasında ortak bir dünya inşa edilmektedir. Dil aracılığıyla insan yaşamı birliktelik, süreklilik, ortaklık kazanmakta ve bu nedenlerle de, iletişim (dil) toplumun oluşumunun en etkin aracı olmaktadır (Yılmaz 10). Sanat ve Sözlü İletişim Her toplumda kendine özgü bir biçimde mevcudiyetini sağlayan kültürel formlar ve değerler de müzik başta olmak üzere sanat anlayışının oluşmasında etkilidir. Özellikle Türk Halk Müziği ve halk ozanlarından yola çıkarak birçok toplumda durumun benzer olduğu sonucuna ulaşılmaktadır. Kendine özgü doğası, anlatım biçimi, dili ve yapısal özellikleri ile müzik, insan ruhunu anlatma kabiliyeti ile toplumsal farkındalığın oluşmasına yardımcı olmaktadır. Biyolojik yapısı itibariyle insan ruhsal olarak etkilendiği müzik sayesinde kültürel öğeleri sembolik olarak betimleyerek bir grubun ya da toplumun yaşam biçimi hakkında bilgi sahibi olabilmektedir. Geçmişin ezgileri ve figürleri ile bugüne ışık tutan ve geçmiş toplumların sosyal, ekonomik, toplumsal anlamda yaşanmışlıklarını ifade eden geleneksel müzik ve sanat önemli bir tarihi hazine niteliği taşımaktadır. Bu sebeple, geçmiş ve gelecek arasında köprüler kurarak toplumsallaşma sürecinde bireylere yol gösterme misyonunu da taşımaktadır. Toplumu oluşturan insanlar ister toprakla uğraşsın isterse üretim aktivitelerine katılsın fark etmeksizin müziği hayatlarında hep var etmektedir. Bunun yanı sıra dini anlamda yaşanan farklılıklarda yalnızca müzik tarzlarını farklılaştırmaktadır. Örneğin Müslümanlar için önemi olan ezan ezgileri tasavvuf müziğinin, Hıristiyanlar için önemi olan kiliselerdeki ezgiler de batı müziğinin gelişmesine fayda sağlamıştır. Buna benzer kültürel ve dinsel ayrımlar müziği insan hayatına hep geliştirerek var etmiştir. Hedeflediği bireyler üzerinde bir estetik ve hoşluk duygusu oluşturmakla birlikte, aynı zamanda toplum, çevre, doğa gibi birçok konuda düşündürmesi de gereken müzik, diğer tüm sanat dallarında görüldüğü gibi öncelikle güzellik duygusunu oluşturmayı ve bu duygunun oluşmasını arzuladığı insan ruhuna uyarıcı bir etki yapabilmeyi amaçlamaktadır. Burada ifade edildiği gibi yalnızca hoş ve sempatik duygular oluşturmanın dışında kimi zaman dinleyen insan da umutsuzluk, karamsarlık, mutsuzluk ve depresif durumlar gibi bazı olumsuzluklar da ortaya çıkarabilmektedir. İnsanlık tarihi boyunca çeşitli psikolojik düzeylerin ve toplumsal yönlendirmelerin oluşmasında kullanılan müzik aynı zamanda heyecanı yatıştırma, sakinleştirme gibi özellikleri sayesinde de ruhsal ve akılsal rahatsızlıkların tedavisi içinde kullanılmıştır. Ülkemizin Sivas ili Divriği ilçesinde bulunan ve UNESCO'nun Dünya kültür mirası listesine alınan Ulu Camii bu uygulamaya güzel bir örnek olarak karşımıza çıkmaktadır (Özaygün, "Divriği Ulu Camii ve Darüşşifası"). Tüm sanat dallarının temel yapıtaşı olan müzik kimi zaman ilham kaynağı kimi zaman da verilmek istenen mesajın ta kendisi olarak iletişim sürecinde kendini göstermektedir. Bir aşığın aşkını ifade edişinden, bir sevgilinin isyanına, katledilen doğanın sessiz çığlığından, bir çocuğa duyulan sevgiye kadar insana dair tüm duygu ve düşüncelerin bir ifade biçimidir müzik. Bu bağlamda önemli bir iletişim sürecinin oluşmasına aracılık ederek mesajların oluşturulması ve yayılmasından beklenen ve istenen amaca ulaşmaya kadar birçok aşamada etkin bir rol oynamaktadır. Bu aşamalarda oynadığı etkin rolü görmek açısından iletişimin kitlesel etki uyandırmada önemli bir biçimi olan reklam iletişimi üzerinde konu değerlendirilmiştir. Reklam Sanatı Reklamcılar, etkili bir iletişim ve reklam ortamı yaratabilmek için tüketiciler üzerine ikna edici iletişim uygulamaları kullanmaktadır. Bunlardan birisi de reklamlarda kullanılan kültürel imgeler diye geçen resim, müzik gibi sanat dallarıyla desteklenen figürlerdir. Reklam bir işin, bir malın veya bir hizmetin para karşılığında, kitle iletişim araçlarında, tarif edilerek geniş halk kitlelerine duyurulmasıdır. Sherry'e göre reklamcılık, ATMM 2013 PROCEEDINGS 69 dünyayı temsil eden kültürel bir dokümandır (Kocabaş ve Elden 14). Reklamın kendine özgü dilinde tekrarlandığı imgesel mesajlar, alışkanlık şeklinde kültürel yapıya geçmektedir, bunu yanında reklam mevcut kültürle tamamen örtüşmeyen mesajların yenilik, şov, şok farklılık gibi süreçler içinde kullanılarak bir tür kültürel değişimi teşvik etmektedir. Reklam bir iletişim olayıdır demek mümkündür. Kitle iletişim araçları yoluyla yapılan reklamlardaki mesajın ulaştığı alanlarda hedef kitleyi her yönüyle tanıma, ortak yönlerini belirleme bağıntı ve izafet çerçevelerini bulmak neredeyse imkânsızdır. O nedenle belirli yaş, cinsiyet, toplumsal sınıf ve tabakalardaki bireylerin reklamlara maruz kalan hedef kitle içi ve dışı insanların söz konusu reklamlara ne şekilde, nasıl tepki vereceği kestirilememektedir (Topçuoğlu 200). Bu sebeple reklamın kültürel değişmeye önemli etkileri olmaktadır. Toplumsal değişimler sonucunda oluşan kültürel değerler¬deki değişimin reklamlara yansıması, "reklamın kültürel bir ol¬gu, reklam metninin de kültürel bir metin" olma tezini güçlen¬dirmektedir (Doğtaş 89). Çeşitli sanat dalları gibi reklam dünyası da kendi düzenini ve değerlerini oluşturmuştur. Bu nedenle reklam dünyasına giren her şey değişime uğramaktadır. Yıldızlar, nesneler, hayvanlar vb. hepsi simgesel, temsili varlıklara ve olgulara dönüşmektedirler. Bu dönüşüm esnasında reklam içindeki im¬gelerin her biri eşit anlam ve öneme sahip değildir. İmgeler çok şey anlatmakta ve herkes imgeyi kendi anla¬yabildiği şekilde yorumlamaktadır. Bu nedenle de reklamcıların imgeleri çok dikkatli kullanması gerekmektedir (Şimşek 74). İmgeler yoluyla reklamcı, tüketiciye hayran kaldığı bir gerçeklik sunarak söz konusu ürünlerin satın alındığında rüyalarını gerçekleştireceğini telkin etmektedir. Ortaçağ dönemindeki dinsel yaşamda çok önemli bir yere sahip ikonalar ile reklam imgeleri arasındaki tuhaf benzerliğe dikkat çeken Rutherford, bu benzerliği şu cümlelerle açıklamaktadır: "İkona gibi, bir reklam da kültürel gücün bir aracıdır; bizim konumuzda resmi bir kilisenin değil ticaretin aracıdır. İkonaların katedrallerin duvarlarını süslemeleri gibi, reklamlar çağdaş yaşamın en önemli kurumların birinde, televizyonda, ayrıcalıklı bir yere sahiptir. Reklamlar yüksek derecede stilize ve kozmopolittir ve bu nedenle dil ve sınıf sınırlarını rahatlıkla geçmektedir. Aynı zamanda, ikonalarda olduğu gibi reklamların da bir ulusal kültürün kendine özgü tarzlarını ya da mitoslarını nasıl anlattığını göstermek mümkündür. İkonalar, hepsi de tinsel şeyleri yüceltmeyi amaçlayan, azizlerin resimlerini, tapınma eylemlerini, şehitlerin hikâyelerini sergiler; reklamlar ise hepsi maddesel olan şeyleri yüceltmeyi amaçlayan, ünlü kişilerin görüntülerini, tüketim eylemlerini, doğum öykülerini sergilemektedir" ( Rutherford 17-18). Reklamın bir başka işlevi, hiç yoktan ihtiyaçlar ortaya çıkara¬rak bireyleri tüketime yöneltmeleridir. İhtiyaç olmayan ürün ve hizmetleri zorunlu ihtiyaçlarmış gibi tüketicide sahte ihtiyaçlar uyandırarak tüketimin hacmini artırmaktadırlar (Orçan 289). İyi reklam, keskin bir ifa¬deye sahip oluşuyla diğerlerinden ayrılmaktadır. Dili olduğu kadar kültürü de anlatmalıdır (Sutherland ve Sylvester 65). İnsanların geçmişten yaşadıkları ve gördükleri şeylerden elde ettikleri birikimlerle oluşan imgelerin reklamlarda kullanılması, kişiye aidiyet duygusu hissettirecektir ve hem satın alma davranışı hem de gündelik yaşantısında değişiklikler ortaya çıkacaktır. Çünkü, reklam gündelik yaşantımızı şekillendiren ve yansıtan en önemli kültürel faktörlerden biridir. Bireyin yaşamının her anında karşısına çıkan reklamlar, adeta kaçınılmaz olmuştur. Bireyler, gazete okumasalar veya televizyon izlemeseler bile, kentsel ortama egemen kılınan imgelerden kaçınamazlar. Bütün medyayı kullanım alanına dönüştüren ve hiçbir sınırı bulunmayan reklamcılık, açıkça bağımsız ve özgür bir varoluşa ve ciddi bir etkileme gücüne sahip geniş bir üstyapıyı oluşturmaktadır. Kullanım alanı itibariyle bir üstyapı halinde olan medya araçları kullanılarak yapılan tüm reklam çalışmaları da şüphesiz ki bireyleri tüketmeye yönlendirme amacı güdülmektedir. Yalnızca ihtiyacı karşılamak değil yeni ihtiyaçlar yaratmak amacı olan günümüz üretim sürecinin önemli bir dayanağı olan reklam, popüler tüketim mekanizmasının da belkemiğidir. Reklamda Müzik ve Cıngıl Her bilim dalında ve sanat dalında olduğu gibi müziğin reklam süreçlerinde de bir takım işlevleri vardır. Bu işlevler bireysel, toplumsal, kültürel, ekonomik ve eğitimsel olmak üzere farklı başlıklar altında kendini göstermektedir. Şüphesiz ki bireyleri ve toplumları biçimlendirme, değiştirme, geliştirmede ve bireylerin yaşam standartları ve tüketim biçimleri gibi konularda sergiledikleri yaklaşımları düzenlemede eğitim en etkili süreçlerden biridir; insanın kültürel bütünlüğünü sağlamada müziğin eğitim aracı olarak kullanılması ve toplumsal işlerlik kazanması da yaygın bir uygulamadır. Müziğin toplumsal işlevi, toplum üzerindeki etkinliği demektir. Bu işlevler "birey ile birey, birey ile toplum, toplumsal kesimler ve toplumlar arasında anlaşma, dayanışma, kaynaşma, paylaşma, işbirliği yapma, birleşme ve bütünleşme sağlanmasında müziğin oynadığı rolleri kapsamaktadır" (Uçan 29). Bir müzik yapıtını oluşturan ses, armoni, melodi ve ritim gibi unsurların bir araya getirilmesinin ürün ve reklam üzerindeki etkisi önemli derecededir. Bu etkileri; (1) bilişsel ve davranışsal süreçte tüketicinin sürece katılımı (2) bu unsurlarla oluşturulan müziğin reklam fikrine nasıl uyum sağladığı (3) müzik unsurlarının organizasyonunun reklamı nasıl etkilediği şeklinde ifade etmek mümkündür. Özellikle reklamın tüketiciye ulaşma noktasında oluşturduğu ortamlarda kullanımına dair, atmosfer yaratma ve satışı rahatlatma gibi fonksiyonlarıyla ele alan pek çok araştırma bulunmaktadır. Reklamcılıkta müzik kullanımı bunun yanında, bir duygusal mesaj kullanımı olarak, özel mesaj seçimlerinden biri olarak kabul edilmektedir. Bu çerçevede, pek çok araştırmada reklam mesajlarının hatırlanılırlık, bilinirlik ve dikkat çekiciliğe olan etkisi anlamında müzik önemli görülmektedir (Batı 4). Tüm iletişim süreçlerinde olduğu gibi reklam iletişimiyle iletilen mesajlara birey dikkatini ne kadar çok verirse o kadar farkındalık oluşmakta ve daha sonra hatırlanması kolaylaşmaktadır. Bu bağlamda reklam iletişiminde yapılan kurgular genellikle gerçek hayattan kesitler yansıtacak şekilde ve insanların duygusal durumlarını konu alacak şekilde kurgulanmaktadır. Bu yapılan kurgular bilindik bir başrol oyuncusu ya da kültürel bir sembol ya da belirli bir aksesuar ile desteklenip gösterilerek bireyi izleyici olmaktan ziyade hikâyenin bir kahramanı olmaya yönlendirerek farklı tecrübeler sağlamaktadır. Böylece mesajın hatırlanma düzeyi ve bilinç düzeyi artırılmış olmaktadır. Reklam iletişiminin bu özelliği esasen tüm iletişim biçimlerinin de ortak özelliğidir. Bireylerin zihinlerindeki anılar canlandırılarak eskiye yönelik bir çağrışımla mesajın hatırlanma ve kabul düzeyi de yükseltilmektedir. Bireylere tanıdık ve bildik gelen tüm yeni bilgiler eskisiyle özdeşleşerek bir bağ kurulmasına ve dolayısıyla da kabul görülmesine olanak sağlamaktadır. Reklam iletişiminde bahsedilen bu zihinsel aktivitelerin gerçekleşmesi, hatırlama ve kabul görmenin sağlanması açısından müzik ve melodi kullanımı da son derece yaygındır. Bireyler tarafından sevilen ve arzu edilen bir melodinin reklama dâhil edilmesi yalnızca bireylerin dikkatini çekmekle kalmayarak aynı zamanda da psikolojik ve duygusal durumuna da tesirde bulunacaktır. Reklama konu olan markaya has oluşturulmuş bir melodi ya da bireylere eskiyi hatırlatacak mevcut bir melodi kullanımı zihinsel çağrışımı ATMM 2013 PROCEEDINGS 71 da beraberinde getirmektedir. Reklam cıngılı adıyla da üretilen ya da oluşturulan bu melodiler söz konusu markanın bireyler tarafından hatırlanmasını sağlayacak önemli bir parametre olarak karşımıza çıkmaktadır. Reklama konu olan söz konusu markaya dair iyi ve doğru planlanmış stratejik bir cıngıl sayesinde dünya çapında bir bilinirlik ve farklılık yaratmak mümkündür. Dünyada müzik ve cıngıl kullanımı yalnızca eğlenmek için değil kimi zaman toplumsal bir mesaj vermek için kimi zaman da ruhu beslemek için olabilmektedir. Birçok mesajı kolaylıkla insanlara ulaştırmada kullanılan bir araç olan müziğin reklam iletişiminde mesajların desteklenmesi ve hatırlanma oranının artırılması noktasında payı oldukça fazladır. Türkiye ve dünyada markaların birçoğu hazırladıkları reklam cıngıl ve müzikleriyle yıllar boyu hatırlanma oranını yüksek tutmayı başarmıştır. Pek çok reklam da kendi sözlerini yerleşmiş veya özel olarak bestelenmiş melodilere göre ayarlamaktadır. Örneğin, Coca Cola 1970'lerde, uluslararası bir gençlik korosu tarafından söylenen "I'd like to buy the World a coke" cıngılıyla o kadar başarılı olmuştur ki, şarkı uzatılmış, kaydedilmiş, piyasaya sürülmüş ve 1971'de müzik listelerine hit olarak girmiştir. Dünyada bunun dışında verilecek diğer örnekler şöyledir (Sutherland ve Sylvester 150); - Sonuç - "I'm a stuck on Band-Aids' cause Band Aids stuck on me" (Band Aids'e yapıştım çünkü Band Aids bana yapıştı) "You deserve a break today. Mc Donald's" (Bugün paydosu hakettiniz) "Just for the taste of it.. Diet Coke" (Sadece tadı için) "Stayin' alive.. Volvo" (Hayatta kalmak için) "Heard it through the grapevine.. California Raisins" (Dedikodusunu duydum) "Take good care of my baby.. Johnson&Johnson" (Bebeğime iyi bak) "You can tell a Wella Woman by the way she wears her hair" (Wella kullanan bir bayanı saç stilinden tanıyabilirsiniz) "Come see the softer side of Sears" (Gelin Sears'ın daha yumuşak tarafını görün) "Be all that you can be.. US Army" (Olabildiğinizin en iyisini olun) "Oh, what a feeling.. Toyota" (Ah ne güzel bir duygu) İletişim daha önceki tanımlamalarda ifade edildiği şekilde hayatın her alanında, her durumda, her süreçte insanlar ve kurumlar tarafından belirli bir ölçüde ihtiyaç hissedilen bir kavramdır ve müzik sanatı da bu ihtiyacın temel tamamlayıcılarından biridir. Daha önce yapılan iletişim tanımlarından yola çıkılarak; bir ressamın iletişim kanalı tuali, fırça darbeleri ise mesajı, vaadi, kodudur; bir müzisyenin sazıdır iletişim kanalı, teline yaptığı her vuruş ise ise mesajı, vaadi, kodudur; bir heykeltıraşın yapıtının ta kendisidir iletişim kanalı, verdiği her şekil ise mesajı, vaadi, kodudur; bir tiyatrocunun sahnesidir iletişim kanalı, sergilediği oyun ise mesajı, vaadi, kodudur; bir dansçının sokaktır iletişim kanalı, her kıvrak figürü ise mesajı, vaadi, kodudur şeklindeki tanımlama ve benzetmeler yanlış olmayacaktır. Reklam iletişimine başvuran marka sahipleri ve firmaların asli amaçları arasında hiç şüphesiz ki ticari karlılığı sağlamak için iyi bir marka oluşturmak, doğru bir imaj inşa etmek ve markanın hatırlanma düzeyini yüksek tutmak gibi şıklar vardır. Çalışma kapsamında bahsedildiği üzere reklam, iletişimin maddiyata en çok ihtiyaç duyduğu boyutudur. Bu bağlamda yapılış ve sunuluş şekli son derece önemlidir. Tüketiciyle buluştuktan sonra bıraktığı etki, hatırlanma düzeyi, satın alma davranışındaki rolü gibi birçok elde edilen sonuç incelenmektedir. Etkin ve doğru bir reklam iletişiminin sağlanmasının göstergelerinden biri de hatırlanma düzeyidir. İşte bu noktada reklamda kullanılan görsellik, mesajlar, reklamın vaadi, müzik gibi birçok parametre hatırlanma düzeyinde rol oynamaktadır. Çalışma kapsamında betimsel olarak incelenen reklamda müzik ve reklam cıngıllarının kullanılması, müziğin ve reklamın bir araya gelmesi, reklamın tüketiciye ulaşma ve tüketici üzerinde amaçlanan iletişim etkisini yaratma sürecinde, reklama farklı katma değerler sağlamaktadır. Bireylerin psikolojik düzeylerine göre mutlu, hüzünlü, eğlenceli gibi evrensel ve duygusal bağlara sahip ortak noktalarından biridir müzik. Bu ortak noktalar bağlamında müzik ile birlikte kullanılan reklam gibi etkileyici bir iletişim biçimi, hem söz konusu markalara amaçları yönünde ciddi kazanımlar sağlamakta, hem de bu markaların toplumsal yaşamla bütünleşmesini ve insanların bazı hassasiyetlerine dokunmayı sağlayarak tüketim alışkanlıklarını etkilemektedir. Tüketiciyle buluşturulan reklamlarda müziğin kullanımı, reklam ve reklam vaadinin tüketici ile kontak kurmasını sağlayarak mesajı güçlendirmekte ve mesaj bombardımanın arasından farklılaşarak tüketici tarafından görülmeyi ya da duyulmayı kolaylaştırmaktadır. Reklam müziğinin uygulamada sıklıkla kullanılan bir biçimi olan reklam cıngılları da reklam iletişiminin biçimlerinden biridir. Yapılan reklam çalışmasında doğru kurgulanmış ve iyi bir stratejiyle reklam mesajıyla buluşturulmuş olan cıngıl markaya değer katmaktadır. Seçilen müzik veya kullanılan ses sayesinde verilmek istenen reklam mesajının içeriğindeki sevinç, coşku, heyecan, endişe, üzüntü gibi bir takım hisler doğru olarak aktarılarak reklam görseli desteklenmektedir. Reklamda kullanılan tüm görsel ve verilmek istenen ana mesajın önemli bir destekleyicisi olarak müzik ve cıngıl reklam iletişiminde yoğun bir biçimde kullanılmaktadır ve kullanılmaya da devam edilecektir. Kaynakça Baltaş, Acar, ve Zuhal Baltaş. Bedenin Dili. İstanbul: Remzi Kitabevi, 1992. Basılı Yayın. Batı, Uğur. "Hedef Kitle Davranışını Etkileyen Bir Unsur Olarak Reklamlarda Müzik Kullanımı Konusundaki Yazının İncelenmesi." Uluslararası İnsan Bilimleri Dergisi. Cilt:7 Sayı:2, 2004. Basılı Yayın. Çakır, Mehmet Fatih. "Marka Oluşumunda Reklamın Yeri." Yüksek Lisans Tezi, Elazığ: Fırat Üniversitesi, 2007. Basılı Yayın. Doğtaş, Dilek. Her Yönüyle Türkiye'de Kadın Olgusu. İstanbul: Şehir Yayınevi, 1992, 1. Baskı. Basılı Yayın. Işık, Metin. İletişimden Kitle İletişimine. Konya: Selçuk Üniversitesi İletişim Fakültesi Yayınları, 2000. Basılı Yayın. Kocabaş, Füsun, ve Müge Elden. Reklamcılık. İstanbul: İletişim Yayınları, 2002, 4. Baskı. Basılı Yayın. Mutlu, Erol. İletişim Sözlüğü. Ankara: Ark Bilim ve Sanat Yayınları, 1998. Basılı Yayın. Orçan, Mustafa. Osmanlı'dan Günümüze Modern Türk Tüketim Kültürü. Ankara: Kadim Yayınları, 2004. Basılı Yayın. Rutherford, Paul. Yeni İkonalar (Çeviren: Mustafa Gerçekler), İstanbul: Yapı Kredi Yayınları, 1996. Basılı Yayın. Sutherland, Max, ve Alice K. Sylvester. Reklam ve Tüketici Zihni. Mediacat, 2004. Basılı Yayın. ATMM 2013 PROCEEDINGS 73 Şimşek, Sedat. Reklam ve Geleneksel İmgeler. Konya: Remzi Kitabevi, 2006. Basılı Yayın. Topçuoğlu, Nur. Basında Reklam ve Tüketim Olgusu. Ankara: Vadi Yayınları, 1996. Basılı Yayın Uçan, Ali. Müzik Eğitim Temel Kavramlar, İlkeler Yaklaşımlar. Ankara: 1997. Basılı Yayın. Williamson, Judith. Reklamların Dili: Reklamlarda Anlam ve İdeoloji (Çeviren: Ahmet Fethi). Ankara: Ütopya Yayınevi, 2001. Basılı Yayın. Yılmaz, Süleyman Sırrı. "Kültür ve Bilincin Türdeşleşmesi Açısından Televizyon." Yüksek Lisans Tezi. Konya: Selçuk Üniversitesi, 2001. Yılmaz, Serpil, ve Erhan Arslan. "İşletmelerin Hedef Kitlelerine Ulaşabilmeleri İçin Yerel Radyo Ve Reklamların Kullanımı Ve Etkinliği." Kütahya: Dumlupınar Üniversitesi Sosyal Bilimler Dergisi Sayı:18, 2007. Özaygün, Ruhan. Divriği Ulu Camii ve Darüşşifası. 13 Mart, 2013. Web. Haziran 2013. <http://www.divrigi.gov.tr/divrigi-ulu-camii-ve-darussifasi-13s.htm> zAMAN KODLU SENKRON SORUNLARININ KöKENİ “THE ROOT OF THE TIME-CODE SYNC. PROBLEMS” Abstract Syncronization (sync.) is a communication protocol that allows hardware to manage from a unique center in audio-video system. Two or more equipment are processed or expected to processing in harmony using time and speed values. Sometimes the theory and practice doesn't match in content-intensive applications of audio recording and serious problems come into existence. Most of these problems are caused by the structure of sync. type except user error or connections. In this paper, some sync. problems caused by digital structure of selected time-code sync. such as MTC, MMC, HUI are discussed. MTC is a quarter-frame message included acting a limited area of audio system. MMC works in SysEx message that requires full compliance with hardware using full frame of MTC. Also, HUI is a part of automation more than sync. However, these entire structural properties are able to base on the problem of time coded synchronization. özet Senkron (eşgüdüm, synchronization), donanımlar arasında uygun adım hareketi sağlayan bir iletişim, sistemin bir merkezden yönetilmesine olanak tanıyan makinalar arası bir protokoldür. Eşgüdüm sayesinde iki ya da daha fazla donanım zaman ve hız değerlerinde anlaşıp uyum içinde çalışır veya çalışması beklenir. Çünkü özellikle yoğun içerikli profesyonel ses kayıt uygulamalarında bazen teoriyle pratik her zaman örtüşmeyebilir ve eşgüdüm kaynaklı ciddi sorunlar ortaya çıkar. Bu sorunların pek çoğunun bağlantı, ayar ya da kullanım hatasından ortaya çıktığı düşünülse de aslında hiç de azımsanmayacak kadarı eşgüdüm tipinden, seçilen protokolün olağan yapısından kaynaklanır. Bu çalışma, teorik olarak hiçbir sorun olmayacağı beklentisiyle yola çıkılan uygulamalarda bile yalnızca seçilen zaman kodlu (time code) eşgüdümün dijital yapısı gereği ortaya çıkan ciddi sorunlar, sorunların kaynağı olan protokollerin içyapıları ve çözüm önerilerini içermektedir. Sözü edilecek protokoller, uygulamalarda en çok kullanıldığı tespit edilen ve geleneksel zaman kodu SMPTE'nin MIDI protokolündeki temsilcisi MTC ve türevleriyle (tam kare, MMC vs.), özel bir otomasyon eşgüdüm sistemi olan HUI'dir. Çözüm için otomasyonun devreye girdiği HUI'yi bir tarafa bırakacak olursak, MTC'nin ana hatlarıyla bir çeyrek kare mesajı olması, MMC'nin ise içinde tam kare MTC'yi barındırmasına rağmen klasik bir SysEx yapısı taşıyor olması, zaman kodlu eşgüdüm sorunlarının en önemli kökenidir. ATMM 2013 PROCEEDINGS Giriş 75 Müzik teknolojisi yalnızca bir bütünü içermez. Bütünü oluşturan her bir parça, kendine ait disiplini farklı olsa da mutlaka müzik teknolojisi kapsamına girer, bu kapsamda incelenir. Bu bağlamda, profesyonel müzik kayıtlarını bir bütün olarak kabul edersek, bu bütünün parçalarından biri de müzik teknolojisi kapsamına giren eşgüdümdür (synchronization). Eşgüdüm, donanımlar arasında uygun adım gidişi sağlayan bir iletişim, sistemin bir merkezden yönetilmesine olanak tanıyan makinalar arası bir protokoldür (Durmaz 93) Eşgüdüm sayesinde iki ya da daha fazla donanım zaman ve hız değerlerinde anlaşarak eşzamanlı çalışır. Örneğin bilgisayar, çok kanallı kayıt cihazı, video oynatıcı, ses masası, sound modül, klavye gibi tek bir sistem içinde birbirine bağlı farklı donanımlar, ancak eşgüdüm sayesinde aynı anda uygun adım çalışırlar. Eşgüdüm için öncelikle, eşgüdümü sağlayacak protokolün belirlenmesi gerekir. Çünkü eşgüdümün temeli olan zaman ve hız, onu içeren verileriyle bir saat dilimini, bir tempoyu, bir geri sayımı ve hatta herhangi bir sürekli tınıyı kendine kılavuz seçebilir (Huber 223). Protokol seçiminden sonra bu protokolü donanımlara aktaracak bağlantının yapılması şarttır. Bu doğrudan bir audio da olabilir, MIDI gibi akışın kendine özgü protokolle sağlandığı herhangi bir verisel bağlantı da. Bu adımdan sonra seçilecek eşgüdüm tipine göre kullanım detayları devreye girer. Bundan sonrası, kullanıcı ve kontroller arasındaki ilişkiye bağlı olarak gelişir. Ancak her teknolojik içerikte olduğu gibi eşgüdümde de veri akışının her zaman sorunsuz yürümesi beklenemez. Yani, eşgüdüm için her şeyin sağlandığı uygulamalarda bile daha yolun en başında ya da işe başladıktan sonra birçok sorunla karşılaşılabilir. Bu sorunların pek çoğu bağlantı, ayarlar ya da kullanıcı hatasından kaynaklıdır ancak hiç de azımsanmayacak kadarı eşgüdüm tipinin, bir başka ifadeyle protokolün kendisindedir. İşte bu olası sorunun zor olan çözümü için, eşgüdüm protokolünün yapısına, yani sorunun kökenine inmek gerekir. Bunun için ses kayıt stüdyolarında en çok kullanılan eşgüdüm protokollerini masaya yatırdık, yapısını inceledik. Çünkü incelemede amaç eşgüdümde kullanılan her bir protokol tipini tanıtmak değil; piyasada en çok kullanımda olanların sorunlarına eğilmekti. Bu da hiç kuşkusuz bizi, zaman kodlu çalışan eşgüdüm tipine götürdü. Zaman kodlu eşgüdümün atası SMPTE'dir (Işıkhan 2009a). Adını, 20. yy. başlarında faaliyete geçen Society of Motions Picture and Television derneğinin baş harflerinden alan SMPTE, bugün zaman kodunda bir dünya standardıdır. SMPTE, eşgüdümde saat-dakikasaniye ve kare bilgilerini referans alarak üretim yapar ve bu bilgileri karşı tarafa analog ya da dijital audio sinyaliyle aktarır. Birkaç istisna hariç günümüzde neredeyse tüm ses kayıt stüdyolarında eşgüdüm için SMPTE kullanılır. SMPTE'nin dijital ortamdaki en iyi temsilcilerinden biri MIDI olduğundan, MIDI araçlı zaman kodları SMPTE için en uygunu sayılabilir. Dolayısıyla bu çalışmada zaman kodlu eşgüdüm sinyali olarak MIDI tabanlı sinyaller ele alınacaktır. Bu çalışmada hedeflenen, MIDI'li eşgüdüm için kullanılan zaman kodlarının yapısını incelemek ve mimari yapıyı bağlantı-ayar ya da kullanıcıdan kaynaklanmayan olası eşgüdüm sorunlarıyla örtüştürerek çözüm yolu ya da yolları önermektir. MTC ve Yapısı MTC (MIDI Time Code) kısaca, üzerinde zaman bilgisi taşıyan MIDI mesajıdır. Taşınan zaman bilgisi, sistemdeki diğer donanımlarla eşgüdüm sağlar. Bir başka ifadeyle MTC kullanılarak sisteme ait tüm donanımlar zaman bilgisi üzerinden eşgüdüm kurar. Burada zaman, sırasıyla kare (frame), saniye (second), dakika (minute) ve saat (hour) bilgilerinin tümüyle ve aynı anda taşınmasıyla oluşturulur. Dolayısıyla MTC, MIDI'ye özel bir zaman kodudur (Işıkhan 2009c). Aslında MTC'deki bu özel kodlama, 1987 yılında Digidesign bilgi işlem uzmanı Chris Meyer ve kurucu ortaklarından Evan Brooks tarafından SMPTE yapısının aynen MIDI'ye uyarlanmış halidir. Dolayısıyla sistemde SMPTE ile eşgüdüm sağlayan audio donanımlar, MIDI ile eşgüdüm sağlayan MIDI'li donanımlarla bağlantı kurabilir, onlarla eşgüdümlü çalışabilir. Bunun için yalnızca SMPTE audio sinyalini MIDI verisine çeviren harici ya da dâhili donanımlara ihtiyaç duyulur. Dolayısıyla MTC, mimari yapısı gereği adı SMPTE ile birlikte anılması gereken bir MIDI mesajıdır. MIDI'deki 241 numaralı (Heximal: F1, Binary: 1111 0001) mesaj MTC için ayrılmıştır. MIDI'li donanım, üzerindeki MTC üreteci açıldığında 241 numaralı mesajdan zaman bilgisini kendine MIDI ile bağlı diğer donanıma iletir veya mesajı karşılar. Bu mesajın veri akışı soldan sağa şu şekildedir: Akışta önce MTC bilgisi taşındığını belirten 241 numaralı sistem mesajı iletilir: 1111 0001 Ardından veri "byte"ı (data byte) olduğunu gösteren sabit 0 değeriyle hangi zaman bilgisinin taşındığını gösteren 3 "bit"lik değişken bir kod (n ve z) gelir. Burada n ve z, 8 farklı zaman bilgisinin karşılığıdır (23). Bunlar sırasıyla, 0 1 2 3 4 5 6 7 Frames Low Nibble Frames High Nibble Seconds Low Nibble Seconds High Nibble Minutes Low Nibble Minutes High Nibble Hours Low Nibble Hours High Nibble and SMPTE Type olarak kodlanmıştır. SMPTE tipini belirleyecek olan ve y diyebileceğimiz özel bir değişken atamasıyla kare bilgisi seçilir ve sonrasında Low Nibble’lar akışta "n", High Nibble’lar ise "z"ye karşılık gelir. Dolayısıyla mesaj sırasına göre önce n (low) sonra z (high) zaman bilgisi ayrı-ayrı taşınır. Bunun nedeni, d veya m ile gösterilen zaman değerinde gizlidir. Zaman değeri, bilgisine göre şekillenen zamanın sayısal karşılığıdır. Örneğin zaman bilgisi saat (hour) ise d ve m 0–23 arasında değer alır. Dakika veya saniye ise 0–59, kare ise y atama değerine göre 1–24/1–25/1–30 gibi değerler döndürür. Şimdi buraya dikkat: d ve m için akışta 4 bit kullanıldığından, örneğin 59 gibi bir değer ikili sayı sisteminde 4 bit ile doğrudan taşınamaz. Çünkü 4 "bit"in alacağı en büyük ondalık değer 16'dır (24). Bunu ortadan kaldırmak için tek yapılması gereken 4 "bit"in 8'e çıkarılmasıdır. Ancak, MIDI ATMM 2013 PROCEEDINGS 77 mimarisinin yapısı gereği her veri en az fazla 1 byte (8 bit) ile taşınacağından, 4 bit ile (nibble) tutulan tek bir verinin 8 "bit"e çıkarılması mimariye terstir. Bu nedenle sorunu çözmek için ilginç bir yöntem kullanılmış, zaman değeri tam ortadan ikiye bölünerek tersten haneler paylaştırılmıştır. Yani örneğin 59 sayısı veri akışında önce 9 sonra 5 ile iletilir. Bu bölünme sırasında doğal olarak 241 numaralı sistem mesajı tekrar araya girer. Böylece MTC veri yapısı tamamlanarak karşı tarafa iletilmiş olur. Örneğin 59. saniyenin (00:00:59:00) MTC veri yapısındaki karşılığı şu şekildedir: 241 numaralı MTC mesajı, low ve high olarak 8 farklı bilgiyi ikişerli gruplar halinde dört zamana böldüğünden (saat, dakika, saniye kare), MIDI jargonunda Çeyrek Kare Mesajı, (Quarter-Frame Message) olarak adlandırılır. Dolayısıyla 241 numaralı MTC mesajının MIDI'deki gerçek tanımı Çeyrek Kare Mesajı (ÇKM)'dır. MMC ve Yapısı MMC (MIDI Machine Control), 1992 yılında MIDI ailesine katılan gelişmiş bir sistem mesajı türüdür. MIDI'li donanımlara çalma (play), durma (stop), ileri-geri sarma (forwardbackward) gibi komutları iletmek olan MMC sayesinde her bir donanım, herhangi bir zaman kaygısı gözetmeksizin kullanıcının eşgüdüm için ihtiyacı olan hareket bilgilerini otomatik olarak almış olur (Işıkhan 2009b). MMC mesajı, aslında kendi başına bir mesaj olmayıp, MIDI'de 240 numaralı mesajla başlayan (SysEx= Hex: F0, Binary: 1111 0000) ve 247 numaralı mesajla sonlanan (EOX (End of Exclusive= Hex: F7, Binary: 1111 0111)) SysEx (System Exclusive) mesajı içinde yer alır. Bu nedenle, bir kullanıcı için aslında bilinmesi gereken yapı SysEx mesajıdır. Bu mesaj kısaca, firma ve ürünlerine göre değişen özgün bilgi gruplarını içerir. Örneğin bir MIDI uygulamasının hangi marka ve hangi model bir donanımla yapıldığını gösteren üretici bilgileri, tıpkı barkodlar gibi SysEx mesajında gizlidir. Ancak sistem otomasyon, veri yedekleme veya transfer etme gibi uygulamalarda çok daha geçerli olan üretici bilgileri, MMC gibi evrensel zaman kodlarının içine gömüldüğü durumlarda 0000 0110 sayı değeriyle sabitlenir. Yani MMC, yapısında firma kimlik bilgisi içermez. MMC bir SysEx mesajı olduğundan, üretici firmalara göre farklılık gösterebilir. Yani bazı MMC komutları bazı firmalar tarafından üretilmeyebilirler. Bu da MMC'li eşgüdüm sorunlarının en temel boyutu, bir başka ifadeyle sorunun kökenidir… MMC veri yapısı şu biçimdedir: Bu yapıda 240 (1111 0000) ile başlayıp 247 (1111 0111) ile tamamlanan SysEx içinde konumlanır ve Sub-ID olarak adlandırılan bir durum "byte"ı ile sabitlenir (0000 0110). Yapıda, SysEx sonrası gelen "'kimlik' byte"ı daha önce belirtildiği gibi sabittir ve SysEx ile gelecek olan verinin, zamana bağımlı evrensel bir mesaj (universal real-time message) olduğunu gösterir. Bu mesajın yazılabilir olması, yani SysEx mesajının otomasyon veya yedekleme gibi tümden veri transferine (data dump) açık olması nedeniyle, MMC için MIDI içinde global bir kanal ayrılabilir. Kanal bilgisi (c) genelde her donanım için 1 veya 16 olarak sabitlenmiştir. Mesajda k ile gösterilen değişken, MMC'nin karşı tarafa donanım kontrollerinden hangisinin yapıldığını belirtir komutu temsil eder. Daha önce MMC tanımını yaparken kullanıcı için donanımın hareket bilgisi olarak belirttiğimiz bu komutlar, 7 bit ile temsil edilirler. Bu komutların neler olduğu ise Tabloda gösterilmiştir. Örneğin MMC ile eşgüdümlü bir MIDI sistemde kayıt yazılımının stop tuşuna bastığınızda, mesajın komut "byte"ına 0000 0001 (Hex: 01) değeri yerleşir ve diğer donanımlara iletilir. Böylece MMC ile eşgüdümlü diğer tüm donanımlar durdurulmuş olur. Tablo. Eşgüdüm için kullanılan MMC hareket komutları MMC yapısında eşgüdüm, MMC içine gömülen MTC'de gizlidir. Bu özel yapı nedeniyle MMC içindeki MTC bilgisine tam kare mesajı verilir. Bu tanım daha önce salt MTC kodu için hatırlanacağı gibi çeyrek kare mesajıydı. Bir kullanıcı, uygulamasının synchronization menüsünden eşgüdüm olarak MMC'yi seçtiğinde o uygulama, eşgüdüm için diğer donanımlara hareket bilgilerini göndermeye hazır hale gelir. MMC bir zaman kodu içermediğinden, aynı kullanıcı bu kez zaman kodu için tercih yapmak zorundadır ve bunun için çoğunlukla MTC tercih edilir. Eşgüdüm için asıl tercih MMC olduğundan, zaman kodunda MTC tercihi aslında MTC'nin Tam Kare mesajını çağırmak anlamına gelir. Bu yolla Tam Kare mesajları devreye girer ve zaman kodu SysEx üzerinden taşınır. Eğer kullanıcı MMC’yi devreye sokmadan doğrudan MTC ile çalışırsa bu durumda MTC Çeyrek Kare mesajları görevde olacaktır. Dolayısıyla, bir zaman kodu olarak MTC'nin hangi durumlarda hangi mesajla devreye girmesi gerektiğini aslında MMC belirler. Kimi durumlarda bazı hareket komutları, MMC yerine MTC yeteneğiyle karşı tarafa iletilebilir. İşte bu iletilen özel durumlu komutlara MTC Cueing mesajları adı verilir. MIDI jargonunda MTC kullanıcı bitleri (users bits) olarak tanımlanan bu özel eşgüdüm biçimi, tıpkı Tablo ile belirtilen MMC komutları gibi start, stop, fast forward, punch in-out vs. gibi hareket bilgilerini SysEx mesajı içine yapılandırılmış MTC zaman koduyla birlikte karşı tarafa gönderir. ATMM 2013 PROCEEDINGS Sonuç 79 Artık herkes ister istemez kabul etmelidir ki günümüz teknolojik yapıda ses kayıtlarında eşgüdüm gerekliliğinin pek bir hükmü kalmadı. Şimdilerde pek çok uygulama yazılımların dar ama bir o kadar bütünsel hizmetlerinde gerçekleştiriliyor. Ancak yine de ses ile görüntünün birleştirildiği uygulamaların birçoğunda harici eşgüdüm kurulumlarının desteği şart. Ancak bu destek, geçmişte olduğu gibi sayıca fazla olan eşgüdüm tiplerinden çok, zaman kodlu olmak kaydıyla neredeyse tek bir eşgüdüm tipine kaydırılmış durumda: SMPTE. SMPTE denildiğinde ise artık neredeyse istisnasız bir şekilde MIDI akla gelmekte. Zaman kodlu eşgüdümün en büyük yardımcısı MIDI, bünyesindeki MTC ve MMC mesajlarıyla eşgüdümde neredeyse tek başına bir kaynak durumunda. Ancak her içerikte olduğu gibi bu tür eşgüdümlerde de kendi yapılarından kaynaklanan pek çok sorun mevcut. Önemli olan bu soruların üstesinden gelebilmek için sorunun kaynağına inebilmek. Yani kökenine ulaşmak. MTC'deki ÇKM yapısından kaynaklı akışın doğrusal olmaması, sistemdeki olası MTC zaman kodu sorunlarının aslında en büyük sebebidir. Yani yukarıda belirtilen akışta zaman diliminin ikiye bölünmesi, örneğimizdeki 59. saniyenin veri akışında önce 9 sonra 5 olarak görülmesi ve üstelik 9 ve 5 arasına 241 numaralı mesajın tekrar yazılması, doğrusal akması gereken MTC mesajını farklı bir yapıya çekerek akışı etkiler. Bu durum maalesef MIDI veri akışında bant genişliğine yansır. Sistemde yalnızca MTC değil, aynı zamanda nota bilgileri, süreler, hiç kaybolmayan MIDI Clock vs. gibi birçok MIDI verisi hareket ettiğinden, bu verilerin arasına denk gelen MTC, çok dar bir alanda hareket etmek zorunda kalır. MTC bant genişliği, %100'lük bir dilimde ancak %8'lik bir aralığa denk gelir. Nota akışının %60 olduğu bir MIDI bağlantısında bu değer oldukça küçüktür. Bu bir sorundur. Hatta bu sorun, MTC'de ender oluşan ve kullanıcının elinde olmayan eşgüdüm hatalarının da kökeni sayılır. Hatanın uygulamadaki görünümü, donanımların eşgüdümde birbirine eşit olmayan MTC değerleri olarak karşımıza çıkar. Örneğin bir donanım 3. saniyedeyken diğeri henüz 2. saniyeye ulaşır veya daha büyük farklarla eşgüdüm sağlanmaya çalışılır. Hatta kısmen de olsa eşgüdümün hiç kurulmamasına veya durmasına neden olabilir. Bu sorunun iki farklı çözümü vardır. Birincisi, MIDI bağlantısı için gerekli MIDI kablolarını kaliteli seçmek ve uzunluklarını kısa tutmaktır. Yani olası bir eşgüdüm sorununda eğer tüm seçenekler doğruysa ama halen MTC'de sıkıntı yaşanıyorsa, önce kablo kalitesinden ve sonra uzunluğundan kuşkulanmak gerekir. Uzunluk mutlaka 2 metreden az tutulmalı, kablonun ve dolayısıyla soket ve jackların alaşımı, yoğunluklu yüksek bakırdan veya platinyuma kadar giden diğer maddelerden seçilmelidir. Sorunun kökeni sayısal veri akışında ve MTC yapısında olduğundan, kullanıcının ilk seçenekten başka bir müdahalesi maalesef beklenemez. Tam kare mesajları, çeyrek kare olanların handikapı sayılan MIDI'de bantgenişliğini ortadan kaldıracak biçimde tasarlanmıştır. Tıpkı çeyrek karede olduğu gibi tam kare zaman kodu da saat-dakika-saniye-kare bilgisi taşır ancak en önemli fark, bu bilgilerin yerleştirildiği mesajdadır. Çeyrek kareler MIDI'de tek başlarına bağımsız bir mesajla giderlerken (241 numaralı mesaj), tam kareler SysEx mesajının içine gömülü bulunurlar. Böylece alan darlığı meselesi kendiliğinden ortadan kalkar. MMC mesajının SysEx içine gömülü bir küresel zaman kodu olduğu; genelde 1. veya 16. global MIDI kanalı üzerinden kendi adına kodlanmış özel yapısıyla saat, dakika, saniye ve kare bilgilerinden oluştuğu açıktır. Böylece her bir zaman dilimi 7 "bit"lik, yani doğal olanından da fazla bir kümeyle taşındığından çeyrek karede olan zaman sorunlarının neredeyse hiçbiri tam karede yaşanmaz dersek abartmış olmayız. Yani MIDI kablo uzunluğu veya kalitesi, fazla veri içeren uygulamalar tam kare zaman kodu için bir sorun değildir. Ancak bunun yerini, kaynağında MMC'nin olduğu başka sorunlar alır ki maalesef bu sorunların kökeni de zaman kodunun SysEx ile olan ilişkisinde, yani yapısında gizlidir. MMC'deki gerçek yapısal sorun, MMC ile harekete geçen komut ve zaman koduna dayalı eşgüdümün SysEx mesajı ile taşınmasındadır. Eşgüdümü hareket komutları ve zaman kodu etkileşimiyle ayrı iki koldan yönetmek, her bir komut ve kod için neredeyse 1 Byte kullanmak MMC'nin eşgüdümde sağladığı en büyük avantaj gibi görülebilir. Ancak bu mesajların kendine özel yapısıyla değil de SysEx mesajı içine gömülerek gönderilmesi, donanımlar arasında uyuşmazlığı ortaya çıkarır ve işte MMC eşgüdümlü zaman koduna ait sorunların kökeninde de bu durum yatar. Aynı marka veya farklı marka ama birbirlerini desteklediği uluslararası bildirgelerde açıklanmış donanımlardan oluşan bir sistem için MMC ile sağlanan eşgüdümlerde neredeyse sorun çıkmazken; çok farklı marka ve modellerin kullanıldığı sistemlerde MMC ile kurulan eşgüdümde zaman kodu sorunları hat safhaya varabilir. Çünkü her ne kadar MMC veya MTC Tam Kare mesajları SysEx içinde firma bilgisi yerine sabit bir kod taşısa da, özellikle zaman kodlarında mesajın SysEx içinde gönderilmesi, mutlaka karşı donanımlarda bir marka/model sorgulamasını tetikler. Örneğin ProTools destekli donanımlar kendi içlerinde sorun yaşamazken, ProTools tarafından açıkça desteği belirtilmeyen Tascam veya Mackie gibi dijital masalar sisteme girdiğinde MMC ile sorunlar ortaya çıkabilir. MTC ve MMC bu yapılarıyla yukarıda sözü edilen bir takım sorunları ortaya çıkarmakla birlikte, bu sorunlara karşı üretilen diğer bir takım teknolojiler de ön plana çıkıyor. Örneğin bunlardan biri HUI'dir. Mackie ve Digidesign firmalarının başlarda otomasyon amaçlı yola çıktıkları HUI, şimdilerde MTC ve MMC kaynaklı sorunları aşmak adına eşgüdüm için uygulamaya konulan bir başka yapı. Ancak yine de HUI'yi aslında bütünüyle bir otomasyon sisteminin adı olarak düşünmek gerektiğinden, yapısıyla değil uygulamasındaki MMC amaçlı eşgüdümle bu noktada anımsamakta fayda var. İster MTC olsun ister MMC veya HUI, bu türden eşgüdüm teknolojilerinin aslında sorunsuz üretildiklerini düşünmemek gerek. Bir kullanıcı olarak elbette sorun denildiğinde ilk akla gelen bağlantılar veya ilgili ayarlar olur ancak burada anlatılmaya çalışılan aslında pek çok eşgüdüm sorununun doğrudan eşgüdüm tipinden de kaynaklanıyor olabileceğidir. Dolayısıyla özellikle MTC ve MMC mimarisi, yapılarındaki özel durumlar nedeniyle özellikle günümüzde birçok eşgüdüm sorunlarının kökenidir. Kaynakça Durmaz, Serhat. MIDI, İzmir: Dokuz Eylül Yayınları, 2000. Basılı Yayın. Huber, David Miles. The MIDI Manual: A Practical Guide to MIDI in the Project Studio, 3rd ed. Burlington: Focal Press, 2007. Print. Işıkhan, Cihan. "Eşgüdüm (senkronizasyon)." Sound Dergisi Mart 2009a: 48–51. Basılı Yayın. Işıkhan, Cihan. "Eşgüdüm (senkronizasyon) ve MMC Yapısı." Sound Dergisi Nisan 2009b: 48–51. Basılı Yayın. Işıkhan, Cihan. "Eşgüdüm (senkronizasyon) ve MIDI Time Code." Sound Dergisi Mayıs 2009c: 48–51. Basılı Yayın. ATMM 2013 PROCEEDINGS 81 TüRKİYE'DE KLASİK VE ÇAğDAŞ MüzİK PRODüKSİYONLARINDA SES MüHENDİSİ İLE SANATÇI ARASINDAKİ İLETİŞİM Abstract As recording technology progresses, newly developed music production methods have positive and negative influences on recording artists of our era. Even an experienced live performer may go through a difficult time recording an album in a studio environment. Likewise an experienced studio artist may benefit from the possibilities of technology in a debated way. In various recording projects where there is no official producer in charge, the decisions that a producer should make are perforce put on the shoulders of the sound engineer. This situation may cause projects to end up without optimal artistic and technical results. This work will discuss the responsibilities of both leading actors of the recording project, namely the sound engineer and the artist, regarding the multitrack recording sessions of mostly classical and contemporary music projects in Turkey. Suggestions for improving the music education that should prepare a performer for a recording career will be mentioned as well. özet İlerleyen kayıt teknolojisiyle birlikte evrilen müzik yapım yöntemleri günümüz sanatçılarını olumlu veya olumsuz şekilde etkilemektedir. Yıllarca canlı icra konusunda tecrübe biriktirmiş bir icra sanatçısı bile stüdyo kaydına girdiği zaman sıkıntılar çekebilmektedir. Aynı şekilde oldukça fazla kayıt tecrübesi olan bir sanatçı ise teknolojinin olanaklarından tartışmalı bir şekilde faydalanabilmektedir.Sanat yönetmeni (producer) rolünün tam olarak doldurulamadığı birçok kayıt projesinde, bu rolün vermesi gereken birçok karar mecburen ses mühendisine yıkılmakta olup sağlıksız sonuçlara yol açabilmektedir. Bu bildiride, işte bu sıkıntılı iletişim sorunununçözüme yaklaştırılabilmesi için çok kanallı klasik veya çağdaş müzik kayıt projelerinde iki esas aktör olan ses mühendisi ve sanatçının üzerine düşen görevler ve de bu aşamaya gelene kadar alacakları müzik eğitimi için öneriler tartışılacaktır. Giriş Çok kanallı kayıt için dünyada kabul edilmiş birçok yöntem önerisi olduğu gibi bu yöntemler her kayda özel olacak şekilde ayrıntılarında esnetilerek uygulanmaktadır. Mikrofon yerleştirme teknikleri ile ilgili bazı kitaplarda da önerildiği gibi aslında tam olarak uyulması gereken kurallardan ziyade yol gösterici bazı öneriler vardır (Huber 1). Her kayıt, farklı aktörlerin buluşması olduğu gibi, akustik mekân ve kayıt cihazlarının oluşturduğu üretim aracıyla estetik ve algı kararlarına göre en uygun şekilde bir çözüme bağlandığı mühendislik destekli bir sanat üretimidir. Kayıt teknikleri için öngörülen kurallar ses mühendisine belli bir noktaya kadar yol gösterebilir ama neticede bu üretimin sonucunda çıkacak ürün müzikten başka bir şey olmamalıdır (Karadoğan 126). Bir müzik kaydının neden yapıldığı sorusunun herkes için farklı bir cevabı olmakla birlikte birçok kişinin buluştuğu ortak noktadan biri ideal bir icranın yaratılması cevabıdır (Streicher 41). İdeal bir kayıt bir topluluğun belli bir eser grubunu olabilecek en iyi şekilde yorumladığı halini aktarmalıdır. Bu arayış bütün müzik tarzları için geçerli olmakla birlikte aynı hedefe farklı yöntemler kullanarak ulaşılmaktadır. Kayıt teknikleri ilkeleri üzerine yazılmış birçok yayının bulunduğu ortadadır. Bu yazının amacı esasında son ürünü bir sanat eseri olan bir mühendislik kolunun günümüzde ve ülkemizdeki uygulanışı hakkında geleceğini tartışacak bir durum tespiti yapmaktır. Yazının hazırlanış nedeninin altında bulunan esas amaç topluluk müziğini yaşatmak ve bu evrensel müzik geleneğindeki güzellikleri kayıt projelerine en özgün hallerinde aktarmak için gerekli eleştiri ortamına katkıda bulunmaktır. Bu amaçla kayıtlarda sıklıkla gözlemlenen ve kayıt projesinin akışını yavaşlatan bazı ana noktalar tartışılacaktır. Çok Kanallı Kayıtlar Bir topluluğun kaydını veya başka bir deyişle birçok müzisyenin beraber yer aldığı bir kayıt projesini gerçekleştirmek için kullanılan iki ana yaklaşımtürü vardır denebilir: Birinci yaklaşım topluluğun bir konserde icra edermişçesine bütün üyeleri ile beraber icra ettikleri çok kanallı hücum kayıt yöntemidir. İkinci yaklaşım ise çok kanallı üst üste kayıt yöntemidir. Her iki yaklaşımda da kayıt işlemi sonunda edit, miks ve mastering için bekleyen birçok ses kanalından oluşan bir parçadan müzik eseri yayına hazır hale getirilir. Hücum Kayıt Yaklaşımı Akustik olarak icra edilen birçok müzik hücum kayıt yöntemi ile kayıt edilir. Akustik müziklerinin yanında birçok caz projesi, Türk Müziği icraları da bu yöntemi tercih eder. Bu tarz kayıtlarda bireysel olarak iyi bir icranın yanında topluluk olarak beraber müzikal hareketlerin yakalanması amaçtır. Topluluk büyüdükçe müzisyenlerin uyumu zorlaşır. Kayıt için daha büyük mekânlara ihtiyaç doğar, bazen kayıt projelerinin konser salonlarına taşınması gerekebilir. Klasik ve çağdaş müzik yapımlarını popüler müzik yapımlarından ayıran temel unsur akustik olarak provası yapılabilen müziklerin yine akustik olarak, yani bir kulaklık sistemine ihtiyaç duymadan tek büyük bir mekândakaydının yapılmasıdır. ATMM 2013 PROCEEDINGS 83 üst üste Kayıt Yöntemi Ağırlıklı olarak popüler müziklerin kaydı için kullanılan yöntemdir. Genelde hücum kayıt yaklaşımı ile karşılaştırıldığında stüdyo kayıt ve miks süresi olarak daha uzun süreler alan bir yöntemdir. Yapım estetiği ve kontrolü arttırdığı için özellikle popüler müziklerde tercih edilmektedir. Çoğunlukla müzisyenler birlikte çalmaz. Demo olarak hazırlanan kanalları kılavuz alarak üstüne gerçek kanallar temize çekilir. Genellikle alt yapının sağlam olmasını sağlayabilmek için önce ritim işlevi gören çalgıları daha sonra armonik işlevi olan çalgılar ve de en son melodi işlevini yürüten çalgılar veya (şan gibi) solistler kaydedilir. Bunların yanında MIDI ile hazırlanmış diğer kanallar da projede beraberinde korunur. Topluluk ile icra edilen müziklerin bir kısmı mekân yetersizliği veya sanatçıların buluşma zorlukları nedeniyle üst üste kayıt yöntemi kullanılarak gerçekleştirilmektedir. Bu yapımların sıklığı belli bir alışkanlık doğurmakta ve artık topluluk olarak stüdyolarda beraber çalma sıkıntılı bir deneyime dönüşmektedir. Başka bir deyişle üst üste kaydın toplu çalma ile yapılan kayıt kültürünün varoluşunu tehdit etmeye başladığı söylenebilir. Müzik Yapımlarında Roller: Tonmeister ve Ses Mühendisi Almancada tonmeister unvanı ses mühendisliği eğitimi almış, konservatuar mezunu, teknik bilgisi olduğu kadar yüksek bir icra ve yorumlama yapabilecek kadar müzisyenliğe sahip kişiler için kullanılmaktadır. Bir kayıt projesi esnasında eserin notalarına bakıp, hangi formda olduğunu bilip, kayıt odasında icra eden kişiye notada önerilen yorumla ilgili yönlendirmeleri yaptırabilir, aynı şekilde kayda başlamadan ses mühendisine eserin tarzına göre hangi mikrofonları, hangi teknikle uygulamak istediğini söyleyebilir. Eğer kısım, kısım kayıt almayı tercih ettiyse, olası montaj noktalarının eserin hangi ölçülerinde yapılıp yapılamayacağının planını yapabilir. Tabii ideal bir dünyada böyle çalışan bir tonmeisterin yanında tam zamanlı olarak bulunacak bir ses mühendisi bir de yardımcı mühendis olması gerekir ki herkes kendi sorumluluk alanında tam olarak dikkatini verebilsin. Ama maalesef bu ekibin tutulmasının kayıt için ayrılan bütçeyi yükseltmesi kaçınılmazdır. Hele klasik ve çağdaş müzik yapımlarına olan talebin düşük olduğu bir dönemde kayıt yapmak isteyen sanatçılar çoğunlukla kayıt masraflarını kendi ceplerinden karşılamak yoluna girerler. O zaman sadece stüdyonun teknik kısmını halledecek olmazsa olmaz bir ses mühendisi ile kayıt projesine başlanır. Bölünmeler kaçınılmazdır: Sanatçı hem icra edip hem de kendi sanat yönetmenliğini yapmaya soyunacak, neticede bunu eş zamanlı yapamayacağından süreç kısalması gerekirken uzayacaktır.Aynı şekilde kontrol odasında tek başına çalışan bir ses mühendisi dikkatini yalnızca duyduğu sese ve sinyal seviyelerine vermesi gerekirken, hem bu işi yapacak hem de bir yandan elindeki notalara icradaki hataları işaretleyip üstüne bir de içerideki sanatçıyı rahatlatmaya çalışacaktır.Bu eş zamanlı görev yoğunluğunda bazı ayrıntıların gözden kaçması ve bunun sonucunda kaydın uzaması kaçınılmazdır. Türkiye'deki Yapımlarda Gözlemlenen Sorunlar Birçok sanatçı ses mühendislerinin sabırsız ve huysuz tavrından şikâyetçidir. Aynı şekilde birçok ses mühendisi de sanatçıların kayıtlara bilgisiz girip imkânsız taleplerde bulunmalarından bahseder. Buna neden olan koşullar nelerdir? Ses mühendisleri veya sanatçılar hangi hesap hatasına sürekli düşüp durmakta ve neticede mutsuz olmaktadırlar? İlk stüdyo kaydı: İlk defa stüdyoya giren bir sanatçı, açıkça ifade etmese de süreçten oldukça çekinmektedir. Sanki ömürleri boyunca icra ettikleri bir çalgıdan imtihana girer gibi hissedip normalin dışında bir yüzleşme korkusu yaşarlar. Ama bu ilk adımı iyi atmaları onlara büyük bir üretim ivmesi kazandırabileceği gibi bu sayede dünya kültürüne de birçok eserin dinlenebilirliğini katabilir. Bu aşamada ses mühendisinin en önemli görevi hem bu geçiş aşamasında hem de kayıt sürecinin başından sonuna kadar gerekli psikolojik desteği sağlamaktır. Topluluk kaydında bu çekince birden fazla icracıda belirirse topluluğun bütün olarak iyi icra vermesi zorlaşabilir. Kayıt Sürecinin Bilinmezliği: Sanatçı tarafındaki bir başka çekince ise sürecin belirsizliğinden ileri gelmektedir: Albüm üretimi denen iş hangi aşamalarda oluşur? Bir saatlik bir repertuarı bir konser gibi tek nefeste mi çalmalıdır? Bir tane tam kayıt çıkmadığında, montajla ilgili konular konuşulurken ses mühendisine iş mi çıkarmış olmuştur? Montaj yapıp hatalı kısımları düzeltmek etik olarak yanlış bir işlem midir? Kafada bu kadar sıkıntılı soru varken "şimdi baştan alalım" dendiğinde iyi bir icranın gerçekleşme ihtimali oldukça azalmıştır. Sürecin bilinmezliği bir projenin saat veya gün bazında ne kadar sürede yapılacağının tahminini zorlaştırdığından fiyatlandırmasını da zorlaştırmaktadır. Edit işlemleri bazen kayıt almaktan uzun sürebilir. Aynı şekilde bol bol kayıt alan bir sanatçı da günün sonunda yaptığı en iyi kaydı edit yapamadan olduğu gibi tutmak isteyebilir. Yeni Akustik Mekânlar: Akustik müzik icra eden sanatçılar prova odasındaki çınlamaya alışıpstüdyonun nispeten kuru ortamında sıkıntı çekebilmektedirler. Özellikle keman ve şan icracıları bu yüzden konser salonlarının çınlama sürelerini kayıt yapacakları stüdyoların oldukça kuru kayıt odalarında bulmayı beklerler. Türk Makam Müziği kayıtlarında çalgı sayısı çoğaldıkça kulaklıkla çalma ihtiyacının doğduğu gözlemlenmektedir. Hem oluşturulacak ortak perde entonasyonu için, hem de parçaların usulüyle ilgili zamanlama problemleri nedeniyle kulaklık kullanımı faydalı olabilmektedir. Fakat provalar başka mekânlardakulaklık olmadan yapıldığından stüdyo çalımında uyum sorunları gözlenmektedir. Akustik Denge Bilgisi: Özellikle piyano veya vurmalı çalgıların eşlik ettiği birçok toplulukta rastlanan bu problem genelde provalarda göz ardı edilmektedir. Kayıt projelerinde olduğu kadar konserlerde de nasıl bir mikrofonlama ile çözülmesi gerektiği de belirsizdir. Batı çalgıları ile klasik Türk müziği çalgılarını beraber kullanan besteci ve toplulukların oldukça hassas yaklaşması gereken bu mühim sorun, bu tarz projelerin kayda aktarımında ses mühendisine de zorluklar çıkarabilmektedir. Bu yeni suni dengeler aslında akustik çalımda sonucunu veremezken kayıtta yeni bir ses dünyası içinde dengesini bulması için hayal edilmiştir. Kayıt esnasında topluluğun şefi de salt akustik duyumla takip ettiği müziğin son haline varıp varmadığını bilemez. Bu tarz bir projeye kalkışan her besteci kayıt sırasında bu öncelikleri atlamamalıdır. ATMM 2013 PROCEEDINGS 85 Mikrofonununçalgının akustik sesini kayda aktarırken nasıl dönüştürdüğüne aşina olmamak da birçok müzisyenin ilk kayıttan sonra şaşırmasına yol açmaktadır. Sık kayıt yaparak aşinalık kazanılabilir. Oturma düzeni: Klasik Batı müziğinde oturma düzenleri oldukça standartlaşmıştır. Buna göre kayıt teknikleri de kendini uyarlamış ve panoramadaki beklentileri karşılar hale gelmiştir. Türk Makam Müziği kayıtlarında karşılaşılan zorluklardan biri de çoğunluk müzisyen tarafından kabul edilmiş ve kalıplaşmış bir oturma düzeninin eksikliğidir. Çoğunlukla kanunun ortada oturduğu gözlemlenirken mızraplı ve yaylı sazların stereo panoramada nerede olması gerektiği hususu çoğunlukla bir bilinmeyendir. Teknolojinin Sonsuz İmkânları: Akustik kayıtlarda aynı mekânı paylaşan çalgıların sesleri birbirine az da olsa karışmaktadır. Bu şekliyle beraber mikslendiğinde her ufak ayrıntının bütün tını içinde bir katkısı mevcuttur. Bu durumda kaydedilmiş bir topluluğun tek bir çalgısındaki hatayı tek başına düzeltmek mümkün değildir. Ancak izole edilmiş bir odada çalan bir çalgı bu düzeltmeyi yapabilir. Sonuç ve öneriler Hızla gelişen teknolojiye koşut bir şekilde evirilen birçok öğrenim programı gibi güzel sanatların müzik alanındaki klasik çalgı ve kompozisyon öğrenimi de teknolojik farkındalığa uyum göstermek zorundadır. Dünyada kayıt imkânı olan belli başlı müzik okullarında hâlihazırda var olan bu uygulamaları ülkemiz okullarının da takip etmesi gerekmektedir. Aynı şekilde ses mühendisi veya müzik yapımcısı adayı yetiştiren bütün kurumlarda ülkenin müzik doğası ile ilgili bilginin temel ders müfredatı içine alınması gerekir. Buna göre yukarıda yapılan bu durum tespitinden yola çıkarak sık karşılaşılan problemlerle ilgili şu öneriler yapılabilir: Referans Kayıtları Dinlemek: Bir kaydın her iki taraf açısından da mutluluk verici sonuçlanması için beklentilerin gerçek dünya koşullarıyla beraber şekillenmesi gerekir. Bunu sağlamak için kayıt ile ilgili ön görüşmeler yapılmalı, bu görüşmelerde sanatçı bu kayıtla ulaşmak istediği tını hedefini izah etmeye çalışmalı, ses mühendisi de, her mühendislik kolunun olmazsa olmazı olan verim meselesini sanatçıya izah etmelidir. Kaynaklar doğrultusunda olabilecek en sağlıklı çözüm zaten en iyi çözümdür. Bir tınıyı hayal ederken onu gerçek dünyaya aktaracak olan ses mühendisinin bu dönüştürme işlemine en faydalı olabilecek şey sanatçının yapacağı kayıt ile ilgili beklentisine yakın bir örneği dinletmesi olacaktır. Sanatçı, özellikle sıra dışı bir düzenleme girişiminde bulunuyorsa yakın tınlamasını istediği bazı albümleri mutlaka dinletmelidir. Bitmiş ve yayınlanmış bazı yapımlardakikayıt yaklaşımları bir ses mühendisi için oldukça fazla ipucu içerebilir. O zaman sanatçının hayal ettiği tınıyı kelimelerle anlatmasına bile gerek kalmaz. Bu kayıt durumunun böyle olacağı aşikârken kayda giren sanatçının bunu önceden kestirebilmesi için neleri yapmışolması gerekir? Daha da büyük bir zaman dilimini düşününce çalgı eğitimi alan bir sanatçı ile ses mühendisliği eğitimi alan bir başka sanatçı okul bitmeden, gerçek hayata atılmadan bu konuda nasıl tecrübe kazandırılabilir? Kritik İşitme: Ses tasarımı öğrencilerine zaten öğretilen kritik işitme alıştırmaları sanatçılar için de faydalı olabilir. Çalgı bölümü öğrencileri, öğrenimleri boyunca bir yandan sazlarını icra etmede ustalaşırken, diğer yandan sazlarının solo veya topluluk ile beraber kayıtlarda nasıl tınladığı konusunda kendilerini geliştirmeleri gerekir. Bu şekilde kendilerini ilerde yapacakları stüdyo albümlerine ve de mikrofonlama yapılacak konserlerine hazırlamaya başlamış olurlar. Taleplerini dile getirdikleri ölçüde de beraber çalışacakları ses mühendisleriyle de daha iyi anlaşabilirler. Okul Bitirme Prodüksiyonları: Müzik okullarının çalgı eğitimi ve kompozisyon bölümlerinde mezuniyete yakın oldukları 7. ve 8. yarıyıllarda ufak çapta bir müzik yapımının parçası olmaları gereklidir. Birçoğu belki stüdyolarda kayıt tecrübesi edinmeye başlamıştır ama sorumluluğun tamamen kendilerine ait olduğu ve de zaman planlamasını da yine aynı okuldan bir müzik teknolojisi öğrencisi ile yapabileceği bir proje yapmasının faydaları çoktur. Bu yapımın çok büyük bir şey olması gerekmez ama süreci anlaması için yetecek zorlukta bir iş olmalıdır. Bu tarz yapımlar ses mühendisliği programlarında genelde her dönemde yapıldığı gibi okulu bitirirken de daha kapsamlı projeler yaparlar. Bu projeleri yaparken bazı unsurlar yine de atlanabilir. Ses Mühendisi Adaylarının Atlamaması Gereken Noktalar: Bir kayıt projesini yaparken eldeki en önemli malzeme sanatçının kendisidir. Ses mühendisi adayları tamamen kendi alanlarında kalan alet edevat ve yazılım kullanımına aşırı önem verip işin icracı boyutunu ihmal edebilirler. Oysa icracı ile olan iletişim bir kaydı onca stres ve sıkıntıya rağmen sonuna kadar taşıyacak olan güçtür. Yukarıda bahsedilen ilk kayıt durumu da göz önüne alındığında, ses mühendisinin sanatçıyı bütün bu başı sonu bilinmeyen süreçten geçiren bir yoldaş ve sırdaş olması gerekir. Onun iyi icra yapabilmesi için gereken bütün koşulları sağlamalı ve belli bir rahatlama noktasına gelene kadar oluşabilecek bütün gerilim noktalarında sağduyulu davranmalıdır. Aslında belki bütün bu diyalog müzik yapımcısı üzerinden yürümesi gerekirken, çoğu kayıtta eksik olduğundan dolayı sorumluluk ses mühendisine kalmıştır. Söz konusu olan bir topluluk kaydıysa icracıların göz teması stüdyodaki yerleşimde öncelikle göz önüne alınmalıdır. Göz teması mesela caz kayıtlarında veya başka serbest formlu çalışmalarda sololara giriş çıkış ile ilgili işaretleşme için oldukça yararlıdır. Bazı kayıtlar parçanın ilk çalımında bitebilir. Bu yüzden ses mühendisi kaydın her anında kendini projeye vermeli ve teknik bir hataya imkân bırakmamalıdır. Bazı kayıtların tekrarı yapılamaz. Kayıtların en hassas anlarında kontrol odasındaki ses mühendisinin, kayıt odasındaki sanatçı ile iletişimi talkback üzerinden gerçekleşir. Bu konuşma esnasında çoğunlukla iki taraf da birbirini görmediğinden bir kaydın sonunda yapılacak yorumlarda kullanılan ses tonu ve ifade çok önemlidir. Zaten hassas bir durumda icrasını tamamlamış olan sanatçı,kendi icrası ile ilgili gerçeği ses mühendisinin sesinde arayacaktır. Bu diyalogda ses mühendisi sağduyulu davranmalı ve de sanatçıyı kırmadan yönlendirmelidir. Birçok kuralı da olsa her kayıt kendine özgü uygulamasıyla bir başka benzer kayıttan farklı olacaktır. Duyarlı bir ses mühendisi, hazırlanmış bir sanatçı ile beraber çalıştığında, çıkabilecek aksilikler yok olmasa da en aza inecektir. Bu şekilde yapılan müzik üretimiyle geleceğe sağlıklı bir işitsel miras bırakılacaktır. ATMM 2013 PROCEEDINGS Kaynakça 87 Huber, David Miles, and Philip Williams. Professional Microphone Techniques. Emeryville: Mix Books, 1998. Print. Karadoğan, Can. "Statistical Evaluation of Production Techniques as They Relate to Perceived Turkish Makam Music: Case Study Kanun." PhD thesis, Istanbul Technical University, 2010. Streicher, Ron, and Anton Everest. The New Stereo Soundbook. Pasadena: Audio Engineering Associates, 1998. Print. TINI ARAŞTIRMALARINDA SİSTEMATİK VE YENİLİKÇİ BİR YAKLAŞIM İHTİYACI Abstract Timbre is frequently described as the characteristics of sound apart from pitch and dynamics enabling one to differentiate between different sound sources. This description has a blurred conceptual framework as it mostly describes what is not timbre rather than what it is, based on only sound sources. With the rise of high technology in studio equipment offering almost unlimited possibilities to record and process sounds, timbre has become the most discussed feature of sound in the studios among professionals. However, these discussions take place mostly with a terminology heavily based on subjective expressions and experiences and therefore communication among professionals are not fluent. By reviewing the description of timbre considering its multi-dimensional and complex nature, creating a common terminology about timbre leading to effective communication among professionals and researching the concept of timbre, which is proved to be signified integrally by our visual and kinesthetic perceptual system in addition to our auditory system, with the use of continously developing high technology tools, timbre studies could become more systematic and present a clearer conceptual framework. özet Tını, sıklıkla sesin perdesi ve dinamiği dışında kalan ve bir ses kaynağının diğerinden ayırt edilebilmesini sağlayan özellikleri olarak tanımlanır. Bu tanım, gerek tınının ne olduğundan ziyade ne olmadığını belirtmesi, gerekse tınıyı sadece ses kaynağı üzerinden açıklamasıyla bulanık bir kavramsal çerçeveye sahiptir. Tını aynı zamanda, teknolojinin hızlı gelişimi sayesinde sesin işlenebilmesi açısından neredeyse sınırsız olanaklar sunan stüdyolarda sesin en çok tartışılan özelliği haline gelmiştir. Ancak, bu tartışmalarda, genellikle kişisel deneyimlere dayalı bir terminoloji kullanılmakta ve profesyoneller arası iletişimde kopukluklar yaşanmaktadır. Gerek tınının çok boyutlu ve karmaşık yapısının göz önüne alınarak yeniden tanımlanması, gerek bu iletişim kopukluklarının giderilerek tınıyla ilgili ortak bir terminoloji oluşturulması, gerekse son dönem araştırmalarında işitsel algı yanında, görsel ve kinestetik algıyla bütünlüklü şekilde anlamlandırıldığı kanıtlanan tını kavramının, son dönemde ortaya çıkan teknolojik araçlar kullanılarak ve çok disiplinli bir şekilde araştırılmasıyla, tını çalışmaları sistematik hale getirilebilir ve berrak bir kavramsal çerçeveye oturtulabilir. ATMM 2013 PROCEEDINGS Tanım: Tını Ne Değildir? 89 Geleneksel Batı müziği besteciliği, notasyonu, icrası ve analizinde en sık kullanılan ve araştırılan iki kavram, sesin perdesi ve dinamiğidir. ANSI'nın 1973'teki tanımına göre, sesin bu özelliklerinin aynı olması durumunda, bir ses kaynağının diğerinden ayırtedilebilmesini sağlayan özellikler ise sesin tınısal özellikleri olarak tanımlanmıştır. Bu tanım, tını kavramını çok-boyutlu yapısına değinmeden kısıtlı olarak ele almakta ve bu çok-boyutlu yapının dinamiklerinin araştırılmasıyla ortaya konabilecek daha net bir kavramsal çerçeve yerine, sınırları belirsiz ve kaygan bir düzleme oturtmaktadır. Bu tanımı incelemeden önce, tınının sesin diğer özelliklerinden farklılıkları incelenebilir. İlk olarak sesin perdesi ve dinamik özellikleri tınıdan farklı olarak çeşitli yöntemlerle sistematik olarak araştırılan alanlardır. Örneğin, dB birimi üzerinden ve hatta sese bağlı olarak dB-A, dB-B ve dB-C gibi farklı ağırlıklama ölçekleriyle ifade edilen sesin dinamik özellikleri, kişinin öznel algısından bağımsız olarak nesnel bir ölçme ve değerlendirme sistemiyle belirlenebilmektedir. Her ne kadar dinamik özellikler kadar nesnel olarak değerlendirilemese de, sesin perdesi de başta frekans analizi ve bu alanda yapılmış psikoakustik çalışmalarla sistematik olarak araştırılabilen bir alandır. Bir başka deyişle, tınıdan farklı olarak sesin bu özellikleri, yapılan çalışmalar ile insan algısından önemli ölçüde bağımsızlaştırılmış ve bilimsel bir çerçeveye oturtulmuştur. İkinci olarak, tını kavramı yukarıda da belirtildiği gibi, geleneksel Batı müziği pratiğinde sesin görece olarak en az notasyona dökülen, artiküle edilen ve araştırılan kavramıdır. Geleneksel Batı müziğinde notasyonda belirtilen ses olaylarının perdeleri, uzunlukları ve şiddetlerinin aksine tınıya ait özelliklere notasyonda fazla yer verilmemiş ve daha çok performansçının yorumuna bırakılmıştır. Bu durum, müzikoloji çalışmalarında da kendisini göstermiş, sesin dinamik özellikleri ve perdesi ile karşılaştırıldığında tınının değerlendirilmesi ve anlamlandırılması ile ilgili oldukça az çalışma yapılmıştır. Son olarak tını, sesin diğer özelliklerine göre insanın farklı algı biçimleriyle en çok etkileşimde olan ve en öznel anlamlandırılan ses özelliğidir. Bundan dolayı, tınının algılanması ve anlamlandırılması oldukça karmaşık süreçlere dayanır. Bu yüzden de, diğer özelliklerle karşılaştırıldığında araştırılması çok-disiplinli çalışmalara en çok ihtiyaç duyan özelliğidir. Bu farklılıklar göz önüne alındığında yukarıda verilen tanımda tınının, üzerine birçok sistematik çalışma yapılmış, yöntem geliştirilmiş ve tınıya göre çok daha net ve basit bir kavramsal çerçeveye sahip sesin diğer özelliklerinin aynı olması durumundan hareketle tanımlanması, kavramın ne olduğundan ziyade daha çok ne olmadığını ifade etmektedir. Ayrıca, tınının oldukça etkileşim içerisinde olduğu bu kavramlardan ayrıştırılarak tanımlanması, kavramın doğasının tam olarak anlaşılamamasına yol açmaktadır. Tanımın ikinci bölümünde geçen bir ses kaynağının diğerinden ayırt edilebilmesini sağlayan özellikler ifadesi ise tını kavramını farklı ses kaynakları arasındaki karşılaştırmalar üzerinden açıklamaktadır. Bu ifade, kavrama kısıtlı işlevsel bir boyut getirmekte ve bir ses kaynağının başka kaynaklardan bağımsız olarak sahip olduğu farklı tınısal özellik ve olasılıklarını vurgulamamaktadır. Ayrıca, sesin tınısal özelliklerinin sadece ses kaynakları üzerinden açıklanması, örneğin akusmatik müzik gibi sesin tınısal özelliklerinin sıklıkla kaynaklarından bağımsız tartışıldığı pratikler için yetersiz kalmaktadır. Sonuç olarak, araştırılmasında ilk adım olan tanımlama aşamasında tını kavramının yeniden ele alınması ve aşağıda da yer verilen çok yönlü yapısının da göz önüne alınarak tanımlanması gerekmektedir. Terminoloji: Stüdyo örneği Tanım konusuna benzer şekilde, sesin tınısal özellikleriyle ilgili terminoloji, perde ve dinamik özelliklerine göre çok daha havada ve belirsizdir. Batı müziği pratiğine benzer şekilde, sesin diğer özellikleriyle ilgili terminoloji oturmuş da olsa, sesin tınısal özellikleriyle ilgili konuşmalar genelde öznel deneyim ve ifadelerden beslenmekte, bu yüzden de tını hakkında ortak bir terminoloji belirlenememektedir. 20. yüzyılda teknolojideki ilerlemelerle sesin daha steril şekilde kaydedilebilmesi ve kaydedilen sesin işlenebilmesi için kullanılabilecek araçların sınırsızlığı, özellikle stüdyolarda kayıt aşamasından miks-mastering aşamasına kadar sesin tınısal özelliklerinin geçmişe göre çok daha fazla tartışılmasını kaçınılmaz hale getirmiştir. Bununla ilgili çarpıcı bir örnek, Feld ve arkadaşlarının yaptığı çalışmada verilmiştir (323-328) . Bu çalışmada, Porcello'nun stüdyolarda aldığı konuşma kayıtlarının ve çok sayıda profesyonel ses dergisini kapsamlı incelenmesi sonrası, müzisyenlerin kayıt seanslarında tını hakkında konuşurken 5 farklı strateji kullandıkları ortaya konmuştur: 1) Üzerinde konuşulan sesin tınısal özelliklerinin ağızla taklit edilmesi. Buna örnek olarak, trampet metal çubuklarının trampetin alt tarafında yarattığı titreşimler için /dz:::/ sesi veya 3' lü ritmli marakas çalınması için /s::: ts ts/ gibi örnekler verilebilir. Bu örnekler, tını üzerine konuşanların tınıyı adeta icra ederek anlatmaya çalıştıkları bir stratejidir. 2) Konuşulan sese fonolojik olarak benzerlik gösteren sözcükler kullanılması. Bu stratejide, üzerine konuşulan sese duyum anlamında benzerlik gösteren sözcükler kullanılır. Örnek olarak, klik, bazz, hiss gibi kelimeler verilebilir. Bu stratejinin yukarıdan farkı, tınının anlamsal içeriği bulunan sözcükler kullanılarak anlatılmasıdır. 3) Saf metafor kullanılması. Burada, tını üzerinde konuşulurken, akustik benzerliklerden bağımsız olarak genelde diğer algısal alanlara hitap eden sözcükler kullanılır. Örnek olarak, her biri sinestetik birer metafor olan ıslak, kuru, derin, parlak, yuvarlak, köşeli gibi kelimeler verilebilir. Genelde görüş ve dokunuşa yönelik kelimeler kullanılır. Birinci stratejide olduğu gibi, bu stratejide de tınının farklı algılar üzerinden düşünüldüğü ve ifade edildiği görülmektedir. 4) Başka örneklere referans verilmesi. Bu stratejide de tını başka müzisyenler, kayıtlar, sesler, teknolojiler üzerinden ifade edilerek anlatılır. Bu stratejide, konuşanlar tınıyı kendi üzerinden açıklamak yerine, ortak kültürel bilgiye sahip olduklarını düşündükleri referanslarla ilişkilendirerek anlatırlar. 5) Değerlendirme. Burada, sesin tınısal özelliklerinin kendi üzerinden veya referanslar kullanılarak anlatılması yerine, ortak estetik ve teknik kriterler üzerinden ortaya çıkarılan tını değerlendirilir. Tını üzerinden yapılan tartışmalarda, yukarıda verilen stratejiler sıklıkla birlikte kullanılır. Kişiler arasında etkin bir iletişim oluşması için de tüm bu stratejilerde kişilerin yakın kültürel ortaklığa sahip olması gereklidir. Dolayısıyla, tını ile ilgili ortak bir terminoloji oluşturulması için önemli bir rehber olabilecek yukarıdaki stratejilerden haberdar olmak, stüdyo profesyonellerinin birbirleriyle iletişiminin daha etkin olmasını sağlayacaktır. Tını ATMM 2013 PROCEEDINGS 91 araştırmalarının, daha berrak bir çerçeveye oturması için bu alandaki akustik bilimciler, algı bilimciler, müzikologlar ve profesyonellerle işbirliği içerisinde, kendi terminolojisini oluşturması gerekmektedir. Rehber Ses Araştırmaları Her ne kadar, sesin dinamik özellikleri ve perdesi ile ilgili çalışmalarla karşılaştırıldığında tını ile ilgili çok az çalışma olsa da, yine de özellikle 20. yüzyılın ikinci yarısından itibaren yapılan bazı çalışmalar, tını kavramının yeniden tanımlanması ve ortak bir terminoloji oluşturulması için önemli bir kaynak oluşturabilir. Bu bölümde, bu çalışmalardan bazı örnekler verilmiştir. Ses ve dolaylı olarak tını üzerinde daha sistematik araştırmalara örnek olarak, Schaeffer'in 20 yıllık deney ve araştırmalarının sonucu ortaya çıkan Müzik Objelerinin Bilimsel İncelemesi (Traité des objets musicaux) eseri verilebilir. Bu eserde Schaeffer, sesi notalar ve işaretlerden bağımsız şekilde, deneyimler üzerinden açıklamış, ses objeleri olarak çeşitlerine ve morfolojilerine göre kategorilendirmiş, ve geleneksel ve çağdaş müzik alanında alternatif bir sistematik ortaya koymuştur. Schaeffer bu çalışmalarında, sesin indirgenmiş dinleme yoluyla tamamen sessel özellikleri üzerinden değerlendirilebileceğini iddia etse de, gerek kendisinin daha sonraki ifadeleri gerekse daha sonra yapılmış çalışmalar, sesin diğer algı biçimlerinden tamamen bağımsız değerlendirilemeyeceği Schaeffer sonrası literatürde kabul görmüştür. Ancak, yine de ses araştırmalarında ortaya koyduğu teori ve çeşit ve morfoloji üzerinden ortaya koyduğu sistematikle bu alanda baş yapıtlardan birine imza atmıştır. Smalley de, öncelikli olarak elektroakustik müziğin açıklanması ve anlaşılması amacıyla, Schaeffer'in teorisini de kullanarak, sesin spektral ve morfolojik özellikleri üzerine yoğunlaşmış ve insan algısının farklı boyutlarını (örn. görsel, davranışsal, vb.) ve gündelik yaşamda kullanılan kavramları (örn. kümelenme, birikme, yükselme, vs.) kullanarak kendi deyimiyle, sessel şekilleri sesin spektromorfolojisi üzerinden açıklamıştır (107-125). Çalışmasında, yukarıda belirtilen tını ile ilgili kavramsal çerçeve ve terminoloji ihtiyacını, Smalley dinleme deneyiminin ifadesi ve analizi için ortaya koymuştur. Smalley'in çalışmasında sunduğu kavram ve çerçeve, sesin dinleme deneyimiyle en yakın ilişkide olan özelliği olan tınısal özelliklerle ilgili olarak değerlendirilebilir. Örneğin, çalışmada elektroakustik müzik için kullanılan hareket ve büyüme metaforları farklı kategorilerde detaylandırılmış ve kullanımlarıyla ilgili örnekler verilmiştir. Bu çalışmada kullanılan kavramlar, tını için geliştirilecek terminoloji ve kavramsal çerçeve için önemli katkılar sağlama potansiyelini taşımaktadır. "Tını Paradoksu" adlı makalesinde Fales, tını kavramını incelerken, tınının ses kaynaklarının belirlenmesinde kilit özellik olarak tanımlanmasına karşın, sesin diğer özelliklerine göre en öznel ve fiziksel dünya ile en ayrık özellik olması dolayısıyla kendi içinde bir paradoks barındırdığını öne sürmüştür (56-95). Bu paradoksu açıklarken de, insanın ses algısını oluştururken algısal dengesini sağlamak için akustik sinyalin içinde barınmayan ancak algısal çıktının oluşması sürecinde devreye giren algısal operasyonlar olarak algısallaştırma kavramını kullanmış ve bu algısallaştırma süreçleri üzerinde çalışmıştır. Algısallaştırmanın daha yoğun olduğu zamanlarda akustik sinyal girdisiyle algısal çıktı arasındaki farkın daha da arttığını belirtmiş ve tınının perde ve dinamik özelliklere göre algısallaştırmada en çok kullanılan özellik olduğunu öne sürmüştür. Bir başka deyişle, zaman zaman fiziksel bir sinyal olarak sesin frekans spektrumu üzerinden araştırılan tını kavramı, aynı zamanda bu akustik sinyali alıcıda dönüştüren algısal süreçleri de en çok tetikleyen özellikleri barındırmaktadır. Schaeffer, Smalley ve Fales gibi araştırmacıların çalışmaları, tını araştırmalarını sadece fiziksel veya Batı müziği pratiği üzerinden yürütülen kısıtlı çalışmalar olmaktan öteye taşıyarak, tınıyla ilgili çok-disiplinli çalışma pratiği geliştirilmesine katkı koyma ve bundan sonraki çalışmalar için yenilikçi bir anlayış geliştirme potansiyeli sunmaktadır. Etkileşim: Tınının Farklı Algı Biçimleriyle İlişkisi Doğumdan itibaren –hatta bazı kaynaklara göre anne karnında iken- insanların sesleri ayırt etme ve yorumlamasıyla ilgili yetkinlikleri çeşitli çalışmalarla kanıtlanmıştır. Yakın zamanda yapılan çalışmalarda, deneylere katılan dinleyicilerin sesin oluşmasına yol açan çeşitli kaynakların ve hareketlerin özelliklerini ve oluşan süreçlerin özelliklerini oldukça iyi seviyede belirleyebildikleri görülmüştür (Neuhoff 89-106). Rosenblum'un yaptığı araştırmada, örneğin vurulan çubukların genişlik ve uzunlukları, malzeme çeşitleri, vazolar içine konan sıvıların seviyeleri ve ayak seslerinden yürüyen kişinin cinsiyeti gibi çok spesifik özelliklerin dinleyiciler tarafından yüksek isabetle tespit edildiği belirlenmiştir (213-248). Mehler ve diğerlerinin çalışmasında da, bir aylık bebeklerin annelerinin seslerini ayırt edebilme yetenekleri ortaya konmuştur (491-497). Bir başka çalışmada da (Haueisen ve Knösche 786-792), profesyonel piyanistlerin piyano müziği dinlediklerinde, piyano çalarken beyinlerinde aktif hale gelen bölgenin harekete geçtiğini, ayrıca bu durumun iki haftalık piyano çalışması sonucu profesyonel olmayan kişilerde de gerçekleştiği gösterilmiştir (Bangert ve Altenmüller 1-14). Tını, sadece işitsel değil aynı zamanda görsel ve kinestetik (dokunsal, bedensel) algıyla da yakın ilişki içerisindedir. Örneğin, tını yerine sıklıkla ses rengi sözcüklerinin kullanılması veya bir sesi nitelemek için parlak, donuk sıfatlarının kullanılması sesin görsel algıyla ilişkisinin en açık örnekleridir. Horaccio Vaggione ve Bernard Parmegiani gibi bestecilerin eserlerinin, seslerin ve formun görsel algıda oluşturduğu güçlü imgeler nedeniyle elektroakustik müzik literatüründe görsel müzik olarak nitelendirilmesi de bu açıdan farklı bir örnek olarak verilebilir. 1990'ların sonuna doğru algının bedenselleşmesi ile ilgili sistematik çalışmalar artmış ve bu konu üzerinde çalışan birçok araştırmacı ortaya çıkmıştır. Bu araştırmalarda, algıladığımız veya düşündüğümüz herhangi bir şeyin kafamızda, kendimizin veya başkasının geçmişteki, şimdiki veya gelecekteki beden hareketinden veya kaynağı olduğunu düşündüğümüz şeylerin veya ona ait algıladığımız dokunsal ve hareketsel özelliklerden kaynaklanan mental simülasyonlarla oluştuğu bilgisinden yola çıkılmıştır (Godoy 54-62). Sesin veya müziğin bedenselleşmiş algısında ise en baskın özellikler, gerek sesin kaynağı algısıyla ayrılmaz ilişkisi, gerekse diğer algı biçimleriyle yakın etkileşimiyle sesin tınısal özellikleridir. Bu anlamda, bedenselleşmiş ses algısıyla ilgili çalışmalar da sistematik tını araştırmaları için önemli veriler sunmaktadır. Örneğin, Godoy ses ve hareket arasında benzerlik kurarak, hem sesin hem de sesle ilişkili jestlerin enerji-hareket eğrilerine sahip olduğunu, seste zarf olarak gösterilebilen bu eğrinin sensörler yoluyla harekette tespit edilebildiğini ve bu iki veri arasında bedenselleşmiş algı çalışmaları kapsamında ilişkiler kurulabileceğini öne sürmüştür (5462). Caramiaux ve arkadaşlarının bu ilişkiyi araştıran bir çalışmasında, sesin kaynak bilgisine bağlı olarak bedenselleşmesi ile ilgili ilginç sonuçlar çıkarılmıştır (144-148). Çalışmada, kaynağı belirgin ve kaynağı belirgin olmayan iki kategoride sesler katılımcılara dinletilmiş ve bu seslerin kaynağını kelimelerle ifade etmeleri, hareketleriyle de benzetmeleri istenmiştir. Çalışma sonucunda kaynağı belirgin seslerin kaynağının kelimelerle ifadesinde yüksek oranda benzerlikler, hareketlerle benzetilmesinde ise yüksek oranda farklılıklar olduğu belirlenmiştir. Kaynağı belirgin olmayan seslerde ise tam ATMM 2013 PROCEEDINGS 93 tersi bir durum gözlenmiş, kaynağın kelimelerle ifadesinde farklılıklar görülürken, hareketlerle benzetilmesinde yüksek oranda tutarlılık tespit edilmiştir. Sonuç olarak bu çalışmada, sesin bedenselleşmesinde kaynağın belirginliğinin oldukça etkili olduğu ortaya konmuştur. Bunun gibi çalışmalarla, tınının bedenselleşmesiyle ilgili önemli veriler elde edilebilir ve bu veriler tını araştırmalarında kullanılabilir. Tartışma ve Sonuç Tını kavramı, temelde sesin perdesi ve dinamik özelliklerinin dışında kalan özellikler olarak yapılan yüzeysel ve negatif tanımlamalarla bulanık bir kavramsal çerçeveye sahiptir. Akustik bilimciler, müzikologlar, davranış bilimciler, tınıyla yakın ilişkili çalışan profesyonellerin ve hatta elektroakustik müzik bestecileri ve araştırmacılarının birlikte yapacakları çok-disiplinli çalışmalarla oldukça karmaşık algılanma ve anlamlandırma süreçleri içeren tını üzerine daha kapsamlı bir tanım, terminoloji, sistematik araştırma yöntemleri ve yenilikçi yaklaşımlar geliştirilmelidir. Buna yönelik olarak; - Zihnimizde çeşitli imgelemlerle oluşan hareket algısının ve sesin zarfına benzer şekilde enerji-hareket eğrilerine sahip müzikal jestlerin, tınıyla karşılıklı olarak birbirlerini nasıl etkiledikleri araştırılmalıdır. Bedenselleşmiş ses algısı çalışmaları, bu araştırmalarda önemli bir kaynak olarak kullanılabilir. - Günümüz görsel ve işitsel prodüksiyonlarında ve elektroakustik müzikte görsel imgeler yaratan eserlerde sıklıkla kullanılan tınının sinestetik karakteri, tını alanında yapılacak çalışmalara dâhil edilmelidir. - Bu araştırmalarda kullanılacak yöntemlerle ilgili yakın zamanda ilerleyen teknolojinin olanakları, örneğin bilgisayarların işlem gücüyle yüksek hızda işlenebilen sensörler, hareketlerdeki görsel değişimi bilgisayarlara aktararak sistematik veriler sunan görüntü işlem araçları ve kişinin algısal faaliyetlerinin izlenmesine olanak sunan beyin görüntüleme teknikleri kullanılabilir. Sesin tınısal özellikleriyle ilgili yukarıda verilen kapsamda yapılacak çalışmalarda ortaya çıkacak sonuçlar, etkin sesle etkileşim stratejilerine ihtiyaç duyan dijital müzik enstrümanları tasarımlarında, sesle hareketin etkileşimin enstrüman icracısı üzerinde net bir şekilde görülebildiği ve icra kalitesine doğrudan yansıdığı konser analizlerinde ve de sesle etkileşimin kişinin davranışsal, fiziksel ve ruhsal durumuna doğrudan etki ettiği müzik terapisi gibi yeni gelişen araştırma alanlarında kullanılabilir. Kaynakça Caramiaux, Baptiste, Patrick Susini, Tommaso Bianco, Frédéric Bevilacqua, Olivier Houix, Norbert Schnell, and Nicolas Misdariis. "Gestural Embodiment of Environmental Sounds: an Experimental Study." Proceedings of the International Conference on New Interfaces for Musical Expression (2011): 144-148. Print. Chion, Michel. "Guide to sound objects." Pierre Schaeffer and Musical Research (English translation by Dack, J. and North, C.). Buchet/Chastel (1983). Print. Keil, Charles, and Steven Feld. Music grooves. Chicago, IL: University of Chicago Press, 1994. Print. Feld, Steven, Aaron A. Fox, Thomas Porcello, and David Samuels. "Vocal anthropology: from the music of language to the language of song." A companion to linguistic anthropology (2004): 321-45. Print. Ferrer, Rafael. "Embodied cognition applied to timbre and musical appreciation: Theoretical foundation." British Postgraduate Musicology 10 (2009). Print. Godøy, Rolf Inge. "Images of sonic objects." Organised Sound 15.01 (2010): 54-62. Print. Haslinger, Bernhard, et al. "Transmodal sensorimotor networks during action observation in professional pianists." Journal of cognitive neuroscience 17.2 (2005): 282-293. Print. Haueisen, Jens, and Thomas R. Knösche. "Involuntary motor activity in pianists evoked by music perception." Journal of cognitive neuroscience 13.6 (2001): 786-792. Print. Kozak, Mariusz, Kristian Nymoen, and Rolf Inge Godøy. "Effects of spectral features of sound on gesture type and timing." Gesture and Sign Language in Human-Computer Interaction and Embodied Communication. Springer Berlin Heidelberg, 2012. 69-80. Print Leman, Marc. Embodied Music: Cognition and Mediation Technology. The MIT Press, 2008. Mehler, Jacques, et al. "Infant recognition of mother’s voice." Perception 7.5 (1978): 491497. Print. Neuhoff, John G. ed. Ecological psychoacoustics. Amsterdam: Elsevier Academic Press, 2004. Print. Rosenblum, Lawrence. "Perceiving Articulatory Events: Lessons for an Ecological Psychoacoustics. In Neuhoff, John G., ed. Ecological psychoacoustics. Amsterdam: Elsevier Academic Press, 2004. Print. Porcello, Thomas. "Sonic Artistry: Music, Discourse and Technology in the Sound Recording Studio, PhD Dissertiation", Department of Anthropology, University of Texas at Austin, (1996). Smalley, Denis. "Spectromorphology: explaining sound-shapes." Organised sound 2.2 (1997): 107-126. Print. ATMM 2013 PROCEEDINGS 95 VIDEO OYUN SEKTöRüNDE KULLANILAN SES TASARIMI TEKNİKLERİ, SANAL MüzİSYENLİK KAVRAMI VE DEğİŞEN MüzİSYENLİK PRATİKLERİ: ROCKSMITH OYUNU öRNEğİ Giriş Video oyunlar değişik yaş grupları için en az sinema kadar tercih edilen bir eğlence unsurudur. Günümüzde, oldukça artan bütçeleriyle video oyun geliştiricileri, sürekli olarak daha gerçekçi ve dramatik bir görsel – işitsel deneyim yaratma arayışındadır. Oyunlar için ses tasarımı özellikle son 35 yılda oldukça ilerleme kaydetmiştir (Paterson vd. 1). Bu süreçte oyunlardaki işitsel deneyim, basit seslerden büyük orkestral kayıtların, saatler süren diyalog ve efekt kayıtlarının bulunduğu, oyuncunun hareketlerine ve değişen ortamlara göre kendini adapte edebilen büyük boyutlu audio kanallarına evrilmiştir. Bu durum ses sektörü için de yeni bir çalışma alanı oluşturmuş, ses mühendisleri için öğrenilecek yeni teknik ve yöntemleri beraberinde getirmiştir. Bu çalışmada öncelikle günümüz ses teknolojisi ile oyun sektörü arasındaki ilişkiler özetlenecek, kullanılan prodüksiyon tekniklerine yönelik bilgiler verilecektir. Daha sonra özellikle müzisyenlik ve müzik icrasına yönelik oyunların, bireylerin gerçek yaşamda elde edemedikleri kimi beceri ve statüleri elde etmelerini sağlayan birer sanal deneyim aracısı olarak nasıl iş gördüğü anlaşılmaya çalışılacaktır. Oyunlarda Ses Tasarımı ve Temel Aşamalar Film sektöründeki müzik ve ses tasarımı teknikleri oyunlarda kullanılan teknikler ile büyük ölçüde örtüşür çünkü oyun sektörü temel yöntem ve tekniklerini film sektöründen almıştır. Bunun sonucu olarak oyun sektörünün ve teknolojik olanakların gelişmesi ile beraber oyun prodüksiyonunda çalışan ses mühendislerinden Hollywood Tarzı ses tasarımları beklenmeye başlamıştır (akt. Walder 2). Her iki sektörde de görüntü ile beraber akan sesin görsel gerçekçiliği desteklemesi ve deneyimi geliştirmesi beklentisi temeldir. Böylece izleyici – oyuncu ekrandaki sanal ortam ile ilgili daha tatmin edici bir ilişki kurabilmektedir. Sinema sektörü sadece bu amaçla dinleyici noktasındaki ses algısını geliştirecek sistemlerin geliştirilmesine de ön ayak olmuştur. Surround, ambisonics gibi dinleme formatları bu amaca hizmet etmekte ve oyun sektörü tarafından da tüm olanakları ile kullanılmaktadır. Eğer oynanan oyun bu sistemlerin kullanımına yönelik 3D bir ses motoru kullanıyorsa, oyunun uzaysal ortamındaki her alan için ayrı akustik karakterler belirlenebilir (Gal vd. 2). Oyunlarda kullanılan ses tasarımı yöntemlerinin görüntü üzerine sesle çalışılan diğer ortamlardaki tekniklerden beslendiğinden bahsetmiştik. Ancak oyunlarda deneyimlenen ses ile lineer akan görüntü üzerine yerleştirilmiş ses arasında ciddi farklar bulunmaktadır. Oyunlardaki ses tasarımı oyunun belirlediği alan içerisinde kısmi bir belirsizliğe dayalı olması ile nispeten televizyondaki canlı yayınlara benzetilebilir. Post prodüksiyon aşamasından geçmiş lineer medya ürünlerinde rastlamsal seslendirme unsurları yoktur. Örneğin filmlerde ses tasarımcısı hangi frame de hangi sesin gireceğini bilir, hangi müziğin hangi sahnede çalınacağı, hangi seslendirme unsurunun hangi kişi, obje ya da olayla ilişkilendirileceği bellidir. Prodüksiyon aşamasından izleyiciye ulaşıncaya kadar bu bahsettiğimiz unsurların yerleri, tekrar sayıları ya da miksaj özellikleri değişmez. Tüm bu unsurlar görüntüye adeta damgalanmış ve prodüksiyonun sabit, değişmez bir parçası olmuşlardır. Oyun için seslendirme ise nispeten rastlamsal ve ortama göre adaptasyon becerileri olan ses tasarımlarını gerektirir. Bu başka bir deyişle interaktivite olarak tanımlanabilir ve interaktivite oyun için seste en büyük mücadeledir (akt. Walder 1). Bu ortamda çalınacak sesler için tetikleyici olan unsurlar bir hareket, bir ortam değişikliği, oyundaki karakterin ruh hali değişikliği gibi sürekli değişken olan durumlara bağlıdır. İki farklı oyuncunun aynı oyunu oynaması durumunda dahi oyuncuların aynı ses tasarımlarını dinlemesi mümkün değildir. Oyunlardaki bu ses tasarım yöntemlerinin oyun bazlı detaylı incelenmesi ne yazık ki o kadar da kolay değildir. Piyasadaki oyun sistemleri araştırmacılar için serbestçe kullanıma açık değildirler ve işbirliği ile yapılan çalışmalarda dahi araştırmanın yayınlanması entelektüel mülkiyet sınırlamaları yüzünden mümkün olamamaktadır (Huiberts Van Tol, Went 1). Bunun yerine genel olarak oyunlar için ses tasarımı yapılırken hangi aşamalardan geçildiğine ve tasarım sürecine göz atmakta fayda vardır. Oyun sektöründe ses tasarımı aşamalarını Schmidt, spotting, ses yaratımı ve miksaj aşamaları olarak tanımlar (Schmidt 2). Spotting aşaması seslerin yerleştirileceği anların belirlenmesi aşamasıdır. Bu aşama film gibi lineer akışa sahip medyalarda zamansal ipuçlarının ya da sektördeki adı ile timecodeların (zamansal kodlar) belirlenmesi ile sağlanır. Ancak video oyunlar lineer bir akışa sahip olmadıkları için timecodelar sadece oyunda yer alan ara sahnelerde (cutscene) işe yarayabilir. Oyunun oynanırken kullanıcının oyun ile etkileşimi sonucu gerçekleşen davranışlar ve bunlara verilen tepkiler söz konusudur. Örneğin oyuncunun bastığı bir tuşla oyundaki karakter elindeki sopayı savurur. Sopa savrulurken veya sopa bir yüzeye temas ettiğinde de farklı sesler oluşur. Dolayısıyla video oyunlarda spotting belirli davranışlar, ortam değişimleri, ruh hali değişimleri gibi ipuçları ve olaylarla ilişkilendirilerek sağlanır. Schmidt'in belirttiği ikinci aşama olan ses yaratım aşaması, yani oyuncunun oyunu oynarken deneyimlediği ortamlar, kişiler, olaylar, anlar ve davranışlarla ilgili seslerin oluşturulması aşamasıdır. Bu seslerin yaratımı kayıt edilerek ve sentezleme ile sağlanabilir. Kayıt edilen sesler aynen geleneksel ses tasarımında olduğu gibi ambiyans, efekt, diyalog, foley ve müzik kayıtlarıdır. Sentezleme ise kayıtlı seslerin değiştirilmesi, bozulması ya da yepyeni seslerin yaratılması, tasarlanması için kullanılır. Günümüzde çoğunlukla başvurulan yöntem tetiklenen kayıt edilmiş seslerle çalışma yöntemidir. Raghuvanshi'ye göre bu yöntemin avantajı basit ve hızlı çalışma imkânı sağlamasıdır ancak Raghuvanshi bu yöntemin iki dezavantajını vurgular. Bunlardan ilki bu seslerin tekrar edici sesler olması yani oyunda tetiklendikleri her anda aynı seslerin çalınmasıdır. Bu yüzden hem gerçekçi değildir hem de oyuncu açısından sıkıcı bir etkisi olmaktadır. İkinci sorun ise büyük prodüksiyonlarda oyundaki sesler için orijinal seslerin kayıt edilmesi yönteminin iş gücü gerektirmesi ve yorucu bir süreç olmasıdır. Bu sebeple sentezleme teknikleri de kullanılmaya başlanmış ve oyunlarda yer almaya başlamıştır. Fiziksel ses sentezleme oyundaki değişken faktörlere (yer, materyal özellikleri, obje geometrisi vb.) bağlı olarak seste değişiklikler yapabilmekte ve bunu yaparken kayıt edilmiş sesin dezavantajlarını ATMM 2013 PROCEEDINGS 97 taşımamaktadır. Ancak bu tekniğin kullanılması ses motorunu bilgilendirecek bir fizik motorunu gerektirmekte ve kayıtlı sese göre daha fazla işlem gücü gerektirmektedir. (Raghuvanshi vd. 68) Hem kayıt edilmiş ses hem de sentezleme yöntemleri kullanılarak seste tekrar problemini yok edecek bir yöntem de granular synthesis (granüler sentezleme) yöntemidir. Bu yöntemde basit bir anlatımla ses motoru aynı olay ya da tetikleyici için kayıt edilmiş birden çok ses dosyasını alır ve bu ses dosyalarını küçük parçalara böler. Daha sonra bu parçaların rastgele birleşimleri ile sınırsız sayıda ses üretilebilir. Bu durumu Vachon'un verdiği bir örnek çok iyi açıklamaktadır. Örnek şu şekildedir. İçerisinde patlayan objeler bulunduran bir oyunda sesler kısa sürede tekrar edici bir hal alacaktır. Bu durumda patlama olayları için alternatif ses örnekleri kullanılabilir ancak bu sesin uzunluğuna da bağlı olarak belirgin bir RAM tüketimine sebep olacaktır. Ancak granüler sentezleme yöntemi ile birkaç patlama örneği frekans bileşenlerine ve fonksiyonlarına (patlama bang etkisi, bas gürlemeleri, gövdeleri ve yüksek frekansta çatırdamalar gibi) göre bölünebilir. Bunları ses motoru bu özellikleri ile birleştirdiğinde ve perde, ses seviyesi ve atak zamanlarına göre rastgele yerleştirdiğinde birkaç temel ses örneği ile birbirine benzeyen ancak özgün patlama sesleri elde edilebilir (Vachon 5). Granüler sentezleme yönteminde kullanılan küçük ses partiküllerine wavelet adı da verilir ve farklı oyun platformlarında ve mobil cihazlarda oyun müziği sentezlenirken kullanılırlar (Paterson vd. 3). Son aşama olan miks aşaması Schmidt'e göre ses tasarımının diğer alanlarında karşılığı olmayan bir aşamadır çünkü oyun içerisinde miksi yapan bir kişi değil oyunun kendisidir. Bitmiş görüntüye sesin yerleştirildiği bir post prodüksiyon süreci yoktur çünkü bitmiş bir video yoktur. Video oyuncu oyun içerisinde ilerledikçe oluşmaktadır (Schmidt 3). Bu noktada interaktif miks kavramı ve interaktif miks için yeni yöntem ve araçların kullanımı başlamıştır. Bu yöntemlere bir örnek, çalınacak ses dosyalarının oyun içerisinde nasıl seslendirileceğine ve dosyaların organizasyonunun sağlanmasına yöneliktir. Oyun motorlarının ve oyun oynanan cihazların seslendirme becerileri geliştikçe mikslenecek ses dosyalarının boyutu ve organizasyonu da değişmiştir. Örneğin eski oyunlarda çalınacak ses dosyalarının her biri, ayrı birer dosya olarak saklanır ve gerektiğinde oyun tarafından çağırılırdı. Ancak interaktif miksin bir sonucu olarak yeni oyunlarda ses dosyalarının boyutları oldukça büyümüş, yeni bir dosya organizasyonu ve dosya sıkıştırması ile boyutların küçültülmesi gerekmiştir. Böylece kullanılan seslerin hepsinin bir arada ve sıkıştırılmış olarak bulunduğu öbek dosyalar devreye girmiş ve istenilen sesler oyun tarafından bu öbeklerin içerisinden çağırılarak ve gerekli miks parametreleri oyunun kodu tarafından gerçek zamanlı olarak belirlenerek seslendirilmeye başlanmıştır. Bu parametreler reverberation, frequency modulation, eq otomasyonu vb. miks parametreleridir ve oyunda oyuncunun davranışlarına göre ses tasarımcısının belirlediği şekilde değişirler. Örneğin oyundaki karakter oyuncu tarafından küçük hacimli bir odadan büyük hacimli bir odaya geçirildiği anda ortamdaki reverberation ses tasarımcısının belirlediği RT değerlerine bağlı olarak değişir. Bu örnekteki interaktif miks unsurunu tetikleyen oyundaki karakterin bir odadan diğer odaya geçişidir ve bu tamamen oyuncuya bağlıdır. Bunların yanında oyun için yapılan ses tasarımının oyunun koduna emplementasyonu miks aşaması ile iç içe, ancak başlı başına bir görev ve süreçtir. Bu aşamada yapılan ses tasarımı sonucu oluşturulmuş ses yığınları oyun motoruna tanıtılır ve hangi davranış ya da olayın ardından hangi sesin nasıl parametreler ile seslendirileceği oyunun kodu içerisine tanımlanır. Bu oyunun ses motoru olarak işlev gören araçlar yardımı yapılır ve tasarlanan seslerin oyunda belirlenen an, davranış ve olaylara bağlı olarak yerleştirilmesi işlemidir. Bu aşama için günümüzde Wwise, Fmod, Xact gibi araçlar kullanılmaktadır. Bu araçlar miks aşaması için de kullanılmakta ve değişecek parametrelerin, eklenecek efektlerin veya otomasyonların hangi anlarda tetikleneceğini, oyunda hangi ortamda hangi ambiyans etkisinin etkin olacağını, hangi durum ve olayda hangi müzikal öğenin seslendirileceğini belirlememizi de sağlarlar. Örneğin Guitar Hero oyununda ekrandaki yol üzerindeki bir butona basılması gereken an geldiğinde ses motoruna iki davranış tanımlanır. Bunlardan ilki butona doğru anda basıldığını belirleyen davranıştır ve bu tetikleme algılandığında ses motoru o davranışla ilgili olan ses parçasını çalmaya başlar. Bu ses parçası o an çalınan eserin birkaç notalık, saniyelik ya da ölçülük bir parçasıdır. Eğer butona zamanında basılmadıysa ikinci davranış yani basılması gereken butona zamanında basılamadı davranışı etkin olur ve ses motoru hata sesini çalar. Bu noktada Wwise, Fmod gibi araçların işlevi oyun motoru ile senkronize olarak ses ve miksaj öğelerine ait tetikleme anlarının belirlenmesi, her bir tetiklemede hangi seslerin çalınacağının miksaj özellikleri ile belirlenmesi ve oyunun oynanacağı platforma göre (PC, Playstation, Xbox vs.) ilgili ses motorunun oluşturulup öbek dosyalar şeklinde hazırlanmasıdır. Bahsettiğimiz bu son aşama emplementasyon aşamasını oluşturmaktadır. Rocksmith Oyunundaki Ses Tasarımı özellikleri Her ne kadar oyunun ses motoruna ve ses motorunun işleyişine doğrudan ulaşmak mümkün olmasa da bu türdeki oyunlar için kullanılan kimi ses tasarım özelliklerinden bahsetmek mümkündür. Rocksmith'in ses tasarımı özellikleri de türe özgü olan farklılıklar içermektedir. Bu tip oyunlarda herhangi bir karakterin ya da nesnenin birinci kişi ya da üçüncü kişi gözünden gerçek zamanlı olarak kontrolü söz konusu değildir. Onun yerine kontrol edilen şey doğru anda doğru notayı ya da akoru basma ya da belirli bir çalım becerisini (nota kaydırma, süsleme vb.) gerçekleştirme eylemidir. Bu sebeple oyun motorunda tanımlanan komutların pek çok oyun türüne göre daha basit komutlar olduğu söylenebilir. Guitar Hero, Rock Band, Rocksmith gibi oyunlarda seslendirilecek eserlerin çok kanallı kayıtları kullanılır. Bu kayıtlar doğrudan eseri besteleyen grup / sanatçılardan ya da parçayı piyasaya süren prodüksiyon şirketlerinden temin edilir. Kullanılan kayıtlarda kayıt kanallarına ulaşılamadığı durumlarda aynı eserin oyun için tekrar kayıt edilmesi olasıdır. Örneğin Sex Pistols grubunun Guitar Hero 3 oyununda kullanılacak parçalarına ait kanal kayıtlara ulaşılamadığından, grup tekrar stüdyoya girmiş ve parçaları yeniden kaydetmiştir. Kimi durumlarda da telif hakkı sorunları yüzünden bazı gruplarla çalışılamadığı bilinmektedir. Bu gibi durumlarda o parçayı çalan bir cover grubunun parçayı orijinali gibi çaldığı kayıtlar kullanılır. Guitar Hero ve Rock Band gibi oyunlarda oyuncu gitar, bas, davul çalabilir ya da vokal yapabilir. Rocksmith de ise sadece gitar ve bas çalınabilmektedir. Diğer kanallardan izole edilmiş gitar kanalları ve bas kanalları parçanın ölçü sayısı ve nota değerlerine göre zamansal olarak işaretlenir. Daha sonra aynı wavelet ya da granüler sentezleme mantığında olduğu gibi gitar ya da bas kanalı parçalara bölünür. Her bir tetikleyici bu parçaların seslendirilmesini sağlamakta ve oyunda elde edilen başarı ya da başarısızlığı belirlemektedir. Yukarıda bahsettiğimiz tüm bu sistem Rocksmith oyununda Wwise yazılımı aracılığıyla oluşturulmuş ses motoru tarafından yürütülmektedir. Bir oyuncunun oynadığı oyundan keyif alması oyunun sağladığı atmosfer – ortam içerisinde aldığı keyif ile ilişkilidir. Farklı türlerdeki oyunlar tabii ki farklı deneyimler sağlarlar ve bu durum oyunların tercih edilmelerinde önemli bir etkendir. Uzun yıllardır da piyasada spor oyunları, bulmaca tipi oyunlar gibi kişisel becerileri kullanmayı gerektiren oyunlar bulunmaktadır. Son yıllarda ise sadece belirli becerileri ön plana çıkaran oyunlar piyasaya çıkmıştır. Müzik icrasına yönelik oyunlar bunlara iyi örneklerdir. ATMM 2013 PROCEEDINGS 99 Band Hero, Guitar Hero, Rock Band vb. oyunlar bir kontrol arabirimi ile doğru anda doğru tuş veya tuş kombinasyonlarına basılarak bir müzik eserinin icrasına dayanan oyunlardır. Gitar, bas, davul ve vokal tercihleri ile oynanabilen bu oyunlar, çeşitli zorluk seviyeleri ile müzisyen olan - olmayan herkesin oynayabilmesi için tasarlanmışlardır. Bu oyunların herhangi bir şekilde çalgı çalmak ya da vokal becerisini öğretmek gibi bir amacı yoktur. Nitekim oyunda kullanılan arabirimler çalgı çalma becerisini geliştirebilecek arabirimler değildir. Ancak 2011 yılında Ubisoft firmasının piyasaya sürdüğü Rocksmith oyunu bu noktada türdeşlerinden ayrılır. Bu oyunu oynamak için oyun konsolu ya da bilgisayara USB bağlantı noktasına özel bir giriş arabirimi ile bağlanan gerçek bir gitar kullanmak gerekmektedir. Oyuncunun yapması gereken oyunun sizi yönlendirdiği şekilde ve başarı durumuna göre kendini oyun sırasında adapte eden zorluk seviyelerinde çalgı icrasında bulunmaktır. Oyunun geliştiricileri oyunun bu özellikleri ile gitar ya da basgitar çalmayı öğreten bir araç olduğunu belirtmektedirler. Bu özellikleri ile oyun çalgı çalmayı öğrenme ve basitten zora bilindik eserleri seslendirme deneyimlerinin yanında prova odasından başlayarak büyük konserlere kadar çeşitli müziksel icra deneyimlerini oyuncuya yaşatmaktadır. Başka bir deyişle oyun oyuncuya sanal bir müzisyenlik deneyimi yaşatmaktadır. Rocksmith, Sanal Deneyim ve Sanal Müzisyenlik Son yıllarda bilgisayar oyunları hem popüler kültürün bir görünümü olarak hem de bağımsız sanat yaratımları olarak akademik literatürün ilgisini çeker. Bununla ilişkili olarak araştırmacılar, oyunları oluşturan unsurları ve bu unsurlardan biri olarak oyun oynama deneyiminde müziğin rolünü soruştururlar. Araştırmaların çoğu oyunlar için hazırlanan müziklerin yaratım süreçleri ve işlevlerine odaklanır (Gibbons 40). Özellikle ludomusicology adı verilen ve müzik araştırmacılığında yeni bir alt disiplin olarak görünürlük kazanan alan, konuyla ilgili çalışmalarda başat rol oynar. Bu disiplinde yapılan çalışmalar daha çok oyun müziklerinin yaratım süreçleri, oyun içindeki işlevleri gibi meseleleri betimsel düzeyde inceler. Müzikte kullanılan simge ve kodların, oyunun atmosferi ve oyun içi sahnelerin etkisini arttırmada ne şekilde iş gördüğü, uzlaşımsal film müziği klişelerinden hareketle anlaşılmaya çalışılırken kimi çalışmalar da oyunlarda tercih edilen müzik türleri ile oyun içeriği arasında ilişki kurmayı amaçlar. Band Hero, Guitar Hero ve bu çalışmanın konusu olan Rocksmith gibi oyunlar örneğinde müziğin bir oyun olarak kullanımı, bu disiplin içerisinde henüz el değmemiş bir konu görünümündedir. Müzisyenliğin bir oyuna dönüştüğü ve oyuncunun müzisyen konumuna yerleştiği bu tip oyunlarda amaç oyuncuyu doğrudan müzik pratiği içine almaktır. Yani bir anlamda oyuncu, oyunun asıl amacı olan müziğin icracısı konumuna gelir. Rocksmith adlı oyun ilk bakışta Band Hero, Guitar Hero gibi oyunlardan çok da farklı görünmez. Ancak oyun, öncelikle gerçek çalgı kullanması, bu çalgıyı çalmayı hiç bilmeyen birine müzisyenlik deneyimi yaşatması ve oyun içerisinde yapılan modellemeler yoluyla oyuncuya, gerçeğe yakın sahne deneyimleri yaşatması gibi unsurlarla muadillerinden ayrılır. Rocksmith bu içeriğiyle oyuncuyu, gerçek bir müzik etkinliği içine, müzisyen kimliği ile yerleştirir. Daha önce herhangi bir çalgı çalmamış bir birey dahi, başlangıç seviyesindeki egzersizlerini tamamladıktan sonra, bazı şarkılara eşlik edebilir hale gelir. Böylelikle oyuncu/birey, gündelik yaşam pratiği içerisinde sahip olmadığı bir role (müzisyenlik) bürünür. Oyuncu bu role Band Hero, Guitar Hero gibi oyunlarda olmayan önemli bir unsurla, yani gerçek çalgıyla bürünmüş olur. Gündelik yaşam deneyiminde uzun saatler hatta aylar sonunda elde edilebilecek olan, bir müzik grubunda çalma yeterliliği, oyun yoluyla yaklaşık iki saatlik bir alıştırma sonucu elde edilir. Yani oyuncu, sanal dünyanın kendisine kazandırdığı, gündelik yaşamdakinden çok daha fazla sayıdaki aktivite alanlarına dâhil olur. İnternet ve video oyunlarının yaygınlaşması ile sanal alem (cyberspace), bireylere yeni aktivite alanları yaratır. Giderek "gerçekliğin" yerini almaya başlayan sanal alem, sadece günümüz politikasını ve ekonomisini şekillendiren bir unsur olarak kalmaz. Bireyler, bilgisayarlarının kazandırdığı imkânlar dâhilinde sosyal medya ve oyunlar başta olmak üzere hem vakit geçirmeye yönelik aktiviteleri sürdürürler hem de bu aktiviteler yoluyla kendi kimliklerini yeniden tanımlarlar. Bireyler artık bir anlamda kendi kimliklerini, televizyonlarının ve bilgisayarlarının ekranlarından baktıkları şeyler çerçevesinde tanımlamaya başlarlar. Bireyin ne izliyor olduğu, hangi siteleri takip ediyor olduğu, hangi haber sayfalarından günceli takip ediyor olduğu gibi basit pratikler, bireyin kendi entelektüel, politik, sosyal kimliklerini tanımlamada kullandığı simgelere dönüşür. Bunun yanı sıra bilgisayar oyunları bireye, başka bir hayatı yaşayabildiği yeni deneyim alanları verir. Bireyler, bilgisayarlarında seçtikleri alternatif yaşamları ile kendilerine alternatif kimlikler yaratırlar. Rol yapma oyunları (role playing) başta olmak üzere, oyun karakterinin kendisine ait bir yaşamının sürdüğü pek çok oyun örneğinde, oyuncu konumundaki birey, kendi yaşamına alternatif bir gerçeklik yaratır. Gündelik yaşamın normal, rutin ve olağandışı olmayan yapısından (Lefebvre'den aktaran Harris 55) oyuncu, bu yolla uzaklaşmaya çalışır. Bu oyunlar yoluyla bireyler, gündelik yaşamın akışı içerisinde gerekli olan kimi süreçleri yaşamadan, pek çok farklı sosyal rolü de elde ederler. Örneğin kapitalist ekonominin gerektirdiği şirketleşme sürecinin gereklerini yerine getirmeden başarılı bir iş adamı haline gelebilirler, büyük risklere girmeden ve yıllar sürecek eğitimlere gerek kalmadan bir komando olabilirler ya da sosyal anlamda prestijli kabul edilen kimi yetenekleri (müzisyenlik becerileri gibi) oyun içerisindeki akışı başarılı biçimde yerine getirerek elde edebilirler. Oyuncular bu oyunlarda, çoğu zaman fantezi ya da bilim kurgu edebiyatından ödünç alınan başka dünyalarda, o dünyaya özgü ırklardan birinin üyesi olarak, gerçek zamanlı bir yaşam sürdürür. Oyun içerisinde zaman ve oyun sadece aksiyon sahneleri ya da üstesinden gelinmesi gereken görevlerle geçmez. Uyuma, yeme/içme, cinsel aktivite, muhabbet, yürüyüş, ev yapma, alışveriş gibi gündelik yaşamda karşılığı olan aktiviteler de oyuncu tarafından sürdürülür. Bu aktivitelerin tümü, oyuncunun alternatif yaşamının doğal parçaları olarak, oyuncuda gerçeklik hissini artırmaya yarar. Bu oyunların en önemli özelliği oyuncuların iyi bir savaşçıya dönüşürken, eşsiz atletik yetenekler kazanırken ya da mükemmel bir eş olurken, aslında yerlerinden bile kalkmamaları yani bu aktivitelerin hiç birini yapmamalarıdır. Gündelik yaşamda kazanımı, ciddi anlamda emek isteyen beceriler, tuşların kullanımı ile elde edilir. Tabiii ki yaşanılan bu deneyim, gerçek bir deneyim olmanın ötesinde bir sanal deneyim (virtual experience) olarak, geçeğin yerine geçen bir biçim alır. Heeter'a göre sanal deneyim (ve dolaylı deneyimler) aracılı deneyimlerdir. Sanal deneyim, sanal sağlayıcılığın doğası itibariyle etkileşimli (interactive) sanal ürünler tarafından sağlanır (aktaran Li, Daugherty ve Biocca 395). Sanal kavramı, elektronik aracılar tarafından gerçekleştirilen ya da uygulanan kavramlar, pratikler ve organizasyonları, gerçek yaşamdaki eşdeğerine benzetilen referanslarla işleyen deneyimler anlamına gelir. Böylelikle sanal, doğrudan bir deneyimin çevrim içi (on-line) modellemesini (simulation) veren, deneyime dayalı ürünün aktarımı olarak tanımlanır. Sanal deneyim, sanal bir iletişim kanalı aracılığıyla gerçekleşen bir doğrudan deneyimdir. Ürünün (ya da durumun), deneyime dayalı niteliklerinin dijitalleştirilmesi ve çevrim içi iletilmesi söz konusudur ATMM 2013 PROCEEDINGS 101 (Griffith ve Qimei 56). Griffith ve Qimei'ye göre mevcut teknolojiler tını (sound) gibi bazı deneyime dayalı niteliklerin aktarımına olanak sağlarken, dokunma ve tat alma gibi bazı nitelikler halen sıkıntılıdır. Bazı durumlarda müzik gibi kimi unsurlar bütün olarak dijitalleştirilebilmekte, giyim gibi bazı unsurlar da kısmen dijitalleştirilebilmektedir (Griffith ve Qimei 57). Dijitalleştirilen unsurun modellemesinin yarattığı gerçeklik hissi önemlidir. Sanal deneyimin özünü oluşturan şey işte burada kendini gösterir: orada ya da o durumun içinde olmadan, orada ya da o durumun içinde gibi olma. Yani sanal deneyim, modellemeler yoluyla yaratılan gerçek gibi algısının işletildiği ve deneyimi yaşayan kişiye, olabildiğince gerçek hissinin verildiği bir yanılsama sağlar. Oyun aşağıda sıralanan özellikleriyle sanal deneyimi oyunculara yaşatır: 1. Oyun gitar ya da bas icrası ile belirli eserlerin seslendirilmesi üzerine kuruludur. Bu seslendirme esnasında oyuncu her eserin orijinal tınısına sadık kalacak şekilde gitar ya da bas tonlarını kullanabilir. Yani eserin orijinal soundu oyun sırasında elde edilir. 2. Oyunda bir kariyer modu bulunmakta, dolayısı ile oyuncu-icracıdan ilerleme beklenmektedir. Bu ilerleme oyun tarafından oyuncuya sanal deneyimi boyunca gösterdiği başarıların bir ödülü olarak verilir. Oyuncu müzik kariyerine küçük kulüp ve underground barlarda başlarken oyunda ilerleme kaydettikçe büyük stadyum konserlerine kadar yükselebilmektedir. 3. Oyuncunun sahne aldığı mekânlarda oyuncu aynı zamanda izlerkitle ile de ilişki halindedir. 3 boyutlu modelleme ile elde edilen ortamda, izleyici grubu icrası yapılan eserler boyunca oyuncunun bakış açısından görülür. İzlerkitle oyuncunun icra sırasında gösterdiği başarıya göre tepkiler verir ve oyuncunun ilerlemesi üzerinde doğrudan etkilidirler. İcra edilen parçada gösterilen başarı oyuncunun yuhalanmasını, alkışlanmasını hatta sahneye tekrar çağırılmasını sağlayabilir. Oyuncunun iyi performansıyla paralel olarak kimi izleyicilerin cep telefonları ile video ya da fotoğraf çekmeleri, alkış, dans ve tezahüratla şarkıya eşlik etmeleri, hatta bazı izleyicilerin oyuncunun sanal karakteri ile flört etmeleri görülebilir. 4. Oyuncu oyun içerisinde ilerledikçe ve yeni eserler seslendirdikçe o eserlerde eserin gerçek sahibi olan grupların ya da kişilerin kullandığı ekipmanlara sanal olarak sahip olabilmektedir. Bu pek çok kişi için gerçek hayatta yaşanamayacak bir deneyim halini alır. Sonuç Oyunlar için ses tasarım teknikleri seslendirme ve ses tasarımı sektörünün yeni ilgi alanlarındandır. Bu alanda çalışan deneyimli ses teknisyenlerinin ve ses mühendislerinin varlığı oyun sektörü için de eşsiz önem taşımakta, programlanan oyunların ve kullanıcıya sunulan prodüksiyonların kalitesinde gözle görülür bir artışı da beraberinde getirmektedir. Artan audio - video gerçekçiliğin oyun severler üzerindeki bilişsel ve kişisel becerilere yönelik etkileri ise tartışma konusudur. Oyuncuyu her geçen gün daha gerçekçi bir sanal deneyimin bir parçası yapan oyun sektörü, kişisel becerilerin geliştirilmesi, öğrenme yöntem ve tekniklerine olan etkileri ile de oyuncuyu etkilemektedir. Oyun sektörünün bu etkileri ile bireyin oyunda yaratılan sanal dünya ile etkileşimi özellikle müzisyenlik pratiğinin ön planda olduğu oyunlarda dikkat çekicidir. İnternet ve video oyunlarının yaygınlaşması ile sanal alem (cyberspace), giderek gerçekçiliğin yerini, almaya başlamıştır. Bireyler, bilgisayarlarının kazandırdığı imkânlar dâhilinde sosyal medya ve oyunlar başta olmak üzere hem vakit geçirmeye yönelik aktiviteleri sürdürürler hem de bu aktiviteler yoluyla kendi kimliklerini yeniden tanımlarlar. Rocksmith oyunu bu şekilde oynanan ve oyuncuyu gerçek müzisyenlik deneyimi ile buluşturan bir oyundur. Oyun oyuncuyu bir grupta gitar ya da bas çalan müzisyen olarak prova ve canlı performanslardan oluşan bir sürece sokmaktadır. Bu süreçte oyuncu provasını gerçekleştirdiği parçaları bütçesi giderek artan konser etkinliklerinde sanal dinleyiciler ile paylaşmakta ve dinleyicilerden aldığı beğeni miktarına göre kariyerinde yükselmektedir. Oyuncunun bu serüven esnasında çaldığı parçaların zorluğu giderek artmakta ve oyuncunun yeni çalım teknikleri de öğrenmesini gerektirmektedir. Oyuncu böylelikle gündelik yaşamında elde edemeyeceği alternatif bir kimliği (müzisyenlik, popülerlik) ve bu kimliğin getirdiği pek çok deneyimi sanal olarak yaşar. Kaynakça Gal, Viviane, Cecile Le Prado, J.B. Merland, Stephane Natkin, ve Liliana Vega. "Processes and Tools Used in the Sound Design for Computer Games." International Computer Music Conference Proceedings. Vol. 2002. San Francisco, 2002. Basılı Yayın. Gibbons, William. "Blip! Bloop! Bach! Some Uses of Classical Music on the Nintendo Enterteinment System." Music and the Moving Image 2. 1 (2009): 40 52. Basılı Yayın. Griffith, David A., ve Qimei Chen. "The Influence of Virtual Direct Experince on On-Line Ad Message Effectiveness." Journal of Advertising 33. 1 (2004): 55- 68. Basılı Yayın. Harris, Keith K. "Extreme Metal: Music and Culture on Edge." Berg Publishers. New York, 2007. Basılı Yayın. Huiberts, Sander, Richard Van Tol, ve Kees Went. "Game Audio Lab – An Architectural Framework for Nonlinear audio in Games." AES 35th International Conference. London. AES E-Library, 2009. Basılı Yayın. Li, Hairong, Daugherty Terry, ve Biocca Frank. "The Role of Virtual Experince in Consumer Learning." Journal of Consumer Psychology 13.4 Lawrence Erlbaum Associates. (2003): 395- 407. Basılı Yayın. Paterson, Natasa, Katsiaryna Naliuka, Soren Kristian Jensen, Tara Carrigy, Mads Haahr, ve Fionnula Conway. "Spatial Audio And Reverberation in an Augmented Reality Game Sound Design." Audio Engineering Society 40th International Conference. Tokyo. AES E-Library, 2010. Basılı Yayın. Paterson, Natasa, Katsiaryna Naliuka, Tara Carrigy, Mads Haahr, ve Fionnula Conway. "Location Aware Interactive Game Audio." AES 41st International Conference. London. AES E-Library, 2011. Basılı Yayın. Raghuvanshi, Nikunj, Christian Lauterbach, Anish Chandak, Dinesh Manocha, ve Ming C. Lin. "Real-time Sound Synthesis and Propagation for Games." Communications of the ACM Magazine 50.7 (2007): 66-73. New York. Basılı Yayın. Schmidt, Brian. "Interactive Mixing of Game Audio." Audio Engineering Society 115th Convention. New York. AES E-Library, 2003. Basılı Yayın. Vachon, Jean-Frederic. "Avoiding Tedium: Fighting Repetition in Game Audio." AES 35th International Conference. London. AES E-Library, 2009. Basılı Yayın. Walder, Col. "Intelligent Audio for Games." Audio Engineering Society 120th Convention. Paris. AES E-Library, 2006. Basılı Yayın. ATMM 2013 PROCEEDINGS 103 KONTROL ODASI MODELLERİNDE TASARIM YAKLAŞIMLARI Abstract Control rooms had been insignificant parts which standing ordinarily in the corner of recording studios until middle of the fifties. The rooms, from aspect of design, have changed due to increasing popularity of stereo recording and its consuming since about end of the 50s. The goal of the different control room design approaches; such as DDA, LEDE, RFZ, Non-Environment, CID, ESS is to provide a listening environment to mix engineer with being faithfully to orginal recording. This paper aims to give information about different design approaches of control rooms from early times to present, under favour of presence and accessible sources. özet Kontrol odaları 1950'li yılların ortalarına kadar ses stüdyolarının bir kenarında gelişi güzel yer almaktaydı. Stereo kaydın popüler olmaya başladığı ve tüketiminin arttığı 50'li yılların sonlarında önemi artan kontrol odaları, tasarım yaklaşımları açısından o yıllardan günümüze değişiklik geçirerek gelmiştir. LEDE, RFZ, Non-Environment, CID, ESS gibi kontrol odası tasarımlarındaki farklı yaklaşımların ortak özelliği miks mühendisine kaydın aslına sadık kalacak şekilde bir dinleme ortamı sağlamaktır. Bu yazıda kontrol odalarının geçmişten günümüze tasarım yaklaşımlarının, mevcut ve ulaşılabilen kaynaklar ışığında ortaya konması amaçlanmıştır. Ses Kayıt Stüdyoları Profesyonel ses kayıt stüdyoları müzik albümlerinin düzenleme, kayıt ve miks işlemlerinin geçtiği belli başlı mekânlardır. Bir müzik prodüksiyonunun sonucunda ortaya çıkacak olan ürünün kalitesi ve başarısı, o ürünün kayıt edildiği stüdyodaki çalışanların mesleki becerilerinin yanı sıra, hem o stüdyonun donanım-yazılım kalitesine; hem de o stüdyonun akustik niteliklerine sıkı sıkıya bağlıdır. Bilindiği üzere tipik bir ses kayıt stüdyosu en az iki kısımdan oluşmaktadır: Birinci kısım performansın yapıldığı kayıt odası, ikinci kısım ise performansın kayıt edildiği kontrol odasıdır. Genelde kayıt odalarının dizaynları yapılacak performansın tarzına bağlı olarak değişiklikler gösterir. Ancak kontrol odalarının akustik karakterlerinin olabildiğince yakın özelliklere sahip olmaları beklenir. Bu beklentiyi karşılamak adına kontrol odalarının öneminin arttığı ilk yıllardan bu yana bazen farklı, bazen de birbirinin türevi olan kontrol odası tasarımları ortaya konmuştur. Ses Kayıt Stüdyoları ve İlk Yılları Ses stüdyoları önceleri radyo istasyonlarının içinde bulunan mekânlardı. San Francisco'da 1910'lu yıllarda Charles Herrold'ın yaptığı ilk geniş-bant (broadband) radyo yayınından yaklaşık 25 yıl sonra radyo istasyonları orkestra performanslarını sonradan tekrar yayınlamak amacı ile plaklara kaydetmeye başladı (Johnson 10). Albüm kayıtları genelde ya konser salonlarında ya da radyo istasyonlarında yapılıyordu. Amerika'da 1949'dan 1963 yılına kadar Blackhawk, Jazz Workshop, El Matador gibi o dönemin caz kulüpleri canlı kaydın yapıldığı önemli mekanlardı (Johnson 11). RCA, Columbia ve Decca ile birlikte çabucak büyüyen Capitol Records gibi plak şirketleri kayıt endüstrisinin çoğunluğuna hâkimdiler. 1940'lı yılların sonlarında bağımsız stüdyoların sayısı azdı. Bunlar arasında Hollywood'daki Radio Recorders öne çıkmaktaydı. Chicago'da Universal Recording Company 1946 yılında kuruldu ve bir yıl sonra adını duyurmaya başladı. Bu şirketler kayıtları için kendi stüdyoları dışında o dönemin akustik açıdan dikkat çeken ve büyük orkestralar için uygun olan konser salonlarını kullanıyorlardı. Columbia pop kayıtları için Liederkranz Hall'u kullanmada öncülük etmişti. Birçok ünlü orkestra kayıtları bu karakteristik salonda yapılmıştı ve bazıları geleneksel stüdyolarla yapılan cılız kayıtlarla kıyaslandığında harikaydılar. Richard Himber Orchestra'nın kayıtları gibi İngiltere'de yapılan kayıtlar da geniş bir mekânın hacimli etkisini karakterize etmekteydi. (Putnam, "35 Years Old History and Evolution of the Recording Studio" 2) 40 ve 50'li yıllarda kayıt şirketlerindeki stüdyolar yaklaşık 424-990 m3 hacmindeydi. Akustik iyileştirmeler genelde perdeler, arka kısmı taş yünüyle kaplı delikli panaller, Celotex C2 ve diğer akustik levhalar ile sağlanır, bazen bu levhalar arka duvarlara az ya da hiç hava boşluğu olmadan uygulanırdı. Polisilindirik yayıcılar RCA ve NBC gibi stüdyolara özgüydüler ve sonradan diğer bağımsız stüdyolarda da kullanımları arttı. O dönem stüdyoların akustik özelliklerinin önemi üzerine ilk fikirler atılmaya başlandı diyebiliriz: Bill Putnam o yıllardaki stüdyoların akustik karakterini belirtirken, bas frekans bölgesindeki emiciliğin düşük olması nedeniyle kayıtların çamurlaştığını belirtmektedir. Putnam'a göre çamurlaşmaya neden olan etkenlerden birincisi odanın bas frekans bölgesindeki yansışım süresinin fazla oluşu, ikincisi ise o dönemlerde kullanılan mikrofonların kutupsal biçimleriydi (Putnam 3). Kontrol Odalarının Ortaya Çıkışı ve Tasarımlar Kontrol odalarının önemi 50'li yılların sonlarında arttı. O dönem, yani "mono"dan "stereo"ya geçiş döneminde, çoğu tüketicinin stereo dinleme yapabilecek imkânlara sahip olamamasına paralel, kontrol odalarında stereo kayıt ve dinleme yapabilmek için gerekli donanım ve akustik ihtiyaçların giderilmesi de acil değildi. İlk kontrol odaları küçüktüler; monitör hoparlörler oda içerisine, ses sistemiyle olan uyumuna bakılmadan ve oda akustiği düşünülmeden yerleştiriliyordu. Çoğu kontrol odası hacim olarak yetersizdi ve stereo dinleme sistemleri için gerekli olan geometrik adaptasyonlara hazır değildi (Putnam, "The Loudspeaker and Control Room As a Wholly Integrated System" 2). Stereo kayıt tekniğinin ticari olarak kullanımının yaygınlaşmaya başlaması ile kontrol odalarında hoparlör yerleşimi, dinleme pozisyonu ve dizayn özellikleri önem kazandı. ATMM 2013 PROCEEDINGS 105 50 ve 60'lı Yıllar Hem stereo hem de mono monitörlemeye olanak sağlayacak şekilde tasarlanan ilk stüdyolardan biri olan United Record Corp'un B stüdyosu 1958 yılında Bill Putnam tarafından tasarlandı. Bu stüdyo ayrıntılı tasarım özelliklerine sahip olan ilk stüdyoydu. Kontrol odasında bulunan üç adet monitörden biri mono dinleme, diğer ikisi ise stereo dinleme için kullanılıyordu. Ayrıca bu oda bas frekansların istenmeyen etkilerini azaltmak amacı ile olabildiğince büyük tasarlanmıştı (Putnam, "Recording Studio and Control Room Facilities of Advance Design" 112). Bu tasarım 1960'da Western Record stüdyoların inşasında da kullanıldı ve o dönem üç numaralı stüdyo efsanevi olarak adlandırıldı (Cogan, "Bill Putnam"). Şekil 1 United Record Corp'un B stüdyosunun kontrol odası, miks konsolu ve hoparlörler görülmektedir (Putnam 113). 60'lı yıllarda önemli tasarımcılardan biri de Tim Hidley'di. 80'lerin ortalarına kadar birçok stüdyonun tasarımını yapmış olan Hidley'in oda tasarımındaki önerdiği tipik özellikler şöyledir: İyi bir stereo imaj için oda simetrik olmalı, yansımalar arka duvardan ve tavandan gelmemeli, hoparlörler duvara gömülü olmalı, yansışım süresi bas frekans bölgesinde kısa olmalı. Hidley 1982 yılında Danish Radio'nun klasik müzik kayıtları için kullanılan 1 numaralı stüdyosunun kontrol odasını yeniden tasarladı (Voetman 3). Bu dizayn Hidley'in kontrol odalarının bütün karakteristik özelliklerine sahipti. Hoparlörler ön duvara gömülüydü, ön-yan duvarın bir kısmı cam olan çıplak bir duvardı. Bu duvarın karşısında bulunan dolap ise simetri sağlaması açısından cam ile kaplanmıştı. Bas yutucular yaklaşık 2.5 metre yüksekliğe yerleştirilmişti. Odanın arka kısmı perdelerle kaplı ve perdelerin arkasında yine bas yutucular vardı. Bu kontrol odası olabildiğince düzgün bir yansışıma sahipti ve ses mühendisleri tarafından beğenilen bir tasarım oldu. 1984 yılında Hidley Dannish Radio Corp. için yeni bir stüdyo daha tasarladı. Bu stüdyo modern ve çok kanallı pop kayıtları için olacaktı ve binadaki eski iki orijinal stüdyo 1977 yıllında Mike Rettinger ön kısmı kornaya benzer (horn shape) bir oda şekli önerdi tekrar inşa edilip birleştirilecekti. Yine bu tasarımında Hidley hoparlörleri duvara gömdü, odanın arka kısmı ve tavanda bas yutucular kullandı. Ancak bu kez bir önceki tasarımından farklı olarak ön duvarı ve yan duvarların ön duvara yakın kısımlarını biraz emici; yan duvarların arka duvara yakın olan kısımlarını ise yansıtıcı olarak tasarladı. Hidley'in tasarımdaki değişiklik TDS (Time Delay Spectrometry) yöntemini kullanması ve oluşacak tarak filtreleme (comb filtering) etkisini fark etmesinden kaynaklanmıştır (Voetman 4) 1966 yıllında kontrol odalarının akustik karakteri ve hoparlör yerleşiminin önemi John E. Volkmann tarafından ortaya konmuştur. Volkmann'a göre hoparlörlerin miks mühendisine olan uzaklığının 20-25 cm mesafeden fazla olmaması gerekmektedir. Bunun nedeni miks mühendisine doğrudan ve yansıyarak gelen seslerin enerji seviyelerinin dengeli olmasını sağlamak; yani tarak filtreleme etkisini en aza indirgemekti. Bu Volkmann'ın Nashville'deki RCA stüdyolarını tasarlarken vurguladığı bir özellikti. (Volkmann 326) 70'li Yıllar 1970'lerin ortalarında DDA (Directional Dual Acoustics) modeli uygulanmaktadır. Wolfgan W. Jensen tarafından önerilen bu kontrol odasının yan yüzeyleri testere dişi şeklinde yerleştirilmiş paneller ile kaplanmıştı. Bu panellerin yüzeyleri yansıtıcı ve odanın ön kısmına bakan kumaşla kaplı dik kenar kısımları emici özellikteydi. Odanın arka duvarının emiciliği istenilen akustik özelliklere göre değişebiliyordu. Bu sayede odanın bas frekans bölgesindeki sönümleme süresi konutlardaki sönümleme değerlerine yakın olması amaçlanmıştı. Jensen'in tasarımının dikkat çekici olmasının nedeni monitörleme için gerekli akustik koşullara ek olarak görece canlı akustik koşulların arasındaki farkı net bir şekilde ortaya koymasıydı (Newell 388). Şekil 2 DDA'nın üstten görünüşü (Newell 388) ATMM 2013 PROCEEDINGS 107 (Şekil 3). Yanlamasına, ortadan ikiye bölündüğünde ön kısmı korna benzeri olacak şekilde tasarlanan oda 141 m3 hacmindeydi. Odanın ön tarafı, korna benzeri yan kısımlar hariç, biraz yansıtıcıydı. Asma tavanın ön kısmı, duvara gömülü monitörlerden doğrudan gelen sesi miks mühendisine iletecek şekilde yansıtıcı özellikte, ön duvar ile kontrol masası arasındaki boş kısım ise emici olacak şekilde dizayn edildi. Arka-yan duvarlar ve arkatavan optimum yansışım süresini sağlamak için orta derecede emici, arka duvar ise tamamen emiciydi (Rettinger). Şekil 3 Horn Shape üstten ve yandan görünüşü (Rettinger 18) 1978 yılında Chips and Don Davis yeni bir tasarım olan LEDE'yi (Live-End, Dead-End) tanıttılar. Bu tasarımda miks mühendisinin hoparlörden doğrudan gelen sesi duyması için odanın ön kısmı (yani hoparlörün olduğu kısım) olabildiğince emici yapıldı, ki bu o dönem yapılan uygulamalara zıt olan bir yaklaşımdı. Ancak bir kontrol odasının anakoik özelliklere sahip olmaması gerektiğinden, odanın arka kısmı sesleri tarak filtrelemeye neden olamayacak şekilde yayarak yansıtmalıydı. LEDE prensibinin önemli bir özelliği küçük boyutlu kontrol odalarına uygundu. Odanın küçük olması dinleyici pozisyonuna gelen ilk yansımaların (early reflections) varış süresinde yeterli gecikmeye neden oluyordu (Voetman 5). LEDE kontrol odası fikri kontrol odalarındaki hoparlörlerden gelen direkt sesler ile ilk gelen yansımaların etkileşiminin incelenmesi sonucu geliştirildi. Bu incelemeler miks mühendisinin kulak hizasında, oda içerisinde doğrudan ve yansıyarak gelen seslerin ayrı ayrı incelenmesine olanak sağlayan TDS (Time Delay Spectrometry) yöntemi ile yapıldı. Tasarımcılar 1979 yılında LEDE'yi tanıttıkları bir makalede, o döneme kadar kontrol odası tasarımında çok üzerinde durulmamış bir özellikten bahsetmektedir; Tarak filtreleme (Comb Filter Effect). Bilindiği üzere tarak filtreleme etkisi dinleyici/alıcı pozisyonuna doğrudan ve yansıyarak gelen seslerin neden olduğu kötü bir renklendirmedir. Bu renklendirme alıcıya gelen yansıma seslerin birleşimine ait genliğin, kaynaktan doğrudan gelen sesin genliğiyle eşit, ancak farklı fazlara sahip olmaları durumda en iyi gözlemlenebilir. Don Davis frekans cevabı anomalileri üzerine yaptığı çalışmalarda geniş-bant frekans anomalilerinin dar-bant anomalilere göre daha iyi algılandığını gözlemlemişti. Bu gözleme bağlı olarak Davis; ilk, genelde yüksek genlikli, geniş-bant yansımalardan kaynaklı ITDG (Initial Time Delay Gap, şekil 4) süresinin odanın kendi ITDG süresini maskelediğini vurgulamaktadır. ITDG kaynaktan dinleyiciye doğrudan gelen ses ile ilk önemli yansıma sesin arasındaki zaman farkıdır ve bir odanın hacminin algılanmasında önemli rol oynar. Söz konusu maskeleme etkisini önlemek adına dinleme pozisyonu sınır olacak şekilde LEDE kontrol odalarının ön kısmı emici arka kısmı ise yayıcı tasarlanır. Böylece tarak filtreleme etkisi azaltılacak ve ITDG değeri geniş bir mekân etkisi verecek şekilde (20-40 ms) ayarlanabilecektir. LEDE'nin bu psiko-akustik tasarım özelliği sayesinde, miks mühendisine kaydın yapıldığı geniş mekânın hacmi sağlanmış olur (Davis D. & Davis C.). Şekil 4 ITDG (Davis D. & Davis C. 591 ) ATMM 2013 PROCEEDINGS 109 Şekil 5 LEDE tasarımının üstten görünüşü (Davis D. & Davis C. 587) 80'li Yıllar 80'li yıllara gelindiğinde kontrol odasına tamamen entegre hoparlör fikri ile ilgili çalışmalar görülmektedir (Şekil 6). Putnam'ın 1981 yılında tasarladığı kontrol odası modelinde hoparlör yerleşimi bir çift horn gibiydi. Kontrol odasındaki ön cam ve konsol arasında kalan boşluğun bas frekanslarda kestirilemez problemlere neden olmasından; duvara gömülü hoparlörlerin horn benzeri eğimli bir kasa içine yerleştirilmesi ve bu kasanın miks konsoluna kadar uzatılması bu tasarımın temel özelliğiydi. Putnam bu tasarımı Stereophonic Horn olarak adlandırmaktadır. Böylece elektrik enerjisinin akustik enerjiye dönüşümünü daha verimli bir hale getirmeyi hedefleyen tasarımcı oda içerisinde yayılan (doğrudan ve yansıma) seslerin oranını nominal seviyede tutarak kritik dinleme pozisyonunu daha geniş bir alana yaymayı hedeflemişti. Proje prototipi yaklaşık 105 metre küp hacme sahipti. Odanın arka kısmı olabildiğince emici yapıldı, yan duvarlara ise toplam yüzeyin %60'ını kaplayacak şekilde 25 derece açılı hareketli paneller (hinged panels) yerleştirilmişti (Putnam "The Loudspeaker and Control Room As a Wholly Integrated System"). Şekil 6 (Stereophonic Horn) Kontrol odasına tamamen entegre hoparlör tasarımı (Putnam, 7) 1984 yılında RFZ (Reflection Free Zone) prensibi Peter D'Antonio ve John H. Kohnert tarafından önerildi (Şekil 7). RFZ, LEDE prensibinin biraz daha geliştirilmiş halidir. Geometrik unsurlara dayanan bu fikirde odanın ve tavanın ön kısmının şekillendirilmesiyle, monitörlerden dinleme alanına doğrudan gelen seslerin, odanın ön kısımdaki yansımalardan etkilenmemesi amaçlandı. Bu yaklaşım sadece yüksek frekanslarda geçerliydi; ama amaç 500-5000 Hz arasındaki frekans bölgesiyle ilişkili olan sabit bir stereo imajı sürdürebilmekti. (Voetman 5). Şekil 7'de görüldüğü gibi odanın arka kısmında RPG yayıcılar kullanılmıştır. ATMM 2013 PROCEEDINGS 111 Şekil 7 RFZ çiziminin üstten ve yandan görünüşü (D'Antonio & Kohnert 3) 90'lı Yıllar 1993 yılına gelindiğinde BBC stüdyolarından R. Walker, CID (Controlled Image Design) fikrini tanıttı (Şekil 9). Bu tasarımdaki temel prensip dinleme noktasına ilk-gelen yansımaların genlik kontrolünü, oda tasarımında olabildiğince az emici malzeme kullanarak, yansıtıcılarla kontrol altına almaktı. Böylece odadaki stereo imajı geliştirirken onun tınısal karakterinin ölü olmaktan çok, bir yaşam alanının özelliklerine (0.3-0.4 sn yansışım süresine) sahip olmasını sağlamaktı (Walker). Şekil 8 CID tasarımının üstten görünüşü. Çizikli kısım kontrol odasının ön kısmıdır. (Walker) 1997 yılında Philip Newell ve Keith Holland Non-Environment (Şekil 8) kontrol odası tasarımını tanıttılar. Bu tasarım ilk olarak 1982'de Tom Hidley tarafından ortaya konmuştur (Newell 392). Kontrol odalarının dizayn tartışmalarının yaşandığı tüm bu yıllar boyunca her zaman karşılaşılan problem söz konusu odaların akustik karakterlerinin farklı olmasıydı. Bu kontrol odalarında nötr dinleme alanı yaratılmasını zorlaştırıyor; miks mühendisini odanın duyusal etkisi olmadan, hoparlörden doğrudan gelen saf sesi dinlemeye yönlendiriyordu (Voetman 6). Philip Newell ve Keith Holland Non-Environment kontrol odası tasarımını tanıtırken; o dönem yakın dinleme hoparlörlerinin bas frekanslarda yetersiz olmasından, oda içerisinde dinleme pozisyonundaki tutarsızlıktan, miks konsolu ve diğer ekipmanlardan yansıyarak gelen seslerin neden olduğu problemlerden bahsetmiştir. Yansışım süresininin yaşam alanlarındaki yansışım süresine yakın olması fikrine dayanan kontrol odası tasarımlarının küçük odalar için uygun olmamasından bahseden tasarımcılar; Non-Environment oda tasarımındaki akustik koşulların olabildiğince serbestalan (free field) koşullarına yakın olması gerektiğini belirtirler. Tasarımcılara göre bu tür koşullara sahip odalarda yansımaların sönümleme süreleri ve modal enerjileri düşük olacağı için; dinleme sırasında, kayıttaki kusurları algılamak daha kolay hale gelmektedir. Ek olarak bu tasarımda yaratılan yarı anakoik koşullar odanın akustik özelliklerini, özellikle bas frekans bölgesinde, oda şekli ve boyutundan bağımsız hale getirmektedir. Bazı tasarımcılar kontrol odalarındaki yüksek emiciliğin, bas frekanslarında eksikliğe ve miks sırasında fazla reverb kullanımına neden olacağını söylemesine rağmen, "dinleme yapılırken, kontrol odasındaki yüksek emicilik nedeniyle miks mühendisi yalnızca kullandığı reverb’ün etkisini duyacaktır." diyen Newell, Non-Environment kontrol odalarında yapılan mikslerde reverb kullanımının daha bilinçli olduğunu vurgular (Newell & Holland 7). Şekil 9 Non-Environment üstten görünüşü. Yatay çizgiler geniş bant emicileri göstermektedir. (Newell & Holland 19) ATMM 2013 PROCEEDINGS 113 1997 Ocak ayına ait Sound on Sound dergisinde yayınlanan bir yazıda Andrew Parry ESS (Early Sound Scattering) tasarımından bahsetmektedir. Parry'e göre, LEDE ve RFZ yaklaşımlarına alternatif bir yaklaşım olan bu kontrol odası tasarımda anahtar rol karakteristik yüzey yansımalarının eş olmasıdır. Oda ilk yansımaları sağlamak adına, ön duvar da dâhil olmak üzere yayıcılar ile kaplıdır. Ayrıca yayıcılar ile duvar arasında, emicilikleri bas frekans bölgesinde etkili olan Damped Membrane paneller kullanıldı. LEDE, RFZ gibi modellerle karşılaştırıldığında oldukça canlı, düzgün frekans cevabına sahip ve arka duvarın köşelerine kadar iyi bir stereo imajı sürdüren bir tasarım olduğu vurgulanmaktadır. ESS prensibi, çok küçük hacme sahip olan Lisa Stansfield'in Rochdale isimli stüdyosunun kontrol odasında, monitörlere çok yakın yer alan Amek 9098 konsolunun neden olduğu yansımaların RFZ gibi uygulamalarla çözülememesinden doğmuştur (Parry, "Early Sound Scattering and Control Room Design"). 2000'li Yıllar ESS tasarımı için başka bir örnek de Nashville'deki Blackbird C (Şekil 10) stüdyosudur. George Messenberg tarafından 2000'li yılarda düzenlenen stüdyonun zemin hariç tüm yüzeyleri 2D yayıcılar (Two Dimensional Diffusers) ile kaplıdır. Odanın frekans cevabının çok dengeli olduğu ve yayıcılar sayesinde tarak filtrelemenin ortadan kaldırıldığı tasarımcı tarafından belirtilmektedir. RPG yayıcıların tasarımcısı Peter D'Antonio bu odanın akustik özelliğini Ambechoic olarak adlandırmıştır (Bonzai). Bu kontrol odası Şekil 10'da görülmektedir. Şekil 10 Blackbird C kontrol odasının fotoğrafı (Bonzai) 2006 yılında B. Petrovic ve Z. Davidovic'den, 76 ve 33 metre küp hacimlere sahip iki odanın kontrol odası olarak tasarlanması istendi (Şekil 11). İçerisinde stereo ve surround dinleme yapılacak olan kontrol odaları, bir kontrol odasının olması gereken en küçük hacimden; yani, 80 metre küp hacimden daha küçüktüler. 2D yayıcıların bu boyutlardaki odalarda kullanılması yer kaplamaları açısından işlevsel değildi. ESS tasarımına benzer şekilde taban hariç bütün yüzeylerin yayıcı olması ve odanın iyi bir bas emiciliğe sahip olması hedeflendi. Ancak bu tasarımdaki 2D yayıcılar yayıcılara göre daha az yer kaplayan 1D yayıcılar kullanıldı. Tasarımcılarına göre bu prensip 30 metre küplük odalardan 100 metre küplük ve daha büyük hacimlere sahip odalara kadar uygulanabilmektedir (Petrovic & Davidovic ). Şekil 11 Bu tasarımın uygulandığı 1 no'lu stüdyonun fotoğrafı (Petrovic & Davidovic 9) Sonuç Kontrol odası tasarımı üzerine yapılan çalışmalarda değişik dönemlerde farklı tasarımcıların önderliğinde bazı akımlar olduğu dikkat çekmektedir. Buna en iyi örnek RFZ, CID tasarımlarının LEDE prensibi üzerine kurulmasıdır. Kontrol odası tasarımlarında ilk önceleri akustik olarak ölü odalar tercih edilse de; 70'li yıllardan sonra TDS yöntemi gibi teknik gelişmelerin uygulanması, 80'li yıllarda ise difizörlerin kullanılmaya başlanması ile yansışım sürelerinin giderek daha bilinçli kontrol edildiği söylenebilir. 2000'li yıllardan sonra ise kontrol odalarının boyutlarının küçülmesi sorun olmaktan çıkmış ve bu tür odalarda difizör uygulamaları ile (psiko-akustik açıdan) büyük mekan algısı yaratılabilmiştir. ATMM 2013 PROCEEDINGS 115 Sonuç olarak bu yazıda geçen (ya da gözden kaçmış olabilecek) farklı kontrol odası tasarımlarının bitmiş projeleri üzerine farklı özelliklere sahip (1D, 2D, 3D gibi) difizör uygulamaları yaparak IR (impulse response) verilerinin incelenmesi ve akustik simülasyon programları ile var olan kontrol odası tasarımının akustik parametrelerinin gözden geçirilmesi, yeni kontrol odası tasarımlarının ortaya çıkmasında etkili olacaktır. Kaynakça Newell, Philip. Recording Studio Design 3rd Edition. Ohttp://www.delora.com/tips_and_trends/kyma_relevant/kyma_relevant.html xford: Focal Press. 2012. Johnson, Heather. A Historical Tour through San Francisco Recording Studios. Boston: Thomson Course Tech.. 2006. Putnam, Milton T. "Recording Studio and Control Room Facilities of Advance Design" Journal of Audio Engineering Society Vol 8, Number 2, (1960): 111-119. Putnam, Milton T. "35 Years Old History and Evolution of The Recording Studio." Audio Engineering Society 66th convention, May 1980, Los Angeles. Putnam, Milton T. "The Loudspeaker and Control Room As a Wholly Integrated System." Audio Engineering Society 70th Convention. Oct. 1981, New York. Voetman, Jan. "50 Years of Sound Control Room Design." Audio Engineering Society May122th Convention. May 2007. Vienna, Austria. Volkmann, John E. "Acoustic Requirenments of Stereo Recording Studios", Journal of the Audio Engineering Society Volume 14/4, (1966): 324-327. Rettinger, Mike. "On the Acoustics of Control Rooms." Audio Engineering Society 57th Convention, May 1977. Los Angeles. Davis, Don, and Chips Davis. "1979-The LEDE™ Concept for the Control of Acoustic and Psychoacoustic Parameters in Recording Control Rooms." Journal of Audio Engineering Society Volume 28/9, (Sept.1980): 585-595. Putnam T. Milton. "The Loudspeaker and Control Room As a Wholly Integrated System."Audio Engineering Society 70th Convention. Nov.1981. New York. D'Antonio, Peter, and John H. Konnert. "The RFZ-RPG Approach to Control Room Monitoring." Audio Engineering Society 76th Convention. Oct. 1984. New York. Philip R. Newell, and Keith R. Holland. "A Proposal for a More Perceptually Uniform Control Room for Stereophonic Music Recording Studio." Audio Engineering Society 103th Convention, Sept.1997. New York. Walker R. "A New Approach to the Design of Control Room Acoustics for Stereophony." Audio Engineering Society 94th Convention. 1993. Berlin. Petrovic, Bogic, and Zorica Davidovic. "Acoustic Design of Control Room for Stereo and Multichannel Production and Reproduction, a Novel Approach." Audio Engineering Society 129th Convention. Paper 8295. Nov. 2010. San Francisco, CA. Cogan, Jim. "Bill Putnam." MixOnline. 1 Nov. 2003. Web. 10 Aug. 2013. <http://mixonline.com/recording/business/audio_bill_putnam_2/> Parry, Andrew. "Early Sound Scattering and Control Room Design." Sound on Sound. Jan. 1997. Web. 10 Aug. 2013. <http://www.soundonsound.com/sos/1997_articles/jan97/controlrooms.html> Bonzai. "George Messenberg Builds a Blackbird Room." Digizine. Web. 10 Aug. 2013. <http://www2.digidesign.com/digizine/dz_main.cfm?edition_id=101&navid=907>