KR101168322B1 - Audio processing device, audio processing method, and information recording medium - Google Patents

Audio processing device, audio processing method, and information recording medium Download PDF

Info

Publication number
KR101168322B1
KR101168322B1 KR1020107007589A KR20107007589A KR101168322B1 KR 101168322 B1 KR101168322 B1 KR 101168322B1 KR 1020107007589 A KR1020107007589 A KR 1020107007589A KR 20107007589 A KR20107007589 A KR 20107007589A KR 101168322 B1 KR101168322 B1 KR 101168322B1
Authority
KR
South Korea
Prior art keywords
predetermined
voice
output
contact
detected
Prior art date
Application number
KR1020107007589A
Other languages
Korean (ko)
Other versions
KR20100051746A (en
Inventor
마사시 타케히로
Original Assignee
가부시키가이샤 코나미 데지타루 엔타테인멘토
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가부시키가이샤 코나미 데지타루 엔타테인멘토 filed Critical 가부시키가이샤 코나미 데지타루 엔타테인멘토
Publication of KR20100051746A publication Critical patent/KR20100051746A/en
Application granted granted Critical
Publication of KR101168322B1 publication Critical patent/KR101168322B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/32Constructional details
    • G10H1/34Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
    • G10H1/342Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments for guitar-like instruments with or without strings and with a neck on which switches or string-fret contacts are used to detect the notes being played
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/096Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith using a touch screen
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/135Musical aspects of games or videogames; Musical instrument-shaped game input interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/161User input interfaces for electrophonic musical instruments with 2D or x/y surface coordinates sensing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/045Special instrument [spint], i.e. mimicking the ergonomy, shape, sound or other characteristic of a specific acoustic musical instrument category
    • G10H2230/075Spint stringed, i.e. mimicking stringed instrument features, electrophonic aspects of acoustic stringed musical instruments without keyboard; MIDI-like control therefor
    • G10H2230/135Spint guitar, i.e. guitar-like instruments in which the sound is not generated by vibrating strings, e.g. guitar-shaped game interfaces

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

검지부(1001)는, 터치 스크린의 표면에 대한 접촉 유무, 및 접촉이 있었을 경우에는 그 좌표값을 검지한다. 음성 출력부(1002)는, 요동 스위핑이 특정되었을 때, 또는, 터치 스크린에 대한 스트로크의 방향이 반대 방향으로 변화되었을 때, 유효한 스트로크 조작이 행해진 것으로 판정한다. 그리고, 음성처리장치(1000)에 기억되는 올바른 타이밍에서 유효한 스트로크 조작이 행해진 것으로 판정되면, 음성 출력부(1002)는 연주 음성의 출력을 개시한다.The detection unit 1001 detects the presence or absence of contact with the surface of the touch screen and the coordinate value when there is a contact. The audio output unit 1002 determines that effective stroke operation is performed when the rocking sweep is specified or when the direction of the stroke with respect to the touch screen is changed in the opposite direction. When it is determined that the effective stroke operation is performed at the correct timing stored in the audio processing device 1000, the audio output unit 1002 starts outputting the performance audio.

Description

음성처리장치, 음성처리방법 및 정보기록매체{AUDIO PROCESSING DEVICE, AUDIO PROCESSING METHOD, AND INFORMATION RECORDING MEDIUM}AUDIO PROCESSING DEVICE, AUDIO PROCESSING METHOD, AND INFORMATION RECORDING MEDIUM}

터치 스크린 등, 접촉 유무 및 접촉 위치를 검지할 수 있는 바와 같은 하드웨어의 특성을 살리면서, 악기의 연주를 모의하는데 적합한 음성처리장치, 음성처리방법 및 정보기록매체, 나아가서는, 그 프로그램에 관한 것이다.The present invention relates to a speech processing apparatus, a speech processing method and an information recording medium suitable for simulating the performance of a musical instrument while utilizing the characteristics of hardware such as a touch screen that can detect the presence or absence of a contact and the contact position thereof, and furthermore, the program. .

종래부터, 기타(guitar) 연주를 모의하는 게임이 제안되어 있다. 이러한 기술은, 예를 들어, 이하의 특허문헌 1에 개시되어 있다.Background Art Conventionally, a game simulating guitar performance has been proposed. Such a technique is disclosed in the following Patent Document 1, for example.

특허문헌 1에 개시된 기술은, 연주곡의 복수의 리듬 소리로부터 연주곡의 흐름에 따른 적어도 하나의 리듬 소리를 선택 지시하는 넥 버튼과, 선택된 리듬 소리의 출력 타이밍을 결정 지시하는 픽킹 블레이드를 가진 모의 기타에 의해서, 음선택지시의 출력 타이밍에 발음출력제어 및 리듬입력 조작평가를 행하는 것이다.The technique disclosed in Patent Literature 1 is a simulation guitar having a neck button for instructing selection of at least one rhythm sound according to the flow of the performance song from a plurality of rhythm sounds of a performance song, and a picking blade for instructing the output timing of the selected rhythm sound. Thus, pronunciation output control and rhythm input operation evaluation are performed at the output timing of the sound selection instruction.

한편, 터치 스크린을 구비하는 휴대식 게임기가 현재 널리 보급되어 있다.On the other hand, portable game machines having a touch screen are now widely used.

JPJP 2001-2932462001-293246 AA

따라서, 예를 들어, 특허문헌 1에 개시된 바와 같은 악기의 연주를 모의해서 즐기는 기술을, 터치 스크린의 특성을 살려서, 휴대식 게임기로 실현하는 것이 강하게 요구되고 있다.Therefore, for example, it is strongly demanded to realize the technique which simulates the performance of the musical instrument disclosed by patent document 1, and utilizes the characteristic of a touch screen, and implements it as a portable game machine.

본 발명은, 상기와 같은 과제를 해결하기 위한 것으로, 터치 스크린 등, 접촉 유무 및 접촉 위치를 검지할 수 있는 바와 같은 하드웨어의 특성을 살리면서, 악기의 연주를 모의하는데 적합한 음성처리장치, 음성처리방법 및 정보기록매체, 나아가서는, 그 프로그램을 제공하는 것을 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and is suitable for simulating the performance of a musical instrument and voice processing while utilizing the characteristics of hardware such as a touch screen and the like that can detect the presence or absence of a contact. It is an object of the method and information recording medium, and furthermore, to provide the program.

상기 목적을 달성하기 위하여, 본 발명의 제1관점에 따른 음성처리장치는 검지부와 음성 출력부를 포함한다.In order to achieve the above object, the voice processing device according to the first aspect of the present invention includes a detection unit and a voice output unit.

검지부는, 사용자가 피접촉부의 표면에 접촉하고 있으면 그 위치를, 해당 표면을 해방하고 있으면 그 취지를 검지한다. 음성처리장치가 실현되는 게임장치에서는, 피접촉부는, 예를 들어, 액정 화면에 터치 센서가 중첩되는 터치 스크린 등이며, 사용자가 터치 스크린의 표면에 접촉하면, 검지부는 그 접촉 위치를 나타내는 좌표값을 검지한다. 또, 상기 표면에 대한 접촉이 없는 상태, 즉, 해방된 상태이면, 검지부는 접촉이 없다는 취지를 검지한다. 또한, 검지부는, 예를 들어, 소정의 시간 간격으로 검지를 행한다.The detection unit detects the position when the user is in contact with the surface of the to-be-contacted portion, and the effect when the user releases the surface. In a game device in which a speech processing device is realized, the contacted portion is, for example, a touch screen in which a touch sensor is superimposed on a liquid crystal screen, and when a user touches the surface of the touch screen, the detection portion indicates a coordinate value indicating the contact position. Detect In addition, in a state where there is no contact with the surface, that is, in a released state, the detection unit detects that there is no contact. In addition, the detection unit detects at predetermined time intervals, for example.

음성 출력부는, 소정의 조작 조건이 충족되면, 소정의 출력 음성의 출력을 개시한다. 이때, 소정의 조작 조건은,The audio output unit starts outputting the predetermined output audio when the predetermined operation condition is satisfied. At this time, the predetermined operation condition is

(a) 접촉 위치가 검지된 직후에 해방이 검출되고, 또한 해방이 검출되기 직전의 접촉 위치의 변화가 소정의 역치 속도 이상인 경우, 또는,(a) the release is detected immediately after the contact position is detected, and the change in the contact position immediately before the release is detected is equal to or greater than a predetermined threshold speed, or,

(b) 계속해서 검지된 접촉 위치의 변화의 방향이 소정의 오차 범위 내에서 반대 방향으로 된 경우(b) When the direction of change in the contact position which is subsequently detected is in the opposite direction within a predetermined error range

에 충족되는 것으로 한다.Shall be satisfied.

즉, 「(a) 접촉 위치가 검지된 직후에 해방이 검출되고, 또한 해방이 검출되기 직전의 접촉 위치의 변화가 소정의 역치 속도 이상인 경우」란, 예를 들어, 사용자가 터치 스크린에 접촉한 후, 떼어서 터치 스크린을 해방한 것과 같은 경우이다. 사용자에 의한 이러한 조작은, 기타의 현을 일방향으로 스트로크(stroke)하는 조작을 모의하는 유효한 조작인 것으로 판정하고, 음성 출력부는 출력 음성의 출력을 개시한다.That is, "(a) when release is detected immediately after a contact position is detected and the change of the contact position just before a release is detected is more than a predetermined threshold speed", for example, when the user touches the touch screen After that, it is the same as removing the touch screen. This operation by the user is determined to be an effective operation that simulates an operation of stroke of the guitar string in one direction, and the audio output unit starts outputting the output audio.

또, 「(b) 계속해서 검지된 접촉 위치의 변화의 방향이 소정의 오차 범위 내에서 반대 방향으로 된 경우」란, 예를 들어, 사용자가 터치 스크린에 접촉하면서, 접촉 위치를 왕복해서 이동시킨 것과 같은 경우를 상정하고 있다. 접촉 위치의 변화의 방향은, 완전히 반대 방향이 아니더라도, 소정의 범위 내에서 거의 반대 방향이면 된다. 예를 들어, 접촉 위치의 변화의 방향이 바뀌었을 때, 바뀌기 직전의 접촉 위치의 변화의 방향과, 바뀐 직후의 접촉 위치의 변화의 방향이 이루는 각도가 소정의 범위 내이면 된다.In addition, "the case where (b) the direction of change of the contact position detected continuously becomes the opposite direction within a predetermined error range" means, for example, the user making the contact position reciprocate while touching a touchscreen. The same case is assumed. The direction of change of the contact position may be almost the opposite direction within a predetermined range, even if not completely opposite. For example, when the direction of change of a contact position changes, the angle which the direction of the change of the contact position just before a change, and the direction of the change of the contact position immediately after a change should just be in a predetermined range.

사용자에 의한 이러한 「계속해서 검지된 접촉 위치의 변화의 방향이 소정의 오차 범위 내에서 반대 방향으로 되는」 조작은, 왕복 스트로크, 즉, 기타의 현을 다운 스트로크(down stroke)한 후에 업 스트로크하는 조작(또는 그 반대)을 모의하는 유효한 조작인 것으로 판정하고, 음성 출력부는 출력 음성의 출력을 개시한다.Such operation by the user that the direction of change in the continuously detected contact position becomes the opposite direction within a predetermined error range may be performed after the down stroke of the reciprocating stroke, that is, the other strings. It is determined that it is a valid operation to simulate the operation (or vice versa), and the audio output unit starts outputting the output audio.

이러한 음성처리장치에 의하면, 소정의 조건에 기초하여 해방이 검출되었을 때나, 스트로크의 방향을 바꾼 순간에 소정의 출력 음성의 출력이 개시된다. 따라서, 사용자는, 본 음성처리장치가 실장되는 게임장치를 손에 쥐는 방향이나, 스트로크를 행하는 방향을 신경쓰는 일없이, 기타의 시뮬레이션을 즐기는 것이 가능해진다.According to such a voice processing apparatus, output of a predetermined output voice is started when release is detected based on a predetermined condition or at the moment when the direction of the stroke is changed. Therefore, the user can enjoy other simulations without worrying about the direction in which the user holds the game device on which the audio processing device is mounted or the direction in which the stroke is performed.

또한, 상기 소정의 조작 조건은, 상기 (a) 및 (b)의 경우에 충족되는 것으로 하는 대신에, In addition, the said predetermined | prescribed operation condition is made into being satisfied in the case of said (a) and (b),

(c) 계속해서 검지된 접촉 위치의 궤적이 소정의 판정선을 넘었을 경우에 충족되는 것으로 해도 된다.(c) It may be satisfied when the trajectory of the subsequently detected contact position crosses the predetermined determination line.

여기서, 판정선이란, 터치 스크린의 표면의 소정의 위치에 배치되는 선으로, 음성 출력부는, 사용자가 터치 스크린에 접촉하면서 판정선을 넘었을 경우, 그 넘은 시점에서 소정의 출력 음성의 출력을 개시한다. 즉, 판정선은, 기타의 현에 상당하는 것으로, 판정선을 도입함으로써 기타의 소리를 내는 구조를 보다 충실하게 시뮬레이션하는 것이 가능해진다.Here, the determination line is a line arranged at a predetermined position on the surface of the touch screen. When the user touches the touch screen and crosses the determination line while the user touches the touch screen, the determination line starts outputting the predetermined output voice at the time when the determination line is over. do. That is, the determination line corresponds to the guitar string, and by introducing the determination line, it becomes possible to more faithfully simulate the structure of the sound of the guitar.

또한, 음성처리장치는 조정부를 추가로 포함하도록 해도 된다. 조정부는, 계속해서 검지된 접촉 위치의 궤적과 상기 판정선이 교차하는 각도가 직각에 가깝도록 상기 판정선의 방향을 조정하도록 해도 된다.In addition, the sound processing apparatus may further include an adjusting unit. The adjusting unit may adjust the direction of the determination line such that the trajectory of the contact position detected subsequently and the angle at which the determination line intersect is close to the right angle.

즉, 사용자에 의해서, 본 음성처리장치가 실현되는 게임장치를 드는 방향이나, 터치 스크린에 대해서 행하는 스트로크의 방향에는 개인차가 있다. 이 개인차를 흡수하기 위해서, 조정부는, 사용자가 행하는 스트로크의 방향에 대해서 직각에 가깝도록 판정선의 방향을 조정한다.In other words, there are individual differences in the direction of lifting the game device in which the present audio processing device is realized by the user and the direction of the stroke performed on the touch screen. In order to absorb this individual difference, the adjustment unit adjusts the direction of the determination line so as to be close to the right angle with respect to the direction of the stroke performed by the user.

또, 음성 출력부는, 해방이 검출되면, 음성의 출력을 개시하기 전에 소정의 지연시간을 삽입하고, 소정의 조작 조건이 충족되면 상기 지연시간을 감소시키도록 해도 된다.The audio output unit may insert a predetermined delay time before starting to output the audio when release is detected, and reduce the delay time when the predetermined operation condition is satisfied.

즉, 음성 출력부는, 조작 조건이 충족되면, 소정의 지연시간이 경과하고 나서 음성의 출력을 개시하도록 해도 된다. 넓은 장소에서 연주를 행했을 경우, 연주자로부터 멀리에 있는 사람에게는, 조작이 행해지고 나서 어느 정도의 지연시간이 경과한 후에 음성이 전해진다. 따라서, 이와 같이, 지연시간을 삽입함으로써, 휴대식의 게임기에 있어서도, 넓은 장소에서 연주하고 있는 듯한 효과를 제공하는 것이 가능해진다.In other words, if the operation condition is satisfied, the audio output unit may start outputting the audio after a predetermined delay time has elapsed. When performing in a large place, a voice is transmitted to a person who is far from the player after a certain delay time has passed since the operation was performed. Therefore, by inserting the delay time in this way, it becomes possible to provide the effect of playing in a wide place even in a portable game machine.

또한, 통상, 한번만 스트로크를 행했을 경우에 비해서, 계속해서 스트로크를 행한 경우의 쪽이, 지연이 느끼기 어려워지는 것으로 여겨진다. 따라서, 첫회의 지연을 강조하기 위해서, 해방이 검지되면 상기 지연시간을 디폴트(default) 값으로 되돌리고, 계속해서 조작 조건이 충족되면, 지연시간을 전회에 조작 조건이 충족된 경우와 비교해서 짧게 함으로써 서서히 짧게 하도록 해도 된다.In general, it is considered that the delay is less likely to be felt when the stroke is continuously performed as compared with the case where the stroke is performed only once. Therefore, in order to emphasize the first delay, when the release is detected, the delay time is returned to the default value, and if the operation condition is continuously satisfied, the delay time is shortened compared with the case where the operation condition is satisfied last time. You may make it short.

또, 음성 출력부는,In addition, the audio output unit,

(d) 접촉이 개시된 위치로부터, 상기 소정의 조작 조건이 충족되기 직전에 검지된 접촉 위치까지의 거리, 및(d) the distance from the position at which the contact is initiated to the contact position detected just before the predetermined operation condition is satisfied, and

(e) 직전에 상기 소정의 조작 조건이 충족된 시점에 검지된 접촉 위치로부터 다음에 상기 소정의 조작 조건이 충족되기 직전에 검지된 접촉 위치까지의 거리(e) The distance from the contact position detected at the time when the predetermined operation condition is satisfied immediately before the contact position detected immediately before the next operation condition is satisfied.

에 의거해서, 상기 출력을 개시해야 할 출력 음성의 음량을 결정하도록 해도 된다.Based on this, the volume of the output voice which should start the output may be determined.

즉, 사용자가 터치 스크린에 대해서 작게 스트로크를 행했을 경우에는, 작은 출력 음성이, 그리고 크게 스트로크를 행했을 경우에 큰 출력 음성이 출력되도록, 터치 스크린에 접촉을 개시한 위치로부터, 조작 조건이 충족되기 직전에 검지된 접촉 위치까지의 거리에 의거해서 음량을 결정한다. 또는, 사용자가 터치 스크린에 대해서 왕복 스트로크를 행했을 경우에도 마찬가지로 음량을 제어할 수 있도록, 소정의 조작 조건이 충족된 시점에 검지된 접촉 위치로부터 다음에 상기 소정의 조작 조건이 충족되기 직전에 검지된 접촉 위치까지의 거리에 의거해서, 음량을 결정한다. 이때, 거리가 계측되는 상기 2개의 접촉 위치 사이의 거리는, 직선 거리이어도, 궤적의 길이여도 된다.In other words, when the user makes a small stroke with respect to the touch screen, the operation condition is satisfied from the position where the contact is started on the touch screen so that a small output voice is outputted and a large output audio is output when the user makes a large stroke. The volume is determined based on the distance to the contact position detected just before the end. Alternatively, when the user performs a reciprocating stroke with respect to the touch screen, the sound volume can be controlled in the same manner so as to detect the volume immediately before the predetermined operation condition is satisfied next from the contact position detected at the time when the predetermined operation condition is satisfied. The volume is determined based on the distance to the contact position. At this time, the distance between the two contact positions at which the distance is measured may be a linear distance or a length of a trajectory.

또, 음성 출력부는 소정의 악곡의 반주 음성을 추가로 출력하고, 해당 반주 음성에는, 출력을 개시하고 나서의 경과 시간에 의해 지정되는 연주 타이밍과, 상기 연주 타이밍에 출력해야할 연주 음성이 대응된다.The audio output unit further outputs an accompaniment voice of a predetermined piece of music, and the accompaniment voice corresponds to a performance timing specified by the elapsed time since starting output and a performance voice to be outputted to the performance timing.

즉, 기타 연주를 모의하는 게임에서는, 반주 음성이 출력되고, 사용자는 반주 음성에 맞춰서 연주를 행한다. 상기 게임은, 사용자가 상기 연주를 해야할 올바른 타이밍과, 그때 출력해야 할 연주 음성을 대응시켜서 기억하고 있다.In other words, in a game simulating guitar performance, an accompaniment voice is output, and the user plays in accordance with the accompaniment voice. The game memorizes the correct timing at which the user should perform the play and the playing voice to be output at that time.

또한, 음성 출력부는, 상기 소정의 조작 조건이 충족되고, 또한, 상기 어느 쪽인가의 조건이 충족된 시점이 상기 반주 음성에 대응되는 연주 타이밍 중 어느 하나와 합치할 경우, 상기 연주 타이밍에 출력되어야할 연주 음성을 상기 소정의 출력 음성으로서 출력을 개시하도록 해도 된다.In addition, the audio output unit should be output at the performance timing when the predetermined operation condition is satisfied and when the timing at which one of the conditions is satisfied coincides with any one of the performance timings corresponding to the accompaniment voice. An output voice to be played may be started as the predetermined output voice.

즉, 기타 연주를 모의하는 게임에서는, 사용자는, 음성출력이 개시되는 조작 조건을 충족시키는 스트로크 조작(유효한 스트로크 조작)을, 반주에 맞춰서 터치 스크린에 대해서 행한다. 사용자가, 올바른 타이밍에서 터치 스크린에 대해서 스트로크 조작을 행하면(즉, 사용자의 조작의 타이밍이 연주를 해야할 타이밍과 합치하면), 올바른 연주 음성이 출력된다.That is, in a game simulating guitar performance, the user performs a stroke operation (effective stroke operation) that satisfies the operation condition at which the audio output is started, with respect to the accompaniment on the touch screen. When the user performs a stroke operation on the touch screen at the correct timing (that is, the timing of the user's operation coincides with the timing to be played), the correct playing voice is output.

또, 음성 출력부는, 상기 소정의 조작 조건이 충족되고, 또한, 상기 어느 쪽인가의 조건이 충족된 시점이 상기 반주 음성에 대응되는 연주 타이밍의 어느 쪽과도 합치하지 않을 경우, 실패를 나타내는 음성을 상기 소정의 출력 음성으로서 출력을 개시하도록 해도 된다.In addition, the audio output unit is a voice indicating failure when the predetermined operation condition is satisfied, and the timing at which either of the above conditions is satisfied does not coincide with any of the performance timings corresponding to the accompaniment voice. May be started as the predetermined output voice.

즉, 반주에 맞지 않고 틀린 타이밍에서 사용자가 스트로크 조작을 터치 스크린에 대해서 행하면, 음성 출력부는 실패를 나타내는 음성을 출력한다.In other words, when the user performs a stroke operation on the touch screen at an incorrect timing that does not match the accompaniment, the audio output unit outputs a voice indicating failure.

또한, 음성 출력부는, 소정의 역치시간 계속해서 검지된 접촉 위치가 소정의 위치 범위 내일 경우, 상기 개시된 출력 음성의 출력을 정지하도록 해도 된다. 즉, 「소정의 역치시간 계속해서 검지된 접촉 위치가 소정의 위치 범위 내인」이란, 스트로크가 정지된 것을 의미한다. 따라서, 이러한 조건이 충족된 경우에는, 음성 출력부는 상기 출력을 정지한다. 또, 임의의 위치는 소정의 범위 내에서 계속 접촉되면 된다.The audio output unit may stop the output of the above-described output audio when the contact position detected continuously for a predetermined threshold time is within a predetermined position range. That is, "the contact position detected continuously in predetermined threshold time is in a predetermined position range" means that a stroke was stopped. Therefore, when such a condition is satisfied, the audio output unit stops the output. Moreover, arbitrary positions should just continue to contact in a predetermined range.

또, 상기 사용자가 집어서 상기 표면에 접촉하기 위한 접촉 부재를 추가로 포함하고, 상기 접촉 부재는, 피크(pick) 형상, 혹은, 피크 형상의 선단부에 돌기를 배치한 형상인 것을 특징으로 한다. 즉, 접촉 부재는, 소위 터치 펜이며, 그 손잡이 부분은 기타 피크의 형상을 지니고 있고, 선단부에는 돌기를 구비하도록 해도 된다. 기타 피크의 형상을 가짐으로써, 사용자는 스트로크 조작을 행하기 쉬워지는 동시에, 기타를 조작하고 있는 것과 같은 현장감을 느끼는 것이 가능해진다. 또한, 접촉 부재는 돌기를 선단부에 구비함으로써 접촉 위치가 검지되기 쉬워진다.The contact member may further include a contact member for picking up and contacting the surface, wherein the contact member has a peak shape or a shape in which protrusions are arranged at a tip end of the peak shape. That is, the contact member is a so-called touch pen, and the handle portion has a shape of other peak, and the tip portion may be provided with a projection. By having the shape of the guitar peak, the user can easily perform the stroke operation and can feel the same realism as operating the guitar. Moreover, a contact position becomes easy to be detected by providing a processus | protrusion in a front-end | tip part.

본 발명의 다른 관점에 따른 음성처리방법은, 검지부와 음성 출력부를 포함하는 음성처리장치를 이용한 음성처리방법으로서, 검지 공정에서는, 검지부가, 사용자가 피접촉부의 표면에 접촉하고 있으면 그 위치를 검지하고, 상기 표면을 해방하고 있으면 그 취지를 검지한다.A sound processing method according to another aspect of the present invention is a sound processing method using a sound processing apparatus including a detection unit and a sound output unit. In the detection step, the detection unit detects the position of the user when the user comes into contact with the surface of the contacted part. If the surface is released, the effect thereof is detected.

또한, 음성출력 공정에서는, 소정의 조작 조건이 충족되면, 음성 출력부가 소정의 출력 음성의 출력을 개시한다. 여기에서, 상기 소정의 조작 조건은In addition, in the audio output process, if the predetermined operation condition is satisfied, the audio output unit starts outputting the predetermined output audio. Here, the predetermined operation condition is

(a) 접촉 위치가 검지된 직후에 해방이 검출되고, 또한 해방이 검출되기 직전의 접촉 위치의 변화가 소정의 역치 속도 이상인 경우, 또는, (a) the release is detected immediately after the contact position is detected, and the change in the contact position immediately before the release is detected is equal to or greater than a predetermined threshold speed, or,

(b) 계속해서 검지된 접촉 위치의 변화의 방향이 소정의 오차 범위 내에서 반대 방향으로 된 경우(b) When the direction of change in the contact position which is subsequently detected is in the opposite direction within a predetermined error range

에 충족되는 것으로 한다.Shall be satisfied.

또한, 음성처리장치는 조정부를 추가로 포함하고, 소정의 조작 조건은, 상기 (a) 및 (b)의 경우에 충족되는 것으로 하는 대신에,In addition, the audio processing apparatus further includes an adjusting unit, and the predetermined operation conditions are not to be satisfied in the case of (a) and (b) above,

(c) 계속해서 검지된 접촉 위치의 궤적이 소정의 판정선을 넘었을 경우에 충족되는 것으로 해도 된다.(c) It may be satisfied when the trajectory of the subsequently detected contact position crosses the predetermined determination line.

이때, 조정부가, 계속해서 검지된 접촉 위치의 궤적과 상기 판정선이 교차하는 각도가 직각에 가깝도록 상기 판정선의 방향을 조정하는 조정 공정을 구비해도 된다.At this time, the adjustment part may be equipped with the adjustment process which adjusts the direction of the said determination line so that the angle | interval of the trace | position of the contact position detected continuously and the said determination line may be close to a right angle.

또, 본 발명의 다른 관점에 따른 정보기록매체가 기록하는 프로그램은, 컴퓨터를, 상기의 음성처리장치로서 기능시키도록 구성한다. 본 발명의 다른 관점에 따른 정보기록매체가 기록하는 프로그램은, 컴퓨터에 상기 음성처리방법을 실행시키도록 구성한다.In addition, the program recorded by the information recording medium according to another aspect of the present invention is configured so that the computer functions as the above-mentioned sound processing apparatus. A program recorded by an information recording medium according to another aspect of the present invention is configured to cause a computer to execute the above voice processing method.

또한, 참고로, 본 발명의 다른 관점에 따른 프로그램은, 컴퓨터를, 상기 음성처리장치로서 기능시키도록 구성한다. 본 발명의 다른 관점에 따른 프로그램은, 컴퓨터에 상기의 음성처리방법을 실행시키도록 구성한다.In addition, the program which concerns on another aspect of this invention is comprised so that a computer may function as the said audio processing apparatus. A program according to another aspect of the present invention is configured to cause a computer to execute the above voice processing method.

또, 본 발명의 프로그램은, 컴팩트 디스크, 가요성 디스크, 하드 디스크, 광자기 디스크, 디지털 비디오 디스크, 자기 테이프, 반도체 메모리 등의 컴퓨터 판독가능한 정보기록매체에 기록할 수 있다. 상기 프로그램은, 해당 프로그램이 실행되는 컴퓨터와는 독립해서, 컴퓨터 통신망을 거쳐서 배포?판매될 수 있다. 또한, 상기 정보기록매체는, 상기 컴퓨터와는 독립해서 배포?판매할 수 있다.In addition, the program of the present invention can be recorded on a computer-readable information recording medium such as a compact disk, a flexible disk, a hard disk, a magneto-optical disk, a digital video disk, a magnetic tape, a semiconductor memory, and the like. The program can be distributed and sold via a computer communication network independently of the computer on which the program is executed. The information recording medium can be distributed and sold independently of the computer.

본 발명에 의하면, 터치 스크린 등, 접촉 유무 및 접촉 위치를 검지할 수 있는 바와 같은 하드웨어의 특성을 살리면서, 악기의 연주를 모의하는데 적합한 음성처리장치, 음성처리방법 및 정보기록매체, 나아가서는, 그 프로그램을 제공할 수 있다.According to the present invention, a speech processing apparatus, a speech processing method and an information recording medium suitable for simulating the performance of a musical instrument while utilizing the characteristics of hardware such as a touch screen that can detect the presence or absence of a contact and a contact position, and furthermore, You can provide that program.

도 1은 일 실시형태에 따른 항목선택장치가 실현되는 전형적인 게임장치의 개요구성을 도시한 모식도;
도 2는 일 실시형태에 따른 항목선택장치가 실현되는 전형적인 게임장치의 외관을 도시한 도면;
도 3은 일 실시형태에 따른 항목선택장치의 기능 블록도;
도 4a는 일 실시형태에 따른 항목선택장치에 있어서의 표와 창(窓), 및 그들의 관계를 도시한 도면;
도 4b는 창에 덮인 표의 요소가 터치 스크린에 표시되는 상황을 도시한 도면;
도 5는 일 실시형태에 따른 항목선택장치의 처리 동작을 설명하는 순서도;
도 6a는 터치 스크린의 접촉 위치의 이동에 대한 창의 이동 방향을 설명하는 도면;
도 6b는 터치 스크린의 접촉 위치의 이동에 대한 창의 이동 방향을 설명하는 도면;
도 6c는 접촉 위치의 이동에 대해서, 표시되는 표의 영역의 변화의 상황을 도시한 도면;
도 6d는 접촉 위치의 이동에 대해서, 표시되는 표의 영역의 변화의 상황을 도시한 도면;
도 7a는 창의 위치가 표의 영역을 벗어났을 때, 창을 재배치하는 상황을 도시한 도면;
도 7b는 창이 표의 끝에 도달했을 때, 표의 요소가 순회해서 표시되는 상황을 도시한 도면;
도 7c는 창이 표의 끝에 도달했을 때, 표의 요소가 순회해서 표시되는 상황을 도시한 도면;
도 8a는 피크 형상의 터치 펜의 예를 나타낸 도면;
도 8b는 사용자가 피크 형상의 터치 펜을 쥔 상황을 도시한 도면;
도 8c는 도 8a에 나타낸 터치 펜을 이용해서, 사용자가 터치 스크린에서 기타 연주의 시뮬레이션을 행하고 있는 상황을 도시한 도면;
도 9는 일 실시형태에 따른 음성처리장치의 기능 블록도;
도 10은 일 실시형태에 따른 음성처리장치의 처리 동작을 설명하는 순서도;
도 11은 접촉 위치의 궤적의 예를 나타낸 도면;
도 12는 다른 실시예에 따른 음성처리장치의 기능 블록도;
도 13은 다른 실시예에 따른 음성처리장치의 처리 동작을 설명하는 순서도;
도 14a는 접촉 위치의 궤적의 예를 나타낸 도면;
도 14b는 판정선의 위치 및 방향을 조정하는 상황을 도시한 도면;
도 14c는 판정선을 조정할 때, 스트로크의 방향을 구하는 방법을 도시한 도면.
1 is a schematic diagram showing a schematic configuration of a typical game device in which an item selection device according to an embodiment is realized;
2 is a view showing an appearance of a typical game device in which the item selection device according to one embodiment is realized;
3 is a functional block diagram of an item selecting apparatus according to an embodiment;
4A is a diagram showing a table, a window, and their relationship in an item selection device according to an embodiment;
4B illustrates a situation in which a table element covered with a window is displayed on the touch screen;
5 is a flowchart for describing a processing operation of an item selection device according to an embodiment;
6A is a diagram for explaining a window moving direction with respect to the movement of a contact position of a touch screen;
FIG. 6B is a diagram for explaining the movement direction of a window with respect to the movement of the touch position of the touch screen; FIG.
FIG. 6C shows a situation of change of the area of the displayed table with respect to the movement of the contact position; FIG.
FIG. 6D shows a situation of change of the area of the displayed table with respect to the movement of the contact position; FIG.
FIG. 7A illustrates a situation in which the window is rearranged when the position of the window is outside the area of the table; FIG.
FIG. 7B illustrates a situation in which the elements of the table are traversed and displayed when the window reaches the end of the table;
FIG. 7C illustrates a situation in which the elements of the table are traversed and displayed when the window reaches the end of the table; FIG.
8A illustrates an example of a peak-shaped touch pen;
8B is a view showing a situation where a user grabs a touch pen having a peak shape;
FIG. 8C is a diagram showing a situation in which a user is simulating a guitar performance on a touch screen using the touch pen shown in FIG. 8A;
9 is a functional block diagram of a speech processing apparatus according to an embodiment;
10 is a flowchart for explaining the processing operation of the audio processing device according to the embodiment;
11 shows an example of the trajectory of a contact position;
12 is a functional block diagram of a speech processing device according to another embodiment;
13 is a flowchart for explaining a processing operation of a speech processing device according to another embodiment;
14A shows an example of the trajectory of the contact position;
14B is a diagram showing a situation of adjusting the position and direction of the determination line;
Fig. 14C is a diagram showing a method for obtaining the direction of a stroke when adjusting the judgment line.

본 실시예에 따른 게임장치는, 후술하는 바와 같이 크게 나누어, 항목선택장치 및 음성처리장치로서 기능한다. 즉, 우선, 사용자는, 항목선택장치로서의 게임장치로, 기타 연주의 시뮬레이션을 행하고자 하는 악곡을, 곡목 리스트로부터 선택한다. 그리고, 다음에, 음성처리장치로서의 게임장치에서, 선택된 악곡을 이용해서, 기타 연주의 시뮬레이션을 행한다.The game apparatus according to the present embodiment is largely divided as will be described later, and functions as an item selection apparatus and an audio processing apparatus. That is, the user first selects a piece of music to be simulated by the game device as the item selection device from the music piece list. Next, in the game apparatus as the audio processing apparatus, the guitar performance is simulated using the selected piece of music.

도 1은 본 발명의 실시예에 따른 항목선택장치 및 음성처리장치가 실현되는 전형적인 휴대형의 게임장치의 개요구성을 도시한 모식도이다. 또, 도 2에는 상기 휴대형의 게임장치의 외관도를 나타낸다. 이하, 본 도면을 참조해서 설명한다.1 is a schematic diagram showing a schematic configuration of a typical portable game device in which an item selection device and a sound processing device according to an embodiment of the present invention are realized. 2 shows an external view of the portable game device. The following description will be made with reference to this drawing.

게임장치(100)는, CPU(Central Processing Unit)(101), ROM(Read Only Memory)(102), RAM(Random Access Memory)(103), 인터페이스(interface)(104), 입력부(105), 메모리 카세트(106), 화상 처리부(107), 터치 스크린(108), NIC(Network Interface Card)(109), 음성 처리부(110), 마이크(111) 및 스피커(112)를 포함한다.The game device 100 includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, an interface 104, an input unit 105, Memory cassette 106, image processing unit 107, touch screen 108, NIC (Network Interface Card) 109, audio processing unit 110, microphone 111, and speaker 112.

게임용의 프로그램 및 데이터를 기억한 메모리 카세트(106)(상세는 후술함)를 인터페이스(104)에 접속된 슬롯(slot)(도시 생략)에 장착하고, 게임장치(100)의 전원을 투입함으로써, 상기 프로그램이 실행되어, 본 실시예의 항목선택장치 및 음성처리장치가 실현된다.By mounting a memory cassette 106 (described later in detail) storing a program and data for a game in a slot (not shown) connected to the interface 104, and turning on the power of the game device 100, The program is executed to realize the item selection device and sound processing device of this embodiment.

CPU(101)는 정보처리장치(100) 전체의 동작을 제어하여, 각 구성요소와 접속되어 제어신호나 데이터를 주고 받는다. CPU(101)는, 클록(clock)(도시 생략)을 구비하고 있어, 클록이 생성하는 신호에 동기해서, 주변기기가 동작한다.The CPU 101 controls the operation of the entire information processing apparatus 100 and is connected to each component to exchange control signals and data. The CPU 101 has a clock (not shown), and the peripheral device operates in synchronization with the signal generated by the clock.

ROM(102)은 전원 투입 직후에 실행되는 IPL(Initial Program Loader)을 기억한다. 이 IPL을 CPU(101)가 실행함으로써, 메모리 카세트(106) 등에 기록된 프로그램이 RAM(103)에 독출되어, CPU(101)에 의한 실행이 개시된다.The ROM 102 stores an IPL (Initial Program Loader) that is executed immediately after power is turned on. By the CPU 101 executing this IPL, a program recorded in the memory cassette 106 or the like is read into the RAM 103, and execution by the CPU 101 is started.

또한, ROM(102)에는 게임장치(100) 전체의 동작 제어에 필요한 오퍼레이팅 시스템(operating system)의 프로그램이나 각종 데이터가 기록된다.The ROM 102 also records a program and various data of an operating system required for operation control of the entire game device 100.

RAM(103)은, 데이터나 프로그램을 일시적으로 기억하기 위한 것으로, 메모리 카세트(106) 등으로부터 독출한 프로그램이나 데이터, 기타 게임의 진행에 필요한 데이터 등이 유지된다.The RAM 103 is for temporarily storing data and programs, and holds programs and data read out from the memory cassette 106 and the like, data necessary for the progress of games, and the like.

인터페이스(104)를 개재해서 착탈가능하게 접속된 메모리 카세트(106)는, 전술한 바와 같이 게임을 실현하기 위한 프로그램과 게임에 부수되는 화상 데이터나 음성 데이터를 기억하는, 판독 전용의 ROM 영역과, 플레이 결과 등의 데이터를 세이브(save)하는 SRAM 영역을 구비한다. CPU(101)는 메모리 카세트(106)에 대한 독출처리를 행하여, 필요한 프로그램이나 데이터를 독출하고, 독출된 데이터를 RAM(103) 등에 일시적으로 기억한다.The memory cassette 106 detachably connected via the interface 104 includes a read-only ROM area for storing a program for realizing a game and image data and audio data accompanying the game, as described above; An SRAM area for saving data such as a play result is provided. The CPU 101 performs a read process on the memory cassette 106, reads out necessary programs and data, and temporarily stores the read data in the RAM 103 or the like.

입력부(105)는, 도 2에 나타낸 컨트롤 버튼 등이며, 사용자에 의한 지시 입력을 접수한다.The input unit 105 is a control button or the like shown in FIG. 2, and receives an instruction input by a user.

화상 처리부(107)는, 메모리 카세트(106)로부터 독출된 데이터를 CPU(101)나 화상 처리부(107)가 구비하는 화상 연산 프로세서(도시 생략)에 의해서 가공 처리한 후, 이것을 화상 처리부(107)가 구비하는 프레임 메모리(도시 생략)에 기록한다. 프레임 메모리에 기록된 화상정보는, 소정의 동기 타이밍에서 비디오 신호로 변환되어 터치 센서식의 디스플레이(터치 스크린(108))에 출력된다. 이것에 의해, 각종 화상표시가 가능해진다.The image processing unit 107 processes the data read out from the memory cassette 106 by an image computing processor (not shown) included in the CPU 101 or the image processing unit 107, and then processes the data, and then processes the data. Writes to a frame memory (not shown) provided in the. The image information recorded in the frame memory is converted into a video signal at a predetermined synchronization timing and output to a touch sensor type display (touch screen 108). This makes it possible to display various images.

화상 연산 프로세서는, 2차원의 화상의 중첩 연산이나 α블렌딩 등의 투과 연산, 각종 포화 연산을 고속으로 실행할 수 있다.The image calculation processor can execute a superimposition operation of two-dimensional images, a transmission operation such as alpha blending, and various saturation operations at high speed.

또, 3차원 가상 공간에 배치되어, 각종 텍스처(texture) 정보가 부가된 다각형 정보를, Z버퍼법에 의해 렌더링(rendering)해서, 소정의 시점 위치로부터 3차원 가상 공간에 배치된 다각형을 내려다본 렌더링 화상을 얻는 연산의 고속 실행도 가능하다.Further, polygon information arranged in a three-dimensional virtual space and to which various texture information is added is rendered by the Z buffer method to look down on the polygon arranged in the three-dimensional virtual space from a predetermined viewpoint position. It is also possible to perform a high speed operation of obtaining a rendered image.

또한, CPU(101)와 화상 연산 프로세서가 협조 동작함으로써, 문자의 형상을 정의하는 폰트 정보에 따라서, 문자열을 2차원 화상으로서 프레임 메모리에 묘화하거나, 각 다각형 표면에 묘화하는 것이 가능하다. 폰트 정보는, ROM(102)에 기록되어 있지만, 메모리 카세트(106)에 기록된 전용의 폰트 정보를 이용하는 것도 가능하다.In addition, by the cooperative operation of the CPU 101 and the image calculation processor, it is possible to draw a character string in a frame memory as a two-dimensional image or to draw on each polygonal surface in accordance with font information defining the shape of a character. Although the font information is recorded in the ROM 102, it is also possible to use exclusive font information recorded in the memory cassette 106.

또, 상기 터치 스크린(108)은, 터치 센서를 중첩해서 구성되는 액정 패널이다. 터치 스크린(108)은, 사용자가 손가락 혹은 입력 펜 등에 의해서 가압한 위치에 따른 위치 정보를 검지하여, CPU(101)에 입력한다.Moreover, the said touch screen 108 is a liquid crystal panel comprised by overlapping a touch sensor. The touch screen 108 detects the positional information corresponding to the position pressed by the user with a finger or an input pen, and inputs the same to the CPU 101.

또한, 입력부(105)나 터치 스크린(108)을 개재해서 사용자에 의해 입력된 지시에 따라서, RAM(103)에 일시적으로 기억된 데이터를 적절하게 메모리 카세트(106)에 기억할 수 있다.In addition, in accordance with the instruction input by the user via the input unit 105 or the touch screen 108, data temporarily stored in the RAM 103 can be appropriately stored in the memory cassette 106.

NIC(109)는, 게임장치(100)를 인터넷 등의 컴퓨터 통신망(도시 생략)에 접속하기 위한 것이다. NIC(109)는, 예를 들어, 게임장치를 무선으로 LAN(Local Area Network)에 접속할 경우, IEEE 802.11 등의 규격에 준거하는 인터페이스(도시 생략)에 의해 구성된다. 또, 유선으로 LAN에 접속하는 경우에는, 10BASE-T/100BASE-T 규격에 준거하는 것이나, 전화 회선을 이용해서 인터넷에 접속하기 위한 아날로그 모뎀, ISDN(Integrated Services Digital Network) 모뎀, ADSL(Asymmetric Digital Subscriber Line) 모뎀, 케이블 텔레비전 회선을 이용해서 인터넷에 접속하기 위한 케이블 모뎀 등과, 이들과 CPU(101)와의 중개를 행하는 인터페이스(도시 생략)에 의해 구성된다.The NIC 109 is for connecting the game device 100 to a computer communication network (not shown) such as the Internet. The NIC 109 is configured by, for example, an interface (not shown) conforming to a standard such as IEEE 802.11 when the game device is wirelessly connected to a local area network (LAN). In addition, when connecting to a LAN by wire, it is based on the 10BASE-T / 100BASE-T standard, an analog modem for connecting to the Internet using a telephone line, an ISDN (Integrated Services Digital Network) modem, and ADSL (Asymmetric Digital). Subscriber Line) A modem, a cable modem for connecting to the Internet using a cable television line, and the like, and an interface (not shown) for mediating them with the CPU 101 is provided.

NIC(109)를 개재해서 인터넷 내의 SNTP 서버에 접속하고, 여기에서 정보를 취득함으로써 현재의 일시정보를 얻을 수도 있다. 또, 각종 네트워크 게임의 서버 장치가 SNTP 서버와 마찬가지 기능을 하도록 구성 설정해도 된다.The current date and time information can also be obtained by connecting to a SNTP server in the Internet via the NIC 109 and obtaining the information therefrom. In addition, the configuration may be such that the server apparatuses of various network games function similarly to SNTP servers.

음성 처리부(110)는, 메모리 카세트(106)로부터 독출한 음성 데이터를 아날로그 음성 신호로 변환하고, 음성 처리부(110)에 접속된 스피커(112)로부터 출력시킨다. 또한, CPU(101)의 제어 하, 게임의 진행 중에 발생시켜야 할 효과음이나 음성 데이터를 생성하여, 이것에 대응한 음성을 스피커(112)로부터 출력시킨다.The audio processing unit 110 converts the audio data read out from the memory cassette 106 into an analog audio signal and outputs it from the speaker 112 connected to the audio processing unit 110. In addition, under the control of the CPU 101, sound effects or sound data to be generated during the progress of the game are generated, and the corresponding sound is output from the speaker 112. FIG.

음성 처리부(110)는, 메모리 카세트(106)에 기록된 음성 데이터가 MIDI 데이터일 경우에는, 이것이 지닌 음원 데이터를 참조해서, MIDI 데이터를 PCM 데이터로 변환한다. 또, ADPCM(Adaptive Differential Pulse Code Modulation) 형식이나 Ogg Vorbis 형식 등의 압축완료 음성 데이터일 경우에는, 이것을 전개해서 PCM 데이터로 변환한다. PCM 데이터는, 그 샘플링 주파수에 따른 타이밍에서 D/A(Digital/Analog) 변환을 행하여, 스피커(112) 등에 출력함으로써, 음성출력이 가능해진다.When the voice data recorded in the memory cassette 106 is MIDI data, the voice processing unit 110 refers to the sound source data it has and converts the MIDI data into PCM data. In addition, in the case of compressed speech data such as the Adaptive Differential Pulse Code Modulation (ADPCM) format or the Ogg Vorbis format, this is expanded and converted into PCM data. The PCM data is subjected to D / A (Digital / Analog) conversion at the timing corresponding to the sampling frequency and output to the speaker 112 or the like, so that audio output is possible.

또한, 음성 처리부(110)는, 마이크(111)로부터 입력된 아날로그 신호를 적당한 샘플링 주파수로 A/D 변환을 행하여, PCM 형식의 디지털 신호를 생성한다.In addition, the audio processing unit 110 performs A / D conversion on the analog signal input from the microphone 111 at an appropriate sampling frequency to generate a digital signal in the PCM format.

그 밖에, 게임장치(100)는 메모리 카세트(106) 대신에, DVD-ROM으로부터 프로그램이나 데이터를 독출하는, DVD-ROM 드라이브를 구비하도록 구성하고, DVD-ROM에 메모리 카세트(106)와 마찬가지 기능을 가지도록 해도 된다. 또, 인터페이스(104)는, 메모리 카세트(106) 이외의 외부 메모리 매체로부터 데이터를 독출하도록 구성해도 된다.In addition, the game device 100 is configured to include a DVD-ROM drive that reads programs and data from the DVD-ROM instead of the memory cassette 106, and is similar to the memory cassette 106 on the DVD-ROM. You may have a function. The interface 104 may also be configured to read data from an external memory medium other than the memory cassette 106.

또는, 게임장치(100)는, 하드 디스크 등의 대용량 외부기억장치를 이용하여, ROM(102), RAM(103), 메모리 카세트(106) 등과 같은 기능을 하도록 구성해도 된다.Alternatively, the game device 100 may be configured to perform functions such as the ROM 102, the RAM 103, the memory cassette 106, and the like by using a large capacity external storage device such as a hard disk.

또한, 본 실시예에 따른 항목선택장치 및 음성처리장치는, 휴대형의 게임장치 상에 실현되지만, 일반적인 컴퓨터 상에 실현하는 것도 가능하다. 일반적인 컴퓨터는, 상기 게임장치(100)와 마찬가지로, CPU, RAM, ROM, NIC 등을 구비하고, 게임장치(100)보다도 간이한 기능을 갖춘 화상처리부를 구비하며, 외부기억장치로서 하드 디스크를 가지는 것 외에, 가요성 디스크, 광자기 디스크, 자기테이프 등을 이용할 수 있게 되어 있다. 또, 입력부가 아니라, 키보드나 마우스 등을 입력장치로서 이용한다. 그리고, 프로그램을 설치한 후에, 그 프로그램을 실행시키면, 항목선택장치 및 음성처리장치로서 기능시킬 수 있다.The item selection device and the audio processing device according to the present embodiment are realized on a portable game device, but can also be implemented on a general computer. A general computer, like the game device 100, has a CPU, RAM, ROM, NIC, etc., has an image processing unit having a simpler function than the game device 100, and has a hard disk as an external storage device. In addition, flexible disks, magneto-optical disks, magnetic tapes, and the like can be used. In addition, a keyboard, a mouse, or the like is used as the input device instead of the input unit. After the program is installed, the program can be executed to function as an item selection device and a sound processing device.

이하에서는, 항목선택장치에 대해서 설명하고, 그 후 음성처리장치에 대해서 설명한다. 또, 특별히 기재하지 않는 한, 항목선택장치 및 음성처리장치에 대해서, 도 1에 나타낸 게임장치(100)에 의해 설명을 가한다. 항목선택장치 및 음성처리장치는, 필요에 따라서 적절하게 일반적인 컴퓨터의 요소로 치환할 수 있고, 이들 실시형태도 본 발명의 범위에 포함된다.In the following, the item selection device will be described, and then the audio processing device will be described. Unless otherwise noted, the item selection device and the audio processing device will be explained by the game device 100 shown in FIG. The item selection device and the audio processing device can be appropriately substituted with elements of a general computer as needed, and these embodiments are also included in the scope of the present invention.

(항목선택장치)(Item selector)

도 3은 본 실시예에 관한 항목선택장치(200)의 개요구성을 나타낸 블록도이다. 항목선택장치(200)는, 도 3에 나타낸 바와 같이, 기억부(201), 표시부(202), 검지부(203), 항목 출력부(204), 이동부(205) 등을 포함한다. 또, 후술하는 바와 같이, 항목선택장치(200)는, 도 8에 나타낸 바와 같이, 접촉 부재(206)를 구비해도 된다. 이하에 항목선택장치(200)의 각 구성요소에 대해서 본 도면을 참조해서 설명한다.3 is a block diagram showing a schematic configuration of an item selecting apparatus 200 according to the present embodiment. As shown in FIG. 3, the item selection device 200 includes a storage unit 201, a display unit 202, a detection unit 203, an item output unit 204, a moving unit 205, and the like. In addition, as will be described later, the item selection device 200 may include a contact member 206, as shown in FIG. 8. Hereinafter, each component of the item selection device 200 will be described with reference to this drawing.

기억부(201)는, 선택 대상으로 되는 항목을 요소로 하는 표를 기억한다. 해당 표는 적어도 1개의 행 및 열을 구비하는 2차원 배열의 구성을 하고 있다. 예를 들어, 게임장치(100)를 이용해서 복수의 곡목을 선택하여 재생하는 바와 같은 경우, 상기 표는 상기 곡목의 각각을 요소로 해서 구성되도록 해도 된다. 또, N개의 요소를 구비하는 1차원 표의 경우, 해당 표를 A개마다 그룹으로 나누어, A행, N/A열(또는, N/A행, A열)의 2차원의 표를 구성하도록 해도 된다. 메모리 카세트(106)나, RAM(103) 등이 협동해서 기억부(201)로서 기능한다.The storage unit 201 stores a table whose elements are items to be selected. The table is configured in a two-dimensional array having at least one row and column. For example, in the case where a plurality of pieces of music are selected and reproduced using the game device 100, the table may be configured using each of the pieces of music as an element. In the case of a one-dimensional table having N elements, the table may be divided into groups for each A group to form a two-dimensional table of rows A and N / A (or N / A and A). do. The memory cassette 106, the RAM 103, and the like cooperate together to function as the storage unit 201.

표시부(202)는 기억부(201)로부터 표의 구성 정보를 취득하여, 도 4a에 나타낸 바와 같이, 표의 화상 데이터((300)을 참조)를 생성한다. 또, 도면에 있어서, 표는 5행 4열의 요소를 구비하지만, 표의 크기는 이것으로 한정되지 않는다. 본 실시예에서는, 표의 크기가 터치 스크린 평면의 크기보다도 클 경우를 고려해서, 표의 화상 데이터의 일부를 덮는, 소정의 크기의 영역을 구비한 창((310)을 참조)을 준비한다. 이 창의 크기나 위치는 기억부(201)에 기억된다. 창의 위치는 사용자의 조작 지시에 의거해서 이동하도록 갱신된다. 표시부(202)는 기억부(201)에 기억되는 창의 위치를 취득하고, 해당 창에 의해 덮인 영역에 포함되는 상기 표의 요소를, 예를 들어, 도 4b에 나타낸 바와 같이 표시한다.The display unit 202 acquires the configuration information of the table from the storage unit 201 and generates image data (see 300) of the table as shown in FIG. 4A. In the drawings, the table includes five rows and four columns of elements, but the size of the table is not limited thereto. In this embodiment, considering the case where the size of the table is larger than the size of the touch screen plane, a window 310 (see 310) having an area of a predetermined size covering a part of the image data of the table is prepared. The size and position of this window are stored in the storage unit 201. The position of the window is updated to move based on the user's operation instruction. The display unit 202 acquires the position of the window stored in the storage unit 201 and displays the elements of the table included in the area covered by the window as shown in FIG. 4B, for example.

또한, 도 4b에서 표시되는 항목의 일람은, 요소의 경계와 표시 영역의 경계가 일치하고 있지 않지만, 반드시 일치하도록 조정하도록 해도 된다.Note that the list of items displayed in FIG. 4B does not coincide with the boundary of the element and the boundary of the display area, but may be adjusted so as to coincide.

이와 같이, 창에 의해서 덮이는 영역이 표시부(202)에 의해서 표시되는 영역이기 때문에, 이후, 창 및 영역은 특별히 기재하지 않는 한 동일한 의미로서 이용한다. CPU(101) , RAM(103), 화상 처리부(107), 터치 스크린(108) 등이 협동해서, 표시부(202)로서 기능한다.Thus, since the area | region covered by the window is the area | region displayed by the display part 202, a window and an area are used by the same meaning after that unless there is particular notice. The CPU 101, the RAM 103, the image processing unit 107, the touch screen 108, and the like cooperate to function as the display unit 202.

창의 위치는, 예를 들어, 표의 원점(O)(예를 들어, 표의 좌측 위쪽)으로부터의, 해당 창의 원점(O')의 좌표값(예를 들어, O로부터의 O'까지의 X방향 및 Y방향의 픽셀수)으로 표시된다. 또, 표시되는 표의 X방향의 크기가 W라고 하면, 각 요소가 표시되는 셀(도 4a의 (301)을 참조)의 X방향의 크기 w는, W/N(N: 열수)이며, 표의 Y방향의 크기가 L이라고 하면, 셀의 Y방향의 크기 l은 L/M(M: 행수)이다.The position of the window is, for example, the X direction from the origin O of the table (e.g., the upper left of the table), to the coordinate value of the origin O 'of that window (e.g., O' from O) and Number of pixels in the Y direction). Moreover, if the magnitude | size of the X direction of the displayed table is W, the magnitude | size w of the X direction of the cell (refer to 301 of FIG. 4A) in which each element is displayed is W / N (N: number of columns), Y of the table If the size of the direction is L, the size l in the Y direction of the cell is L / M (M: number of rows).

검지부(203)는, 터치 스크린에 접촉이 있는지의 여부를 소정의 시간 간격으로 검지한다. 사용자가 터치한 터치 스크린 평면의 위치는, 예를 들어, 터치 스크린의 좌측 위쪽의 모서리를 원점으로 했을 때의 좌표값으로서 표시된다. 또, 검지부(203)는, 터치 스크린이 터치되어 있지 않을 경우, 터치되어 있지 않다는 취지를 검지한다. 터치 스크린(108), CPU(101) 등이 협동해서 검지부(203)로서 기능한다.The detection unit 203 detects whether there is a contact on the touch screen at predetermined time intervals. The position of the touch screen plane touched by the user is displayed as a coordinate value when the upper left corner of the touch screen is the origin, for example. In addition, the detection unit 203 detects that the touch screen is not touched when the touch screen is not touched. The touch screen 108, the CPU 101, and the like cooperate together to function as the detection unit 203.

항목 출력부(204)는, 검지부(203)의 검지 결과에 의해, 사용자가 터치 스크린에의 접촉을 개시하고, 그 접촉 위치를 거의 이동시키지 않고 터치 스크린을 해방한 것으로 판단했을 경우, 상기 접촉하고 있는 위치에 표시되어 있는 항목을 선택 결과로서 출력한다. 여기서, 「거의 이동시키지 않고」란, 접촉이 개시되고 나서 해방되기까지의 사이에 검지된 위치가 모두 소정의 범위 내이면 된다. CPU(101) 등이 항목 출력부(204)로서 기능한다.When the item output unit 204 determines that the user initiates contact with the touch screen based on the detection result of the detection unit 203 and releases the touch screen almost without moving the contact position, the item output unit 204 makes the contact. Outputs the item displayed at the position as the selection result. Here, "without moving" means that all of the positions detected from the start of the contact until release are all within a predetermined range. The CPU 101 and the like function as the item output unit 204.

이동부(205)는, 검지부(203)의 검지 결과에 의해, 사용자가 터치 스크린을 스위핑(sweeping: 掃う)하도록(요동 스위핑하도록) 접촉 이동했다고 판단했을 경우, 터치 스크린을 해방하기 직전의 접촉 이동의 속도를 취득한다. 그리고, 상기 속도에 의거해서, 기억부(201)에 기억되는 창의 위치가 이동되도록 갱신한다. 표시부(202)가 이동하는 창에 덮여 있는 표의 영역을 표시하면, 표가 스크롤해서 표시된다.When the moving unit 205 determines that the user has moved the touch screen to sweep (swiping) the touch screen according to the detection result of the detecting unit 203, the contact immediately before releasing the touch screen. Get the speed of the move. And based on the said speed, it updates so that the position of the window stored in the memory | storage part 201 may move. When the display unit 202 displays an area of the table covered by the moving window, the table is scrolled and displayed.

또한, 이동부(205)는, 사용자에 의해서 터치 스크린이 접촉되고 있는 동안에는, 터치 스크린에의 접촉을 개시했을 때 접촉 위치에 표시되어 있는 항목과 같은 것이 접촉 위치에 표시되도록, 창의 위치를 이동한다. 즉, 접촉을 개시했을 때 접촉하고 있는 항목이 접촉 위치에 고정된다. 따라서, 표가 스크롤하고 있을 경우, 재차 터치 스크린을 접촉하면, 상기 접촉 위치에 표시되어 있는 내용이 접촉 위치에 고정되어, 스크롤을 멈출 수도 있다. 이동부(205)는, CPU(101), RAM(103), 메모리 카세트(106) 등이 협동해서, 이동부(205)로서 기능한다.In addition, while the touch screen is being touched by the user, the moving unit 205 moves the position of the window so that an item such as an item displayed at the touch position when the touch screen is started is displayed at the touch position. . That is, the item which is in contact when starting a contact is fixed to a contact position. Therefore, when the table is scrolling, if the touch screen is touched again, the content displayed at the contact position is fixed at the contact position, and scrolling may be stopped. The moving unit 205 functions as the moving unit 205 in cooperation with the CPU 101, the RAM 103, the memory cassette 106, and the like.

(동작 처리)(Action processing)

상기 구성을 갖춘 항목선택장치(200)의 처리 동작을 도 5를 참조해서 설명한다.The processing operation of the item selection device 200 having the above configuration will be described with reference to FIG.

항목선택장치(200)의 전원이 투입되면, IPL을 CPU(101)가 실행함으로써, 메모리 카세트(106)에 기록된 프로그램이 RAM(103)에 읽어 넣어지는 등의, 초기화처리가 행해진다. 프로그램의 진행에 따라, 항목선택처리가 개시되면, 우선, 표시부(202)가, 선택 대상으로 되는 항목의 일부를 일람으로서 나타내는 선택 화면을 표시한다(스텝 S400). 본 실시예에 있어서는, 선택 대상의 항목은 기타 시뮬레이션을 행하는 악곡을 특정하기 위한 정보(곡목 등)이다.When the power supply of the item selection device 200 is turned on, the CPU 101 executes the IPL, whereby an initialization process such as reading a program recorded in the memory cassette 106 into the RAM 103 is performed. When the item selection processing is started in accordance with the progress of the program, first, the display unit 202 displays a selection screen showing a part of the items to be selected as a list (step S400). In the present embodiment, the item to be selected is information (such as a piece of music) for specifying the piece of music for which other simulation is performed.

이때, 표시부(202)는, 전술한 바와 같이, 기억부(201)로부터 표의 구성 정보를 취득하여, 표의 화상 데이터를 생성한다. 창의 위치는, 초기 상태에 있어서는, 표의 원점에 배치되므로, 표시부(202)는, 표의 원점에서부터, X방향으로 창의 폭 W 및 Y방향으로 창의 길이 L에 덮이는 영역을 표시한다.At this time, the display unit 202 acquires the configuration information of the table from the storage unit 201 and generates the image data of the table as described above. Since the position of a window is arrange | positioned at the origin of a table in an initial state, the display part 202 displays the area | region covered by the width W of the window in the X direction and the length L of the window in the X direction from the origin of the table.

이어서, CPU(101)는, 검지부(203)가 좌표값을 검지하면, 기억부(201)에 축적한다(스텝 S401). 축적된 좌표값은, 나중에, 접촉 위치의 변화의 속도를 산출하기 위하여 이용한다.Subsequently, when the detection unit 203 detects the coordinate value, the CPU 101 accumulates in the storage unit 201 (step S401). The accumulated coordinate values are later used to calculate the speed of change of the contact position.

계속해서, CPU(101)는, 검지부(203)가 검지한 상태가 변화되었는지의 여부를 판정한다(스텝 S402). 즉, 전회 검지된 것이 좌표값일 때, 금번 해방 상태(즉, 터치 스크린이 접촉되어 있지 않은 상태)가 검지되거나, 전회와 다른 좌표값이 검지되면, 상태가 변화되었다고 판정된다. 또는, 전회 검지된 것이 해방 상태일 때, 금번 어느 쪽인가의 좌표값이 검지되면, 상태가 변화되었다고 판정된다. CPU(101)는 상태가 변화되지 않는 동안에는(스텝 S402: 아니오), 재차 스텝 S402로 되돌아가, 상태가 변화되는 것을 기다린다.Subsequently, the CPU 101 determines whether the state detected by the detection unit 203 has changed (step S402). That is, when the last detected thing is the coordinate value, when the release state (that is, the state in which the touch screen is not in contact) is detected this time, or when a coordinate value different from the previous time is detected, it is determined that the state has changed. Or, when the one detected last time is the released state, if any one of the coordinate values is detected this time, it is determined that the state has changed. While the state is not changed (step S402: NO), the CPU 101 returns to step S402 again and waits for the state to change.

CPU(101)는, 검지 상태가 변화되었다고 판정하면(스텝 S402: 예), 이어서, 금회 검지된 것이 해방 상태인지 또는 좌표값인지를 판정한다(스텝 S403).When the CPU 101 determines that the detected state has changed (step S402: YES), the CPU 101 then determines whether the detected state is a released state or a coordinate value (step S403).

금회 검지된 것이 좌표값인 경우(스텝 S403: 아니오), 다음에, CPU(101)는, 전회 검지된 상태가 해방 상태인지 또는 다른 좌표값인지를 판정한다(스텝 S410). 전회 검지된 상태가 해방 상태이면, 사용자에 의해 접촉이 개시되었다고 판정하고(스텝 S410: 예), CPU(101)는, 접촉이 개시되었을 때의 터치 스크린상의 좌표값과 창의 위치를 RAM(103)에 일시적으로 기억한다(스텝 S411). 그리고, 처리는 스텝 S400으로 되돌아간다.When what is detected this time is a coordinate value (step S403: No), CPU101 next determines whether the state detected last time is a release state or another coordinate value (step S410). If the state detected last time is the released state, it is determined that the contact has been started by the user (step S410: YES), and the CPU 101 determines the coordinate value and the position of the window on the touch screen when the contact is started. Is stored temporarily (step S411). The process then returns to Step S400.

한편, 금회 검지된 것이 좌표값이면서(스텝 S403: 아니오), 또한, 전회 검지된 상태가 해방 상태가 아닌 경우(스텝 S410: 아니오), 전회 검지된 좌표값과는 다른 좌표값이 금회 검지되어 있는 것을 의미한다. 즉, 접촉된 상태에서, 접촉 위치가 이동하고 있다. 이때, 이동부(205)는, 전회 접촉한 위치에 표시되는 요소가 금회 접촉하고 있는 위치에 드래그 표시되도록 창을 이동한다(스텝 S412).On the other hand, if the detected value this time is a coordinate value (step S403: NO), and the state detected last time is not a released state (step S410: NO), a coordinate value different from the previously detected coordinate value is detected this time. Means that. That is, in the contacted state, the contact position is moving. At this time, the moving unit 205 moves the window so that the element displayed at the position touched last time is dragged and displayed at the position touched this time (step S412).

즉, 도 6a에 나타낸 바와 같이, 전회 검지된 상태가 좌표값(p1, q1)이고, 금회 검지된 상태가 좌표값(p, q)이었을 경우, 접촉 위치는, (p-p1)만큼 x방향으로, 그리고 (q-q1)만큼 Y방향으로 이동하고 있다. 따라서, 도 6b에 나타낸 바와 같이, 이동부(205)는, 창(310)의 위치(x1, y1)를 접촉 위치의 이동한 분량만큼 반대 방향(즉, (x1-(p-p1), y1-(q-q1))으로 이동시킨다. 도 6b에서는, 이동한 창을 (310')로 표시하고, 해당 창(310)'의 위치를 (x, y) = (x1-(p-p1), y1-(q-q1))로 표시하고 있다.That is, as shown in FIG. 6A, when the state detected last time was the coordinate values p1 and q1 and the state detected this time was the coordinate values p and q, the contact position is in the x direction by (p-p1). And in the Y direction by (q-q1). Therefore, as shown in FIG. 6B, the moving unit 205 moves the position (x1, y1) of the window 310 in the opposite direction by the moved amount of the contact position (that is, (x1- (p-p1), y1). -(q-q1)) In FIG. 6B, the moved window is indicated by (310 '), and the position of the window 310' is (x, y) = (x1- (p-p1). , y1- (q-q1)).

예를 들어, 도 6c에서는, 요소(GG)의 좌측 위쪽 부분이 접촉된 상태에 있다. 이 접촉된 상태에서, 도 6c에 나타낸 화살표의 방향으로 접촉 위치를 이동시킨 경우, 접촉 위치의 변화의 방향과 반대방향으로 같은 변화량만큼 창의 위치를 이동시킨다. 이것에 의해, 도 6d에 나타낸 바와 같이, 접촉 위치에는, 도 6c와 마찬가지로 요소(GG)의 좌측 위쪽 부분이 표시된다.For example, in FIG. 6C, the upper left portion of the element GG is in contact. In this contacted state, when the contact position is moved in the direction of the arrow shown in Fig. 6C, the window position is moved by the same amount of change in the direction opposite to the direction of change of the contact position. As a result, as shown in FIG. 6D, the upper left portion of the element GG is displayed in the contact position similarly to FIG. 6C.

또한, 드래그 조작에 의해서, 창의 위치가 변화되고, 창의 영역이 표의 영역으로부터 벗어난 경우, 창의 위치(x, y)는 항상 표의 영역 내의 좌표를 나타내도록 재배치한다. 예를 들어, 창의 위치가 표의 끝에 도달한 경우에는, 표의 대립하는 위치에 창의 위치를 이동하도록 한다. 즉, 표가 원점(0, 0), (W, 0), (0, L), (W, L)로 둘러싸인 영역에 표시될 때, X = W에 의해서 표시되는 표(300)의 경계선은 X = 0의 경계선으로 되도록 취급하고, Y = L에 의해서 표시되는 경계선은 Y=0의 경계선으로 되도록 취급한다.In addition, when the window position is changed by the drag operation and the window area is out of the table area, the window position (x, y) is always rearranged to represent the coordinates in the table area. For example, if the position of the window reaches the end of the table, move the position of the window to the opposite position of the table. That is, when the table is displayed in an area surrounded by the origin (0, 0), (W, 0), (0, L), (W, L), the boundary of the table 300 indicated by X = W is It is treated to be a border line of X = 0, and the border line indicated by Y = L is treated to be a border line of Y = 0.

따라서, 창의 위치를 나타내는 좌표값이 X방향으로 W보다 큰 분량에 대해서는, 0에 가산한다. 또한, x방향으로 0보다 작은 분량에 대해서는, W로부터 감산한다. 한편, Y방향으로 L보다 큰 분량에 대해서는, 0에 가산한다. 또한, Y방향으로 0보다 작은 분량에 대해서는, L로부터 감산한다. 이와 같이 해서 창의 위치는 순회해서 이동된다.Therefore, the coordinate value indicating the position of the window is added to 0 for the amount larger than W in the X direction. In addition, about the quantity smaller than 0 in an x direction, it subtracts from W. FIG. On the other hand, the amount larger than L in the Y direction is added to zero. In addition, about the quantity smaller than 0 in a Y direction, it subtracts from L. FIG. In this way, the position of the window is cyclically moved.

예를 들어, 도 7a에서는, 창(310)의 위치가 표(300)의 원점으로부터 (-cx, -dy)의 위치에 있고(c, d는 임의인 정수), (-cx, -dy)가 표(300)의 영역 밖에 있을 경우, 창의 위치가 표의 영역 내의 (W-cx, L-dy)에 재배치되는 상황을 나타낸다. 재배치된 창을 (310')로 나타낸다.For example, in FIG. 7A, the location of window 310 is at (-cx, -dy) from the origin of table 300 (c, d is any integer), (-cx, -dy) If is outside the area of the table 300, it indicates the situation that the position of the window is rearranged to (W-cx, L-dy) within the area of the table. The rearranged window is shown as 310 '.

이것에 의해, 처리가 스텝 S400으로 되돌아가서, 표시부(202)는, 현재 창으로 덮여 있는 표의 영역을 표시하면, 사용자가 접촉한 터치 스크린의 위치에 표시되어 있었던 요소는, 사용자가 접촉을 이동한 이동처의 위치에 드래그 이동되고 있는 것처럼 표시된다. 또, 창의 크기는 기억부(201)에 미리 기억된다.As a result, the process returns to step S400, and when the display unit 202 displays the area of the table covered by the current window, the element displayed at the position of the touch screen that the user touched moves the contact. It is displayed as if it is being dragged to the position of the moving destination. The size of the window is stored in advance in the storage unit 201.

단, 스텝 S412에 있어서의 창의 위치의 이동에 따라, 창의 영역의 일부가 표로부터 벗어나서 배치되는 바와 같은 경우, 표시부(202)는, 표로부터 벗어난 창의 영역에 대해서는, 표의 행 및 열의 각각의 선두와 최후미의 요소가 인접하도록 순회적으로 표시한다.However, when a part of the area of a window is arrange | positioned out of a table according to the movement of the position of a window in step S412, the display part 202 has the head of each row and column of a table with respect to the area | region of a window deviating from a table. The last element is rounded off to be adjacent.

이것은, 예를 들어, 다음과 같이 산출한다. 예를 들어, W 및 L을 각각 표(300)의 X방향 및 Y방향의 크기라 하고, W' 및 L'를 각각 창(310)의 X방향 및 Y방향의 크기라 한다. 창(310)의 원점(O')의 좌표값이 (x, y)이면, 표시해야 할 표의 영역은, 표(300)의 원점(O)으로부터, (x, y), (x+W', y), (x, y+L'),(x+W',y+L')로 둘러싸인 영역으로 된다. 이 표시해야할 표의 영역 내의 임의의 점의 좌표값을 (s, t)라 하면, (s',t') =(s mod W, t mod L)을 산출함으로써, 좌표값(s',t')은, 창의 영역이 표의 영역을 넘어서 배치된 경우에도, 순회해서 표의 영역 내의 좌표값을 부여한다.This is computed as follows, for example. For example, W and L are referred to as the sizes in the X and Y directions of the table 300, respectively, and W 'and L' are referred to as the sizes in the X and Y directions of the window 310, respectively. If the coordinate value of the origin O 'of the window 310 is (x, y), the area of the table to be displayed is (x, y), (x + W') from the origin O of the table 300. , y), (x, y + L '), and (x + W', y + L '). If the coordinate value of any point in the area of the table to be displayed is (s, t), the coordinate value (s ', t' is calculated by calculating (s ', t') = (s mod W, t mod L). Also denotes a coordinate value in the table area even if the window area is arranged beyond the table area.

이것에 의해, 예를 들어, 도 7b에 나타낸 바와 같이, 표(300)에 있어서, 창(310)이 위치하고 있던 경우, 표시되는 표의 요소는, 도 7c에 나타낸 바와 같이 된다.Thus, for example, as shown in FIG. 7B, when the window 310 is located in the table 300, the elements of the displayed table are as shown in FIG. 7C.

한편, 금회 검지된 것이 해방 상태이면(스텝 S403: 예), 항목 출력부(204)는, 스텝 S400에서 기억부(201)에 축적된 좌표값이 소정의 범위 내에 있는지의 여부를 판정한다(스텝 S404).On the other hand, if the one detected this time is in the released state (step S403: YES), the item output unit 204 determines whether or not the coordinate values accumulated in the storage unit 201 in step S400 are within a predetermined range (step S403). S404).

예를 들어, 축적된 검지 위치가 모두 소정의 반경을 갖는 영역 내에 포함될 경우, 접촉 위치가 이동하고 있지 않은 것으로 판정하여(스텝 S404: 예), 항목 출력부(204)는, 예를 들어, 축적된 검지 위치의 평균 좌표값에 현재 표시되어 있는 표의 항목을 선택 결과로서 출력한다(스텝 S405).For example, when the accumulated detection positions are all included in an area having a predetermined radius, it is determined that the contact positions are not moving (step S404: YES), and the item output unit 204, for example, accumulates. The item of the table currently displayed in the average coordinate value of the detected detection position is output as a selection result (step S405).

선택 결과가 얻어지면, 항목선택처리는 종료하고, CPU(101)는 얻어진 선택 결과에 의거해서 소정의 처리를 행한다.When the selection result is obtained, the item selection processing is finished, and the CPU 101 performs a predetermined processing based on the obtained selection result.

또, 축적된 좌표값은, 스텝 S405 이후, 파기되도록 하면 된다(스텝 S420).The accumulated coordinate value may be discarded after step S405 (step S420).

한편, 축적된 검지 위치가 모두 소정의 범위 내가 아닐 경우(스텝 S404: 아니오), 접촉 위치가 이동하고 있는 것으로 판단해서, CPU(101)는, 접촉이 해방되기 직전의 접촉 위치의 이동 속도를 산출하고, 산출한 이동 속도가 소정의 역치 속도 이상인지의 여부를 판정한다(스텝 S406).On the other hand, when the accumulated detection positions are not all within a predetermined range (step S404: NO), it is determined that the contact position is moving, and the CPU 101 calculates the movement speed of the contact position just before the contact is released. Then, it is determined whether the calculated moving speed is equal to or greater than the predetermined threshold speed (step S406).

예를 들어, 접촉이 해방되기 직전의 검지 좌표를 (p1, q1), 또한 그 직전의 검지 좌표를 (p2, q2)로 하고(이들은, 기억부(201)에 축적된, 최신의 좌표값과 그 전의 좌표값을 참조함으로써 얻어짐), 검지부(203)가 검지하는 시간 간격을 T1초라 했을 경우, 접촉이 해방되기 직전의 접촉 위치의 변화를 나타내는 속도 벡터는, 다음 식에 의해서 구해진다:For example, the detection coordinates immediately before the contact is released (p1, q1) and the detection coordinates immediately before that are (p2, q2) (these are the latest coordinate values accumulated in the storage unit 201). Obtained by referring to the previous coordinate value) and the time interval detected by the detection unit 203 is T1 seconds, a velocity vector indicating a change in the contact position just before the contact is released is obtained by the following equation:

((pl-p2)/T1, (ql-q2)/T1).((pl-p2) / T1, (ql-q2) / T1).

상기 x성분 및 y성분 중, 큰 쪽의 성분이 소정의 역치속도 이상이면(스텝 S406: 예), 사용자가 터치 스크린에 대해서 스위핑하는 조작을 행한 것으로서 판정하고, 이동부(205)는, 창의 위치를, 사용자의 스위핑 속도에 따른 속도로, 큰 쪽의 성분의 방향으로 이동시킨다(스텝 S407).If the larger component of the x component and the y component is equal to or greater than a predetermined threshold speed (step S406: YES), it is determined that the user has performed an operation of sweeping the touch screen, and the moving unit 205 determines the position of the window. Is moved in the direction of the larger component at a speed corresponding to the sweeping speed of the user (step S407).

즉, x성분이 y성분보다도 클 경우, 접촉이 해방되기 직전의 접촉 위치의 이동 속도의 방향은 x방향에 가까운 것을 의미한다. 따라서, 창의 위치를 행방향(좌우 방향)으로 (p1-p2)/T1의 속도로 이동시킨다. 한편, y성분이 x성분보다도 클 경우, 상기 이동 속도의 방향이 y방향에 가까운 것을 의미한다. 따라서, 창의 위치를 열방향(상하방향)으로 (q1-q2)/T1의 속도로 이동시킨다. 상기 산출된 접촉 위치의 x방향 및 y방향의 이동 속도에 소정의 계수를 곱한 것을 창의 이동 속도로 해도 된다. 또한, x성분 및 y성분의 크기가 같으면, 행 또는 열의 어느 쪽인가 소정의 방향으로 그 방향의 성분의 속도로 이동시킨다.That is, when the x component is larger than the y component, it means that the direction of the moving speed of the contact position just before the contact is released is close to the x direction. Therefore, the position of the window is moved at a speed of (p1-p2) / T1 in the row direction (left and right directions). On the other hand, when the y component is larger than the x component, it means that the direction of the moving speed is close to the y direction. Therefore, the position of the window is moved at the speed of (q1-q2) / T1 in the column direction (up-down direction). The movement speed in the x and y directions of the calculated contact position may be multiplied by a predetermined coefficient as the window movement speed. Moreover, if the magnitude | size of an x component and a y component is the same, either a row or a column is moved in the predetermined direction at the speed of the component of that direction.

이어서, 표시부(202)는, 스텝 S400과 마찬가지의 처리를 행하여, 선택항목을 요소로서 구비하는 표 중, 창으로 덮여있는 영역을 표시한다(스텝 S408). 그리고, CPU(101)는 접촉이 검지되었는지를 판정하여(스텝 S409), 접촉이 검지된 것으로 판정하면(스텝 S409: 예), 접촉이 개시된 것으로 해서, 스텝 S411로 처리를 진행시킨다. 한편, 접촉이 검지되지 않은 동안에는(S409: 아니오), 스텝 S407로 처리를 되돌린다. 이 결과, 표는 다음에 접촉이 검지될 때까지, 표시부(202)에 의해서 행방향 또는 열방향으로, 스위핑 직전의 접촉 이동 속도에 의거해서 스크롤 표시된다.Subsequently, the display unit 202 performs the same process as in step S400, and displays a region covered with a window in the table having the selected item as an element (step S408). Then, the CPU 101 determines whether the contact has been detected (step S409), and if it determines that the contact has been detected (step S409: YES), the process proceeds to step S411 as if the contact was started. On the other hand, while the contact is not detected (S409: NO), the process returns to step S407. As a result, the table is scrolled and displayed on the basis of the contact movement speed just before the sweeping by the display unit 202 in the row direction or the column direction until the next contact is detected.

또한, 드래그 조작에 대해서 전술한 바와 같이, 창이 표의 화상의 경계에 도달한 경우, 이동부(205)는 순회적으로 창의 위치를 이동시키도록 한다.In addition, as described above with respect to the drag operation, when the window reaches the boundary of the table image, the moving unit 205 causes the position of the window to move cyclically.

한편, CPU(101)는, 접촉 위치의 이동 속도가 소정의 속도보다 느리다고 판단하면(스텝 S406: 아니오), 처리를 스텝 S400으로 되돌린다. 이상에 의해, 항목선택처리는 종료된다.On the other hand, when the CPU 101 determines that the movement speed of the contact position is slower than the predetermined speed (step S406: NO), the processing returns to step S400. By the above, the item selection process is completed.

(음성처리장치)(Voice Processing Equipment)

다음에, 전술한 바와 같이 해서 선택된 곡목에 따라서 특정되는 악곡으로, 기타 연주의 시뮬레이션을 실현하는 음성처리장치(1000)에 대해서 설명한다.Next, a description will be given of the audio processing apparatus 1000 for realizing a simulation of guitar performance as a piece of music specified according to the piece of music selected as described above.

도 9는 본 실시예에 따른 음성처리장치(1000)의 개요구성을 도시한 모식도이다. 음성처리장치(1000)는, 도 9에 나타낸 바와 같이, 검지부(1001), 음성 출력부(1002) 등을 구비한다. 또, 음성처리장치(1000)는, 후술하는 바와 같이, 접촉 부재(206)(도 8을 참조)를 구비해도 된다. 이하에, 본 실시예에 따른 음성처리장치(1000)의 각 구성요소에 대해서 본 도면을 참조해서 설명한다.9 is a schematic diagram showing a schematic configuration of a speech processing apparatus 1000 according to the present embodiment. As illustrated in FIG. 9, the audio processing apparatus 1000 includes a detection unit 1001, an audio output unit 1002, and the like. In addition, the audio processing apparatus 1000 may be provided with the contact member 206 (refer FIG. 8), as mentioned later. Hereinafter, each component of the audio processing apparatus 1000 according to the present embodiment will be described with reference to the drawings.

검지부(1001)는, 항목선택장치의 검지부(203)와 마찬가지의 것이며, 터치 스크린에 접촉이 있는지의 여부를 소정의 시간 간격에서 검지한다. 사용자가 터치한 터치 스크린 평면의 위치는, 예를 들어, 터치 스크린의 좌측 위쪽의 모서리를 원점으로 했을 때의 좌표값으로서 표시된다. 또, 터치 스크린이 터치되어 있지 않을 경우에는, 터치되어 있지 않다는 취지를 검지한다. 터치 스크린(108) 및 CPU(101) 등이 협동해서 검지부(1001)로서 기능한다.The detection unit 1001 is similar to the detection unit 203 of the item selection device, and detects whether or not there is contact on the touch screen at predetermined time intervals. The position of the touch screen plane touched by the user is displayed as a coordinate value when the upper left corner of the touch screen is the origin, for example. In addition, when the touch screen is not touched, it detects that it is not touched. The touch screen 108, the CPU 101, and the like cooperate together to function as the detection unit 1001.

음성 출력부(1002)는, 검지된 결과에 의거해서, 사용자가 터치 스크린에 대해서 행한 조작이 소정의 조작 조건을 충족시키고 있는지를 판단하여, 충만시키고 있을 경우에는, 출력 음성의 출력을 개시하거나, 정지하거나 하는 제어를 행한다. 음성 처리부(110) 등이 음성 출력부(1002)로서 기능한다.On the basis of the detected result, the audio output unit 1002 determines whether or not the operation performed by the user on the touch screen satisfies a predetermined operation condition, and when it is filled, starts the output of the output voice, Control to stop. The voice processing unit 110 and the like function as the voice output unit 1002.

(동작 처리)(Action processing)

이하에, 상기 구성을 구비한 본 실시예에 따른 음성처리장치(1000)의 동작 처리에 대해서 설명한다.The operation processing of the audio processing apparatus 1000 according to the present embodiment having the above configuration will be described below.

메모리 카세트(106)에는, 곡목 등 악곡의 속성정보에 대응해서, 상기 악곡의 반주 음성, 연주 음성, 상기 연주 음성이 출력되어야할 타이밍 등이 기억된다.The memory cassette 106 stores accompaniment voices, performance voices, timings at which the performance voices are output, and the like, corresponding to attribute information of music pieces such as music pieces.

사용자의 지시에 의해 곡목이 선택되어, 소정의 컨트롤 버튼이 눌리는 등 해서, 게임 개시의 지시가 이루어지면, CPU(101)는, 상기 곡목에 대응하는 반주 음성을 메모리 카세트(106)로부터 RAM(103)에 전개시키고, 음성 처리부(110)를 개재해서 스피커(112) 등에 출력한다. 반주 음성은, 예를 들어, 노래방의 가이드 멜로디와 같이 가이드 연주 음성을 포함하고 있고, 연주 음성을 출력해야할 타이밍을 사용자에게 표시한다. 사용자는 가이드 연주 음성에 맞춰서, 소정의 조작 조건이 충족되도록(즉, 음성처리장치(1000)에 의해서, 유효한 스트로크 조작인 것으로 판정되도록), 터치 스크린에 대해서 조작을 행한다.When a song is selected by the user's instruction, and a game start instruction is made by pressing a predetermined control button or the like, the CPU 101 sends the accompaniment voice corresponding to the song to the memory cassette 106 from the RAM 103. ) And outputs to the speaker 112 or the like via the audio processing unit 110. The accompaniment voice includes, for example, a guide performance voice, such as a guide melody of karaoke, and displays to the user the timing at which the performance voice should be output. The user performs operations on the touch screen in accordance with the guide playing voice so that predetermined operation conditions are satisfied (that is, the voice processing apparatus 1000 determines that it is a valid stroke operation).

또는, 현재의 연주 음성을 출력하는 타이밍은, 시각적으로 사용자에게 알리도록 해도 된다. 예를 들어, 시간과 함께 소정의 간격으로 소정의 방향으로 진행하는 마커(marker)를 표시하고, 상기 마커가 진행하는 방향으로 연주 음성을 출력하는 타이밍을 나타내는 타이밍용 마커를 표시한다. 사용자는, 상기 이동하는 마커가, 상기 타이밍용 마커에 도달한 시점에서, 소정의 조작 조건이 충족되도록, 터치 스크린에 대해서 조작을 행하도록 해도 된다. 또한, 연주 음성의 각각을 출력하는 타이밍은, 예를 들어, 반주 음성이 개시되는 시각을 0으로 했을 경우의, 상기 개시시각으로부터의 상대적인 시간으로 표시되어, 상기 각 연주 음성에 대응해서 기억된다.Alternatively, the timing of outputting the current playing voice may be visually informed to the user. For example, a marker is displayed which advances in a predetermined direction at predetermined intervals with time, and a timing marker which indicates the timing of outputting the playing voice in the direction in which the marker advances. The user may operate on the touch screen so that a predetermined operation condition is satisfied when the moving marker reaches the timing marker. The timing for outputting each of the performance sounds is displayed as a relative time from the start time when the time at which the accompaniment sound is started is 0, for example, and stored in correspondence with the respective performance sounds.

이하에, 도 10을 참조해서, 본 실시예에 따른 음성처리장치(1000)가 사용자에 의한 터치 스크린의 조작에 따라서, 음성을 출력 혹은 정지하는 처리의 흐름에 대해서 설명한다.Hereinafter, with reference to FIG. 10, the flow of the process which the audio processing apparatus 1000 which concerns on this embodiment outputs or stops a sound according to the operation of a touchscreen by a user is demonstrated.

검지부(1001)는, 우선, 스텝 S500에서, 터치 스크린(108)의 상태를 검지한다. 즉, 접촉이 있으면, 접촉이 있었던 위치를 나타내는 좌표값을 검지하고, 접촉이 없으면, 접촉이 없다는 취지를 검지한다. 그리고, CPU(101)는, 전회 검지부(1001)에 의해서 검지된 것이 좌표값인 경우, RAM(103) 등에 준비한 해당 좌표값을 축적하는 영역에 기억한다. 초기 상태에서는, 그 이전에 검지된 상태는 존재하지 않으므로 , 좌표값은 축적되지 않고, 스텝 S501로 진행한다.The detection unit 1001 first detects the state of the touch screen 108 in step S500. That is, if there is a contact, the coordinate value indicating the position where the contact was detected is detected, and if there is no contact, it is detected that there is no contact. And if the thing detected by the previous detection part 1001 was a coordinate value, CPU101 will store in the area | region which accumulates the said coordinate value prepared in RAM103 etc. In the initial state, since the state previously detected does not exist, the coordinate value is not accumulated and the flow proceeds to step S501.

또한, 후속의 처리로부터 명백한 바와 같이, 축적되는 좌표값은 계속해서 검지된 모든 좌표값의 궤적 또는 그 일부로 된다. 해방 상태가 검지되거나, 또는, 유효한 스트로크 조작이 특정된 후에, 축적된 좌표값은 파기되고, 그 시점부터 검지 좌표의 축적이 재차 개시된다. 이와 같이 축적된 좌표값은, 나중에 출력 음량 등을 결정할 때 이용된다.In addition, as is apparent from the subsequent processing, the accumulated coordinate values continue to be the trajectory or part of all the detected coordinate values. After the released state is detected or a valid stroke operation is specified, the accumulated coordinate values are discarded, and the accumulation of the detected coordinates is started again from that point in time. The coordinate values thus stored are used later to determine the output volume and the like.

이어서, CPU(101)는, 소정 건수분의 축적된 검지 좌표가 모두 소정의 범위 내에 있는지(예를 들어, 소정 건수분의 축적된 검지 좌표의 중점 또는 평균치로부터, 소정의 범위 내에 모든 검지 좌표가 포함되어 있는지)의 여부를 특정한다(스텝 S501). 모든 검지 좌표가 소정의 범위 내이면(스텝 S501: 예), 소정 시간 접촉 위치의 변화가 정지하고 있는 것을 의미한다. 범위 외의 것이 있으면(스텝 S501: 아니오), 소정 건수분의 축적된 검지 좌표는 변화하고 있는 것을 의미한다. 스텝 S501의 판정 결과 "아니오"인 경우, 처리는 계속해서 스텝 S502로 진행한다.Subsequently, the CPU 101 determines whether all the detected coordinates for the predetermined number are within a predetermined range (for example, from the midpoint or the average value of the accumulated detection coordinates for the predetermined number, all the detection coordinates are within the predetermined range). Or not) (step S501). If all the detection coordinates are in the predetermined range (step S501: YES), it means that the change of a predetermined time contact position stops. If there is something out of the range (step S501: NO), it means that the accumulated detection coordinates for the predetermined number of pieces are changing. If the determination result in step S501 is "no", then the process proceeds to step S502.

CPU(101)는, 검지부(1001)가 검지한 상태가 전회 검지한 상태로부터 변화되었는지의 여부를 판정한다(스텝 S502). 즉, 전회 좌표값이 검지되었을 경우, 금회 해방 상태(즉, 터치 스크린(108)이 접촉되어 있지 않은 상태)가 검지되거나, 또는, 전회와 다른 좌표값이 검지되거나의 어느 쪽인가의 조건이 충족되면, 상태가 변화되었다고 판정된다. 또, 전회 해방 상태가 검지되었을 경우, 금회 어느 쪽인가의 좌표값이 검지되면, 상태가 변화되었다고 판정된다. CPU(101)는 상태가 변화되지 않은 동안에는(스텝 S502: 아니오), 재차 스텝 S500으로 되돌아가서, 상태가 변화되는 것을 기다린다. 또한, 전회 검지된 상태는, 예를 들어, RAM(103) 등에 일시 기억한다.The CPU 101 determines whether or not the state detected by the detection unit 1001 has changed from the state previously detected (step S502). That is, when the previous coordinate value is detected, either the present release state (that is, the state where the touch screen 108 is not in contact) is detected, or the condition of whether the previous coordinate value is detected or not satisfied is satisfied. If so, it is determined that the state has changed. Moreover, when a previous release state is detected, when either coordinate value is detected this time, it is determined that a state has changed. While the state is not changed (step S502: NO), the CPU 101 returns to step S500 again and waits for the state to change. The state detected last time is temporarily stored, for example, in the RAM 103 or the like.

CPU(101)는, 검지 상태가 변화되었다고 판정되면(스텝 S502: 예), 다음에 금회 검지된 것이 해방 상태인지, 좌표값인지를 판정한다(스텝 S503).If it is determined that the detected state has changed (step S502: YES), the CPU 101 determines whether the next time detected is a released state or a coordinate value (step S503).

금회 검지된 것이 해방 상태가 아니라, 좌표값인 경우(스텝 S503: 아니오), 전회 검지된 상태는 해방 상태이거나 또는 별도의 좌표값이다. 우선, 전회 검지된 것이 해방 상태이면(스텝 S521: 예), CPU(101)는 처리를 스텝 S500으로 되돌린다. 또, 스텝 S500에서는, 전회 검지된 상태가 좌표값인 경우에, 상기 전회 검지된 좌표값이 축적되므로, 스텝 S521에 있어서 접촉이 개시된 위치로서 특정된 좌표값은, 다음에 스텝 S500을 실행했을 때 기억된다.If the detected current time is not a released state but a coordinate value (step S503: NO), the last detected state is a released state or a separate coordinate value. First, if the last detected one is in the released state (step S521: YES), the CPU 101 returns the process to step S500. Moreover, in the step S500, when the last detected state is the coordinate value, the previously detected coordinate value is accumulated, so that the coordinate value specified as the position where the contact is started in step S521 is executed later when step S500 is executed. I remember.

한편, 금회 검지된 좌표값이 전회 검지된 좌표값과는 다른 좌표값일 경우(스텝 S521: 아니오), 계속해서 검지된 접촉 위치가 변화된 것을 의미한다. 이때, CPU(101)는 상기 접촉 위치의 이동 벡터(이동 방향)를 산출한다(스텝 S531). 이동 벡터는, 스텝 S501에서 축적되는 좌표값 중, 금회 검지된 좌표값과 그 하나 앞의 좌표값(즉, 축적되어 있는 최신의 좌표값)을 감산해서 구한다. 그리고, 상기 이동 벡터와, 전회 스텝 S531을 실행해서 구해진 접촉 위치의 이동 벡터(스텝 S531을 실행한 결과는, RAM(103)에 일시 기억해둠)를 비교해서, 거의 반대 방향인지의 여부를 판정한다(스텝 S532).On the other hand, when the coordinate value detected this time is a coordinate value different from the coordinate value detected last time (step S521: No), it means that the contact position detected continuously changed. At this time, the CPU 101 calculates a motion vector (movement direction) of the contact position (step S531). The motion vector is obtained by subtracting the coordinate value detected this time from the coordinate value accumulated in step S501 and the coordinate value preceding it (that is, the latest coordinate value accumulated). Then, the motion vector is compared with the motion vector of the contact position obtained by executing the previous step S531 (the result of the step S531 is temporarily stored in the RAM 103), and it is determined whether or not it is almost in the opposite direction. (Step S532).

즉, CPU(101)는 금회 구한 이동 벡터와, 전회 스텝 S531을 실행해서 구해진 접촉 위치의 이동 벡터와의 내적을 구한다. 내적이 음의 소정값보다 작으면, 상기 2개의 벡터가 거의 반대 방향인 것으로 판정한다(스텝 S532: 예). 한편, 상기 내적이 전술한 소정값보다 크면, 상기 2개의 벡터는 반대 방향이 아닌 것으로 판정한다(스텝 S532: 아니오).That is, the CPU 101 calculates the inner product of the motion vector obtained this time and the motion vector of the contact position obtained by executing the previous step S531. If the inner product is smaller than a negative predetermined value, it is determined that the two vectors are almost opposite directions (step S532: YES). On the other hand, if the inner product is larger than the above-described predetermined value, it is determined that the two vectors are not in the opposite direction (step S532: NO).

또, 접촉이 개시되고 나서, 계속해서 검지된 접촉 위치에 처음으로 변화가 있었을 경우, 「전회의 이동 방향」은 존재하지 않는다. 따라서, 이 경우, 이동 방향은 반대 방향으로 변화되지 않고 있는 것으로서 취급한다(즉, 스텝 S532의 판정 결과 "아니오"인 것으로 해서 처리를 진행시킨다).In addition, when a contact has changed for the first time after the contact is started and a detected contact position continues, "the last direction of movement" does not exist. Therefore, in this case, the moving direction is treated as not being changed in the opposite direction (that is, the processing advances as "no" as a result of the determination in step S532).

전술한 바와 같이, 스트로크의 방향이 반대 방향으로 변화되었다고 판정된 경우(즉, S532에서 "예"로 판단되었을 경우), 본 실시예에 있어서는, 유효한 왕복 스트로크가 행해진 것으로 판정한다. 유효한 왕복 스트로크가 행해졌다라고 하는 판정이, 연주 음성이 출력되어야할 타이밍의 전후 소정의 범위 내의 시각에서 얻어지면, 음성 출력부(1002)는, 상기 타이밍에 대응시켜서 기억되는 연주 음성을 RAM(103)으로부터 취득하여, 소정의 방법으로 음량을 특정해서(스텝 S533), 출력을 개시한다(스텝 S534). 한편, 유효한 왕복 스트로크가 행해졌다고 해도, 그것이, 연주 음성이 출력되어야할 타이밍으로부터 전후 소정의 범위 내의 시각에 행해지지 않았을 경우, 음성 출력부(1002)는, 스텝 S534에 있어서, 실패를 나타내는 음성을 출력한다. 또한, 연주 음성의 출력이 개시되고 나서 계속해서 출력되는 시간은 미리 정해둔다.As described above, when it is determined that the direction of the stroke is changed in the opposite direction (that is, when "YES" is determined in S532), in this embodiment, it is determined that an effective reciprocating stroke has been performed. When the determination that the effective reciprocating stroke has been performed is obtained at a time within a predetermined range before and after the timing at which the performance voice is to be output, the audio output unit 1002 stores the performance voice stored in correspondence with the timing in the RAM 103. ), The volume is specified by a predetermined method (step S533), and output is started (step S534). On the other hand, even if a valid reciprocating stroke is performed, if it is not performed at a time within a predetermined range before and after the timing at which the performance voice is to be output, the audio output unit 1002 outputs a voice indicating failure in step S534. Output In addition, the time which is continuously output after the output of a performance audio | voice is started is predetermined.

유효한 왕복 스트로크 조작이 행해졌을 때에, 음성 출력부(1002)가 출력하는 연주 음성의 음량을 결정하는 방법에 대해서, 도 11을 참조해서 설명한다. 도 11은, 점 A로부터 접촉을 개시해서, 점 B에서 접어 꺾어서 반대 방향의 스트로크를 행하고, 또한 점 C에서 접어 꺾어서 스트로크를 행했을 경우를 나타낸다.A method of determining the volume of the performance sound output by the audio output unit 1002 when the effective reciprocating stroke operation is performed will be described with reference to FIG. FIG. 11 shows a case where the contact is started from the point A, folded at the point B to perform the stroke in the opposite direction, and the folded at the point C to perform the stroke.

도 11의 예에서는, 스트로크가 반대 방향으로 변했다고 처음으로 특정되는 것은, 점 B의 직후의 접촉 위치(즉, 점 B')가 검지된 시점이다. 따라서, 점 B'가 검지된 시점에서 처음으로 유효한 왕복 스트로크 조작이 행해졌다고 판정된다. 이 경우, 접촉이 개시된 점 A로부터 이동 방향이 변화되기 직전의 점 B까지의 거리에 따라서 음량이 결정되어 연주 음성이 출력된다. 마찬가지로, 점 C'가 검지된 시점에서, 재차 유효한 왕복 스트로크 조작이 행해졌다고 판정되어, 점 B'로부터 점 C까지의 거리에 따라서 음량이 결정되어, 연주 음성이 출력된다.In the example of FIG. 11, the first time that the stroke has changed in the opposite direction is the point in time when the contact position immediately after the point B (that is, the point B ') is detected. Therefore, it is determined that the effective reciprocating stroke operation was performed for the first time when the point B 'is detected. In this case, the volume is determined according to the distance from the point A where the contact is started to the point B just before the moving direction is changed, and the performance sound is output. Similarly, when the point C 'is detected, it is determined that the effective reciprocating stroke operation has been performed again, the volume is determined according to the distance from the point B' to the point C, and the performance sound is output.

점 A로부터 점 B, 또는 점 B'로부터 점 C까지의 거리는, 직선거리여도 되고, 또는, 궤적의 길이여도 된다. 여기서, 궤적의 길이란, 예를 들어, 점 A로부터 점 B, 또는 점 B'로부터 점 C에 도달하기까지 계속해서 검지된 접촉 좌표 간의 직선거리의 총합이다. 본 실시예에서는, 어느 쪽의 거리를 이용한 경우에 있어서도, 얻어진 거리가 길수록, 큰 음량을 출력한다. 예를 들어, 얻어진 거리에 소정의 정수를 곱해서 음량을 구해도, 혹은 거리에 따른 음량을 나타내는 테이블(즉, 표)을 준비해두고, 해당 테이블을 참조해서, 산출된 음량으로부터 대응하는 음량을 취득해도 된다.The distance from the point A to the point B or the point B 'to the point C may be a linear distance or a length of the trajectory. Here, the length of the trajectory is, for example, the sum of the linear distances between the contact coordinates detected continuously from the point A to the point B or the point B 'to the point C. In this embodiment, even when either of the distances is used, the longer the distance obtained, the larger the volume is output. For example, the obtained distance may be multiplied by a predetermined integer to obtain a volume, or a table (i.e., a table) indicating the volume according to the distance may be prepared, and a corresponding volume may be obtained from the calculated volume with reference to the table. .

또한, 축적된 검지 좌표가 스텝 S535에서 파기된 후에, 금회 검지된 접촉 위치가, 처리가 스텝 S500으로 되돌아온 시점에서 RAM(103)에 축적된다. 따라서, 유효한 스트로크 조작이 행해진 직후에 접촉이 개시된 위치는, 반드시 축적된 검지 좌표의 가장 오래된 좌표값으로서 기억된다. 그리고, 이후, 계속해서 검지된 좌표값이 이어서 축적된다. 이것에 의해, 유효한 스트로크 조작이 행해졌다고 판정된 직전의 값이, 축적되어 있는 검지 좌표값 중, 가장 새로운 좌표값으로서 기억된다. 따라서, 음성 출력부(1002)는, 상기 축적되어 있는 검지 좌표값을 참조함으로써, 거리의 산출에 필요한 좌표값을 얻는 것이 가능해진다.In addition, after the accumulated detection coordinates are discarded in step S535, the contact position detected this time is accumulated in the RAM 103 at the time when the processing returns to step S500. Therefore, the position where the contact is started immediately after the effective stroke operation is performed is always stored as the oldest coordinate value of the accumulated detection coordinates. Thereafter, the coordinate values continuously detected are subsequently accumulated. Thereby, the value immediately before it is determined that the effective stroke operation has been performed is stored as the newest coordinate value among the stored detection coordinate values. Therefore, the audio output unit 1002 can obtain the coordinate values necessary for calculating the distance by referring to the accumulated detection coordinate values.

최후에, 후술하는 처리에서 이용하기 위해서, 왕복 스트로크 조작이 행해진 것을 RAM(103) 등에 기억한다(예를 들어, RAM(103)에 왕복 스트로크 조작을 행하였는지의 여부를 나타내는 왕복 플래그를 준비하면 된다)(스텝 S536).Lastly, for use in the processing described later, the RAM 103 or the like that the reciprocating stroke operation has been performed may be stored (for example, a reciprocating flag indicating whether the reciprocating stroke operation has been performed on the RAM 103 may be prepared. (Step S536).

본 실시예에서는, 후술하는 바와 같이, 사용자가 터치 스크린(108)에 대해서, 일방향으로 스위핑한 경우에 대해서도 유효한 스트로크 조작이 행해진 것으로 판정한다. 그러나, 사용자가 왕복 스트로크 조작을 행하여, 반대 방향의 스트로크를 개시한 시점에서도 연주 음성이 출력된다. 따라서, 왕복 스트로크 조작 후에, 사용자가 스위핑 조작을 행하여, 재차 연주 음성이 출력되는 것은 부자연스럽다.In this embodiment, as will be described later, it is determined that the effective stroke operation is performed even when the user sweeps in one direction with respect to the touch screen 108. However, even when the user performs the reciprocating stroke operation and starts the stroke in the opposite direction, the performance sound is output. Therefore, after the reciprocating stroke operation, it is unnatural for the user to perform the sweeping operation and output the playing voice again.

따라서, 본 실시예에 있어서는, 해방 상태가 검지되었을 경우, 그 직전에 왕복 스트로크 조작이 행해져 있었는지의 여부를, 왕복 플래그를 참조해서 특정한다(스텝 S504). 그래서, 왕복 스트로크 조작이 행해진 것이 왕복 플래그에 기억되어 있을 경우(스텝 S504: 예)에는, 왕복 플래그의 정보를 파기한다(스텝 S505). 또한, 축적된 검지 좌표를 파기하여(스텝 S506), 처리를 스텝 S500으로 되돌린다. 즉, 해방 상태가 검지되기 직전에 왕복 스트로크 조작이 행해져 있을 경우에는, 연주 음성의 출력은 행하지 않고 처리는 스텝 S500으로 되돌아간다.Therefore, in the present embodiment, when the released state is detected, whether or not the reciprocating stroke operation has been performed immediately before that is specified with reference to the reciprocating flag (step S504). Therefore, when the reciprocating stroke operation is stored in the reciprocating flag (step S504: YES), the information of the reciprocating flag is discarded (step S505). In addition, the accumulated detection coordinates are discarded (step S506), and the processing returns to step S500. In other words, when the reciprocating stroke operation is performed immediately before the release state is detected, the performance is not output and the processing returns to step S500.

한편, 해방 상태가 검지되기 직전에 왕복 스트로크 조작이 행해지고 있지 않았을 경우(스텝 S504: 아니오), CPU(101)는, 해방 상태가 검지되기 직전의 접촉 위치의 변화의 속도를 산출한다(스텝 S507). CPU(101)는, 상기 변화의 속도가 역치 속도 이상이면(스텝 S507: 예), 일방향으로 스위핑 조작이 유효하게 행해졌다(즉, 유효한 일방향 스트로크 조작이 행해졌다)고 판정한다.On the other hand, when the reciprocating stroke operation is not performed immediately before the release state is detected (step S504: NO), the CPU 101 calculates the speed of change of the contact position just before the release state is detected (step S507). . If the speed of the change is equal to or greater than the threshold speed (step S507: YES), the CPU 101 determines that the sweeping operation has been effectively performed in one direction (that is, the effective one-way stroke operation has been performed).

연주 음성이 출력되어야할 타이밍의 전후 소정의 범위 내의 시간에 있어서, 스텝 S507에서 유효한 일방향 스트로크 조작이 행해졌다고 판정되었을 경우, 음성 출력부(1002)는, 상기 타이밍에 대응시켜서 기억되는 연주 음성을 메모리 카세트(106)로부터 취득한다. 그리고, 상기 연주 음성의 음량을 소정의 방법으로 특정해서(스텝 S508), 상기 연주 음성을 상기 음량으로 출력한다(스텝 S509). 단, 상기 스트로크 조작이 유효하다고 판정된 시각이, 연주 음성이 출력되어야할 타이밍의 전후 소정의 범위에 포함되지 않을 경우, 음성 출력부(1002)는 실패를 나타내는 음성을 출력한다.In a time within a predetermined range before and after the timing at which the performance voice is to be output, when it is determined in step S507 that an effective one-way stroke operation is performed, the audio output unit 1002 stores the performance voice stored in correspondence with the timing. It acquires from the cassette 106. Then, the volume of the performance voice is specified by a predetermined method (step S508), and the performance voice is output at the volume (step S509). However, when the time at which the stroke operation is determined to be valid is not included in the predetermined range before and after the timing at which the performance voice is to be output, the voice output unit 1002 outputs a voice indicating failure.

또, 음량은, 접촉의 검지가 개시된 위치로부터, 해방 상태가 검지되기 직전의 접촉 위치까지의 거리에 의거해서 특정된다. 스텝 S533과 마찬가지로, 상기 2점 간의 거리는 직선거리여도 되고, 또는, 궤적의 길이여도 되며, 상기 거리는 축적된 검지 좌표값을 취득해서 구해진다.In addition, the volume is specified based on the distance from the position where the detection of a contact is started to the contact position just before the release state is detected. Similarly to step S533, the distance between the two points may be a linear distance or a length of a trajectory, and the distance is obtained by acquiring the accumulated detection coordinate values.

또한, 스텝 S501에서, 소정 건수분의 검지 위치가 축적되어, 그들의 검지 위치가 모두 소정의 범위 내이면(스텝 S501: 예), CPU(101)는, 접촉 위치의 변화가 소정 시간 정지하고 있다고 판정한다. 접촉 위치의 변화가 소정 시간 정지하고 있다고 판정되었을 때 출력되고 있는 음성이 있으면, 음성 출력부(1002)는 상기 출력을 정지한다(스텝 S541). 또, 이때, 특수한 묵음(mute)을 출력하도록 해도 된다. 한편, 접촉 위치의 변화가 소정 시간 정지했을 때, 음성이 출력되고 있지 않을 경우, 음성 출력부(1002)는 아무것도 하지 않고 처리를 스텝 S542로 진행한다. 스텝 S542에서는, CPU(101)가 축적된 검지 좌표를 모두 파기하고, 스텝 S500으로 처리를 되돌린다.In addition, in step S501, if the detection positions for a predetermined number are accumulated, and all of these detection positions are within a predetermined range (step S501: YES), the CPU 101 determines that the change in the contact position is stopped for a predetermined time. do. If there is audio being output when it is determined that the change in the contact position is stopped for a predetermined time, the audio output unit 1002 stops the output (step S541). At this time, a special mute may be output. On the other hand, when the voice is not being output when the change in the contact position is stopped for a predetermined time, the audio output unit 1002 does nothing and proceeds to step S542. In step S542, the CPU 101 discards all the stored detection coordinates and returns the process to step S500.

이상과 같이 해서, 음성처리장치(1000)는 음성의 출력 및 정지를 행한다.In this way, the audio processing apparatus 1000 outputs and stops the audio.

(다른 (Other 실시예Example ))

전술한 실시예에서는, 음성처리장치(1000)는, 스위핑 동작이 특정되었을 때, 또는, 터치 스크린(108)에 대한 스트로크의 방향이 반대 방향으로 변화되었을 때, 유효한 스트로크 조작이 행해진 것으로 하였다. 이것에 의해, 사용자가 게임장치(100)를 파지하는 방향이나, 사용자가 스트로크를 행하는 방향 등에 관계없이, 유효한 스트로크 조작의 판정이 가능해진다.In the above-described embodiment, the speech processing apparatus 1000 assumes that effective stroke operation is performed when the sweeping operation is specified or when the direction of the stroke with respect to the touch screen 108 is changed in the opposite direction. This makes it possible to determine the effective stroke operation regardless of the direction in which the user grips the game device 100, the direction in which the user makes a stroke, or the like.

본 실시예에서는, 기타의 현에 상당하는 판정선을 도입해서, 기타의 소리를 내는 구조를 보다 충실하게 재현한다. 게다가, 상기 실시예와 마찬가지로, 사용자의 게임장치를 파지하는 방향이나, 스트로크를 행하는 방향 등을 흡수해서, 기타 연주의 시뮬레이션을 가능하게 하는 음성처리장치에 대하여 설명한다. 또, 이 판정선은 터치 스크린에 표시되어도 되고 혹은 표시되지 않아도 된다.In this embodiment, the determination line corresponding to the guitar string is introduced to more faithfully reproduce the structure of the guitar sound. In addition, similarly to the above-described embodiment, a description will be given of a speech processing apparatus which absorbs a direction in which a user holds a game device, a direction in which a stroke is performed, and the like and enables simulation of other performances. This determination line may or may not be displayed on the touch screen.

도 12에 본 실시예에 따른 음성처리장치(1000)의 기능 블록도를 나타낸다. 본 실시예에 있어서는, 전술한 실시예가 구비하는, 검지부(1001), 음성 출력부(1002)에 부가해서, 조정부(1003)를 추가로 포함한다.12 shows a functional block diagram of the speech processing apparatus 1000 according to the present embodiment. In the present embodiment, an adjustment unit 1003 is further included in addition to the detection unit 1001 and the audio output unit 1002 included in the above-described embodiment.

단, 음성 출력부(1002)는, 전술한 실시예에서 설명한 판정 조건 대신에, 계속해서 검지된 접촉 위치의 궤적이 소정의 판정선을 넘었을 경우에, 유효한 스트로크 조작이 행해진(즉 소정의 조작 조건이 충족된) 것으로 판정한다.However, instead of the determination condition described in the above-described embodiment, the audio output unit 1002 performs effective stroke operation when the trajectory of the continuously detected contact position crosses the predetermined determination line (that is, the predetermined operation). Condition is satisfied).

또한, 조정부(1003)는, 판정선의 방향과 계속해서 검지된 접촉 위치의 궤적이 교차하는 각도가 직각에 가깝도록 판정선의 방향이나 위치를 조정한다. 여기서, 판정선은 터치 스크린 평면에 배치되는 기타의 현을 모의하기 위한 것이다. 즉, 본 실시예에 있어서, 음성처리장치(1000)는, 사용자가 터치 스크린(108)에 접촉하면서, 판정선을 넘었을 경우에, 유효한 스트로크 조작이 행해진 것으로 간주한다.In addition, the adjustment unit 1003 adjusts the direction and the position of the determination line such that the angle at which the trajectory of the contact position detected subsequently and the trajectory of the contact line intersect is close to the right angle. Here, the determination line is for simulating other strings arranged on the touch screen plane. That is, in this embodiment, the sound processing apparatus 1000 considers that effective stroke operation is performed when the user touches the touch screen 108 and crosses the determination line.

판정선의 방향이나 위치는, 예를 들어, 글로벌(global) 좌표계에 의거해서, 메모리 카세트(106)에 기억되어, 사용자에 의해서 게임 개시가 지시되면, RAM(103)에 읽어들인다. 이와 같이, 메모리 카세트(106), RAM(103) 및 CPU(101) 등이 협동해서, 조정부(1003)로서 기능한다.The direction and the position of the determination line are stored in the memory cassette 106 based on the global coordinate system, for example, and read into the RAM 103 when a game start is instructed by the user. In this manner, the memory cassette 106, the RAM 103, the CPU 101, and the like cooperate to function as the adjustment unit 1003.

이하, 상기와 같은 구성을 가진 도 12에 나타낸 음성처리장치(1000)의 동작 처리를, 도 13을 참조해서 설명한다.Hereinafter, operation processing of the audio processing apparatus 1000 shown in FIG. 12 having the above configuration will be described with reference to FIG.

우선, 스텝 S601은, 도 10에 나타낸 스텝 S500과 마찬가지로, 음성처리장치(1000)는, 좌표값이 검지되었을 경우, 해당 좌표값을 축적한다. 본 실시예에 있어서도, 후속의 처리로부터 명백한 바와 같이, 스텝 S601에서 축적되는 좌표값은 계속해서 검지된 좌표값의 궤적 또는 그 일부가 된다. 해방 상태가 검지되거나, 또는, 유효한 스트로크 조작이 특정된 후에, 축적된 좌표값은 파기되고, 그 시점부터 검지 좌표의 축적이 재차 개시된다.First, in step S601, similarly to step S500 shown in FIG. 10, when the coordinate value is detected, the voice processing apparatus 1000 accumulates the coordinate value. Also in this embodiment, as apparent from the subsequent processing, the coordinate values accumulated in step S601 continue to be tracks or portions of the detected coordinate values. After the released state is detected or a valid stroke operation is specified, the accumulated coordinate values are discarded, and the accumulation of the detected coordinates is started again from that point in time.

이어서, 축적된 소정 건수분의 검지 위치가 모두 소정의 범위 내이면(스텝 S602: 예), 접촉 위치의 변화가 소정 시간 정지한 것을 의미한다. 따라서, 스텝 S541 및 S542와 마찬가지의 처리를 행하여, 음성 출력부(1002)는, 그 시점에서 출력되고 있는 음성이 있으면, 해당 출력을 정지한다(스텝 S610, 611).Subsequently, when the detected positions of the accumulated number of predetermined cases are all within a predetermined range (step S602: YES), it means that the change of the contact position is stopped for a predetermined time. Therefore, the same processing as in steps S541 and S542 is performed, and the audio output unit 1002 stops the output if there is audio being output at that time (steps S610 and 611).

스텝 S602에서 소정 건수분의 검지 위치가 모두 소정의 범위 내가 아니면(스텝 S602: 아니오), CPU(101)는, 이어서, 해방 상태가 검지되었는지의 여부를 판정한다(스텝 S603). 해방 상태가 검지된 경우에는(스텝 S603: 예), CPU(101)는 축적된 검지 위치를 모두 파기하고(스텝 S604), 처리를 스텝 S601로 되돌린다.If all the detection positions for the predetermined number in step S602 are all within a predetermined range (step S602: NO), the CPU 101 then determines whether or not the released state is detected (step S603). When the released state is detected (step S603: Yes), the CPU 101 discards all the detected detection positions (step S604), and returns the processing to step S601.

한편, 금회 검지된 것이 해방 상태가 아니라 좌표값이었을 경우(스텝 S603: 아니오), CPU(101)는, 계속해서, 접촉 위치의 궤적이 판정선을 넘었는지의 여부를 판정한다(스텝 S620). 즉, 금회 검지된 좌표값과 전회 축적된 좌표값을 연결하는 선분이 판정선과 교차하고 있는지의 여부를 판정한다.On the other hand, when the detected thing this time is not a released state but a coordinate value (step S603: NO), the CPU 101 then determines whether the trajectory of the contact position has crossed the determination line (step S620). That is, it is determined whether the line segment connecting the coordinate value detected this time and the coordinate value accumulated last time intersects the determination line.

본 실시예에서는, 접촉 위치의 궤적이 판정선을 넘었을 경우(스텝 S620: 예), 유효한 스트로크 조작이 행해진 것으로 판정한다. 따라서, 전술한 실시예와 마찬가지로, 연주 음성이 출력되어야할 타이밍의 전후 소정의 범위 내의 시간에 있어서, 유효한 스트로크 조작이 행해졌다고 판정되었을 경우, 음성 출력부(1002)는, 상기 타이밍에 대응시켜서 기억되는 연주 음성을 메모리 카세트(106)로부터 취득한다. 그리고, 상기 취득한 연주 음성의 음량을 소정의 방법으로 특정하여(스텝 S621), 상기 연주 음성의 출력을 개시한다(스텝 S622). 단, 연주 음성이 출력되어야할 타이밍의 전후 소정의 범위에 포함되지 않은 시각에 있어서, 접촉 위치의 궤적이 판정선을 넘었다고 판정되었을 경우, 음성 출력부(1002)는 실패를 나타내는 음성을 출력한다. 또한, 전술한 실시예와 마찬가지로, 연주 음성은 소정의 길이로 출력된다.In this embodiment, when the trajectory of the contact position crosses the determination line (step S620: YES), it is determined that the effective stroke operation is performed. Therefore, similarly to the above-described embodiment, when it is determined that effective stroke operation is performed in a time within a predetermined range before and after the timing at which the performance voice is to be output, the audio output unit 1002 stores the voice output unit 1002 in correspondence with the timing. The performance sound to be obtained is obtained from the memory cassette 106. Then, the volume of the acquired performance voice is specified by a predetermined method (step S621), and the output of the performance voice is started (step S622). However, when it is determined that the locus of the contact position has crossed the determination line at a time not included in the predetermined range before and after the timing at which the performance voice is to be output, the audio output unit 1002 outputs a voice indicating failure. . In addition, similar to the above-described embodiment, the performance sound is output with a predetermined length.

또한, 본 실시예에 있어서, 연주 음성의 음량은, 계속해서 검지된 접촉 위치의 궤적 중, 전회 판정선을 넘었다고 판정된 시점의 직후에 검출된 좌표값으로부터, 금회 판정선을 넘었다고 판정된 시점의 직전에 검출된 좌표값까지의 거리에 의거해서 특정한다. 여기서, 전술한 실시예와 마찬가지로, 상기 2점 간의 거리는, 직선거리여도 되고, 또는, 궤적의 길이여도 된다. 또, 상기 얻어진 거리의 길이가 클수록, 음량이 커지도록 하면 된다.In addition, in the present embodiment, it is determined that the volume of the performance sound has exceeded the current determination line from the coordinate values detected immediately after the time at which it was determined that the previous determination line was crossed the trajectory of the detected contact position. It specifies based on the distance to the coordinate value detected immediately before the viewpoint. Here, similarly to the above-described embodiment, the distance between the two points may be a linear distance or may be a length of a trajectory. Moreover, what is necessary is just to make a volume become large, so that the length of the said distance obtained is large.

도 14a를 참조해서, 음량을 산출하기 위하여 특정되는 거리에 대해서 설명한다. 도 14a는, 터치 스크린 평면(1081)에 있어서의, 계속해서 검지된 좌표값의 궤적의 예를 나타낸다. 우선, 점 P에서 스트로크 조작이 개시되어, 점 Q-1로부터 점 Q가 검지되는 사이에 판정선 L을 넘는다. 또한, 스트로크 조작은 계속되어, 점 R에서 접어 꺾어서, 다시 점 S-1로부터 점 S가 검지되는 동안에 판정선을 넘는다.Referring to Fig. 14A, the distance specified for calculating the volume is described. 14A shows an example of the trajectory of the coordinate values subsequently detected in the touch screen plane 1081. First, the stroke operation is started at the point P, and the determination line L is crossed between the point Q-1 and the point Q are detected. Further, the stroke operation is continued, folded at the point R, and crossed the determination line while the point S is detected from the point S-1 again.

도 14a의 예에서는, 점 P로부터 R을 향해서 스트로크가 행해졌을 때, 점 Q가 검지되어서, 처음으로 판정선 L을 넘은 것이 판정된다. 단, 그 이전에 검지 좌표의 궤적은 판정선 L을 넘고 있지 않고 있으므로, 접촉 개시 위치인 점 P를, 「전회 판정선을 넘었다고 판정된 직후에 검출된 좌표값」으로 하고, 점 P로부터 금회 판정선을 넘기 직전에 검출된 좌표값 Q-1까지의 거리에 의거해서, 음량을 특정한다. 또한, 거리는 직선거리여도, 이동 거리(궤적 길이)여도 된다.In the example of FIG. 14A, when the stroke is made from point P to R, point Q is detected and it is determined that the determination line L has been crossed for the first time. However, since the trajectory of the detection coordinates did not exceed the determination line L before that, the point P which is a contact start position is made into the "coordinate value detected immediately after it was determined that it crossed the last determination line," and this time from the point P The volume is specified based on the distance to the coordinate value Q-1 detected just before crossing the determination line. In addition, the distance may be a linear distance or a moving distance (trajectory length).

계속해서, 점 R에서 접어 꺽어서 스트로크가 행해졌을 때, 점 S가 검지되면, 재차 판정선 L을 넘은 것이 특정된다. 이 경우, 「전회 판정선을 넘었다고 판정된 직후에 검출된 좌표값」은 점 Q이기 때문에, 점 Q로부터 금회 판정선을 넘기 직전에 검출된 좌표값 S-1까지의 거리에 의거해서, 음량을 특정한다.Subsequently, when the stroke is performed by folding at the point R, when the point S is detected, it is specified that the determination line L is crossed again. In this case, since the "coordinate value detected immediately after crossing the previous determination line" is point Q, the volume is based on the distance from point Q to the coordinate value S-1 detected just before crossing this determination line. Specifies.

또, 도 13에 나타낸 순서도로부터 명백한 바와 같이, 본 실시예에서는, 스트로크가 개시된 시점의 좌표값으로부터 축적된다. 접촉 위치의 궤적이 판정선을 넘어서, 유효한 스트로크 조작이 행해진 것으로 판정되면, 그때까지 축적된 검지 좌표가 후술하는 스텝 S624에서 파기되고, 판정선을 넘은 뒤에 최초에 검지된 좌표값으로부터 계속해서 검지된 좌표값이 축적된다. 즉, 예를 들어, 도 14a의 예와 같이, 점 Q로부터 다시 스트로크 조작이 계속된 경우, 점 Q로부터 재차 검지 좌표가 축적된다.In addition, as is apparent from the flowchart shown in Fig. 13, in the present embodiment, the stroke is accumulated from the coordinate values at the starting point. If the trajectory of the contact position crosses the determination line and determines that effective stroke operation has been performed, the detected coordinates accumulated up to that time are discarded in step S624 described later, and continuously detected from the coordinate values initially detected after crossing the determination line. Coordinate values are accumulated. That is, for example, as in the example of FIG. 14A, when the stroke operation is continued from the point Q, the detection coordinates are accumulated again from the point Q.

따라서, 접촉이 개시되고서 처음으로 판정선을 넘었을 경우에 대해서도, 또한, 판정선을 넘은 후에, 접촉을 계속하고, 재차 판정선을 넘었을 경우에 대해서도, 축적된 좌표값을 참조함으로써, 전술한 거리의 산출에 필요한 정보를 취득할 수 있다.Therefore, also when the contact crosses the determination line for the first time after the start of the contact, the contact is continued after the crossing of the determination line, and the reference is made to the accumulated coordinate value even when the crossing of the determination line is again performed. Information necessary for calculating the distance can be obtained.

또, 금회 검지된 접촉 위치와 전회 검지된 접촉 위치를 연결하는 선분이 판정선을 넘고 있지 않을 경우(스텝 S620: 아니오), 금회 검지된 좌표값은, 계속해서 처리가 스텝 S601을 실행했을 때, 계속해서 검지된 접촉 위치의 궤적으로서 축적된다.In addition, when the line segment connecting the contact position detected this time and the contact position detected last time does not exceed the determination line (step S620: No), the coordinate value detected this time continues when the process performs step S601, Then, it accumulates as a trace of the detected contact position.

이어서, 조정부(1003)는, 판정선의 위치를 조정한다(스텝 S623). 예를 들어, 도 14a에서, 사용자가 점 P로부터 점 R을 향해서 스트로크 조작을 행했을 경우를 예로 들어 설명한다. 전술한 바와 같이, 점 Q가 검지된 시점에서, 판정선을 넘은 것이 판정된다. 따라서, 조정부(1003)는, 판정선을 넘었다고 판정된 시점에 검지된 점 Q와 그 직전에 검지된 점 Q-1을 연결하는 선분이 판정선 L과 수직으로 교차하도록, 판정선 L을 도 14b에 나타낸 바와 같이 각도 θ만큼 회전시키도록, 판정선의 위치 및 방향을 갱신한다. 또, 판정선 L을 회전시키는 중심은, 판정선과 검지 좌표의 궤적이 교차하는 점이어도 되고, 소정의 위치(예를 들어, 터치 스크린의 중심)여도 된다.Next, the adjustment unit 1003 adjusts the position of the determination line (step S623). For example, in FIG. 14A, the case where the user performed stroke operation from the point P toward the point R is demonstrated as an example. As described above, when the point Q is detected, it is determined that the determination line has been crossed. Therefore, the adjustment unit 1003 shows the determination line L such that the line segment connecting the point Q detected at the time when it is determined to have crossed the determination line and the point Q-1 detected immediately before it intersects the determination line L perpendicularly. As shown in 14b, the position and direction of the determination line are updated to rotate by the angle θ. The center for rotating the determination line L may be a point where the trajectory of the determination line and the detection coordinates intersect, or may be a predetermined position (for example, the center of the touch screen).

또한, 게임장치(100)의 전원을 껐을 때에는, 전원을 끈 시점에서의 판정선의 위치나 방향을 메모리 카세트(106)에 다시 써넣는다. 그리고, 다음 번에는 상기 다시 써넣은 값을 판정선의 위치나 방향으로서 이용한다. 또는, 판정선의 위치는, 전원을 켤 때마다, 초기 상태로부터 갱신되도록 해도 된다.In addition, when the power supply of the game device 100 is turned off, the position and direction of the judgment line at the time of turning off the power are rewritten to the memory cassette 106. Next, the rewritten value is used as the position and direction of the judgment line. Alternatively, the position of the determination line may be updated from the initial state every time the power is turned on.

이와 같이, 상기 스트로크의 방향과 판정선이 수직으로 교차하도록 판정선을 조정함으로써, 사용자가 게임장치(100)를 파지하는 방향이나 스트로크를 행하는 방향 등을 흡수하고, 사용자가 조작하기 쉽게 음성처리장치(1000)를 사용자 주문에 맞추는 것이 가능해진다.In this way, by adjusting the determination line so that the direction of the stroke and the determination line intersect vertically, the voice processing device absorbs the direction in which the user grips the game device 100, the direction in which the stroke is performed, and the like so that the user can easily operate the voice. It is possible to customize the 1000 to a user order.

이상, 본 발명의 실시예에 대해서 설명했지만, 본 발명은, 전술한 실시예에 한정되지 않고, 각종 변형 및 응용이 가능하다. 또한, 전술한 실시예의 각 구성요소를 자유롭게 조합시키는 것도 가능하다.As mentioned above, although the Example of this invention was described, this invention is not limited to the Example mentioned above, A various deformation | transformation and an application are possible. It is also possible to freely combine the components of the above-described embodiments.

예를 들어, 항목선택장치 및 음성처리장치는 접촉 부재(206)를 추가로 포함하도록 하고, 사용자는 터치 스크린에 접촉할 때에 접촉 부재(206)를 이용해도 된다. 도 8a에 나타낸 바와 같이, 접촉 부재(206)는, 소위 터치 펜의 변형이며, 터치 스크린을 스위핑하는 조작이 용이하게 가능하도록, 기타 피크 형상을 하고 있어도 된다. 또, 검지부(203)나, 검지부(1001)가 접촉을 검지하기 쉽도록, 접촉 부재(206)는 선단부에 돌기를 구비하고 있어도 된다. 사용자는, 접촉 부재(206)의 기타 피크 형상의 부분을 도 8b에 나타낸 바와 같이 잡고, 돌기 부분을 터치 스크린에 접촉시킨다.For example, the item selection device and the audio processing device may further include a contact member 206, and the user may use the contact member 206 when contacting the touch screen. As shown in FIG. 8A, the contact member 206 is a so-called deformation of the touch pen, and may have other peak shapes so that an operation for sweeping the touch screen can be easily performed. Moreover, the contact member 206 may be provided with the processus | protrusion at the front-end | tip so that the detection part 203 and the detection part 1001 may detect a contact easily. The user grasps the other peak-shaped portion of the contact member 206 as shown in Fig. 8B, and makes the projection portion contact the touch screen.

도 8c는, 이러한 접촉 부재(206)를 이용해서, 사용자가 터치 스크린 평면(1081)에 접촉 부재(206)를 접촉시켜서 기타 연주의 시뮬레이션을 행했을 경우의 상황을 나타낸다. 점선은 접촉 위치의 변화(즉, 스트로크)의 궤적을 나타낸다. 이때, 판정선 L은, 상기 스트로크의 방향과 거의 수직으로 교차하도록 조정부에 의해서 조정된다.FIG. 8C shows a situation when a user simulates guitar performance by bringing the contact member 206 into contact with the touch screen plane 1081 using such a contact member 206. The dotted line represents the trajectory of the change in contact position (ie, the stroke). At this time, the determination line L is adjusted by the adjustment unit so as to intersect substantially perpendicularly to the direction of the stroke.

또한, 상기 실시예에 따른 항목선택장치에서는, 표가 스크롤하고 있을 때, 터치 스크린에 터치하면, 상기 접촉 위치에 표시되어 있는 내용이 접촉 위치에 고정되어, 스크롤을 멈출 수 있다. 그러나, 접촉이 개시되고 나서, 해방되기까지의 사이에, 검지된 좌표가 모두 소정의 범위 내이면, 항목출력부는 그 좌표에 표시되는 항목을 선택 결과로서 출력하므로, 접촉을 해방한 시점에서, 스크롤을 멈출 뿐만 아니라, 접촉한 좌표값에 표시되는 항목이 선택되어버린다.In addition, in the item selecting apparatus according to the above embodiment, when the table is scrolled, if the touch screen is touched, the content displayed at the contact position is fixed at the contact position, so that scrolling can be stopped. However, if the detected coordinates are all within a predetermined range from the start of the contact until the release is performed, the item output unit outputs the item displayed at the coordinates as a selection result. In addition to stopping the, the item displayed in the contacted coordinate value is selected.

따라서, 예를 들어, 접촉이 개시되고 나서, 해방되기까지의 사이에, 검지된 좌표가 모두 소정의 범위 내이며, 또한, 접촉이 개시되고 나서, 해방될 때까지의 시간이 소정의 역치시간 이내일 경우에 대해서만, 항목출력부가 그 좌표에 표시되는 항목을 선택 결과로서 출력하도록 해도 된다. 이것에 의해, 해방될 때까지 소정의 역치시간 이상, 같은 위치에 접촉되었을 경우에 대해서는, 선택은 되지 않고, 사용자가 접촉했을 때의 창의 위치가 계속 표시된다.Therefore, for example, all the coordinates detected are within a predetermined range from the start of the contact until the release is released, and the time from the start of the contact until release is within a predetermined threshold time. Only in one case, the item output unit may output the item displayed at the coordinates as the selection result. As a result, no selection is made when the same position is in contact with the same position for more than a predetermined threshold time until release, and the position of the window when the user touches is continuously displayed.

또, 상기 실시예에 있어서, 항목선택장치의 이동부는, 사용자가 터치 스크린에 대해서 행한 스위핑 조작의 방향에 따라서, 상하 방향 또는 좌우 방향으로 제한해서, 창의 위치를 이동하였다. 그렇지 않고, 접촉을 해방하기 직전의 접촉 위치의 변화의 속도와 반대 방향으로 창을 이동시키도록 해도 된다. 이것에 의해, 상하 방향, 좌우 방향 이외의 방향에도 표가 스크롤해서 표시된다.In the above embodiment, the moving unit of the item selection device moves the window position by limiting the direction to the vertical direction or the horizontal direction according to the direction of the sweeping operation performed by the user with respect to the touch screen. Otherwise, the window may be moved in the direction opposite to the speed of change of the contact position just before releasing the contact. Thereby, a table scrolls and displays also in directions other than an up-down direction and a left-right direction.

또한, 상기 실시예에 있어서, 항목선택장치의 이동부는, 창의 위치가 표의 끝에 달하면, 상기 영역의 위치를 순회적으로 이동시키도록 하였다. 그렇지 않고, 반대 방향으로 이동시키도록 해도 된다.Further, in the above embodiment, the moving unit of the item selection device is configured to move the position of the area in a circular manner when the position of the window reaches the end of the table. Otherwise, it may be moved in the opposite direction.

예를 들어, 표가, 원점(0, 0), (W, 0), (0, L), (W, L)으로 둘러싸인 영역에 표시될 때, 창의 위치(x, y)가 상기 영역 내에 포함되지 않을 경우, X방향으로 W보다 큰 분량에 대해서는, W로부터 감산한 값을 X방향의 좌표값으로 하면 된다. 또는, X방향으로 0보다 작은 분량에 대해서는, 0에 가산한 값을 X방향의 좌표로 하면 된다. 한편, Y방향으로 L보다 큰 분량에 대해서는, L로부터 감산하고, 또한, Y방향으로 0보다 작은 분량에 대해서는, 0에 가산한 값을 Y방향의 좌표값으로 하면 된다.For example, when a table is displayed in an area surrounded by origin (0, 0), (W, 0), (0, L), (W, L), the position (x, y) of the window is in the area. When it is not included, what is necessary is just to make the value subtracted from W into the coordinate value of an X direction about the quantity larger than W in an X direction. Or for the quantity smaller than 0 in the X direction, what is necessary is just to make the value added to 0 as the coordinate of the X direction. In addition, what is necessary is just to subtract from L about the quantity larger than L in a Y direction, and to add to 0 about the quantity smaller than 0 in a Y direction as a coordinate value of a Y direction.

또한, 상기 실시예에 있어서, 항목선택장치의 이동부는, 해방 상태가 검출되기 직전의 접촉 위치의 변화의 속도를 이용해서, 스텝 S407에서 창의 위치를 이동하였다. 그렇지 않고, 스텝 S407에서는, 산출한 해방 직전의 접촉 위치의 속도에 소정의 계수를 곱하여, 서서히 창의 위치의 이동 속도를 감속시켜도 된다.In the above embodiment, the moving unit of the item selection device moves the position of the window in step S407 using the speed of change of the contact position just before the release state is detected. Otherwise, in step S407, the calculated speed of the contact position just before the release may be multiplied by a predetermined coefficient to gradually reduce the movement speed of the position of the window.

또한, 다른 실시예에 있어서, 음성처리장치의 조정부는, 과거의 스트로크 조작에 의거해서, 판정선을 조정하도록 해도 된다. 예를 들어, 스트로크 조작 시, 판정선과 교차한 것으로 특정된 시점의 접촉 위치로부터, 그 직전에 검지된 접촉 위치를 감산해서 정규화한 방향 벡터(이후, 교차 벡터라 칭함)를 구한다. 그리고 상기 교차 벡터를 가산 벡터에 가산해서 정규화함으로써 새롭게 얻어진 가산 벡터를 일시기억한다. 또, 초기 상태에서는, 가산 벡터는 값을 가지지 않기 때문에, 산출한 교차 벡터가 가산 벡터로 된다. 그리고, 상기 가산 벡터와 수직으로 교차하도록, 기억되는 판정선의 위치 및 방향을 갱신한다.In another embodiment, the adjusting unit of the audio processing device may adjust the determination line based on past stroke operations. For example, at the time of stroke operation, the direction vector (henceforth referred to as an intersection vector) obtained by subtracting the contact position detected immediately before it from the contact position at the point of time determined to intersect with the determination line is obtained. The addition vector obtained by normalizing by adding the intersection vector to the addition vector is temporarily stored. In addition, in the initial state, since the addition vector does not have a value, the calculated intersection vector is an addition vector. Then, the position and direction of the stored determination line are updated so as to perpendicularly intersect the addition vector.

예를 들어, 도 14a에 나타낸 스트로크가 행해졌을 때, 도 14c에 나타낸 바와 같이, 교차 벡터는 점 Q-1로부터 Q로 뻗는 벡터와 점 S-1로부터 점 S로 뻗는 벡터로 되고, 가산 벡터는 벡터 A로 된다.For example, when the stroke shown in Fig. 14A is performed, as shown in Fig. 14C, the intersection vector is a vector extending from point Q-1 to Q and a vector extending from point S-1 to point S, and the addition vector is Vector A.

이후, 마찬가지로, 판정선과 교차한 시점에서, 교차 벡터를 구하고, 가산 벡터에 가산해서 정규화한다. 단, 가산할 때에, 교차 벡터와 가산 벡터의 방향을 일치시킬 필요가 있으므로, 상기 2개의 벡터의 내적을 구한다. 내적 결과, 음의 소정값보다 작은 값이 얻어진 경우에는, 상기 2개의 방향 벡터가 거의 반대 방향인 것으로 간주한다. 따라서, 금회 구해진 교차 벡터에 마이너스를 곱해서, 방향을 일치시키고 나서 가산 벡터에 가산한다. 한편, 내적이 상기 소정값보다도 큰 경우에는, 그대로 교차 벡터를 가산 벡터에 가산하면 된다. 그리고, 상기 가산 벡터와 수직으로 교차하도록, 판정선의 위치 및 방향을 갱신한다.Thereafter, similarly, at the point of intersection with the decision line, the intersection vector is obtained, added to the addition vector, and normalized. However, when adding, it is necessary to match the direction of the intersection vector and the addition vector, so the dot product of the two vectors is obtained. As a result of the inner product, when a value smaller than a negative predetermined value is obtained, it is assumed that the two direction vectors are almost opposite directions. Therefore, the intersection vector obtained this time is multiplied by the minus, and the direction is matched and added to the addition vector. On the other hand, when the inner product is larger than the predetermined value, the intersection vector may be added to the addition vector as it is. Then, the position and direction of the decision line are updated so as to perpendicularly intersect the addition vector.

이와 같이, 스트로크 조작에 있어서의 교차 벡터를, 과거의 교차 벡터의 합인 가산 벡터에 더해감으로써, 보다 정확하게, 사용자의 스트로크의 「습성」을 추출하는 것이 가능해진다.In this way, by adding the intersection vector in the stroke operation to the addition vector which is the sum of the past intersection vectors, it is possible to more accurately extract the "wetness" of the user's stroke.

또는, 상기 교차 벡터 대신에, 판정선과 교차하는 스트로크의 시작 위치로부터 종점까지의 방향 벡터를 사용해도 된다. 여기서, 스트로크의 종점이란, 스위핑한 경우에는, 접촉을 해방하기 직전의 위치이다. 한편, 왕복 스트로크 조작을 행한 경우에는, 스트로크의 방향이 반대 방향으로 되기 직전의 위치이다.Alternatively, the direction vector from the start position to the end point of the stroke crossing the determination line may be used instead of the intersection vector. Here, the end point of the stroke is a position immediately before releasing the contact when sweeping. On the other hand, when the reciprocating stroke operation is performed, it is the position just before the direction of the stroke becomes the opposite direction.

또, 상기 실시예에 따른 음성처리장치에 있어서, 음성 출력부는, 접촉이 개시된 시점으로부터 소정의 조작 조건이 충족될 때까지의 거리 등에 의거해서 음량을 결정했다. 그렇지 않고, 계속해서 검지된 접촉 위치의 궤적 중, 임의의 계속해서 검지된 2점의 접촉 위치의 변화의 속도의 대표값(예를 들어, 평균속도)에 의거해서 음량을 결정해도 된다. 즉, 속도가 빠를수록, 음량을 크게 해도 된다.In the audio processing apparatus according to the above embodiment, the audio output unit determines the volume based on the distance from the time point at which contact is started until the predetermined operation condition is satisfied. Otherwise, the volume may be determined based on the representative value (for example, the average speed) of the speed of the change of the contact points of two continuously detected points among the trajectories of the continuously detected contact positions. In other words, the faster the speed, the larger the volume.

또한, 상기 실시예에 따른 음성처리장치에 있어서, 음성 출력부가 연주 음성을 계속해서 출력하는 시간은 미리 정해진 것으로 하였다. 그렇지 않고, 계속해서 검지된 접촉 위치의 궤적 중, 임의의 계속해서 검지된 2점의 접촉 위치의 변화의 속도의 대표값(예를 들어, 평균속도)에 의거해서 계속해서 출력되는 연주 음성의 길이를 결정해도 된다. 즉, 속도가 빠를수록, 연주 음성이 긴 시간 출력되도록 해도 된다.In the audio processing apparatus according to the above embodiment, the time for the audio output unit to continuously output the playing voice is assumed to be predetermined. Otherwise, the length of the performance sound continuously output based on the representative value (for example, the average speed) of the speed of the change of the contact points of two continuously detected points among the trajectories of the continuously detected contact positions. May be determined. In other words, the faster the speed, the longer the playing voice can be output.

또, 음성 출력부는, 조작 조건이 충족되고 나서, 소정 시간이 경과한 후에 음성의 출력을 개시하도록 해도 된다. 예를 들어, 넓은 장소에서 연주를 행했을 경우, 연주자로부터 멀리에 있는 사람에게는, 조작이 행해지고 나서 어느 정도의 지연시간이 경과한 후에 음성이 전해진다. 따라서, 이와 같이 지연시간을 삽입함으로써, 휴대식의 게임기에 있어서도, 넓은 장소에서 연주하고 있는 듯한 효과를 제공하는 것이 가능해진다.In addition, the audio output unit may start to output the audio after a predetermined time elapses after the operation condition is satisfied. For example, when performing a performance in a large place, the voice is transmitted to a person far from the player after a certain delay time has passed since the operation was performed. Therefore, by inserting the delay time in this way, it becomes possible to provide the effect of playing in a wide place even in a portable game machine.

또한, 이 경우, 음성 출력부는, 해방이 검지되면 상기 지연시간을 디폴트값으로 되돌려, 조작 조건이 계속해서 충족될 때마다 짧게 해도 된다. 통상, 한번만 스트로크를 행한 경우에 비해서, 계속해서 스트로크를 행한 경우의 쪽이, 지연을 느끼기 어려워지는 것으로 여겨진다. 따라서, 첫회의 지연을 강조하기 위해서, 계속해서 조작 조건이 충족되면, 지연시간을 전회에 조작 조건이 충족된 경우와 비교해서 짧게 함으로써, 서서히 짧게 하도록 해도 된다.In this case, the audio output unit may return the delay time to a default value when release is detected, and make it shorter each time the operation condition is continuously satisfied. In general, it is considered that a delay is harder to feel when the stroke is continuously performed as compared with the case where the stroke is performed only once. Therefore, in order to emphasize the first delay, if the operation condition is continuously satisfied, the delay time may be made shorter by making the delay time shorter than when the operation condition is satisfied last time.

또한, 상기 실시예에 따른 항목선택장치 및 음성처리장치에 있어서, 검지부는, 터치 스크린 이외에, 트랙 패드(trackpad)나 태블릿(tablet) 등의, 접촉 유무 및 접촉 위치를 검지하는 하드웨어이더라도 된다.In addition, in the item selection device and the audio processing device according to the above embodiment, the detection unit may be hardware for detecting the presence or absence of a contact, such as a trackpad or tablet, and the contact position, in addition to the touch screen.

또, 상기 실시예에 따른 항목선택장치나 음성처리장치는, 게임장치 이외에도, 터치 스크린을 구비하는 그 밖의 단말장치에 실현해도 된다.In addition to the game device, the item selection device and the audio processing device according to the embodiment may be implemented in other terminal devices having a touch screen.

또한, 본원에 대해서는, 일본국 특허 출원 제2008-151554호를 기초로 하는 우선권을 주장하고, 해당 기초출원의 내용을 모두 본원에 원용하는 것으로 한다.In addition, about this application, it claims the priority based on Japanese Patent Application No. 2008-151554, and shall apply all the content of the said basic application to this application.

이상에서 설명한 바와 같이, 본 발명에 의하면, 터치 스크린 등, 접촉 유무 및 접촉 위치를 검지할 수 있는 바와 같은 하드웨어의 특성을 살리면서, 악기의 연주를 모의하는데 적합한 음성처리장치, 음성처리방법 및 정보기록매체, 나아가서는, 그 프로그램을 제공할 수 있다.As described above, according to the present invention, a voice processing apparatus, a voice processing method, and information suitable for simulating the performance of an instrument while utilizing the characteristics of hardware such as a touch screen and the like, which can detect the presence or absence of a contact and the like, can be detected. The recording medium, and moreover, the program can be provided.

100: 게임장치 101: CPU
102: ROM 103: RAM
104: 인터페이스 105: 입력부
106: 메모리 카세트 107: 화상 처리부
108: 터치 스크린 109: NIC
110: 음성 처리부 111: 마이크
112: 스피커 200: 항목선택장치
201: 기억부 202: 표시부
203: 검지부 204: 항목 출력부
205: 이동부 206: 접촉부재
1000: 음성처리장치 1001: 검지부
1002: 음성 출력부 1003: 조정부
100: game device 101: CPU
102: ROM 103: RAM
104: interface 105: input unit
106: memory cassette 107: image processing unit
108: touch screen 109: NIC
110: voice processing unit 111: microphone
112: speaker 200: item selection device
201: storage unit 202: display unit
203: detection unit 204: item output unit
205: moving part 206: contact member
1000: sound processing device 1001: detection unit
1002: audio output unit 1003: adjustment unit

Claims (14)

사용자가 피접촉부의 표면에 접촉하고 있으면 그 위치를 검지하고, 상기 표면을 해방하고 있으면 그 취지를 검지하는 검지부(1001);
소정의 조작 조건이 충족되면, 소정의 출력 음성의 출력을 개시하는 음성 출력부(1002); 및
계속해서 검지된 접촉 위치의 궤적과 판정선이 교차하는 각도가 직각이 되는 방향으로 상기 판정선의 방향을 조정하는 조정부(1003)
를 포함하되,
상기 소정의 조작 조건은,
계속해서 검지된 접촉 위치의 궤적이 소정의 판정선을 넘었을 경우에
충족되는 것으로 하는 것을 특징으로 하는 음성처리장치(1000).
A detection unit (1001) which detects the position when the user is in contact with the surface of the contacted portion and detects the effect when the surface is released;
A voice output unit 1002 for starting output of a predetermined output voice when a predetermined operation condition is satisfied; And
The adjusting unit 1003 for adjusting the direction of the determination line in a direction where the angle at which the trajectory of the contact position detected subsequently and the determination line intersect is perpendicular to each other.
Including,
The predetermined operation condition is,
When the trajectory of the contact position detected subsequently exceeds the predetermined determination line
Speech processing device 1000, characterized in that to be satisfied.
삭제delete 제1항에 있어서, 상기 음성 출력부(1002)는, 해방이 검출되면, 음성의 출력을 개시하기 전에 소정의 지연시간을 삽입하고, 상기 소정의 조작 조건이 충족되면 상기 지연시간을 감소시키는 것을 특징으로 하는 음성처리장치(1000).2. The method of claim 1, wherein when the release is detected, the audio output unit 1002 inserts a predetermined delay time before starting to output the audio, and decreases the delay time when the predetermined operation condition is satisfied. Voice processing device 1000 characterized in that. 제1항에 있어서, 상기 음성 출력부(1002)는,
(d) 접촉이 개시된 위치로부터 상기 소정의 조작 조건이 충족되기 직전에 검지된 접촉 위치까지의 거리; 및
(e) 직전에 상기 소정의 조작 조건이 충족된 시점에 검지된 접촉 위치로부터 다음에 상기 소정의 조작 조건이 충족되기 직전에 검지된 접촉 위치까지의 거리
에 의거해서, 상기 출력을 개시해야할 출력 음성의 음량을 결정하는 것을 특징으로 하는 음성처리장치(1000).
The audio output unit 1002 of claim 1,
(d) the distance from the position at which contact is initiated to the contact position detected just before the predetermined operation condition is satisfied; And
(e) The distance from the contact position detected at the time when the predetermined operation condition is satisfied immediately before the contact position detected immediately before the next operation condition is satisfied.
And the volume of the output voice to start the output according to the voice processing apparatus.
제1항에 있어서, 상기 음성 출력부(1002)는 소정의 악곡의 반주 음성을 추가로 출력하고,
상기 반주 음성에는, 출력을 개시하고 나서의 경과 시간에 의해 지정되는 연주 타이밍과, 상기 연주 타이밍에 출력되어야할 연주 음성이 대응되어 있고,
상기 음성 출력부(1002)는, 상기 소정의 조작 조건이 충족되면서, 또한, 상기 어느 쪽인가의 조건이 충족된 시점이 상기 반주 음성에 대응되는 연주 타이밍 중 어느 하나와 합치할 경우, 상기 연주 타이밍에 출력되어야할 연주 음성을 상기 소정의 출력 음성으로 해서 출력을 개시하는 것을 특징으로 하는 음성처리장치(1000).
According to claim 1, The audio output unit 1002 further outputs the accompaniment voice of the predetermined music,
The accompaniment voice corresponds to a playing timing specified by the elapsed time since starting output and a playing voice to be output at the playing timing.
The voice output unit 1002 is configured to perform the performance timing when the predetermined operation condition is satisfied and when the timing at which one of the conditions is satisfied coincides with any one of the performance timings corresponding to the accompaniment voice. And outputting the playing voice to be outputted as the predetermined output voice.
제5항에 있어서, 상기 음성 출력부(1002)는, 상기 소정의 조작 조건이 충족되면서, 또한, 상기 어느 쪽인가의 조건이 충족된 시점이 상기 반주 음성에 대응되는 연주 타이밍의 어느 쪽과도 합치하지 않을 경우, 실패를 나타내는 음성을 상기 소정의 출력 음성으로 해서 출력을 개시하는 것을 특징으로 하는 음성처리장치(1000).6. The audio output unit 1002 according to claim 5, wherein the audio output unit 1002 meets either of the performance timings in which the predetermined operation condition is satisfied and the point in time at which either of the conditions is satisfied corresponds to the accompaniment sound. If not, the audio processing apparatus 1000 starts outputting a voice indicating failure as the predetermined output voice. 제1항에 있어서, 상기 음성 출력부(1002)는, 소정의 역치시간 계속해서 검지된 접촉 위치가 소정의 위치 범위 내일 경우, 상기 개시된 출력 음성의 출력을 정지하는 것을 특징으로 하는 음성처리장치(1000).The audio processing device according to claim 1, wherein the audio output unit 1002 stops the output of the disclosed output audio when the contact position detected continuously for a predetermined threshold time is within a predetermined position range. 1000). 제1항에 있어서, 상기 사용자가 집어서 상기 표면에 접촉하기 위한 접촉 부재(206)를 추가로 포함하고,
상기 접촉 부재(206)는, 피크(pick) 형상, 혹은, 피크 형상의 선단부에 돌기를 배치한 형상인 것을 특징으로 하는 음성처리장치(1000).
The method of claim 1, further comprising a contact member 206 for picking up and contacting the surface by the user,
The contact member 206 has a pick shape or a shape in which protrusions are arranged at the tip of the peak shape.
검지부(1001)와 음성 출력부(1002) 및 조정부(1003)를 포함하는 음성처리장치(1000)를 이용한 음성처리방법으로서,
상기 검지부(1001)가, 사용자가 피접촉부의 표면에 접촉하고 있으면 그 위치를 검지하고, 상기 표면을 해방하고 있으면 그 취지를 검지하는 검지 공정;
상기 음성 출력부(1002)가, 소정의 조작 조건이 충족되면, 소정의 출력 음성의 출력을 개시하는 음성출력 공정; 및
상기 조정부(1003)가, 계속해서 검지된 접촉 위치의 궤적과 판정선이 교차하는 각도가 직각이 되는 방향으로 상기 판정선의 방향을 조정하는 조정 공정
을 포함하되,
상기 소정의 조작 조건은,
계속해서 검지된 접촉 위치의 궤적이 소정의 판정선을 넘었을 경우
에 충족되는 것으로 하는 것을 특징으로 하는 음성처리방법.
As a speech processing method using the speech processing apparatus 1000 including the detection unit 1001, the audio output unit 1002, and the adjustment unit 1003,
A detecting step of detecting, by the detecting unit 1001, the position of the user when the user is in contact with the surface of the contacted portion, and of the fact that the user detects the release of the surface;
An audio output process in which the audio output unit 1002 starts to output a predetermined output audio when predetermined operation conditions are satisfied; And
An adjustment step of adjusting the direction of the determination line by the adjustment unit 1003 in a direction where the angle at which the trajectory of the contact position detected subsequently and the determination line intersect is perpendicular to each other.
Including,
The predetermined operation condition is,
When the trajectory of the contact position detected continuously exceeds the predetermined judgment line
Speech processing method characterized in that to satisfy.
삭제delete 컴퓨터를,
사용자가 피접촉부의 표면에 접촉하고 있으면 그 위치를 검지하고, 상기 표면을 해방하고 있으면 그 취지를 검지하는 검지부(1001);
소정의 조작 조건이 충족되면, 소정의 출력 음성의 출력을 개시하는 음성 출력부(1002); 및
계속해서 검지된 접촉 위치의 궤적과 판정선이 교차하는 각도가 직각이 되는 방향으로 상기 판정선의 방향을 조정하는 조정부(1003)
로서 기능시키는 프로그램으로서,
상기 소정의 조작 조건은,
계속해서 검지된 접촉 위치의 궤적이 소정의 판정선을 넘었을 경우
에 충족되는 것으로 하는 것을 특징으로 하는 프로그램을 기억한 정보기록매체.
Computer,
A detection unit (1001) which detects the position when the user is in contact with the surface of the contacted portion and detects the effect when the surface is released;
A voice output unit 1002 for starting output of a predetermined output voice when a predetermined operation condition is satisfied; And
The adjusting unit 1003 for adjusting the direction of the determination line in a direction where the angle at which the trajectory of the contact position detected subsequently and the determination line intersect is perpendicular to each other.
As a program to function as,
The predetermined operation condition is,
When the trajectory of the contact position detected continuously exceeds the predetermined judgment line
An information recording medium having stored thereon a program, characterized in that it is satisfied.
삭제delete 삭제delete 삭제delete
KR1020107007589A 2008-06-10 2009-05-29 Audio processing device, audio processing method, and information recording medium KR101168322B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP-P-2008-151554 2008-06-10
JP2008151554A JP4815471B2 (en) 2008-06-10 2008-06-10 Audio processing apparatus, audio processing method, and program
PCT/JP2009/059894 WO2009150948A1 (en) 2008-06-10 2009-05-29 Audio processing device, audio processing method, information recording medium, and program

Publications (2)

Publication Number Publication Date
KR20100051746A KR20100051746A (en) 2010-05-17
KR101168322B1 true KR101168322B1 (en) 2012-07-24

Family

ID=41416659

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020107007589A KR101168322B1 (en) 2008-06-10 2009-05-29 Audio processing device, audio processing method, and information recording medium

Country Status (5)

Country Link
JP (1) JP4815471B2 (en)
KR (1) KR101168322B1 (en)
CN (1) CN101960513B (en)
TW (1) TW201011615A (en)
WO (1) WO2009150948A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6254391B2 (en) * 2013-09-05 2017-12-27 ローランド株式会社 Sound source control information generation device, electronic percussion instrument, and program
JP6299621B2 (en) * 2015-02-04 2018-03-28 ヤマハ株式会社 Keyboard instrument
WO2017017800A1 (en) * 2015-07-29 2017-02-02 株式会社ワコム Coordinate input device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007140067A (en) * 2005-11-17 2007-06-07 Casio Comput Co Ltd Musical sound generator, and program
WO2008004690A1 (en) * 2006-07-03 2008-01-10 Plato Corp. Portable chord output device, computer program and recording medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07109552B2 (en) * 1987-05-29 1995-11-22 ヤマハ株式会社 Electronic musical instrument
JP2000066668A (en) * 1998-08-21 2000-03-03 Yamaha Corp Performing device
JP3566195B2 (en) * 2000-08-31 2004-09-15 コナミ株式会社 GAME DEVICE, GAME PROCESSING METHOD, AND INFORMATION STORAGE MEDIUM
JP3922273B2 (en) * 2004-07-07 2007-05-30 ヤマハ株式会社 Performance device and performance device control program
JP5351373B2 (en) * 2006-03-10 2013-11-27 任天堂株式会社 Performance device and performance control program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007140067A (en) * 2005-11-17 2007-06-07 Casio Comput Co Ltd Musical sound generator, and program
WO2008004690A1 (en) * 2006-07-03 2008-01-10 Plato Corp. Portable chord output device, computer program and recording medium

Also Published As

Publication number Publication date
JP4815471B2 (en) 2011-11-16
CN101960513B (en) 2013-05-29
JP2009300496A (en) 2009-12-24
TW201011615A (en) 2010-03-16
KR20100051746A (en) 2010-05-17
CN101960513A (en) 2011-01-26
WO2009150948A1 (en) 2009-12-17

Similar Documents

Publication Publication Date Title
US7435169B2 (en) Music playing apparatus, storage medium storing a music playing control program and music playing control method
US8360836B2 (en) Gaming device, game processing method and information memory medium
JP3962059B2 (en) GAME DEVICE, GAME CONTROL METHOD, AND PROGRAM
JP4410284B2 (en) GAME DEVICE, GAME CONTROL METHOD, AND PROGRAM
KR100900794B1 (en) Method for dance game and the recording media therein readable by computer
JP4848000B2 (en) GAME DEVICE, GAME PROCESSING METHOD, AND PROGRAM
US20150103019A1 (en) Methods and Devices and Systems for Positioning Input Devices and Creating Control
JP4797045B2 (en) Item selection device, item selection method, and program
JP3579042B1 (en) GAME DEVICE, GAME METHOD, AND PROGRAM
JP4127561B2 (en) GAME DEVICE, OPERATION EVALUATION METHOD, AND PROGRAM
JP2010220941A (en) Game device, game control method and program
KR101168322B1 (en) Audio processing device, audio processing method, and information recording medium
JP4757704B2 (en) Music playback program, music playback device, music playback method, and music playback system
JP6184203B2 (en) Program and game device
TWI300002B (en)
JP5279744B2 (en) GAME DEVICE, GAME PROCESSING METHOD, AND PROGRAM
JP2013034599A (en) Game device, control method of the same, and program
JP5210908B2 (en) Moving image generating device, game device, moving image generating method, and program
JP5222978B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP2004283264A (en) Game device, its control method, and program
JP2012065833A (en) Game device, game control method, and program
JP4956600B2 (en) GAME DEVICE, GAME PROCESSING METHOD, AND PROGRAM
JP5535127B2 (en) Game device and program
JP2011255018A (en) Game apparatus, game control method, and program
JP4071130B2 (en) Control device, character control method, and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150710

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160708

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170707

Year of fee payment: 6