JP2017174363A - Setting device and method - Google Patents

Setting device and method Download PDF

Info

Publication number
JP2017174363A
JP2017174363A JP2016062830A JP2016062830A JP2017174363A JP 2017174363 A JP2017174363 A JP 2017174363A JP 2016062830 A JP2016062830 A JP 2016062830A JP 2016062830 A JP2016062830 A JP 2016062830A JP 2017174363 A JP2017174363 A JP 2017174363A
Authority
JP
Japan
Prior art keywords
virtual
resolution
virtual operation
movement
operation object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016062830A
Other languages
Japanese (ja)
Inventor
鈴木 真人
Masato Suzuki
真人 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2016062830A priority Critical patent/JP2017174363A/en
Publication of JP2017174363A publication Critical patent/JP2017174363A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow for controlling values of parameters using a virtual manipulation object in an easily graspable and simple manner.SOLUTION: A setting device 10 comprises: a display unit 11 configured to display a virtual manipulation object; a detection unit 12 configured to detect manipulation on the virtual manipulation object; an identification unit 13 configured to identify a type of the detected manipulation in response to the detection of the manipulation; a determination unit 14 configured to determine resolution required to convert a manipulated amount of user manipulation on the virtual manipulation object to the amount of change in a parameter value in accordance with the identified manipulation type; and a modification unit 15 configured to modify the value of the parameter assigned to the virtual manipulation object in accordance with the detected manipulation and the determined resolution.SELECTED DRAWING: Figure 1

Description

この発明は、例えばオーディオミキサなど様々な機器において、表示部に表示された仮想的操作オブジェクトを用いてパラメータを設定するための設定装置及び方法に関する。   The present invention relates to a setting apparatus and method for setting parameters using virtual operation objects displayed on a display unit in various devices such as an audio mixer.

従来、オーディオミキサや電子楽器等の電子装置においては、各種パラメータに対応付けられた操作子を備え、操作子を使用して対応付けられたパラメータの値を調整できるようになっている。例えば、周知の通り、オーディオミキサは、個々のチャンネルストリップに音量制御用のフェーダ操作子や、ゲイン調整用のノブ操作子を含む多数の操作子を備える。特許文献1は、ミキサの操作インタフェースの一例として、タッチパネルに表示された仮想的操作子画像を使用して、パラメータの値を調整することが記載されている。   2. Description of the Related Art Conventionally, an electronic device such as an audio mixer or an electronic musical instrument has an operation element associated with various parameters, and the associated parameter value can be adjusted using the operation element. For example, as is well known, an audio mixer includes a number of controls including fader controls for volume control and knob controls for gain adjustment in individual channel strips. Japanese Patent Application Laid-Open No. H10-228707 describes adjusting a parameter value by using a virtual operator image displayed on a touch panel as an example of an operation interface of a mixer.

また、従来、操作子の操作に応じてパラメータの値を設定する場合、操作量に応じたパラメータの値の変化量を変え、粗い調整と細かい調整を使い分けることが知られる。なお、本明細書では、操作子の操作量をパラメータの値の変化量に変換するための割合を分解能と称する。例えば、下記特許文献2には、回転操作と、その回転操作の回転軸に沿う操作とが可能な操作子において、その操作子の押し込み操作に基づいて、2種類の分解能のいずれかに設定することが記載されている。   Conventionally, when setting a parameter value in accordance with an operation of an operator, it is known that a change amount of a parameter value is changed in accordance with an operation amount, and coarse adjustment and fine adjustment are selectively used. In the present specification, the ratio for converting the operation amount of the operation element into the change amount of the parameter value is referred to as resolution. For example, in the following Patent Document 2, in an operation element capable of a rotation operation and an operation along the rotation axis of the rotation operation, one of two types of resolutions is set based on the pushing operation of the operation element. It is described.

また、特許文献3は、タッチパネル式表示器において、動画や音声等の再生時間位置を表示及び変更するシークバーの操作の分解能を変更する方法として、該仮想的操作オブジェクトを操作する指(接触点)とオブジェクトの距離に応じて分解能を変化させることが記載されている。しかし、この方法では、分解能の変化する境界にあたる距離付近での操作が難しく、意図通り操作できない恐れがある。また、本来であれば仮想的操作オブジェクトに注意を向けたいところ、仮想的操作オブジェクトを操作する指が当該オブジェクトから離れてしまうので、例えば指が当該オブジェクトからどれくらい離れているかに気をとられてしまうなど、操作性が損なわれてしまう恐れがあった。   Patent Document 3 discloses a finger (contact point) for operating the virtual operation object as a method for changing the resolution of the operation of the seek bar for displaying and changing the playback time position such as a moving image or sound in a touch panel display. And changing the resolution according to the distance of the object. However, with this method, it is difficult to operate near the distance corresponding to the boundary where the resolution changes, and there is a possibility that the operation cannot be performed as intended. Also, if you want to pay attention to the virtual operation object, the finger that operates the virtual operation object will move away from the object. For example, pay attention to how far the finger is from the object. The operability may be impaired, for example.

特開2011‐135562号公報JP 2011-135562 A 特開2006‐279549号公報JP 2006-279549 A 特開2015‐011725号公報JP2015-011725A

この発明は、上述の点に鑑みてなされたもので、仮想的操作オブジェクトを使用したパラメータの値の制御において、分かりやすく簡単に操作の分解能を変更できるようにすることを目的とする。   The present invention has been made in view of the above points, and an object of the present invention is to make it possible to easily and easily change the resolution of an operation in the control of parameter values using a virtual operation object.

この発明は、仮想的操作オブジェクトを表示するステップと、前記仮想的操作オブジェクトに対するユーザの操作を検出するステップと、前記操作の検出に応じて、該検出された操作の形態を判定するステップと、前記判定された操作の形態に応じて、前記仮想的操作オブジェクトに対するユーザの操作の操作量をパラメータの値の変化量に変換するための分解能を決定するステップと、前記検出された操作と前記決定された分解能に応じて、前記仮想的操作オブジェクトに割り当てられたパラメータの値を変更するステップを有する方法である。   The present invention includes a step of displaying a virtual operation object, a step of detecting a user operation on the virtual operation object, a step of determining a form of the detected operation in response to the detection of the operation, Determining a resolution for converting an operation amount of a user operation on the virtual operation object into a change amount of a parameter value in accordance with the determined operation form; and the detected operation and the determination The method includes a step of changing a value of a parameter assigned to the virtual operation object in accordance with the determined resolution.

この発明によれば、ユーザが或る操作の形態で仮想的操作オブジェクトに関連する操作を行ったとき、その操作の形態に応じて操作量をパラメータの値の変化量に変換するための分解能を決定し、該操作と前記決定された分解能に応じて、前記仮想的操作オブジェクトに割り当てられたパラメータの値を変更する。従って、パラメータの値を変更するための操作の形態を使い分けるだけで、仮想的操作オブジェクトの操作量をパラメータの値の変化量に変換するための分解能を使い分けることができる。パラメータ値変更操作とは別の分解能決定用の操作を行う必要が無いので、分解能の使い分けを簡単でわかりやすい方法で行うことができる。また、分解能の変更は、パラメータ値変更操作の形態の変更により行うので、分解能の変更の操作に注意をそらすことなく、パラメータ値変更に集中できる。   According to the present invention, when the user performs an operation related to the virtual operation object in a certain operation form, the resolution for converting the operation amount into the change amount of the parameter value according to the operation form is reduced. The parameter value assigned to the virtual operation object is changed according to the operation and the determined resolution. Therefore, the resolution for converting the operation amount of the virtual operation object into the change amount of the parameter value can be selectively used only by properly using the operation form for changing the parameter value. Since it is not necessary to perform an operation for determining the resolution different from the operation of changing the parameter value, the resolution can be used in a simple and easy-to-understand manner. Further, since the resolution is changed by changing the form of the parameter value changing operation, it is possible to concentrate on the parameter value changing without diverting attention to the resolution changing operation.

また、この発明は、方法の発明として実施しうるのみならず、前記方法を構成する各ステップに対応する構成要素を備える設定装置の発明として実施及び構成されてよい。   In addition, the present invention may be implemented and configured as a setting device including not only a method invention but also a component corresponding to each step constituting the method.

この発明によれば、パラメータの値を変更するための操作の形態を使い分けるだけという簡単でわかりやすい方法で、仮想的操作オブジェクトの操作量をパラメータの値の変化量に変換するための分解能を使い分けることができるので、仮想的操作オブジェクトを使用したパラメータの値の制御を、分かりやすく簡単に行えるようになる。   According to the present invention, the resolution for converting the operation amount of the virtual operation object into the change amount of the parameter value can be selectively used by a simple and easy-to-understand method that only uses the operation form for changing the parameter value. Therefore, it is possible to easily and easily control the parameter value using the virtual operation object.

この発明に係る設定装置の概念的構成例を説明するブロック図。The block diagram explaining the example of a notional structure of the setting apparatus which concerns on this invention. 設定装置を組み込んだ音響信号処理装置の電気的ハードウェア構成を示すブロック図。The block diagram which shows the electrical hardware constitutions of the acoustic signal processing apparatus incorporating the setting apparatus. (a)〜(e)は、仮想的操作オブジェクトの一例を説明する図。(A)-(e) is a figure explaining an example of a virtual operation object. タッチ操作に応じたパラメータ値変更処理例を示すフローチャート。The flowchart which shows the example of a parameter value change process according to touch operation. (a)〜(e)は、仮想的操作オブジェクトの別の一例を説明する図。(A)-(e) is a figure explaining another example of a virtual operation object. タッチ操作に応じたパラメータ値変更処理の別の一例を示すフローチャート。The flowchart which shows another example of the parameter value change process according to touch operation. (a)〜(g)は、仮想的操作オブジェクトの更に別の一例を説明する図。(A)-(g) is a figure explaining another example of a virtual operation object.

以下、添付図面を参照して、この発明の一実施形態について詳細に説明する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

図1は、一実施形態に係る設定装置の全体構成例を説明するブロック図である。設定装置10は、仮想的操作オブジェクトを表示する表示部11と、仮想的操作オブジェクトに関連する操作を検出する検出部12と、前記操作の検出に応じて、該検出された操作の形態を判定する判定部13と、前記判定された操作の形態に応じて、前記仮想的操作オブジェクトに対するユーザの操作の操作量をパラメータの値の変化量に変換するための分解能を決定する決定部14と、前記検出された操作と前記決定された分解能に応じて、前記仮想的操作オブジェクトに割り当てられたパラメータの値を変更する変更部15を備える。ここで、決定部14とは、後述するCPU1が、メモリに記憶されたプログラムに基づいて上述した決定するタスクを行うものであるが、このようなタスクを行うプロセッサをCPU1とは別に設けてもよい。また、変更部15とは、決定部14と同様に、後述するCPU1が、メモリに記憶されたプログラムに基づいて上述した変更するタスクを行うものであるが、このようなタスクを行うプロセッサをCPU1とは別に設けてもよい。   FIG. 1 is a block diagram illustrating an example of the overall configuration of a setting apparatus according to an embodiment. The setting apparatus 10 includes a display unit 11 that displays a virtual operation object, a detection unit 12 that detects an operation related to the virtual operation object, and determines the form of the detected operation according to the detection of the operation. A determination unit 13 that determines a resolution for converting an operation amount of a user operation on the virtual operation object into a change amount of a parameter value according to the determined operation mode; According to the detected operation and the determined resolution, there is provided a changing unit 15 that changes the value of the parameter assigned to the virtual operation object. Here, the determination unit 14 is a unit in which the CPU 1 described later performs the above-described determination task based on the program stored in the memory. However, a processor that performs such a task may be provided separately from the CPU 1. Good. Similarly to the determination unit 14, the changing unit 15 is a unit in which the CPU 1 described later performs the above-described task to be changed based on a program stored in the memory. It may be provided separately.

設定装置10は、例えば、図2に示す音響信号処理装置100に組み込まれる。別の例において、設定装置10は、例えば汎用のパーソナルコンピュータやタブレット端末装置など、設定装置10の動作を行なうためのプログラムを実行可能なプロセッサ装置により構成されてよい。あるいは、設定装置10は、その動作を実行可能なように構成された専用ハードウェア装置(集積回路等)からなっていてもよい。   The setting device 10 is incorporated into the acoustic signal processing device 100 shown in FIG. 2, for example. In another example, the setting device 10 may be configured by a processor device that can execute a program for operating the setting device 10, such as a general-purpose personal computer or a tablet terminal device. Alternatively, the setting device 10 may include a dedicated hardware device (such as an integrated circuit) configured to be able to execute the operation.

図2は、図1に示す設定装置10を組み込んだ音響信号処理装置100の電気的ハードウェア構成例を示すブロック図である。音響信号処理装置100は、例えば、複数チャンネルの音響信号の混合、音量レベル調整、効果付与等を行うミキシング装置である。音響信号処理装置100は、専用のハードウェア装置により構成されてもよいし、或いは、例えば汎用のパーソナルコンピュータやタブレット端末装置など、音響信号処理のプログラムを実行可能なコンピュータ装置により構成されてもよい。   FIG. 2 is a block diagram illustrating an example of an electrical hardware configuration of the acoustic signal processing device 100 in which the setting device 10 illustrated in FIG. 1 is incorporated. The acoustic signal processing apparatus 100 is, for example, a mixing apparatus that performs mixing of acoustic signals of a plurality of channels, volume level adjustment, effect addition, and the like. The acoustic signal processing device 100 may be configured by a dedicated hardware device, or may be configured by a computer device that can execute an acoustic signal processing program, such as a general-purpose personal computer or a tablet terminal device. .

音響信号処理装置100は、CPU(中央処理ユニット)1、メモリ2、タッチパネル式表示器3、オーディオインタフェース(I/F)4、及び、信号処理装置5を含み、各部が通信バス6により接続される。   The acoustic signal processing device 100 includes a CPU (central processing unit) 1, a memory 2, a touch panel display 3, an audio interface (I / F) 4, and a signal processing device 5, and each unit is connected by a communication bus 6. The

CPU1は、メモリ2に記憶された各種プログラムを実行して音響信号処理装置100の動作を制御する。メモリ2は、ROM(リードオンリメモリ)、RAM(ランダムアクセスメモリ)、及び、ハードディスクを含む。メモリ2には、前記各種プログラムが記憶されるとともに、DSP5の信号処理に使用する各種パラメータの値を含む各種データが記憶される。   The CPU 1 controls various operations of the acoustic signal processing apparatus 100 by executing various programs stored in the memory 2. The memory 2 includes a ROM (Read Only Memory), a RAM (Random Access Memory), and a hard disk. The memory 2 stores the various programs and various data including various parameter values used for signal processing of the DSP 5.

タッチパネル式表示器3(以下、単に「タッチパネル」という)は、CPU1の制御に基づき各種表示を行う表示機構と、画面を接触するタッチ操作を検出する検出機構とを含む。表示機構は、具体的には、液晶パネルなどであり、LCDや有機ELなどを含む。検出機構は、画面に対する2点以上の接触(マルチタッチ)を個別に検出及び認識できるよう構成される。タッチパネル3は、図1の表示部11及び検出部12を構成する。   The touch panel display 3 (hereinafter simply referred to as “touch panel”) includes a display mechanism that performs various displays based on the control of the CPU 1 and a detection mechanism that detects a touch operation that touches the screen. Specifically, the display mechanism is a liquid crystal panel or the like, and includes an LCD, an organic EL, or the like. The detection mechanism is configured to be able to individually detect and recognize two or more touches (multi-touch) on the screen. The touch panel 3 constitutes the display unit 11 and the detection unit 12 in FIG.

オーディオI/F4は、AD変喚器、DA変喚器、オーディオ入力インタフェース、及び、オーディオ出力インタフェースを含む。音響信号処理装置100は、オーディオI/F4を介して、図示しない入力機器から音響信号を入力し、また、信号処理済みの音響信号を図示しない出力機器へ出力する。   The audio I / F 4 includes an AD converter, a DA converter, an audio input interface, and an audio output interface. The acoustic signal processing apparatus 100 inputs an acoustic signal from an input device (not shown) via the audio I / F 4 and outputs the processed acoustic signal to an output device (not shown).

信号処理装置5は、例えばDSP(Digital Signal Processor)や、CPU1およびメモリ2に記憶されたソフトウェアにより仮想的に実現された信号処理装置で構成される。信号処理装置5は、信号処理用のプログラムを実行することにより、入力された音響信号に対して信号処理を施す。信号処理は、例えば、ミキシング処理、音量レベル調整処理、各種効果付与処理等を含む。この信号処理は、メモリ2に記憶された各種パラメータの値に基づいて制御される。   The signal processing device 5 is configured by, for example, a DSP (Digital Signal Processor) or a signal processing device virtually realized by software stored in the CPU 1 and the memory 2. The signal processing device 5 performs signal processing on the input acoustic signal by executing a signal processing program. The signal processing includes, for example, mixing processing, volume level adjustment processing, various effect applying processing, and the like. This signal processing is controlled based on the values of various parameters stored in the memory 2.

なお、音響信号処理装置100は、例えばコンピュータネットワークに接続するためのネットワークインタフェースなど、図示外のその他の構成部品を備えてもよい。   Note that the acoustic signal processing apparatus 100 may include other components not shown, such as a network interface for connecting to a computer network.

図3(a)〜(e)は、タッチパネル3に表示された仮想的操作オブジェクトの一例を示す。図3(a)において、タッチパネル3の画面30には、仮想的操作オブジェクト31として、フェーダ操作子を模擬した操作子画像(「フェーダ画像」)が表示される。仮想的操作オブジェクト31は、つまみ部を表す画像32を所定のスライド方向(図3において左右方向)に沿って移動可能に構成される。つまみ部画像32の位置は、仮想的操作オブジェクト31に割り当てられたパラメータの値に対応する。   3A to 3E show examples of virtual operation objects displayed on the touch panel 3. In FIG. 3A, an operation element image simulating a fader operation element (“fader image”) is displayed as a virtual operation object 31 on the screen 30 of the touch panel 3. The virtual operation object 31 is configured to be able to move an image 32 representing a knob portion along a predetermined slide direction (left-right direction in FIG. 3). The position of the knob part image 32 corresponds to the parameter value assigned to the virtual operation object 31.

図4は、仮想的操作オブジェクト31に対するタッチ操作が行われたときに、CPU1が実行する処理例を示すフローチャートである。CPU1は、タッチパネル3の検出機構により、仮想的操作オブジェクト31に関連するタッチ操作を行っている1以上の指の接触点を検出する(ステップS1)。タッチ操作は、仮想的操作オブジェクト31のつまみ部をスライド移動する(パラメータの値を変更する)ための操作である。一例として、CPU1は、仮想的操作オブジェクト31上への接触点を、仮想的操作オブジェクト31に対するタッチ操作として検出してよい。別の例において、CPU1は、仮想的操作オブジェクト31から所定距離内の接触点を、仮想的操作オブジェクト31に対するタッチ操作として検出してよい。また、別の例において、CPU1は、後述するようなタッチ操作を行っている指の数が2本以上である場合には、仮想オブジェクト31と当該タッチ操作を行っている指の重心点とが重なる場合を、仮想的操作オブジェクト31に対するタッチ操作として検出してよい。さらに、別な例において、CPU1は、仮想的操作オブジェクト31から所定距離内に前記重心点がある場合に、仮想的操作オブジェクト31に対するタッチ操作として検出してよい。   FIG. 4 is a flowchart illustrating an example of processing executed by the CPU 1 when a touch operation is performed on the virtual operation object 31. The CPU 1 detects a contact point of one or more fingers performing a touch operation related to the virtual operation object 31 by the detection mechanism of the touch panel 3 (step S1). The touch operation is an operation for sliding the knob portion of the virtual operation object 31 (changing the parameter value). As an example, the CPU 1 may detect a contact point on the virtual operation object 31 as a touch operation on the virtual operation object 31. In another example, the CPU 1 may detect a contact point within a predetermined distance from the virtual operation object 31 as a touch operation on the virtual operation object 31. In another example, when the number of fingers performing a touch operation as described later is two or more, the CPU 1 determines that the virtual object 31 and the barycentric point of the finger performing the touch operation are The overlapping case may be detected as a touch operation on the virtual operation object 31. In another example, the CPU 1 may detect a touch operation on the virtual operation object 31 when the center of gravity is within a predetermined distance from the virtual operation object 31.

ステップS2において、CPU1は、前記検出された接触点に基づき、タッチ操作を行っている指の数をカウントし、ステップS3において該カウントされた指の数に基づき、仮想的操作オブジェクト31に対するユーザの操作の形態を判定する。一例として、「操作の形態」とは、タッチ操作を行っている指の数であり、ステップS3は、指の数が1本か、又は、2本かを判定する。別の例として、ステップS3は、指の数が1本か、又は、2本以上かを判定してもよい。その場合、指が3本以上の場合は、CPU1は、指の数を2本とみなして処理を進めてよい。   In step S2, the CPU 1 counts the number of fingers performing a touch operation based on the detected contact point, and in step S3, based on the counted number of fingers, the user performs an operation on the virtual operation object 31. Determine the type of operation. As an example, the “operation form” is the number of fingers performing a touch operation, and step S3 determines whether the number of fingers is one or two. As another example, step S3 may determine whether the number of fingers is one or two or more. In that case, if there are three or more fingers, the CPU 1 may proceed with the processing assuming that the number of fingers is two.

そして、CPU1は、前記判定された操作の形態(指の本数)に応じて、ユーザの操作の操作量をパラメータの値の変更量に変換するための分解能を決定する(ステップS4又はステップS5)。例えば、CPU1は、指の数が1本の場合、前記分解能を第1分解能に決定し(S4)、また、前記指の数が2本の場合、前記分解能を前記第1分解能とは異なる第2分解能に決定する(S5)。一例として、第1分解能は、或る操作量Lをパラメータの値の変更量Lに変換するものであり、第2分解能は、或る操作量Lを、前記第1分解能の場合の半分の変更量L/2に変換するものである。すなわち、第2分解能でのタッチ操作は、第1分解能でのタッチ操作に比べて、操作量に対してパラメータの変化量が小さいものとなる。明細書では、かかる第1分解能でのタッチ操作を「通常操作」、かかる第2分解能でのタッチ操作を「ファイン操作」と呼ぶ。   Then, the CPU 1 determines a resolution for converting the operation amount of the user operation into the change amount of the parameter value according to the determined operation mode (number of fingers) (step S4 or step S5). . For example, when the number of fingers is one, the CPU 1 determines the resolution as the first resolution (S4), and when the number of fingers is two, the resolution is different from the first resolution. Two resolutions are determined (S5). As an example, the first resolution is to convert a certain operation amount L into a parameter value change amount L, and the second resolution is to change a certain operation amount L by half that in the case of the first resolution. The amount is converted to L / 2. That is, the touch operation at the second resolution has a smaller parameter change amount with respect to the operation amount than the touch operation at the first resolution. In the specification, the touch operation at the first resolution is referred to as “normal operation”, and the touch operation at the second resolution is referred to as “fine operation”.

そして、ユーザがタッチ操作の移動を行うと、CPU1は、該タッチ操作の移動に応じた操作量を検出し、前記検出されたタッチ操作の操作量を、前記決定された分解能に基づきパラメータの値の変更量に変換して、該変換された変更量に応じて仮想的操作オブジェクト31の表示を更新するとともに、該変更量に応じてメモリ2に記憶されたパラメータの値を更新する(ステップS6)。「タッチ操作の移動」は、タッチパネル3に接触させた指をタッチパネル3上で動かす(接触点を移動させる)ことである。検出されるタッチ操作の操作量は、例えば、タッチ操作の移動方向及び移動速度である。   When the user moves the touch operation, the CPU 1 detects an operation amount corresponding to the movement of the touch operation, and determines the operation amount of the detected touch operation based on the determined resolution. And the display of the virtual operation object 31 is updated according to the converted change amount, and the parameter value stored in the memory 2 is updated according to the change amount (step S6). ). “Moving a touch operation” refers to moving a finger touching the touch panel 3 on the touch panel 3 (moving a contact point). The detected operation amount of the touch operation is, for example, the moving direction and moving speed of the touch operation.

例えば、図3(b)に示すように、タッチ操作を行っている指の数が1本(接触点33aのみ検出)の場合、分解能は第1分解能に設定される(前記S4)。ユーザがタッチ操作の移動(接触点33aの移動)を行うと、CPU1は、該タッチ操作の移動速度に対して、前記第1分解能に対応する第1の倍率「1」を乗算することにより、該タッチ操作の移動速度に追従するつまみ部画像32の移動速度を得る(前記S6)。そして、CPU1は、該変換された移動速度でつまみ部画像32が移動するように仮想的操作オブジェクト31の表示を更新し、且つ、該移動されたつまみ部画像32の位置に対応してパラメータの値を更新する(前記S6)。例えば、図3(c)に示すように、タッチ操作の移動により接触点33aが移動距離Lだけ移動した場合、つまみ部画像32も距離Lだけ移動する。   For example, as shown in FIG. 3B, when the number of fingers performing the touch operation is one (only the contact point 33a is detected), the resolution is set to the first resolution (S4). When the user moves the touch operation (movement of the contact point 33a), the CPU 1 multiplies the moving speed of the touch operation by a first magnification “1” corresponding to the first resolution, The moving speed of the knob portion image 32 that follows the moving speed of the touch operation is obtained (S6). Then, the CPU 1 updates the display of the virtual operation object 31 so that the knob part image 32 moves at the converted movement speed, and the parameter 1 corresponds to the position of the moved knob part image 32. The value is updated (S6). For example, as shown in FIG. 3C, when the touch point 33a is moved by the moving distance L due to the movement of the touch operation, the knob portion image 32 is also moved by the distance L.

一方、図3(d)に示すように、タッチ操作を行っている指の数が2本(2つの接触点33b,33cを検出)の場合、分解能は第2分解能に設定される(前記S5)。ユーザがタッチ操作の移動(接触点33b,33cの移動)を行うと、CPU1は、例えば2つの接触点33b,33c間の重心位置34の移動を検出することにより、2本の指のタッチ操作の移動を検出し、該検出されたタッチ操作の移動速度に対して、前記第2分解能に対応する第2の倍率「0.5」を乗算することにより、該タッチ操作の移動速度を、半分の速度に変換したつまみ部画像32の移動速度を得る(前記S6)。そして、CPU1は、該変換された移動速度でつまみ部の画像32が移動するように仮想的操作オブジェクト31の表示を更新し、且つ、該移動されたつまみ部の画像32の位置に対応してパラメータの値を更新する(前記S6)。例えば、図3(e)に示すように、タッチ操作の移動により重心位置34が移動距離Lだけ移動したとすると、つまみ部の画像32の表示位置は、その半分の距離L/2だけ移動する。このように、第2分解能でファイン操作する場合、タッチ操作の移動に応じたパラメータの調整を細かく精確に行い得る。言い換えれば、タッチ操作の移動量に対してパラメータの値が余り変化しない。   On the other hand, as shown in FIG. 3D, when the number of fingers performing the touch operation is two (two contact points 33b and 33c are detected), the resolution is set to the second resolution (S5). ). When the user moves the touch operation (movement of the contact points 33b and 33c), the CPU 1 detects the movement of the center of gravity position 34 between the two contact points 33b and 33c, for example, thereby touching the two fingers. The movement speed of the touch operation is reduced by half by multiplying the detected movement speed of the touch operation by the second magnification “0.5” corresponding to the second resolution. The moving speed of the knob part image 32 converted to the speed is obtained (S6). Then, the CPU 1 updates the display of the virtual operation object 31 so that the knob portion image 32 moves at the converted moving speed, and corresponds to the position of the moved knob portion image 32. The parameter value is updated (S6). For example, as shown in FIG. 3E, if the gravity center position 34 is moved by the movement distance L due to the movement of the touch operation, the display position of the image 32 of the knob portion is moved by a half distance L / 2. . As described above, when the fine operation is performed with the second resolution, it is possible to finely and accurately adjust the parameter according to the movement of the touch operation. In other words, the parameter value does not change much with respect to the movement amount of the touch operation.

この実施形態のように、第2分解能を用いたファイン操作(前記S5及びS6)を行うときに、通常操作(前記S4及びS6)と比べて使用する指の本数を増やす(2本にする)構成により、ユーザは、ファイン操作を行う際に、あたかも重い物体を操作しているかのような感覚を受けるだろう。また、ファイン操作に応じたつまみ部画像32の表示移動の「遅さ」によって、視覚的にも、重い物体を操作しているかのような感覚をユーザに与えることができる。このように、ファイン操作を行う際に、ユーザの動作(2本指での操作)と視覚(つまみ部画像32の表示移動の遅さ)とにより、あたかも重い物体を操作しているかのような感覚を与えることで、仮想的操作オブジェクト31を使用したパラメータ値変更操作の操作感を向上することができる。また、重い物体を操作しているかのような感覚は、ファイン操作における操作量に対するパラメータの値の変化の少なさにマッチしている。したがって、指が1本のときに通常操作を行い、指が2本のときにファイン操作を行うという操作の形態の使い分けは、ユーザにとって直感的に分り易い。   As in this embodiment, when the fine operation (S5 and S6) using the second resolution is performed, the number of fingers to be used is increased (to two) compared to the normal operation (S4 and S6). According to the configuration, the user will feel as if he / she is operating a heavy object when performing a fine operation. Further, the “slowness” of the display movement of the knob portion image 32 according to the fine operation can visually give the user a feeling as if he / she is operating a heavy object. In this way, when performing a fine operation, it is as if a heavy object is being operated by the user's action (operation with two fingers) and visual (slowness of display movement of the knob portion image 32). By giving a sensation, the operational feeling of the parameter value changing operation using the virtual operation object 31 can be improved. In addition, the sensation as if operating a heavy object matches the small change in the parameter value with respect to the operation amount in the fine operation. Therefore, it is easy for the user to understand intuitively how to use the normal operation when the number of fingers is one and the fine operation when the number of fingers is two.

CPU1は、一例として、全ての接触点がタッチパネル3から離れるまで(ステップS7のNo)、ステップS6及びS7を繰り返し、タッチ操作の移動を検出する度に、仮想的操作オブジェクト31の表示更新及びパラメータの値の変更を行う(前記ステップS6)。全ての接触点がタッチパネル3から離れるまで、ステップS6及びS7を繰り返すので、ユーザは、タッチ操作を行っている指の少なくとも1つのみをタッチパネル3に接触させておけば、その指の移動により、パラメータ値を変更できる。   As an example, the CPU 1 repeats steps S6 and S7 until all touch points are separated from the touch panel 3 (No in step S7), and updates the display and parameters of the virtual operation object 31 each time a movement of the touch operation is detected. Is changed (step S6). Steps S6 and S7 are repeated until all the touch points are separated from the touch panel 3, so that the user can touch at least one of the fingers performing the touch operation with the touch panel 3 to move the finger, The parameter value can be changed.

全ての接触点がタッチパネル3から離れたら(ステップS7のYes)、CPU1は、パラメータ値を編集する処理を終了する(ステップS8)。なお、前記ステップS1以後、何れのタイミングにおいても、タッチ操作を行っている全ての指がタッチパネル3から離れたときには、CPU1は、図4の処理を終了してよい。   When all the contact points are separated from the touch panel 3 (Yes in step S7), the CPU 1 ends the process of editing the parameter value (step S8). After step S1, the CPU 1 may end the process in FIG. 4 when all fingers performing the touch operation are separated from the touch panel 3 at any timing.

このように、仮想的操作オブジェクト31に対するタッチ操作、すなわち、仮想的操作オブジェクト31に割り当てられたパラメータの値を変更するためのタッチ操作の形態(指の本数)に応じて、該タッチ操作の操作量をパラメータの値の変化量に変換するため第1分解能、又は、第2分解能を使い分けることができる。パラメータ値変更操作とは別に分解能決定用の操作を行う必要が無いので、分解能の使い分けを簡単でわかりやすい方法で行うことができる。また、分解能の変更は、パラメータの値を変更するためのタッチ操作の指の本数の変更により行うので、分解能の変更の操作に注意をそらすことなく、パラメータ値変更操作に集中できる。したがって、仮想的操作オブジェクト31を使用したパラメータの値の制御を、分かりやすく簡単に行えるようになる。   As described above, the touch operation on the virtual operation object 31, that is, the operation of the touch operation according to the form (number of fingers) of the touch operation for changing the value of the parameter assigned to the virtual operation object 31. The first resolution or the second resolution can be used properly in order to convert the quantity into the change amount of the parameter value. Since it is not necessary to perform an operation for determining the resolution separately from the operation of changing the parameter value, the resolution can be used in a simple and easy-to-understand manner. Further, since the resolution change is performed by changing the number of fingers of the touch operation for changing the parameter value, it is possible to concentrate on the parameter value changing operation without diverting attention to the resolution changing operation. Therefore, the parameter value control using the virtual operation object 31 can be easily and easily performed.

次に、別の実施形態に係る仮想的操作オブジェクトの一例として、図5(a)〜(e)は、タッチパネル3の画面50に表示されたパラメトリックイコライザの操作画面例を示す。パラメトリックイコライザの操作画面には、仮想的操作オブジェクト51として、周波数特性を調整するための特性カーブが表示される。図5(a)において、横軸は周波数帯域、縦軸は音量レベルのゲイン値を示す。仮想的操作オブジェクト51(特性カーブ)は、3つの制御点52a,52b,52cを備え、個々の制御点52a,52b,52cの左右位置により、任意の3つの周波数帯域について中心となる周波数を設定し、個々の制御点52a,52b,52cの上下位置により、対応する周波数帯域のゲイン値を設定する。   Next, as an example of a virtual operation object according to another embodiment, FIGS. 5A to 5E show an example of an operation screen of a parametric equalizer displayed on the screen 50 of the touch panel 3. A characteristic curve for adjusting the frequency characteristic is displayed as a virtual operation object 51 on the operation screen of the parametric equalizer. In FIG. 5A, the horizontal axis indicates the frequency band, and the vertical axis indicates the gain value of the volume level. The virtual operation object 51 (characteristic curve) includes three control points 52a, 52b, and 52c, and the center frequency for any three frequency bands is set by the left and right positions of the individual control points 52a, 52b, and 52c. And the gain value of a corresponding frequency band is set with the up-and-down position of each control point 52a, 52b, 52c.

ユーザは、1以上の指のタッチ操作により、いずれか1つの制御点を選択し、該タッチ操作の移動により該選択された制御点を移動できる。図6は、タッチパネル3の画面50に対するタッチ操作に応じてCPU1が実行する処理例を示すフローチャートである。図6のステップS10〜S14は、前記ステップS1〜S5と概ね同様である。すなわち、CPU1は、タッチ操作を検出し、該タッチ操作の接触点に基づいて1つの制御点を選択する(S10)。そして、CPU1は、検出されたタッチ操作の指の本数をカウントし(S11)、カウントされた指の本数が1本か、又は、2本(若しくは2本以上)かを判定して(S12)、1本の場合は前記分解能を第1分解能に決定し(S13)、2本(若しくは2本以上)の場合は前記分解能を第2分解能に決定する(S13)。   The user can select any one control point by a touch operation of one or more fingers, and can move the selected control point by moving the touch operation. FIG. 6 is a flowchart illustrating a processing example executed by the CPU 1 in response to a touch operation on the screen 50 of the touch panel 3. Steps S10 to S14 in FIG. 6 are substantially the same as steps S1 to S5. That is, the CPU 1 detects a touch operation and selects one control point based on the touch point of the touch operation (S10). Then, the CPU 1 counts the number of detected finger of the touch operation (S11), and determines whether the counted number of fingers is one or two (or two or more) (S12). In the case of one, the resolution is determined as the first resolution (S13), and in the case of two (or two or more), the resolution is determined as the second resolution (S13).

CPU1は、ステップS15〜S16によりタッチ操作の移動の初動方向に応じて、調整対象のパラメータ種類を決定する。初動は、前記S10で検出されたタッチ操作の最初の動き(移動)である。最初の動きとは、具体的には、ある所定時間内に行われた初めのタッチ操作移動、または、初めのタッチ操作の移動量のうち所定の距離以内の移動をいう。CPU1は、初動があるまで(ステップS15のNO)、ステップS11〜13をループする。したがって、初動を行う前に指の数を変更すれば、それに応じて分解能も変更される。   The CPU 1 determines the parameter type to be adjusted according to the initial movement direction of the movement of the touch operation in steps S15 to S16. The initial movement is the first movement (movement) of the touch operation detected in S10. Specifically, the first movement refers to an initial touch operation movement performed within a certain predetermined time or a movement within a predetermined distance among the movement amount of the initial touch operation. The CPU 1 loops steps S11 to 13 until there is an initial movement (NO in step S15). Therefore, if the number of fingers is changed before the initial movement, the resolution is changed accordingly.

初動を検出したとき(ステップS15のYes)、該初動の方向を判定する(ステップS16)。前記初動方向は、例えば、上下、又は、左右方向の何れかである。上下、又は、左右方向以外(例えば斜め方向など)にタッチ操作が移動された場合、CPU1は、該タッチ操作の移動を、上下又は左右方向の何れかに該当するものとみなす。タッチ操作の移動(初動)に応じて検出される操作量は、例えば、移動方向及び移動速度である。   When the initial motion is detected (Yes in step S15), the direction of the initial motion is determined (step S16). The initial movement direction is, for example, one of up and down and left and right directions. When the touch operation is moved in a direction other than the vertical direction or the horizontal direction (for example, an oblique direction), the CPU 1 regards the movement of the touch operation as corresponding to either the vertical direction or the horizontal direction. The operation amount detected in accordance with the movement (initial movement) of the touch operation is, for example, a moving direction and a moving speed.

CPU1は、ステップS17において、該判定された初動方向に制御点52bの移動方向を固定するとともに、該初動方向に応じて制御対象のパラメータ種類を決定する。前述の通り、制御点52の左右位置が中心周波数に、また、上下位置がゲイン値に対応付けられているので、初動方向が左右方向の場合、制御対象のパラメータ種類は中心周波数に決定され、初動方向が上下方向の場合、制御対象のパラメータ種類はゲイン値に決定される。これにより、制御点52bは固定された移動方向にのみ動かせるようになり、制御対象のパラメータ種類が固定される。また、一例として、CPU1は、該ステップS17において、制御点52の移動方向を固定することに応じて、タッチパネル3に該固定された移動方向を示すガイド表示を行う。これにより、固定された移動方向をユーザに明示できる。ユーザは、移動方向の表示により、何れの種類のパラメータが制御対象になっているか、及び、つまみ部を何れの方向に移動できるかを把握できる。   In step S17, the CPU 1 fixes the movement direction of the control point 52b in the determined initial movement direction and determines the parameter type to be controlled according to the initial movement direction. As described above, the left and right positions of the control point 52 are associated with the center frequency, and the up and down position is associated with the gain value. Therefore, when the initial movement direction is the left and right direction, the parameter type to be controlled is determined as the center frequency. When the initial movement direction is the vertical direction, the parameter type to be controlled is determined as a gain value. As a result, the control point 52b can be moved only in the fixed movement direction, and the parameter type to be controlled is fixed. Further, as an example, the CPU 1 performs guide display indicating the fixed moving direction on the touch panel 3 in response to fixing the moving direction of the control point 52 in step S17. Thereby, the fixed moving direction can be clearly shown to the user. The user can grasp which type of parameter is to be controlled and which direction the knob can be moved by displaying the moving direction.

ステップS18において、CPU1は、前記ステップS6と同様に、該タッチ操作の移動に応じた操作量(移動方向及び移動速度)を、前記決定された分解能に基づきパラメータの値の変更量に変換して、該変換された変更量に応じて仮想的操作オブジェクト31の表示を更新するとともに、該変更量に応じてメモリ2に記憶されたパラメータの値を更新する。一例として、CPU1は、該ステップS18において、該タッチ操作の移動に応じた操作量のうち、前記ステップS17で固定された移動方向(つまり初動方向)の成分のみを抽出して、該抽出された移動速度を前記変更量に変換する。   In step S18, as in step S6, the CPU 1 converts the operation amount (movement direction and movement speed) corresponding to the movement of the touch operation into a parameter value change amount based on the determined resolution. The display of the virtual operation object 31 is updated according to the converted change amount, and the parameter value stored in the memory 2 is updated according to the change amount. As an example, in step S18, the CPU 1 extracts only the component in the movement direction (that is, the initial movement direction) fixed in step S17 out of the operation amount corresponding to the movement of the touch operation, and the extracted The moving speed is converted into the change amount.

以後、タッチ操作の移動を検出する度に(ステップS19のYes)、CPU1は、前記ステップS18の処理を行う。したがって、ユーザは、初動方向により固定された移動方向にのみ制御点52を移動し、初動方向により固定されたパラメータの値を変更できる。また、指の本数が変更された場合(ステップS19のNo,ステップS20のYes)、CPU1は、処理をステップS12に戻すことで、変更された指の本数に応じた分解能を決定すること、初動方向に応じたパラメータの値を変更すること等を行なう。そして、全ての接触点がタッチパネル3から離れるまで(ステップS21のNo)、CPU1は、ステップS19〜S21をループし、全ての接触点がタッチパネル3から離れたら(ステップS21のYes)、CPU1は、パラメータ値を編集する処理を終了する(ステップS22)。   Thereafter, every time the movement of the touch operation is detected (Yes in step S19), the CPU 1 performs the process of step S18. Therefore, the user can move the control point 52 only in the movement direction fixed by the initial movement direction, and change the value of the parameter fixed by the initial movement direction. When the number of fingers is changed (No in step S19, Yes in step S20), the CPU 1 returns the processing to step S12 to determine the resolution according to the changed number of fingers. The parameter value corresponding to the direction is changed. Then, until all the contact points are separated from the touch panel 3 (No in Step S21), the CPU 1 loops Steps S19 to S21. When all the contact points are separated from the touch panel 3 (Yes in Step S21), the CPU 1 The process for editing the parameter value is terminated (step S22).

例えば、図5(b)に示すように、1本の指(接触点53a)のタッチ操作により制御点52bが選択された場合、分解能は第1分解能に決定される。タッチ操作の初動方向が下方向であった場合、図5(c)に示すように、上下方向を示すガイド表示54が表示される。そして、タッチ操作の移動により接触点33aが移動距離Lだけ移動すると、制御点52bも距離Lだけ移動する。すなわち、第1分解能による通常操作により、ゲインの値が変更される。ここで、図5(c)の例では、タッチ操作は右斜め下方向に移動されているが、CPU1は該タッチ操作の移動に応じた操作量のうち、下方向の成分のみを抽出している。   For example, as shown in FIG. 5B, when the control point 52b is selected by a touch operation of one finger (contact point 53a), the resolution is determined as the first resolution. When the initial movement direction of the touch operation is downward, as shown in FIG. 5C, a guide display 54 indicating the vertical direction is displayed. When the contact point 33a moves by the movement distance L due to the movement of the touch operation, the control point 52b also moves by the distance L. That is, the gain value is changed by a normal operation with the first resolution. Here, in the example of FIG. 5C, the touch operation is moved diagonally downward to the right, but the CPU 1 extracts only the downward component from the operation amount corresponding to the movement of the touch operation. Yes.

また、例えば、図5(d)に示すように、2本の指(接触点53b、53c)のタッチ操作により制御点52bが選択された場合、分解能は第2分解能に決定される。そして、該タッチ操作の下方向への移動により、接触点53b、53cの重心55が移動距離Lだけ移動すると制御点52bは距離L/2だけ移動する。すなわち、第2分解能によるファイン操作により、ゲインの値が変更される。ここで、図5(e)の例でも、タッチ操作は右斜め下方向に移動されているが、CPU1は、該タッチ操作の移動に応じた操作量のうち、下方向の成分のみを抽出している。   Further, for example, as shown in FIG. 5D, when the control point 52b is selected by the touch operation of two fingers (contact points 53b and 53c), the resolution is determined as the second resolution. When the center of gravity 55 of the contact points 53b and 53c moves by the movement distance L by the downward movement of the touch operation, the control point 52b moves by the distance L / 2. That is, the gain value is changed by a fine operation with the second resolution. Here, also in the example of FIG. 5E, the touch operation is moved diagonally downward to the right, but the CPU 1 extracts only the downward component from the operation amount corresponding to the movement of the touch operation. ing.

このように、パラメトリックイコライザの仮想的操作オブジェクト51(特性カーブ)の操作においても、タッチ操作を行う指の本数を使い分けるだけの簡単でわかりやすい方法で、タッチ操作の操作量をパラメータの値の変化量に変換するための分解能を変更できるので、仮想的操作オブジェクト51を使用したパラメータの値の制御を、分かりやすく簡単に行えるようになる。また、図5の仮想的操作オブジェクト51(特性カーブ)の場合、複数の制御点52のうち1つを選択する操作(前記S10で検出されるタッチ操作)に応じて操作の形態を判定し(前記S11、前記S12)、該選択する操作に応じて分解能を決定する(前記S13、前記S14)ことになる。   As described above, even in the operation of the virtual operation object 51 (characteristic curve) of the parametric equalizer, the operation amount of the touch operation is changed to the amount of change in the parameter value by a simple and easy way of using only the number of fingers performing the touch operation. Since the resolution for converting to ## EQU2 ## can be changed, the control of the parameter value using the virtual operation object 51 can be easily and easily understood. Further, in the case of the virtual operation object 51 (characteristic curve) in FIG. 5, the operation form is determined according to the operation for selecting one of the plurality of control points 52 (the touch operation detected in S10) ( The resolution is determined according to the operation to be selected (S13, S14).

図7(a)〜(g)は、更に別の実施形態に係る仮想的操作オブジェクトの一例として、タッチパネル3の画面70に表示されたコンプレッサの操作画面例を示す。コンプレッサは、効果付与処理モジュールの1種であり、音響信号の音量差を圧縮する効果を持つものである。コンプレッサの効果は、例えば、レシオ、スレッショルドレベル、及び、アタックタイムの3種類のパラメータの組み合わせにより決定される。仮想的操作オブジェクト71は、つまみ部を表す1つの画像からなる。仮想的操作オブジェクト71は、レシオ、スレッショルド及びアタックの3種類のパラメータに対応付けられている。また、仮想的操作オブジェクト31の左側には、コンプレッサの特性を示すグラフ72が表示されている。グラフ72の横軸はレシオを示し、縦軸はスレッショルドレベルを示す。   FIGS. 7A to 7G show examples of compressor operation screens displayed on the screen 70 of the touch panel 3 as examples of virtual operation objects according to still another embodiment. The compressor is a kind of effect imparting processing module, and has an effect of compressing the volume difference of the acoustic signal. The effect of the compressor is determined, for example, by a combination of three types of parameters: ratio, threshold level, and attack time. The virtual operation object 71 is composed of one image representing the knob part. The virtual operation object 71 is associated with three types of parameters: ratio, threshold, and attack. In addition, on the left side of the virtual operation object 31, a graph 72 indicating the characteristics of the compressor is displayed. The horizontal axis of the graph 72 indicates the ratio, and the vertical axis indicates the threshold level.

CPU1は、前記ステップS10〜S14により、タッチ操作を行った指の本数を判定し、タッチ操作を行った指の本数が1本の場合、仮想的操作オブジェクト71の操作量をパラメータの値の変更量に変換するための分解能を第1分解能に決定し、2本の場合、前記分解能を第2分解能に決定する。また、CPU1は、前記ステップS15〜S16によりタッチ操作の移動の初動方向に応じて、仮想的操作オブジェクト71の調整対象のパラメータ種類を決定する。   In step S10 to S14, the CPU 1 determines the number of fingers that have performed the touch operation. When the number of fingers that have performed the touch operation is one, the operation amount of the virtual operation object 71 is changed to the parameter value. The resolution for conversion into a quantity is determined as the first resolution, and in the case of two, the resolution is determined as the second resolution. In addition, the CPU 1 determines the parameter type to be adjusted of the virtual operation object 71 according to the initial movement direction of the touch operation in steps S15 to S16.

例えば、1本の指(1つの接触点73a)で下方向にタッチ操作を移動した場合、第1分解能に基づく通常操作により、スレッショルドの値が変更されるとともに、仮想的操作オブジェクト71が下方に移動される。なお、図7において移動前の接触点を点線で示す。一方、2本の指(2つの接触点73b、73c)で下方向にタッチ操作を移動した場合、図7(c)に示す通り、第2分解能に基づくファイン操作により、スレッショルドの値が変更されるとともに、仮想的操作オブジェクト71が下方に移動される。スレッショルドの値の変更に応じて、特性グラフ72の形状も変化する。また、図7(b)、(c)には、上下方向のガイド表示74が表示される。   For example, when the touch operation is moved downward with one finger (one contact point 73a), the threshold value is changed and the virtual operation object 71 is moved downward by the normal operation based on the first resolution. Moved. In FIG. 7, the contact point before movement is indicated by a dotted line. On the other hand, when the touch operation is moved downward with two fingers (two contact points 73b and 73c), the threshold value is changed by the fine operation based on the second resolution as shown in FIG. 7C. At the same time, the virtual operation object 71 is moved downward. As the threshold value changes, the shape of the characteristic graph 72 also changes. 7B and 7C, a vertical guide display 74 is displayed.

また、例えば、1本の指(1つの接触点73a)でタッチ操作の回転を行った場合、図7(d)に示す通り、第1分解能に基づく通常操作により、レシオの値が変更されるとともに、仮想的操作オブジェクト71が回転される。回転位置は、目印75により視認できる。一方、2本の指(2つの接触点73b、73c)で下方向へのタッチ操作の移動を行った場合、図7(e)に示す通り、第2分解能に基づくファイン操作により、レシオの値が変更されるとともに、仮想的操作オブジェクト71が回転される。また、レシオの値の変更に応じて、特性グラフ72の形状も変化する。また、図7(d)、(e)には、回転方向のガイド表示76が表示される。   For example, when the touch operation is rotated with one finger (one contact point 73a), the ratio value is changed by the normal operation based on the first resolution as shown in FIG. 7D. At the same time, the virtual operation object 71 is rotated. The rotational position can be visually recognized by the mark 75. On the other hand, when the touch operation is moved downward with two fingers (two contact points 73b and 73c), as shown in FIG. 7E, the ratio value is obtained by the fine operation based on the second resolution. And the virtual operation object 71 is rotated. Further, the shape of the characteristic graph 72 also changes according to the change in the ratio value. 7D and 7E, a guide display 76 in the rotation direction is displayed.

また、例えば、1本の指(1つの接触点73a)で右方向にタッチ操作を移動した場合、図7(f)に示す通り、第1分解能に基づく通常操作により、アタックタイムの値が変更されるとともに、仮想的操作オブジェクト71が右方向に移動される。一方、2本の指(2つの接触点73b、73c)で下方向へのタッチ操作の移動を行った場合、図7(g)に示す通り、第2分解能に基づくファイン操作により、アタックタイムの値が変更されるとともに、仮想的操作オブジェクト71が右方向に移動される。また、図7(f)、(g)には、左右方向のガイド表示77が表示される。   For example, when the touch operation is moved in the right direction with one finger (one contact point 73a), the attack time value is changed by the normal operation based on the first resolution as shown in FIG. 7F. At the same time, the virtual operation object 71 is moved rightward. On the other hand, when the touch operation is moved downward with two fingers (two contact points 73b and 73c), as shown in FIG. 7G, the attack time is reduced by the fine operation based on the second resolution. While the value is changed, the virtual operation object 71 is moved rightward. 7 (f) and 7 (g), a left and right guide display 77 is displayed.

以上、この発明の一実施形態を説明したが、この発明は上記実施形態に限定されるものではなく、特許請求の範囲、及び明細書と図面に記載された技術的思想の範囲内において種々の変形が可能である。例えば、仮想的操作オブジェクト31、51及び71は、どのような形状であってもよい。また、例えば、タッチ操作の移動に応じて検出される操作量は、移動方向及び移動距離に限らず、移動速度、移動時間、あるいは、タッチ操作の接触圧力など、どのような物理量、あるいは、それら様々な物理量の任意の組み合わせであってよい。   Although one embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiment, and various modifications are possible within the scope of the technical idea described in the claims and the specification and drawings. Deformation is possible. For example, the virtual operation objects 31, 51 and 71 may have any shape. Further, for example, the operation amount detected according to the movement of the touch operation is not limited to the movement direction and the movement distance, but any physical amount such as a movement speed, a movement time, or a contact pressure of the touch operation, or those It can be any combination of various physical quantities.

また、別の実施形態に係る前記ステップS3〜S5及びS12〜S14において、判定される指の本数は、例えば2本又は3本など、幾つであってもよい。また、別の実施形態に係る前記ステップS3〜S5及びS12〜S14は、2以上の複数通りの指の本数を判定し、該2以上の複数種類の分解能を使い分けるようにしてもよい。   Moreover, in said step S3-S5 and S12-S14 which concern on another embodiment, the number of the fingers determined may be any number, for example, two or three. Further, in steps S3 to S5 and S12 to S14 according to another embodiment, the number of two or more types of fingers may be determined, and the two or more types of resolutions may be used properly.

また、前記複数種類の分解能は、前述の「通常操作」を行う第1分解能と、「ファイン操作」を行う第2分解能に限らず、例えば、或る操作量を前記第1分解能の場合よりも大きい変更量に変換する分解能など、様々な種類の分解能を含んでよい。   Further, the plurality of types of resolutions are not limited to the first resolution for performing the “normal operation” and the second resolution for performing the “fine operation”. Various types of resolution may be included, such as resolution for converting to a large change amount.

また、別の実施形態において、前記ステップS2及びS11はタッチ操作の移動方向を判定し、前記ステップS3及びS12は、該判定された移動方向に応じて分解能を決定するように構成されてもよい。また、別の実施形態において、前記ステップS2及びS11はタッチ操作の移動速度を検出し、前記ステップS3及びS12は、該検出された移動速度に応じて分解能を決定するように構成されてもよい。また、別の実施形態において、前記ステップS2及びS11はタッチ操作の圧力を検出し、前記ステップS3及びS12は、該検出された圧力に応じて分解能を決定するように構成されてもよい。   In another embodiment, the steps S2 and S11 may be configured to determine a moving direction of the touch operation, and the steps S3 and S12 may be configured to determine a resolution according to the determined moving direction. . In another embodiment, the steps S2 and S11 may be configured to detect a moving speed of a touch operation, and the steps S3 and S12 may be configured to determine a resolution according to the detected moving speed. . In another embodiment, the steps S2 and S11 may be configured to detect a pressure of a touch operation, and the steps S3 and S12 may be configured to determine a resolution according to the detected pressure.

また、別の実施形態において、前記ステップS6等において複数の指のタッチ操作の移動を検出する際、CPU1は、複数の指の重心の移動を検出することに限らず、複数の指の何れか1つの移動を検出するようにしてもよい。   In another embodiment, when detecting the movement of touch operations of a plurality of fingers in step S6 and the like, the CPU 1 is not limited to detecting the movement of the center of gravity of the plurality of fingers, and any one of the plurality of fingers. One movement may be detected.

また、別の実施形態において、前記ステップS7は、更に、タッチ操作の形態の変更(指の本数の変更)を判定し、該変更があったときに、前記S3に処理が戻るようにしてもよい。この場合、ユーザは、全ての接触点がタッチパネル3を離して、新たにタッチ操作を行うことなく、分解能を再変更(再決定)できる。   In another embodiment, the step S7 further determines a change of the touch operation form (change of the number of fingers), and when the change is made, the process returns to the S3. Good. In this case, the user can change (re-determine) the resolution without releasing all touch points from the touch panel 3 and performing a new touch operation.

また、別の実施形態において、前記ステップS7及びS21は、いずれか1つの接触点がタッチパネル3を離れたときにYesに分岐して、パラメータ編集処理を終了する(前記ステップS8及びS22)ように構成されてもよい。   In another embodiment, the steps S7 and S21 branch to Yes when any one contact point leaves the touch panel 3, and the parameter editing process is terminated (the steps S8 and S22). It may be configured.

また、別の実施形態において、仮想的操作オブジェクト31に関連する操作を入力する装置は、ユーザの手の動きを検出するように構成されたモーションキャプチャ装置により構成されてよい。手の動きを検出する具体的な方法としては、赤外線等を手に照射することにより動きを検出することや、手を初めとする身体に加速度を検出できる装置を取り付けることにより動きを検出することが考えられる。この場合、ステップS2、S3、S11、S12による操作の形態の判定は、モーションキャプチャ装置により検出されたユーザの手の動きを判定する。また、仮想的操作オブジェクト31、51、71は、例えばヘッドマウントディスプレイにより表示されてもよい。この発明は、仮想的操作オブジェクトを使用したパラメータの値の制御を分かりやすく簡単に行うことができるという点で、例えばモーションキャプチャ装置とヘッドマウントディスプレイを使用した拡張現実環境での値変更操作の使用に好適である。   In another embodiment, the device for inputting an operation related to the virtual operation object 31 may be a motion capture device configured to detect the movement of the user's hand. Specific methods for detecting hand movement include detecting movement by irradiating the hand with infrared rays, etc., and detecting movement by attaching a device that can detect acceleration to the body including the hand. Can be considered. In this case, the determination of the operation form in steps S2, S3, S11, and S12 determines the movement of the user's hand detected by the motion capture device. Further, the virtual operation objects 31, 51, 71 may be displayed by, for example, a head mounted display. In the present invention, it is possible to easily and easily control the value of a parameter using a virtual operation object. For example, use of a value change operation in an augmented reality environment using a motion capture device and a head-mounted display. It is suitable for.

また、別の実施形態において、設定装置10は、音響信号処理に関連するパラメータの値を調整するものに限らず、例えば照明の明るさ調整など、仮想的操作オブジェクトの操作により値を調整するものであれば、どのような種類の値の調整に使用されてもよい。   Further, in another embodiment, the setting device 10 is not limited to adjusting a parameter value related to acoustic signal processing, and adjusts a value by operating a virtual operation object, for example, brightness adjustment of illumination. Any value may be used for adjusting the value.

また、この発明は、仮想的操作オブジェクトを表示するステップと、前記仮想的操作オブジェクトに対するユーザの操作を検出するステップと、前記操作の検出に応じて、該検出された操作の形態を判定するステップと、前記判定された操作の形態に応じて、前記仮想的操作オブジェクトに対するユーザの操作の操作量をパラメータの値の変化量に変換するための分解能を決定するステップと、前記検出された操作と前記決定された分解能に応じて、前記仮想的操作オブジェクトに割り当てられたパラメータの値を変更するステップを有する方法の発明として、構成及び実施されてもよい。また、前記方法を構成する各ステップを、コンピュータに実行させるプログラムの発明として、構成及び実施されてもよい。   The present invention also includes a step of displaying a virtual operation object, a step of detecting a user operation on the virtual operation object, and a step of determining the detected operation form according to the detection of the operation. Determining a resolution for converting an operation amount of a user operation on the virtual operation object into a change amount of a parameter value according to the determined operation form; and the detected operation The invention may be configured and implemented as a method invention having a step of changing a value of a parameter assigned to the virtual operation object in accordance with the determined resolution. Further, the steps constituting the method may be configured and implemented as a program invention that causes a computer to execute the steps.

10 設定装置、11 表示部、12 検出部、13 判定部、14 割当部、100 音響信号処理装置 DESCRIPTION OF SYMBOLS 10 Setting apparatus, 11 Display part, 12 Detection part, 13 Determination part, 14 Allocation part, 100 Acoustic signal processing apparatus

Claims (8)

仮想的操作オブジェクトを表示するステップと、
前記仮想的操作オブジェクトに対するユーザの操作を検出するステップと、
前記操作の検出に応じて、該検出された操作の形態を判定するステップと、
前記判定された操作の形態に応じて、前記仮想的操作オブジェクトに対するユーザの操作の操作量をパラメータの値の変化量に変換するための分解能を決定するステップと、
前記検出された操作と前記決定された分解能に応じて、前記仮想的操作オブジェクトに割り当てられたパラメータの値を変更するステップ
を有する方法。
Displaying a virtual operation object;
Detecting a user operation on the virtual operation object;
Determining a form of the detected operation in response to detection of the operation;
Determining a resolution for converting an operation amount of a user operation on the virtual operation object into a change amount of a parameter value in accordance with the determined operation mode;
Changing a value of a parameter assigned to the virtual operation object in accordance with the detected operation and the determined resolution.
前記判定するステップは、前記仮想的操作オブジェクトに対するユーザの操作を行う指の本数を判定し、
前記決定するステップは、前記指の本数に応じて、該分解能を決定する
ことからなる請求項1に記載の方法。
The determining step determines the number of fingers that perform a user operation on the virtual operation object;
The method according to claim 1, wherein the determining step includes determining the resolution according to the number of fingers.
前記判定するステップは、前記指の本数が変更されたとき、変更後の指の本数を判定する
ことからなる請求項2に記載の方法。
The method according to claim 2, wherein the determining step includes determining the number of changed fingers when the number of fingers is changed.
前記前記仮想的操作オブジェクトは、複数種類のパラメータにより決定される制御要素に対応付けられており、
前記前記仮想的操作オブジェクトに対するユーザの操作の初動に応じて、複数種類のパラメータのいずれの値を調整するかを決定するステップ
を更に有する請求項1乃至3の何れかに記載の方法。
The virtual operation object is associated with a control element determined by a plurality of types of parameters,
4. The method according to claim 1, further comprising a step of determining which value of a plurality of types of parameters is to be adjusted according to an initial motion of a user operation on the virtual operation object.
前記初動の方向に応じて、前記仮想的操作オブジェクトの移動方向を固定するステップ
を更に有する請求項4に記載の方法。
The method according to claim 4, further comprising fixing a moving direction of the virtual operation object in accordance with the direction of the initial movement.
前記パラメータの値を変更するステップは、前記ユーザの操作に応じた前記仮想的操作オブジェクトの移動量に基づき該値を変更し、
前記仮想的操作オブジェクトの移動量は、前記ユーザの操作の操作量のうち、前記固定された移動方向への移動成分に基づき決定される
請求項5に記載の方法。
The step of changing the value of the parameter changes the value based on the amount of movement of the virtual operation object according to the operation of the user,
The method according to claim 5, wherein the movement amount of the virtual operation object is determined based on a movement component in the fixed movement direction among the operation amounts of the user's operation.
前記表示するステップは、複数の仮想的操作オブジェクトを表示することからなり、
前記判定するステップは、前記複数の仮想的操作オブジェクトのいずれか1つを選択する選択操作の検出に応じて、該検出された選択操作の形態を判定し、
前記決定するステップは、前記選択操作の形態に応じて、該分解能を決定する
ことからなる請求項1乃至5の何れかに記載の方法。
The step of displaying comprises displaying a plurality of virtual operation objects;
The determining step determines a form of the detected selection operation in response to detection of a selection operation for selecting any one of the plurality of virtual operation objects,
The method according to claim 1, wherein the determining step includes determining the resolution in accordance with a form of the selection operation.
仮想的操作オブジェクトを表示する表示部と、
前記仮想的操作オブジェクトに対するユーザの操作を検出する検出部と、
前記判定された操作の形態に応じて、前記仮想的操作オブジェクトに対するユーザの操作の操作量をパラメータの値の変化量に変換するための分解能を決定する決定部
前記検出された操作と前記決定された分解能に応じて、前記仮想的操作オブジェクトに割り当てられたパラメータの値を変更する変更部
を備える設定装置。
A display unit for displaying virtual operation objects;
A detection unit for detecting a user operation on the virtual operation object;
A determination unit that determines a resolution for converting an operation amount of a user operation on the virtual operation object into a change amount of a parameter value according to the determined operation mode. A setting device including a changing unit that changes a value of a parameter assigned to the virtual operation object according to the resolution.
JP2016062830A 2016-03-25 2016-03-25 Setting device and method Pending JP2017174363A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016062830A JP2017174363A (en) 2016-03-25 2016-03-25 Setting device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016062830A JP2017174363A (en) 2016-03-25 2016-03-25 Setting device and method

Publications (1)

Publication Number Publication Date
JP2017174363A true JP2017174363A (en) 2017-09-28

Family

ID=59973265

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016062830A Pending JP2017174363A (en) 2016-03-25 2016-03-25 Setting device and method

Country Status (1)

Country Link
JP (1) JP2017174363A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020003862A1 (en) * 2018-06-27 2020-01-02 富士フイルム株式会社 Imaging device, imaging method, and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020003862A1 (en) * 2018-06-27 2020-01-02 富士フイルム株式会社 Imaging device, imaging method, and program
JPWO2020003862A1 (en) * 2018-06-27 2021-04-22 富士フイルム株式会社 Imaging device, imaging method, and program
JP2021132383A (en) * 2018-06-27 2021-09-09 富士フイルム株式会社 Imaging device, imaging method, program, and recording medium
US11216118B2 (en) 2018-06-27 2022-01-04 Fujifilm Corporation Imaging apparatus, imaging method, and program
JP7152557B2 (en) 2018-06-27 2022-10-12 富士フイルム株式会社 IMAGING DEVICE, IMAGING METHOD, PROGRAM, AND RECORDING MEDIUM
US11635856B2 (en) 2018-06-27 2023-04-25 Fujifilm Corporation Imaging apparatus, imaging method, and program
US11954290B2 (en) 2018-06-27 2024-04-09 Fujifilm Corporation Imaging apparatus, imaging method, and program

Similar Documents

Publication Publication Date Title
US20220253185A1 (en) Hybrid systems and methods for low-latency user input processing and feedback
EP2686758B1 (en) Input device user interface enhancements
EP3000013B1 (en) Interactive multi-touch remote control
US9813768B2 (en) Configured input display for communicating to computational apparatus
US9058073B2 (en) Electronic device and adjustment method for adjusting setting value
JP3280559B2 (en) Jog dial simulation input device
EP2557492B1 (en) Input and output method in a touch screen terminal and apparatus therefor
JP5771936B2 (en) Parameter adjustment device and acoustic adjustment table
EP2479652A1 (en) Electronic apparatus using touch panel and setting value modification method of same
US20120242577A1 (en) Method for positioning a cursor on a screen
US9857948B2 (en) Method, apparatus and computer-readable storage means for adjusting at least one parameter
JPH11161393A (en) Data value reading method
EP2075671A1 (en) User interface of portable device and operating method thereof
JP2014102656A (en) Manipulation assistance system, manipulation assistance method, and computer program
KR102016650B1 (en) Method and operating device for operating a device
JP5682285B2 (en) Parameter setting program and electronic music apparatus
JP2017174363A (en) Setting device and method
JP5437899B2 (en) Input device, input method, and input program
WO2017164107A1 (en) Device and method for setting parameter
JP2017174361A (en) Setting device and method
JP2019070990A (en) Display control device
JP2017174362A (en) Setting device and method
TWI566162B (en) Smart icon selecting method for graphical user interface
JP2015018523A (en) Input device
KR20180037155A (en) Method and apparatus of controlling display using control pad, and server that distributes computer program for executing the method