JP2004295488A - Effect adding device - Google Patents

Effect adding device Download PDF

Info

Publication number
JP2004295488A
JP2004295488A JP2003087115A JP2003087115A JP2004295488A JP 2004295488 A JP2004295488 A JP 2004295488A JP 2003087115 A JP2003087115 A JP 2003087115A JP 2003087115 A JP2003087115 A JP 2003087115A JP 2004295488 A JP2004295488 A JP 2004295488A
Authority
JP
Japan
Prior art keywords
effect
value
effect addition
addition
touch operation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003087115A
Other languages
Japanese (ja)
Inventor
Masahiko Akino
正彦 秋野
Naohiro Obo
尚博 於保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Korg Inc
Original Assignee
Korg Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Korg Inc filed Critical Korg Inc
Priority to JP2003087115A priority Critical patent/JP2004295488A/en
Publication of JP2004295488A publication Critical patent/JP2004295488A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an effect adding device capable of easily performing an operation in the rapid change of an effect added to an effect addition object signal and enabling a quick operation by activating an effect addition control function just by an one-touch operation of a touch panel and simultaneously executing effect addition to the effect addition object signal. <P>SOLUTION: When one-touch operation is detected, a CPU 100 determines whether or not to activate the effect addition control function on the basis of inputted information (step S3010), and in the case of determining that it is to be activated (Yes in a step S3010), activates the effect addition control function. Then, detection values of an X value and a Y value are decided from coordinates of a touch position on a sensitive area 131 (step S3020), and in the case of determining that the effect addition is not executed at present (Yes in a step S3030), the effect addition to an effect addition object signal is conducted (step S3040). <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、与えられた効果付加対象信号に対して効果付加を行う効果付加装置に関する。
【0002】
【従来の技術】
従来より、例えば映像効果を付加する効果付加装置においては、映像効果を付加する際には、効果を付加する機能のオン/オフ制御をスイッチにより行い、その効果の可変量、即ち、効果付加量をボリュームつまみ、または、一軸レバー、二軸レバー等を操作して効果の付加を行っていた。また、パーソナルコンピュータにタッチパネルインターフェースを接続して、そのパーソナルコンピュータで再生する映像に対して、タッチパネルインターフェースによって効果付加量を操作し、映像効果を可変させるようにして、映像効果の付加を行っていた。また、従来の平面位置センサを用いたエフェクタでは、音声、または楽音信号としての入力信号に対して所望の効果を付加するモード(エフェクトモード)を選択するためのエフェクト/録音スイッチが設けられ、エフェクト/録音スイッチが「エフェクト」側に設定されると、平面位置センサによる効果を付加する処理が実行されるようにしたものが提案されている(例えば、特許文献1参照。)。
【0003】
【特許文献1】
特開2000−250539号公報(第3−5頁、第1図)
【0004】
【発明が解決しようとする課題】
しかしながら、上述のような従来の効果付加装置においても、効果を付加する機能のオン/オフや効果付加量を操作するスイッチや一軸レバー等の可変操作子等が別々に存在していたため個々の操作をそれぞれ独立して行わなければならず、俊敏な操作を行うことが困難であった。
【0005】
更に、ボリュームつまみや一軸レバー、二軸レバー等の可変操作子は、効果付加量を可変させる場合には、つまみやレバーを徐々に捻ることにより、効果付加量を順次連続的に可変させなければならないため、効果付加量を離散的に、即ち、急激に大きく変える操作を、俊敏に行うことが困難であった。
【0006】
また、パーソナルコンピュータを使用して映像効果を付加する場合には、予め再生させるための映像データを、パーソナルコンピュータの記憶部内に用意しておかなければならず、映像データを容易に、または、自由に取り出すことができないときには映像効果を付加することは困難であった。映像効果と音響効果とを同時に付加する場合には、それぞれの効果を付加するための独立した装置を同時に操作する仕組みや構成を別途用意する必要があった。
【0007】
そこで、本発明は、かかる事情を考慮してなされたもので、タッチパネルのワンタッチ操作のみによって、効果付加対象信号としての映像信号に対して付加する効果の急激な変化における操作を容易に行うことができ、俊敏な操作が実現可能な効果付加装置を提供することを目的とする。
【0008】
また、本発明の他の目的は、タッチパネルのワンタッチ操作により、映像効果および音響効果等の複数種類の効果の急激な変化における操作を容易に行うことができ、俊敏な操作が実現可能な効果付加装置を提供することである。
【0009】
【課題を解決するための手段】
上記課題を解決するために、本発明は、与えられた効果付加対象信号としての映像信号に対して効果付加を行う効果付加装置であって、
ワンタッチ操作のタッチ位置に応じた2次元情報を出力するように構成されたタッチパネルと、
前記効果付加に関する制御を行う効果付加制御手段とを備え、
前記効果付加制御手段は、
前記タッチパネルに対する或るワンタッチ操作に応じて、効果付加制御機能を起動させると同時に、当該或るワンタッチ操作のタッチ位置に応じて前記タッチパネルから出力される2次元情報を取得する手段と、
当該或るワンタッチ操作に応答して、前記2次元情報を用いて効果付加量を決定し、前記映像信号に対して前記決定された効果付加量での効果付加を行う手段と、を備えたことを備えたことを特徴とする。
【0010】
このような発明によれば、効果付加制御手段は、タッチパネルの或るワンタッチ操作に応じて、効果付加制御機能を起動させると同時に、当該或るワンタッチ操作のタッチ位置に応じてタッチパネルから出力される2次元情報を取得し、当該或るワンタッチ操作に応答して、2次元情報を用いて効果付加量を決定し、効果付加対象信号としての映像信号に対して決定された効果付加量での効果付加を行うので、効果付加制御機能の起動のための操作が不要となり、付加する効果の急激な変化における操作を容易に行うでき、俊敏な操作を実現することができる。また、タッチパネルから出力される2次元情報を用いて効果付加量を決定し、決定した効果付加量での効果付加を行うので、ワンタッチ操作のタッチ位置を自由に変えることにより、急激に効果付加量を可変させることが可能となり、効果付加量を離散的に、即ち、急激に大きく変える操作を、俊敏に行うことができる。
【0011】
更に、上述の効果付加装置において、与えられた効果付加対象信号としての音響信号に対して効果付加を行う手段を更に備え、前記効果付加制御手段は、更に、前記或るワンタッチ操作に応答して、前記2次元情報を用いて前記映像信号に対する効果付加量を決定し、前記映像信号に対して前記決定された効果付加量での効果付加を行い、更に、前記或るワンタッチ操作に応答して、前記2次元情報を用いて前記音響信号に対する効果付加量を決定し、前記音響信号に対して前記決定された効果付加量での効果付加を行う手段を含んで成る構成としても良い。
【0012】
また上述の効果付加装置において、前記タッチパネルのタッチ操作の停止後、効果付加状態を保持する効果付加保持手段を更に備えることも可能である。上述の効果付加装置において、予め付加可能に設定された複数種類の効果の内から、前記効果を選択する選択手段を備えるようにしても良い。上述の効果付加装置において、予め選択可能に設定された複数種類の信号におけるいずれかのものに、前記効果付加対象信号を切り替える切替手段を備えても良い。
【0013】
【発明の実施の形態】
以下、本発明の実施の形態を図面を参照しつつ説明する。図1は、本実施の形態における効果付加装置10のブロック構成図である。効果付加装置10は、CPU100、ROM110、RAM120、タッチパネル130、ホールドスイッチ140、効果選択ノブ150、効果対象選択レバー160、映像効果処理部200、デコーダー210、エンコーダー220、音響効果処理部300、A/D(アナログ/デジタル変換器)310、D/A(デジタル/アナログ変換器)320を備えている。
【0014】
CPU100は、操作者によるタッチパネル130の効果付加に関する操作に応じて、効果付加制御機能を起動させて、予めROM110に格納されたプログラムを実行することにより効果付加の処理を行う。即ち、効果付加対象信号に対して付加する効果の効果付加量を決定し、この決定した効果付加量での効果付加の処理を実行する。
【0015】
ROM110には、CPU100に効果付加の処理を行わせるためのプログラムや後述するテーブル7000、効果付加対象信号に対して付加可能な複数種類の効果に関する情報、効果付加対象信号として選択可能な複数種類の信号に関する情報等が格納されている。
【0016】
RAM120には、効果選択ノブ150により選択された効果の種類を効果選択情報として格納し、また、効果対象選択レバー160により切り替えられた効果付加対象信号の情報を効果付加対象選択情報として格納されるようになっている。更に、CPU100により決定された効果付加量、ホールドスイッチ140により入力された効果付加状態を保持する旨の効果付加保持情報が格納されるようになっている。
【0017】
効果選択ノブ150は、ROM110に予め格納された、効果付加対象信号に対して付加可能に設定された複数種類の効果の内から、付加する効果の種類を選択するための手段である。この効果選択ノブ150により選択された効果の種類は効果選択情報としてRAM120に格納されるようになっている。
【0018】
効果対象選択レバー160は、ROM110に予め格納された、効果付加対象信号として選択可能に設定された複数種類の信号におけるいずれかのものに、効果付加対象信号を切り替えるための手段である。例えば、効果対象選択レバー160を切り替えることにより、効果付加対象信号として「映像信号」を選択したり、「映像信号および音響信号」を選択することが可能となっている。この効果対象選択レバー160により切り替えられた効果付加対象信号は、効果付加対象選択情報としてRAM120に格納されるようになっている。
【0019】
ホールドスイッチ140は、操作者によるタッチパネル130のタッチ操作の停止後においても、効果付加状態を保持するための手段である。ホールドスイッチ140により効果付加状態を保持された場合には、その旨の効果付加保持情報がRAM120に格納されるようになっている。
【0020】
映像効果処理部200は、デコーダー210により効果付加対象信号としての映像信号から変換されたデジタルデータを受け取り、このデジタルデータに対して、CPU100より送信された命令に従って効果を付加し、更に、エンコーダー220によりこの効果を付加したデジタルデータを映像信号に変換して出力する機能を有する。
【0021】
音響効果処理部300は、A/D310により効果付加対象信号としての音響信号から変換されたデジタルデータを受け取り、このデジタルデータに対して、CPU100より送信された命令に従って効果を付加し、更に、D/A320によりこの効果を付加したデジタルデータを音響信号に変換して出力する機能を有する。
【0022】
図6は、タッチパネル130の構成を示す構成図である。タッチパネル130は、そのタッチ操作面上に、タッチ操作における操作者の指の押圧を感知して、操作者のワンタッチ操作のタッチ位置に応じた検出値を入力情報として取得するための感応エリア131が構成されている。
【0023】
感応エリア131は、素子のばらつきや筐体により覆われることにより発生する検出値のばらつきを吸収するためのばらつき吸収エリア132が外周部分に構成され、この吸収エリア132の内側に、操作者のタッチ操作のタッチ位置に応じた検出値を取得するための有効エリア133が構成されている。
【0024】
タッチパネル130は、感応エリア131上において、操作者のワンタッチ操作のタッチ位置の座標に基づいてX値、Y値の検出値が検出されるようになっている。また、X値、Y値の検出値は、感応エリア131のうち、ばらつき吸収エリア132を除いた有効エリア133の範囲内をX値、Y値の検出値として有効な範囲内とされ、ばらつき吸収エリア132と有効エリア133との境界線上を、X値、Y値の検出値として有効な範囲の上限値または下限値として設定されている。
【0025】
図7は、ROM110に格納されたテーブル7000を示す説明図である。このテーブル7000では、効果選択ノブ150のノブが移動した箇所に割り振られた番号と効果付加対象信号に対して付加する効果の種類とが対応付けられている。例えば、効果対象選択レバー160により効果付加対象信号として「映像信号」が選択されている場合には、効果選択ノブ150のノブを「1」の番号が割り振られた箇所に移動させると、付加する効果として「マルチスクリーン」効果が選択されるようになっている。また、効果付加対象信号として「音響信号」が選択されている場合には、効果選択ノブ150のノブを「1」の番号が割り振られた箇所に移動させると、付加する効果として「ローパスフィルター」効果が選択されるようになっている。
【0026】
効果付加対象信号として「映像信号および音響信号」が選択されている場合には、効果選択ノブ150のノブを「3」の番号が割り振られた箇所に移動させると、付加する効果として、映像信号に対しては「マルチスクリーン」効果、音響信号に対しては「ディレイ・リバーブ」効果が選択されるようになっている。
【0027】
続いて、上述のような構成を有する効果付加装置10における処理について、図3、4、5に示すフローチャート図を用いて説明する。まず、図3を用いてタッチパネル130における処理について説明する。この処理は所定の期間毎に周期的に行われ、例えば1mSec毎に行われる。操作者によりタッチパネル130のワンタッチ操作がされ、感応エリア131上の操作者の指の押圧が感知されてワンタッチ操作が検出されると(ステップS3000)、CPU100は、このワンタッチ操作により入力された情報に基づいて、効果付加制御機能を起動させるか否かを判定する(ステップS3010)。
【0028】
このワンタッチ操作により入力された情報が、効果付加対象信号に対して効果付加を行うものである場合には、CPU100は、効果付加制御機能を起動させるものと判定して(ステップS3010のYes)、効果付加制御機能を起動させる。そして、CPU100は、効果付加制御機能を起動させたことに応じて、この効果付加制御機能の起動と同時にタッチパネル130におけるワンタッチ操作のタッチ位置に基づいて、タッチパネル130から出力される2次元情報を取得する。即ち、タッチパネル130の感応エリア131上のワンタッチ操作のタッチ位置の座標からX値、Y値の検出値を決定し(ステップS3020)ホールドによる復帰の為に、X値、Y値をそれぞれX’値、Y’値に保存する(ステップS3021)。
【0029】
次にCPU100は、操作者のワンタッチ操作により入力された、効果付加対象信号に対する効果付加が現在において実行されているか否かを判定する(ステップS3030)。CPU100は、RAM120を検索して、前の時点に既に決定した検出値が格納されているか否かを検索し、検出値が格納されていない場合には、効果付加が現在において実行されていないものと判定する(ステップS3030のNo)。また、RAM120に前の時点に既に決定した検出値が格納されている場合には、この検出値がステップS3020において決定した検出値と同一であるか否かを判定する。同一でない場合には、効果付加が現在において実行されていないものと判定する(ステップS3030のNo)。そして、この前の時点に既に決定した検出値を削除する。同一である場合には、効果付加が現在において実行されているものと判定し(ステップS3030のYes)、処理を終了する。
【0030】
次にCPU100は、操作者のワンタッチ操作により入力された、効果付加対象信号に対する効果付加が現在において実行されていないと判定した場合には(ステップS3030のNo)、X値、Y値の検出値をRAM120に格納し、効果付加対象信号に対して効果付加を行う処理を実行する(ステップS3040)。
【0031】
このように、操作者によりワンタッチ操作がされ、このワンタッチ操作により入力された情報が、効果付加対象信号に対して効果付加を行うものである場合には、CPU100は、効果付加制御機能を起動させる。そして、この効果付加制御機能の起動と同時にワンタッチ操作のタッチ位置に基づいて、タッチパネル130から出力される2次元情報を取得し検出値を決定して、この検出値に基づいて効果付加対象信号に対して効果付加を行う処理を実行するので、操作者は、タッチパネル130における効果付加を行うワンタッチ操作のみによって、効果付加制御機能の起動を行うと共に、同時に効果付加を実行させることができる。従って、操作者は、効果付加制御機能の起動のための操作が不要となり、付加する効果の急激な変化における操作を容易に行うことができ、俊敏な操作を実現することができる。
【0032】
効果対象選択レバー160を切り替えて、効果付加対象信号として「映像信号」または「映像信号および音響信号」を選択することにより、操作者は、効果付加制御機能の起動のための操作が不要となり、効果付加対象信号としての映像信号に付加する効果の急激な変化における操作を容易に行うことができ、俊敏な操作を実現することができる。
【0033】
ここで、ステップS3010において、例えばワンタッチ操作により入力された情報が、効果付加対象信号に対して効果付加を行わないものであり、効果付加制御機能を起動させるものでないと判定した場合には(ステップS3010のNo)、CPU100は、効果付加状態が保持となっているか否かを判定する(ステップS3050)。CPU100は、RAM120に効果付加保持情報が格納されているか否かを検索する。操作者によりホールドスイッチ140がオフとされ、効果付加保持情報がRAM120に格納されていない場合には、CPU100は、効果付加状態が保持となっていないものと判定する(ステップS3050のNo)。一方、操作者によりホールドスイッチ140がオンとされ、効果付加保持情報がRAM120に格納されている場合には、CPU100は、効果付加状態が保持となっているものと判定して、(ステップS3050のYes)、X’値、Y’値が保存されているか否かを判定して(ステップS3051)、保存されていない場合には処理を終了し(ステップS3051のNo)、保存されている場合にはX’値、Y’値をX値、Y値の検出値として復帰し(ステップS3052)、X値、Y値保存(S3021)後の処理へ遷移する(ステップS3051のYes)。
【0034】
次にCPU100は、効果付加状態が保持となっていないと判定した場合には(ステップS3050のNo)、効果付加対象信号に対する効果付加が現在において実行されているか否かを判定する(ステップS3060)。CPU100は、RAM120に検出値が格納されているか否かを検索し、検出値が格納されている場合には、効果付加が現在において実行されているものと判定する(ステップS3060のYes)。また、RAM120に検出値が格納されていない場合には、効果付加が現在において実行されていないものと判定し(ステップS3060のNo)、処理を終了する。
【0035】
次にCPU100は、効果付加対象信号に対する効果付加が現在において実行されていると判定した場合には(ステップS3060のYes)、この効果付加対象信号に対する効果付加を終了する処理を実行する。そして、このときCPU100は、RAM120に格納されたX値、Y値の検出値を削除する。
【0036】
続いて、図4を用いて効果付加対象信号に対して付加する効果の種類の選択処理について説明する。ここでは、まず、操作者が予め効果対象選択レバー160により効果付加対象選択情報として「映像信号」を選択されているものとする。操作者が、効果選択ノブ150のノブを、例えば、「2」が割り振られた箇所に移動させると、CPU100は、これを検出して効果付加対象信号に対する効果の種類を読み出す処理を実行する(ステップS4010)。
【0037】
CPU100は、RAM120を検索して、効果付加対象選択情報を読み出し、この効果付加対象選択情報が「映像信号」であることに基づいて、付加する効果の種類が映像効果であると判定する。そして、ROM110に格納されたテーブル7000を検索して、映像効果において、効果選択ノブ150のノブの位置「2」の情報に対応付けられた「単色合成」効果の情報を読み出す。
【0038】
次にCPU100は、効果付加対象信号に対して付加する効果の種類を変更する処理を行う(ステップS4020)。CPU100は、RAM120を検索して前の時点に既に効果選択ノブ150により選択された効果選択情報を読み出し、この情報を削除してステップS4010において読み出した「単色合成」効果を効果選択情報として新たに格納する。このようにして、操作者は、効果選択ノブ150のノブを移動させる操作により、効果付加対象信号に対して付加する効果の種類を選択する。
【0039】
続いて、図5を用いて、タッチパネル130における処理のステップS3040において実行される、効果付加対象信号に対して効果付加を行う処理について説明する。まず、CPU100は、効果付加対象信号に付加する効果に、映像効果が含まれているか否かを判定する(ステップS5010)。CPU100は、RAM120を検索して、効果付加対象選択情報を読み出す。
【0040】
そして、例えば操作者が効果対象選択レバー160を切り替えることにより、「映像信号」を選択する、または、「映像信号および音響信号」を選択することによって、効果付加対象選択情報に、映像信号が含まれている場合には、効果付加対象信号に対して付加する効果に映像効果が含まれていると判定する(ステップS5010のYes)。一方、この効果付加対象選択情報に、映像信号が含まれていない場合には、効果付加対象信号に対して付加する効果に映像効果が含まれていないと判定して、ステップS5040の処理を実行する(ステップS5010のNo)。
【0041】
次にCPU100は、数値変換を行う(ステップS5020)。CPU100は、RAM120を検索して、効果選択情報を読み出す。また、RAM120を検索して、ステップS3020において決定したX値、Y値の検出値を読み出す。そして、効果選択情報に基づいて、これらのX値、Y値の検出値の数値変換処理を実行し、効果付加対象信号に対して付加する映像効果の効果付加量を決定する。
【0042】
ここで、X値、Y値の検出値の数値変換処理による映像効果の効果付加量の決定は、例えば以下のようにして行われる。即ち、映像効果としての「マルチスクリーン」効果においては、効果付加量のうち「分割数」は、X値、Y値の検出値を用いて数式「分割数=(最大分割数−1)×(X値−X下限値)/(X上限値−X下限値)+1」から、「元映像との合成比」は、数式「元映像との合成比=100%×(Y値−Y下限値)/(Y上限値−Y下限値)」から求められる。この「マルチスクリーン」効果により、例えば映像効果が付加された映像を表示する映像装置の画面を16分割する等の、分割する「分割数」をダイナミックに可変しながら、元の映像との合成比を調整することができる映像効果が得られる。
【0043】
また、映像効果としての「単色合成」効果においては、効果付加量のうち「色成分(Cb)」は、X値、Y値の検出値を用いて数式「色成分(Cb)=255×(X値−X下限値)/(X上限値−X下限値)+128」から、「色成分(Cr)」は、数式「色成分(Cr)=255×(Y値−Y下限値)/(Y上限値−Y下限値)+128」から求められる。この「単色合成」効果により、「色成分」をタッチパネル130のタッチ位置の組み合わせで可変することができる映像効果が得られる。
【0044】
また、映像効果としての「残像」効果においては、効果付加量のうち「フィードバック量」は、X値、Y値の検出値を用いて数式「フィードバック量=0.99×(X値−X下限値)/(X上限値−X下限値)」から、「エフェクトバランス」は、数式「エフェクトバランス=100%×(Y値−Y下限値)/(Y上限値−Y下限値)」から求められる。この「残像」効果により、残像の深さの調整と元の映像との合成具合を可変することができる映像効果が得られる。
【0045】
次にCPU100は、映像効果処理部200に効果付加を命令する処理を行う(ステップS5030)。CPU100は、ステップS5020において決定した映像効果の効果付加量を映像効果処理部200に送信し、映像信号に対して効果付加を行う命令を送信する。そして、映像効果処理部200は、CPU100から送信された命令に基づいて、デコーダ210を介して取得した映像信号のデジタルデータに効果付加を行い、エンコーダ220によりこの効果付加をしたデジタルデータを映像信号に変換して出力する。
【0046】
次にCPU100は、効果付加対象信号に付加する効果に、音響効果が含まれているか否かを判定する(ステップS5040)。CPU100は、RAM120を検索して、効果付加対象選択情報を読み出す。
【0047】
そして、例えば操作者が効果対象選択レバー160を切り替えることにより、「音響信号」を選択する、または、「映像信号および音響信号」を選択することによって、効果付加対象選択情報に、音響信号が含まれている場合には、効果付加対象信号に対して付加する効果に音響効果が含まれていると判定する(ステップS5040のYes)。一方、この効果付加対象選択情報に、音響信号が含まれていない場合には、効果付加対象信号に対して付加する効果に音響効果が含まれていないと判定して、処理を終了する(ステップS5040のNo)。
【0048】
次にCPU100は、数値変換を行う(ステップS5050)。CPU100は、RAM120を検索して、効果選択情報を読み出す。また、RAM120を検索して、ステップS3020において決定したX値、Y値の検出値を読み出す。そして、効果選択情報に基づいて、これらのX値、Y値の検出値の数値変換処理を実行し、効果付加対象信号に対して付加する音響効果の効果付加量を決定する。
【0049】
ここで、X値、Y値の検出値の数値変換処理による音響効果の効果付加量の決定は、例えば以下のようにして行われる。即ち、音響効果としての「ローパスフィルター」効果においては、効果付加量のうち「カットオフ周波数」は、X値、Y値の検出値を用いて数式「カットオフ周波数=10<(log10(上限周波数)−log10(下限周波数))×(X値−X下限値)/(X上限値−X下限値)+log10(上限周波数)>」から、「レゾナンス」は、数式「レゾナンス=(上限Q−下限Q)×(Y値−Y下限値)/(Y上限値−Y下限値)+下限Q」から求められる。ここで、「10<a>」(a:実数値)は、実数値10に対しての「べき乗」として実数値10のa乗を示し、「log10(b)」(b:実数値)は、実数値10を底とする常用対数を示す。この「ローパスフィルター」効果により、「レゾナンス」を変化させながら「カットオフ周波数」を変えることができる音響効果が得られる。
【0050】
また、音響効果としての「フェイザー」効果においては、効果付加量のうち「LFO周波数」は、X値、Y値の検出値を用いて数式「LFO周波数=10<(log10(上限周波数)−log10(下限周波数))×(X値−X下限値)/(X上限値−X下限値)+log10(上限周波数)>」から、「エフェクトバランス」は、数式「エフェクトバランス=100%×(Y値−Y下限値)/(Y上限値−Y下限値)」から求められる。この「フェイザー」効果により、「LFO周波数」を変化させながら元の音響との「エフェクトバランス」の調整を行うことができる音響効果が得られる。
【0051】
また、音響効果としての「ディレイ・リバーブ」効果においては、効果付加量のうち「ディレイタイム」は、X値、Y値の検出値を用いて数式「ディレイタイム=(上限ディレイタイム−下限ディレイタイム)×(X値−X下限値)/(X上限値−X下限値)+下限ディレイタイム」から、「エフェクト量」は、数式「エフェクト量=100%×(Y値−Y下限値)/(Y上限値−Y下限値)」から求められる。この「ディレイ・リバーブ」効果により、「ディレイタイム」を変化させながら元の音響との「エフェクト量」の調整を行うことができる音響効果が得られる。
【0052】
次にCPU100は、音響効果処理部300に効果付加を命令する処理を行う(ステップS5060)。CPU100は、ステップS5050において決定した音響効果の効果付加量を音響効果処理部300に送信し、音響信号に対して効果付加を行う命令を送信する。そして、音響効果処理部300は、CPU100から送信された命令に基づいて、A/D310を介して取得した音響信号のデジタルデータに音響効果の効果付加を行い、D/A320によりこの効果付加をしたデジタルデータを音響信号に変換して出力する。
【0053】
このように、効果付加対象信号に対して付加する効果として映像効果が含まれ、更に、音響効果が含まれている場合には、CPU100が、操作者のタッチパネル130のワンタッチ操作により取得した、それぞれ1つずつのX値、Y値の検出値に基づいて数値変換処理を実行し、映像効果の効果付加量を決定すると共に、更に、同時に音響効果の効果付加量をも決定し、それぞれ効果付加をした映像信号および音響信号を出力するので、操作者は、タッチパネル130のワンタッチ操作のみによって、効果付加対象信号としての映像信号に効果付加を実行させることができ、更に、同時に、効果付加対象信号としての音響信号に効果付加を実行させることができる。従って、操作者は、映像信号に効果付加を実行させるための操作と、音響信号に効果付加を実行させるための操作とを行うために2回または複数回の操作を行うことが不要となり、1回の操作でこれらの付加効果を実行させることができるので、映像効果および音響効果等の複数種類の効果の急激な変化における操作を容易に行うでき、俊敏な操作を実現することができる。
【0054】
また、操作者のタッチパネル130のワンタッチ操作により取得した、それぞれ1つずつのX値、Y値の検出値に基づいて数値変換処理を実行し、映像効果や音響効果の効果付加量を決定して、それぞれ効果付加をした映像信号および音響信号を出力するので、操作者は、ワンタッチ操作のタッチ位置を自由に変えることにより、タッチパネル130から出力される2次元情報を変えて、X値、Y値の検出値を自由に変更することが可能である。このため、操作者は、ワンタッチ操作のタッチ位置を徐々に変えることにより、これらのX値、Y値の検出値に基づいた効果付加量を連続的に可変させることが可能となり、また更に、タッチ位置を離れた位置に変えることにより、効果付加量を急激に可変させることが可能となり、効果付加量を離散的に、即ち、急激に大きく変える操作を、俊敏に行うことができる。
【0055】
また、操作者のワンタッチ操作によって、映像信号の効果付加と、音響信号の効果付加とを同時に実行させ、映像信号および音響信号による映像、音響を同時に変化させることによって、映像信号による映像と音響信号による音響とに関連性が与えられ、観賞者の視覚と聴覚を同時に刺激させる効果を得ることができる。更に、従来にはない視覚と聴覚への高い芸術的表現を実現することができる。
【0056】
なお、ステップS5010における処理と、ステップS5040における処理とをCPU100が同時に平行して行い、ステップS5010に続いてステップS5020、ステップS5030の処理を行って映像信号に対して付加する映像効果の効果付加と、ステップS5040に続いてステップS5050、ステップS5060の処理を行って音響信号に対して付加する音響効果の効果付加とを、それぞれ平行して行うようにしても良い。
【0057】
ここで、タッチパネル130における処理のステップS3020において実行される、操作者によるタッチパネル130のワンタッチ操作のタッチ位置の座標に基づくX値、Y値の検出値の検出処理について、図2に示すフローチャート図を用いて説明する。まず、操作者によりタッチパネル130のワンタッチ操作がされると、感応エリア131上の操作者の指の押圧が感知されてワンタッチ操作が検出される(ステップS2000)。すると、CPU100は、タッチパネル130の感応エリア131上のワンタッチ操作のタッチ位置の座標からX値、Y値の検出値を決定する(ステップS2010)。
【0058】
次にCPU100は、これらのX値、Y値の検出値が、検出値として図6に示す有効エリア133における有効な範囲の下限値よりも小さいか否かを判定する(ステップS2020)。
【0059】
X値、Y値の検出値が、検出値として有効な、有効エリア133の範囲の下限値よりも小さい場合には(ステップS2020のYes)、これらのX値、Y値の検出値を下限値に置き換えて、この下限値を検出値として設定し、処理を終了する(ステップS2030)。
【0060】
一方、X値、Y値の検出値が、検出値として有効な、有効エリア133の範囲の下限値よりも大きい場合には(ステップS2020のNo)、CPU100は、それらのX値、Y値の検出値が、検出値として有効な、有効エリア133の範囲の上限値よりも大きいか否かを判定する(ステップS2040)。
【0061】
X値、Y値の検出値が、検出値として有効な、有効エリア133の範囲の上限値よりも大きい場合には(ステップS2040のYes)、これらのX値、Y値の検出値を上限値に置き換えて、この上限値を検出値として設定し、処理を終了する(ステップS2050)。一方、X値、Y値の検出値が、検出値として有効な、有効エリア133の範囲の上限値よりも小さい場合には(ステップS2040のNo)、CPU100は、それらのX値、Y値の検出値が、検出値として有効な、有効エリア133の範囲内のものであると判定し処理を終了する。
【0062】
なお、映像信号により出力される映像の種類によっては映像として有効な有効映像エリアのサイズ、形状等が、映像表示装置の画面と一致せず異なり、ノイズまたは空白等の無効な映像が映像効果によって画面上に表示される場合において実行される、映像のトリミング処理について、以下に説明する。
【0063】
まず、図8(a)に示すように、映像信号による映像の有効映像エリア820の左端データ、右端データを映像表示装置800の画面上の映像処理エリア810のそれぞれ左端、右端までコピーして引き延ばす処理を行う。
【0064】
次に、図8(b)に示すように、映像処理エリア810の左端、右端まで引き延ばした有効映像エリア820の上端データ、下端データを映像表示装置800の画面上の映像処理エリア810のそれぞれ上端、下端までコピーして引き延ばす処理を行う。
【0065】
このようにして、映像信号による映像の有効映像エリア820を左右方向、上下方向に引き延ばす処理を行い、図8(c)に示すように、有効映像エリア820が映像処理エリア810と一致するように映像を加工する。映像のトリミング処理により、ノイズまたは空白等の無効な映像が画面上に表示されることを防止できる。
【0066】
(その他の実施の形態)
なお、以上本発明の実施の形態について説明したが、本発明の要旨を逸脱しない範囲内で上記実施形態に種々の変形や変更を施すことが可能となる。例えば、テーブル7000の記憶内容を適宜変更すること、等が挙げられる。
【0067】
本実施の形態における効果付加装置は、電子音等を出力する電子楽器の内部に組み込まれていても良く、また、単体としての映像効果装置として実現しても良い。
【0068】
また、ステップS3030、ステップS3060における、効果付加対象信号に対する効果付加が現在において実行されているか否かを判定する処理は、CPU100が、現在効果付加が実行されているか否かを示すフラグ情報を用いて判定することとしても良い。
【0069】
この場合には、例えば現在効果付加が実行されている場合には、ステップS3040において効果付加を行う処理を実行する際にCPU100により、現在効果付加が実行されている旨を示すフラグ情報「1」がRAM120に格納される。一方、現在効果付加が実行されていない場合には、CPU100により、現在効果付加が実行されていない旨を示すフラグ情報「0」がRAM120に格納される。
【0070】
【発明の効果】
以上説明したように、本発明によれば、タッチパネルのワンタッチ操作のみによって、効果付加制御機能の起動を行うと共に、同時に効果付加対象信号に対して効果付加を実行させることにより、効果付加対象信号としての映像信号に対して付加する効果の急激な変化における操作を容易に行うことができ、俊敏な操作が実現可能な効果付加装置を提供することができる。
【0071】
また、タッチパネルのワンタッチ操作により取得したそれぞれ1つずつのX値、Y値の検出値に基づいて映像効果の効果付加量を決定すると共に、同時に音響効果の効果付加量を決定し、それぞれ効果付加をした映像信号および音響信号を出力することにより、映像効果および音響効果等の複数種類の効果の急激な変化における操作を容易に行うことができ、俊敏な操作が実現可能な効果付加装置を提供することができる。
【図面の簡単な説明】
【図1】効果付加装置10のブロック構成図である。
【図2】操作者によるタッチパネル130のワンタッチ操作により入力される情報の検出処理を示すフローチャート図である。
【図3】タッチパネル130における処理を示すフローチャート図である。
【図4】効果付加対象信号に対して付加する効果の種類の選択処理を示すフローチャート図である。
【図5】効果付加対象信号に対して効果付加を行う処理を示すフローチャート図である。
【図6】タッチパネル130の構成を示す構成図である。
【図7】テーブル7000の説明図である。
【図8】映像のトリミング処理を示す説明図である。
【符号の説明】
10 効果付加装置
100 CPU
110 ROM
120 RAM
130 タッチパネル
140 ホールドスイッチ
150 効果選択ノブ
160 効果対象選択レバー
200 映像効果処理部
210 デコーダー
220 エンコーダー
300 音響効果処理部
310 A/D
320 D/A
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an effect adding apparatus for adding an effect to a given effect adding target signal.
[0002]
[Prior art]
Conventionally, for example, in an effect adding apparatus for adding a video effect, when adding a video effect, on / off control of a function for adding an effect is performed by a switch, and a variable amount of the effect, that is, an effect addition amount Was operated by operating a volume knob, a single-axis lever, a two-axis lever, or the like. In addition, a touch panel interface is connected to a personal computer, and an image effect is added to a video reproduced by the personal computer by operating an effect addition amount using the touch panel interface to vary the video effect. . Further, the effector using the conventional planar position sensor is provided with an effect / recording switch for selecting a mode (effect mode) for adding a desired effect to an input signal as a voice or a tone signal. When the / recording switch is set to the "effect" side, a process has been proposed in which a process for adding an effect by the planar position sensor is executed (for example, see Patent Document 1).
[0003]
[Patent Document 1]
JP-A-2000-25039 (pages 3 to 5, FIG. 1)
[0004]
[Problems to be solved by the invention]
However, even in the above-described conventional effect adding device, since there are separate switches such as a switch for operating the function for adding the effect and the amount of effect addition and a variable operator such as a single-axis lever, there is a need for individual operation. Must be performed independently, and it is difficult to perform agile operation.
[0005]
In addition, when using a variable knob such as a volume knob, a one-axis lever, or a two-axis lever, in order to vary the amount of effect added, the knob or lever must be gradually twisted so that the amount of effect added must be continuously and continuously variable. Therefore, it has been difficult to perform the operation of changing the effect addition amount discretely, that is, drastically, rapidly.
[0006]
When a video effect is added using a personal computer, video data to be reproduced must be prepared in a storage section of the personal computer in advance, and the video data can be easily or freely stored. It was difficult to add a video effect when the video effect could not be taken out. When adding a video effect and a sound effect at the same time, it is necessary to separately prepare a mechanism or configuration for simultaneously operating independent devices for adding the respective effects.
[0007]
Therefore, the present invention has been made in consideration of such circumstances, and it is possible to easily perform an operation in a rapid change of an effect to be added to a video signal as an effect adding target signal by only one-touch operation of a touch panel. It is an object of the present invention to provide an effect adding device that can perform the operation promptly.
[0008]
Further, another object of the present invention is to provide an effect-adding function capable of easily performing an operation in a rapid change of a plurality of kinds of effects such as a video effect and a sound effect by a one-touch operation of a touch panel, and realizing an agile operation. It is to provide a device.
[0009]
[Means for Solving the Problems]
In order to solve the above-described problems, the present invention is an effect adding device that performs effect addition to a given video signal as an effect addition target signal,
A touch panel configured to output two-dimensional information according to a touch position of a one-touch operation;
Effect addition control means for controlling the effect addition,
The effect addition control means,
Means for activating an effect addition control function in response to a certain one-touch operation on the touch panel and acquiring two-dimensional information output from the touch panel in accordance with a touch position of the certain one-touch operation;
Means for determining an effect addition amount using the two-dimensional information in response to the one-touch operation, and effecting the video signal with the determined effect addition amount. It is characterized by having.
[0010]
According to such an invention, the effect addition control unit activates the effect addition control function in response to a certain one-touch operation of the touch panel, and simultaneously outputs the effect addition control function from the touch panel in accordance with the touch position of the certain one-touch operation. The two-dimensional information is acquired, and in response to the certain one-touch operation, the effect addition amount is determined using the two-dimensional information, and the effect at the effect addition amount determined for the video signal as the effect addition target signal is obtained. Since the addition is performed, the operation for activating the effect addition control function is not required, and the operation in the case where the effect to be added changes abruptly can be easily performed, and the agile operation can be realized. In addition, the effect addition amount is determined using the two-dimensional information output from the touch panel, and the effect addition is performed using the determined effect addition amount. Can be varied, and the operation of changing the effect addition amount discretely, that is, rapidly sharply, can be performed promptly.
[0011]
Further, in the above-described effect adding apparatus, the apparatus further includes means for adding an effect to the given audio signal as the effect adding target signal, and the effect adding control means further responds to the one-touch operation. Determining an effect addition amount for the video signal using the two-dimensional information, performing effect addition with the determined effect addition amount on the video signal, and further responding to the one-touch operation. And a means for determining an effect addition amount to the audio signal using the two-dimensional information, and adding an effect with the determined effect addition amount to the audio signal.
[0012]
Further, in the above-described effect adding device, it is possible to further include an effect adding holding unit that holds the effect adding state after the touch operation of the touch panel is stopped. In the above-described effect adding apparatus, a selection unit for selecting the effect from a plurality of types of effects set in advance so that the effect can be added may be provided. In the above-described effect adding apparatus, any one of a plurality of types of signals set in advance to be selectable may include a switching unit that switches the effect adding target signal.
[0013]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram of an effect adding apparatus 10 according to the present embodiment. The effect adding apparatus 10 includes a CPU 100, a ROM 110, a RAM 120, a touch panel 130, a hold switch 140, an effect selection knob 150, an effect target selection lever 160, a video effect processing unit 200, a decoder 210, an encoder 220, an audio effect processing unit 300, A D (analog / digital converter) 310 and a D / A (digital / analog converter) 320 are provided.
[0014]
The CPU 100 performs an effect adding process by activating an effect adding control function in accordance with an operation by the operator relating to adding an effect on the touch panel 130 and executing a program stored in the ROM 110 in advance. That is, the effect addition amount of the effect to be added to the effect addition target signal is determined, and the effect addition processing is executed with the determined effect addition amount.
[0015]
The ROM 110 includes a program for causing the CPU 100 to perform an effect addition process, a table 7000 described later, information on a plurality of types of effects that can be added to the effect addition target signal, and a plurality of types of effects that can be selected as the effect addition target signal. Information about signals is stored.
[0016]
The RAM 120 stores the type of the effect selected by the effect selection knob 150 as effect selection information, and stores the information of the effect addition target signal switched by the effect target selection lever 160 as effect addition target selection information. It has become. Further, the effect addition amount determined by the CPU 100 and the effect addition holding information to hold the effect addition state input by the hold switch 140 are stored.
[0017]
The effect selection knob 150 is a means for selecting the type of effect to be added from a plurality of types of effects which are stored in the ROM 110 in advance and can be added to the effect addition target signal. The type of the effect selected by the effect selection knob 150 is stored in the RAM 120 as effect selection information.
[0018]
The effect target selection lever 160 is a means for switching the effect addition target signal to any one of a plurality of types of signals which are stored in the ROM 110 in advance and are selectable as the effect addition target signal. For example, by switching the effect target selection lever 160, it is possible to select “video signal” or “video signal and audio signal” as the effect addition target signal. The effect addition target signal switched by the effect target selection lever 160 is stored in the RAM 120 as effect addition target selection information.
[0019]
The hold switch 140 is a unit for holding the effect-added state even after the touch operation of the touch panel 130 by the operator is stopped. When the effect addition state is held by the hold switch 140, the effect addition holding information to that effect is stored in the RAM 120.
[0020]
The video effect processing unit 200 receives the digital data converted from the video signal as the effect addition target signal by the decoder 210, adds an effect to the digital data according to the command transmitted from the CPU 100, and further adds an encoder 220 Has the function of converting digital data to which this effect is added into a video signal and outputting it.
[0021]
The sound effect processing unit 300 receives the digital data converted from the sound signal as the effect addition target signal by the A / D 310, adds an effect to the digital data according to a command transmitted from the CPU 100, and further adds D / A320 has the function of converting digital data to which this effect has been added into an audio signal and outputting it.
[0022]
FIG. 6 is a configuration diagram illustrating a configuration of the touch panel 130. The touch panel 130 has, on its touch operation surface, a sensitive area 131 for sensing a press of an operator's finger in a touch operation and acquiring a detection value corresponding to a touch position of the one-touch operation of the operator as input information. It is configured.
[0023]
In the sensitive area 131, a variation absorption area 132 for absorbing variation of the element and variation of the detection value caused by being covered by the housing is formed in an outer peripheral portion. An operator touches the inside of the absorption area 132. An effective area 133 for acquiring a detection value corresponding to the touch position of the operation is configured.
[0024]
The touch panel 130 is configured to detect the detection values of the X value and the Y value on the sensitive area 131 based on the coordinates of the touch position of the one-touch operation by the operator. In addition, the detection values of the X value and the Y value are set so that the range of the effective area 133 excluding the variation absorption area 132 in the sensitive area 131 is within the effective range as the detection value of the X value and the Y value. A boundary between the area 132 and the effective area 133 is set as an upper limit or a lower limit of a valid range as a detection value of the X value and the Y value.
[0025]
FIG. 7 is an explanatory diagram showing a table 7000 stored in the ROM 110. In this table 7000, the number assigned to the position where the knob of the effect selection knob 150 has moved is associated with the type of effect to be added to the effect addition target signal. For example, when “video signal” is selected as the effect addition target signal by the effect target selection lever 160, the effect selection knob 150 is added by moving the knob of the effect selection knob 150 to a position assigned the number “1”. The "multi-screen" effect is selected as the effect. Further, when “sound signal” is selected as the effect addition target signal, the knob of the effect selection knob 150 is moved to a position where the number “1” is assigned, and the “low-pass filter” is added as the effect to be added. The effect is selected.
[0026]
When the “video signal and audio signal” is selected as the effect addition target signal, moving the knob of the effect selection knob 150 to a location assigned with the number “3” results in a video signal as an effect to be added. , The "multi-screen" effect is selected, and the "delay reverb" effect is selected for the audio signal.
[0027]
Next, processing in the effect adding apparatus 10 having the above-described configuration will be described with reference to flowcharts shown in FIGS. First, processing in the touch panel 130 will be described with reference to FIG. This process is performed periodically at predetermined intervals, for example, at 1 mSec intervals. When the operator performs a one-touch operation on the touch panel 130 and detects a one-touch operation by sensing the pressing of the operator's finger on the sensitive area 131 (step S3000), the CPU 100 determines the information input by the one-touch operation. Based on this, it is determined whether to activate the effect addition control function (step S3010).
[0028]
If the information input by the one-touch operation is to add an effect to the effect addition target signal, the CPU 100 determines that the effect addition control function is to be activated (Yes in step S3010), and Activate the effect addition control function. Then, in response to the activation of the effect addition control function, the CPU 100 acquires the two-dimensional information output from the touch panel 130 based on the touch position of the one-touch operation on the touch panel 130 simultaneously with the activation of the effect addition control function. I do. That is, the X value and the Y value are determined from the coordinates of the touch position of the one-touch operation on the sensitive area 131 of the touch panel 130 (step S3020). , Y ′ values (step S3021).
[0029]
Next, the CPU 100 determines whether or not the effect addition to the effect addition target signal input by the one-touch operation of the operator is currently being executed (step S3030). The CPU 100 searches the RAM 120 to determine whether or not the detected value already determined at the previous time is stored. If the detected value is not stored, the CPU 100 determines that the effect addition is not currently performed. (No in step S3030). If the detected value already determined at the previous time is stored in the RAM 120, it is determined whether or not the detected value is the same as the detected value determined in step S3020. If they are not the same, it is determined that the effect addition is not currently executed (No in step S3030). Then, the detection value already determined at the previous time is deleted. If they are the same, it is determined that the effect addition is currently being performed (Yes in step S3030), and the process ends.
[0030]
Next, when the CPU 100 determines that the effect addition to the effect addition target signal input by the one-touch operation of the operator is not currently performed (No in step S3030), the detection values of the X value and the Y value are determined. Is stored in the RAM 120, and a process of adding an effect to the effect addition target signal is executed (step S3040).
[0031]
As described above, when the operator performs the one-touch operation and the information input by the one-touch operation is to add an effect to the effect addition target signal, the CPU 100 activates the effect addition control function. . Then, at the same time as the activation of the effect addition control function, two-dimensional information output from the touch panel 130 is acquired based on the touch position of the one-touch operation to determine a detection value, and the effect addition target signal is determined based on the detection value. Since the process of adding the effect is performed on the touch panel, the operator can activate the effect adding control function and execute the effect adding at the same time only by the one-touch operation of adding the effect on the touch panel 130. Therefore, the operator does not need to perform an operation for activating the effect adding control function, and can easily perform an operation in a rapid change of the effect to be added, thereby realizing an agile operation.
[0032]
By switching the effect target selection lever 160 and selecting “video signal” or “video signal and audio signal” as the effect addition target signal, the operator does not need to perform an operation for activating the effect addition control function. It is possible to easily perform an operation in a rapid change of the effect added to the video signal as the effect addition target signal, and to realize an agile operation.
[0033]
Here, when it is determined in step S3010 that the information input by, for example, the one-touch operation does not add an effect to the effect addition target signal and does not activate the effect addition control function (step S3010). (No in S3010), the CPU 100 determines whether or not the effect adding state is held (step S3050). The CPU 100 searches whether or not the effect addition holding information is stored in the RAM 120. When the hold switch 140 is turned off by the operator and the effect addition holding information is not stored in the RAM 120, the CPU 100 determines that the effect addition state is not held (No in step S3050). On the other hand, when the hold switch 140 is turned on by the operator and the effect addition holding information is stored in the RAM 120, the CPU 100 determines that the effect addition state is being held (step S3050). Yes), it is determined whether or not the X ′ value and the Y ′ value are stored (step S3051). If the X ′ value and the Y ′ value are not stored, the process ends (No at step S3051). Returns the X ′ and Y ′ values as the detected values of the X and Y values (step S3052), and transitions to the processing after storing the X and Y values (S3021) (Yes in step S3051).
[0034]
Next, when the CPU 100 determines that the effect addition state is not held (No in step S3050), the CPU 100 determines whether the effect addition to the effect addition target signal is currently being performed (step S3060). . The CPU 100 searches whether or not the detected value is stored in the RAM 120, and when the detected value is stored, determines that the effect addition is being executed at present (Yes in step S3060). If no detected value is stored in the RAM 120, it is determined that the effect addition has not been executed at present (No in step S3060), and the process ends.
[0035]
Next, when the CPU 100 determines that the effect addition to the effect addition target signal is currently being executed (Yes in step S3060), the CPU 100 executes a process of ending the effect addition to the effect addition target signal. Then, at this time, the CPU 100 deletes the detected values of the X value and the Y value stored in the RAM 120.
[0036]
Next, a process of selecting an effect type to be added to the effect addition target signal will be described with reference to FIG. Here, it is assumed that the operator has previously selected “video signal” as the effect addition target selection information by the effect target selection lever 160. When the operator moves the knob of the effect selection knob 150 to, for example, a location to which “2” is assigned, the CPU 100 detects this and executes a process of reading out the type of the effect for the effect addition target signal ( Step S4010).
[0037]
The CPU 100 searches the RAM 120 to read out the effect addition target selection information, and determines that the type of the effect to be added is a video effect based on the fact that the effect addition target selection information is “video signal”. Then, the table 7000 stored in the ROM 110 is searched to read out the information of the “single color combining” effect associated with the information of the knob position “2” of the effect selection knob 150 in the video effect.
[0038]
Next, the CPU 100 performs a process of changing the type of the effect to be added to the effect adding target signal (step S4020). The CPU 100 searches the RAM 120, reads out the effect selection information already selected by the effect selection knob 150 at the previous time, deletes this information, and newly uses the “single-color combination” effect read out in step S4010 as effect selection information. Store. In this way, the operator selects the type of the effect to be added to the effect addition target signal by operating the knob of the effect selection knob 150.
[0039]
Next, the process of adding an effect to the effect addition target signal, which is performed in step S3040 of the process on the touch panel 130, will be described with reference to FIG. First, the CPU 100 determines whether or not an image effect is included in the effect added to the effect addition target signal (step S5010). The CPU 100 searches the RAM 120 to read the effect addition target selection information.
[0040]
The video signal is included in the effect addition target selection information, for example, by selecting the “video signal” by switching the effect target selection lever 160 by the operator, or by selecting the “video signal and audio signal”. If it is determined that the image effect is included in the effect to be added to the effect addition target signal (Yes in step S5010). On the other hand, if the video signal is not included in the effect addition target selection information, it is determined that the video effect is not included in the effect added to the effect addition target signal, and the process of step S5040 is executed. (No in step S5010).
[0041]
Next, the CPU 100 performs numerical value conversion (step S5020). The CPU 100 searches the RAM 120 and reads out the effect selection information. Further, the RAM 120 is searched to read the detected values of the X value and the Y value determined in step S3020. Then, based on the effect selection information, a numerical value conversion process of the detected values of the X value and the Y value is executed, and the effect addition amount of the video effect to be added to the effect addition target signal is determined.
[0042]
Here, the determination of the effect addition amount of the video effect by the numerical value conversion processing of the detected values of the X value and the Y value is performed, for example, as follows. That is, in the “multi-screen” effect as a video effect, the “division number” in the effect addition amount is calculated by using the detection values of the X value and the Y value, and the expression “division number = (maximum division number−1) × ( From “X value−X lower limit value” / (X upper limit value−X lower limit value) +1 ”, the“ composite ratio with the original video ”is expressed by the formula“ composite ratio with original video = 100% × (Y value−Y lower limit value) ) / (Y upper limit value−Y lower limit value) ”. The "multi-screen" effect allows the composition ratio with the original image to be changed while dynamically changing the "number of divisions" such as dividing the screen of an image display device that displays an image with an image effect into 16, for example. The video effect which can adjust is obtained.
[0043]
In the “monochrome composition” effect as a video effect, the “color component (Cb)” of the effect addition amount is calculated using the expression “color component (Cb) = 255 × ( From “X value−X lower limit value” / (X upper limit value−X lower limit value) +128 ”, the“ color component (Cr) ”is calculated by the formula“ color component (Cr) = 255 × (Y value−Y lower limit value) / ( Y upper limit value−Y lower limit value) +128 ”. By the “single-color composition” effect, an image effect in which the “color component” can be changed by a combination of touch positions on the touch panel 130 is obtained.
[0044]
In the “afterimage” effect as a video effect, the “feedback amount” of the effect addition amount is calculated by using the detected value of the X value and the Y value as “Expression amount = 0.99 × (X value−X lower limit)”. Value) / (X upper limit value−X lower limit value), and the “effect balance” is obtained from the formula “effect balance = 100% × (Y value−Y lower limit value) / (Y upper limit value−Y lower limit value)”. Can be This “afterimage” effect provides an image effect that can adjust the depth of the afterimage and change the degree of synthesis with the original image.
[0045]
Next, the CPU 100 performs a process of instructing the video effect processing unit 200 to add an effect (step S5030). The CPU 100 transmits the effect addition amount of the video effect determined in step S5020 to the video effect processing unit 200, and transmits a command for adding the effect to the video signal. Then, the video effect processing unit 200 adds an effect to the digital data of the video signal acquired via the decoder 210 based on the command transmitted from the CPU 100, and the encoder 220 adds the digital data to which the effect has been added to the video signal. And output.
[0046]
Next, the CPU 100 determines whether or not the sound effect is included in the effect added to the effect addition target signal (step S5040). The CPU 100 searches the RAM 120 to read the effect addition target selection information.
[0047]
Then, for example, the operator switches the effect target selection lever 160 to select the “audio signal”, or selects the “video signal and the audio signal”, so that the effect addition target selection information includes the audio signal. If so, it is determined that the sound effect is included in the effect added to the effect addition target signal (Yes in step S5040). On the other hand, when the sound signal is not included in the effect addition target selection information, it is determined that the sound effect is not included in the effect to be added to the effect addition target signal, and the process ends (step (No in S5040).
[0048]
Next, the CPU 100 performs numerical value conversion (step S5050). The CPU 100 searches the RAM 120 and reads out the effect selection information. Further, the RAM 120 is searched to read the detected values of the X value and the Y value determined in step S3020. Then, based on the effect selection information, a numerical value conversion process of the detected values of the X value and the Y value is executed to determine the effect addition amount of the sound effect to be added to the effect addition target signal.
[0049]
Here, the determination of the effect addition amount of the sound effect by the numerical value conversion processing of the detected values of the X value and the Y value is performed, for example, as follows. That is, in the “low-pass filter” effect as an acoustic effect, the “cutoff frequency” of the effect addition amount is calculated using the detected values of the X value and the Y value using the expression “cutoff frequency = 10 <(log10 (upper limit frequency) ) −log10 (lower limit frequency)) × (X value−X lower limit value) / (X upper limit value−X lower limit value) + log10 (upper limit frequency)>, the “resonance” is obtained by the formula “resonance = (upper limit Q−lower limit)”. Q) × (Y value−Y lower limit value) / (Y upper limit value−Y lower limit value) + lower limit Q ”. Here, “10 <a>” (a: real value) indicates the power of the real value 10 as the “power” of the real value 10, and “log10 (b)” (b: real value) is , A common logarithm with a real value of 10 as a base. By this “low-pass filter” effect, an acoustic effect that can change the “cutoff frequency” while changing the “resonance” is obtained.
[0050]
In the “phaser” effect as an acoustic effect, the “LFO frequency” of the effect addition amount is calculated using the detected values of the X value and the Y value using the expression “LFO frequency = 10 <(log10 (upper limit frequency) −log10). (Lower limit frequency)) × (X value−X lower limit value) / (X upper limit value−X lower limit value) + log10 (upper limit frequency)>, the “effect balance” is calculated by the formula “effect balance = 100% × (Y value) −Y lower limit value) / (Y upper limit value−Y lower limit value). By the “phaser” effect, a sound effect that can adjust the “effect balance” with the original sound while changing the “LFO frequency” is obtained.
[0051]
In the “delay reverb” effect as an acoustic effect, the “delay time” of the effect addition amount is calculated by using the detected value of the X value and the Y value as a formula “delay time = (upper limit delay time−lower limit delay time) ) × (X value−X lower limit value) / (X upper limit value−X lower limit value) + lower limit delay time, the “effect amount” is calculated by the formula “effect amount = 100% × (Y value−Y lower limit value) / (Y upper limit value-Y lower limit value) ". With this “delay reverb” effect, a sound effect that can adjust the “effect amount” with the original sound while changing the “delay time” is obtained.
[0052]
Next, the CPU 100 performs a process of instructing the sound effect processing unit 300 to add an effect (step S5060). The CPU 100 transmits the effect addition amount of the sound effect determined in step S5050 to the sound effect processing unit 300, and transmits a command for adding an effect to the sound signal. Then, based on the command transmitted from the CPU 100, the sound effect processing unit 300 adds the effect of the sound effect to the digital data of the sound signal acquired via the A / D 310, and adds the effect by the D / A 320. The digital data is converted into an audio signal and output.
[0053]
As described above, when the video effect is included as an effect to be added to the effect addition target signal, and further when the sound effect is included, the CPU 100 obtains the image by the one-touch operation of the touch panel 130 by the operator. Numerical conversion processing is performed based on the detected values of the X value and the Y value one by one to determine the effect addition amount of the video effect, and also to determine the effect addition amount of the sound effect at the same time, and to add the effect respectively. Since the video signal and the audio signal are output, the operator can cause the video signal as the effect addition target signal to perform the effect addition only by one-touch operation of the touch panel 130. The effect addition can be performed to the acoustic signal as the above. Therefore, the operator does not need to perform two or more operations to perform the operation for performing the effect addition on the video signal and the operation for performing the effect addition to the audio signal. Since these additional effects can be executed by a single operation, an operation can be easily performed in a sudden change of a plurality of types of effects such as a video effect and a sound effect, and an agile operation can be realized.
[0054]
Further, a numerical conversion process is performed based on the detected values of the X value and the Y value obtained by one-touch operation of the touch panel 130 by the operator, and the effect addition amount of the video effect and the sound effect is determined. The video signal and the audio signal to which the effect is added are output, so that the operator can freely change the touch position of the one-touch operation to change the two-dimensional information output from the touch panel 130, thereby changing the X value and the Y value. Can be freely changed. For this reason, the operator can continuously change the effect addition amount based on the detected values of the X value and the Y value by gradually changing the touch position of the one-touch operation. By changing the position to a distant position, the effect addition amount can be rapidly changed, and the operation of changing the effect addition amount discretely, that is, sharply large can be performed promptly.
[0055]
In addition, the effect of the video signal and the effect of the audio signal are simultaneously executed by an operator's one-touch operation, and the image and the sound by the video signal and the audio signal are changed at the same time. Is associated with the sound of the viewer, and an effect of simultaneously stimulating the visual and auditory senses of the viewer can be obtained. Furthermore, it is possible to realize a high artistic expression to the sight and the hearing that has not been achieved in the past.
[0056]
Note that the CPU 100 simultaneously performs the processing in step S5010 and the processing in step S5040, and performs the processing in steps S5020 and S5030 following step S5010 to add the effect of the video effect to be added to the video signal. The processing of steps S5050 and S5060 subsequent to step S5040 may be performed in parallel with the effect addition of the sound effect to be added to the sound signal.
[0057]
FIG. 2 is a flowchart illustrating a process of detecting the detection values of the X value and the Y value based on the coordinates of the touch position of the one-touch operation on the touch panel 130 performed by the operator in step S3020 of the process on the touch panel 130. It will be described using FIG. First, when the operator performs a one-touch operation on touch panel 130, the pressing of the operator's finger on sensitive area 131 is detected, and the one-touch operation is detected (step S2000). Then, the CPU 100 determines the detection values of the X value and the Y value from the coordinates of the touch position of the one-touch operation on the sensitive area 131 of the touch panel 130 (step S2010).
[0058]
Next, the CPU 100 determines whether or not the detected values of the X value and the Y value are smaller than the lower limit of the effective range in the effective area 133 shown in FIG. 6 as the detected value (Step S2020).
[0059]
If the detected values of the X value and the Y value are smaller than the lower limit of the range of the effective area 133 that is valid as the detected value (Yes in step S2020), the detected values of the X value and the Y value are set to the lower limit. And the lower limit value is set as the detection value, and the process ends (step S2030).
[0060]
On the other hand, when the detected values of the X value and the Y value are larger than the lower limit value of the range of the effective area 133 that is valid as the detected value (No in step S2020), the CPU 100 determines whether the X value and the Y value It is determined whether or not the detected value is larger than the upper limit value of the range of the effective area 133 that is valid as the detected value (Step S2040).
[0061]
If the detected values of the X value and the Y value are larger than the upper limit of the range of the effective area 133 that is valid as the detected value (Yes in step S2040), the detected values of the X value and the Y value are set to the upper limit. And the upper limit value is set as the detection value, and the process ends (step S2050). On the other hand, when the detected values of the X value and the Y value are smaller than the upper limit value of the range of the effective area 133 that is valid as the detected value (No in step S2040), the CPU 100 determines whether the X value and the Y value It is determined that the detected value is within the valid area 133, which is valid as the detected value, and the process ends.
[0062]
Depending on the type of video output by the video signal, the size, shape, etc. of the effective video area that is valid as a video does not match the screen of the video display device and differs, and invalid video such as noise or blank space is The video trimming process executed when displayed on the screen will be described below.
[0063]
First, as shown in FIG. 8A, the left end data and the right end data of the effective image area 820 of the image based on the image signal are copied and extended to the left end and the right end of the image processing area 810 on the screen of the image display device 800, respectively. Perform processing.
[0064]
Next, as shown in FIG. 8B, the upper end data and the lower end data of the effective image area 820 extended to the left end and the right end of the image processing area 810 are respectively transferred to the upper end of the image processing area 810 on the screen of the image display device 800. Then, a process of copying and extending to the lower end is performed.
[0065]
In this way, the process of extending the effective image area 820 of the image by the image signal in the left-right direction and the up-down direction is performed so that the effective image area 820 coincides with the image processing area 810 as shown in FIG. Process video. By the video trimming process, it is possible to prevent an invalid video such as noise or blank space from being displayed on the screen.
[0066]
(Other embodiments)
Although the embodiments of the present invention have been described above, various modifications and changes can be made to the above embodiments without departing from the spirit of the present invention. For example, the stored contents of the table 7000 may be appropriately changed.
[0067]
The effect adding device according to the present embodiment may be incorporated in an electronic musical instrument that outputs an electronic sound or the like, or may be realized as a single image effect device.
[0068]
The processing of determining whether or not the effect addition is currently being performed on the effect addition target signal in step S3030 and step S3060 is performed by CPU 100 using flag information indicating whether or not the effect addition is currently being performed. Alternatively, it may be determined.
[0069]
In this case, for example, when the effect addition is currently being performed, the flag information “1” indicating that the effect addition is currently performed is performed by the CPU 100 when executing the process of adding the effect in step S3040. Is stored in the RAM 120. On the other hand, when the effect addition is not currently executed, the CPU 100 stores the flag information “0” indicating that the effect addition is not currently executed in the RAM 120.
[0070]
【The invention's effect】
As described above, according to the present invention, the effect addition control function is activated only by one-touch operation of the touch panel, and at the same time, the effect addition is performed on the effect addition target signal, thereby obtaining the effect addition target signal. It is possible to provide an effect adding apparatus that can easily perform an operation in a rapid change of the effect to be added to the video signal and can realize an agile operation.
[0071]
In addition, the effect addition amount of the video effect is determined based on the detection value of each of the X value and the Y value acquired by one touch operation of the touch panel, and at the same time, the effect addition amount of the sound effect is determined. By outputting a video signal and an audio signal, the user can easily perform an operation in a rapid change of a plurality of kinds of effects such as an image effect and an audio effect, and provide an effect adding device capable of realizing an agile operation. can do.
[Brief description of the drawings]
FIG. 1 is a block diagram of an effect adding device 10;
FIG. 2 is a flowchart illustrating a process of detecting information input by a one-touch operation of a touch panel by an operator.
FIG. 3 is a flowchart showing a process in the touch panel 130.
FIG. 4 is a flowchart illustrating a process of selecting an effect type to be added to an effect addition target signal.
FIG. 5 is a flowchart illustrating a process of adding an effect to an effect addition target signal.
FIG. 6 is a configuration diagram showing a configuration of a touch panel 130.
FIG. 7 is an explanatory diagram of a table 7000.
FIG. 8 is an explanatory diagram showing a video trimming process.
[Explanation of symbols]
10 Effect adding device
100 CPU
110 ROM
120 RAM
130 Touch panel
140 Hold switch
150 Effect selection knob
160 Effect target selection lever
200 Video Effect Processing Unit
210 decoder
220 encoder
300 sound effect processing unit
310 A / D
320 D / A

Claims (5)

与えられた効果付加対象信号としての映像信号に対して効果付加を行う効果付加装置であって、
ワンタッチ操作のタッチ位置に応じた2次元情報を出力するように構成されたタッチパネルと、
前記効果付加に関する制御を行う効果付加制御手段とを備え、
前記効果付加制御手段は、
前記タッチパネルに対する或るワンタッチ操作に応じて、効果付加制御機能を起動させると同時に、当該或るワンタッチ操作のタッチ位置に応じて前記タッチパネルから出力される2次元情報を取得する手段と、
当該或るワンタッチ操作に応答して、前記2次元情報を用いて効果付加量を決定し、前記映像信号に対して前記決定された効果付加量での効果付加を行う手段と、を備えたことを特徴とする効果付加装置。
An effect adding device that adds an effect to a given video signal as an effect adding target signal,
A touch panel configured to output two-dimensional information according to a touch position of a one-touch operation;
Effect addition control means for controlling the effect addition,
The effect addition control means,
Means for activating an effect addition control function in response to a certain one-touch operation on the touch panel and acquiring two-dimensional information output from the touch panel in accordance with a touch position of the certain one-touch operation;
Means for determining an effect addition amount using the two-dimensional information in response to the one-touch operation, and effecting the video signal with the determined effect addition amount. An effect adding device characterized by the above-mentioned.
請求項1に記載の効果付加装置において、
与えられた効果付加対象信号としての音響信号に対して効果付加を行う手段を更に備え、
前記効果付加制御手段は、更に、
前記或るワンタッチ操作に応答して、前記2次元情報を用いて前記映像信号に対する効果付加量を決定し、前記映像信号に対して前記決定された効果付加量での効果付加を行い、更に、
前記或るワンタッチ操作に応答して、前記2次元情報を用いて前記音響信号に対する効果付加量を決定し、前記音響信号に対して前記決定された効果付加量での効果付加を行う手段を含んで成ることを特徴とする効果付加装置。
The effect adding device according to claim 1,
The apparatus further comprises means for adding an effect to the given audio signal as the effect addition target signal,
The effect addition control means further includes:
In response to the one-touch operation, determine an effect addition amount to the video signal using the two-dimensional information, perform the effect addition with the determined effect addition amount to the video signal, further,
Means for responding to the one-touch operation to determine an effect addition amount to the audio signal using the two-dimensional information, and to add an effect to the audio signal with the determined effect addition amount. An effect adding device characterized by comprising:
請求項1および2の内のいずれか一項に記載の効果付加装置において、
前記タッチパネルのタッチ操作の停止後、効果付加状態を保持する効果付加保持手段を更に備えたことを特徴とする効果付加装置。
The effect adding device according to any one of claims 1 and 2,
An effect adding device further comprising an effect adding holding unit that holds an effect added state after the touch operation of the touch panel is stopped.
請求項1、2および3の内のいずれか一項に記載の効果付加装置において、
予め付加可能に設定された複数種類の効果の内から、前記効果を選択する選択手段を備えていることを特徴とする効果付加装置。
The effect adding device according to any one of claims 1, 2 and 3,
An effect adding device, comprising: a selection unit for selecting the effect from a plurality of types of effects set so as to be addable in advance.
請求項1、2、3および4の内のいずれか一項に記載の効果付加装置において、
予め選択可能に設定された複数種類の信号におけるいずれかのものに、前記効果付加対象信号を切り替える切替手段を備えたことを特徴とする効果付加装置。
The effect adding device according to any one of claims 1, 2, 3, and 4,
An effect adding apparatus, comprising: switching means for switching the effect adding target signal to any one of a plurality of types of signals which are set to be selectable in advance.
JP2003087115A 2003-03-27 2003-03-27 Effect adding device Pending JP2004295488A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003087115A JP2004295488A (en) 2003-03-27 2003-03-27 Effect adding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003087115A JP2004295488A (en) 2003-03-27 2003-03-27 Effect adding device

Publications (1)

Publication Number Publication Date
JP2004295488A true JP2004295488A (en) 2004-10-21

Family

ID=33401561

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003087115A Pending JP2004295488A (en) 2003-03-27 2003-03-27 Effect adding device

Country Status (1)

Country Link
JP (1) JP2004295488A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008111113A1 (en) * 2007-03-09 2008-09-18 Pioneer Corporation Effect device, av processing device and program
JPWO2008111115A1 (en) * 2007-03-09 2010-06-17 パイオニア株式会社 AV processing apparatus and program
US20130336598A1 (en) * 2012-06-13 2013-12-19 Sony Corporation Effect control device, effect control method, and program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008111113A1 (en) * 2007-03-09 2008-09-18 Pioneer Corporation Effect device, av processing device and program
EP2134081A1 (en) * 2007-03-09 2009-12-16 Pioneer Corporation Effect device, av processing device and program
JPWO2008111115A1 (en) * 2007-03-09 2010-06-17 パイオニア株式会社 AV processing apparatus and program
JP5042307B2 (en) * 2007-03-09 2012-10-03 パイオニア株式会社 Effect device, AV processing device, and program
EP2134081A4 (en) * 2007-03-09 2013-03-06 Pioneer Corp Effect device, av processing device and program
US20130336598A1 (en) * 2012-06-13 2013-12-19 Sony Corporation Effect control device, effect control method, and program
CN103489464A (en) * 2012-06-13 2014-01-01 索尼公司 Effect control device, effect control method, and program
US9460531B2 (en) * 2012-06-13 2016-10-04 Sony Corporation Effect control device, effect control method, and program
US20160343158A1 (en) * 2012-06-13 2016-11-24 Sony Corporation Effect control device, effect control method, and program
US10467785B2 (en) 2012-06-13 2019-11-05 Sony Corporation Effect control device and effect control method

Similar Documents

Publication Publication Date Title
KR101436841B1 (en) Digital image processing apparatus
US10490174B2 (en) Electronic musical instrument and control method
JP2004295488A (en) Effect adding device
JP3639012B2 (en) Performance parameter input device
JP4530001B2 (en) Parameter setting device for musical tone control device
JP6566380B2 (en) Musical sound generating apparatus, musical sound generating method, program, and electronic musical instrument
JP2009230424A (en) Operation input device and image forming apparatus
JPH07203600A (en) Sound image shifting device
JP2010113028A (en) Electronic percussion instrument
JP5825056B2 (en) Electronic musical instruments
JP2010066659A (en) Electronic percussion instrument
JP6710974B2 (en) Signal generator
JP2008511197A (en) Sound recording console
JP2000231438A (en) Input device and method for adjusting display key in the same device
JP4054019B2 (en) Performance parameter input device
JP3985706B2 (en) Mixer equipment
CN219759189U (en) Input device and electronic musical instrument
JP6650101B2 (en) Music sound generating apparatus, music sound generating method, program and electronic musical instrument
JPH08263194A (en) Key input device
JP6358554B2 (en) Musical sound control device, musical sound control method and program
JP4251494B2 (en) Electronic musical instruments
JP4254649B2 (en) Electronic music equipment
JP2000181462A (en) Sound characteristic adjusting device and record medium
JP6700891B2 (en) Control device for pedal operator
JPWO2008139550A1 (en) Input interface device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080114

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080312