JP2012252524A - Display device, display method and program - Google Patents
Display device, display method and program Download PDFInfo
- Publication number
- JP2012252524A JP2012252524A JP2011124715A JP2011124715A JP2012252524A JP 2012252524 A JP2012252524 A JP 2012252524A JP 2011124715 A JP2011124715 A JP 2011124715A JP 2011124715 A JP2011124715 A JP 2011124715A JP 2012252524 A JP2012252524 A JP 2012252524A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- display
- image
- unit
- sound source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
- Devices For Indicating Variable Information By Combining Individual Elements (AREA)
Abstract
Description
本発明は、表示装置、表示方法及びプログラムに関する。 The present invention relates to a display device, a display method, and a program.
従来、スタンプ画像と表示画像とを合成する写真作成装置が知られている(例えば、特許文献1参照)。 2. Description of the Related Art Conventionally, a photo creation apparatus that combines a stamp image and a display image is known (see, for example, Patent Document 1).
しかしながら、上記特許文献1の場合、ユーザがスタンプ画像が表示されたキーを操作したり、スタンプ画像を合成する位置を指定したりしなければならず、それらの操作が煩わしいという問題がある。 However, in the case of Patent Document 1, the user has to operate the key on which the stamp image is displayed or to specify the position where the stamp image is to be combined.
本発明の課題は、画像の所望の位置に所望の画像を容易に表示することができる表示装置、表示方法及びプログラムを提供することにある。 An object of the present invention is to provide a display device, a display method, and a program that can easily display a desired image at a desired position of the image.
上記課題を解決するため、本発明の表示装置は、
表示手段を備えた表示装置において、
前記表示手段の表示領域に表示される画像を取得する取得手段と、
音源から発せられた音を集音する集音手段と、
当該装置本体の位置を基準として、前記集音手段により集音された音の音源方向を特定する方向特定手段と、
この方向特定手段により特定された前記音の音源方向に基づいて、当該音に関連する音関連画像の前記表示領域における表示位置を決定する位置決定手段と、
前記表示領域に表示される前記画像と重なるように、前記音関連画像を前記位置決定手段により決定された表示位置に表示させる表示制御手段と、
を備えたことを特徴としている。
In order to solve the above problems, the display device of the present invention provides:
In a display device comprising display means,
Obtaining means for obtaining an image displayed in a display area of the display means;
Sound collecting means for collecting sounds emitted from the sound source;
Direction specifying means for specifying the sound source direction of the sound collected by the sound collecting means with reference to the position of the apparatus body;
Position determining means for determining a display position in the display area of the sound-related image related to the sound based on the sound source direction of the sound specified by the direction specifying means;
Display control means for displaying the sound-related image at the display position determined by the position determination means so as to overlap the image displayed in the display area;
It is characterized by having.
また、本発明の表示方法は、
表示手段と、音源から発せられた音を集音する集音手段とを備える表示装置を用いた表示方法であって、
前記表示手段の表示領域に画像を表示する処理と、
前記表示装置本体の位置を基準として、前記集音手段により集音された音の音源方向を特定する処理と、
特定された前記音の音源方向に基づいて、当該音に関連する音関連画像の前記表示領域における表示位置を決定する処理と、
前記表示領域に表示される前記画像と重なるように、前記音関連画像を決定された表示位置に表示させる処理と、
を行うことを特徴としている。
Moreover, the display method of the present invention includes:
A display method using a display device comprising display means and sound collection means for collecting sound emitted from a sound source,
Processing for displaying an image in a display area of the display means;
A process of identifying the sound source direction of the sound collected by the sound collecting means with reference to the position of the display device body;
A process of determining a display position in the display area of a sound-related image related to the sound based on the sound source direction of the specified sound;
Processing to display the sound-related image at the determined display position so as to overlap the image displayed in the display area;
It is characterized by performing.
また、本発明のプログラムは、
表示手段と、音源から発せられた音を集音する集音手段とを備える表示装置のコンピュータを、
前記表示装置本体の位置を基準として、前記表示手段の表示領域に表示される画像を取得する取得手段、
前記集音手段により集音された音の音源方向を特定する方向特定手段、
この方向特定手段により特定された前記音の音源方向に基づいて、当該音に関連する音関連画像の前記表示領域における表示位置を決定する位置決定手段、
前記表示領域に表示される前記画像と重なるように、前記音関連画像を前記位置決定手段により決定された表示位置に表示させる表示制御手段、
として機能させることを特徴としている。
The program of the present invention is
A computer of a display device comprising display means and sound collection means for collecting sounds emitted from a sound source,
Obtaining means for obtaining an image displayed in a display area of the display means on the basis of the position of the display device body;
Direction specifying means for specifying the sound source direction of the sound collected by the sound collecting means;
Position determining means for determining a display position in the display area of the sound-related image related to the sound based on the sound source direction of the sound specified by the direction specifying means;
Display control means for displaying the sound-related image at the display position determined by the position determination means so as to overlap the image displayed in the display area;
It is characterized by making it function as.
本発明によれば、画像の所望の位置に所望の画像を容易に表示することができる。 According to the present invention, a desired image can be easily displayed at a desired position of the image.
以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。
図1は、本発明を適用した一実施形態の表示装置100の概略構成を示すブロック図である。
Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.
FIG. 1 is a block diagram showing a schematic configuration of a
本実施形態の表示装置100は、表示部8の表示領域Rに表示される所定の画像と重なるように、集音部3aにより集音された音に関連する音関連画像を表示する。その際、集音部3aにより集音された音の音源方向を特定し、特定した音源方向に基づいて音関連画像の表示領域Rにおける表示位置を決定し、決定した表示位置に音関連画像を表示する。
具体的には、表示装置100は、例えば卓上に設置されるデジタルフォトフレーム等であり、図1に示すように、中央制御部1と、操作入力部2と、音処理部3と、メモリ4と、記録媒体制御部5と、画像処理部6と、表示制御部7と、表示部8とを備えている。
The
Specifically, the
中央制御部1は、表示装置100の各部を制御するものである。具体的には、中央制御部1は、図示は省略するが、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)を備え、表示装置100用の各種処理プログラム(図示略)や操作入力部2により入力された操作信号等に従って各種の制御動作を行う。
The central control unit 1 controls each unit of the
操作入力部2は、表示装置100に対して各種指示を入力するためのものである。具体的には、文字等を入力するためのデータ入力キーや、データの選択又は指定の操作等を行うための上下左右移動キーや各種機能キー等によって構成される操作部を備えている。中央制御部1は、操作入力部2から出力され入力された操作信号に従って所定の動作を各部に実行させる。また、操作入力部2は、リモコンやタッチパネル等のその他の入力装置を備えるものとしても良い。
The
音処理部3は、集音部3aと、録音部3bと、音量特定部3cと、音源方向特定部3dと、音認識部3eと、個体識別部3fと、音声情報テーブルT1とを具備している。
The
集音部3aは、マイク等であり、ヒトや動物等の音源Sから発せられた音を集音する。
具体的には、集音部3aは、例えば、表示装置100を正面から見て表示部8の表示領域Rの右上側と左下側の2箇所に、音源Sから発せられた音の振動が入力される入力部a1、a1が設けられ(図3等参照)、これら入力部a1に入力された音の振動にA/D変換等を施して音データを生成する。
なお、表示装置100が備える集音部3aの入力部a1の個数や配設位置は、集音部3aにより集音された音の音源方向を特定可能であれば、適宜任意に変更可能である。
The
Specifically, for example, the
Note that the number and arrangement position of the input unit a1 of the
録音部3bは、所定の録音開始タイミングで集音部3aにより集音された音の音データの記録を開始し、所定の録音終了タイミングで当該記録を終了する。
ここで、録音開始タイミング及び録音終了タイミングは、ユーザからの指示に応じたタイミングであれば良い。
具体的には、録音部3bは、ユーザによる操作入力部2の録音指示キー(図示略)の所定操作に応じて中央制御部1から出力される所定の録音指示信号の入力に基づいて、録音開始タイミングや録音終了タイミングを特定する。例えば、録音部3bは、ユーザにより録音指示キーが所定操作(例えば、押下)されると録音開始タイミングになったと判定するとともに、当該所定操作が解除されると録音終了タイミングになったと判定しても良い。また、録音部3bは、ユーザにより録音指示キーが操作されると録音開始タイミングになったと判定するとともに、その録音指示キーが再度操作されると録音終了タイミングになったと判定しても良い。
The
Here, the recording start timing and the recording end timing may be any timing according to an instruction from the user.
Specifically, the
また、録音部3bは、ユーザによる撮像部(図示略)に対する所定のジェスチャに応じて中央制御部1から出力される所定の録音指示信号の入力に基づいて、録音開始タイミングや録音終了タイミングを特定しても良い。即ち、例えば、録音部3bは、その撮像部によってユーザによる所定のジェスチャが撮像されると録音開始タイミングになったと判定するとともに、当該録音開始タイミングから所定時間経過後に録音終了タイミングになったと判定しても良い。また、録音部3bは、その撮像部によってユーザによる所定の録音開始指示ジェスチャが撮像されると録音開始タイミングになったと判定するとともに、その撮像部によってユーザによる所定の録音終了指示ジェスチャが撮像されると録音終了タイミングになったと判定としても良い。
The
音量特定部3cは、音量特定手段として、集音部3aにより集音された音の音量を特定する。
具体的には、音量特定部3cは、例えば、録音開始タイミングから録音終了タイミングまでに集音部3aにより集音されて録音部3bに記録された音の音データに基づいて、当該音(例えば、音声等)の音量を特定する。
なお、集音部3aにより集音された音の音量は、公知の手法を用いて特定可能であるので、ここでは詳細な説明を省略する。
The
Specifically, the sound
Note that the volume of the sound collected by the
音源方向特定部3dは、方向特定手段として、集音部3aにより集音された音の音源方向を特定する。
具体的には、音源方向特定部3dは、例えば、録音開始タイミングから録音終了タイミングまでに集音部3aにより集音されて録音部3bに記録された音の音データに基づいて、当該音の音源S(ヒトや動物等の個体)の表示装置100に対する位置を特定する。即ち、音源方向特定部3dは、例えば、音源Sからの音が集音部3aの一方の入力部a1に到達した時間と他方の入力部a1に到達した時間との差に基づいて、音源S(ヒトや動物等の個体)の表示装置100に対する位置(例えば、図3(b)における表示装置100の左側や、図4(b)における右側等)を特定する。そして、音源方向特定部3dは、表示装置100に対する音源Sの位置に向かう方向(例えば、図3(b)における左方向や、図4(b)における右方向等)を音源方向とする。
The sound source
Specifically, the sound source
なお、音源Sの表示装置100に対する位置や音源方向は、表示装置100の表示領域Rが含まれる平面と略平行な二次元の空間を基準として特定しても良いし、さらに表示装置100の表示領域Rに略直交する前後方向を加えた三次元の空間を基準として特定しても良い。
また、音源方向特定部3dは、例えば、予め規定されている複数の方向(例えば、上方向、下方向、左方向及び右方向の4つの方向等)の中から、音源Sの表示装置100に対する位置に向かう方向に最も近い方向を音源方向としても良い。ここで、音源Sの表示装置100に対する位置に向かう方向に最も近い方向とは、予め規定されている複数の方向の中で、各々の方向に延在する直線と音源Sの表示装置100に対する位置に向かう方向に延在する直線とのなす角が最も小さくなる方向のことを言う。
Note that the position and the sound source direction of the sound source S with respect to the
Further, the sound source
音認識部3eは、音認識手段として、集音部3aにより集音された音を認識する。
具体的には、音認識部3eは、例えば、録音開始タイミングから録音終了タイミングまでに集音部3aにより集音されて録音部3bに記録された音(特に、音声)の音データに基づいて、当該音を認識して対応する文字で表すための文字データを生成する。
なお、集音部3aにより集音された音は、所定の音声認識辞書を使用して認識する等の公知の手法を用いて認識可能であるので、ここでは詳細な説明を省略する。
The
Specifically, the
Note that the sound collected by the
また、音認識部3eは、集音部3aにより集音された音の意味内容を認識しても良い。
ここで、集音部3aにより集音された音の意味内容は、所定の意味解析辞書を使用して認識する等の公知の手法を用いて認識可能であるので、ここでは詳細な説明を省略する。
The
Here, since the meaning content of the sound collected by the
個体識別部3fは、集音部3aにより集音された音を発した個体を識別する。
具体的には、個体識別部3fは、例えば、録音開始タイミングから録音終了タイミングまでに集音部3aにより集音されて録音部3bに記録された音声の音データに基づいて、当該音声と一致する音声情報が音声情報テーブルT1に記憶されているか否かを判定する。そして、音声と一致する音声情報が音声情報テーブルT1に記憶されていると判定すると、個体識別部3fは、当該音声と一致する音声情報に対応する識別情報を音声情報テーブルT1から取得することによって、集音部3aにより集音された音声を発した個体を識別する。
The individual identifying
Specifically, the
なお、音声情報テーブルT1は、第2記憶手段として、ヒト及び動物のうち、少なくとも一方の各個体の識別に用いられる音声情報を記憶する。
具体的には、音声情報テーブルT1は、例えば、ヒトや動物等の個体の音声を識別するための音声情報(例えば、音声の特徴情報)と、当該個体を識別するための識別情報(例えば、名前)とが対応付けられて記憶されている。
ここで、音声の特徴情報としては、例えば、声紋等の情報が挙げられるが、ヒトや動物等の個体の音声を識別するための情報であればこれに限定されることなく如何なる情報であってもよい。
In addition, the audio | voice information table T1 memorize | stores the audio | voice information used for identification of each individual | organism | solid of at least one among a human and an animal as a 2nd memory | storage means.
Specifically, the audio information table T1 includes, for example, audio information (for example, audio feature information) for identifying the audio of an individual such as a human or an animal, and identification information (for example, for identifying the individual) Name) is stored in association with each other.
Here, the voice feature information includes, for example, information such as a voice print. However, any information is not limited to this as long as it is information for identifying the voice of an individual such as a human or an animal. Also good.
メモリ4は、例えば、DRAM(Dynamic Random Access Memory)やNAND型フラッシュメモリなどのROM等により構成され、中央制御部1、音処理部3、画像処理部6等によって処理されるデータ等を一時的に記憶する。
The memory 4 is composed of a ROM such as a DRAM (Dynamic Random Access Memory) or a NAND flash memory, for example, and temporarily stores data processed by the central control unit 1, the
記録媒体制御部5は、記録媒体51が着脱自在に構成され、装着された記録媒体51からのデータの読み出しや記録媒体51に対するデータの書き込みを制御する。
即ち、記録媒体制御部5は、例えば、撮像装置等の外部装置から取り外された後に取り付けられた記録媒体51からの表示対象となる所定の画像データの読み出しを制御する。
なお、記録媒体51は、例えば、SDカードやUSBメモリなどの不揮発性メモリ(フラッシュメモリ)等により構成されるが、一例であってこれに限定されるものではなく、適宜任意に変更可能である。
The recording
That is, for example, the recording
The
画像処理部6は、画像取得部6aと、顔検出部6bと、寸法決定部6cと、向き決定部6dと、音関連画像生成部6eと、位置決定部6fと、顔識別用情報テーブルT2とを具備している。
The
画像取得部6aは、表示部8の表示領域Rに表示される画像の画像データ、即ち、表示対象となる画像を取得する。
具体的には、画像取得部6aは、ユーザによる操作入力部2の所定操作に基づいて記録媒体51から読み出された画像データを表示対象の画像データとして取得する。また、画像取得部6aは、記録媒体51に記憶された画像データの中で、ユーザによる操作入力部2の所定操作に基づいて指定された画像データを表示対象の画像データとして取得する。
The
Specifically, the
顔検出部6bは、画像取得部6aにより取得された表示対象の画像からヒトや動物等の顔を検出する。
具体的には、顔検出部6bは、画像取得部6aにより取得された表示対象の画像の画像データに対して所定の顔検出処理を行って、当該画像に含まれる全ての顔の顔領域を検出する。
なお、顔検出処理は、公知の技術であるので、ここでは詳細な説明を省略する。
The
Specifically, the
Since the face detection process is a known technique, detailed description thereof is omitted here.
寸法決定部6cは、寸法決定手段として、音量特定部3cにより特定された音量に基づいて、後述する音関連画像生成部6eにより生成され、表示領域Rに表示される音関連画像の寸法を決定する。
ここで、音関連画像とは、音認識部3eにより認識された音を対応する文字で表した文字画像Mである。
文字画像Mは、文字を囲む枠部分の所定位置に接続された引き出し線Lを具備するふきだし画像を含んでいても良い。即ち、文字画像Mは、音認識部3eにより生成された文字データに基づく画像(文字本体画像)のみからなる画像であっても良いし、音認識部3eにより生成された文字データに基づく画像(文字本体画像)とふきだし画像とからなる画像であっても良い。なお、文字画像Mにふきだし画像を含めるか否かは、ユーザからの所定指示の有無、音量特定部3cにより特定された音量、表示対象の画像内に顔があるか否か、音認識部3eによって認識された音の意味内容等に応じて選択しても良い。
The
Here, the sound-related image is a character image M in which a sound recognized by the
The character image M may include a speech bubble image including a lead line L connected to a predetermined position of a frame portion surrounding the character. That is, the character image M may be an image consisting only of an image (character body image) based on the character data generated by the
具体的には、寸法決定部6cは、音量特定部3cにより特定された音量が大きいほど、表示領域Rに表示される文字画像Mが相対的に大きくなるよう、表示領域Rに表示される文字画像Mの寸法を決定する。即ち、寸法決定部6cは、例えば、音量特定部3cにより特定された音量が所定の第1音量閾値未満である場合、所定の「第1寸法」を文字画像Mの寸法として決定する。また、寸法決定部6cは、音量特定部3cにより特定された音量が第1音量閾値以上であり所定の第2音量閾値未満である場合、第1寸法よりも大きい所定の「第2寸法」を文字画像Mの寸法として決定する。また、寸法決定部6cは、音量特定部3cにより特定された音量が第2音量閾値以上である場合、第2寸法よりも大きい所定の「第三寸法」を文字画像Mの寸法として決定する。
なお、文字画像Mの寸法を決定するための閾値は、第1音量閾値及び第2音量閾値の2つに限定されるものではなく、適宜任意に変更可能である。
また、音量に基づいて表示領域Rに表示される音関連画像(文字画像M)の寸法を決定できるのであれば、寸法決定部6cは、例えば、音量が小さいほど、表示領域Rに表示される文字画像Mが相対的に大きくなるよう、表示領域Rに表示される文字画像Mの寸法を決定しても良い。
Specifically, the
Note that the threshold for determining the size of the character image M is not limited to two, ie, the first volume threshold and the second volume threshold, and can be arbitrarily changed as appropriate.
In addition, if the size of the sound-related image (character image M) displayed in the display region R can be determined based on the volume, the
向き決定部6dは、文字画像Mがふきだし画像を含む場合に、ふきだし画像の引き出し線Lの向きを決定する。
具体的には、向き決定部6dは、向き決定手段として、音源方向特定部3dにより特定された音源方向に基づいて、ふきだし画像の引き出し線Lの向きを決定する。
ここで、向き決定部6dは、例えば、音源方向特定部3dにより特定された音源方向と略同じ方向に延在するようにふきだし画像の引き出し線Lの向きを決定する。即ち、向き決定部6dは、例えば図3(b)に示すように、音源方向が左方向の場合、引き出し線Lの先端が表示装置100の左側を指す向き「左向き」をふきだし画像の引き出し線Lの向きとして決定する。また、向き決定部6dは、例えば図4(b)に示すように、音源方向が右方向の場合、引き出し線Lの先端が表示装置100の右側を指す向き「右向き」をふきだし画像の引き出し線Lの向きとして決定する。
The
Specifically, the
Here, the
音関連画像生成部6eは、集音部3aにより集音された音に関連する音関連画像を生成する。
具体的には、音関連画像生成部6eは、例えば、音認識部3eにより生成された文字データに基づく画像(文字本体画像)を生成し、当該生成した画像の寸法を寸法決定部6cにより決定された寸法に基づいて調整することによって、文字画像Mを生成する。
The sound related
Specifically, the sound-related
また、文字画像Mがふきだし画像を含む場合、音関連画像生成部6eは、例えば、音認識部3eにより生成された文字データに基づく画像(文字本体画像)に所定形状のふきだし画像を付加することによって、文字画像Mを生成する。
即ち、音関連画像生成部6eは、画像処理部6等に格納された所定の記録手段(図示略)に記録されているふきだし画像データを取得し、当該取得したふきだし画像データに基づくふきだし画像の枠内に、音認識部3eにより生成された文字データに基づく画像(文字本体画像)が配置されるようにふきだし画像のサイズを調整する。また、音関連画像生成部6eは、当該取得したふきだし画像データに基づくふきだし画像の引き出し線Lの向きを向き決定部6dにより決定された向きに基づいて調整する。そして、音関連画像生成部6eは、文字本体画像と、サイズや向きが調整されたふきだし画像とを合成して合成画像を生成し、当該生成した合成画像の寸法を寸法決定部6cにより決定された寸法に基づいて調整することによって、文字画像Mを生成する。
なお、音関連画像生成部6eは、音認識部3eにより生成された文字データに基づく画像(文字本体画像)の文字数に基づいて、所定の記録手段から取得するふきだし画像データを変更しても良い。
When the character image M includes a speech bubble image, the sound-related
That is, the sound-related
Note that the sound-related
また、音認識部3eによって音の意味内容が認識される場合、音関連画像生成部6eは、当該意味内容に基づいて、所定の記録手段から取得するふきだし画像データを変更しても良い。具体的には、音関連画像生成部6eは、例えば、図3(b)に示すように、「ヤッホー」等の叫ぶ際に使用する言葉が音声として集音部3aにより集音された場合には、文字を囲む枠部分の形状がギザギザしたふきだし画像のふきだし画像データを取得し、図4(b)に示すように、「こんにちは」等のあいさつする際に使用する言葉が音声として集音部3aにより集音された場合には、文字を囲む枠部分の形状が略楕円形のふきだし画像のふきだし画像データを取得しても良い。これにより、表示装置100は、集音部3aによって集音された音の意味内容に応じて、表示部8の表示領域Rに表示する文字画像Mに含まれるふきだし画像の形状を変化させることができる。
Further, when the meaning content of the sound is recognized by the
位置決定部6fは、集音部3aにより集音された音に関連する音関連画像(文字画像M)の表示領域Rにおける表示位置を決定する。
具体的には、位置決定部6fは、例えば、顔検出部6bにより顔が検出された場合、音源方向特定部3dにより特定された音源方向と、顔検出部6bにより所定の画像(表示対象の画像)から検出された顔の位置とに基づいて、文字画像Mの表示領域Rにおける表示位置を決定する。
ここで、位置決定部6fは、例えば、顔検出部6bにより検出された顔の個数が1個である場合、当該顔の顔領域を、文字画像Mを付与する顔領域として特定する。そして、位置決定部6fは、当該特定した顔領域の周辺領域のうち、音源方向特定部3dにより特定された音源方向の逆側の領域内の所定位置の座標(例えば、当該所定位置の中心座標)を、文字画像Mの表示位置として決定する。即ち、位置決定部6fは、例えば図4(b)に示すように、音源方向が右方向の場合、特定した顔領域の周辺領域のうち左側の領域内の所定位置の座標を、文字画像Mの表示位置として決定する。
The
Specifically, for example, when a face is detected by the
Here, for example, when the number of faces detected by the
また、位置決定部6fは、例えば、顔検出部6bにより検出された顔の個数が複数個である場合、個体識別部3fにより取得された識別情報(個体識別部3fにより識別された個体の識別情報)に対応する顔識別用情報を顔識別用情報テーブルT2から取得して、顔検出部6bにより検出された顔の中に、当該取得した顔識別用情報と一致する顔があるか否かを判定する。
そして、顔検出部6bにより検出された顔の中に、当該取得した顔識別用情報と一致する顔があると判定した場合、位置決定部6fは、顔検出部6bにより所定の画像(表示対象の画像)から検出され、個体識別部3fにより識別された個体の顔識別用情報を用いて識別される顔の位置に基づいて、文字画像Mの表示領域Rにおける表示位置を決定する。即ち、位置決定部6fは、当該取得した顔識別用情報と一致する顔の顔領域を、文字画像Mを付与する顔領域として特定する。そして、位置決定部6fは、当該特定した顔領域の周辺領域のうち、音源方向特定部3dにより特定された音源方向の逆側の領域内の所定位置の座標(例えば、当該所定位置の中心座標)を、文字画像Mの表示位置として決定する。
一方、顔検出部6bにより検出された顔の中に、当該取得した顔識別用情報と一致する顔がないと判定した場合、位置決定部6fは、顔検出部6bにより検出された顔の顔領域の中で所定条件を満たす顔領域(例えば、最も寸法が大きい顔領域)を、文字画像Mを付与する顔領域として特定する。そして、位置決定部6fは、当該特定した顔領域の周辺領域のうち、音源方向特定部3dにより特定された音源方向の逆側の領域内の所定位置の座標(例えば、当該所定位置の中心座標)を、文字画像Mの表示位置として決定する。
For example, when there are a plurality of faces detected by the
When it is determined that there is a face that matches the acquired face identification information among the faces detected by the
On the other hand, when it is determined that there is no face that matches the acquired face identification information among the faces detected by the
この際、位置決定部6fは、例えば、特定した顔領域の周辺領域のうち、音源方向の逆側の領域内の所定位置として、寸法決定部6cにより決定された寸法等に基づいて当該特定した顔領域と文字画像Mとが重ならない位置を選択する。また、位置決定部6fは、重ならない位置がない場合には、当該特定した顔領域と文字画像Mとの重なる度合いが最も小さい位置を選択する。
さらに、位置決定部6fは、特定した顔領域の周辺領域のうち、音源方向の逆側の領域内の所定位置として、当該特定した顔領域の中心位置等にふきだし画像の引き出し線Lの先端が向く位置を選んでも良いし、当該特定した顔領域の中の特定領域(例えば、口元領域)の中心位置等にふきだし画像の引き出し線Lの先端が向く位置を選んでも良い。
At this time, for example, the
Furthermore, the
また、位置決定部6fは、例えば、顔検出部6bにより顔が検出されなかった場合、音源方向特定部3dにより特定された音源方向に基づいて、文字画像Mの表示領域Rにおける表示位置を決定する。
ここで、位置決定部6fは、表示部8の表示領域Rのうち、音源方向特定部3dにより特定された音源方向側の領域内の所定位置の座標(例えば、当該所定位置の中心座標)を、文字画像Mの表示位置として決定する。即ち、位置決定部6fは、例えば図3(b)に示すように、音源方向が左方向の場合、表示領域Rのうち左側の領域内の所定位置の座標を、文字画像Mの表示位置として決定する。
In addition, for example, when the face is not detected by the
Here, the
顔識別用情報テーブルT2は、第1記憶手段として、ヒト及び動物のうち、少なくとも一方の各個体の顔を識別するための顔識別用情報を記憶する。
具体的には、顔識別用情報テーブルT2は、例えば、ヒトや動物等の個体の顔を識別するための顔識別用情報(例えば、顔の特徴情報)と、当該個体を識別するための識別情報(例えば、名前)とを対応付けて予め記憶している。
ここで、顔の特徴情報としては、例えば、目、鼻、口等に相当する顔パーツの情報や所定角度ごとに撮影されたヒトや動物等の顔画像が挙げられるが、ヒトや動物等の個体の顔を識別するための情報であればこれらに限定されることなく如何なる情報であってもよい。
The face identification information table T2 stores, as first storage means, face identification information for identifying the face of at least one individual among humans and animals.
Specifically, the face identification information table T2 includes, for example, face identification information (for example, facial feature information) for identifying the face of an individual such as a human or an animal, and identification for identifying the individual. Information (for example, name) is stored in advance in association with each other.
Here, the facial feature information includes, for example, facial part information corresponding to eyes, nose, mouth and the like and facial images of humans and animals photographed at predetermined angles. Any information may be used as long as it is information for identifying an individual's face without being limited thereto.
表示制御部7は、画像取得部6aにより取得された表示対象の画像の画像データに基づいて、所定の画像を表示部8の表示領域Rに表示させる制御を行う。
また、表示制御部7は、表示制御手段として、表示領域Rに表示される所定の画像(表示対象の画像)と重なるように、音関連画像(文字画像M)を位置決定部6fにより決定された表示位置に表示させる。具体的には、表示制御部7は、音関連画像生成部6eにより生成された文字画像MをOSD画像として、表示領域Rに表示されている表示対象の画像と重なるように重畳表示させる。この際、例えば、位置決定部6fにより文字画像Mの表示位置として決定された座標が、前記所定位置の中心座標である場合、表示制御部7は、当該中心座標と文字画像Mの中心座標とが一致するように、文字画像Mを表示させる。
なお、表示制御部7は、表示部8以外の表示手段と接続するための外部接続I/F等を備えていても良い。これにより、表示制御部7は、表示装置100に接続された外部表示装置に表示対象の画像や音関連画像(文字画像M)等を表示させることが可能となる。
The
Further, the
The
表示部8は、表示手段として、表示制御部7の制御下にて、表示対象の画像を表示領域Rに表示したり、当該表示対象の画像に文字画像Mを重畳表示する。表示部8としては、例えば、液晶表示パネルや有機EL表示パネル等が挙げられるが、これらに限られるものではない。
The
次に、表示装置100による音関連画像表示処理について図2を参照して説明する。
図2は、音関連画像表示処理に係る動作の一例を示すフローチャートである。
Next, sound-related image display processing by the
FIG. 2 is a flowchart illustrating an example of an operation related to the sound-related image display process.
図2に示すように、先ず、表示制御部7は、画像取得部6aにより取得された表示対象の画像の画像データに基づいて、所定の画像を表示部8の表示領域Rに表示させる(ステップS1)。
次に、集音部3aは、ヒトや動物等の音源Sから発せられた音声(音)を集音し、録音部3bは、集音部3aにより集音された音声を録音する(ステップS2)。
As shown in FIG. 2, the
Next, the
次に、音量特定部3cは、ステップS2で集音されて録音された音声の音量を特定し、音源方向特定部3dは、ステップS2で集音されて録音された音声の音源方向を特定する(ステップS3)。
具体的には、音源方向特定部3dは、例えば、音源Sからの音が集音部3aの一方の入力部a1に到達した時間と他方の入力部a1に到達した時間との差に基づいて、音源S(ヒトや動物等の個体)の表示装置100に対する位置を特定し、その位置に向かう方向を音源方向とする。
Next, the
Specifically, the sound source
次に、音認識部3eは、ステップS2で集音されて録音された音声を認識し、当該音声を対応する文字で表すための文字データを生成する(ステップS4)。
次に、個体識別部3fは、音声情報テーブルT1に記憶されている音声情報に基づいて、集音部3aにより集音されて録音部3bにより録音された音声を発した個体(ヒトや動物等)を識別する(ステップS5)。
Next, the
Next, the
次に、寸法決定部6cは、ステップS3で特定された音量に基づいて、表示領域Rに表示される音関連画像(文字画像M)の寸法を決定する(ステップS6)。
具体的には、例えば、図4(b)に示すように、集音されて録音された音声の音量が比較的小さい場合(例えば、第1音量閾値未満である場合)、寸法決定部6cは、比較的小さい寸法(例えば、第1寸法)を、表示領域Rに表示される文字画像Mの寸法として決定する。一方、例えば、図5に示すように、集音されて録音された音声の音量が比較的大きい場合(例えば、第1音量閾値以上第2音量閾値未満である場合)、寸法決定部6cは、比較的大きい寸法(例えば、第1寸法よりも大きい第2寸法)を、表示領域Rに表示される文字画像Mの寸法として決定する。
Next, the
Specifically, for example, as shown in FIG. 4B, when the volume of the collected and recorded sound is relatively low (for example, less than the first volume threshold), the
次に、向き決定部6dは、ステップS3で特定された音源方向に基づいて、文字画像Mに含まれるふきだし画像の引き出し線Lの向きを決定する(ステップS7)。
具体的には、例えば、図3(b)に示すように、音源方向が左方向の場合、向き決定部6dは、引き出し線Lの先端が表示装置100の左側を指す向き「左向き」をふきだし画像の引き出し線Lの向きとして決定する。一方、例えば、図4(b)に示すように、音源方向が右方向の場合、向き決定部6dは、引き出し線Lの先端が表示装置100の右側を指す向き「右向き」をふきだし画像の引き出し線Lの向きとして決定する。
Next, the
Specifically, for example, as illustrated in FIG. 3B, when the sound source direction is the left direction, the
次に、音関連画像生成部6eは、ステップS4での認識結果(具体的には、ステップS4で生成された文字データ)や、ステップS6で決定された寸法、ステップS7で決定された引き出し線Lの向き等に基づいて、ステップS2で集音されて録音された音声に関連する音関連画像を生成する(ステップS8)。
具体的には、音関連画像生成部6eは、画像処理部6等に格納された所定の記録手段(図示略)に記録されているふきだし画像データを取得し、当該取得したふきだし画像データに基づくふきだし画像の枠内に、ステップS4で生成された文字データに基づく画像(文字本体画像)が配置されるようにふきだし画像のサイズを調整する。また、音関連画像生成部6eは、当該取得したふきだし画像データに基づくふきだし画像の引き出し線Lの向きをステップS7で決定された向きに基づいて調整する。そして、音関連画像生成部6eは、文字本体画像と、サイズや向きが調整されたふきだし画像とを合成して合成画像を生成し、当該生成した合成画像の寸法をステップS6で決定された寸法に基づいて調整することによって、文字画像Mを生成する。
Next, the sound-related
Specifically, the sound-related
次に、顔検出部6bは、画像取得部6aにより取得されて表示部8の表示領域Rに表示されている表示対象の画像から、ヒトや動物等の顔を検出する(ステップS9)。
次に、位置決定部6fは、ステップS9で顔が検出されたか否かを判定する(ステップS10)。
Next, the
Next, the
ステップS10にて、ステップS9で顔が検出されなかったと判定した場合(ステップS10;NO)、即ち、表示部8の表示領域Rに表示されている表示対象の画像が、例えば図3(a)に示すような風景画等である場合、位置決定部6fは、ステップS3で特定された音源方向に基づいて、音関連画像の表示領域Rにおける表示位置を決定する(ステップS11)。
具体的には、位置決定部6fは、表示部8の表示領域Rのうち、ステップS3で特定された音源方向側の領域内の所定位置の座標を、音関連画像(文字画像M)の表示位置として決定する。例えば、図3(b)に示すように、音源方向が左方向の場合、位置決定部6fは、表示領域Rのうち左側の領域内の所定位置の座標を、文字画像Mの表示位置として決定する。
If it is determined in step S10 that no face has been detected in step S9 (step S10; NO), that is, the display target image displayed in the display area R of the
Specifically, the
次に、表示制御部7は、表示部8の表示領域Rに表示されている表示対象の画像と重なるように、ステップS8で生成された音関連画像を、ステップS11で決定された表示位置に表示させる(ステップS16;図3(b)参照)。
Next, the
また、ステップS10にて、ステップS9で顔が検出されたと判定した場合(ステップS10;YES)、即ち、表示部8の表示領域Rに表示されている表示対象の画像が、例えば図4(a)や図6(a)に示すようなヒトを被写体とする画像等である場合、位置決定部6fは、ステップS9で検出された顔の個数は複数であるか否かを判定する(ステップS12)。
If it is determined in step S10 that a face has been detected in step S9 (step S10; YES), that is, the display target image displayed in the display area R of the
ステップS12にて、ステップS9で検出された顔の個数は複数でないと判定した場合(ステップS12;NO)、即ち、表示部8の表示領域Rに表示されている表示対象の画像が、例えば図4(a)に示すような画像等である場合、位置決定部6fは、ステップS3で特定された音源方向や、ステップS9で検出された顔の位置に基づいて、音関連画像の表示領域Rにおける表示位置を決定する(ステップS13)。
具体的には、位置決定部6fは、表示部8の表示領域RにおけるステップS9で検出された顔の顔領域を、音関連画像(文字画像M)を付与する顔領域として特定し、当該特定した顔領域の周辺領域のうち、ステップS3で特定された音源方向の逆側の領域内の所定位置の座標を、文字画像Mの表示位置として決定する。例えば、図4(b)や図5に示すように、音源方向が右方向の場合、位置決定部6fは、表示領域Rにおける顔領域の周辺領域のうち左側の領域内の所定位置の座標を、文字画像Mの表示位置として決定する。
If it is determined in step S12 that the number of faces detected in step S9 is not plural (step S12; NO), that is, the display target image displayed in the display area R of the
Specifically, the
次に、表示制御部7は、表示部8の表示領域Rに表示されている表示対象の画像と重なるように、ステップS8で生成された音関連画像を、ステップS13で決定された表示位置に表示させる(ステップS16;図4(b)や図5参照)。
Next, the
また、ステップS12にて、ステップS9で検出された顔の個数は複数であると判定した場合(ステップS12;YES)、即ち、表示部8の表示領域Rに表示されている表示対象の画像が、例えば図6(a)に示すような画像等である場合、位置決定部6fは、顔識別用情報テーブルT2に記憶されている顔識別用情報に基づいて、ステップS9で検出された顔の中に、ステップS5で識別された個体(即ち、集音されて録音された音声を発した個体)の顔があるか否かを判定する(ステップS14)。
If it is determined in step S12 that the number of faces detected in step S9 is plural (step S12; YES), that is, the display target image displayed in the display area R of the
ステップS14にて、ステップS9で検出された顔の中に、ステップS5で識別された個体の顔がないと判定した場合(ステップS13;NO)、位置決定部6fは、ステップS3で特定された音源方向や、ステップS9で検出された顔の位置に基づいて、音関連画像の表示領域Rにおける表示位置を決定する(ステップS13)。
具体的には、位置決定部6fは、表示部8の表示領域RにおけるステップS9で検出された顔の顔領域の中で所定条件を満たす顔領域を、音関連画像(文字画像M)を付与する顔領域として特定し、当該特定した顔領域の周辺領域のうち、ステップS3で特定された音源方向の逆側の領域内の所定位置の座標を、文字画像Mの表示位置として決定する。
なお、音声情報テーブルT1に、集音されて録音された音声と一致する音声情報が記憶されていない場合や、顔識別用情報テーブルT2に、集音されて録音された音声を発した個体の顔識別用情報が記憶されていない場合にも、位置決定部6fは、ステップS14にて、ステップS9で検出された顔の中に、ステップS5で識別された個体の顔がないと判定する。
When it is determined in step S14 that the face detected in step S9 does not include the face of the individual identified in step S5 (step S13; NO), the
Specifically, the
It should be noted that the voice information table T1 does not store voice information that matches the voice that has been collected and recorded, or the face identification information table T2 has the sound that has been collected and recorded. Even when face identification information is not stored, the
次に、表示制御部7は、表示部8の表示領域Rに表示されている表示対象の画像と重なるように、ステップS8で生成された音関連画像を、ステップS13で決定された表示位置に表示させる(ステップS16)。
Next, the
また、ステップS14にて、ステップS9で検出された顔の中に、ステップS5で識別された個体の顔があると判定した場合(ステップS14;NO)、位置決定部6fは、ステップS3で特定された音源方向や、ステップS9で検出されステップS5で識別された個体の顔の位置に基づいて、表示領域Rにおける音関連画像の表示位置を決定する(ステップS15)。
具体的には、位置決定部6fは、表示部8の表示領域RにおけるステップS9で検出されステップS5で識別された個体の顔の顔領域を、音関連画像(文字画像M)を付与する顔領域として特定し、当該特定した顔領域の周辺領域のうち、ステップS3で特定された音源方向の逆側の領域内の所定位置の座標を、文字画像Mの表示位置として決定する。例えば、図6(b)に示すように、音源方向が右方向の場合、位置決定部6fは、表示領域Rにおける顔領域(具体的には、集音されて録音された音声を発した個体の顔の顔領域)の周辺領域のうち左側の領域内の所定位置の座標を、文字画像Mの表示位置として決定する。
In Step S14, when it is determined that the face of the individual identified in Step S5 is included in the face detected in Step S9 (Step S14; NO), the
Specifically, the
次に、表示制御部7は、表示部8の表示領域Rに表示されている表示対象の画像と重なるように、ステップS8で生成された音関連画像を、ステップS15で決定された表示位置に表示させる(ステップS16;図6(b)参照)。
Next, the
以上のように、本実施形態の表示装置100によれば、集音部3aにより集音された音に関連する音関連画像を表示するので、所望の画像を指定する際に、ユーザによる操作入力部2の煩わしい操作を不要とし、所望の画像に対応する音を集音部3aに集音させるだけで、表示領域Rに表示される所定の画像に、当該所望の画像を重ねて表示することができる。
さらに、表示装置100によれば、集音部3aにより集音された音の音源方向に基づいて、当該音に関連する音関連画像の表示領域Rにおける表示位置を決定するので、所望の画像の表示位置として所望の位置を指定する際に、ユーザによる操作入力部2の煩わしい操作を不要とし、当該所望の位置に対応する方向からの音を集音部3aに集音させるだけで、当該所望の位置を音関連画像の表示位置として決定することができる。つまり、ユーザが音に関連する音関連画像を表示させたい位置に応じて表示装置100に対する音源S(例えば、ユーザ本人)の位置を変更するだけで、表示領域Rに表示される所定の画像内のユーザ所望の位置に、ユーザ所望の画像を重ねて表示することができる。
従って、表示装置100は、表示部8の表示領域Rに表示される所定の画像のユーザ所望の位置にユーザ所望の音関連画像を容易に表示することができる。
As described above, according to the
Furthermore, according to the
Therefore, the
また、本実施形態の表示装置100によれば、音関連画像として、集音部3aにより集音された音を対応する文字で表した文字画像Mを表示させることができる。したがって、ユーザによる操作入力部2等の操作により文字を入力する等の煩わしい操作を不要とし、ユーザ所望の文字画像Mに対応する音を集音部3aに集音させるだけで、当該ユーザ所望の文字画像Mを表示領域Rに表示される所定の画像に重ねて表示することができる。
Moreover, according to the
また、本実施形態の表示装置100によれば、集音部3aにより集音された音の音源方向と、表示部8の表示領域Rに表示される所定の画像(表示対象の画像)から検出された顔の位置とに基づいて、文字画像Mの表示領域Rにおける表示位置を決定する。したがって、ユーザ所望の文字画像Mに対応する音をユーザ所望の位置に対応する方向から集音部3aに集音させるだけで、当該ユーザ所望の位置と表示領域Rに表示される所定の画像内の顔部分とに基づいて、当該ユーザ所望の文字画像Mの表示位置を決定することができる。
Further, according to the
また、本実施形態の表示装置100によれば、集音部3aにより集音された音声の音源方向と、表示部8の表示領域Rに表示される所定の画像(表示対象の画像)から検出された顔のうちの当該音声を発した個体の顔の位置とに基づいて、文字画像Mの表示領域Rにおける表示位置を決定する。したがって、個体が発したユーザ所望の文字画像Mに対応する音声をユーザ所望の位置に対応する方向から集音部3aに集音させるだけで、当該ユーザ所望の位置と表示領域Rに表示される所定の画像内の当該個体の顔部分とに基づいて、当該ユーザ所望の文字画像Mの表示位置を決定することができる。
Further, according to the
また、本実施形態の表示装置100によれば、集音部3aにより集音された音の音源方向に基づいて、文字画像Mに含まれるふきだし画像の引き出し線Lの向きを決定する。したがって、ユーザによる操作入力部2等の操作によりふきだし線の引き出し線Lの向きを入力する等の煩わしい操作がなくても、ふきだし画像の引き出し線Lの向きとして適切な向きを決定することができる。
Further, according to the
また、本実施形態の表示装置100によれば、集音部3aにより集音された音の音量に基づいて、表示部8の表示領域Rに表示される音関連画像(文字画像M)の寸法を決定することができる。したがって、ユーザによる操作入力部2等の操作によりユーザ所望の寸法を入力する等の煩わしい操作を不要とし、ユーザ所望の寸法に対応する音量の音を集音部3aに集音させるだけで、表示領域Rに表示される所定の画像に、当該ユーザ所望の寸法の音関連画像(文字画像M)を重ねて表示することができる。
Further, according to the
なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。 The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
例えば、表示装置100は、音声情報テーブルT1及び顔識別用情報テーブルT2に代えて、音声情報テーブルT1と顔識別用情報テーブルT2とを一体化したテーブルを格納していても良い。即ち、表示装置100は、ヒトや動物等の個体の音声を識別するための音声情報と、当該個体の顔を識別するための顔識別用情報と、当該個体を識別するための識別情報とを対応付けて記憶するテーブルを格納していても良い。この場合、当該テーブルが、第1記憶手段及び第2記憶手段を構成する。
For example, the
また、画像処理部6は、音源方向特定部3dにより特定された音源方向、即ち、集音部3aにより集音された音の音源方向に基づいて、当該音に関連する音関連画像自体の向きを決定しても良い。具体的には、例えば、画像処理部6は、音源方向が右方向又は左方向の場合、文字画像Mの文字が横に並ぶ横書きとなるように、文字画像M(音関連画像)自体の向きを決定するとともに、音源方向が上方向又は下方向の場合、文字画像Mの文字が縦に並ぶ縦書きとなるように、文字画像M(音関連画像)自体の向きを決定してもよい。
The
また、表示装置100が撮像部を備えている場合、個体識別部3fは、音声情報に代えて、当該撮像部により撮像された画像に基づいて、集音部3aにより集音された音声を発したヒトや動物等の個体を識別しても良い。即ち、ヒト及び動物のうち、少なくとも一方の各個体の識別に、音声情報を用いるか否かは適宜任意に変更可能である。
Further, when the
また、上記実施形態では、表示制御部7は、表示領域Rに表示済みの表示対象の画像に、文字画像Mを重ねて表示させるようにしたが、例えば、表示領域Rに表示される前の表示対象の画像において文字画像Mの表示位置を決定してから、表示対象の画像と文字画像Mとをともに表示領域Rに表示させるようにしても良い。
また、表示制御部7は、文字画像MをOSD画像として、表示対象の画像と重なるように重畳表示させるようにしたが、例えば、画像処理部6は、表示対象の画像と文字画像Mとを合成した画像を生成し、表示制御部7は、当該合成した画像を表示領域Rに表示させるようにしても良い。
In the above embodiment, the
In addition, the
また、音源Sは、音声を発するヒトや動物等の個体でなくてもよく、音を発する物であれば良い。
また、画像処理部6は、音源Sが車等の音声以外の音を発する物である場合、音源Sが発する音を識別するための情報や、音源Sの外形や音源Sの特徴部分の形状等を識別するための情報などに基づいて、表示対象の画像(例えば、車等を被写体とする画像)から集音部3aにより集音された音を発した音源S(例えば、車等)領域を検出し、当該検出した音源S領域の位置に基づいて、音関連画像の表示位置を決定しても良い。
また、表示装置100が撮像部を備えている場合、音源Sの外形や音源Sの特徴部分の形状等を識別するための情報や、当該撮像部により撮像された画像などに基づいて、表示対象の画像(例えば、車等を被写体とする画像)から集音部3aにより集音された音を発した音源S(例えば、車等)領域を検出し、当該検出した音源S領域の位置に基づいて、音関連画像の表示位置を決定しても良い。
The sound source S does not have to be an individual such as a human or an animal that emits sound, but may be any object that emits sound.
In addition, when the sound source S is a thing that emits sound other than sound such as a car, the
Further, when the
また、上記実施形態では、音関連画像を、集音部3aにより集音された音声を対応する文字で表した文字画像Mとしたが、音関連画像は、例えば、集音部3aにより集音された音声以外の音(例えば、騒音等)を対応する文字で表した文字画像Mであっても良い。具体的には、表示装置100は、例えば、「プップー」という車のクラクションの音が集音部3aにより集音された場合、音関連画像として当該音を対応する文字(「プップー」)で表した文字画像Mを表示しても良い。
また、音関連画像は、文字画像Mに限定されるものではなく、集音部3aに集音された音に関連する画像であれば適宜任意に変更可能である。具体的には、表示装置100は、例えば、「たいよう」という言葉が音声として集音部3aに集音された場合、音関連画像として太陽の画像を表示しても良いし、例えば、「おはよう」という朝を連想させるような言葉が音声として集音部3aに集音された場合、音関連画像として太陽の画像等の朝を連想させるような画像を表示しても良い。また、表示装置100は、例えば、「プップー」という車のクラクションの音が集音部3aにより集音された場合、音関連画像として車の画像等の「プップー」という音から連想できる物の画像を表示しても良い。
In the above embodiment, the sound-related image is the character image M representing the sound collected by the
The sound-related image is not limited to the character image M, and can be arbitrarily changed as long as it is an image related to the sound collected by the
また、音関連画像の表示領域Rにおける表示位置は、上記実施形態に限定されるものではなく、少なくとも特定された音の音源方向に基づいて決定可能であれば、適宜任意に変更可能である。
また、ふきだし画像の引き出し線Lの向きは、上記実施形態に限定されるものではなく、特定された音源方向に基づいて決定可能であれば、適宜任意に変更可能である。また、ふきだし画像の引き出し線Lの向きは、音源方向以外の情報に基づいて決定しても良い。
また、表示領域Rに表示される音関連画像の寸法は、上記実施形態に限定されるものではなく、特定された音量に基づいて決定可能であれば、適宜任意に変更可能である。また、表示領域Rに表示される音関連画像の寸法は、音量以外の情報に基づいて決定しても良い。
The display position of the sound-related image in the display region R is not limited to the above embodiment, and can be arbitrarily changed as long as it can be determined based on at least the sound source direction of the specified sound.
Further, the direction of the lead-out line L of the balloon image is not limited to the above embodiment, and can be arbitrarily changed as long as it can be determined based on the specified sound source direction. Further, the direction of the leader line L of the speech bubble may be determined based on information other than the sound source direction.
In addition, the size of the sound-related image displayed in the display region R is not limited to the above embodiment, and can be arbitrarily changed as long as it can be determined based on the specified volume. Further, the size of the sound-related image displayed in the display area R may be determined based on information other than the volume.
また、上記実施形態では、位置決定部6fは、顔検出部6bにより検出された顔の個数が複数個である場合に、顔検出部6bにより所定の画像(表示対象の画像)から検出され、個体識別部3fにより識別された個体の顔識別用情報を用いて識別される顔の位置に基づいて、文字画像Mの表示領域Rにおける表示位置を決定したが、これに限定されるものではない。位置決定部6fは、例えば、顔検出部6bにより検出された顔の個数にかかわらず、顔検出部6bにより所定の画像(表示対象の画像)から検出され、個体識別部3fにより識別された個体の顔識別用情報を用いて識別される顔の位置に基づいて、文字画像Mの表示領域Rにおける表示位置を決定しても良い。この場合、顔検出部6bにより検出された顔の個数が1個であり、当該顔が集音されて録音された音声を発した個体の顔でないときには、位置決定部6fは、例えば、顔検出部6bにより顔が検出されなかった場合と同様、音源方向特定部3dにより特定された音源方向のみに基づいて、文字画像Mの表示領域Rにおける表示位置を決定する。
また、位置決定部6fが、顔識別用画像情報を利用して集音されて録音された音声を発した個体の顔を識別するようにしたが、例えば、顔検出部6bが、顔の検出と同時に、顔識別用画像情報を利用して集音されて録音された音声を発した個体の顔を識別しても良い。
In the above embodiment, the
In addition, the
加えて、上記実施形態にあっては、取得手段、方向特定手段、位置決定手段、表示制御手段としての機能を、中央制御部1の制御下にて、画像取得部6a、音源方向特定部3d、位置決定部6f、表示制御部7が駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部1のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、取得処理ルーチン、方向特定処理ルーチン、位置決定処理ルーチン、表示制御処理ルーチンを含むプログラムを記憶しておく。そして、取得処理ルーチンにより中央制御部1のCPUを、表示手段の表示領域に表示される所定の画像を取得する取得手段として機能させるようにしても良い。また、方向特定処理ルーチンにより中央制御部1のCPUを、集音手段により集音された音の音源方向を特定する方向特定手段として機能させるようにしても良い。また、位置決定処理ルーチンにより中央制御部1のCPUを、方向特定手段により特定された音の音源方向に基づいて、当該音に関連する音関連画像の表示領域における表示位置を決定する位置決定手段として機能させるようにしても良い。また、表示制御処理ルーチンにより中央制御部1のCPUを、表示領域に表示される所定の画像と重なるように、音関連画像を位置決定手段により決定された表示位置に表示させる表示制御手段として機能させるようにしても良い。
In addition, in the above-described embodiment, the functions of the acquisition unit, the direction specification unit, the position determination unit, and the display control unit are controlled by the central control unit 1, and the
That is, a program including an acquisition process routine, a direction specifying process routine, a position determination process routine, and a display control process routine is stored in a program memory (not shown) that stores the program. Then, the CPU of the central control unit 1 may function as an acquisition unit that acquires a predetermined image displayed in the display area of the display unit by an acquisition process routine. Further, the CPU of the central control unit 1 may function as direction specifying means for specifying the sound source direction of the sound collected by the sound collecting means by the direction specifying processing routine. Further, the CPU of the central control unit 1 by the position determination processing routine determines the display position in the display area of the sound related image related to the sound based on the sound source direction of the sound specified by the direction specifying means. You may make it function as. Also, the display control processing routine causes the CPU of the central control unit 1 to function as display control means for displaying the sound-related image at the display position determined by the position determination means so as to overlap a predetermined image displayed in the display area. You may make it let it.
同様に、音認識手段、検出手段、識別手段、向き決定手段、音量特定手段、寸法決定手段等のその他の機能についても、中央制御部1のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。 Similarly, other functions such as sound recognition means, detection means, identification means, direction determination means, volume specification means, and dimension determination means are also realized by executing predetermined programs and the like by the CPU of the central control unit 1. It is good also as a structure made.
さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型画像記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。 Further, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory, a portable image recording medium such as a CD-ROM, etc. is applied in addition to a ROM and a hard disk. It is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.
本発明の実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
表示手段を備えた表示装置において、
前記表示手段の表示領域に表示される画像を取得する取得手段と、
音源から発せられた音を集音する集音手段と、
当該装置本体の位置を基準として、前記集音手段により集音された音の音源方向を特定する方向特定手段と、
この方向特定手段により特定された前記音の音源方向に基づいて、当該音に関連する音関連画像の前記表示領域における表示位置を決定する位置決定手段と、
前記表示領域に表示される前記画像と重なるように、前記音関連画像を前記位置決定手段により決定された表示位置に表示させる表示制御手段と、
を備えたことを特徴とする表示装置。
<請求項2>
前記取得手段により取得された画像から顔を検出する検出手段を更に備え、
前記位置決定手段は、更に、前記検出手段により前記画像から検出された顔の位置に基づいて、前記音関連画像の前記表示領域における表示位置を決定することを特徴とする請求項1に記載の表示装置。
<請求項3>
ヒト及び動物のうち、少なくとも一方の各個体の顔を識別するための顔識別用情報を記憶する第1記憶手段と、
ヒト及び動物のうち、少なくとも一方の各個体の識別に用いられる音声情報を記憶する第2記憶手段と、
この第2記憶手段に記憶されている前記音声情報に基づいて、前記集音手段により集音された音声を発した個体を識別する識別手段と、を更に備え、
前記位置決定手段は、前記検出手段により前記画像から検出され、前記識別手段により識別された個体の前記顔識別用情報を用いて識別される顔の位置に基づいて、前記音関連画像の前記表示領域における表示位置を決定することを特徴とする請求項2に記載の表示装置。
<請求項4>
前記集音手段により集音された音を認識する音認識手段を更に備え、
前記表示制御手段は、前記音関連画像として、前記音認識手段により認識された音を対応する文字で表した文字画像を表示させることを特徴とする請求項1〜3の何れか一項に記載の表示装置。
<請求項5>
前記文字画像は、前記文字を囲む枠部分の所定位置に接続された引き出し線を具備するふきだし画像を含み、
前記方向特定手段により特定された音源方向に基づいて、前記ふきだし画像の引き出し線の向きを決定する向き決定手段を更に備えることを特徴とする請求項4に記載の表示装置。
<請求項6>
前記集音手段により集音された音の音量を特定する音量特定手段と、
前記音量特定手段により特定された音量に基づいて、前記表示領域に表示される前記音関連画像の寸法を決定する寸法決定手段と、を更に備えることを特徴とする請求項1〜5の何れか一項に記載の表示装置。
<請求項7>
表示手段と、音源から発せられた音を集音する集音手段とを備える表示装置を用いた表示方法であって、
前記表示手段の表示領域に画像を表示する処理と、
前記表示装置本体の位置を基準として、前記集音手段により集音された音の音源方向を特定する処理と、
特定された前記音の音源方向に基づいて、当該音に関連する音関連画像の前記表示領域における表示位置を決定する処理と、
前記表示領域に表示される前記画像と重なるように、前記音関連画像を決定された表示位置に表示させる処理と、
を行うことを特徴とする表示方法。
<請求項8>
表示手段と、音源から発せられた音を集音する集音手段とを備える表示装置のコンピュータを、
前記表示装置本体の位置を基準として、前記表示手段の表示領域に表示される画像を取得する取得手段、
前記集音手段により集音された音の音源方向を特定する方向特定手段、
この方向特定手段により特定された前記音の音源方向に基づいて、当該音に関連する音関連画像の前記表示領域における表示位置を決定する位置決定手段、
前記表示領域に表示される前記画像と重なるように、前記音関連画像を前記位置決定手段により決定された表示位置に表示させる表示制御手段、
として機能させることを特徴とするプログラム。
Although the embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, and includes the scope of the invention described in the claims and an equivalent scope thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
In a display device comprising display means,
Obtaining means for obtaining an image displayed in a display area of the display means;
Sound collecting means for collecting sounds emitted from the sound source;
Direction specifying means for specifying the sound source direction of the sound collected by the sound collecting means with reference to the position of the apparatus body;
Position determining means for determining a display position in the display area of the sound-related image related to the sound based on the sound source direction of the sound specified by the direction specifying means;
Display control means for displaying the sound-related image at the display position determined by the position determination means so as to overlap the image displayed in the display area;
A display device comprising:
<Claim 2>
It further comprises detection means for detecting a face from the image acquired by the acquisition means,
The said position determination means further determines the display position in the said display area of the said sound related image based on the position of the face detected from the said image by the said detection means. Display device.
<Claim 3>
First storage means for storing face identification information for identifying the face of each individual of at least one of human and animal;
Second storage means for storing voice information used for identification of each individual of at least one of human and animal;
Identification means for identifying an individual that has emitted the sound collected by the sound collection means based on the sound information stored in the second storage means;
The position determination unit is configured to display the sound-related image based on a position of a face detected from the image by the detection unit and identified using the face identification information of the individual identified by the identification unit. The display device according to
<Claim 4>
A sound recognition means for recognizing the sound collected by the sound collection means;
The said display control means displays the character image which represented the sound recognized by the said sound recognition means by the character corresponding as the said sound related image, The Claim 1 characterized by the above-mentioned. Display device.
<Claim 5>
The character image includes a speech bubble image having a lead line connected to a predetermined position of a frame portion surrounding the character,
The display device according to claim 4, further comprising a direction determining unit that determines a direction of a leader line of the balloon image based on a sound source direction specified by the direction specifying unit.
<Claim 6>
Volume specifying means for specifying the volume of the sound collected by the sound collecting means;
6. The method according to claim 1, further comprising: a dimension determining unit that determines a dimension of the sound-related image displayed in the display area based on the volume specified by the volume specifying unit. The display device according to one item.
<Claim 7>
A display method using a display device comprising display means and sound collection means for collecting sound emitted from a sound source,
Processing for displaying an image in a display area of the display means;
A process of identifying the sound source direction of the sound collected by the sound collecting means with reference to the position of the display device body;
A process of determining a display position in the display area of a sound-related image related to the sound based on the sound source direction of the specified sound;
Processing to display the sound-related image at the determined display position so as to overlap the image displayed in the display area;
A display method characterized by:
<Claim 8>
A computer of a display device comprising display means and sound collection means for collecting sounds emitted from a sound source,
Obtaining means for obtaining an image displayed in a display area of the display means on the basis of the position of the display device body;
Direction specifying means for specifying the sound source direction of the sound collected by the sound collecting means;
Position determining means for determining a display position in the display area of the sound-related image related to the sound based on the sound source direction of the sound specified by the direction specifying means;
Display control means for displaying the sound-related image at the display position determined by the position determination means so as to overlap the image displayed in the display area;
A program characterized by functioning as
1 中央制御部
3a 集音部
3c 音量特定部
3d 音源方向特定部
3e 音認識部
3f 個体識別部
7a 画像取得部
7b 顔検出部
7c 寸法決定部
7d 向き決定部
7f 位置決定部
8 表示制御部
9 表示部
100 表示装置
L 引き出し線
M 文字画像
R 表示領域
S 音源
T1 音声情報テーブル
T2 顔識別用情報テーブル
DESCRIPTION OF SYMBOLS 1
Claims (8)
前記表示手段の表示領域に表示される画像を取得する取得手段と、
音源から発せられた音を集音する集音手段と、
当該装置本体の位置を基準として、前記集音手段により集音された音の音源方向を特定する方向特定手段と、
この方向特定手段により特定された前記音の音源方向に基づいて、当該音に関連する音関連画像の前記表示領域における表示位置を決定する位置決定手段と、
前記表示領域に表示される前記画像と重なるように、前記音関連画像を前記位置決定手段により決定された表示位置に表示させる表示制御手段と、
を備えたことを特徴とする表示装置。 In a display device comprising display means,
Obtaining means for obtaining an image displayed in a display area of the display means;
Sound collecting means for collecting sounds emitted from the sound source;
Direction specifying means for specifying the sound source direction of the sound collected by the sound collecting means with reference to the position of the apparatus body;
Position determining means for determining a display position in the display area of the sound-related image related to the sound based on the sound source direction of the sound specified by the direction specifying means;
Display control means for displaying the sound-related image at the display position determined by the position determination means so as to overlap the image displayed in the display area;
A display device comprising:
前記位置決定手段は、更に、前記検出手段により前記画像から検出された顔の位置に基づいて、前記音関連画像の前記表示領域における表示位置を決定することを特徴とする請求項1に記載の表示装置。 It further comprises detection means for detecting a face from the image acquired by the acquisition means,
The said position determination means further determines the display position in the said display area of the said sound related image based on the position of the face detected from the said image by the said detection means. Display device.
ヒト及び動物のうち、少なくとも一方の各個体の識別に用いられる音声情報を記憶する第2記憶手段と、
この第2記憶手段に記憶されている前記音声情報に基づいて、前記集音手段により集音された音声を発した個体を識別する識別手段と、を更に備え、
前記位置決定手段は、前記検出手段により前記画像から検出され、前記識別手段により識別された個体の前記顔識別用情報を用いて識別される顔の位置に基づいて、前記音関連画像の前記表示領域における表示位置を決定することを特徴とする請求項2に記載の表示装置。 First storage means for storing face identification information for identifying the face of each individual of at least one of human and animal;
Second storage means for storing voice information used for identification of each individual of at least one of human and animal;
Identification means for identifying an individual that has emitted the sound collected by the sound collection means based on the sound information stored in the second storage means;
The position determination unit is configured to display the sound-related image based on a position of a face detected from the image by the detection unit and identified using the face identification information of the individual identified by the identification unit. The display device according to claim 2, wherein a display position in the region is determined.
前記表示制御手段は、前記音関連画像として、前記音認識手段により認識された音を対応する文字で表した文字画像を表示させることを特徴とする請求項1〜3の何れか一項に記載の表示装置。 A sound recognition means for recognizing the sound collected by the sound collection means;
The said display control means displays the character image which represented the sound recognized by the said sound recognition means by the character corresponding as the said sound related image, The Claim 1 characterized by the above-mentioned. Display device.
前記方向特定手段により特定された音源方向に基づいて、前記ふきだし画像の引き出し線の向きを決定する向き決定手段を更に備えることを特徴とする請求項4に記載の表示装置。 The character image includes a speech bubble image having a lead line connected to a predetermined position of a frame portion surrounding the character,
The display device according to claim 4, further comprising a direction determining unit that determines a direction of a leader line of the balloon image based on a sound source direction specified by the direction specifying unit.
前記音量特定手段により特定された音量に基づいて、前記表示領域に表示される前記音関連画像の寸法を決定する寸法決定手段と、を更に備えることを特徴とする請求項1〜5の何れか一項に記載の表示装置。 Volume specifying means for specifying the volume of the sound collected by the sound collecting means;
6. The method according to claim 1, further comprising: a dimension determining unit that determines a dimension of the sound-related image displayed in the display area based on the volume specified by the volume specifying unit. The display device according to one item.
前記表示手段の表示領域に画像を表示する処理と、
前記表示装置本体の位置を基準として、前記集音手段により集音された音の音源方向を特定する処理と、
特定された前記音の音源方向に基づいて、当該音に関連する音関連画像の前記表示領域における表示位置を決定する処理と、
前記表示領域に表示される前記画像と重なるように、前記音関連画像を決定された表示位置に表示させる処理と、
を行うことを特徴とする表示方法。 A display method using a display device comprising display means and sound collection means for collecting sound emitted from a sound source,
Processing for displaying an image in a display area of the display means;
A process of identifying the sound source direction of the sound collected by the sound collecting means with reference to the position of the display device body;
A process of determining a display position in the display area of a sound-related image related to the sound based on the sound source direction of the specified sound;
Processing to display the sound-related image at the determined display position so as to overlap the image displayed in the display area;
A display method characterized by:
前記表示装置本体の位置を基準として、前記表示手段の表示領域に表示される画像を取得する取得手段、
前記集音手段により集音された音の音源方向を特定する方向特定手段、
この方向特定手段により特定された前記音の音源方向に基づいて、当該音に関連する音関連画像の前記表示領域における表示位置を決定する位置決定手段、
前記表示領域に表示される前記画像と重なるように、前記音関連画像を前記位置決定手段により決定された表示位置に表示させる表示制御手段、
として機能させることを特徴とするプログラム。 A computer of a display device comprising display means and sound collection means for collecting sounds emitted from a sound source,
Obtaining means for obtaining an image displayed in a display area of the display means on the basis of the position of the display device body;
Direction specifying means for specifying the sound source direction of the sound collected by the sound collecting means;
Position determining means for determining a display position in the display area of the sound-related image related to the sound based on the sound source direction of the sound specified by the direction specifying means;
Display control means for displaying the sound-related image at the display position determined by the position determination means so as to overlap the image displayed in the display area;
A program characterized by functioning as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011124715A JP2012252524A (en) | 2011-06-03 | 2011-06-03 | Display device, display method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011124715A JP2012252524A (en) | 2011-06-03 | 2011-06-03 | Display device, display method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012252524A true JP2012252524A (en) | 2012-12-20 |
Family
ID=47525279
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011124715A Withdrawn JP2012252524A (en) | 2011-06-03 | 2011-06-03 | Display device, display method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012252524A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111221485A (en) * | 2018-11-27 | 2020-06-02 | 技嘉科技股份有限公司 | Computer system, display device and display method of display interface on screen |
JP2020121165A (en) * | 2020-04-21 | 2020-08-13 | 株式会社コロプラ | Computer program for assisting user input |
-
2011
- 2011-06-03 JP JP2011124715A patent/JP2012252524A/en not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111221485A (en) * | 2018-11-27 | 2020-06-02 | 技嘉科技股份有限公司 | Computer system, display device and display method of display interface on screen |
JP2020086449A (en) * | 2018-11-27 | 2020-06-04 | 技嘉科技股▲ふん▼有限公司Giga−Byte Technology Co.,Ltd. | Computer system, display apparatus, and display method of on-screen-display interface |
JP2020121165A (en) * | 2020-04-21 | 2020-08-13 | 株式会社コロプラ | Computer program for assisting user input |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102446392B1 (en) | Electronic device and method for recognizing voice of speech | |
US9513711B2 (en) | Electronic device controlled by a motion and controlling method thereof using different motions to activate voice versus motion recognition | |
KR102444061B1 (en) | Electronic device and method for recognizing voice of speech | |
US20130120548A1 (en) | Electronic device and text reading guide method thereof | |
CN107211198B (en) | Apparatus and method for editing content | |
US20160247520A1 (en) | Electronic apparatus, method, and program | |
JP2019531538A5 (en) | ||
WO2010086991A1 (en) | Image display device, image display method, and computer program | |
JP2019532543A5 (en) | ||
KR102505719B1 (en) | Electronic device and method for recognizing voice of speech | |
JP2005122128A (en) | Speech recognition system and program | |
EP2590054A1 (en) | Electronic apparatus and method for controlling electronic apparatus using recognition and motion recognition | |
WO2019205552A1 (en) | Online document commenting method and apparatus | |
KR20140012757A (en) | Facilitating image capture and image review by visually impaired users | |
KR20180002265A (en) | Electronic apparatus and method for controlling the electronic apparatus | |
CN110991455B (en) | Image text broadcasting method and equipment, electronic circuit and storage medium thereof | |
KR20160065670A (en) | Method and device for providing contents | |
JP2010134876A (en) | Information processing device and method | |
TW201234280A (en) | Hand-written character input device and portable terminal | |
US20130031473A1 (en) | Apparatus and method for generating summary data of e-book or e-note | |
JP2016194612A (en) | Visual recognition support device and visual recognition support program | |
US20120249293A1 (en) | Recognition system and recognition method | |
JP2012252524A (en) | Display device, display method and program | |
US20110019875A1 (en) | Image display device | |
US20140180698A1 (en) | Information processing apparatus, information processing method and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140805 |