JP2012088688A - Image display device - Google Patents
Image display device Download PDFInfo
- Publication number
- JP2012088688A JP2012088688A JP2011187402A JP2011187402A JP2012088688A JP 2012088688 A JP2012088688 A JP 2012088688A JP 2011187402 A JP2011187402 A JP 2011187402A JP 2011187402 A JP2011187402 A JP 2011187402A JP 2012088688 A JP2012088688 A JP 2012088688A
- Authority
- JP
- Japan
- Prior art keywords
- image
- hand
- user
- target object
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本発明は、画像表示装置に関する。 The present invention relates to an image display device.
次のような操作制御装置が知られている。この操作制御装置は、ユーザーの手の動きに応じた画像を操作することができる(例えば、特許文献1)。 The following operation control devices are known. This operation control device can operate an image according to the movement of the user's hand (for example, Patent Document 1).
しかしながら、従来の操作制御装置では、手をイメージ化した図形を画像上に表示することでユーザーに手を検出したことを報知するため、画像が見難くなるという問題があった。 However, the conventional operation control device has a problem that it is difficult to see the image because the user is notified that the hand has been detected by displaying a graphic image of the hand on the image.
本発明による画像表示装置は、対象物体を検出する検出手段と、検出手段によって対象物体が検出されたときに、画像を3次元表示する表示制御手段とを備えることを特徴とする。 An image display apparatus according to the present invention includes a detection unit that detects a target object, and a display control unit that displays a three-dimensional image when the target object is detected by the detection unit.
本発明によれば、画像を3次元表示することで、ユーザーに対象物体を検出したことを報知するので、画像が見難くならない。 According to the present invention, since the user is notified that the target object has been detected by displaying the image in three dimensions, the image is not difficult to see.
(第1の実施の形態)
図1は、第1の実施の形態における画像表示装置の構成を示すブロック図である。画像表示装置としては、例えば、図2に示すようなデジタルフォトフレーム100が用いられ、このデジタルフォトフレーム100は、操作部材101と、3次元位置検出カメラ102と、接続IF(インターフェース)103と、制御装置104と、記憶媒体105と、3Dモニタ106とを備えている。
(First embodiment)
FIG. 1 is a block diagram showing the configuration of the image display apparatus according to the first embodiment. As the image display device, for example, a
操作部材101は、デジタルフォトフレーム100のユーザーによって操作される種々の装置、例えば操作ボタン等を含む。あるいは、3Dモニタ106にタッチパネルを搭載し、ユーザーは、タッチパネルを用いてデジタルフォトフレームを操作するようにしてもよい。
The
3次元位置検出カメラ102は、被写体の3次元位置を検出することができるカメラである。なお、3次元位置検出カメラ102としては、例えば単眼式3Dカメラ、2眼式3Dカメラ、または距離画像センサ等が用いられる。この3次元位置検出カメラ102は、図2に示すように、デジタルフォトフレーム100の前面に配置され、デジタルフォトフレーム100に対面するユーザーを撮影することができる。3次元位置検出カメラ102が備えるイメージセンサから出力される画像信号は制御装置104へ出力され、制御装置104は、画像信号に基づいて画像データを生成する。
The three-dimensional
接続IF103は、デジタルフォトフレーム100と外部機器とを接続するためのインターフェースである。本実施の形態では、デジタルフォトフレーム100は、この接続IF103を介して画像データが記録されている外部機器、例えばデジタルカメラ等と接続される。そして、制御装置104は、接続IF103を介して外部機器から画像データを取り込んで、記憶媒体105に記録する。なお、接続IF103としては、外部機器とデジタルフォトフレーム100とを有線接続するためのUSBインターフェースや、無線接続するための無線LANモジュールなどが用いられる。あるいは、接続IF103の代わりにメモリカードスロットを設け、該メモリカードスロットに画像データが記録されたメモリカードを挿入することにより、画像データを取り込むようにしてもよい。
The connection IF 103 is an interface for connecting the
制御装置104は、CPU、メモリ、およびその他の周辺回路によって構成され、デジタルフォトフレーム100の全体を制御する。なお、制御装置104を構成するメモリは、例えばSDRAM等の揮発性のメモリである。このメモリは、CPUがプログラム実行時にプログラムを展開するためのワークメモリや、データを一時的に記録するためのバッファメモリを含む。
The
記憶媒体105は、フラッシュメモリ等の不揮発性のメモリであって、制御装置104によって実行されるプログラムや、接続IF103を介して取り込まれた画像データ等が記録される。3Dモニタ106は、3次元表示が可能なモニタであって、図2に示すように、再生対象の画像2bを3D表示することが可能である。なお、3Dモニタ106は、画像2bを3次元表示だけでなく2次元表示することもできる。また、3次元表示が可能なモニタとしては、例えば裸眼式や眼鏡式等の公知の方式で3D表示を行う3Dモニタが用いられる。
The
本実施の形態におけるデジタルフォトフレーム100は、制御装置104は、3次元位置検出カメラ102によって撮影された画像に基づいてユーザーの手2aの3次元位置、およびフレーム間での3次元位置の変化を検出し、その検出結果に応じて画像2bの再生状態を変更する。以下、制御装置104による、ユーザーの手2aの3次元位置、およびフレーム間での3次元位置の変化に応じた画像2bの再生状態の変更処理について説明する。なお、以下の説明では、制御装置104は、3次元位置検出カメラ102から入力される画像内にユーザーの手2aが写っていない場合には、画像2bを3Dモニタ106に2次元表示させ、手2aが写っていることを検出したときに3次元表示に変化させる例について説明する。
In the
図3は、ユーザーの手2aの3次元位置、およびフレーム間での3次元位置の変化に応じた画像の再生状態の変更処理の流れを示すフローチャートである。図3に示す処理は、3Dモニタ106への画像2bの再生が開始されると起動するプログラムとして、制御装置104によって実行される。なお、プログラムの実行開始時点では、まだユーザーの手2aの3次元位置は検出されていないので、上述したように画像2bは3Dモニタ106に2次元表示される。
FIG. 3 is a flowchart showing the flow of processing for changing the reproduction state of an image in accordance with the change in the three-dimensional position of the user's
ステップS10において、制御装置104は、3次元位置検出カメラ102による画像の撮影を開始する。本実施の形態では、例えば、3次元位置検出カメラ102は、所定のフレームレートで撮影を行うこととし、制御装置104には、3次元位置検出カメラ102から該フレームレートに応じた所定の時間間隔で連続して画像データが入力される。その後、ステップS20へ進む。
In step S <b> 10, the
ステップS20では、制御装置104は、3次元位置検出カメラ102から入力される画像データに基づいて、入力画像内におけるユーザーの手2aの3次元位置を検出したか否かを判断する。例えば、あらかじめユーザーの手2aの画像をテンプレート画像として記録しておき、制御装置104は、入力画像とテンプレート画像とをマッチングすることにより、入力画像内にユーザーの手2aが写っているか否かを判定し、写っていた場合には、その手2aの3次元位置を検出する。ステップS20で否定判断した場合には、後述するステップS60へ進む。これに対して、ステップS20で肯定判断した場合には、ステップS30へ進む。
In step S20, the
ステップS30では、制御装置104は、ユーザーと再生中の画像2bとの間の奥行き方向(前後方向)の距離を視覚的に変化させることにより、3Dモニタ106に再生中の画像2bを2次元表示から3次元表示へ切り替える。例えば、制御装置104は、2次元表示の状態から、ユーザーと再生中の画像2bとの間の奥行き方向の距離を視覚的に短くすることにより、図4(b)に示すように、画像2bが手前に飛び出すように3次元表示する。これにより、ユーザーに、3Dモニタ106に手をかざすと画像2bが手に吸い寄せられるような感覚を与えることができる。なお、制御装置104は、画像2bを視覚的にユーザーの手2aに近い位置まで飛び出させることにより、ユーザーに、視覚的に画像2bに触れたような感覚を与えることができる。
In step S30, the
あるいは、制御装置104は、2次元表示の状態から、ユーザーと再生中の画像2bとの間の奥行き方向の距離を視覚的に長くすることにより、図5(b)に示すように、画像2bが奥に沈み込むように3次元表示する。これにより、ユーザーに、3Dモニタ106に手をかざすと、その手によって画像2bが奥に押し込まれたような感覚を与えることができる。なお、ステップS30において、制御装置104が図4(b)に示すように3次元表示に切り替えるか、図5(b)に示すように3次元表示に切り替えるかは、ユーザーによってあらかじめ選択され、設定されているものとする。
Alternatively, the
その後、ステップS40へ進み、制御装置104は、3次元位置検出カメラ102から時系列で入力される画像データ間での画像内における手2aの3次元位置の変化を監視することにより、ユーザーの手2aの動きを検出する。ステップS40でユーザーの手2aの動きを検出しない場合には、後述するステップS60へ進む。これに対して、ステップS40でユーザーの手2aの動きを検出した場合には、ステップS50へ進む。
Thereafter, the process proceeds to step S40, and the
ステップS50では、制御装置104は、ユーザーと再生中の画像2bとの間の奥行き方向の距離を視覚的にさらに変化させる。まず、図4(b)に示したように、画像2bを手前に浮かび上がらせることによって3次元表示した場合について説明する。この場合には、制御装置104は、例えば、ユーザーの手2aの3次元位置が3Dモニタ106に近づく方向に移動したことを検出した場合には、図4(c)に示すように、図4(b)に示した状態から、ユーザーと再生中の画像2bとの間の奥行き方向の距離を短くして、画像2bの飛び出し量を大きくする。これによって、ユーザーには、手を3Dモニタ106に近づけたことにより、さらに画像2bが手に吸い寄せられてくるような感覚を与えることができる。
In step S50, the
また、制御装置104は、ユーザーの手2aの3次元位置が3Dモニタ106から遠ざかる方向に移動したことを検出した場合には、図4(b)に示した状態から、ユーザーと再生中の画像2bとの間の奥行き方向の距離を長くして、画像2bの飛び出し量を小さくする。これによって、ユーザーには、手を3Dモニタ106から遠ざけたことにより、画像2bが手から遠ざかったような感覚を与えることができる。なお、この場合の画像の飛出し量は、ユーザーにとって手2aと画像2bとの距離が視覚的に常に一定になるように変化させるようにするとともに、画像の飛出し量の最大量を両眼視差量で1度程度として、画像2bの自然な立体感を損なわないようにする。
In addition, when the
次に、図5(b)に示したように、画像2bを奥に沈み込むように変化させることによって3次元表示した場合について説明する。この場合には、制御装置104は、例えば、ユーザーの手2aの3次元位置が3Dモニタ106に近づく方向に移動したことを検出した場合には、図5(c)に示すように、図5(b)に示した状態から、ユーザーと再生中の画像2bとの間の奥行き方向の距離を長くして、画像2bの沈み込み量を大きくする。これによって、ユーザーには、手を3Dモニタ106に近づけたことにより、さらに画像が押し込まれたような感覚を与えることができる。
Next, as shown in FIG. 5B, a case will be described in which the
また、制御装置104は、ユーザーの手2aの3次元位置が3Dモニタ106から遠ざかる方向に移動したことを検出した場合には、図4(b)に示した状態から、ユーザーと再生中の画像2bとの間の奥行き方向の距離を短くして、画像2bの沈み込み量を小さくする。これによって、ユーザーには、手を3Dモニタ106から遠ざけたことにより、画像2bの沈み込みが小さくなったような感覚を与えることができる。なお、この場合の画像の沈み込み量は、ユーザーにとって手2aと画像2bとの距離が視覚的に一定になるように変化させるようにするとともに、画像の沈み込み量の最大量を両眼視差量で1度程度として、画像2bの自然な立体感を損なわないようにする。
In addition, when the
その後、ステップS60へ進み、制御装置104は、ユーザーによって、画像の再生を終了するように指示されたか否かを判断する。ステップS60で否定判断した場合には、ステップS20へ戻る。これに対して、ステップS60で肯定判断した場合には、処理を終了する。
Thereafter, the process proceeds to step S60, and the
以上説明した第1の実施の形態によれば、以下のような作用効果を得ることができる。
(1)制御装置104は、3次元位置検出カメラ102からの入力画像に基づいてユーザーの手2aの3次元位置を検出したときに、ユーザーと再生中の画像2bとの間の奥行き方向の距離を視覚的に変化させることにより、3Dモニタ106に再生中の画像2bを2次元表示から3次元表示へ切り替えるようにした。これによって、ユーザーは、3Dモニタ106に手をかざしたときに、画像2bがユーザーの手に吸い寄せられるような感覚や、画像を奥に押し込む感覚を受けることができる。
According to the first embodiment described above, the following operational effects can be obtained.
(1) When the
(2)制御装置104は、ユーザーの手2aの動きを検出し、手2aの動きに応じて、ユーザーと再生中の画像2bとの間の奥行き方向の距離を視覚的にさらに変化させるようにした。これによって、ユーザーは、手を動かすことによって直感的に画像2bの飛出し量や沈み込み量を変化させることができる。
(2) The
(3)制御装置104は、ユーザーにとって手2aと画像2bとの距離が視覚的に常に一定になるように、ユーザーと再生中の画像2bとの間の奥行き方向の距離を視覚的に変化させるようにした。これによって、ユーザーは、手の動きに追従して画像の飛出し量や沈み込み量が変化しているように感じることができる。
(3) The
(4)制御装置104は、2次元表示の状態から、ユーザーと再生中の画像2bとの間の奥行き方向の距離を視覚的に短くすることにより、画像2bが手前に飛び出すように3次元表示するようにした。これにより、ユーザーに、3Dモニタ106に手をかざすと画像2bが手に吸い寄せられるような感覚を与えることができる。
(4) From the state of the two-dimensional display, the
(5)制御装置104は、画像2bを視覚的にユーザーの手2aに近い位置まで飛び出させるようにした。これによって、ユーザーに、視覚的に画像2bに触れたような感覚を与えることができる。
(5) The
(6)制御装置104は、2次元表示の状態から、ユーザーと再生中の画像2bとの間の奥行き方向の距離を視覚的に長くすることにより、画像2bが奥に沈み込むように3次元表示するようにした。これにより、ユーザーに、3Dモニタ106に手をかざすと、その手によって画像2bが奥に押し込まれたような感覚を与えることができる。
(6) From the state of the two-dimensional display, the
(第2の実施の形態)
図面を参照して、本発明による第2の実施の形態について説明する。第2の実施の形態では、第1の実施の形態と画像2bの再生状態の変更処理が異なっているため、相違点を中心に詳しく説明する。なお、画像2bの再生状態の変更処理以外については、第1の実施の形態と同様のため、説明を省略する。
(Second Embodiment)
A second embodiment according to the present invention will be described with reference to the drawings. In the second embodiment, since the process for changing the reproduction state of the
第2の実施の形態の制御装置104は、ユーザーの手2aの3次元位置を検出した場合には、3Dモニタ106に再生中の画像2bの形状を球状に変化させると共にその球状に応じた奥行きを視覚的に与えるように3次元表示させる。
When the
たとえば、制御装置104は、図6(a)に示す2次元表示の状態から、図6(b)に示すように画像2bの形状を画面から手前に飛び出すような球状に3次元表示させる。これにより、ユーザーに、3Dモニタ106に手2aをかざすと画像2bが手2aに吸い寄せられるような感覚を与えることができる。
For example, from the two-dimensional display state shown in FIG. 6A, the
また、制御装置104は、2次元表示の状態から、画像2bの形状を画面の奥に沈み込むような球状に3次元表示させるようにしてもよい。これにより、ユーザーに、3Dモニタ106に手2aをかざすと、その手2aによって画像2bが奥に押し込まれたような感覚を与えることができる。
Further, the
なお、制御装置104が手前に飛び出すような3次元表示に切り替えるか、奥に沈み込むような3次元表示に切り替えるかは、ユーザーによってあらかじめ選択され、設定されているものとする。
Note that it is assumed that the user has previously selected and set whether to switch to the three-dimensional display in which the
その後、制御装置104は、ユーザーの手2aの3次元位置が3Dモニタ106に近づく方向に移動したことを検出した場合には、画像2bの飛び出し量または沈み込み量を大きくする。これにより、手2aを3Dモニタ106に近づけたことで画像2bがさらに吸い寄せられた感覚、または、押し込まれた感覚をユーザーに与えることができる。
Thereafter, when the
一方、制御装置104は、ユーザーの手2aの3次元位置が3Dモニタ106から遠ざかる方向に移動したことを検出した場合には、画像2bの飛び出し量または沈み込み量を小さくする。これにより、手2aを3Dモニタ106から遠ざけたことで画像2bの吸い寄せ量、または、押し込み量が小さくなった感覚をユーザーに与えることができる。
On the other hand, when the
以上説明した第2の実施の形態によれば、以下のような作用効果を得ることができる。
(1)デジタルフォトフレーム100は、ユーザーの手2aを検出する制御装置104と、制御装置104によってユーザーの手2aが検出されたときに、画像2bを3次元表示する制御装置104とを備えるので、画像2bを3次元表示することでユーザーに手2aを検出したことを報知でき、画像2bが見難くならない。
According to the second embodiment described above, the following operational effects can be obtained.
(1) Since the
(2)上記(1)のデジタルフォトフレーム100において、制御装置104は、ユーザーの手2aが検出されたときに、画像2bの形状を変化させると共に該形状に応じた奥行きを視覚的に与えるように3次元表示するように構成したので、ユーザーに手2aを検出したことを一段とわかりやすく報知できる。
(2) In the
(第3の実施の形態)
図面を参照して、本発明による第3の実施の形態について説明する。第3の実施の形態では、第1の実施の形態と画像2bの再生状態の変更処理が異なっているため、相違点を中心に詳しく説明する。なお、画像2bの再生状態の変更処理以外については、第1の実施の形態と同様のため、説明を省略する。
(Third embodiment)
With reference to the drawings, a third embodiment of the present invention will be described. In the third embodiment, since the process for changing the reproduction state of the
図7(a)に示すように、ユーザーが手2aを横に移動するときには、手2aが3Dモニタ106の奥行き方向に対して、たとえば肩などを支点として円弧状に移動する。そこで、第3の実施の形態では、手2aの横方向の移動に応じて、画像2bが奥行き方向に対して円弧状に移動するように表示する。
As shown in FIG. 7A, when the user moves the
たとえば、制御装置104は、ユーザーの手2aの3次元位置を検出した場合には、2次元表示の状態から、ユーザーと再生中の画像2bとの間の奥行き方向(前後方向)の距離を視覚的に変化させることにより、画像2bが画面から手前に飛び出すように3次元表示する。
For example, when the
その後、手2aの3次元位置が横方向に移動したことを検出した場合には、図7(b)および図8に示すように、制御装置104は、手2aの移動方向に画像2bを移動させると共に、画像2bが画面の左端または右端に近づくほど画像2bの飛び出し量を小さくし、画像2bが画面の中央に近づくほど画像2bの飛びだし量を大きくする。すなわち、手2aが3Dモニタ106に近づくほど画像2bが手2aに近づき、手2aが3Dモニタ106から離れるほど画像2bが手2aから遠ざかるように表示する。これにより、手2aの動きに連動して画像2bが移動しながら手前に吸い寄せられる感覚をユーザーに与えることができる。
Thereafter, when it is detected that the three-dimensional position of the
また、制御装置104は、ユーザーの手2aの3次元位置を検出した場合には、2次元表示の状態から、ユーザーと再生中の画像2bとの間の奥行き方向(前後方向)の距離を視覚的に変化させることにより、画像2bが画面の奥に沈み込むように3次元表示してもよい。
Further, when detecting the three-dimensional position of the user's
この場合、手2aの3次元位置が横方向に移動したことを検出した場合には、図7(c)に示すように、制御装置104は、手2aの移動方向に画像2bを移動させると共に、画像2bが画面の左端または右端に近づくほど画像2bの沈み込み量を小さくし、画像2bが画面の中央に近づくほど画像2bの沈み込み量を大きくする。すなわち、手2aが3Dモニタ106に近づくほど画像2bが手2aから遠ざかり、手2aが3Dモニタ106から離れるほど画像2bが手2aへ近づくように画像2bを表示する。これにより、手2aの動きに連動して画像2bが移動しながら画面の奥に押し込まれる感覚をユーザーに与えることができる。
In this case, when it is detected that the three-dimensional position of the
以上説明した第3の実施の形態によれば、以下のような作用効果を得ることができる。
(1)デジタルフォトフレーム100は、ユーザーの手2aを検出する制御装置104と、制御装置104によってユーザーの手2aが検出されたときに、画像2bを3次元表示する制御装置104とを備えるので、画像2bを3次元表示することでユーザーに手2aを検出したことを報知でき、画像2bが見難くならない。
According to the third embodiment described above, the following operational effects can be obtained.
(1) Since the
(2)上記(1)のデジタルフォトフレーム100において、ユーザーの手2aの動きを検出する制御装置104をさらに備え、制御装置104は、ユーザーの手2aの動きが検出された場合には、ユーザーの手2aの動きに応じて、ユーザーの手2aと画像2bとの間の前後方向の距離を変化させるように構成したので、ユーザーは手2aを動かすことによって、直感的に画像2bの操作を指示することができる。
(2) The
(3)上記(2)のデジタルフォトフレーム100において、制御装置104は、ユーザーの手2aの動きに応じて、ユーザーの手2aと画像2bとの間の前後方向の距離を変化させながら画像2bを移動させるように構成したので、手2aの動きに連動して画像2bの操作を行い得ることをユーザーにわかりやすく報知することができる。
(3) In the
(第4の実施の形態)
図面を参照して、本発明による第4の実施の形態について説明する。第4の実施の形態は、動画像を2次元表示させ、動画像を操作するための操作アイコンを3次元表示させるように構成される。なお、第1の実施の形態と画像表示装置の構成(図1)は同様であるため、説明を省略する。
(Fourth embodiment)
A fourth embodiment according to the present invention will be described with reference to the drawings. The fourth embodiment is configured to display a moving image two-dimensionally and to display an operation icon for operating the moving image three-dimensionally. Since the configuration of the first embodiment and the image display apparatus (FIG. 1) are the same, the description thereof is omitted.
第4の実施の形態の制御装置104は、図9(a)に示すように、3Dモニタ106に動画像3を2次元表示させるとともに、3次元位置カメラ102による画像の撮影を行う。
As shown in FIG. 9A, the
そして、制御装置104は、3次元位置検出カメラ102から入力された画像データに基づいて、ユーザーの手2aの3次元位置を検出した場合には、図9(b)に示すように、3Dモニタ106に操作アイコン4a〜4cを画面から手前に飛び出すように3次元表示させる。たとえば、操作アイコン4aは動画像の巻き戻しに対応するアイコンであり、操作アイコン4bは動画像の停止に対応するアイコンであり、操作アイコン4cは動画像の早送りに対応するアイコンである。これにより、ユーザーには、3Dモニタ106に手2aをかざすと、操作アイコン4a〜4cが手2aに吸い寄せられるような感覚を与えることができる。
When the
その後、制御装置104は、手2aの3次元位置が3Dモニタ106に近づく方向に移動したことを検出した場合には、図9(c)に示すように、図9(b)に示した状態から、手2aと操作アイコン4a〜4cとの間の奥行き方向の距離を短くして、操作アイコン4a〜4cの飛び出し量を大きくする。これによって、ユーザーには、手2aを3Dモニタ106に近づけたことにより、さらに操作アイコン4a〜4cが手2aに吸い寄せられてくるような感覚を与えることができる。
Thereafter, when the
またこのとき制御装置104は、手2aの3次元位置に対応する操作アイコン(すなわち手2aの3次元位置と表示位置が最も近い操作アイコン)4aの色を、他の操作アイコン4b、4cと異なる色で表示させることにより、操作アイコン4aを強調表示する。これによって、ユーザーに、操作アイコン4aが操作候補であることを報知することができる。
Further, at this time, the
さらに制御装置104は、図9(d)に示すように、手2aの3次元位置が3Dモニタ106にさらに近づく方向に移動し、手2aと3Dモニタ106との距離が所定値(たとえば5cm)以内になったことを検出した場合には、強調表示していた操作アイコン4aに対応する処理(ここでは動画像3の巻き戻し)を実行する。これにより、ユーザーには、手2aが操作アイコン4aにタッチして操作アイコン4aに対応する処理が実行されたような感覚を与えることができる。
Further, as shown in FIG. 9D, the
一方、制御装置104は、手2aの3次元位置が3Dモニタ106に遠ざかる方向に移動したことを検出した場合には、手2aと操作アイコン4a〜4cとの間の奥行き方向の距離を長くして、操作アイコン4a〜4cの飛び出し量を小さくする。これによって、ユーザーには、手2aを3Dモニタ106から遠ざけたことにより、操作アイコン4a〜4cが手2aから遠ざかったような感覚を与えることができる。
On the other hand, when the
以上説明した第4の実施の形態によれば、以下のような作用効果を得ることができる。
(1)デジタルフォトフレーム100は、ユーザーの手2aを検出する制御装置104と、制御装置104によってユーザーの手2aが検出されたときに、操作アイコン4a〜4cを3次元表示する制御装置104とを備えるので、操作アイコン4a〜4cを3次元表示することでユーザーに手2aを検出したことを報知でき、操作アイコン4a〜4cが見難くならない。
According to the fourth embodiment described above, the following operational effects can be obtained.
(1) The
(2)上記(1)のデジタルフォトフレーム100において、ユーザーの手2aの動きを検出する制御装置104をさらに備え、制御装置104は、ユーザーの手2aの動きが検出された場合には、ユーザーの手2aの動きに応じて、ユーザーの手2aと操作アイコン4a〜4cとの間の前後方向の距離を変化させるように構成したので、ユーザーは手2aを動かすことによって、直感的に操作アイコン4a〜4cの操作を指示することができる。
(2) The
(3)上記(2)のデジタルフォトフレーム100において、制御装置104は、ユーザーの手2aが3Dモニタ106に近づく方向へ動き、ユーザーの手2aと3Dモニタ106との距離が所定値以下になったことを検出した場合には、操作アイコン4aに対応付けられた処理を実行するように構成したので、ユーザーは手2aを動かすことによって、直感的に操作アイコン4aに対応付けられた処理の実行を指示することができる。
(3) In the
(第5の実施の形態)
図面を参照して、本発明による第5の実施の形態について説明する。第5の実施の形態では、第1の実施の形態と、画像2bの再生状態の変更処理が異なっているため、相違点を中心に詳しく説明する。なお、画像2bの再生状態の変更処理以外については、第1の実施の形態と同様のため、説明を省略する。
(Fifth embodiment)
A fifth embodiment according to the present invention will be described with reference to the drawings. The fifth embodiment is different from the first embodiment in the process of changing the reproduction state of the
第5の実施の形態の制御装置104は、ユーザーの手2aの3次元位置を検出した場合には、ユーザーと再生中の画像2bとの間の奥行き方向の距離を視覚的に長くすることにより、図10(a)に示すように、画像2bが奥に沈み込むように3次元表示する。
When detecting the three-dimensional position of the user's
その後、制御装置104は、手2aの3次元位置が3Dモニタ106に近づく方向に移動したことを検出した場合には、図10(b)に示すように、画像2bを徐々に縮小させて表示すると共に、画像2bの周囲に画像2bの前後複数枚の画像(2c〜2j)を縮小して表示する。すなわち、3Dモニタ106には、これらの画像2b〜2jが格子状(たとえば3×3)に並んでサムネイル表示される。なお、サムネイル表示とは、サムネイルと呼ばれる縮小画像を並べて表示することである。また制御装置104は、これらのサムネイル画像2b〜2jを、図10(a)に示した状態から、沈み込み量が大きくなるように3次元表示する。
Thereafter, when the
さらにこのとき制御装置104は、矩形枠であるカーソルCsを、画像2bを囲む位置に表示させる。このカーソルCsは、サムネイル画像を選択するために用いられる。
Further, at this time, the
その後、手2aが上下左右に移動したことを検出した場合には、制御装置104は、手の2aの移動方向に応じてカーソルCsを移動させる。たとえば、図10(b)の状態で手2aが左に移動した場合には、図10(c)に示すように、カーソルCsは画像2bの左隣の画像2iに移動される。
Thereafter, when it is detected that the
この状態で、手2aが3Dモニタ106から遠ざかる方向に移動したことを検出した場合には、制御装置104は、図10(d)に示すように、検出した時点でカーソルCsが位置していた画像2iのみを拡大して表示する。このとき、制御装置104は、拡大した画像2iを、図10(c)に示した状態から、沈み込み量が小さくなるように3次元表示する。
In this state, when it is detected that the
その後、手2aが再び3Dモニタ106に近づく方向に移動したことを検出した場合には、制御装置104は、図10(e)に示すように、再生していた画像2iを徐々に縮小して表示すると共に、画像2iの周囲に画像2iの前後複数枚の画像(2b、2f〜2h、2j〜2m)を縮小表示する。また制御装置104は、これらのサムネイル画像(2b、2f〜2m)を、図10(d)に示した状態から、沈み込み量を大きくするように3次元表示する。
Thereafter, when it is detected that the
さらにこの状態で、手2aの横方向の移動量が所定閾値以上であることにより、手2aが横に大きく移動したことを検出した場合には、制御装置104は、サムネイル表示している9枚の画像(2b、2f〜2m)を、手2aの移動方向にまとめてスライドさせると共に、さらに前または後ろの9枚の画像もスライドさせて表示する。制御装置104は、このとき新たに表示する画像も奥に沈み込むように3次元表示する。なお、制御装置104は、手2aの横方向の移動量が所定閾値未満である場合には、上述したように、手2aの移動に応じてカーソルCsを移動させる。
Further, in this state, when the movement amount of the
また、図10(d)に示した状態で、手2aが3Dモニタ106からさらに遠ざかる方向に移動したことを検出した場合には、制御装置104は、画像2iを2次元表示に戻す。
In the state shown in FIG. 10D, when it is detected that the
このように制御装置104は、手2aが3Dモニタ106に近づくと、サムネイル表示に切り替える。これにより、ユーザーは、画像を奥に押し込むような手2aの動きによって、サムネイル表示を直感的に指示することができる。
As described above, when the
そして、制御装置104は、サムネイル表示の状態において、手2aが上下左右に移動されるとカーソルCsを移動させ、手2aが横に大きく移動されるとサムネイル画像をスライドして切り替える。これにより、ユーザーは、手2aの振りによって、カーソルCsの移動やサムネイル画像の切替えを直感的に指示することができる。
Then, in the thumbnail display state, the
また、制御装置104は、サムネイル表示の状態において、手2aが3Dモニタ106から遠ざかると、カーソルCsによって選択された画像を拡大表示する。これにより、ユーザーは、画像を手前に吸い寄せるような手2aの動きによって、画像の拡大を直感的に指示することができる。
The
以上説明した第5の実施の形態によれば、以下のような作用効果を得ることができる。
(1)デジタルフォトフレーム100は、ユーザーの手2aを検出する制御装置104と、制御装置104によってユーザーの手2aが検出されたときに、画像2bを3次元表示する制御装置104とを備えるので、画像2bを3次元表示することでユーザーに手2aを検出したことを報知でき、画像2bが見難くならない。
According to the fifth embodiment described above, the following operational effects can be obtained.
(1) Since the
(2)上記(1)のデジタルフォトフレーム100において、ユーザーの手2aの動きを検出する制御装置104をさらに備え、制御装置104は、ユーザーの手2aの動きが検出された場合には、ユーザーの手2aの動きに応じて、ユーザーの手2aと画像2bとの間の前後方向の距離を変化させるように構成したので、ユーザーは手2aを動かすことによって、直感的に画像2bの操作を指示することができる。
(2) The
(3)上記(2)のデジタルフォトフレーム100において、制御装置104は、3Dモニタ106に近づく方向へのユーザーの手2aの動きが検出された場合には、画像2bを含む複数枚の画像2b〜2jを縮小して3次元表示するように構成したので、ユーザーは手2aを動かすことによって、直感的に画像2bの縮小表示を指示することができる。
(3) In the
―変形例―
なお、上述した実施の形態のカメラは、以下のように変形することもできる。
(1)上述した実施の形態では、デジタルフォトフレーム100は、フラッシュメモリ等の不揮発性のメモリで構成される記憶媒体105を備え、該記憶媒体105に再生対象の画像データを記録する例について説明した。しかしながら、記憶媒体105の代わりにメモリカードスロットを設け、該メモリカードスロットに記録されている画像データを再生対象とするようにしてもよい。
-Modification-
The camera according to the above-described embodiment can be modified as follows.
(1) In the embodiment described above, an example in which the
(2)上述した実施の形態では、図4や図5に示したように、制御装置104は、ユーザーの手2aの3次元位置が3Dモニタ106に近づいたか遠ざかったかによって画像2bの飛出し量や沈み込み量を変化させる例について説明した。しかしながら、制御装置104は、ユーザーが手2aをかざしている時間の長さに応じて、画像2bの飛出し量や沈み込み量を変化させるようにしてもよい。例えば、図4に示す例では、制御装置104は、ユーザーの手2aの検出を開始してからの経過時間が長くなるほど、徐々に再生中の画像2bの飛出し量を大きくするようにしてもよい。これによって、ユーザーには、手を3Dモニタ106に長くかざすほど、画像が手に吸い寄せられてくるような感覚を与えることができる。あるいは、図5に示す例では、制御装置104は、ユーザーの手2aの検出を開始してからの経過時間が長くなるほど、徐々に再生中の画像2bの沈み込み量を大きくするようにしてもよい。これによって、ユーザーには、手を3Dモニタ106に長くかざすほど、画像が奥に押し込まれていくような感覚を与えることができる。
(2) In the above-described embodiment, as shown in FIGS. 4 and 5, the
(3)上述した実施の形態では、ステップS30において、制御装置104が図4(b)に示すように3次元表示に切り替えるか、図5(b)に示すように3次元表示に切り替えるかは、ユーザーによってあらかじめ選択され、設定されている例について説明した。しかしながら、制御装置104は、ユーザーの手2aの3次元位置を検出した段階では、画像2bを2次元表示したままとし、その後、ユーザーの手2aが3Dモニタ106から遠ざかったことを検出した場合には、図4(b)に示したように画像2bが飛び出すように3次元表示させ、ユーザーの手2aが3Dモニタ106に近づいたことを検出した場合には、図5(b)に示したように画像2bが沈み込むように3次元表示させるようにしてもよい。これにより、ユーザーには、3Dモニタ106から手を遠ざけると、それにともなって画像2bが手に吸い寄せられるような感覚を与えることができる。また、その一方で、3Dモニタ106に手を近づけると、それにともなって画像2bが奥に押し込まれるような感覚を与えることができる。
(3) In the above-described embodiment, whether the
あるいは、制御装置104は、再生中の画像2bに応じて図4(b)に示す3次元表示方法と図5(b)に示す3次元表示方法とを切り替えるようにしてもよい。例えば、再生中の画像2bが風景画である場合には、ユーザーの手2aの3次元位置を検出したときに図5(b)に示す3次元表示に切り替え、再生中の画像2bが風景画以外の場合には、ユーザーの手2aの3次元位置を検出したときに図4(b)に示す3次元表示に切り替えるようにしてもよい。これによって、風景画のように、ユーザー2aから遠くにある景色を再生する場合には、ユーザーに画像2bが奥に沈み込んで遠くに表示されているような感覚を与えることができる。
Alternatively, the
(4)上述した実施の形態では、3次元位置検出カメラ102によって取得された画像内からユーザーの手2aの3次元位置が1つだけ検出される例について説明した。しかしながら、手が複数ある場合には、複数の手の3次元位置が検出されることも考えられる。その場合には、制御装置104は、選択した1つの手に注目して上記処理を行えばよい。例えば、制御装置104は、画像の中心に最も近い位置に存在する手に注目してもよいし、画像内で一番大きく写っている手に注目するようにしてもよい。あるいは、制御装置104は、時間的に最も早く検出した手に注目するようにしてもよい。
(4) In the above-described embodiment, the example in which only one three-dimensional position of the user's
(5)上述した実施の形態では、3次元位置検出カメラ102は、図2に示すように、デジタルフォトフレーム100の前面に配置され、デジタルフォトフレーム100に対面するユーザーを撮影する例について説明した。この場合、3次元位置検出カメラ102に対してユーザーがどの位置に立つかは不明であるため、ユーザーの立つ位置によっては、ユーザーの手2aが3次元位置検出カメラ102の画角内に収まらない可能性がある。よって、これを避けるために、3次元位置検出カメラ102を首振り可能な構成として、3次元位置検出カメラ102は、撮影範囲を変更しながらユーザーの手2aが検出できるカメラの向きを探すようにしてもよい。あるいは、ユーザーの手2aが3次元位置検出カメラ102の画角内に収まっていないことをユーザーに報知して、ユーザーに移動を促すようにしてもよい。ユーザーへの報知は、例えば不図示のスピーカーから音を出力して行ってもよいし、3Dモニタ106上にメッセージを表示するようにしてもよい。この場合、ユーザーの手2aの3次元位置が検出可能になった時点で、再度音やメッセージを出力したり、画像2bに枠を付けて強調表示したりして、ユーザーに手2aの3次元位置が検出可能になったことを報知してもよい。
(5) In the above-described embodiment, the three-dimensional
(6)上述した実施の形態では、制御装置104は、ユーザーの手2aの3次元位置を検出したときに、画像2bを3次元表示する例について説明した。しかしながら、制御装置104は、ユーザーの手2a以外の対象物の3次元位置を検出したときに、画像2bを3次元表示するようにしてもよい。例えば、ユーザーが指示棒を3Dモニタ106にかざす場合には、制御装置104は、指示棒を対象物として検出したときに、画像2bを3次元表示するようにしてもよい。
(6) In the above-described embodiment, the example in which the
(7)上述した実施の形態では、制御装置104は、ユーザーの手2aの3次元位置が3Dモニタ106に対して垂直方向に移動したことを検出したとき、すなわち手2aの3次元位置が3Dモニタ106に近づいたか遠ざかったことを検出したときに、画像2bの飛出し量または沈み込み量を変化させる例について説明した。しかしながら、制御装置104は、ユーザーの手2aの3次元位置が3Dモニタ106に対して水平方向、すなわち横方向に移動したことを検出した場合に、ユーザーの手2aの動きに従って再生中の画像2bを左右に動かすようにしてもよい。これによって、ユーザーは、手の振りによって直感的に画像2bを動かすように指示することができる。あるいは、制御装置104は、ユーザーの手2aの横方向の移動に伴って、再生中の画像2bを拡大、縮小したり、再生中の画像を切り替えたりするようにしてもよい。
(7) In the embodiment described above, the
(8)上述した実施の形態では、制御装置104は、画像2bの再生開始時は2次元表示することとし、ユーザーの手2aを検出したタイミングで3次元表示に切り替える例にすいて説明した。しかしながら、制御装置104は、再生対象の画像2bが3次元画像である場合には、再生開始時から3次元表示するようにしてもよい。また、制御装置104は、再生対象の画像2bが2次元画像であっても再生開始時から3次元表示するようにしてもよい。
(8) In the above-described embodiment, the description has been given of the example in which the
(9)上述した実施の形態では、カメラとして3次元位置検出カメラ102を用いる例について説明した。しかしながら、被写体の3次元位置を検出することができない通常のカメラを用いてもよい。この場合、図3のステップS20では、制御装置104は、カメラで撮影した画像内からユーザーの手2aを検出した場合に肯定判断すればよい。また、ステップS40では、制御装置104は、カメラから時系列で入力される画像データ間での画像内における手2aの位置や大きさの変化を監視することにより、ユーザーの手2aの動きを検出するようにすればよい。
(9) In the above-described embodiment, the example in which the three-dimensional
(10)上述した実施の形態では、画像表示装置としてデジタルフォトフレームを用いる例について説明した。しかしながら、3次元位置検出カメラと3Dモニタとを備え、画像再生機能を有する他の機器、例えばデジタルカメラや携帯電話にも本発明は適用可能である。また、テレビや画像を投影するプロジェクタ装置にも本発明は適用可能である。 (10) In the above-described embodiment, the example in which the digital photo frame is used as the image display device has been described. However, the present invention can also be applied to other devices including a three-dimensional position detection camera and a 3D monitor and having an image reproduction function, such as a digital camera and a mobile phone. The present invention can also be applied to a television or a projector device that projects an image.
(11)上述した第2の実施の形態では、画像2bを徐々に球状に変化させる例について説明した。しかしながら、上述した球状に限ることはなく、画像2bを凸面または凹面の奥行き感を表現できる形状に変化させればよい。たとえば、多角形や円筒状などに変化させるようにしてもよい。
(11) In the above-described second embodiment, the example in which the
(12)上述した第4の実施の形態では、動画像を操作するための操作アイコン4a〜4cを3次元表示させる例について説明した。しかしながら、以下に述べるような画像を3次元表示させてもよい。
(12) In the above-described fourth embodiment, the example in which the
たとえば、変形例12の制御装置104は、電源がオンされると、図11(a)に示すように、3Dモニタ106に、アプリケーションプログラム(以下、アプリと呼ぶ)の起動を指示するためのアイコン(以下、アプリアイコンと呼ぶ)a1〜a9を格子状に並べて2次元表示させる。たとえば、アプリアイコンa7は静止画像を再生するアプリに対応し、アプリアイコンa8は動画像を再生するアプリに対応する。
For example, when the power is turned on, the
そして、制御装置104は、ユーザーの手2aの3次元位置を検出した場合には、図11(b)に示すように、3Dモニタ106に、アプリアイコンa1〜a9を飛び出すように3次元表示させる。
Then, when detecting the three-dimensional position of the user's
その後、制御装置104は、手2aの3次元位置が3Dモニタ106に近づく方向に移動したことを検出した場合には、図11(c)に示すように、図11(b)に示した状態から、手2aとアプリアイコンa1〜a9との間の奥行き方向の距離を短くして、アプリアイコンa1〜a9の飛び出し量を大きくする。
Thereafter, when the
またこのとき制御装置104は、手2aの3次元位置に対応するアプリアイコンa7の色を、他のアプリアイコンa1〜a6、a8、a9と異なる色で表示させることにより、アプリアイコンa7を強調表示する。これによって、ユーザーに、アプリアイコンa7が操作候補であることを報知することができる。
At this time, the
さらに制御装置104は、図11(d)に示すように、手2aの3次元位置が3Dモニタ106にさらに近づく方向に移動し、手2aと3Dモニタ106との距離が所定値(たとえば5cm)以内になったことを検出した場合には、強調表示していたアプリアイコンa7に対応するアプリ(ここでは、静止画像の再生アプリ)を起動する。
Further, as shown in FIG. 11D, the
(13)上述した第4の実施の形態では、手2aの3次元位置に対応する操作アイコン4aの色を異なる色で表示させることで強調表示する例について説明した。しかしながら、強調表示の方法はこれに限らなくてもよく、たとえば、操作アイコン4aを枠で囲んだり、他の操作アイコンよりも大きくしたり、輝度を高めたり、飛び出し量を大きくしたりすることによって強調表示するようにしてもよい。
(13) In the above-described fourth embodiment, the example in which the
(14)なお、上記の各実施の形態では、手の動きにより操作を行ったが、手の動きに加えて、指の動きにより操作を行うようにしてもよい。例えば、指を握った状態から指を広げた状態への変化を検出した場合は、表示している画像を拡大し、逆に、指を広げた状態から指を握った状態への変化を検出した場合は、表示している画像を縮小させる。また、指を立てる本数により、操作を行う例として、指を1本立てたら、動画を通常の速度で再生し、指を2本立てたら、動画を2倍の速度で再生し、指を3本立てたら、動画を4倍の速度で再生するようにする。これにより、操作のバリエーションを増やすことができる。 (14) In each of the above embodiments, the operation is performed by the movement of the hand. However, the operation may be performed by the movement of the finger in addition to the movement of the hand. For example, when a change from a finger grip state to a finger spread state is detected, the displayed image is enlarged, and conversely, a change from a finger spread state to a finger grip state is detected. If so, the displayed image is reduced. In addition, as an example of performing an operation depending on the number of fingers that are raised, if one finger is raised, a movie is played at a normal speed, if two fingers are raised, a movie is played at a double speed, and three fingers are raised. , Play video at 4x speed. Thereby, the variation of operation can be increased.
また、上記の各実施の形態では、手の動きにより操作を行ったが、手の代わりに、頭の動きにより、手の動きと同様の操作を行っても良い。これにより、パソコンを操作する際に、キーボードや、マウスを操作するために、手の動きによる操作ができない場合でも、頭の動きにより操作を行うことができる。 Further, in each of the embodiments described above, the operation is performed by the movement of the hand, but the same operation as the movement of the hand may be performed by the movement of the head instead of the hand. As a result, when operating the personal computer, the keyboard and mouse can be operated, so that the operation can be performed by the movement of the head even when the operation cannot be performed by the movement of the hand.
なお、上記の各実施の形態では、手の動きにより操作を行ったが、手に持っている物体(ペン等)の動きにより操作を行うようにしてもよい。 In each of the above embodiments, the operation is performed by the movement of the hand, but the operation may be performed by the movement of an object (such as a pen) held in the hand.
なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。また、上述の実施の形態どうしを組み合わせてもよいし、上述の実施の形態と複数の変形例を組み合わせた構成としてもよい。 Note that the present invention is not limited to the configurations in the above-described embodiments as long as the characteristic functions of the present invention are not impaired. Further, the above-described embodiments may be combined, or the above-described embodiment and a plurality of modifications may be combined.
100 デジタルフォトフレーム、101 操作部材、102 3次元位置検出カメラ、103 接続IF、104 制御装置、105 記憶媒体、106 3Dモニタ
DESCRIPTION OF
Claims (14)
前記検出手段によって前記対象物体が検出されたときに、画像を3次元表示する表示制御手段とを備えることを特徴とする画像表示装置。 Detection means for detecting a target object;
An image display apparatus comprising: a display control unit that three-dimensionally displays an image when the target object is detected by the detection unit.
前記検出手段は、前記対象物体の位置を検出することを特徴とする画像表示装置。 The image display device according to claim 1,
The image display apparatus characterized in that the detection means detects the position of the target object.
前記対象物体の動きを検出する動き検出手段をさらに備え、
前記表示制御手段は、前記動き検出手段によって前記対象物体の動きが検出された場合には、前記対象物体の動きに応じて、前記対象物体と前記画像との間の前後方向の距離を変化させることを特徴とする画像表示装置。 The image display device according to claim 2,
Further comprising motion detection means for detecting the motion of the target object,
When the movement of the target object is detected by the movement detection unit, the display control unit changes a distance in the front-rear direction between the target object and the image according to the movement of the target object. An image display device characterized by that.
前記表示制御手段は、前記対象物体と前記画像との間の前後方向の距離が視覚的に常に一定になるように変化させることを特徴とする画像表示装置。 The image display device according to claim 3,
The image display apparatus according to claim 1, wherein the display control unit changes the distance in the front-rear direction between the target object and the image so that the distance is visually constant.
前記表示制御手段は、前記対象物体と前記画像との間の前後方向の距離を視覚的に短くすることにより、前記画像が手前に飛び出すように3次元表示することを特徴とする画像表示装置。 In the image display device according to any one of claims 2 to 4,
The display control means displays the image in a three-dimensional manner so that the image jumps forward by visually shortening a distance in the front-rear direction between the target object and the image.
前記表示制御手段は、前記画像を視覚的に前記対象物体に近い位置まで飛び出させることを特徴とする画像表示装置。 The image display device according to claim 5,
The image display apparatus, wherein the display control means causes the image to jump out visually to a position close to the target object.
前記表示制御手段は、前記対象物体と前記画像との間の前後方向の距離を視覚的に長くすることにより、前記画像が奥に沈み込むように3次元表示することを特徴とする画像表示装置。 In the image display device according to any one of claims 2 to 4,
The display control means performs three-dimensional display so that the image sinks deeply by visually increasing the distance in the front-rear direction between the target object and the image. .
前記表示制御手段は、前記対象物体と前記画像との間の前後方向の距離を視覚的に短くすることにより、前記画像が手前に飛び出すように3次元表示する第1の方法と、前記対象物体と前記画像との間の前後方向の距離を視覚的に長くすることにより、前記画像が奥に沈み込むように3次元表示する第2の方法とを切り替えることを特徴とする画像表示装置。 In the image display device according to any one of claims 2 to 4,
The display control means includes a first method for performing a three-dimensional display so that the image jumps forward by visually shortening a distance in the front-rear direction between the target object and the image; and the target object An image display device characterized by switching a second method for three-dimensional display so that the image sinks deeply by visually increasing a distance in the front-rear direction between the image and the image.
前記表示制御手段は、前記画像に応じて、または前記対象物体の移動方向に応じて、前記第1の方法と前記第2の方法とを切り替えることを特徴とする画像表示装置。 The image display device according to claim 8,
The image display apparatus, wherein the display control unit switches between the first method and the second method according to the image or according to a moving direction of the target object.
前記対象物体は、人物の手であることを特徴とする画像表示装置。 In the image display device according to any one of claims 1 to 7,
The image display device, wherein the target object is a human hand.
前記表示制御手段は、前記検出手段によって前記対象物体が検出されたときに、前記画像の形状を変化させると共に前記形状に応じた奥行きを視覚的に与えるように3次元表示することを特徴とする画像表示装置。 In the image display device according to any one of claims 1 to 4,
The display control means performs three-dimensional display so as to change the shape of the image and visually give a depth corresponding to the shape when the target object is detected by the detection means. Image display device.
前記表示制御手段は、前記対象物体の動きに応じて、前記対象物体と前記画像との間の前後方向の距離を変化させながら前記画像を移動させることを特徴とする画像表示装置。 The image display device according to claim 3,
The image display apparatus according to claim 1, wherein the display control unit moves the image while changing a distance in the front-rear direction between the target object and the image according to the movement of the target object.
前記対象物体が表示部に近づく方向へ動き、前記対象物体と表示部との距離が所定値以下になったことが前記動き検出手段によって検出された場合には、前記画像に対応付けられた処理を実行する処理実行部をさらに備えることを特徴とする画像表示装置。 The image display device according to claim 3,
When the movement detection unit detects that the target object moves in a direction approaching the display unit and the distance between the target object and the display unit is a predetermined value or less, a process associated with the image An image display device further comprising a processing execution unit for executing the above.
前記表示制御手段は、前記動き検出手段によって表示部に近づく方向への前記対象物体の動きが検出された場合には、前記画像を含む複数枚の画像を縮小して3次元表示することを特徴とする画像表示装置。 The image display device according to claim 3,
The display control unit reduces and displays a plurality of images including the image in a three-dimensional manner when the movement of the target object in the direction approaching the display unit is detected by the movement detection unit. An image display device.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011187402A JP5360166B2 (en) | 2010-09-22 | 2011-08-30 | Image display device |
US13/238,395 US20120069055A1 (en) | 2010-09-22 | 2011-09-21 | Image display apparatus |
CN2011102910629A CN102413346A (en) | 2010-09-22 | 2011-09-22 | Image display apparatus |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010212002 | 2010-09-22 | ||
JP2010212002 | 2010-09-22 | ||
JP2011187402A JP5360166B2 (en) | 2010-09-22 | 2011-08-30 | Image display device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012088688A true JP2012088688A (en) | 2012-05-10 |
JP5360166B2 JP5360166B2 (en) | 2013-12-04 |
Family
ID=46260327
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011187402A Active JP5360166B2 (en) | 2010-09-22 | 2011-08-30 | Image display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5360166B2 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014022490A1 (en) * | 2012-07-31 | 2014-02-06 | Intel Corporation | Context-driven adjustment of camera parameters |
JP2014179099A (en) * | 2013-03-14 | 2014-09-25 | Samsung Electronics Co Ltd | Object operation method and apparatus of user apparatus |
WO2014162757A1 (en) * | 2013-04-04 | 2014-10-09 | ソニー株式会社 | Information processing apparatus, tagging method and program |
US9330470B2 (en) | 2010-06-16 | 2016-05-03 | Intel Corporation | Method and system for modeling subjects from a depth map |
US9477303B2 (en) | 2012-04-09 | 2016-10-25 | Intel Corporation | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface |
US9910498B2 (en) | 2011-06-23 | 2018-03-06 | Intel Corporation | System and method for close-range movement tracking |
US10136226B2 (en) | 2012-12-18 | 2018-11-20 | Tdk Corporation | Top-port MEMS microphone and method of manufacturing the same |
JP2019527435A (en) * | 2016-10-24 | 2019-09-26 | 中国移動通信有限公司研究院China Mobile Communication Co., Ltd Research Institute | Operation method and apparatus applicable to space system, and storage medium |
US11048333B2 (en) | 2011-06-23 | 2021-06-29 | Intel Corporation | System and method for close-range movement tracking |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08167048A (en) * | 1994-12-13 | 1996-06-25 | Yokogawa Electric Corp | Three-dimensional image display device |
JP2002049004A (en) * | 2000-07-31 | 2002-02-15 | Mixed Reality Systems Laboratory Inc | Display controller and method |
JP2004328566A (en) * | 2003-04-28 | 2004-11-18 | Sharp Corp | Content display device and content display program |
JP2005141102A (en) * | 2003-11-07 | 2005-06-02 | Pioneer Electronic Corp | Stereoscopic two-dimensional image display device and its method |
JP2007101804A (en) * | 2005-10-03 | 2007-04-19 | Pioneer Electronic Corp | Image display device and program |
JP2009042314A (en) * | 2007-08-06 | 2009-02-26 | Sharp Corp | Visual distance control type display device |
JP2010081466A (en) * | 2008-09-29 | 2010-04-08 | Hitachi Ltd | Operation control device and operation display method |
-
2011
- 2011-08-30 JP JP2011187402A patent/JP5360166B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08167048A (en) * | 1994-12-13 | 1996-06-25 | Yokogawa Electric Corp | Three-dimensional image display device |
JP2002049004A (en) * | 2000-07-31 | 2002-02-15 | Mixed Reality Systems Laboratory Inc | Display controller and method |
JP2004328566A (en) * | 2003-04-28 | 2004-11-18 | Sharp Corp | Content display device and content display program |
JP2005141102A (en) * | 2003-11-07 | 2005-06-02 | Pioneer Electronic Corp | Stereoscopic two-dimensional image display device and its method |
JP2007101804A (en) * | 2005-10-03 | 2007-04-19 | Pioneer Electronic Corp | Image display device and program |
JP2009042314A (en) * | 2007-08-06 | 2009-02-26 | Sharp Corp | Visual distance control type display device |
JP2010081466A (en) * | 2008-09-29 | 2010-04-08 | Hitachi Ltd | Operation control device and operation display method |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9330470B2 (en) | 2010-06-16 | 2016-05-03 | Intel Corporation | Method and system for modeling subjects from a depth map |
US9910498B2 (en) | 2011-06-23 | 2018-03-06 | Intel Corporation | System and method for close-range movement tracking |
US11048333B2 (en) | 2011-06-23 | 2021-06-29 | Intel Corporation | System and method for close-range movement tracking |
US9477303B2 (en) | 2012-04-09 | 2016-10-25 | Intel Corporation | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface |
WO2014022490A1 (en) * | 2012-07-31 | 2014-02-06 | Intel Corporation | Context-driven adjustment of camera parameters |
US10136226B2 (en) | 2012-12-18 | 2018-11-20 | Tdk Corporation | Top-port MEMS microphone and method of manufacturing the same |
JP2014179099A (en) * | 2013-03-14 | 2014-09-25 | Samsung Electronics Co Ltd | Object operation method and apparatus of user apparatus |
WO2014162757A1 (en) * | 2013-04-04 | 2014-10-09 | ソニー株式会社 | Information processing apparatus, tagging method and program |
JP2019527435A (en) * | 2016-10-24 | 2019-09-26 | 中国移動通信有限公司研究院China Mobile Communication Co., Ltd Research Institute | Operation method and apparatus applicable to space system, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP5360166B2 (en) | 2013-12-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5360166B2 (en) | Image display device | |
JP5087532B2 (en) | Terminal device, display control method, and display control program | |
EP3226537B1 (en) | Mobile terminal and method for controlling the same | |
JP6012384B2 (en) | Video playback device, display control method, program, and storage medium | |
JP5487679B2 (en) | Information processing apparatus, information processing method, and information processing program | |
KR101889855B1 (en) | Electronic apparatus and control method of the same | |
US20120069055A1 (en) | Image display apparatus | |
US20140184867A1 (en) | Electronic apparatus and a method for controlling the same | |
JP5769277B2 (en) | Input device, input method, and program | |
JP2013232200A (en) | Image display device | |
US10222950B2 (en) | Image processing apparatus and method | |
KR20150139159A (en) | Photographing apparatus and method for making a video | |
US20150084893A1 (en) | Display device, method for controlling display, and recording medium | |
JP6699589B2 (en) | Display device and display method | |
TW201301131A (en) | Image processing apparatus and method, and program | |
JP5220157B2 (en) | Information processing apparatus, control method therefor, program, and storage medium | |
US10527911B2 (en) | Electronic apparatus configured to select positions on a display unit by touch operation and control method thereof | |
CN114071011B (en) | Display control apparatus, control method for controlling the same, and recording medium | |
JP2009164757A (en) | Image display apparatus and imaging apparatus | |
US11048400B2 (en) | Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium | |
JP5335474B2 (en) | Image processing apparatus and image processing method | |
CA2935233A1 (en) | Universal capture | |
JP6120541B2 (en) | Display control apparatus and control method thereof | |
JP6362110B2 (en) | Display control device, control method therefor, program, and recording medium | |
US20230254555A1 (en) | Electronic apparatus, control method therefor, and computer-readable storage medium storing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120919 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121002 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130326 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130520 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130806 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130819 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5360166 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |