JP5864043B2 - 表示装置、操作入力方法、操作入力プログラム、及び記録媒体 - Google Patents
表示装置、操作入力方法、操作入力プログラム、及び記録媒体 Download PDFInfo
- Publication number
- JP5864043B2 JP5864043B2 JP2011088496A JP2011088496A JP5864043B2 JP 5864043 B2 JP5864043 B2 JP 5864043B2 JP 2011088496 A JP2011088496 A JP 2011088496A JP 2011088496 A JP2011088496 A JP 2011088496A JP 5864043 B2 JP5864043 B2 JP 5864043B2
- Authority
- JP
- Japan
- Prior art keywords
- operation input
- input body
- display
- display device
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
(実施形態1)
(表示装置100の概要)
まず、本発明に係る表示装置の実施形態1について説明する。図1は、実施形態1に係る表示装置100の外観を示す図である。
表示装置100は、ディスプレイ102を備えている。表示装置100は、文字、図形、写真、映像等の、何らかの画像を、ディスプレイ102に表示することができる装置である。表示装置100としては、例えば、テレビジョン受像機、コンピュータ本体とは別体に設けられたモニタ、コンピュータ本体とモニタとが一体に設けられた装置等が挙げられる。また、ディスプレイ102としては、液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイ、ブラウン管ディスプレイ等が挙げられる。
表示装置100は、カメラ104を備えている。カメラ104は、表示装置100の前方を撮像方向としている。すなわち、カメラ104は、表示装置100の前方の空間を撮像する。図1に示す例では、カメラ104は、ディスプレイ102の上方、且つ表示装置100の左右方向における略中央に設けられている。なお、カメラ104の設置位置は、これに限らない。カメラ104は、少なくともディスプレイ102の前方の空間を撮像できれば良く、どのような位置に設けられても良い。また、カメラ104は、表示装置100と一体に設けられているものであっても良く、表示装置100とは別体に設けられているものであっても良い。また、カメラ104は、複数設けられていても良い。
ここで、ディスプレイ102に表示されたオブジェクトが立体視される様子について説明する。図2は、ディスプレイ102に表示されたオブジェクトが立体視される様子を示す図である。表示装置100は、オブジェクトを立体視可能に表示することにより、オブジェクトの立体画像をユーザに視認させることができる装置である。
ここで、ユーザは、ディスプレイ102に表示されたオブジェクトに対する、操作入力を行うことができる。オブジェクトに対する操作としては、例えば、押下、移動、拡大、縮小、回転などが挙げられる。オブジェクトに対して予め定められた操作が行われると、表示装置100においては、この操作に予め対応付けられているイベントが発生する。これに応じて、表示装置100は、オブジェクトに対して、発生したイベントに応じた処理を実行するのである。
ここで、表示装置100の機能構成について説明する。ここでは、表示装置100が備える機能のうち、表示装置100に対する操作入力を行うための操作入力部200及びこれに関連する機能について説明する。その他の機能については、表示装置が備える一般的な機能であるため、図示及び説明を省略する。
操作入力体位置検出部202は、表示装置100に対して操作入力を行うための操作入力体の位置を検出する。具体的には、操作入力体位置検出部202は、カメラ104から得られた情報に基づいて、操作入力体の位置を検出する。
視認位置特定部204は、オブジェクトの立体画像の表示位置(すなわち、ディスプレイ102に表示されたオブジェクトの立体画像がユーザによって視認される視認位置)を特定する。
判断部206は、操作入力体の位置とオブジェクトの立体画像の表示位置とが予め定められた近接関係を有しているか否かを判断する。そして、判断部206は、操作入力体の位置とオブジェクトの立体画像の表示位置とが予め定められた近接関係を有していると判断した場合、オブジェクトを操作可能な状態(操作受付状態)へと切り替える。具体的には、判断部206は、操作入力体位置検出部202によって検出された操作入力体の位置と、視認位置特定部204によって特定されたオブジェクトの立体画像の表示位置とが、一致している場合、これら位置が近接関係を有していると判断する。また、判断部206は、上記操作入力体の位置と、上記オブジェクトの立体画像の表示位置と位置とが、一致していなくとも、これら位置間の距離が予め定められた距離よりも短い場合には、これら位置が近接関係を有していると判断する。
操作入力体動作検出部208は、操作入力体の動作を検出する。具体的には、操作入力体動作検出部208は、カメラ104から得られた情報に基づいて、操作入力体の動作を検出する。
処理実行制御部210は、オブジェクトが操作可能な状態において、操作入力体動作検出部208によって操作入力体の動作が検出された場合、当該操作入力体の動作に予め対応付けられている処理を、処理実行部214に実行させる。具体的には、処理実行制御部210は、オブジェクトに対する操作入力イベントであって、操作入力体の動作に予め対応付けられている操作入力イベントを発生させる。これにより、処理実行制御部210は、操作入力体の動作に予め対応付けられている処理を、処理実行部に実行させる。
表示制御部212は、オブジェクトが操作可能な状態にある場合と、オブジェクトが操作可能な状態にない場合とで、オブジェクトの表示形態を異ならせる。ここでいうオブジェクトの表示形態とは、色、明るさ、形状、向き、大きさ、模様等である。
処理実行部214は、操作入力体の動作に予め対応付けられている処理を実行する。具体的には、処理実行部214は、操作対象のオブジェクトに対して、処理実行制御部210が発生させた操作入力イベントに応じた処理を実行する。ここでいう、処理実行部214が実行する処理は、どのようなものであっても良い。例えば、処理実行部214が実行する処理としては、オブジェクトの表示位置や表示形態等を変更する処理等が挙げられる。他の例として、オブジェクトの表示位置や表示形態等の変更に伴って、何らかのアプリケーションプログラムを実行する処理や、オブジェクトの表示位置や表示形態等の変更を伴わず、何らかのアプリケーションプログラムを実行する処理等が挙げられる。
続いて、表示装置100による操作入力処理の手順について説明する。図4は、表示装置100による操作入力処理の手順を示すフローチャートである。ここでは、既に、オブジェクトがディスプレイ102に表示されているものとして、表示装置100による操作入力処理の手順を説明する。
ここで、操作入力体動作検出部208によって検出される、操作入力体の状態の具体的な例について説明する。
続いて、操作入力体動作検出部208によって検出される、操作入力体の動作(第1の動作)の具体的な例について説明する。
続いて、操作入力体動作検出部208によって検出される、操作入力体の動作(第3の動作)の具体的な例について説明する。
続いて、操作入力体動作検出部208によって検出される、操作入力体の動作(第2の動作)の具体的な例について説明する。
図9は、操作入力体の動作である「MOVE」動作を示す。「MOVE」動作とは、オブジェクトの表示位置を移動させる動作を意味する。ユーザは、操作入力体の状態を「CLOSE」状態としたまま、操作入力体の位置を移動させる。すなわち、操作入力体の位置が連続して変化することになる。これにより、操作入力体動作検出部208は、操作入力体によって「MOVE」動作が行われたと判断する。表示装置100は、この「MOVE」動作に応じて、オブジェクトの表示位置を移動する。
図10は、操作入力体の動作である「ROUND」動作を示す。「ROUND」動作とは、オブジェクトの向きを回転させる動作を意味する。ユーザは、操作入力体の状態を「CLOSE」状態としたまま、手400を回転させる。このときの回転軸は、操作入力体位置検出部202によって識別することができる。このとき、P1及びP2は、上記回転軸を中心とした円弧上を移動することになる。これにより、操作入力体動作検出部208は、操作入力体によって「ROUND」動作が行われたと判断する。そして、操作入力体位置検出部202は、P1及びP2の移動前の位置と、P1及びP2の移動後の位置とがなす角度を算出する。表示装置100は、この「ROUND」動作に応じて、オブジェクトを回転させる。
図11は、操作入力体の動作である「THROW」動作を示す。「THROW」動作とは、オブジェクトの位置を移動させながら、オブジェクトを開放する動作を意味する。ユーザは、操作入力体の状態を「CLOSE」状態としたまま、操作入力体の位置を移動させると同時に、「RELEASE」動作を行う。すなわち、ユーザは、「MOVE」動作を行うと同時に、「RELEASE」動作を行う。操作入力体動作検出部208は、この時の移動速度を算出する。そして、算出された移動速度が、予め定められている速度よりも速い場合、操作入力体動作検出部208は、操作入力体によって「THROW」動作が行われたと判断する。表示装置100は、この「THROW」動作に応じて、オブジェクトの位置を移動する。具体的には、「MOVE」動作を行われている間、表示装置100は、その「MOVE」動作に応じた方向にオブジェクトを移動させる。そして、「RELEASE」動作が行われた後も、表示装置100は、「MOVE」動作に応じた方向に、オブジェクトを移動させる。このとき、表示装置100は、徐々に移動速度を減衰させながら、オブジェクトを移動させる。そして、表示装置100は、移動速度が0になって時点で、オブジェクトを停止させる。すなわち、表示装置100は、あたかも「MOVE」動作の惰性によりオブジェクトが移動するかのように、オブジェクトを移動させる。
図12は、操作入力体の動作である「SELECT」動作を示す。「SELECT」動作とは、オブジェクトを選択する動作を意味する。ユーザは、オブジェクトが操作可能な状態のときに、操作入力体の状態を、順に、「OPEN」状態、「CLOSE」状態、「OPEN」状態へと変化させる。表示装置100は、この「SELECT」動作に応じて、オブジェクトを選択する。すなわち、表示装置100は、オブジェクトがフォーカスされている状態とする。このとき、表示装置100は、オブジェクトの表示形態を変化させる等により、オブジェクトがフォーカスされていることを、ユーザが容易に認識できるようにしても良い。
図13は、操作入力体の動作である「EXECUTE」動作を示す。「EXECUTE」動作とは、オブジェクトに対応付けられたプログラムの実行を指示する動作を意味する。ユーザは、オブジェクトが操作可能な状態のとき、あるいは、オブジェクトがフォーカスされている状態のときに、操作入力体の状態を、順に、「OPEN」状態、「CLOSE」状態、「OPEN」状態、「CLOSE」状態、「OPEN」状態へと変化させる。表示装置100は、この「EXECUTE」動作に応じて、オブジェクトに対応付けられたプログラムを実行する。このとき、表示装置100は、オブジェクトの表示形態を変化させる等により、オブジェクトに対応付けられたプログラムが実行されたことを、ユーザが容易に認識できるようにしても良い。
(判断部による判断処理)
続いて、判断部206による判断処理の具体的な例について説明する。図14は、判断部206による判断処理を具体的に説明するための図である。既に説明したとおり、判断部206は、操作入力体の位置とオブジェクトの立体画像の表示位置とが予め定められた近接関係を有しているか否かを判断する。
以上説明したように、本実施形態の表示装置100は、操作入力体の位置とオブジェクトの立体画像の視認位置とが予め定められた近接関係を有しており、且つ、操作入力体による所定の動作を検出した場合に、オブジェクトに対する操作入力が行われる構成を採用している。
実施形態では、操作入力体の一例として、ユーザの指を採用した。特に、操作入力体の一例として、ユーザの人差し指及び親指を採用した。これに限らず、操作入力体として、ユーザの他の指や、ユーザの指以外の部位や、ユーザによる保持及び動作が可能な何らかの物体を採用しても良い。
実施形態では、2つの操作入力体(ユーザの人差し指及び親指)によって操作入力を行う構成を採用した。これに限らず、1つの操作入力体、あるいは3つ以上の操作入力体によって、操作入力を行う構成を採用しても良い。
実施形態で説明した表示装置100は、2つの操作入力体(ユーザの人差し指及び親指)によって、オブジェクトに対する操作入力を行うことができるので、リモコンやタッチパネル等の物理的な入力デバイスを備えていなくても良い。但し、表示装置100は、リモコンやタッチパネル等の物理的な入力デバイスを備えていても良い。この場合、表示装置100は、これら入力デバイスによっても、オブジェクトに対する操作入力を行うことができるものであっても良い。
実施形態では、カメラ104から得られた情報に基づいて、操作入力体の位置を検出する構成を採用した。これに限らず、他の検出方法により、操作入力体の位置を検出する構成を採用しても良い。例えば、赤外線センサ、超音波センサ、レーザセンサ等によって、操作入力体の位置を検出する構成を採用しても良い。
実施形態では、オブジェクトの操作が可能な状態と、オブジェクトの操作が不可能な状態とで、オブジェクトの表示形態を異ならせる構成を採用している。これにより、オブジェクトの操作が可能な状態か否かについて、ユーザが容易に認識できるようになっている。これに限らず、他の方法によって、オブジェクトの操作が可能な状態か否かを、ユーザに認識させることが可能な構成を採用しても良い。例えば、オブジェクトの操作が可能な状態と、オブジェクトの操作が不可能な状態とで、異なる音を発する構成を採用しても良い。
実施形態では、オブジェクトの操作が可能な状態と、オブジェクトの操作が不可能な状態とで、オブジェクトの表示形態を異ならせる構成を採用している。これ以外の場合にも、オブジェクトの表示形態を異ならせるようにしても良い。例えば、操作入力体の位置と視認位置とが近接関係を有していると判断されている状態と、判断されていない状態とで、オブジェクトの表示形態を異ならせるようにしても良い。また、オブジェクトのある動作(例えば、「OPEN」動作)が検出されている状態と、検出されていない状態とで、オブジェクトの表示形態を異ならせるようにしても良い。
実施形態では、視認位置特定部204によって特定される、オブジェクトの立体画像の表示位置を、オブジェクト画像の表示位置(オブジェクトの左目用画像と右目用画像との代表点の位置)の真正面の位置であり、且つ、ディスプレイ102の表面から予め定められた距離分離れた位置としている。
表示装置100は、オブジェクトの立体画像の視認位置が、ディスプレイ102の後方(z−方向)の空間上となるように、オブジェクトを表示することができものであっても良い。この場合、表示装置100は、オブジェクトの立体画像の視認位置が、ディスプレイ102の後方の空間上となるようにオブジェクトを表示した場合に、実施形態の構成(ディスププレイ102の前方の空間上で、操作入力体による操作入力を行う構成)と同様の構成により、ディスプレイ102の後方の空間上で、操作入力体による操作入力が可能な構成を有していても良い。
(プログラム、記憶媒体)
実施形態および実施形態の各変形例で説明した表示装置100の各機能は、集積回路(ICチップ)上に形成された論理回路によってハードウェア的に実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェア的に実現してもよい。
102 ディスプレイ
104 カメラ
200 操作入力部
202 操作入力体位置検出部(操作入力体位置検出手段)
204 視認位置特定部(視認位置特定手段)
206 判断部(判断手段)
208 操作入力体動作検出部(操作入力体動作検出手段)
210 処理実行制御部(処理実行制御手段)
212 表示制御部(表示制御手段)
Claims (10)
- ディスプレイにオブジェクトを立体視可能に表示することにより前記オブジェクトの立体画像をユーザに視認させる表示装置において、
当該表示装置に対して操作入力を行うための操作入力体の位置を検出する操作入力体位置検出手段と、
前記オブジェクトの立体画像がユーザによって視認される視認位置を、ある基準点からの3次元位置として表されるユーザの左目の位置とユーザの右目の位置とから、特定する視認位置特定手段と、
前記操作入力体の位置と前記視認位置とが予め定められた近接関係にあるか否かを判断し、前記操作入力体の位置と前記視認位置とが予め定められた近接関係にあると判断した場合、前記オブジェクトを操作受付状態へと切り替える判断手段と、
前記操作入力体の動作を検出する操作入力体動作検出手段と、
前記オブジェクトが操作受付状態にあり、且つ、前記操作入力体動作検出手段によって前記操作入力体の動作が検出された場合、当該操作入力体の動作に予め対応付けられている処理を、処理実行部に実行させる処理実行制御手段とを備え、
前記操作入力体位置検出手段は、予め定められた形状または色を有する前記操作入力体を認識し、認識した前記操作入力体の位置を検出することを特徴とする表示装置。 - 前記判断手段は、
前記操作入力体の位置と前記視認位置とが一致している場合に、前記操作入力体の位置と前記視認位置とが前記近接関係にあると判断する
ことを特徴とする請求項1に記載の表示装置。 - 前記判断手段は、
前記操作入力体の位置と前記視認位置との距離が予め定められた距離よりも短い場合に、前記操作入力体の位置と前記視認位置とが前記近接関係にあると判断する
ことを特徴とする請求項1または2に記載の表示装置。 - 前記判断手段は、
前記操作入力体の位置と前記視認位置とが予め定められた近接関係にあると判断し、且つ、前記オブジェクトを操作受付状態とするための第1の動作が検出された場合に、前記オブジェクトを操作受付状態へと切り替え、
前記処理実行制御手段は、
前記オブジェクトが操作受付状態にあり、且つ、前記オブジェクトの操作内容を示す第2の動作が検出された場合、当該第2の動作に予め対応付けられている処理を、処理実行部に実行させる
ことを特徴とする請求項1から3のいずれか一項に記載の表示装置。 - 前記オブジェクトが操作受付状態にある場合と、前記オブジェクトが操作受付状態にない場合とで、前記オブジェクトの表示形態を異ならせる表示制御手段
をさらに備えることを特徴とする請求項4に記載の表示装置。 - 前記操作入力体が複数の部位から構成されているとき、
前記操作入力体位置検出手段は、
前記操作入力体の複数の部位のそれぞれの位置を検出し、
前記操作入力体動作検出手段は、
前記複数の部位のそれぞれの位置に基づいて、前記操作入力体による動作を検出する
ことを特徴とする請求項1から5のいずれか一項に記載の表示装置。 - 前記表示装置は、さらに、カメラを備えており、
前記操作入力体動作検出手段はカメラから得られた情報に基づいて、操作入力体の位置を検出することを特徴とする請求項1から6のいずれか一項に記載の表示装置。 - ディスプレイにオブジェクトを立体視可能に表示することにより前記オブジェクトの立体画像をユーザに視認させる表示装置に対する操作入力方法であって、
前記表示装置に対して操作入力を行うための操作入力体の位置を検出する操作入力体位置検出工程と、
前記オブジェクトの立体画像がユーザによって視認される視認位置を、ある基準点からの3次元位置として表されるユーザの左目の位置とユーザの右目の位置とから、特定する視認位置特定工程と、
前記操作入力体の位置と前記視認位置とが予め定められた近接関係にあるか否かを判断し、前記操作入力体の位置と前記視認位置とが予め定められた近接関係にあると判断した場合、前記オブジェクトを操作受付状態へと切り替える判断工程と、
前記操作入力体の動作を検出する操作入力体動作検出工程と、
前記オブジェクトが操作受付状態にあり、且つ、前記操作入力体動作検出工程によって前記操作入力体の動作が検出された場合、当該操作入力体の動作に予め対応付けられている処理を、処理実行部に実行させる処理実行制御工程とを含み、
前記操作入力体位置検出工程において、予め定められた形状または色を有する前記操作入力体を認識し、認識した前記操作入力体の位置を検出することを特徴とする操作入力方法。 - 請求項1から7のいずれか一項に記載の表示装置を動作させるための操作入力プログラムであって、コンピュータを上記の各手段として機能させるための操作入力プログラム。
- 請求項9に記載の操作入力プログラムを記録しているコンピュータ読み取り可能な記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011088496A JP5864043B2 (ja) | 2011-04-12 | 2011-04-12 | 表示装置、操作入力方法、操作入力プログラム、及び記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011088496A JP5864043B2 (ja) | 2011-04-12 | 2011-04-12 | 表示装置、操作入力方法、操作入力プログラム、及び記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012221370A JP2012221370A (ja) | 2012-11-12 |
JP5864043B2 true JP5864043B2 (ja) | 2016-02-17 |
Family
ID=47272765
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011088496A Expired - Fee Related JP5864043B2 (ja) | 2011-04-12 | 2011-04-12 | 表示装置、操作入力方法、操作入力プログラム、及び記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5864043B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7291663B2 (ja) | 2020-04-24 | 2023-06-15 | Towa株式会社 | 位置決め装置、位置決め方法、樹脂成形システムおよび樹脂成形品の製造方法 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6099943B2 (ja) * | 2012-11-20 | 2017-03-22 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP2016110250A (ja) * | 2014-12-03 | 2016-06-20 | 日本ユニシス株式会社 | ジェスチャ認識システム、ジェスチャ認識方法およびコンピュータプログラム |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3258562B2 (ja) * | 1996-05-21 | 2002-02-18 | 富士通株式会社 | 空中像入出力装置及び方法 |
ATE232621T1 (de) * | 1996-12-20 | 2003-02-15 | Hitachi Europ Ltd | Verfahren und system zur erkennung von handgesten |
JP3879510B2 (ja) * | 2001-10-11 | 2007-02-14 | セイコーエプソン株式会社 | 立体表示装置 |
JP2004334590A (ja) * | 2003-05-08 | 2004-11-25 | Denso Corp | 操作入力装置 |
US7874917B2 (en) * | 2003-09-15 | 2011-01-25 | Sony Computer Entertainment Inc. | Methods and systems for enabling depth and direction detection when interfacing with a computer program |
US10279254B2 (en) * | 2005-10-26 | 2019-05-07 | Sony Interactive Entertainment Inc. | Controller having visually trackable object for interfacing with a gaming system |
JP2005196530A (ja) * | 2004-01-08 | 2005-07-21 | Alpine Electronics Inc | 空間入力装置及び空間入力方法 |
US9696808B2 (en) * | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
US20080231926A1 (en) * | 2007-03-19 | 2008-09-25 | Klug Michael A | Systems and Methods for Updating Dynamic Three-Dimensional Displays with User Input |
JP5263833B2 (ja) * | 2009-05-18 | 2013-08-14 | 国立大学法人 奈良先端科学技術大学院大学 | ウェアラブルコンピュータに用いるリング型インタフェース、インタフェース装置、およびインタフェース方法 |
JP4701424B2 (ja) * | 2009-08-12 | 2011-06-15 | 島根県 | 画像認識装置および操作判定方法並びにプログラム |
-
2011
- 2011-04-12 JP JP2011088496A patent/JP5864043B2/ja not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7291663B2 (ja) | 2020-04-24 | 2023-06-15 | Towa株式会社 | 位置決め装置、位置決め方法、樹脂成形システムおよび樹脂成形品の製造方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2012221370A (ja) | 2012-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10948993B2 (en) | Picture-taking within virtual reality | |
KR102187974B1 (ko) | 가상 시점 화상의 생성에 관한 정보 처리 장치, 방법 및 프로그램 | |
JP5450791B2 (ja) | 立体表示装置及び立体撮影装置、並びに利き目判定方法及びこれに用いる利き目判定プログラム並びに記録媒体 | |
JP2011081480A (ja) | 画像入力システム | |
US8947352B2 (en) | Image processing apparatus capable of displaying operation item, method of controlling the same, image pickup apparatus, and storage medium | |
EP2525580B1 (en) | Dynamically configurable 3D display | |
KR101893275B1 (ko) | 프리뷰 인터페이스 선택 영역의 줌인 방법 및 장치 | |
JP5676608B2 (ja) | 立体表示装置、立体撮影装置、および指示判定方法 | |
JP5766019B2 (ja) | 2眼撮像装置、その制御方法、および、制御プログラムおよびコンピュータ読み取り可能な記録媒体 | |
US10222950B2 (en) | Image processing apparatus and method | |
US10185462B2 (en) | Image processing apparatus and method | |
JP2012256110A (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP5704854B2 (ja) | 表示装置 | |
JP5864043B2 (ja) | 表示装置、操作入力方法、操作入力プログラム、及び記録媒体 | |
JP2012015619A (ja) | 立体表示装置及び立体撮影装置 | |
JP5586377B2 (ja) | 表示装置 | |
JP5603732B2 (ja) | 撮像装置 | |
CN111782053A (zh) | 模型编辑方法、装置、设备及存储介质 | |
KR100758985B1 (ko) | 유저인터페이스를 조작하는 영상 디스플레이 장치 및 그방법 | |
JP2022183656A (ja) | 電子機器、制御方法、プログラム、および記憶媒体 | |
JP2015109111A (ja) | ジェスチャ操作入力処理装置、3次元ディスプレイ装置およびジェスチャ操作入力処理方法 | |
JP2022168781A (ja) | 電子機器、その制御方法、プログラムおよび記憶媒体 | |
JP2024010449A (ja) | 情報処理装置、情報処理方法、プログラム | |
JP2021158559A (ja) | 電子機器、その制御方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140319 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141216 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150203 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150602 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150714 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151208 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151223 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5864043 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |