JP2013114466A - Display system, display method and program - Google Patents
Display system, display method and program Download PDFInfo
- Publication number
- JP2013114466A JP2013114466A JP2011260235A JP2011260235A JP2013114466A JP 2013114466 A JP2013114466 A JP 2013114466A JP 2011260235 A JP2011260235 A JP 2011260235A JP 2011260235 A JP2011260235 A JP 2011260235A JP 2013114466 A JP2013114466 A JP 2013114466A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- copy target
- user
- target device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、表示システム、表示方法およびプログラムに関する。 The present invention relates to a display system, a display method, and a program.
特許文献1には、コピー対象を正確に選択するための方法が記載されている。特許文献2には、マルチタッチパネルにおいて、指のジェスチャーにより情報を入力する方法が記載されている。特許文献3には、対象物を含む領域に注釈画像を表示する方法が記載されている。
特許文献1 特許第4056477号明細書
特許文献2 特表2010−532055号公報(WO2009/002758)
特許文献3 特開2009−290488号公報
Patent Document 1 describes a method for accurately selecting a copy target.
Patent Document 1 Japanese Patent No. 4056477
Patent Document 3 Japanese Unexamined Patent Application Publication No. 2009-290488
しかし、従来、例えば時計およびテレビジョン装置等の機器の外観をコピーして、実空間内のユーザの任意の位置に表示させることはできなかった。 However, conventionally, for example, it has been impossible to copy the appearance of a device such as a clock and a television device and display it at an arbitrary position of the user in the real space.
本発明の第1の態様においては、実空間を撮像した画像に基づきユーザの動作を検出する動作検出部と、実空間内における機器のうち、前記ユーザの動作により指定されたコピー対象機器を特定する特定部と、表示装置を制御して、前記コピー対象機器を表す機器画像を表示する表示制御部と、前記コピー対象機器が有する少なくとも一部の機能を実行する機能実行部と、を備える表示システム、および、このような表示システムに関連する表示方法およびプログラムを提供する。 In the first aspect of the present invention, a motion detection unit that detects a user's motion based on an image obtained by capturing a real space and a copy target device specified by the user's motion among the devices in the real space are identified. A display unit that controls the display device to display a device image representing the copy target device, and a function execution unit that executes at least some of the functions of the copy target device. Systems and display methods and programs associated with such display systems are provided.
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.
図1は、本実施形態に係る表示システム10の構成を示す。表示システム10は、ユーザが予め定められた動作(コピー操作)により実空間内における機器をコピー対象機器として特定する。その後、表示システム10は、ユーザが予め定められた動作(ペースト操作)により実空間内における任意の位置を指定したことに応じて、コピー対象機器を表す画像を指定した位置に表示する。
FIG. 1 shows a configuration of a
例えば、図1に示されるように、表示システム10は、部屋12内において、ユーザが時計14に触ることにより当該時計14をコピー対象機器として特定する。その後、表示システム10は、ユーザが机16の上を指定することにより、時計14を撮像した機器画像20を机16の上に表示する。これにより、表示システム10は、指定した機器の機能を指定した位置にコピーアンドペースとしているように、ユーザに感じさせることができる。
For example, as shown in FIG. 1, the
表示システム10は、1または複数の撮像装置22と、1または複数の表示装置24と、制御装置30とを備える。本実施形態において、表示システム10は、部屋12内に設けられる。なお、表示システム10は、一つの部屋内のみならず、複数の部屋にまたがって設けられてもよい。
The
1または複数の撮像装置22のそれぞれは、実空間を撮像する。本実施形態においては、1または複数の撮像装置22は、部屋12内に存在する1または複数の機器(例えば、時計、テレビジョン装置、リモートコントローラ、カメラ等)のそれぞれを撮像する。
Each of the one or
1または複数の表示装置24のそれぞれは、実空間に画像を表示する。1または複数の表示装置24のそれぞれは、例えばプロジェクターである。すなわち、1または複数の表示装置24のそれぞれは、部屋12の物体に画像を投影して、物体上に画像を表示する。本実施形態においては、1または複数の表示装置24は、部屋12内におけるユーザが指定した箇所(例えば、机の上、デスクの上、壁、ベッドの頭の部分、床、天井等)に画像を表示する。
Each of the one or
制御装置30は、コンピュータであって、1または複数の撮像装置22のそれぞれ、および、1または複数の表示装置24のそれぞれの動作を制御する。より具体的には、制御装置30は、1または複数の撮像装置22のそれぞれを制御して、各撮像装置22により撮像された撮像画像を取得する。また、制御装置30は、1または複数の表示装置24を制御して、ユーザにより指定された位置に画像を表示する。
The
また、制御装置30は、実空間内に存在する機器の少なくとも一部の機能を実行する。制御装置30は、一例として、部屋12内に存在する機器(例えば、時計、テレビジョン装置、リモート、カメラ等)と通信をして、これらの機器を制御または調整等する。
Further, the
また、表示システム10は、実空間における物体の3次元位置を検出する位置検出装置を更に備えてもよい。位置検出装置は、一例として、右側カメラと左側カメラとを有するステレオカメラである。このような位置検出装置は、右側カメラにより撮像された画像と左側カメラにより撮像された画像との間の視差により、画面内の各物体までの被写体距離を表すことができる。
The
図2は、本実施形態に係る制御装置30の機能構成、および、時計14をコピー対象とした場合において表示される機器画像20の一例を示す。制御装置30は、画像取得部42と、動作検出部44と、特定部46と、表示制御部50と、機能実行部52とを有する。画像取得部42は、1または複数の撮像装置22のそれぞれにより撮像された画像を取得する。
FIG. 2 shows an example of the functional configuration of the
動作検出部44は、画像取得部42により取得された実空間を撮像した画像に基づき、ユーザの動作を検出する。動作検出部44は、当該表示システム10が位置検出装置を備える場合には、位置検出装置により検出されたユーザの身体の位置を更に利用して、ユーザの動作を検出してもよい。
The
動作検出部44は、一例として、ユーザが機器を指定する動作をしたか否かを検出する。動作検出部44は、一例として、ユーザが機器に触れる動作をしたことを検出する。さらに、動作検出部44は、一例として、ユーザが機器を触れるとともに、コピー動作を表す予め定められたジェスチャー等の動作をしたことを検出してもよい。
For example, the
動作検出部44は、一例として、ユーザが画像の表示位置を指定する動作をしたか否かを検出する。動作検出部44は、一例として、ユーザが何れかの物体の表面に触れる動作をしたことを検出する。さらに、動作検出部44は、一例として、ユーザが表示位置を触れるとともに、ペースト動作を表す予め定められたジェスチャー等の動作をしたことを検出してもよい。
For example, the
また、動作検出部44は、一例として、機器を表す機器画像20に対してユーザが何らかの操作をする動作したか否かを検出する。動作検出部44は、一例として、機器を表す機器画像20上のボタンおよびスイッチ等に触れて、触れたスイッチを操作する動作をしたか否かを検出する。
Further, as an example, the
特定部46は、実空間内における機器のうち、ユーザが動作により指定した機器をコピー対象機器として特定する。特定部46は、ユーザが機器を指定する動作をした場合において、部屋12内に存在する複数の機器(時計、テレビジョン装置、リモートコントローラ、カメラ等)のうち、ユーザが触れた機器をコピー対象機器として特定する。
The identifying
この場合において、特定部46は、一例として、コピー対象機器を撮像した画像に対して認識処理をして、コピー対象機器の種別を判別する。また、特定部46は、一例として、コピー対象機器に描かれた識別コードを認識して、コピー対象機器の種別を判別してもよい。これにより、特定部46は、確実に機器を特定することができる。
In this case, for example, the
表示制御部50は、1または複数の表示装置24を制御して、コピー対象機器を表す機器画像20を、ユーザが動作により指定した位置に表示する。表示制御部50は、一例として、1または複数の撮像装置22が撮像した画像からコピー対象機器の範囲を切り出して、機器画像20を生成して表示する。これに代えて、表示制御部50は、一例として、コピー対象機器を表す画像をコンピュータグラフィックスにより生成して表示してもよい。
The
機能実行部52は、特定部46により特定されたコピー対象機器が有する少なくとも一部の機能を実行する。機能実行部52は、一例として、特定部46によりコピー対象機器が特定されたことに応じて、コピー対象機器に含まれる機能の実行を開始する。
The
機能実行部52は、一例として、ユーザが機器画像20のボタンまたはスイッチ等に対して操作をする動作をしたことに応じて、その操作内容に応じた処理または制御を実行する。さらに、機能実行部52は、時計14と通信して遠隔操作によりコピー対象機器を制御する。また、機能実行部52は、コンピュータグラフィックスにより表されたコピー対象機器を表示する場合、指定された機器の主機能を実行して、機器画像20に反映してもよい。
As an example, the
図2においては、表示システム10は、実空間(部屋12の壁)に設けられた時計14の機能をコピーして、机16上にペーストする例を示している。この場合、特定部46は、実空間内に設けられた時計14をコピー対象機器として特定する。また、表示制御部50は、時計14を表す画像を撮像装置22が撮像した画像から切り出して機器画像20を生成し、机16の上に表示する。そして、機能実行部52は、機器画像20に対するユーザの操作に応じて、時計14に対してアラーム設定および時刻設定をする機能を実行する。
In FIG. 2, the
これにより、表示システム10は、例えばユーザが壁に設けられた時計14を見ることができない位置にいたしても、時計14により表される時刻を確認することができる。さらに、表示システム10は、時計14を遠隔操作して、時刻およびアラーム等の設定をすることができる。
Thereby, the
図3は、本実施形態に係る制御装置30における、コピーアンドペースト時の処理フローを示す。制御装置30は、コピーアンドペースト時において、図3のステップS11からステップS16の処理を実行する。
FIG. 3 shows a processing flow at the time of copy and paste in the
まず、ステップS11において、制御装置30は、ユーザが機器を指定する動作をしたか否かを判断する。制御装置30は、一例として、ユーザが部屋12内の何れかの機器に手で触れるとともに、予め定められたジェスチャーをしたか否かを、撮像装置22により撮像された画像に基づき判断する。制御装置30は、ユーザが機器の指定をしていないと判断する場合には(ステップS11のNo)、処理をステップS11で待機する。制御装置30は、ユーザが機器の指定をしたと判断する場合には(ステップS11のYes)、処理をステップS12に進める。
First, in step S11, the
続いて、ステップS12において、制御装置30は、ユーザが指定した機器を判別して、判別した機器をコピー対象機器として特定する。制御装置30は、一例として、部屋12内に存在する複数の機器のうち、ユーザが指定した機器が何れの種別の機器であるのかを判別する。より具体的には、制御装置30は、ユーザが指定した機器が、壁に設けられた時計であるのか、テレビジョン装置であるのか、または、テレビジョン装置のリモートコントローラであるのか、カメラであるのか等を判別する。
Subsequently, in step S12, the
続いて、ステップS13において、制御装置30は、ユーザが表示位置を指定したか否かを判断する。制御装置30は、一例として、ユーザが、部屋12内の何れかの表示位置に手で触れるとともに、予め定められたジェスチャーをしたか否かを、撮像装置22により撮像された画像に基づき判断する。制御装置30は、ユーザが表示位置の指定をしていないと判断する場合には(ステップS13のNo)、処理をステップS13で待機する。制御装置30は、ユーザが表示位置の指定をしたと判断する場合には(ステップS13のYes)、処理をステップS14に進める。
Subsequently, in step S13, the
続いて、ステップS14において、制御装置30は、コピー対象機器を表す機器画像20を生成する。制御装置30は、一例として、撮像装置22からの画像を切り出して、機器画像20を生成する。また、制御装置30は、一例として、撮像装置22を制御して、ユーザが指定した機器にズームアップした画像を取得して、機器画像20を生成してもよい。また、制御装置30は、コピー対象機器と同様の機能を有する機器の画像をコンピュータグラフィックスにより生成してもよい。
Subsequently, in step S14, the
続いて、ステップS15において、制御装置30は、1または複数の表示装置24の何れかを制御して、ステップS14で生成した機器画像20をユーザが指定した位置に表示する。以上により、制御装置30によれば、部屋12内の何れかの機器を表す機器画像20を、部屋12内における任意の位置に表示することができる。
Subsequently, in step S15, the
図4は、本実施形態に係る制御装置30における、機器画像20に対する操作時の処理フローを示す。制御装置30は、図3のコピーアンドペーストが終了後、図4のステップS21からステップS23の処理を実行する。
FIG. 4 shows a processing flow when operating the
まず、ステップS21において、制御装置30は、ユーザが機器画像20に対して操作をする動作をしたか否かを判断する。制御装置30は、一例として、機器画像20における、ボタンまたはスイッチ等の表示位置に触れて、ボタンまたはスイッチ等を操作する動きをしたか否かを判断する。制御装置30は、ユーザが機器画像20に対して操作をする動作をしていないと判断する場合には(ステップS21のNo)、処理をステップS21で待機する。制御装置30は、ユーザが機器画像20に対して操作をする動作をしたと判断する場合には(ステップS21のYes)、処理をステップS22に進める。
First, in step S <b> 21, the
続いて、ステップS22において、制御装置30は、ユーザによる機器画像20に対する操作内容を判別する。制御装置30は、一例として、ユーザの手または指先と機器画像20との位置関係から、ユーザが機器画像20における何れのボタンまたはスイッチ等を触れているのかを判別するとともに、触れているボタンまたはスイッチ等をどのように操作しているのかを判別する。
Subsequently, in step S <b> 22, the
続いて、ステップS23において、制御装置30は、ステップS22で判別された操作内容に応じた機能を実行する。制御装置30は、一例として、ユーザが操作したボタンまたはスイッチ等に対応した処理を実行させるべく、コピー対象機器を通信により制御する。制御装置30は、一例として、コピー対象機器が時計14である場合において、アラーム設定ボタンが操作された場合には、時計14を遠隔操作してアラーム設定を行う。また、制御装置30は、一例として、コピー対象機器が時計14である場合において、アラームの停止ボタンが操作された場合には、時計14のアラームを停止させる。
Subsequently, in step S23, the
そして、制御装置30は、ステップS23の処理を終えると、処理をステップS21に戻し、次の操作があるまで処理を待機する。以上により、制御装置30によれば、機器画像20に対するユーザの操作に応じて、コピー対象機器を制御することができる。
And control
図5は、テレビジョン装置66のリモートコントローラ68をコピー対象とした場合における、表示システム10により表示される機器画像20の一例を示す。表示システム10は、一例として、テレビジョン装置66等の機器を遠隔制御するためのリモートコントローラ68の機能をコピーアンドペーストしてもよい。
FIG. 5 shows an example of the
この場合、制御装置30の特定部46は、ユーザの動作によりリモートコントローラ68が指定されたことに応じて、当該リモートコントローラ68をコピー対象機器として特定する。続いて、制御装置30の表示制御部50は、機器画像20として、リモートコントローラ68を表す画像を、例えば机16上に表示する。
In this case, the specifying
そして、制御装置30の機能実行部52は、機器画像20に対するユーザの操作に応じて、リモートコントローラ68の制御対象となる機器(例えばテレビジョン装置66)を遠隔制御する機能を実行する。すなわち、この場合、制御装置30の機能実行部52は、リモートコントローラ68を制御することに代えて、リモートコントローラ68の制御対象となる機器を制御する。また、この場合において、制御装置30の機能実行部52は、リモートコントローラ68の制御対象となる機器を制御できない場合には、一例として、機器画像20に対して電源のスイッチング操作が行われたことに応じて、コピー対象機器が制御する制御対象の機器に電源を供給する電源ラインのスイッチを制御してもよい。
Then, the
以上のように、制御装置30によれば、リモートコントローラ68を表す画像を、ユーザの希望する位置に表示させることができる。さらに、制御装置30によれば、表示したリモートコントローラ68の画像に対する操作に応じて、リモートコントローラ68の制御対象の機器を遠隔操作することができる。
As described above, according to the
図6は、カメラ70をコピー対象とした場合における、表示システム10により表示される機器画像20の一例を示す。表示システム10は、一例として、カメラ70の機能をコピーアンドペーストしてもよい。カメラ70は屋外等に設けられてもよい。
FIG. 6 shows an example of the
また、この場合において、1または複数の撮像装置22は、一例として、カメラ70の操作面およびカメラ70の表示面の画像を撮像する。制御装置30の特定部46は、実空間内に設けられたカメラ70をコピー対象機器として特定する。
In this case, the one or
制御装置30の表示制御部50は、撮像装置22により撮像された画像に基づき、機器画像20として、カメラ70の操作面を表す画像を表示する。表示制御部50は、一例として、カメラ70のシャッタボタンが設けられた操作面(例えば上面)を表す機器画像20−1を表示する。
The
さらに、制御装置30の表示制御部50は、撮像装置22により撮像された画像に基づき、機器画像20として、カメラ70の表示面を表す画像を表示する。表示制御部50は、一例として、カメラ70の表示パネルが設けられた表示面(例えば裏面)を表す機器画像20−2を表示する。
Further, the
そして、制御装置30の機能実行部52は、機器画像20に対するユーザの操作に応じて、カメラ70を遠隔制御する機能を実行する。例えば、機能実行部52は、機器画像20−1に対してシャッタボタンを押す操作がされた場合には、カメラ70を遠隔制御してカメラ70に被写体を撮像させる。以上により、制御装置30によれば、カメラ70の表示画面を見ながら、カメラ70を遠隔操作することができる。
Then, the
図7は、本実施形態に係るコンピュータ1900のハードウェア構成の一例を示す。本実施形態に係るコンピュータ1900は、ホスト・コントローラ2082により相互に接続されるCPU2000、RAM2020、グラフィック・コントローラ2075、及び表示装置2080を有するCPU周辺部と、入出力コントローラ2084によりホスト・コントローラ2082に接続される通信インターフェイス2030、ハードディスクドライブ2040、及びCD−ROMドライブ2060を有する入出力部と、入出力コントローラ2084に接続されるROM2010、フレキシブルディスク・ドライブ2050、及び入出力チップ2070を有するレガシー入出力部とを備える。
FIG. 7 shows an example of the hardware configuration of a
ホスト・コントローラ2082は、RAM2020と、高い転送レートでRAM2020をアクセスするCPU2000及びグラフィック・コントローラ2075とを接続する。CPU2000は、ROM2010及びRAM2020に格納されたプログラムに基づいて動作し、各部の制御を行う。グラフィック・コントローラ2075は、CPU2000等がRAM2020内に設けたフレーム・バッファ上に生成する画像データを取得し、表示装置2080上に表示させる。これに代えて、グラフィック・コントローラ2075は、CPU2000等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。
The
入出力コントローラ2084は、ホスト・コントローラ2082と、比較的高速な入出力装置である通信インターフェイス2030、ハードディスクドライブ2040、CD−ROMドライブ2060を接続する。通信インターフェイス2030は、ネットワークを介して他の装置と通信する。ハードディスクドライブ2040は、コンピュータ1900内のCPU2000が使用するプログラム及びデータを格納する。CD−ROMドライブ2060は、CD−ROM2095からプログラム又はデータを読み取り、RAM2020を介してハードディスクドライブ2040に提供する。
The input /
また、入出力コントローラ2084には、ROM2010と、フレキシブルディスク・ドライブ2050、及び入出力チップ2070の比較的低速な入出力装置とが接続される。ROM2010は、コンピュータ1900が起動時に実行するブート・プログラム、及び/又は、コンピュータ1900のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ2050は、フレキシブルディスク2090からプログラム又はデータを読み取り、RAM2020を介してハードディスクドライブ2040に提供する。入出力チップ2070は、フレキシブルディスク・ドライブ2050を入出力コントローラ2084へと接続すると共に、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を入出力コントローラ2084へと接続する。
The input /
RAM2020を介してハードディスクドライブ2040に提供されるプログラムは、フレキシブルディスク2090、CD−ROM2095、又はICカード等の記録媒体に格納されて利用者によって提供される。プログラムは、記録媒体から読み出され、RAM2020を介してコンピュータ1900内のハードディスクドライブ2040にインストールされ、CPU2000において実行される。
A program provided to the
コンピュータ1900にインストールされ、コンピュータ1900を制御装置30として機能させるプログラムは、画像取得モジュールと、動作検出モジュールと、特定モジュールと、表示制御モジュールと、機能実行モジュールとを備える。これらのプログラム又はモジュールは、CPU2000等に働きかけて、コンピュータ1900を、画像取得部42、動作検出部44、特定部46、表示制御部50および機能実行部52としてそれぞれ機能させる。
The program installed in the
これらのプログラムに記述された情報処理は、コンピュータ1900に読込まれることにより、ソフトウェアと上述した各種のハードウェア資源とが協働した具体的手段である画像取得部42、動作検出部44、特定部46、表示制御部50および機能実行部52として機能する。そして、これらの具体的手段によって、本実施形態におけるコンピュータ1900の使用目的に応じた情報の演算又は加工を実現することにより、使用目的に応じた特有の制御装置30が構築される。
The information processing described in these programs is read into the
一例として、コンピュータ1900と外部の装置等との間で通信を行う場合には、CPU2000は、RAM2020上にロードされた通信プログラムを実行し、通信プログラムに記述された処理内容に基づいて、通信インターフェイス2030に対して通信処理を指示する。通信インターフェイス2030は、CPU2000の制御を受けて、RAM2020、ハードディスクドライブ2040、フレキシブルディスク2090、又はCD−ROM2095等の記憶装置上に設けた送信バッファ領域等に記憶された送信データを読み出してネットワークへと送信し、もしくは、ネットワークから受信した受信データを記憶装置上に設けた受信バッファ領域等へと書き込む。このように、通信インターフェイス2030は、DMA(ダイレクト・メモリ・アクセス)方式により記憶装置との間で送受信データを転送してもよく、これに代えて、CPU2000が転送元の記憶装置又は通信インターフェイス2030からデータを読み出し、転送先の通信インターフェイス2030又は記憶装置へとデータを書き込むことにより送受信データを転送してもよい。
As an example, when communication is performed between the
また、CPU2000は、ハードディスクドライブ2040、CD−ROMドライブ2060(CD−ROM2095)、フレキシブルディスク・ドライブ2050(フレキシブルディスク2090)等の外部記憶装置に格納されたファイルまたはデータベース等の中から、全部または必要な部分をDMA転送等によりRAM2020へと読み込ませ、RAM2020上のデータに対して各種の処理を行う。そして、CPU2000は、処理を終えたデータを、DMA転送等により外部記憶装置へと書き戻す。このような処理において、RAM2020は、外部記憶装置の内容を一時的に保持するものとみなせるから、本実施形態においてはRAM2020および外部記憶装置等をメモリ、記憶部、または記憶装置等と総称する。本実施形態における各種のプログラム、データ、テーブル、データベース等の各種の情報は、このような記憶装置上に格納されて、情報処理の対象となる。なお、CPU2000は、RAM2020の一部をキャッシュメモリに保持し、キャッシュメモリ上で読み書きを行うこともできる。このような形態においても、キャッシュメモリはRAM2020の機能の一部を担うから、本実施形態においては、区別して示す場合を除き、キャッシュメモリもRAM2020、メモリ、及び/又は記憶装置に含まれるものとする。
The
また、CPU2000は、RAM2020から読み出したデータに対して、プログラムの命令列により指定された、本実施形態中に記載した各種の演算、情報の加工、条件判断、情報の検索・置換等を含む各種の処理を行い、RAM2020へと書き戻す。例えば、CPU2000は、条件判断を行う場合においては、本実施形態において示した各種の変数が、他の変数または定数と比較して、大きい、小さい、以上、以下、等しい等の条件を満たすかどうかを判断し、条件が成立した場合(又は不成立であった場合)に、異なる命令列へと分岐し、またはサブルーチンを呼び出す。
In addition, the
また、CPU2000は、記憶装置内のファイルまたはデータベース等に格納された情報を検索することができる。例えば、第1属性の属性値に対し第2属性の属性値がそれぞれ対応付けられた複数のエントリが記憶装置に格納されている場合において、CPU2000は、記憶装置に格納されている複数のエントリの中から第1属性の属性値が指定された条件と一致するエントリを検索し、そのエントリに格納されている第2属性の属性値を読み出すことにより、所定の条件を満たす第1属性に対応付けられた第2属性の属性値を得ることができる。
Further, the
以上に示したプログラム又はモジュールは、外部の記録媒体に格納されてもよい。記録媒体としては、フレキシブルディスク2090、CD−ROM2095の他に、DVD又はCD等の光学記録媒体、MO等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワーク又はインターネットに接続されたサーバシステムに設けたハードディスク又はRAM等の記憶装置を記録媒体として使用し、ネットワークを介してプログラムをコンピュータ1900に提供してもよい。
The program or module shown above may be stored in an external recording medium. As the recording medium, in addition to the
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.
10 表示システム、12 部屋、14 時計、16 机、20 機器画像、22 撮像装置、24 表示装置、30 制御装置、42 画像取得部、44 動作検出部、46 特定部、50 表示制御部、52 機能実行部、66 テレビジョン装置、68 リモートコントローラ、70 カメラ、1900 コンピュータ、2000 CPU、2010 ROM、2020 RAM、2030 通信インターフェイス、2040 ハードディスクドライブ、2050 フレキシブルディスク・ドライブ、2060 CD−ROMドライブ、2070 入出力チップ、2075 グラフィック・コントローラ、2080 表示装置、2082 ホスト・コントローラ、2084 入出力コントローラ、2090 フレキシブルディスク、2095 CD−ROM 10 display systems, 12 rooms, 14 clocks, 16 desks, 20 device images, 22 imaging devices, 24 display devices, 30 control devices, 42 image acquisition units, 44 motion detection units, 46 identification units, 50 display control units, 52 functions Execution unit, 66 television device, 68 remote controller, 70 camera, 1900 computer, 2000 CPU, 2010 ROM, 2020 RAM, 2030 communication interface, 2040 hard disk drive, 2050 flexible disk drive, 2060 CD-ROM drive, 2070 input / output Chip, 2075 graphic controller, 2080 display device, 2082 host controller, 2084 input / output controller, 2090 flexible disk, 2095 CD-ROM
Claims (13)
実空間内における機器のうち、前記ユーザの動作により指定されたコピー対象機器を特定する特定部と、
表示装置を制御して、前記コピー対象機器を表す機器画像を表示する表示制御部と、
前記コピー対象機器が有する少なくとも一部の機能を実行する機能実行部と、
を備える表示システム。 A motion detector that detects a user's motion based on an image of real space;
Among the devices in the real space, a specifying unit that specifies a copy target device specified by the user's operation,
A display control unit for controlling a display device to display a device image representing the copy target device;
A function execution unit that executes at least some of the functions of the copy target device;
A display system comprising:
前記実空間に画像を表示する表示装置と、
を更に備える請求項1に記載の表示システム。 An imaging device for imaging real space;
A display device for displaying an image in the real space;
The display system according to claim 1, further comprising:
前記撮像装置が撮像した画像から前記コピー対象機器の部分を切り出して、前記機器画像として表示する
請求項2に記載の表示システム。 The display control unit
The display system according to claim 2, wherein a part of the copy target device is cut out from an image captured by the imaging device and displayed as the device image.
請求項1に記載の表示システム。 The display system according to claim 1, wherein the display control unit displays the device image at a position specified by a user operation.
前記機能実行部は、判別された種別の機器の機能を実行する
請求項1から4の何れか1項に記載の表示システム。 The specifying unit performs recognition processing on an image obtained by imaging the copy target device, determines a type of the copy target device,
The display system according to claim 1, wherein the function execution unit executes a function of the identified type of device.
請求項5に記載の表示システム。 The display system according to claim 5, wherein the specifying unit recognizes an identification code drawn on the copy target device and determines a type of the copy target device.
請求項1から6の何れか1項に記載の表示システム。 The function execution unit controls a switch of a power supply line that supplies power to a control target device controlled by the copy target device in response to a power source switching operation performed on the device image. The display system according to any one of 1 to 6.
前記表示制御部は、前記機器画像として、前記時計を表す画像を表示し、
前記機能実行部は、前記機器画像に対するユーザの操作に応じて、前記時計に対して設定をする機能を実行する
請求項1から6の何れか1項に記載の表示システム。 The specifying unit specifies a clock provided in the real space as the copy target device;
The display control unit displays an image representing the clock as the device image,
The display system according to claim 1, wherein the function execution unit executes a function of setting the clock according to a user operation on the device image.
前記表示制御部は、前記機器画像として、前記リモートコントローラを表す画像を表示し、
前記機能実行部は、前記機器画像に対するユーザの操作に応じて、前記リモートコントローラの制御対象となる機器を遠隔制御する機能を実行する
請求項1から6の何れか1項に記載の表示システム。 The specifying unit specifies a remote controller for remotely controlling a device as the copy target device,
The display control unit displays an image representing the remote controller as the device image,
The display system according to claim 1, wherein the function execution unit executes a function of remotely controlling a device to be controlled by the remote controller in accordance with a user operation on the device image.
前記表示制御部は、前記機器画像として、前記カメラの操作面を表す画像を表示し、
前記機能実行部は、前記機器画像に対するユーザの操作に応じて、前記カメラを遠隔制御する機能を実行する
請求項1から6の何れか1項に記載の表示システム。 The specifying unit specifies a camera provided in the real space as the copy target device,
The display control unit displays an image representing an operation surface of the camera as the device image,
The display system according to claim 1, wherein the function execution unit executes a function of remotely controlling the camera according to a user operation on the device image.
前記動作検出部は、前記位置検出装置により検出されたユーザの身体の位置に基づき、前記ユーザの動作を検出する
請求項1から10の何れか1項に記載の表示システム。 A position detection device for detecting a three-dimensional position of the object in the real space;
The display system according to claim 1, wherein the motion detection unit detects the motion of the user based on a position of the user's body detected by the position detection device.
実空間内における機器のうち、前記ユーザの動作により指定されたコピー対象機器を特定する特定ステップと、
表示装置を制御して、前記コピー対象機器を表す機器画像を表示する表示制御ステップと、
前記コピー対象機器が有する少なくとも一部の機能を実行する機能実行ステップと、
を備える表示方法。 A motion detection step for detecting a user's motion based on an image of real space;
A specifying step of specifying a copy target device specified by the user's operation among devices in the real space;
A display control step of controlling a display device to display a device image representing the copy target device;
A function execution step for executing at least a part of functions of the copy target device;
A display method comprising:
実空間を撮像した画像に基づきユーザの動作を検出する動作検出部と、
実空間内における機器のうち、前記ユーザの動作により指定されたコピー対象機器を特定する特定部と、
表示装置を制御して、前記コピー対象機器を表す機器画像を表示する表示制御部と、
前記コピー対象機器が有する少なくとも一部の機能を実行する機能実行部と、
を備える制御装置として機能させるためのプログラム。 Computer
A motion detector that detects a user's motion based on an image of real space;
Among the devices in the real space, a specifying unit that specifies a copy target device specified by the user's operation,
A display control unit for controlling a display device to display a device image representing the copy target device;
A function execution unit that executes at least some of the functions of the copy target device;
A program for functioning as a control device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011260235A JP2013114466A (en) | 2011-11-29 | 2011-11-29 | Display system, display method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011260235A JP2013114466A (en) | 2011-11-29 | 2011-11-29 | Display system, display method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013114466A true JP2013114466A (en) | 2013-06-10 |
Family
ID=48709958
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011260235A Pending JP2013114466A (en) | 2011-11-29 | 2011-11-29 | Display system, display method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013114466A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016024690A (en) * | 2014-07-22 | 2016-02-08 | Necパーソナルコンピュータ株式会社 | Movement recognition device, movement recognition method and program |
WO2016136307A1 (en) * | 2015-02-27 | 2016-09-01 | ソニー株式会社 | Information processing device, information processing method, and program |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001175374A (en) * | 1999-12-21 | 2001-06-29 | Sony Corp | Information input/output system and information input/ output method |
JP2001513244A (en) * | 1997-12-22 | 2001-08-28 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Gesture method and apparatus based on option selection |
JP2003249943A (en) * | 2002-02-25 | 2003-09-05 | Matsushita Electric Ind Co Ltd | Remote control system, processing side distributed control system thereof and remote control method |
JP2004246856A (en) * | 2002-12-18 | 2004-09-02 | National Institute Of Advanced Industrial & Technology | Interface device |
JP2004356803A (en) * | 2003-05-28 | 2004-12-16 | Nippon Telegr & Teleph Corp <Ntt> | System for remotely controlling apparatus, control terminal in the system and imaging apparatus |
JP2005063225A (en) * | 2003-08-15 | 2005-03-10 | Nippon Telegr & Teleph Corp <Ntt> | Interface method, system and program using self-image display |
JP2007116270A (en) * | 2005-10-18 | 2007-05-10 | Hitachi Ltd | Terminal and apparatus control system |
JP2009086952A (en) * | 2007-09-28 | 2009-04-23 | Fuji Xerox Co Ltd | Information processing system and information processing program |
JP2009223490A (en) * | 2008-03-14 | 2009-10-01 | Shimizu Corp | Virtual switch, and household electric appliance control system and method using same |
JP2009246646A (en) * | 2008-03-31 | 2009-10-22 | Kenwood Corp | Remote control apparatus and setting method |
JP2010015360A (en) * | 2008-07-03 | 2010-01-21 | Japan Health Science Foundation | Control system and control method |
WO2011086956A1 (en) * | 2010-01-18 | 2011-07-21 | 日本電気株式会社 | Information terminal device, control method using an information terminal device, and program |
JP2012059242A (en) * | 2010-09-13 | 2012-03-22 | Hyundai Motor Co Ltd | In-vehicle device control system utilizing augmented reality, and method thereof |
-
2011
- 2011-11-29 JP JP2011260235A patent/JP2013114466A/en active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001513244A (en) * | 1997-12-22 | 2001-08-28 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Gesture method and apparatus based on option selection |
JP2001175374A (en) * | 1999-12-21 | 2001-06-29 | Sony Corp | Information input/output system and information input/ output method |
JP2003249943A (en) * | 2002-02-25 | 2003-09-05 | Matsushita Electric Ind Co Ltd | Remote control system, processing side distributed control system thereof and remote control method |
JP2004246856A (en) * | 2002-12-18 | 2004-09-02 | National Institute Of Advanced Industrial & Technology | Interface device |
JP2004356803A (en) * | 2003-05-28 | 2004-12-16 | Nippon Telegr & Teleph Corp <Ntt> | System for remotely controlling apparatus, control terminal in the system and imaging apparatus |
JP2005063225A (en) * | 2003-08-15 | 2005-03-10 | Nippon Telegr & Teleph Corp <Ntt> | Interface method, system and program using self-image display |
JP2007116270A (en) * | 2005-10-18 | 2007-05-10 | Hitachi Ltd | Terminal and apparatus control system |
JP2009086952A (en) * | 2007-09-28 | 2009-04-23 | Fuji Xerox Co Ltd | Information processing system and information processing program |
JP2009223490A (en) * | 2008-03-14 | 2009-10-01 | Shimizu Corp | Virtual switch, and household electric appliance control system and method using same |
JP2009246646A (en) * | 2008-03-31 | 2009-10-22 | Kenwood Corp | Remote control apparatus and setting method |
JP2010015360A (en) * | 2008-07-03 | 2010-01-21 | Japan Health Science Foundation | Control system and control method |
WO2011086956A1 (en) * | 2010-01-18 | 2011-07-21 | 日本電気株式会社 | Information terminal device, control method using an information terminal device, and program |
JP2012059242A (en) * | 2010-09-13 | 2012-03-22 | Hyundai Motor Co Ltd | In-vehicle device control system utilizing augmented reality, and method thereof |
Non-Patent Citations (1)
Title |
---|
岩下 淳一 他: "日常生活中の機器操作のためのジェスチャ認識インタフェースの開発", 電気学会論文誌C, vol. 第130巻 第4号, JPN6015040645, 1 April 2010 (2010-04-01), JP, pages 676 - 685, ISSN: 0003171716 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016024690A (en) * | 2014-07-22 | 2016-02-08 | Necパーソナルコンピュータ株式会社 | Movement recognition device, movement recognition method and program |
WO2016136307A1 (en) * | 2015-02-27 | 2016-09-01 | ソニー株式会社 | Information processing device, information processing method, and program |
US10936141B2 (en) | 2015-02-27 | 2021-03-02 | Sony Corporation | Information processing device and information processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10074217B2 (en) | Position identification method and system | |
JP6007497B2 (en) | Image projection apparatus, image projection control apparatus, and program | |
JP6469706B2 (en) | Modeling structures using depth sensors | |
JP6039248B2 (en) | Information processing apparatus and control method thereof | |
US20110280441A1 (en) | Projector and projection control method | |
CN111801641A (en) | Object creation with physical manipulation | |
CN109144304A (en) | At least one display window distributing adjustment and touch-control automatic calibrating method and system | |
US20140351718A1 (en) | Information processing device, information processing method, and computer-readable medium | |
WO2016099563A1 (en) | Collaboration with 3d data visualizations | |
US12019944B2 (en) | Method for operating mirrored content under mirror mode and computer readable storage medium | |
CN109101173B (en) | Screen layout control method, device, equipment and computer readable storage medium | |
JP2013114467A (en) | Display system, display method and program | |
US20150138077A1 (en) | Display system and display controll device | |
JP2013114466A (en) | Display system, display method and program | |
CN108509071B (en) | The method, apparatus, equipment and computer readable storage medium of coordinate anti-trembling on screen | |
JP5456817B2 (en) | Display control apparatus, display control method, information display system, and program | |
US11557065B2 (en) | Automatic segmentation for screen-based tutorials using AR image anchors | |
US20130215083A1 (en) | Separating and securing objects selected by each of multiple users in a surface display computer system | |
JP2015022489A (en) | Information processor and program | |
JP2018074429A (en) | Information processing device, information processing method, and program | |
JP6007496B2 (en) | Display system, display program, and display method | |
JP6007490B2 (en) | Display system, display program, and display method | |
CN110147169A (en) | At least one display window distributing adjustment and touch-control automatic calibrating method and system | |
US10191637B2 (en) | Workspace metadata management | |
CN104683720A (en) | Electronic equipment and control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151013 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160223 |