JPWO2015159547A1 - 情報処理システム、制御方法、及びプログラム記録媒体 - Google Patents
情報処理システム、制御方法、及びプログラム記録媒体 Download PDFInfo
- Publication number
- JPWO2015159547A1 JPWO2015159547A1 JP2016513644A JP2016513644A JPWO2015159547A1 JP WO2015159547 A1 JPWO2015159547 A1 JP WO2015159547A1 JP 2016513644 A JP2016513644 A JP 2016513644A JP 2016513644 A JP2016513644 A JP 2016513644A JP WO2015159547 A1 JPWO2015159547 A1 JP WO2015159547A1
- Authority
- JP
- Japan
- Prior art keywords
- image
- projection
- orientation
- user
- processing system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 99
- 238000000034 method Methods 0.000 title claims description 85
- 238000001514 detection method Methods 0.000 claims abstract description 67
- 230000008859 change Effects 0.000 claims description 17
- 238000010586 diagram Methods 0.000 description 44
- 230000006870 function Effects 0.000 description 43
- 238000012806 monitoring device Methods 0.000 description 28
- 238000012544 monitoring process Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 13
- 238000003708 edge detection Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 241001504424 Zosteropidae Species 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
Images
Classifications
-
- G06T3/02—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0007—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/60—Rotation of a whole image or part thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
- H04N9/3185—Geometric adjustment, e.g. keystone or convergence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
Abstract
Description
図1は、本発明の第1の実施形態に係る情報処理システム2000を示すブロック図である。図1において、実線の矢印は情報の流れを表す。さらに、図1において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
情報処理システム2000の各機能構成部は、各機能構成部を実現するハードウエア構成要素(例:ハードワイヤードされた電子回路など)で実現されてもよい。情報処理システム2000の各機能構成部は、ハードウエア構成要素とソフトウエア構成要素との組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。
計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージ1080、及び入出力インタフェース1100を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージ1080、及び入出力インタフェース1100が、相互にデータを送受信するためのデータ伝送路である。図2において、入出力インタフェース1100は、「入出力I/F1100」(InterFace)と表記される。ただし、プロセッサ1040などを互いに接続する方法は、バス接続に限定されない。プロセッサ1040は、例えば CPU (Central Processing Unit) や GPU (Graphics Processing Unit) などの演算処理装置である。メモリ1060は、例えば RAM (Random Access Memory) や ROM (Read Only Memory) などのメモリである。ストレージ1080は、例えばハードディスク、SSD (Solid State Drive)、又はメモリカードなどの記憶装置である。また、ストレージ1080は、RAM や ROM 等のメモリであってもよい。入出力インタフェース1100は、バス300を介して投影装置100や監視装置200との間でデータを送受信するための入出力インタフェースである。なお、入出力インタフェース1100は、ネットワークに接続するためのネットワークインタフェースを有してもよい。ネットワークは有線回線で実現されてもよいし、無線回線で実現されてもよいし、有線回線と無線回線の組み合わせで実現されてもよい。
図3は、投影装置100及び監視装置200を組み合わせた装置400を例示する図である。図3の装置400は、投影装置100、監視装置200、及び投影方向調整部410を有する。なお、投影方向調整部410は、投影方向調整部410−1、2、及び3の組み合わせによって実装されている。ここで、投影装置100の投影方向と監視装置200は一致していてもよいし、異なっていてもよい。同様に、投影装置100の投影範囲と監視装置200の監視範囲は一致していてもよいし、異なっていてもよい。
図4は、第1の実施形態の情報処理システム2000によって実行される処理の流れを例示するフローチャートである。ステップS102において、実対象物検出部2020は、実対象物を検出する。ステップS104において、情報処理システム2000は、第1画像を取得する。ステップS106において、状態決定部2080は、検出された実対象物の向き及び位置の少なくとも一つに基づいて、第1画像の向き及び投影面内における位置の少なくとも一つを決定する。ステップS108において、投影部2060は、状態決定部2080によって決定された位置又は向きで第1画像を投影する。
本実施形態によれば、検出した実対象物の向き及び位置の少なくとも一つに基づいて、投影面に投影する画像の向き及び投影面内における位置の少なくとも一つが決定される。そのため、投影面、投影面上の物、又は投影面の周辺の物を実対象物として検出するように情報処理システム2000を構成することにより、これらの物の向き又は位置に基づいて、投影される画像の向き又は投影面内における位置が決定される。例えば後述するように、ユーザの顔の向き等に応じた向きで画像を投影することが可能となる。その結果、ユーザにとって扱いやすい状態で第1画像を投影することができる。そのため、情報処理システム2000をユーザにとって使いやすいシステムにすることができる。
本実施形態の情報処理システム2000をより理解しやすくするため、本実施形態の情報処理システム2000の適用例を示す。なお、以下に示す情報処理システム2000の使用環境や使用方法はあくまで例示であり、情報処理システム2000の使用環境や使用方法を限定するものではない。なお、本適用例の情報処理システム2000のハードウエア構成は、図2において表される構成であるとする。
情報処理システム2000は、例えば図7に示す情報処理システム2000Aのように、第1画像を取得する画像取得部2040をさらに有していてもよい。図7は、画像取得部2040を有する情報処理システム2000Aを例示するブロック図である。画像取得部2040が第1画像を取得する方法は様々である。画像取得部2040は、例えば、外部の装置から入力される第1画像を取得してもよい。画像取得部2040は、例えば、手動で入力される第1画像を取得してもよい。さらに画像取得部2040は、外部の装置にアクセスすることによって、第1画像を取得してもよい。
投影部2060は、前述のように、例えばプロジェクタ等の画像を投影する投影装置100を有する。投影部2060は、画像取得部2040によって取得された第1画像を取得し、取得した第1画像を投影面へ投影する。
実対象物検出部2020は、上述した監視装置200を有する。ここで、実対象物検出部2020には、「何を実対象物として検出するか」を設定できるように設計されているとする。そして、実対象物検出部2020は、監視装置200の監視範囲の中に、設定された条件を満たす物が含まれているか否かを判定する。そして、設定された条件を満たす物が含まれている場合、その物を実対象物とする。実対象物は、投影面、投影面上にある物、又は投影面の周辺にある物などである。投影面は、例えば図5におけるテーブル10である。また投影面上にある物とは、例えば図6A及び図6Bにおけるトレー20などである。また投影面の周辺にある物とは、例えば図5におけるユーザである。
第1画像の向きは、例えば第1画像の垂直方向又は水平方向を指標として表される。図8A及び図8Bは、コンテンツ画像40の向きを説明するための図である。図8Aが示すコンテンツ画像40の向きを、基準状態における向きとする。これに対し、図8Bは、コンテンツ画像40の向きが、基準状態から変更されている。図8Bにおけるコンテンツ画像40の向きは、「水平方向の向きが基準状態から+30°変更された」とも表現できるし、「垂直方向の向きが基準状態から+30°変更された」とも表現できる。なお、第1画像の向きは、垂直方向や水平方向以外を用いて定められてもよい。
例えば状態決定部2080は、ユーザの顔の向きを割り出し、割り出したユーザの顔の向きに合わせて第1画像の向きを決定する。この場合、実対象物検出部2020がユーザの顔を検出する。状態決定部2080は検出された顔から、顔の向きを決定する。そして状態決定部2080は、第1画像の垂直方向の向きを、ユーザの顔が向いている向きと同じ向きにする。
また例えば、状態決定部2080は、ユーザの視線方向を割り出し、割り出したユーザの視線方向に合わせて第1画像の向きを決定してもよい。例えばユーザの白目と黒目の位置関係などをもとに、ユーザの視線方向を割り出すことができる。この場合、実対象物検出部2020は、ユーザの白目及び黒目の位置を検出する。状態決定部2080は、第1画像の垂直方向の向きを、例えばユーザの視線方向と同じ向きにする。
また状態決定部2080は、例えば、ユーザの胴体の向きを割り出し、割り出したユーザの胴体の向きに合わせて第1画像の向きを決定してもよい。この場合、実対象物検出部2020がユーザの胴体を検出する。状態決定部2080は、検出された胴体から、胴体の向きを割り出す。そして、状態決定部2080は、第1画像の水平方向の向きを、ユーザの胴体の向きに基づいて決定する。ここで一般に、胴体を楕円形と見立てた場合、第1画像の水平方向の向きを胴体の長径方向にすることによって、正面を向いているユーザにとって第1画像が見やすくなる。そこで状態決定部2080は、例えば、ユーザの胴体の長径方向を割り出し、第1画像の水平方向の向きを、割り出した長径方向と同じ向きにする。
また例えば、状態決定部2080は、ユーザの腕の向きを割り出し、割り出したユーザの腕の向きに合わせて第1画像の向きを決定してもよい。この場合、実対象物検出部2020がユーザの腕を検出し、状態決定部2080は、検出された腕をもとに、腕の向きを割り出す。そして、状態決定部2080は、第1画像の水平方向の向きを、ユーザの腕の向きに基づいて決定する。
第1画像の向きを決定するその他の方法として、第1画像が基準点を向くようにする方法がある。図10は、基準点70を用いて第1画像の向きを決定する方法を概念的に例示する図である。点線は、コンテンツ画像40の中心と基準点70とを結ぶ直線を示している。図10に示す例の場合、状態決定部2080は、コンテンツ画像40と基準点70とを結ぶ直線の延伸方向に合わせるように、コンテンツ画像40の垂直方向の向きを決定する。その結果、図10において、各コンテンツ画像40は、垂直方向の向きが基準点70を向くように投影されている。
また、基準点は、投影面の周辺にある物であってもよい。さらに、状態決定部2080は、定められた規則に従って基準点を算出し、算出した基準点を用いてもよい。例えば状態決定部2080は、投影面の中心点を算出し、その中心点を基準点として扱ってもよい。また、状態決定部2080は、投影面やその周辺における予め定められた座標を基準点として扱ってもよい。
さらに、第1画像の向きを決定するその他の方法として、ユーザの操作体の向きに合わせる方法がある。ここで、ユーザの操作体とは、ユーザの腕、手、若しくは指、又はユーザが操作に用いるタッチペンなどである。例えばこの場合、実対象物検出部2020はユーザの操作体を検出する。状態決定部2080は、検出された操作体の延伸方向を割り出し、その延伸方向に基づいて第1画像の向きを決定する。
状態決定部2080は、例えば、投影面内であり、かつ実対象物の付近の位置を、第1画像の投影位置とする。状態決定部2080は、例えば、図6A及び図6Bにおけるトレー20やマーク30、図9におけるユーザ50、又は図11におけるユーザの指80や手などの付近を、第1画像の投影位置とする。
図12は、第2の実施形態に係る情報処理システム2000Bを例示するブロック図である。図12において、矢印は情報の流れを表している。さらに、図12において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
図16は、第2の実施形態の情報処理システム2000Bによって実行される処理の流れを例示するフローチャートである。図16のステップS102、S104、S108はそれぞれ、図4における同符号のステップと同様の処理である。そのため、これらの処理については説明を省略する。
本実施形態によれば、投影面上の実対象物の周に含まれる辺の向き及び位置の少なくとも一つに基づいて、第1画像の向き及び投影面内における位置の少なくとも一つが決定される。ここで、投影面上にある実対象物は、ユーザによって扱いやすい状態で置かれている可能性が高い。例えばユーザがテーブルなどの上に置くトレー、携帯端末、又は筆記具などは、ユーザにとって扱いやすい向きや位置で置かれている可能性が高い。また、ユーザのために予めテーブルなどの上に実対象物(例:レストランにおけるメニューなど)を置いておく場合にも、その実対象物はユーザにとって扱いやすい向きや位置で置かれることが一般的である。そのため、投影面上に置かれている実対象物の周に含まれる辺は、ユーザにとって見やすい向きや位置を表すと見なすことができる。したがって、本実施形態によれば、ユーザにとって見やすい向きや位置に第1画像が投影される確率が高くなる。また、辺の向きを算出する処理は、ユーザの顔の向きや視線方向などを検出する処理と比較して、単純であるため、第1画像の向きや位置の決定に要する計算時間や計算機資源を削減できる。その結果、情報処理システム2000Bによる第1画像の投影処理を高速にできる。
本実施形態の情報処理システム2000Bについてより理解をしやすくするため、第1の適用例と同様の環境を想定した第2の適用例について説明する。図17A及び図17Bは、第2の適用例におけるテーブル上の様子を例示する図である。本適用例において、トレー20上に付されているマーク30は、買い物かごを表すマークである。そして、情報処理システム2000Bは、コンテンツ画像40をマーク30へドラッグすることにより、そのコンテンツ画像40によって表されるコンテンツをユーザの買い物かごに入れることができる機能を提供する。
第3の実施形態に係る情報処理システム2000Bの構成は、第2の実施形態と同様に図12で表される。
辺検出部2100によって検出された辺が直線である場合、状態決定部2080は、第1画像の水平方向の向きが検出された辺の延伸方向に合うように、第1画像の向きを決定する。また、辺検出部2100によって検出された辺が曲線である場合、状態決定部2080は、例えば、検出された辺の接線を割り出し、第1画像の水平方向の向きがその割り出された接線の方向に合うように、第1画像の向きを決定する。
状態決定部2080は、辺検出部2100によって検出された辺の付近を、第1画像を投影する位置とする。「辺の付近」は、第1の実施形態で説明した「実対象物の付近」と同様の方法で定められる。
本実施形態によれば、投影面の周に含まれかつユーザに近接している辺の向き及び位置の少なくとも一方に基づいて、第1画像の向き及び投影面内の位置の少なくとも一方が決定される。情報処理システム2000Bによって投影される画像は、投影面に近接しているユーザによって閲覧される確率が高い。また一般に、ユーザは、テーブルの縁など、投影面の周に含まれる辺に応じた向きで投影面を見る確率が高い。そのため、本実施形態によれば、ユーザにとって見やすい状態で画像を投影することができる。また、辺の向きを算出する処理は、ユーザの顔の向きや視線方向などを検出する処理と比較して、単純であるため、第1画像の向きや位置の決定に要する計算時間や計算機資源を削減できる。その結果、情報処理システム2000Bによる第1画像の投影処理を高速にできる。
図19は、第4の実施形態に係る情報処理システム2000Cを示すブロック図である。図19において、実線の矢印は情報の流れを表している。さらに、図19において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
位置変更部2120が検出するユーザ操作は様々である。位置変更部2120が検出するユーザ操作は、例えば、ユーザが操作体によって第1画像をドラッグする操作である。また、位置変更部2120が検出するユーザ操作は、投影面のうち、第1画像が投影されていない場所を、操作体によって示す操作でもよい。操作体によって示す操作は、操作体によって押す又は叩く操作であってもよい。例えばこの場合、位置変更部2120は、操作体によって示された場所へ第1画像が移動していくように、第1画像の位置を変更する。この場合、一度のユーザ操作によって位置変更部2120が第1画像を移動させる距離は、所定距離であってもよいし、条件によって異なってもよい。距離を決める条件は、例えば操作に使われる操作体(例:指)の数や、操作体の動きの大きさなどである。
方向決定部2140は、第1画像の移動方向に基づいて、投影する第1画像の向きを決定する。図20は、方向決定部2140が実行する処理を概念的に例示する図である。矢印90は、指80によってコンテンツ画像40が移動されている方向を示す。この場合、方向決定部2140は、コンテンツ画像40の垂直方向又は水平方向の向きを、コンテンツ画像40の移動方向に合わせるように、コンテンツ画像40の向きを決定する。
図21は、コンテンツ画像40の移動方向とその移動方向におけるコンテンツ画像40の向きとの関係を例示する図である。コンテンツ画像40−0は、投影面に投影されたコンテンツ画像40の初期状態である。方向決定部2140は、初期状態におけるコンテンツ画像の方向とコンテンツ画像40の移動方向との関係によって、コンテンツ画像40の移動方向を複数のグループのいずれかに分類する。図21に示す例では、方向決定部2140は、コンテンツ画像40の移動方向を4つのグループのいずれかに分類する。以下の説明において、コンテンツ画像40の移動方向は、初期状態におけるコンテンツ画像40の水平方向( +0°を表す)と、コンテンツ画像40の移動方向とがなす、反時計回りの角度によって表される。第1のグループ(グループ(i))は、コンテンツ画像40の移動方向が-45°から +45°までの範囲に含まれるグループである。第2のグループ(グループ(ii))は、コンテンツ画像40の移動方向が+45°から +135°までの範囲に含まれるグループである。第3のグループ(グループ(iii))は、コンテンツ画像40の移動方向が+135°から+225°までの範囲に含まれるグループである。第4のグループ(グループ(iv))は、コンテンツ画像40の移動方向が+225°から +315°までの範囲に含まれるグループである。そして、コンテンツ画像40の移動方向が(i)と(iii)のグループに含まれる場合、方向決定部2140は、コンテンツ画像40の水平方向の向きを、コンテンツ画像40の移動方向に合わせる。一方、コンテンツ画像40の移動方向が(ii)と(iv)のグループに含まれる場合、方向決定部2140は、コンテンツ画像40の垂直方向の向きを、コンテンツ画像40の移動方向に合わせる。
第1画像の移動方向は、第1画像の投影位置の変化に基づいて算出できる。なお、方向決定部2140が算出する第1画像の移動方向は、第1画像が移動してきた方向であってもよいし、これから第1画像が移動する方向であってもよい。例えば、「第1画像の現在の投影位置、第1画像の1つ前の投影位置」の組み合わせを用いることによって、第1画像が移動してきた方向を算出することができる。また、「第1画像の次の投影位置、第1画像の現在の投影位置」の組み合わせを用いることによって、これから第1画像が移動する方向を算出できる。
図24は、情報処理システム2000Cのハードウエア構成を例示するブロック図である。
図23は、第4の実施形態の情報処理システム2000Cによって実行される処理の流れを例示するフローチャートである。ステップS302において、画像取得部2040は、第1画像を取得する。ステップS304において、投影部2060は、第1画像を投影する。ステップS306において、位置変更部2120は、ユーザ操作を検出し、検出したユーザ操作に基づいて第1画像の位置を変更する。ステップS308において、方向決定部2140は、第1画像の移動方向に基づいて、第1画像の向きを決定する。ステップS310において、投影部2060は、投影している第1画像の向きを、方向決定部2140によって決定された向きに変更する。
本実施形態によれば、第1画像の移動方向に基づいて、投影されている第1画像の向きが変更される。こうすることで、第1画像の移動方向に追従して、投影されている第1画像の向きが決定されるため、ユーザにとって見やすい向きで第1画像を表示することができる。
実対象物を検出する実対象物検出手段と、
投影面に第1画像を投影する投影手段と、
検出した実対象物の向き及び位置の少なくとも一方に基づいて、前記第1画像の向き及び投影面内における位置の少なくとも一方を決定する状態決定手段と、を有し、
前記投影手段は、前記状態決定手段によって決定された位置又は向きで前記第1画像を投影する情報処理システム。
前記実対象物検出手段は、前記実対象物の周に含まれる辺を検出する辺検出手段を有し、
前記状態決定手段は、検出された前記辺の向き及び位置の少なくとも一方に基づいて、前記第1画像の向き及び投影面内における位置の少なくとも一方を決定する付記1に記載の情報処理システム。
前記実対象物は、前記投影面に近接するユーザであり、
前記投影面の周に含まれる辺であり、前記ユーザが近接している辺を検出する辺検出手段を有し、
前記状態決定手段は、検出された前記辺の向き及び位置の少なくとも一方に基づいて、前記第1画像の向き又は投影面内における位置を決定する付記1に記載の情報処理システム。
前記状態決定手段は、投影されている前記第1画像の位置と前記投影面上の基準点とを結ぶ直線の延伸方向に基づいて、前記第1画像を投影する向きを決定する付記1乃至3いずれか一つに記載の情報処理システム。
前記実対象物はユーザの操作体であり、
前記状態決定手段は、前記操作体の延伸方向に基づいて、投影する前記第1画像の向きを決定する付記1に記載の情報処理システム。
投影面に第1画像を投影する投影手段と、
ユーザ操作を検出し、検出したユーザ操作に応じて前記第1画像の投影面上の位置を変更する位置変更手段と、
前記第1画像の移動方向に基づいて、投影する前記第1画像の向きを決定する方向決定手段と、を有し、
前記投影手段は、前記第1画像の向きを、前記方向決定手段によって決定された向きに変更する情報処理システム。
前記方向決定手段は、前記第1画像の移動速度の時間平均を算出し、算出された平均移動速度で表される方向に基づいて、投影する前記第1画像の向きを決定する付記6に記載の情報処理システム。
情報処理システムを制御するコンピュータによって実行される制御方法であって、 実対象物を検出する実対象物検出ステップと、
投影面に第1画像を投影する投影ステップと、
検出した実対象物の向き及び位置の少なくとも一方に基づいて、前記第1画像の向き及び投影面内における位置の少なくとも一方を決定する状態決定ステップと、を有し、
前記投影ステップは、前記状態決定ステップによって決定された位置又は向きで前記第1画像を投影する制御方法。
前記実対象物検出ステップは、前記実対象物の周に含まれる辺を検出する辺検出ステップを有し、
前記状態決定ステップは、検出された前記辺の向き及び位置の少なくとも一方に基づいて、前記第1画像の向き及び投影面内における位置の少なくとも一方を決定する付記8に記載の制御方法。
前記実対象物は、前記投影面に近接するユーザであり、
前記実対象物検出ステップは、前記ユーザの向きを検出し、
前記投影面の周に含まれる辺であり、前記ユーザが近接している辺を検出する辺検出ステップを有し、
前記状態決定ステップは、検出された前記辺の向き及び位置の少なくとも一方に基づいて、前記第1画像の向き又は投影面内における位置を決定する付記8に記載の制御方法。
前記状態決定ステップは、投影されている前記第1画像の位置と前記投影面上の基準点とを結ぶ直線の延伸方向に基づいて、前記第1画像を投影する向きを決定する付記8乃至10いずれか一つに記載の制御方法。
前記実対象物はユーザの操作体であり、
前記状態決定ステップは、前記操作体の延伸方向に基づいて、投影する前記第1画像の向きを決定する付記8に記載の制御方法。
コンピュータによって実行される制御方法であって、
投影面に第1画像を投影する投影ステップと、
ユーザ操作を検出し、検出したユーザ操作に応じて前記第1画像の投影面上の位置を変更する位置変更ステップと、
前記第1画像の移動方向に基づいて、投影する前記第1画像の向きを決定する方向決定ステップと、を有し、
前記投影ステップは、前記第1画像の向きを、前記方向決定ステップによって決定された向きに変更する制御方法。
前記方向決定ステップは、前記第1画像の移動速度の時間平均を算出し、算出された平均移動速度で表される方向に基づいて、投影する前記第1画像の向きを決定する付記13に記載の制御方法。
コンピュータに情報処理システムを制御する機能を持たせるプログラムであって、前記コンピュータに、
実対象物を検出する実対象物検出機能と、
投影面に第1画像を投影する投影機能と、
検出した実対象物の向き及び位置の少なくとも一方に基づいて、前記第1画像の向き及び投影面内における位置の少なくとも一方を決定する状態決定機能と、を持たせ、
前記投影機能は、前記状態決定機能によって決定された位置又は向きで前記第1画像を投影するプログラム。
前記実対象物検出機能は、前記実対象物の周に含まれる辺を検出する辺検出機能を有し、
前記状態決定機能は、検出された前記辺の向き及び位置の少なくとも一方に基づいて、前記第1画像の向き及び投影面内における位置の少なくとも一方を決定する付記15に記載のプログラム。
前記実対象物は、前記投影面に近接するユーザであり、
前記コンピュータに、前記投影面の周に含まれる辺であり、前記ユーザが近接している辺を検出する辺検出機能を持たせ、
前記状態決定機能は、検出された前記辺の向き及び位置の少なくとも一方に基づいて、前記第1画像の向き又は投影面内における位置を決定する付記15に記載のプログラム。
前記状態決定機能は、投影されている前記第1画像の位置と前記投影面上の基準点とを結ぶ直線の延伸方向に基づいて、前記第1画像を投影する向きを決定する付記15乃至17いずれか一つに記載のプログラム。
前記実対象物はユーザの操作体であり、
前記状態決定機能は、前記操作体の延伸方向に基づいて、投影する前記第1画像の向きを決定する付記15に記載のプログラム。
コンピュータに情報処理システムを制御する機能を持たせるプログラムであって、前記コンピュータに、
投影面に第1画像を投影する投影機能と、
ユーザ操作を検出し、検出したユーザ操作に応じて前記第1画像の投影面上の位置を変更する位置変更機能と、
前記第1画像の移動方向に基づいて、投影する前記第1画像の向きを決定する方向決定機能と、を持たせ、
前記投影機能は、前記第1画像の向きを、前記方向決定機能によって決定された向きに変更するプログラム。
前記方向決定機能は、前記第1画像の移動速度の時間平均を算出し、算出された平均移動速度で表される方向に基づいて、投影する前記第1画像の向きを決定する付記20に記載のプログラム。
20 トレー
20−1 トレー
20−2 トレー
20−3 トレー
20−4 トレー
30 マーク
40 コンテンツ画像
40−0 コンテンツ画像
40−1 コンテンツ画像
40−2 コンテンツ画像
40−3 コンテンツ画像
40−4 コンテンツ画像
41 コンテンツ画像
42 コンテンツ画像
50 ユーザ
50−1 ユーザ
50−2 ユーザ
60 辺
60−1 辺
60−2 辺
60−3 辺
60−4 辺
61−1 接線
61−2 接線
70 基準点
80 指
90 矢印
90−1 矢印
90−2 矢印
90−3 矢印
90−4 矢印
91 矢印
100 投影装置
200 監視装置
300 バス
400 装置
410 投影方向調整部
410−1 投影方向調整部
410−2 投影方向調整部
410−3 投影方向調整部
1000 計算機
1020 バス
1040 プロセッサ
1060 メモリ
1080 ストレージ
1100 入出力インタフェース
1220 実対象物検出モジュール
1260 投影モジュール
1280 状態決定モジュール
2000 情報処理システム
2000A 情報処理システム
2000B 情報処理システム
2000C 情報処理システム
2020 実対象物検出部
2040 画像取得部
2060 投影部
2080 状態決定部
2100 辺検出部
2120 位置変更部
2140 方向決定部
Claims (11)
- 実対象物を検出する実対象物検出手段と、
投影面に第1画像を投影する投影手段と、
検出した実対象物の向き及び位置の少なくとも一方に基づいて、前記第1画像の向き及び投影面内における位置の少なくとも一方を決定する状態決定手段と、を備え、
前記投影手段は、前記状態決定手段によって決定された位置又は向きで前記第1画像を投影する
情報処理システム。 - 前記実対象物検出手段は、前記実対象物の周に含まれる辺を検出する辺検出手段を有し、
前記状態決定手段は、検出された前記辺の向き及び位置の少なくとも一方に基づいて、前記第1画像の向き及び投影面内における位置の少なくとも一方を決定する
請求項1に記載の情報処理システム。 - 前記実対象物は、前記投影面に近接するユーザであり、
前記投影面の周に含まれる辺であり、前記ユーザが近接している辺を検出する辺検出手段を有し、
前記状態決定手段は、検出された前記辺の向き及び位置の少なくとも一方に基づいて、前記第1画像の向き又は投影面内における位置を決定する
請求項1に記載の情報処理システム。 - 前記状態決定手段は、投影されている前記第1画像の位置と前記投影面上の基準点とを結ぶ直線の延伸方向に基づいて、前記第1画像を投影する向きを決定する
請求項1乃至3いずれか一項に記載の情報処理システム。 - 前記実対象物はユーザの操作体であり、
前記状態決定手段は、前記操作体の延伸方向に基づいて、投影する前記第1画像の向きを決定する
請求項1に記載の情報処理システム。 - 投影面に第1画像を投影する投影手段と、
ユーザ操作を検出し、検出したユーザ操作に応じて前記第1画像の投影面上の位置を変更する位置変更手段と、
前記第1画像の移動方向に基づいて、投影する前記第1画像の向きを決定する方向決定手段と、を有し、
前記投影手段は、前記第1画像の向きを、前記方向決定手段によって決定された向きに変更する
情報処理システム。 - 前記方向決定手段は、前記第1画像の移動速度の時間平均を算出し、算出された平均移動速度で表される方向に基づいて、投影する前記第1画像の向きを決定する
請求項6に記載の情報処理システム。 - 情報処理システムを制御するコンピュータによって実行される制御方法であって、
実対象物を検出し、
検出した実対象物の向き及び位置の少なくとも一方に基づいて、投影面に投影される第1画像の向き及び投影面内における位置の少なくとも一方を決定し、
決定された位置又は向きで前記投影面に前記第1画像を投影する
制御方法。 - 情報処理システムを制御するコンピュータによって実行される制御方法であって、
投影面に第1画像を投影し、
ユーザ操作を検出し、検出したユーザ操作に応じて、投影面に投影される第1画像の前記投影面上の位置を変更し、
前記第1画像の移動方向に基づいて、投影する前記第1画像の向きを決定し、
前記第1画像の向きを、前記方向決定ステップによって決定された向きに変更し、向きが変更された前記第1画像を前記投影面に投影する
制御方法。 - コンピュータに、情報処理システムを制御する機能を持たせるプログラムであって、前記コンピュータに、
実対象物を検出する実対象物検出機能と、
投影面に第1画像を投影する投影機能と、
検出した実対象物の向き及び位置の少なくとも一方に基づいて、前記第1画像の向き及び投影面内における位置の少なくとも一方を決定する状態決定機能と、を持たせ、
前記投影機能は、前記状態決定機能によって決定された位置又は向きで前記第1画像を投影する
プログラムを記憶するコンピュータ読み取り可能な記録媒体。 - コンピュータに情報処理システムを制御する機能を持たせるプログラムであって、前記コンピュータに、
投影面に第1画像を投影する投影機能と、
ユーザ操作を検出し、検出したユーザ操作に応じて前記第1画像の投影面上の位置を変更する位置変更機能と、
前記第1画像の移動方向に基づいて、投影する前記第1画像の向きを決定する方向決定機能と、を持たせ、
前記投影機能は、前記第1画像の向きを、前記方向決定機能によって決定された向きに変更する
プログラムを記憶するコンピュータ読み取り可能な記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014086510 | 2014-04-18 | ||
JP2014086510 | 2014-04-18 | ||
PCT/JP2015/002090 WO2015159547A1 (ja) | 2014-04-18 | 2015-04-16 | 情報処理システム、制御方法、及びプログラム記録媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2015159547A1 true JPWO2015159547A1 (ja) | 2017-04-13 |
Family
ID=54322426
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016513644A Withdrawn JPWO2015159547A1 (ja) | 2014-04-18 | 2015-04-16 | 情報処理システム、制御方法、及びプログラム記録媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20150302549A1 (ja) |
JP (1) | JPWO2015159547A1 (ja) |
WO (1) | WO2015159547A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6112221B2 (ja) * | 2013-11-13 | 2017-04-12 | 日産自動車株式会社 | 移動体位置推定装置および移動体位置推定方法 |
JP6463403B2 (ja) * | 2017-04-04 | 2019-01-30 | 株式会社アマダホールディングス | レーザ加工システム |
JP2018205478A (ja) * | 2017-06-02 | 2018-12-27 | セイコーエプソン株式会社 | 表示装置および表示装置の制御方法 |
CN113170071A (zh) * | 2018-12-06 | 2021-07-23 | 株式会社阿提菲斯 | 桌面投影装置 |
CN109917913A (zh) * | 2019-03-01 | 2019-06-21 | 南京云家物联网研究院有限公司 | 虚拟投影开关及工作方法 |
CN112040207B (zh) | 2020-08-27 | 2021-12-10 | 广景视睿科技(深圳)有限公司 | 一种调整投影画面的方法、装置以及投影设备 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4991458B2 (ja) * | 2007-09-04 | 2012-08-01 | キヤノン株式会社 | 画像表示装置及びその制御方法 |
TW201027399A (en) * | 2009-01-09 | 2010-07-16 | E Lead Electronic Co Ltd | Method for aiding control of cursor movement through a track pad |
JP4908626B1 (ja) * | 2010-12-28 | 2012-04-04 | 株式会社東芝 | 表示制御装置および表示制御方法 |
JP5845783B2 (ja) * | 2011-09-30 | 2016-01-20 | カシオ計算機株式会社 | 表示装置、表示制御方法及びプログラム |
JP2013152711A (ja) * | 2011-12-28 | 2013-08-08 | Nikon Corp | 投影装置及び表示装置 |
-
2015
- 2015-04-16 WO PCT/JP2015/002090 patent/WO2015159547A1/ja active Application Filing
- 2015-04-16 JP JP2016513644A patent/JPWO2015159547A1/ja not_active Withdrawn
- 2015-04-17 US US14/689,253 patent/US20150302549A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20150302549A1 (en) | 2015-10-22 |
WO2015159547A1 (ja) | 2015-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2015159547A1 (ja) | 情報処理システム、制御方法、及びプログラム記録媒体 | |
US11625841B2 (en) | Localization and tracking method and platform, head-mounted display system, and computer-readable storage medium | |
US9524021B2 (en) | Imaging surround system for touch-free display control | |
US9600078B2 (en) | Method and system enabling natural user interface gestures with an electronic system | |
CN116348836A (zh) | 增强现实中用于交互式游戏控制的手势跟踪 | |
CN114080585A (zh) | 在人工现实环境中使用外围设备的虚拟用户界面 | |
WO2013035758A1 (ja) | 情報表示システム、情報表示方法、及び記憶媒体 | |
US9805509B2 (en) | Method and system for constructing a virtual image anchored onto a real-world object | |
US20170262134A1 (en) | Touch sensitive curved and flexible displays | |
US20180188894A1 (en) | Virtual Touchpads For Wearable And Portable Devices | |
US10379680B2 (en) | Displaying an object indicator | |
US20200103959A1 (en) | Drift Cancelation for Portable Object Detection and Tracking | |
TWI636381B (zh) | 互動顯示系統及互動顯示控制方法 | |
US20150253932A1 (en) | Information processing apparatus, information processing system and information processing method | |
WO2015159550A1 (ja) | 情報処理システム、制御方法、及びプログラム記録媒体 | |
TWI454653B (zh) | 三維絕對座標偵測系統、互動三維顯示系統以及辨識物體之三維座標的方法 | |
JP6643825B2 (ja) | 装置及び方法 | |
EP3088991B1 (en) | Wearable device and method for enabling user interaction | |
KR20200108660A (ko) | 2차원 카메라를 이용하여 객체 제어를 지원하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 | |
EP3059664A1 (en) | A method for controlling a device by gestures and a system for controlling a device by gestures | |
US11307662B2 (en) | Haptic-feedback presenting apparatus, haptic-feedback presenting system, and haptic-feedback presenting method | |
EP4083757A1 (en) | Touchless input interface for an electronic display using multiple sensors | |
US20230088402A1 (en) | Touch sensitive curved and flexible displays | |
WO2023194616A1 (en) | Calibration method for an electronic display screen for touchless gesture control | |
CN117372475A (zh) | 眼球追踪方法和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AA64 | Notification of invalidation of claim of internal priority (with term) |
Free format text: JAPANESE INTERMEDIATE CODE: A241764 Effective date: 20161227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170112 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180409 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20180523 |