JPWO2015159547A1 - 情報処理システム、制御方法、及びプログラム記録媒体 - Google Patents

情報処理システム、制御方法、及びプログラム記録媒体 Download PDF

Info

Publication number
JPWO2015159547A1
JPWO2015159547A1 JP2016513644A JP2016513644A JPWO2015159547A1 JP WO2015159547 A1 JPWO2015159547 A1 JP WO2015159547A1 JP 2016513644 A JP2016513644 A JP 2016513644A JP 2016513644 A JP2016513644 A JP 2016513644A JP WO2015159547 A1 JPWO2015159547 A1 JP WO2015159547A1
Authority
JP
Japan
Prior art keywords
image
projection
orientation
user
processing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2016513644A
Other languages
English (en)
Inventor
典良 広井
典良 広井
佐藤 慶明
慶明 佐藤
高梨 伸彰
伸彰 高梨
博之 渡部
博之 渡部
尊文 黒河
尊文 黒河
竜太郎 谷村
竜太郎 谷村
賢治 秋吉
賢治 秋吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solution Innovators Ltd
Original Assignee
NEC Solution Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solution Innovators Ltd filed Critical NEC Solution Innovators Ltd
Publication of JPWO2015159547A1 publication Critical patent/JPWO2015159547A1/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • G06T3/02
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/60Rotation of a whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]

Abstract

ユーザにとって扱いやすい画像を投影する。情報処理システム2000は、実対象物検出部2020、投影部2060、及び状態決定部2080を有する。実対象物検出部2020は、実対象物を検出する。投影部2060は、投影面に第1画像を投影する。状態決定部2080は、検出した実対象物の向き及び位置の少なくとも一つに基づいて、第1画像の向き及び投影面内における位置の少なくとも一つを決定する。投影部2060は、状態決定部2080によって決定された位置又は向きで第1画像を投影する。

Description

本発明は、情報処理システム、制御方法、及びプログラム記録媒体に関する。
ディスプレイやプロジェクタなどによって映像や情報を表示する広告媒体であるデジタルサイネージが知られている。そして、デジタルサイネージの中には、ユーザ操作に応じて表示内容等が変化するインタラクティブなものがある。例えば特許文献1の案内情報提供システムは、パンフレットのマーカに対してユーザが指差しを行うと、そのマーカに応じたコンテンツを床面等に表示する。
ディスプレイやプロジェクタなどによって画像等を表示する技術の一つが、特許文献2によって開示されている。特許文献2の家電制御システムは、操作者の位置の近傍に仮想的なスイッチとしての可視像を投影する。
特開2012−014606号公報 特開2009−223490号公報
画像を投影して情報を提示するデジタルサイネージにおいて、ユーザにとって扱いやすい状態で画像を投影することは重要である。ここで、ユーザにとって扱いやすい画像の状態は、画像を投影する投影面やその周辺の状況(例:ユーザの状況)に依存する。例えば、ユーザから遠い位置に表示される画像や、ユーザにとって見にくい角度で表示される画像は、ユーザにとって扱いにくい。特許文献1は、投影面が複数存在する場合に、ユーザの位置に応じて投影面を選択する技術を開示している。特許文献2は、操作者の位置に応じて投影位置を選択する技術を開示している。しかし、特許文献1及び特許文献2は、投影面やその周辺の状況に応じて投影する画像の状態を決定する方法は開示していない。
本発明は、以上の課題に鑑みてなされたものである。本発明の目的の1つは、ユーザにとって扱いやすい画像を投影する技術を提供することである。
本発明の一態様に係る第1の情報処理システムは、実対象物を検出する実対象物検出手段と、第1画像を取得する画像取得手段と、投影面に第1画像を投影する投影手段と、検出した実対象物の向き及び位置の少なくとも一方に基づいて、前記第1画像の向き及び投影面内における位置の少なくとも一方を決定する状態決定手段と、を有する。また、前記投影手段は、前記状態決定手段によって決定された位置又は向きで前記第1画像を投影する。
本発明の一態様に係る第2の情報処理システムは、第1画像を取得する画像取得手段と、投影面に第1画像を投影する投影手段と、ユーザ操作を検出し、検出したユーザ操作に応じて前記第1画像の投影面上の位置を変更する位置変更手段と、前記第1画像の移動方向に基づいて、投影する前記第1画像の向きを決定する方向決定手段と、を有する。また、前記投影手段は、前記第1画像の向きを、前記方向決定手段によって決定された向きに変更する。
本発明の一態様に係る第1の制御方法は、情報処理システムを制御するコンピュータによって実行される。当該制御方法は、実対象物を検出する実対象物検出ステップと、第1画像を取得する画像取得ステップと、投影面に第1画像を投影する投影ステップと、検出した実対象物の向き及び位置の少なくとも一方に基づいて、前記第1画像の向き及び投影面内における位置の少なくとも一方を決定する状態決定ステップと、を有する。また、前記投影ステップは、前記状態決定ステップによって決定された位置又は向きで前記第1画像を投影する。
本発明の一態様に係る第2の制御方法は、情報処理システムを制御するコンピュータによって実行される。当該制御方法は、第1画像を取得する画像取得ステップと、投影面に第1画像を投影する投影ステップと、ユーザ操作を検出し、検出したユーザ操作に応じて前記第1画像の投影面上の位置を変更する位置変更ステップと、前記第1画像の移動方向に基づいて、投影する前記第1画像の向きを決定する方向決定ステップと、を有する。また、前記投影ステップは、前記第1画像の向きを、前記方向決定ステップによって決定された向きに変更する。
本発明の一態様に係る記憶媒体は第1のプログラムを記憶する。第1のプログラムは、コンピュータに、情報処理システムを制御する機能を持たせる。当該プログラムは、前記コンピュータに、実対象物を検出する実対象物検出機能と、第1画像を取得する画像取得機能と、投影面に第1画像を投影する投影機能と、検出した実対象物の向き及び位置の少なくとも一方に基づいて、前記第1画像の向き及び投影面内における位置の少なくとも一方を決定する状態決定機能と、を持たせる。また、前記投影機能は、前記状態決定機能によって決定された位置又は向きで前記第1画像を投影する。本発明は、上述の記録媒体に記憶されている第1のプログラムによっても実現できる。
本発明の一態様に係る記憶媒体は、第2のプログラムを記憶する。第2のプログラムは、コンピュータに、情報処理システムを制御する機能を持たせる。当該プログラムは、前記コンピュータに、第1画像を取得する画像取得機能と、投影面に第1画像を投影する投影機能と、ユーザ操作を検出し、検出したユーザ操作に応じて前記第1画像の投影面上の位置を変更する位置変更機能と、前記第1画像の移動方向に基づいて、投影する前記第1画像の向きを決定する方向決定機能と、を持たせる。また、前記投影機能は、前記第1画像の向きを、前記方向決定機能によって決定された向きに変更する。本発明は、上述の記録媒体に記憶されている第2のプログラムによっても実現できる。
本発明によれば、ユーザにとって扱いやすい画像を投影する技術が提供される。
図1は、本発明の第1の実施形態に係る情報処理システム2000を示すブロック図である。 図2は、情報処理システム2000のハードウエア構成を例示するブロック図である。 図3は、投影装置100及び監視装置200を組み合わせた装置を例示する図である。 図4は、本発明の第1の実施形態の情報処理システム2000によって実行される処理の流れを例示するフローチャートである。 図5は、第1の適用例の情報処理システム2000の使用環境を例示する図である。 図6Aは、ユーザの正面方向にあるテーブルの様子を例示する平面図である。 図6Bは、ユーザの正面方向にあるテーブルの様子を例示する平面図である。 図7は、画像取得部を有する情報処理システム2000Aを例示するブロック図である。 図8Aは、コンテンツ画像の向きを説明するための図である。 図8Bは、コンテンツ画像の向きを説明するための図である。 図9は、コンテンツ画像の向きをユーザの胴体の長径方向に基づいて決定する方法を概念的に例示する図である。 図10は、基準点を用いて第1画像の向きを決定する方法を概念的に例示する図である。 図11は、ユーザの指の延伸方向に合わせてコンテンツ画像を投影する様子を例示する図である。 図12は、本発明の第2及び第3の実施形態に係る情報処理システム2000Bを例示するブロック図である。 図13は、辺検出部2100によって検出される辺を例示する図である。 図14は、マークを有するトレーにおける各辺を例示する図である。 図15は、テーブル上におけるトレーの位置と各辺との関係を例示する図である。 図16は、本発明の第2の実施形態の情報処理システム2000Bによって実行される処理の流れを例示するフローチャートである。 図17Aは、第2の適用例におけるテーブル上の様子を例示する図である。 図17Bは、第2の適用例におけるテーブル上の様子を例示する図である。 図18は、本発明の第3の実施形態の状態決定部2080が行う処理を概念的に例示する図である。 図19は、本発明の第4の実施形態に係る情報処理システム2000Cを示すブロック図である。 図20は、方向決定部が実行する処理を概念的に例示する図である。 図21は、コンテンツ画像の移動方向とその移動方向におけるコンテンツ画像の向きとの関係を例示する図である。 図22は、平均移動速度を用いてコンテンツ画像の向きを決定する方法を概念的に例示する図である。 図23は、本発明の第4の実施形態の情報処理システムによって実行される処理の流れを例示するフローチャートである。 図24は、情報処理システム2000Cのハードウエア構成を例示するブロック図である。
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
[第1の実施形態]
図1は、本発明の第1の実施形態に係る情報処理システム2000を示すブロック図である。図1において、実線の矢印は情報の流れを表す。さらに、図1において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
情報処理システム2000は、実対象物検出部2020、投影部2060、及び状態決定部2080を有する。後述されるように、情報処理システム2000は、さらに、第1画像を取得する画像取得部2040(図1において図示されない)を有していてもよい。実対象物検出部2020は、実対象物を検出する。実対象物は、実物体の全体であってもよいし、実物体の一部分であってもよい。投影部2060は、投影面に第1画像を投影する。投影部2060が投影する第1画像は、1つであってもよいし、複数であってもよい。状態決定部2080は、検出した実対象物の向き及び位置の少なくとも一つに基づいて、第1画像の向き及び投影面内における位置の少なくとも一つを決定する。そして、投影部2060は、状態決定部2080によって決定された位置又は向きで第1画像を投影する。
<ハードウエア構成>
情報処理システム2000の各機能構成部は、各機能構成部を実現するハードウエア構成要素(例:ハードワイヤードされた電子回路など)で実現されてもよい。情報処理システム2000の各機能構成部は、ハードウエア構成要素とソフトウエア構成要素との組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。
図2は、情報処理システム2000のハードウエア構成を例示するブロック図である。図2において、情報処理システム2000は、投影装置100、監視装置200、バス300、及び計算機1000によって実現されている。投影装置100は、画像を投影する機能を有する装置であり、例えばプロジェクタなどである。監視装置200は、周囲を監視する機能を有する装置であり、例えばカメラなどである。計算機1000は、サーバや PC (Personal Computer)など、種々の計算機である。バス300は、投影装置100、監視装置200、及び計算機1000の間で互いにデータを送受信するためのデータ伝送路である。ただし、投影装置100、監視装置200、及び計算機1000の間を接続する方法は、バス接続に限定されない。
なお、バス300にはさらに、外部入力機器が接続されていてもよい。外部入力機器は、例えば、無線マウス、リモコン、RF(Radio Frequency)タグを読み取るリーダ、又は NFC(Near Field Communication) の IC (Integrated Circuit)チップ等を読み取るリーダなどである。
<<計算機1000の詳細>>
計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージ1080、及び入出力インタフェース1100を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージ1080、及び入出力インタフェース1100が、相互にデータを送受信するためのデータ伝送路である。図2において、入出力インタフェース1100は、「入出力I/F1100」(InterFace)と表記される。ただし、プロセッサ1040などを互いに接続する方法は、バス接続に限定されない。プロセッサ1040は、例えば CPU (Central Processing Unit) や GPU (Graphics Processing Unit) などの演算処理装置である。メモリ1060は、例えば RAM (Random Access Memory) や ROM (Read Only Memory) などのメモリである。ストレージ1080は、例えばハードディスク、SSD (Solid State Drive)、又はメモリカードなどの記憶装置である。また、ストレージ1080は、RAM や ROM 等のメモリであってもよい。入出力インタフェース1100は、バス300を介して投影装置100や監視装置200との間でデータを送受信するための入出力インタフェースである。なお、入出力インタフェース1100は、ネットワークに接続するためのネットワークインタフェースを有してもよい。ネットワークは有線回線で実現されてもよいし、無線回線で実現されてもよいし、有線回線と無線回線の組み合わせで実現されてもよい。
ストレージ1080は、情報処理システム2000の機能を実現するためのプログラムとして、実対象物検出モジュール1220、投影モジュール1260、及び状態決定モジュール1280を記憶している。ストレージ1080は、さらに、プロセッサ1040が実行することによって画像取得部2040の機能を実現する画像取得モジュール(図示されない)を記憶していてもよい。
実対象物検出部2020は、監視装置200及び実対象物検出モジュール1220の組み合わせによって実現される。例えば、実対象物検出モジュール1220は、監視装置200によって撮像された画像を取得して解析することで、実対象物を検出する。実対象物検出モジュール1220は、プロセッサ1040によって実行される。
投影部2060は、投影装置100及び投影モジュール1260の組み合わせによって実現される。例えば投影モジュール1260は、「投影する画像、その画像を投影する投影位置」の組み合わせを示す情報を投影装置100へ送信する。投影装置100は、この情報に従って画像を投影する。投影モジュール1260は、プロセッサ1040によって実行される。
プロセッサ1040は、状態決定モジュール1280を実行することで、状態決定部2080の機能を実現する。
例えばプロセッサ1040は、上記各モジュールを実行する際、これらのモジュールをメモリ1060上に読み出してから実行してもよいし、メモリ1060上に読み出さずに実行してもよい。
計算機1000のハードウエア構成は図2に示した構成に限定されない。例えば、各モジュールはメモリ1060に格納されてもよい。この場合、計算機1000は、ストレージ1080を備えていなくてもよい。
<<投影装置100及び監視装置200の詳細>>
図3は、投影装置100及び監視装置200を組み合わせた装置400を例示する図である。図3の装置400は、投影装置100、監視装置200、及び投影方向調整部410を有する。なお、投影方向調整部410は、投影方向調整部410−1、2、及び3の組み合わせによって実装されている。ここで、投影装置100の投影方向と監視装置200は一致していてもよいし、異なっていてもよい。同様に、投影装置100の投影範囲と監視装置200の監視範囲は一致していてもよいし、異なっていてもよい。
投影装置100は、例えば、可視光プロジェクション装置や赤外光プロジェクション装置である。投影装置100は、予め決まったパターンや文字、または自由なパターンや文字を表す光を投射部から照射することで、投影面上にさまざまな画像を投影する。
監視装置200は、例えば、可視光カメラ、赤外線カメラ、距離センサ、距離認識処理装置、及びパターン認識処理装置の中の1つ、又は複数個の組み合わせによって実装される。監視装置200は、例えば、空間情報を単純に2次元画像で撮影するカメラと、これらの画像より対象物の情報を選択的に抽出する画像処理装置との組み合わせであってもよい。また、監視装置200は、赤外線パターン投射装置と赤外線カメラとの組み合わせによって実装されていてもよい。監視装置200は、赤外線パターン投射装置と赤外線カメラとを用いて、パターンの乱れや3角測量の原理に基づいて空間の情報を取得してもよい。また、監視装置200は、複数の異なる方向から同時に撮影することにより、平面情報と共にその奥行き方向の情報を取得してもよい。監視装置200は、さらに非常に短い光パルスを対象物に照射し、その光が対象物で反射され戻るまでの時間を計測することによって、対象物の空間情報を取得してもよい。
投影方向調整部410は、投影装置100による画像投影位置を調整できるように設計されている。例えば、投影方向調整部410は、装置400が含む装置の全体または一部を回転させるまたは移動させる機構を持つ。そして、投影方向調整部410は、当該機構を用いて投影装置100から投影される光の向きや位置を変えることによって、画像を投影する位置を調整する(すなわち移動させる)。
ただし、投影方向調整部410は、図3に示される構成に限定されない。例えば投影方向調整部410は、投影装置100から出た光を可動型ミラーによって反射させたり、特殊な光学系によって光の向きを変えたりするように設計されてもよい。ここで、上記可動型ミラーは、装置400に組み込まれる形で設けられていてもよいし、装置400とは独立して設置されていてもよい。また、投影方向調整部410は、投影装置100そのものを移動できるように設計されていてもよい。
投影装置100は、例えば、内部レンズを稼動させることによる、投影面に応じて投影画像のサイズを変える機能、及び投影面との距離に応じて焦点位置を調整する機能を持っていても良い。投影面の投影位置中心と投影装置100の中心を結ぶ直線(すなわち光軸)と、投影面の垂直方向に伸ばした直線の向きが異なる場合、投影範囲内において投影距離が異なる。投影装置100は、投影範囲内における投影距離の変化に対処できるよう特別に設計された、深い焦点作動距離を持つ光学系を有するように設計されても良い。
投影方向調整部410は、投影装置100の本来の投射範囲が広い場合、投影装置100から出る光の一部をマスクすることによって、所望の位置に画像を表示してもよい。また、投影装置100の本来の投射角度が大きい場合、必要な箇所にのみ光が投射されるように画像信号を加工し、投影装置100にその加工された画像信号が表す画像データを引き渡してもよい。
投影方向調整部410は、投影装置100に加えて、監視装置200も回転または移動してもよい。例えば図3に例示する構造では、投影方向調整部410が投影装置100の投影方向を変更すると、それに伴い監視装置200の監視方向も変わる(監視範囲が変わる)。この場合、投影方向調整部410には、監視装置200の監視範囲が所定領域からずれる事を防ぐため、高精度の回転情報取得装置(図示されない)または位置情報取得装置(図示されない)などが含まれる。ただし、投影装置100の投影範囲と監視装置200の監視範囲は、別々に変更可能であってもよい。
なお、第1画像の向きの変更は、計算機1000が第1画像に対して画像処理を施すことによって実現されてもよい。この場合、投影装置100は、投影方向調整部410によって第1画像を回転させる必要はない。投影装置100は、計算機1000から受信した第1画像をそのまま投影すればよい。
装置400は、例えば天井や壁面などに固定された状態で設置される。ここで、設置された装置400は天井や壁面から全て露出していてもよいし、一部または全体が天井や壁面の内部に埋没していてもよい。なお、投影装置100が可動型ミラーを用いて投影方向を調整する場合、この可動型ミラーは、装置400とは別に天井や壁面に設置されてもよい。
なお、上述の例では投影装置100と監視装置200とが同じ装置400に組み込まれているが、投影装置100と監視装置200とは独立に設置されていてもよい。
また、実対象物の検出に用いられる監視装置200とユーザ操作の検出に用いられる監視装置200は、同じ監視装置200であってもよいし、それぞれ別々に設けられた監視装置200であってもよい。
<処理の流れ>
図4は、第1の実施形態の情報処理システム2000によって実行される処理の流れを例示するフローチャートである。ステップS102において、実対象物検出部2020は、実対象物を検出する。ステップS104において、情報処理システム2000は、第1画像を取得する。ステップS106において、状態決定部2080は、検出された実対象物の向き及び位置の少なくとも一つに基づいて、第1画像の向き及び投影面内における位置の少なくとも一つを決定する。ステップS108において、投影部2060は、状態決定部2080によって決定された位置又は向きで第1画像を投影する。
<作用・効果>
本実施形態によれば、検出した実対象物の向き及び位置の少なくとも一つに基づいて、投影面に投影する画像の向き及び投影面内における位置の少なくとも一つが決定される。そのため、投影面、投影面上の物、又は投影面の周辺の物を実対象物として検出するように情報処理システム2000を構成することにより、これらの物の向き又は位置に基づいて、投影される画像の向き又は投影面内における位置が決定される。例えば後述するように、ユーザの顔の向き等に応じた向きで画像を投影することが可能となる。その結果、ユーザにとって扱いやすい状態で第1画像を投影することができる。そのため、情報処理システム2000をユーザにとって使いやすいシステムにすることができる。
<第1の適用例>
本実施形態の情報処理システム2000をより理解しやすくするため、本実施形態の情報処理システム2000の適用例を示す。なお、以下に示す情報処理システム2000の使用環境や使用方法はあくまで例示であり、情報処理システム2000の使用環境や使用方法を限定するものではない。なお、本適用例の情報処理システム2000のハードウエア構成は、図2において表される構成であるとする。
図5は、本適用例の情報処理システム2000の使用環境を例示する図である。本適用例の情報処理システム2000は、喫茶店やレストラン等において利用されるシステムである。情報処理システム2000は、天井に設置された装置400からテーブル10上に画像を投影することによってデジタルサイネージを実現する。ユーザは、テーブル10上に投影されたコンテンツを閲覧したりしながら、食事をしたり、食事が届くのを待つことができる。図5から分かるように、本適用例ではテーブル10が投影面となっている。なお、装置400は天井以外の場所(例:壁面)に設置されていてもよい。
図6A及び図6Bは、ユーザの正面方向にあるテーブル10の様子を例示する平面図である。図6A及び図6Bにおいて、コンテンツ画像40は、電子ブックの表紙を示している。ただし、コンテンツ画像40が表すコンテンツは、電子ブックのようなデジタルコンテンツだけでなく、実物体(アナログコンテンツ)でもよい。またコンテンツはサービスであってもよい。トレー20及びマーク30については、後で説明する。
本適用例における実対象物はユーザである。例えば情報処理システム2000は、ユーザの向きに応じ、ユーザの見やすい向きでコンテンツ画像40を投影する。図6Aは、コンテンツ画像40が好ましくない向きで投影されている様子を例示する図である。ユーザから見るとコンテンツ画像40が右に傾いている状態であり、コンテンツ画像40の向きはユーザにとって見にくい向きであると言える。
一方、図6Bは、情報処理システム2000が、ユーザの向きに応じた適切な向きでコンテンツ画像40を投影している様子を例示する図である。コンテンツ画像40が正面方向を向いているため、コンテンツ画像40の向きがユーザにとって見やすい向きになっている。
図6Bの様にユーザの向きに応じてコンテンツ画像40を投影する具体的な方法や、情報処理システム2000がコンテンツ画像40の位置や向きを決定するその他の方法などについては、以降で詳しく述べる。
以下、本実施形態の情報処理システム2000について、さらに詳細に説明する。
<第1画像の取得方法>
情報処理システム2000は、例えば図7に示す情報処理システム2000Aのように、第1画像を取得する画像取得部2040をさらに有していてもよい。図7は、画像取得部2040を有する情報処理システム2000Aを例示するブロック図である。画像取得部2040が第1画像を取得する方法は様々である。画像取得部2040は、例えば、外部の装置から入力される第1画像を取得してもよい。画像取得部2040は、例えば、手動で入力される第1画像を取得してもよい。さらに画像取得部2040は、外部の装置にアクセスすることによって、第1画像を取得してもよい。
1つのコンテンツに対して、複数の第1画像があってもよい。前述したようにコンテンツが電子ブックである場合、1つの電子ブックに対する第1画像は、例えば、表紙の画像や、各ページを表す画像である。また、コンテンツが実物体である場合、第1画像は、例えば、その実物体を様々な角度から撮影した画像である。なお、前述した通り、第1画像が表すコンテンツは商品に限定されず、サービスであってもよい。
<投影部2060の詳細>
投影部2060は、前述のように、例えばプロジェクタ等の画像を投影する投影装置100を有する。投影部2060は、画像取得部2040によって取得された第1画像を取得し、取得した第1画像を投影面へ投影する。
投影部2060が画像を投影する投影面は様々である。投影面は、例えば前述の適用例におけるテーブル10である。投影面は、例えば壁や床などである。また、投影面は人の身体の少なくとも一部(例:手のひら)であってもよい。また投影面は実対象物の一部または全体であってもよい。
<実対象物検出部2020の詳細>
実対象物検出部2020は、上述した監視装置200を有する。ここで、実対象物検出部2020には、「何を実対象物として検出するか」を設定できるように設計されているとする。そして、実対象物検出部2020は、監視装置200の監視範囲の中に、設定された条件を満たす物が含まれているか否かを判定する。そして、設定された条件を満たす物が含まれている場合、その物を実対象物とする。実対象物は、投影面、投影面上にある物、又は投影面の周辺にある物などである。投影面は、例えば図5におけるテーブル10である。また投影面上にある物とは、例えば図6A及び図6Bにおけるトレー20などである。また投影面の周辺にある物とは、例えば図5におけるユーザである。
例えば監視装置200が撮像装置である場合、実対象物検出部2020は、監視装置200によって生成された撮像画像に対してオブジェクト認識を行うことによって、実対象物を検出する。ここで、オブジェクト認識は既知の技術であるため、詳細な説明は省略する。
また例えば、監視装置200が可視光以外の波長域(例えば赤外光や紫外光など)においても撮影できる撮像装置である場合、実対象物には撮影装置が撮影できる不可視の印刷がされていてもよい。ここで、監視装置200によって生成された不可視の撮像画像に対する処理は同様のため、説明は省略する。
また例えば、実対象物検出部2020は距離センサを用いて実現される。この場合、監視装置200は、例えばレーザ式距離センサを用いて実現される。実対象物検出部2020は、このレーザ距離センサを用いて第1画像の投影面やその周辺の高さ変化を測定することによって、実対象物の形状と、時間に対する形状変化(すなわち変形)を検出する。形状と変形を読み取る技術は既知の技術であるため、詳細な説明は省略する。
<第1画像の向きの決定方法>
第1画像の向きは、例えば第1画像の垂直方向又は水平方向を指標として表される。図8A及び図8Bは、コンテンツ画像40の向きを説明するための図である。図8Aが示すコンテンツ画像40の向きを、基準状態における向きとする。これに対し、図8Bは、コンテンツ画像40の向きが、基準状態から変更されている。図8Bにおけるコンテンツ画像40の向きは、「水平方向の向きが基準状態から+30°変更された」とも表現できるし、「垂直方向の向きが基準状態から+30°変更された」とも表現できる。なお、第1画像の向きは、垂直方向や水平方向以外を用いて定められてもよい。
<<ユーザの顔の向き>>
例えば状態決定部2080は、ユーザの顔の向きを割り出し、割り出したユーザの顔の向きに合わせて第1画像の向きを決定する。この場合、実対象物検出部2020がユーザの顔を検出する。状態決定部2080は検出された顔から、顔の向きを決定する。そして状態決定部2080は、第1画像の垂直方向の向きを、ユーザの顔が向いている向きと同じ向きにする。
<<ユーザの視線方向>>
また例えば、状態決定部2080は、ユーザの視線方向を割り出し、割り出したユーザの視線方向に合わせて第1画像の向きを決定してもよい。例えばユーザの白目と黒目の位置関係などをもとに、ユーザの視線方向を割り出すことができる。この場合、実対象物検出部2020は、ユーザの白目及び黒目の位置を検出する。状態決定部2080は、第1画像の垂直方向の向きを、例えばユーザの視線方向と同じ向きにする。
<<ユーザの胴体の向き>>
また状態決定部2080は、例えば、ユーザの胴体の向きを割り出し、割り出したユーザの胴体の向きに合わせて第1画像の向きを決定してもよい。この場合、実対象物検出部2020がユーザの胴体を検出する。状態決定部2080は、検出された胴体から、胴体の向きを割り出す。そして、状態決定部2080は、第1画像の水平方向の向きを、ユーザの胴体の向きに基づいて決定する。ここで一般に、胴体を楕円形と見立てた場合、第1画像の水平方向の向きを胴体の長径方向にすることによって、正面を向いているユーザにとって第1画像が見やすくなる。そこで状態決定部2080は、例えば、ユーザの胴体の長径方向を割り出し、第1画像の水平方向の向きを、割り出した長径方向と同じ向きにする。
ここで、ユーザの胴体の長径方向として2通りの向きが考えられる。この2通りの向きのどちらが適切な向きであるのかを、例えばユーザとテーブル10(投影面)との位置関係によって決定できる。図9を用いて具体的に説明する。図9は、コンテンツ画像40の向きをユーザ50の胴体の長径方向に基づいて決定する方法を概念的に例示する図である。図9において、ユーザ50の胴体の長径方向のみに基づいてコンテンツ画像40の向きを考えると、コンテンツ画像40の水平方向の向きとして (i) と (ii) の2通りの向きが考えられる。しかしこの場合、状態決定部2080は、人と投影面との位置関係から、(i) が適切であることを割り出し、テーブル10上にコンテンツ画像40−1に示す向きでコンテンツ画像を投影する。
なお、状態決定部2080は、「第1画像の垂直方向の向きをユーザの胴体の短径方向に合わせる」という方法を用いてもよい。この場合も同様にユーザの胴体の短径方向は2通り考えられるものの、状態決定部2080は、ユーザと投影面との位置関係により、適切な短径方向を決定できる。
例えばユーザの胴体の長径方向、及びユーザと投影面の位置関係の算出は、ユーザの視線や顔の向きの算出が難しい状況において有効である。例えば、実対象物検出部2020を低解像度のカメラで実現する場合などが考えられる。
<<ユーザの腕の向き>>
また例えば、状態決定部2080は、ユーザの腕の向きを割り出し、割り出したユーザの腕の向きに合わせて第1画像の向きを決定してもよい。この場合、実対象物検出部2020がユーザの腕を検出し、状態決定部2080は、検出された腕をもとに、腕の向きを割り出す。そして、状態決定部2080は、第1画像の水平方向の向きを、ユーザの腕の向きに基づいて決定する。
ここで、ユーザの2本の腕の向きが異なる場合が考えられる。この2本の腕のどちらが適切であるのかを、例えばユーザとテーブル10(投影面)との位置関係などによって決定できる。第1の選択基準では、2本の腕のうち、テーブル10での動きが大きい腕が基準として選択される。ユーザはどちらか片方(多くの場合は利き手)を操作に利用するからである。両方の腕がほぼ同様に動く場合は、第2の選択基準として、テーブル10に載っている物体(例えばトレー20など)が少ない側の腕を基準として選択する。投影面とする箇所には余計な物が有ると見にくいためである。さらに第2の選択基準でも判定が難しい場合、第3の判定基準として右腕側を基準として選択する。統計的に右腕側が利き手である場合が多いからである。
ユーザの腕の向きを基準として使用して第1画像の向きを決定する場合は、ユーザの腕の動きが最小になり、操作が簡単になるように第1画像の向きを決定することができる。そのため、そのように第1画像の向きを決定する方法は、アンケートフォームやゲームなど入力が多いコンテンツに有効である。また、ユーザの腕の向きを基準として使用して第1画像の向きを決定する場合、どのタイミングで第1画像の向きを決定するかが重要である。入力の際はユーザの腕の位置と向きとが頻繁に変わる。そのため、状態決定部2080は、コンテンツに応じて、一定時間内の腕の平均の向きに基づいて第1画像の向きを決定しても良いし、ある瞬間の腕の向きを基準として使用して第1画像の向きを決定しても良い。
<<基準点の利用>>
第1画像の向きを決定するその他の方法として、第1画像が基準点を向くようにする方法がある。図10は、基準点70を用いて第1画像の向きを決定する方法を概念的に例示する図である。点線は、コンテンツ画像40の中心と基準点70とを結ぶ直線を示している。図10に示す例の場合、状態決定部2080は、コンテンツ画像40と基準点70とを結ぶ直線の延伸方向に合わせるように、コンテンツ画像40の垂直方向の向きを決定する。その結果、図10において、各コンテンツ画像40は、垂直方向の向きが基準点70を向くように投影されている。
例えば基準点は、投影面上に予め付されているマークである。ただし、状態決定部2080は、投影面上に予め付されている物以外の物を基準点として用いてもよい。例えば状態決定部2080は、図6A及び図6Bにおけるトレー20やマーク30などを基準点としてもよい。
また、基準点は、投影面の周辺にある物であってもよい。さらに、状態決定部2080は、定められた規則に従って基準点を算出し、算出した基準点を用いてもよい。例えば状態決定部2080は、投影面の中心点を算出し、その中心点を基準点として扱ってもよい。また、状態決定部2080は、投影面やその周辺における予め定められた座標を基準点として扱ってもよい。
ここで、「何を基準点とするか」を示す情報を示す情報は、情報処理システム2000が有する格納部(図示されない)に格納しておく。例えば状態決定部2080がオブジェクト認識を用いて基準点を特定する場合、この格納部には、基準点とする物の特徴量等を格納しておく。また、予め定めた座標を基準点とする場合、この座標を格納部に格納しておく。
<<操作体の向き>>
さらに、第1画像の向きを決定するその他の方法として、ユーザの操作体の向きに合わせる方法がある。ここで、ユーザの操作体とは、ユーザの腕、手、若しくは指、又はユーザが操作に用いるタッチペンなどである。例えばこの場合、実対象物検出部2020はユーザの操作体を検出する。状態決定部2080は、検出された操作体の延伸方向を割り出し、その延伸方向に基づいて第1画像の向きを決定する。
図11は、ユーザの指80の延伸方向に合わせてコンテンツ画像40を投影する様子を例示する図である。点線は、指80の延伸方向を示している。図11の場合、実対象物検出部2020は、指80、又は指80を含むユーザの手などを実対象物として検出する。状態決定部2080は、実対象物に含まれる指80から、指80の延伸方向(すなわち図11における点線方向)を割り出す。そして、状態決定部2080は、コンテンツ画像40の垂直方向の向きを、指80の延伸方向の向きとする。
第1画像の向きを決定する方法のその他の例については、後述の実施形態でさらに述べる。
<第1画像の位置の決定>
状態決定部2080は、例えば、投影面内であり、かつ実対象物の付近の位置を、第1画像の投影位置とする。状態決定部2080は、例えば、図6A及び図6Bにおけるトレー20やマーク30、図9におけるユーザ50、又は図11におけるユーザの指80や手などの付近を、第1画像の投影位置とする。
ここで、「実対象物の付近」の定義は様々である。例えば「実対象物の付近」は、実対象物から所定距離離れた位置である。なお、この所定距離は0であってもよく、その場合、実対象物に接する位置や実対象物と重なる位置に第1画像が投影される。また「実対象物の付近」は、実対象物の大きさに基づいて決定されてもよい。例えば、状態決定部2080は、実対象物の大きさが n である場合に、この実対象物から n/x 離れた位置に第1画像を投影する(n、x は正の実数)。この場合、x の値は、情報処理システム2000が有する格納部に予め格納しておく。
また、実対象物が投影面上にある場合、状態決定部2080は、実対象物上の位置を第1画像の投影位置としてもよい。例えば図6A及び図6Bにおけるトレー20やマーク30、図11におけるユーザの指80や手の上に、第1画像を投影することが考えられる。
第1画像の位置を決定する方法のその他の例については、後述の実施形態でさらに述べる。
なお、状態決定部2080は、第1画像の位置の決定と向きの決定に、異なる実対象物を用いてもよい。状態決定部2080は、例えば、第1画像の位置を投影面上の物(例:図6におけるトレー20)の付近とし、第1画像の向きをユーザの顔の向きに合わせてもよい。
状態決定部2080は、第1画像の向き又は投影面内の位置を決定するために、投影されている第1画像に関連する情報を取得する。状態決定部2080は、例えば、第1画像そのものや第1画像の各種属性などを取得する。
状態決定部2080は、投影する第1画像に関連する情報を、例えば、画像取得部2040又は投影部2060から取得する。また、状態決定部2080は、投影する第1画像を特定する情報(例:第1画像のID(Identification))を画像取得部2040又は投影部2060から取得し、特定された第1画像に関連するその他の情報を情報処理システム2000の外部から取得してもよい。
[第2の実施形態]
図12は、第2の実施形態に係る情報処理システム2000Bを例示するブロック図である。図12において、矢印は情報の流れを表している。さらに、図12において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
第2の実施形態において、実対象物は、投影面上の物体である。そして、第2の実施形態の情報処理システム2000Bは、実対象物の周に含まれる辺(例:テーブルの縁)の向き及び位置の少なくとも一方に基づいて、第1画像の向き及び投影面内の位置の少なくとも一方を決定する。そのために、第2の実施形態の情報処理システム2000Bは、辺検出部2100を有する。
辺検出部2100は、実対象物の周に含まれる辺を検出する。そして、第2の実施形態の状態決定部2080は、検出された辺の向き及び位置の少なくとも一方に基づいて、第1画像の向き及び投影面内における位置の少なくとも一方を決定する。
図13を用いて具体的に説明する。図13は、辺検出部2100によって検出される辺を例示する図である。図13において、実対象物はトレー20である。この場合、辺検出部2100は、トレー20の周に含まれる辺である辺60を検出する。そして、状態決定部2080は、辺60の延伸方向に合わせてコンテンツ画像40の向きを決定する。また、状態決定部2080は、辺60の付近をコンテンツ画像40の投影位置とする。ここで、「辺60の付近」は、第1の実施形態で説明した「実対象物の付近」と同様に定められる。
ここで一般に、実対象物は複数の辺を有する。この場合、状態決定部2080は、何らかの基準に従って、第1画像の向きや位置を決定するために用いる辺を特定する。例えば1つの方法として、実対象物に予め基準となるマーク等を付しておく方法がある。この場合、状態決定部2080は、実対象物に含まれる辺の内、マーク付近の辺を用いる。図14は、マーク30を有するトレー20における各辺を例示する図である。図14において、トレー20は4つの辺60−1から60−4を有する。状態決定部2080は、この4つの辺の内、マーク30付近の辺である辺60−2を用いる。
また、実対象物にマーク等を付さず、どの辺を用いるかを予め情報処理システム2000Bにおいて定められていてもよい。例えば実対象物としてトレー20を用いることが決まっている場合に、例えば情報処理システム2000Bの管理者などが「トレー20の右辺を用いる」などの辺を選択する条件を予め定めておく。なお、トレー20のどの辺が右辺になるかは、トレー20が置かれている投影面上の位置によって割り出すことができる。図15は、テーブル10上におけるトレー20の位置と各辺との関係を例示する図である。図15において、トレー20−1から20−4のそれぞれについて、トレーの位置によってそのトレーの各辺が上下左右のどの辺なのかが定まっている。また、「トレー20の辺の内、テーブル10の中心に最も近い辺を上辺とする」という方法でも、トレー20の各辺がどの辺なのかを割り出せる。
なお、本実施形態における「辺」は、実対象物の周の一部(言い換えると縁の一部)を意味しており、必ずしも実対象物が持つ頂点を端とする線分に限定されない。例えば実対象物が球体や円盤状の物である場合には、周の一部である円弧が辺となる。このように辺が曲線である場合、例えば状態決定部2080は、辺の接線方向を、辺の向きとして扱う。
実対象物が、球体や円盤状の物などのように、頂点や頂点と見なせるような角を持たない場合、例えば辺検出部2100は、実対象物の周を、定められた方法によって辺に分割することによって、辺を検出する。ここで、周を辺に分割する方法は様々である。辺検出部2100は、例えば予め定められた大きさで、周を辺に分割する。その場合、周を辺に分割する方法は、例えば、「周を 20cm (centimeter)ごとの辺に分割する」といった方法である。その場合、辺検出部2100は、あらかじめ定められた大きさに満たない周の一部が残った場合、その周の一部も辺にしてもよい。また、辺検出部2100は、例えば周を予め決められた数の辺に分割してもよい。その場合、周を辺に分割する方法は、例えば、「周を5等分に分割する」といった方法である。
なお、このように周を辺に分割する方法を用いて、図14のように頂点や頂点と見なせる角を持つ周の各辺を、さらに細かく辺に分けてもよい。例えば図14において、4つの辺をそれぞれ4等分し、16個の辺に分割することなどが考えられる。
<処理の流れ>
図16は、第2の実施形態の情報処理システム2000Bによって実行される処理の流れを例示するフローチャートである。図16のステップS102、S104、S108はそれぞれ、図4における同符号のステップと同様の処理である。そのため、これらの処理については説明を省略する。
ステップS202において、辺検出部2100は、実対象物の周に含まれる辺を検出する。ステップS204において、状態決定部2080は、検出された辺の向き及び位置の少なくとも一つに基づいて、第1画像の向き及び投影面内の位置の少なくとも一つを決定する。
<作用・効果>
本実施形態によれば、投影面上の実対象物の周に含まれる辺の向き及び位置の少なくとも一つに基づいて、第1画像の向き及び投影面内における位置の少なくとも一つが決定される。ここで、投影面上にある実対象物は、ユーザによって扱いやすい状態で置かれている可能性が高い。例えばユーザがテーブルなどの上に置くトレー、携帯端末、又は筆記具などは、ユーザにとって扱いやすい向きや位置で置かれている可能性が高い。また、ユーザのために予めテーブルなどの上に実対象物(例:レストランにおけるメニューなど)を置いておく場合にも、その実対象物はユーザにとって扱いやすい向きや位置で置かれることが一般的である。そのため、投影面上に置かれている実対象物の周に含まれる辺は、ユーザにとって見やすい向きや位置を表すと見なすことができる。したがって、本実施形態によれば、ユーザにとって見やすい向きや位置に第1画像が投影される確率が高くなる。また、辺の向きを算出する処理は、ユーザの顔の向きや視線方向などを検出する処理と比較して、単純であるため、第1画像の向きや位置の決定に要する計算時間や計算機資源を削減できる。その結果、情報処理システム2000Bによる第1画像の投影処理を高速にできる。
<第2の適用例>
本実施形態の情報処理システム2000Bについてより理解をしやすくするため、第1の適用例と同様の環境を想定した第2の適用例について説明する。図17A及び図17Bは、第2の適用例におけるテーブル上の様子を例示する図である。本適用例において、トレー20上に付されているマーク30は、買い物かごを表すマークである。そして、情報処理システム2000Bは、コンテンツ画像40をマーク30へドラッグすることにより、そのコンテンツ画像40によって表されるコンテンツをユーザの買い物かごに入れることができる機能を提供する。
ユーザは、買い物かごに入れたコンテンツの決済を、店のレジで行うか、又はオンラインで行うかを選択できる。情報処理システム2000Bは、この選択を行う方法として、「レジでの支払い」を選択するためのコンテンツ画像41(Pay HERE)と、「オンライン決済」を選択するための画像であるコンテンツ画像42(Pay ONLINE)を表示する。コンテンツ画像41とコンテンツ画像42における「コンテンツ」は、情報処理システム2000Bによって提供される決済サービスを意味する。
図17A及び図17Bに示すように、この2つの画像は吹き出しの形をしている。状態決定部2080は、コンテンツ画像41とコンテンツ画像42のそれぞれについて、吹き出しがマーク30から出ているように見えるように、コンテンツ画像41とコンテンツ画像42の表示位置を決定する。そのために、状態決定部2080は、コンテンツ画像41とコンテンツ画像42の投影位置を決定するのに使用する実対象物として、マーク30を用いる。
さらに状態決定部2080は、トレー20の辺に沿うように、コンテンツ画像41とコンテンツ画像42を表示する。そのために、辺検出部2100は、トレー20の辺であり、かつマーク30の付近の辺である辺60を検出する。状態決定部2080は、辺60の延伸方向に合わせてコンテンツ画像41とコンテンツ画像42の垂直方向の向きを決定する。
なお、辺検出部2100は、「コンテンツ画像41とコンテンツ画像42の水平方向の向きを、辺60に対して垂直な方向に合わせる」という方法で、コンテンツ画像41とコンテンツ画像42の向きを決定してもよい。
情報処理システム2000Bは、例えばトレー20の向きが変更された場合、その変更に追従してコンテンツ画像41やコンテンツ画像42の位置や向きを変更してもよい。当初図17Aに示すように置かれていたトレー20の向き及び位置が、図17Bに示す向き及び位置に変更されたとする。この場合、情報処理システム2000Bは、図17Bに示すように、変更後のトレー20の位置及び向きに合わせて、コンテンツ画像41とコンテンツ画像42の位置及び向きも変更する。
[第3の実施形態]
第3の実施形態に係る情報処理システム2000Bの構成は、第2の実施形態と同様に図12で表される。
第3の実施形態において、実対象物検出部2020が検出する実対象物は、投影面に近接しているユーザである。第3の実施形態の辺検出部2100は、投影面の周に含まれかつユーザに近接している辺を検出する。そして、第3の実施形態の状態決定部2080は、その辺の向き及び位置の少なくとも一方に基づいて、第1画像の向き及び投影面内における位置の少なくとも一方を決定する。
第3の実施形態の実対象物検出部2020は、投影面に近接しているユーザを検出する。そして、第3の実施形態の辺検出部2100は、投影面の周に含まれる辺であり、かつ実対象物検出部2020によって検出されたユーザに近接している辺を検出する。
なお、投影面の周囲に複数のユーザが存在し、全てのユーザが第1画像を共有する場合もある。この場合、例えば辺検出部2100は、複数のユーザの位置の重心位置に近接している辺を検出する。また、辺検出部2100は、例えば複数のユーザの中から基準とするユーザを決定し、そのユーザに近接している辺を検出する。実対象物検出部2020が、例えば、ユーザだけでなく椅子等の周囲の物体も検出してもよい。この場合、辺検出部2100は、椅子に座っているユーザを検出し、椅子に座っているユーザを基準のユーザとみなしてもよい。また、投影面上に物が置かれている場合(例:テーブル10上におけるトレー20)、辺検出部2100は、投影面上に置かれている物に最も近いユーザを基準のユーザとしてもよい。
<第1画像の向きの決定>
辺検出部2100によって検出された辺が直線である場合、状態決定部2080は、第1画像の水平方向の向きが検出された辺の延伸方向に合うように、第1画像の向きを決定する。また、辺検出部2100によって検出された辺が曲線である場合、状態決定部2080は、例えば、検出された辺の接線を割り出し、第1画像の水平方向の向きがその割り出された接線の方向に合うように、第1画像の向きを決定する。
<第1画像の位置の決定>
状態決定部2080は、辺検出部2100によって検出された辺の付近を、第1画像を投影する位置とする。「辺の付近」は、第1の実施形態で説明した「実対象物の付近」と同様の方法で定められる。
図18は、第3の実施形態の状態決定部2080が行う処理を概念的に例示する図である。辺検出部2100は、投影面であるテーブル10の周に含まれる辺のうち、ユーザ50−1に近接している辺を検出し、検出した辺の接線61−1を算出する。そして、状態決定部2080は、ユーザ50に見せるコンテンツ画像40−1の向き及び位置を、接線61−1に基づいて決定する。具体的には、状態決定部2080は、ユーザ50−1の付近をコンテンツ画像40−1の投影位置とする。また、状態決定部2080は、コンテンツ画像40−1の水平方向の向きが接線61−1の延伸方向に合うように、コンテンツ画像40−1の向きを決定する。その結果、コンテンツ画像40−1の向き及び位置は、図18に示す向き及び位置となる。情報処理システム2000Bは、ユーザ50−2に見せるコンテンツ画像40−2についても同様の処理を行って投影する。
<作用・効果>
本実施形態によれば、投影面の周に含まれかつユーザに近接している辺の向き及び位置の少なくとも一方に基づいて、第1画像の向き及び投影面内の位置の少なくとも一方が決定される。情報処理システム2000Bによって投影される画像は、投影面に近接しているユーザによって閲覧される確率が高い。また一般に、ユーザは、テーブルの縁など、投影面の周に含まれる辺に応じた向きで投影面を見る確率が高い。そのため、本実施形態によれば、ユーザにとって見やすい状態で画像を投影することができる。また、辺の向きを算出する処理は、ユーザの顔の向きや視線方向などを検出する処理と比較して、単純であるため、第1画像の向きや位置の決定に要する計算時間や計算機資源を削減できる。その結果、情報処理システム2000Bによる第1画像の投影処理を高速にできる。
[第4の実施形態]
図19は、第4の実施形態に係る情報処理システム2000Cを示すブロック図である。図19において、実線の矢印は情報の流れを表している。さらに、図19において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
第4の実施形態の情報処理システム2000Cは、投影部2060、位置変更部2120、及び方向決定部2140を有する。
位置変更部2120は、ユーザ操作を検出し、検出したユーザ操作に応じて第1画像の投影面上の位置を変更する。方向決定部2140は、第1画像の移動方向に基づいて、投影する第1画像の向きを決定する。投影部2060は、方向決定部2140によって決定された向きに従って第1画像の向きを変更する。また、投影部2060は、位置変更部2120によって変更された位置に第1画像を投影する。
第4の実施形態の情報処理システム2000Cは、例えば第1の実施形態の情報処理システム2000と同様に、第1画像を取得する画像取得部2040を有する。第4の実施形態の画像取得部2040が有する機能は、第1の実施形態の画像取得部2040が有する機能と同様である。
<位置変更部2120の詳細>
位置変更部2120が検出するユーザ操作は様々である。位置変更部2120が検出するユーザ操作は、例えば、ユーザが操作体によって第1画像をドラッグする操作である。また、位置変更部2120が検出するユーザ操作は、投影面のうち、第1画像が投影されていない場所を、操作体によって示す操作でもよい。操作体によって示す操作は、操作体によって押す又は叩く操作であってもよい。例えばこの場合、位置変更部2120は、操作体によって示された場所へ第1画像が移動していくように、第1画像の位置を変更する。この場合、一度のユーザ操作によって位置変更部2120が第1画像を移動させる距離は、所定距離であってもよいし、条件によって異なってもよい。距離を決める条件は、例えば操作に使われる操作体(例:指)の数や、操作体の動きの大きさなどである。
上述のように操作体を用いて行われるユーザ操作は、情報処理システム2000Cと通信可能に接続された、第1の実施形態の監視装置200と同様の監視装置200を用いて検出される。監視装置200を用いてこのようなユーザ操作を検出する技術は既知の技術であるため、このようなユーザ操作を検出する方法の詳細な説明は省略する。一例を挙げると、位置変更部2120が撮像装置を用いてユーザ操作を検出する場合、撮像画像内に写っている上記操作体の動きを解析することで、ユーザ操作を検出することができる。
その他の例として、位置変更部2120が検出するユーザ操作は、例えば、無線マウスなどの外部入力装置を用いて第1画像を移動させる操作でもよい。
なお、位置変更部2120によってユーザ操作が検出されるタイミングと、投影部2060が第1画像の投影状態(位置又は向き)を変更するタイミングとの間には、タイムラグがあってよい。このタイムラグが小さいと、ユーザ操作に素早く追従するように第1画像が投影される。一方、このタイムラグが大きいと、ユーザ操作にゆっくり追従するように第1画像が投影される。
<方向決定部2140の詳細>
方向決定部2140は、第1画像の移動方向に基づいて、投影する第1画像の向きを決定する。図20は、方向決定部2140が実行する処理を概念的に例示する図である。矢印90は、指80によってコンテンツ画像40が移動されている方向を示す。この場合、方向決定部2140は、コンテンツ画像40の垂直方向又は水平方向の向きを、コンテンツ画像40の移動方向に合わせるように、コンテンツ画像40の向きを決定する。
ここで、コンテンツ画像40の水平方向の向きと垂直方向の向きのどちらをコンテンツ画像40の移動方向に合わせるかは、予め決定されていてもよいし、状況によってどちらかが選択されてもよい。状況によって選択する方法について、図21を用いて説明する。
図21は、コンテンツ画像40の移動方向とその移動方向におけるコンテンツ画像40の向きとの関係を例示する図である。コンテンツ画像40−0は、投影面に投影されたコンテンツ画像40の初期状態である。方向決定部2140は、初期状態におけるコンテンツ画像の方向とコンテンツ画像40の移動方向との関係によって、コンテンツ画像40の移動方向を複数のグループのいずれかに分類する。図21に示す例では、方向決定部2140は、コンテンツ画像40の移動方向を4つのグループのいずれかに分類する。以下の説明において、コンテンツ画像40の移動方向は、初期状態におけるコンテンツ画像40の水平方向( +0°を表す)と、コンテンツ画像40の移動方向とがなす、反時計回りの角度によって表される。第1のグループ(グループ(i))は、コンテンツ画像40の移動方向が-45°から +45°までの範囲に含まれるグループである。第2のグループ(グループ(ii))は、コンテンツ画像40の移動方向が+45°から +135°までの範囲に含まれるグループである。第3のグループ(グループ(iii))は、コンテンツ画像40の移動方向が+135°から+225°までの範囲に含まれるグループである。第4のグループ(グループ(iv))は、コンテンツ画像40の移動方向が+225°から +315°までの範囲に含まれるグループである。そして、コンテンツ画像40の移動方向が(i)と(iii)のグループに含まれる場合、方向決定部2140は、コンテンツ画像40の水平方向の向きを、コンテンツ画像40の移動方向に合わせる。一方、コンテンツ画像40の移動方向が(ii)と(iv)のグループに含まれる場合、方向決定部2140は、コンテンツ画像40の垂直方向の向きを、コンテンツ画像40の移動方向に合わせる。
なお、初期状態であるコンテンツ画像40−0の向きは、第1の実施形態から第3の実施形態のいずれかで説明したいずれかの方法で決定されていてもよい。こうすることで、コンテンツ画像40−0の向きは、ユーザにとって見やすい向きとなっていると考えられる。この状況下において、図21を用いてグループ分けに基づいてコンテンツ画像40の向きを決定することにより、移動するコンテンツ画像40の向きを、ユーザにとって見やすい向きにできると考えられる。なお、図21を用いて説明したグループ分けに用いる角度は、前述の例に限定されない。また、グループの数は4つでなくてもよい。
方向決定部2140は、第1画像の向きを決定するために、第1の実施形態の状態決定部2080と同様の方法で、第1画像に関連する情報を取得する。
<<移動方向の算出>>
第1画像の移動方向は、第1画像の投影位置の変化に基づいて算出できる。なお、方向決定部2140が算出する第1画像の移動方向は、第1画像が移動してきた方向であってもよいし、これから第1画像が移動する方向であってもよい。例えば、「第1画像の現在の投影位置、第1画像の1つ前の投影位置」の組み合わせを用いることによって、第1画像が移動してきた方向を算出することができる。また、「第1画像の次の投影位置、第1画像の現在の投影位置」の組み合わせを用いることによって、これから第1画像が移動する方向を算出できる。
方向決定部2140が第1画像の移動方向を算出する頻度は、様々な方法のいずれかによって決められる。例えば方向決定部2140は、第1画像の移動方向を所定時間(例えば1秒)毎に算出してもよい。また、方向決定部2140は、第1画像の移動方向を間欠的に算出してもよい。
方向決定部2140が第1画像の向きを変更する頻度は、様々な方法のいずれかによって決められる。例えば方向決定部2140は、第1画像の向きを算出する度に、算出した向きに合わせて第1画像の向きを変更してもよい。また、方向決定部2140は、第1画像の移動方向が所定の条件を満たした場合のみ、第1画像の向きを変更してもよい。例えば、方向決定部2140は、前回第1画像の向きを変更した際の第1画像の移動方向を記憶しておき、今回の移動速度が記憶している移動方向と比較して所定角度以上変化している場合のみ、第1画像の向きを変更してもよい。
また、方向決定部2140は、第1画像の移動速度の時間平均を算出し、算出された平均移動速度によって表される方向に基づいて、投影する第1画像の向きを決定してもよい。この場合の方向決定部2140の処理を、図22を用いて説明する。図22は、平均移動速度を用いてコンテンツ画像40の向きを決定する方法を概念的に例示する図である。図22に示す矢印90−1から90−4は、それぞれ、期間 p1、p2、p3、p4 における第1画像の速度を表す。この場合、方向決定部2140は、上記4つの移動速度の平均移動速度を算出する。矢印91は、算出された平均移動速度を表す。この場合、方向決定部2140は、期間 p1 から p4 の間は第1画像の向きを変更せず、期間 p4 の経過後に、平均移動速度である矢印91の向きに合わせて、第1画像の向きを変更する。なお、情報処理システム2000Cは、方向決定部2140が平均速度を算出する時間間隔を、任意に設定可能であるように設計されていればよい。
このように平均移動速度を用いる方法は、例えば第1画像の移動方向が短時間の間に頻繁に変更される場合に有効である。例えば、短い時間で図22に示すようにジグザグ方向にコンテンツ画像40を移動する場合に、移動方向が変わる度にコンテンツ画像40の向きを変えると、コンテンツ画像40の向きが不安定になる。そのため、ユーザにとってコンテンツ画像40が見にくくなる恐れがある。これに対し、平均移動速度を用いてある程度の時間間隔でコンテンツ画像40の向きを変えることによって、コンテンツ画像40の向きが安定する。そのため、ユーザにとってコンテンツ画像40は見やすくなる。
<ハードウエア構成>
図24は、情報処理システム2000Cのハードウエア構成を例示するブロック図である。
第4の実施形態の情報処理システム2000Cのハードウエア構成は、以下を除いて、図2に示す第1の実施形態の情報処理システム2000のハードウエア構成と同様である。本実施形態では、ストレージ1080に格納されているプログラムが第1の実施形態の場合と異なる。具体的には、第4の実施形態におけるストレージ1080は、投影モジュール1260、位置変更モジュール1320、及び方向決定モジュール1340を有する。
<処理の流れ>
図23は、第4の実施形態の情報処理システム2000Cによって実行される処理の流れを例示するフローチャートである。ステップS302において、画像取得部2040は、第1画像を取得する。ステップS304において、投影部2060は、第1画像を投影する。ステップS306において、位置変更部2120は、ユーザ操作を検出し、検出したユーザ操作に基づいて第1画像の位置を変更する。ステップS308において、方向決定部2140は、第1画像の移動方向に基づいて、第1画像の向きを決定する。ステップS310において、投影部2060は、投影している第1画像の向きを、方向決定部2140によって決定された向きに変更する。
<作用・効果>
本実施形態によれば、第1画像の移動方向に基づいて、投影されている第1画像の向きが変更される。こうすることで、第1画像の移動方向に追従して、投影されている第1画像の向きが決定されるため、ユーザにとって見やすい向きで第1画像を表示することができる。
また、上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
実対象物を検出する実対象物検出手段と、
投影面に第1画像を投影する投影手段と、
検出した実対象物の向き及び位置の少なくとも一方に基づいて、前記第1画像の向き及び投影面内における位置の少なくとも一方を決定する状態決定手段と、を有し、
前記投影手段は、前記状態決定手段によって決定された位置又は向きで前記第1画像を投影する情報処理システム。
(付記2)
前記実対象物検出手段は、前記実対象物の周に含まれる辺を検出する辺検出手段を有し、
前記状態決定手段は、検出された前記辺の向き及び位置の少なくとも一方に基づいて、前記第1画像の向き及び投影面内における位置の少なくとも一方を決定する付記1に記載の情報処理システム。
(付記3)
前記実対象物は、前記投影面に近接するユーザであり、
前記投影面の周に含まれる辺であり、前記ユーザが近接している辺を検出する辺検出手段を有し、
前記状態決定手段は、検出された前記辺の向き及び位置の少なくとも一方に基づいて、前記第1画像の向き又は投影面内における位置を決定する付記1に記載の情報処理システム。
(付記4)
前記状態決定手段は、投影されている前記第1画像の位置と前記投影面上の基準点とを結ぶ直線の延伸方向に基づいて、前記第1画像を投影する向きを決定する付記1乃至3いずれか一つに記載の情報処理システム。
(付記5)
前記実対象物はユーザの操作体であり、
前記状態決定手段は、前記操作体の延伸方向に基づいて、投影する前記第1画像の向きを決定する付記1に記載の情報処理システム。
(付記6)
投影面に第1画像を投影する投影手段と、
ユーザ操作を検出し、検出したユーザ操作に応じて前記第1画像の投影面上の位置を変更する位置変更手段と、
前記第1画像の移動方向に基づいて、投影する前記第1画像の向きを決定する方向決定手段と、を有し、
前記投影手段は、前記第1画像の向きを、前記方向決定手段によって決定された向きに変更する情報処理システム。
(付記7)
前記方向決定手段は、前記第1画像の移動速度の時間平均を算出し、算出された平均移動速度で表される方向に基づいて、投影する前記第1画像の向きを決定する付記6に記載の情報処理システム。
(付記8)
情報処理システムを制御するコンピュータによって実行される制御方法であって、 実対象物を検出する実対象物検出ステップと、
投影面に第1画像を投影する投影ステップと、
検出した実対象物の向き及び位置の少なくとも一方に基づいて、前記第1画像の向き及び投影面内における位置の少なくとも一方を決定する状態決定ステップと、を有し、
前記投影ステップは、前記状態決定ステップによって決定された位置又は向きで前記第1画像を投影する制御方法。
(付記9)
前記実対象物検出ステップは、前記実対象物の周に含まれる辺を検出する辺検出ステップを有し、
前記状態決定ステップは、検出された前記辺の向き及び位置の少なくとも一方に基づいて、前記第1画像の向き及び投影面内における位置の少なくとも一方を決定する付記8に記載の制御方法。
(付記10)
前記実対象物は、前記投影面に近接するユーザであり、
前記実対象物検出ステップは、前記ユーザの向きを検出し、
前記投影面の周に含まれる辺であり、前記ユーザが近接している辺を検出する辺検出ステップを有し、
前記状態決定ステップは、検出された前記辺の向き及び位置の少なくとも一方に基づいて、前記第1画像の向き又は投影面内における位置を決定する付記8に記載の制御方法。
(付記11)
前記状態決定ステップは、投影されている前記第1画像の位置と前記投影面上の基準点とを結ぶ直線の延伸方向に基づいて、前記第1画像を投影する向きを決定する付記8乃至10いずれか一つに記載の制御方法。
(付記12)
前記実対象物はユーザの操作体であり、
前記状態決定ステップは、前記操作体の延伸方向に基づいて、投影する前記第1画像の向きを決定する付記8に記載の制御方法。
(付記13)
コンピュータによって実行される制御方法であって、
投影面に第1画像を投影する投影ステップと、
ユーザ操作を検出し、検出したユーザ操作に応じて前記第1画像の投影面上の位置を変更する位置変更ステップと、
前記第1画像の移動方向に基づいて、投影する前記第1画像の向きを決定する方向決定ステップと、を有し、
前記投影ステップは、前記第1画像の向きを、前記方向決定ステップによって決定された向きに変更する制御方法。
(付記14)
前記方向決定ステップは、前記第1画像の移動速度の時間平均を算出し、算出された平均移動速度で表される方向に基づいて、投影する前記第1画像の向きを決定する付記13に記載の制御方法。
(付記15)
コンピュータに情報処理システムを制御する機能を持たせるプログラムであって、前記コンピュータに、
実対象物を検出する実対象物検出機能と、
投影面に第1画像を投影する投影機能と、
検出した実対象物の向き及び位置の少なくとも一方に基づいて、前記第1画像の向き及び投影面内における位置の少なくとも一方を決定する状態決定機能と、を持たせ、
前記投影機能は、前記状態決定機能によって決定された位置又は向きで前記第1画像を投影するプログラム。
(付記16)
前記実対象物検出機能は、前記実対象物の周に含まれる辺を検出する辺検出機能を有し、
前記状態決定機能は、検出された前記辺の向き及び位置の少なくとも一方に基づいて、前記第1画像の向き及び投影面内における位置の少なくとも一方を決定する付記15に記載のプログラム。
(付記17)
前記実対象物は、前記投影面に近接するユーザであり、
前記コンピュータに、前記投影面の周に含まれる辺であり、前記ユーザが近接している辺を検出する辺検出機能を持たせ、
前記状態決定機能は、検出された前記辺の向き及び位置の少なくとも一方に基づいて、前記第1画像の向き又は投影面内における位置を決定する付記15に記載のプログラム。
(付記18)
前記状態決定機能は、投影されている前記第1画像の位置と前記投影面上の基準点とを結ぶ直線の延伸方向に基づいて、前記第1画像を投影する向きを決定する付記15乃至17いずれか一つに記載のプログラム。
(付記19)
前記実対象物はユーザの操作体であり、
前記状態決定機能は、前記操作体の延伸方向に基づいて、投影する前記第1画像の向きを決定する付記15に記載のプログラム。
(付記20)
コンピュータに情報処理システムを制御する機能を持たせるプログラムであって、前記コンピュータに、
投影面に第1画像を投影する投影機能と、
ユーザ操作を検出し、検出したユーザ操作に応じて前記第1画像の投影面上の位置を変更する位置変更機能と、
前記第1画像の移動方向に基づいて、投影する前記第1画像の向きを決定する方向決定機能と、を持たせ、
前記投影機能は、前記第1画像の向きを、前記方向決定機能によって決定された向きに変更するプログラム。
(付記21)
前記方向決定機能は、前記第1画像の移動速度の時間平均を算出し、算出された平均移動速度で表される方向に基づいて、投影する前記第1画像の向きを決定する付記20に記載のプログラム。
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は、2014年4月18日に出願された日本出願特願2014−086510を基礎とする優先権を主張し、その開示の全てをここに取り込む。
10 テーブル
20 トレー
20−1 トレー
20−2 トレー
20−3 トレー
20−4 トレー
30 マーク
40 コンテンツ画像
40−0 コンテンツ画像
40−1 コンテンツ画像
40−2 コンテンツ画像
40−3 コンテンツ画像
40−4 コンテンツ画像
41 コンテンツ画像
42 コンテンツ画像
50 ユーザ
50−1 ユーザ
50−2 ユーザ
60 辺
60−1 辺
60−2 辺
60−3 辺
60−4 辺
61−1 接線
61−2 接線
70 基準点
80 指
90 矢印
90−1 矢印
90−2 矢印
90−3 矢印
90−4 矢印
91 矢印
100 投影装置
200 監視装置
300 バス
400 装置
410 投影方向調整部
410−1 投影方向調整部
410−2 投影方向調整部
410−3 投影方向調整部
1000 計算機
1020 バス
1040 プロセッサ
1060 メモリ
1080 ストレージ
1100 入出力インタフェース
1220 実対象物検出モジュール
1260 投影モジュール
1280 状態決定モジュール
2000 情報処理システム
2000A 情報処理システム
2000B 情報処理システム
2000C 情報処理システム
2020 実対象物検出部
2040 画像取得部
2060 投影部
2080 状態決定部
2100 辺検出部
2120 位置変更部
2140 方向決定部

Claims (11)

  1. 実対象物を検出する実対象物検出手段と、
    投影面に第1画像を投影する投影手段と、
    検出した実対象物の向き及び位置の少なくとも一方に基づいて、前記第1画像の向き及び投影面内における位置の少なくとも一方を決定する状態決定手段と、を備え、
    前記投影手段は、前記状態決定手段によって決定された位置又は向きで前記第1画像を投影する
    情報処理システム。
  2. 前記実対象物検出手段は、前記実対象物の周に含まれる辺を検出する辺検出手段を有し、
    前記状態決定手段は、検出された前記辺の向き及び位置の少なくとも一方に基づいて、前記第1画像の向き及び投影面内における位置の少なくとも一方を決定する
    請求項1に記載の情報処理システム。
  3. 前記実対象物は、前記投影面に近接するユーザであり、
    前記投影面の周に含まれる辺であり、前記ユーザが近接している辺を検出する辺検出手段を有し、
    前記状態決定手段は、検出された前記辺の向き及び位置の少なくとも一方に基づいて、前記第1画像の向き又は投影面内における位置を決定する
    請求項1に記載の情報処理システム。
  4. 前記状態決定手段は、投影されている前記第1画像の位置と前記投影面上の基準点とを結ぶ直線の延伸方向に基づいて、前記第1画像を投影する向きを決定する
    請求項1乃至3いずれか一項に記載の情報処理システム。
  5. 前記実対象物はユーザの操作体であり、
    前記状態決定手段は、前記操作体の延伸方向に基づいて、投影する前記第1画像の向きを決定する
    請求項1に記載の情報処理システム。
  6. 投影面に第1画像を投影する投影手段と、
    ユーザ操作を検出し、検出したユーザ操作に応じて前記第1画像の投影面上の位置を変更する位置変更手段と、
    前記第1画像の移動方向に基づいて、投影する前記第1画像の向きを決定する方向決定手段と、を有し、
    前記投影手段は、前記第1画像の向きを、前記方向決定手段によって決定された向きに変更する
    情報処理システム。
  7. 前記方向決定手段は、前記第1画像の移動速度の時間平均を算出し、算出された平均移動速度で表される方向に基づいて、投影する前記第1画像の向きを決定する
    請求項6に記載の情報処理システム。
  8. 情報処理システムを制御するコンピュータによって実行される制御方法であって、
    実対象物を検出し、
    検出した実対象物の向き及び位置の少なくとも一方に基づいて、投影面に投影される第1画像の向き及び投影面内における位置の少なくとも一方を決定し、
    決定された位置又は向きで前記投影面に前記第1画像を投影する
    制御方法。
  9. 情報処理システムを制御するコンピュータによって実行される制御方法であって、
    投影面に第1画像を投影し、
    ユーザ操作を検出し、検出したユーザ操作に応じて、投影面に投影される第1画像の前記投影面上の位置を変更し、
    前記第1画像の移動方向に基づいて、投影する前記第1画像の向きを決定し、
    前記第1画像の向きを、前記方向決定ステップによって決定された向きに変更し、向きが変更された前記第1画像を前記投影面に投影する
    制御方法。
  10. コンピュータに、情報処理システムを制御する機能を持たせるプログラムであって、前記コンピュータに、
    実対象物を検出する実対象物検出機能と、
    投影面に第1画像を投影する投影機能と、
    検出した実対象物の向き及び位置の少なくとも一方に基づいて、前記第1画像の向き及び投影面内における位置の少なくとも一方を決定する状態決定機能と、を持たせ、
    前記投影機能は、前記状態決定機能によって決定された位置又は向きで前記第1画像を投影する
    プログラムを記憶するコンピュータ読み取り可能な記録媒体。
  11. コンピュータに情報処理システムを制御する機能を持たせるプログラムであって、前記コンピュータに、
    投影面に第1画像を投影する投影機能と、
    ユーザ操作を検出し、検出したユーザ操作に応じて前記第1画像の投影面上の位置を変更する位置変更機能と、
    前記第1画像の移動方向に基づいて、投影する前記第1画像の向きを決定する方向決定機能と、を持たせ、
    前記投影機能は、前記第1画像の向きを、前記方向決定機能によって決定された向きに変更する
    プログラムを記憶するコンピュータ読み取り可能な記録媒体。
JP2016513644A 2014-04-18 2015-04-16 情報処理システム、制御方法、及びプログラム記録媒体 Withdrawn JPWO2015159547A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014086510 2014-04-18
JP2014086510 2014-04-18
PCT/JP2015/002090 WO2015159547A1 (ja) 2014-04-18 2015-04-16 情報処理システム、制御方法、及びプログラム記録媒体

Publications (1)

Publication Number Publication Date
JPWO2015159547A1 true JPWO2015159547A1 (ja) 2017-04-13

Family

ID=54322426

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016513644A Withdrawn JPWO2015159547A1 (ja) 2014-04-18 2015-04-16 情報処理システム、制御方法、及びプログラム記録媒体

Country Status (3)

Country Link
US (1) US20150302549A1 (ja)
JP (1) JPWO2015159547A1 (ja)
WO (1) WO2015159547A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6112221B2 (ja) * 2013-11-13 2017-04-12 日産自動車株式会社 移動体位置推定装置および移動体位置推定方法
JP6463403B2 (ja) * 2017-04-04 2019-01-30 株式会社アマダホールディングス レーザ加工システム
JP2018205478A (ja) * 2017-06-02 2018-12-27 セイコーエプソン株式会社 表示装置および表示装置の制御方法
CN113170071A (zh) * 2018-12-06 2021-07-23 株式会社阿提菲斯 桌面投影装置
CN109917913A (zh) * 2019-03-01 2019-06-21 南京云家物联网研究院有限公司 虚拟投影开关及工作方法
CN112040207B (zh) 2020-08-27 2021-12-10 广景视睿科技(深圳)有限公司 一种调整投影画面的方法、装置以及投影设备

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4991458B2 (ja) * 2007-09-04 2012-08-01 キヤノン株式会社 画像表示装置及びその制御方法
TW201027399A (en) * 2009-01-09 2010-07-16 E Lead Electronic Co Ltd Method for aiding control of cursor movement through a track pad
JP4908626B1 (ja) * 2010-12-28 2012-04-04 株式会社東芝 表示制御装置および表示制御方法
JP5845783B2 (ja) * 2011-09-30 2016-01-20 カシオ計算機株式会社 表示装置、表示制御方法及びプログラム
JP2013152711A (ja) * 2011-12-28 2013-08-08 Nikon Corp 投影装置及び表示装置

Also Published As

Publication number Publication date
US20150302549A1 (en) 2015-10-22
WO2015159547A1 (ja) 2015-10-22

Similar Documents

Publication Publication Date Title
WO2015159547A1 (ja) 情報処理システム、制御方法、及びプログラム記録媒体
US11625841B2 (en) Localization and tracking method and platform, head-mounted display system, and computer-readable storage medium
US9524021B2 (en) Imaging surround system for touch-free display control
US9600078B2 (en) Method and system enabling natural user interface gestures with an electronic system
CN116348836A (zh) 增强现实中用于交互式游戏控制的手势跟踪
CN114080585A (zh) 在人工现实环境中使用外围设备的虚拟用户界面
WO2013035758A1 (ja) 情報表示システム、情報表示方法、及び記憶媒体
US9805509B2 (en) Method and system for constructing a virtual image anchored onto a real-world object
US20170262134A1 (en) Touch sensitive curved and flexible displays
US20180188894A1 (en) Virtual Touchpads For Wearable And Portable Devices
US10379680B2 (en) Displaying an object indicator
US20200103959A1 (en) Drift Cancelation for Portable Object Detection and Tracking
TWI636381B (zh) 互動顯示系統及互動顯示控制方法
US20150253932A1 (en) Information processing apparatus, information processing system and information processing method
WO2015159550A1 (ja) 情報処理システム、制御方法、及びプログラム記録媒体
TWI454653B (zh) 三維絕對座標偵測系統、互動三維顯示系統以及辨識物體之三維座標的方法
JP6643825B2 (ja) 装置及び方法
EP3088991B1 (en) Wearable device and method for enabling user interaction
KR20200108660A (ko) 2차원 카메라를 이용하여 객체 제어를 지원하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
EP3059664A1 (en) A method for controlling a device by gestures and a system for controlling a device by gestures
US11307662B2 (en) Haptic-feedback presenting apparatus, haptic-feedback presenting system, and haptic-feedback presenting method
EP4083757A1 (en) Touchless input interface for an electronic display using multiple sensors
US20230088402A1 (en) Touch sensitive curved and flexible displays
WO2023194616A1 (en) Calibration method for an electronic display screen for touchless gesture control
CN117372475A (zh) 眼球追踪方法和电子设备

Legal Events

Date Code Title Description
AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20161227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170112

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180409

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20180523