JP7078221B2 - 投影システム - Google Patents

投影システム Download PDF

Info

Publication number
JP7078221B2
JP7078221B2 JP2018069604A JP2018069604A JP7078221B2 JP 7078221 B2 JP7078221 B2 JP 7078221B2 JP 2018069604 A JP2018069604 A JP 2018069604A JP 2018069604 A JP2018069604 A JP 2018069604A JP 7078221 B2 JP7078221 B2 JP 7078221B2
Authority
JP
Japan
Prior art keywords
projection
image
projected
predetermined
handling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018069604A
Other languages
English (en)
Other versions
JP2019179209A (ja
Inventor
源久 石井
卓 大塚
成美 青山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Amusement Inc
Original Assignee
Bandai Namco Amusement Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Namco Amusement Inc filed Critical Bandai Namco Amusement Inc
Priority to JP2018069604A priority Critical patent/JP7078221B2/ja
Publication of JP2019179209A publication Critical patent/JP2019179209A/ja
Application granted granted Critical
Publication of JP7078221B2 publication Critical patent/JP7078221B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、対象物へ画像等を投影する投影システムに関する。
実体としての対象物へ、画像等を投影する投影システムが知られている。例えば、特許文献1や特許文献2では、移動する投影対象物に追従させて画像を投影する技術が開示されている。
特開2016-81497号公報 特開2015-197647号公報
しかし、単に対象物に追従させて画像を投影するだけでは、映像表現として限りがあった。特にエンターテインメントの分野においては、常に新しい映像表現が求められている。
本発明は、投影システムを用いた新しい映像表現の実現を目的に考案されたものである。
上記した課題を解決するための第1の発明は、ユーザが動かして取り扱う第1の投影対象物に第1の投影画像を投影する制御を行う第1の投影制御手段(例えば、図1の制御コンピュータ1100、制御基板1150、図7の処理部200、第1投影制御部214、図10のステップS14)と、
前記第1の投影対象物の取り扱い状況を検出する検出手段(例えば、図1の制御コンピュータ1100、制御基板1150、トラッキングセンサ40、図7のトラッキング計測部102、処理部200、取り扱い状況検出制御部220、図10のステップS4)と、
前記取り扱い状況が所定条件を満たしたか否かを判定する判定手段(例えば、図1の制御コンピュータ1100、制御基板1150、図7の処理部200、判定部230、図10のステップS30)と、
前記判定手段により肯定判定された場合に、前記第1の投影画像に関連付けられた第2の投影画像を第2の投影対象物に投影する制御を行う第2の投影制御手段(例えば、図1の制御コンピュータ1100、制御基板1150、図7の処理部200、第2投影制御部240、図10のステップS32)と、を備えた投影システムである。
第1の発明によれば、ユーザが操作する第1の投影対象物がどのように取り扱われたかに応じて、第2の投影対象物へ第1の投影画像に関連付けられた画像を投影することができる。よって、投影システムを用いた新しい映像表現を実現できる。
第2の発明は、前記第2の投影画像が、前記第1の投影画像と同じ画像、或いは、前記第1の投影画像によって表される物体を前記1の投影画像とは異なる表現で表した画像、である、第1の発明の投影システムである。
第2の発明によれば、例えば、第1の投影対象から第1の投影画像として表されている物体の一部又は全部が、第2の投影対象物に移動したり分けられたりしたかのような画像表現が可能となったり、当該物体が第2の投影対象物に移動したり分けられたりしたことによって形状や性状が変化する物理現象を表現するような画像表現が可能となる。
第3の発明は、前記第1の投影対象物の位置をトラッキングするトラッキング手段(例えば、図1の制御コンピュータ1100、制御基板1150、トラッキングセンサ40、図7のトラッキング計測部102、処理部200、トラッキング制御部202、図10のステップS4)、を更に備え、前記第1の投影制御手段は、前記トラッキングに基づいて、動かされる前記第1の投影対象物に追従させるように前記第1の投影対象物に前記第1の投影画像を投影する制御を行う、第1又は第2の発明の投影システムである。
第3の発明によれば、第1の投影画像を移動する第1の投影対象物に対して追従させて投影することができる。
第4の発明は、前記第1の投影制御手段が、前記判定手段により肯定判定された場合に、前記第1の投影対象物への前記第1の投影画像の投影を中止又は変更する、第1~第3の何れかの発明の投影システムである。
第4の発明によれば、例えば、第1の投影対象物に第1の投影画像として表されていたものが、第1の投影対象物から離れたことを表現できるようになる。
第5の発明は、前記取り扱い状況が前記所定条件を満たす前に至る中間状況に達したか否かを判定する中間判定手段(例えば、図1の制御コンピュータ1100、制御基板1150、図7の処理部200、中間判定部242、図10のステップS20)、を更に備え、
前記第1の投影制御手段は、前記中間判定手段により肯定判定された場合に、前記第1の投影画像を、前記第1の投影画像によって表されていた物体が揺動する画像に変更して投影する制御を行う、第1~第4の何れかの発明の投影システムである。
第5の発明によれ、中間状況において、第1の投影画像によって表されていた物体が揺動しているような映像表現が可能になる。
第6の発明は、前記ユーザによる前記第1の投影対象物の取り扱いは、所定物体を運ぶ又は移動させる取り扱いであり、前記第1の投影制御手段は、前記所定物体を表す画像を前記第1の投影画像として、前記第1の投影対象物に投影する制御を行う、第1~第5の何れかの発明の投影システムである。
第6の発明によれば、所定物体を運んだり移動させたりする状況を表す映像表現が可能になる。
第7の発明は、前記第1の投影対象物が所定の開始位置に位置したことを検出する開始検出手段(例えば、図1の制御コンピュータ1100、制御基板1150、図7の処理部200、開始検出制御部212、図10のステップS10)、を更に備え、前記第1の投影制御手段は、前記開始検出手段の検出に応じて、前記第1の投影画像の前記第1の投影対象物への投影を開始する制御を行う、第1~第6の何れかの発明の投影システムである。
第7の発明によれば、所定物体を運んだり移動させたりする状況を表す際の、運び始めや、移動し始めの映像表現が可能になる。
第8の発明は、前記第1の投影対象物が所定の終了位置に位置したことを検出する終了検出手段(例えば、図1の制御コンピュータ1100、制御基板1150、図7の処理部200、終了検出部244、図10のステップS16)、を更に備え、前記第1の投影制御手段は、前記終了検出手段の検出に応じて、前記第1の投影画像の前記第1の投影対象物への投影を終了する制御を行う、第1~第7の何れかの発明の投影システムである。
第8の発明によれば、所定物体を運んだり移動させたりする状況を表す際の、運び終わりや、運搬完了の映像表現が可能になる。
第9の発明は、複数種類の前記所定物体のうち、一種類の前記所定物体を選択する選択手段(例えば、図1の制御コンピュータ1100、制御基板1150、図7の処理部200、選択制御部210、図10のステップS10)、を更に備え、前記判定手段は、前記選択された所定物体に関連付けられた前記所定条件を満たしたか否かを判定する、第6~第8の何れかの発明の投影システムである。
第9の発明によれば、映像表現によって移動・運搬する所定物体を、ユーザが選択することが可能となる。
第10の発明は、前記検出手段が、前記ユーザによる前記第1の投影対象物の取り扱いに係る所定物理量を検出し、前記判定手段は、前記所定物理量に基づいて前記所定条件を満足したか否かを判定する、第1~第9の何れかの発明の投影システムである。
第10の発明によれば、第1の投影対象物の取り扱いに係る所定物理量を検出し、当該所定物理量に基づいて、第2の投影画像を投影するか否かを判定できるようになる。よって、例えば、第1の投影対象物に係る物理現象をそれらしく映像表現できるようになる。
そして、所定物理量は、表現したい物理現象に応じて適宜、選択することができる。
例えば第11の発明として、前記所定物理量が、前記第1の投影対象物の速度又は加速度である、第10に記載の投影システムを構成することができる。
また、例えば第12の発明として、前記所定物理量が、前記第1の投影対象物の姿勢である、第10又は第11の発明の投影システムを構成することができる。
所定物理量の検出方法は、投影システムが設置される条件に応じて適宜、選択することができる。
例えば第13の発明として、前記ユーザによる前記第1の投影対象物の取り扱い空間を撮影範囲に含むカメラ、を更に備え、前記検出手段は、前記カメラの撮影画像に基づいて前記所定物理量を検出する、第10~第12の何れかの発明の投影システムを構成することができる。
更には、例えば第14の発明として、前記カメラは、前記取り扱い空間の上方から俯瞰して撮影する位置に設置されており、前記検出手段は、前記撮影画像中の前記第1の投影対象物の画像部分に基づいて前記所定物理量を検出する、第13の発明の投影システムを構成することができる。
また更には、例えば第15の発明として、前記第1の投影対象物が、前記ユーザが把持するための把持部と、前記第1の投影画像が投影される被投影部とを有し、前記検出手段は、前記撮影画像中の前記被投影部の画像部分に基づいて前記所定物理量を検出する、第14の発明の投影システムを構成することができる。
また更には、例えば第16の発明として、前記第1の投影制御手段によって制御される投影装置は、前記取り扱い空間の上方から前記第1の投影画像を投影する位置に設置されており、前記第2の投影対象物は、前記取り扱い空間の底部固定位置に設けられ、前記第2の投影画像は、前記第1の投影画像によって表される物体が落下した状態の画像である、第13~第15の何れかの発明の投影システムを構成することができる。
投影システムの構成例を示す図。 映像表現の開始時における取り扱い空間の状態の例を示す図。 第1投影対象物の取り扱いで運ばれ移動される所定物体の選択操作状態における取り扱い空間の状態の例を示す図。 第1投影対象物の移動操作状態における取り扱い空間の状態の例を示す図。 第1投影対象物移動操作の完了過程における取り扱い空間の状態の例を示す図。 第1投影対象物の移動操作の完了後における取り扱い空間の状態の例を示す図。 投影システムの機能構成例を示す機能ブロック図。 記憶部が記憶するプログラムやデータの例を示す図。 投影画像定義データのデータ構成例を示す図。 制御コンピュータにおける処理の流れを説明するためのフローチャート。 図10より続くフローチャート。 変形例における第3投影対象物の縦断面図。
以下、本発明の実施形態の一例を説明するが、本発明を適用可能な形態が以下の実施形態に限られないことは勿論である。
[ハードウェア構成の説明]
図1は、本実施形態の投影システムの構成例を示す図である。
投影システム1000は、対象物へ画像等を投影するシステムであって、取り扱い空間10と、制御コンピュータ1100と、を有する。
取り扱い空間10は、ユーザ2が投影対象物を取り扱う空間であって、本実施形態が目指すところの新しい映像表現が展開される領域である。
取り扱い空間10は、複数の投影対象物20(第1投影対象物21、第2投影対象物22、…)と、投影装置30と、トラッキングセンサ40と、を含む。
投影対象物20の数、種類、大きさ、投影される位置は、どのようなテーマでどのような内容の映像表現にするかによって適宜設定可能である。本実施形態では、第1投影対象物21と、第2投影対象物22と、第3投影対象物23と、第4投影対象物24と、第5投影対象物25と、を有する。
そして、本実施形態の投影システム1000が提供する映像表現におけるシチュエーション設定では、ユーザ2は料理人であり、できあがった複数の料理のうち何れかを配膳皿へよそうという設定である。投影システム1000は、できあがった複数の料理のうち何れかを配膳皿へよそう過程を、投影画像を用いた新しい映像表現でユーザ2に仮想的に体験してもらうエンターテインメントシステムである。
第1投影対象物21は、本実施形態におけるユーザ2が実際に直接取り扱うことで所定物体を運んだり移動させたりするための操作具であって、第1投影画像51が投影される物体である。本実施形態の第1投影対象物21は、料理人が用いる配膳用具、具体的にはフライ返しを模した外形を有している。そして、第1投影対象物21は、投影画像が綺麗に映るように、表面の被投影部が白色又は淡色で構成されている。但し、第1投影対象物21の位置を検出するために画像認識をするため、画像認識に適する配色を施したり、画像認識に適した素材(例えば、再帰反射材など)を配したりしても良い。例えば、特徴的な輪郭を有する部位(例えば、フライ返しの板状部に当たる被投影部21hと、ユーザ2が把持する把持部21jとの接続部分である半円形部)を、特別な色や素材としたり、被投影部21hの輪郭を特別な色や素材としたりする等である。
なお、第1投影対象物21を、本実施形態ではフライ返しとするが、その他の形状の用具、例えばお玉を模したものなどとしてもよい。
第2投影対象物22は、第2投影画像52が投影される物体であって、配膳テーブルに相当し、取り扱い空間10の底部固定位置に設けられている。第2投影対象物22も、表面が白色又は淡色で構成されている。
第3投影対象物23は、第3投影画像53が投影される物体である。第4投影対象物24は、第4投影画像54が投影される物体である。これらは、できあがった料理が盛ってあるバットや、フライパン、鍋などの調理器具に相当し、表面の被投影部が白色又は淡色で構成されている。本実施形態におけるこれらは、第2投影対象物22である配膳テーブルの上面よりも、トラッキングセンサ40および投影装置30が設置された上方に上面が位置するように隆起させたような構造物、或いは、第2投影対象物22の上面所定位置に載置される構造物である。
第5投影対象物25は、第5投影画像55が投影される物体であって、配膳皿に相当し、表面の被投影部が白色又は淡色で構成されている。
投影装置30は、制御コンピュータ1100により制御信号を受けて画像を投影する装置であって、いわゆる「カラープロジェクター」により実現できる。投影装置30は、取り扱い空間10の上方に設置されており、第1投影画像51などへ上方から画像を投影する。
トラッキングセンサ40は、取り扱い空間10内における第1投影対象物21の取り扱い状況として、その位置や姿勢などをトラッキングするための計測を行う。トラッキングセンサ40を構成するハードウェア等は、トラッキングを実現する手法に応じて適宜選択可能である。本実施形態では、赤外線ビデオカメラ42と、深度センサ44とを有する。
赤外線ビデオカメラ42は、取り扱い空間10の直上所定位置に固定されており、取り扱い空間10を真上から俯瞰するように撮影し、撮影画像の信号或いはデータを制御コンピュータ1100へ送信する。撮影画像は、制御コンピュータ1100にて、画像認識処理されて各投影対象物のトラッキングに用いられる。
深度センサ44は、取り扱い空間10の直上所定位置に固定されており、第1投影対象物21~第5投影対象物25までの距離(深度)を所定周期で走査し、走査データを制御コンピュータ1100へ送信する。走査データは、制御コンピュータ1100にて、画像認識を補助し、トラッキング精度の向上に用いられる。
したがって、赤外線ビデオカメラ42は、第1投影対象物21~第5投影対象物25を真上から撮影する。深度センサ44もまた、第1投影対象物21~第5投影対象物25の真上から、距離を走査する。
第2投影対象物22の上面は、赤外線ビデオカメラ42の撮影方向や、深度センサ44の測定方向と直交又は略直交する平面を有しており、深度センサ44の走査データのなかで最も広い略単一の高さ情報(深度値(距離値)を基準水平面からの高さに変換したもの)を有する。
第3投影対象物23、第4投影対象物24、第5投影対象物25の上面もまた、赤外線ビデオカメラ42の撮影方向や、深度センサ44の測定方向と直交又は略直交する平面を有しているが、第2投影対象物22の上面に対し、それぞれ所定の高さを有している。
よって、これらは同じ白或いは淡色であっても、深度センサ44の走査データからそれぞれを識別することができる。
また、これらが動かない前提であれば、赤外線ビデオカメラ42に映る画像に対し、あらかじめ領域を定義しておくことで識別することが可能である。この場合は、それぞれが同じ高さ、色、素材であっても構わない。
そして、第1投影対象物21は、ユーザ2が手に持って第2投影対象物22の上方で取り扱うので、やはり深度センサ44の走査データから第2投影対象物22を識別することができる。また、映像表現のシチュエーションの設定上、第1投影対象物21は、第3投影対象物23や、第4投影対象物24、第5投影対象物25よりも上方で取り扱われる。よって、深度センサ44の走査データから、各投影対象物20を識別することができる。
なお、トラッキングを実現する手法は、輪郭線や特徴形状部の画像認識や、深度走査に基づく手法に限らない。例えば、第1投影対象物21、第3投影対象物23、第4投影対象物24、第5投影対象物25にそれぞれ赤外光を反射する単一又は複数のマーカを付し、赤外線ビデオカメラ42にて撮影されたマーカの大きさ、位置、角度等からその投影対象物の空間位置と姿勢を算出してトラッキングするとしてもよい。より具体的には、マーカとしてARマーカを用い、画像認識型ARシステムでもってトラッキングを実現するとしてもよい。或いは、深度センサ44を省略する代わりに赤外線ビデオカメラ42をステレオカメラとして、投影対象物をトラッキングするとしてもよい。
制御コンピュータ1100は、投影システム1000の動作を制御するコンピュータであって、本体装置1101と、キーボード1106と、タッチパネル1108と、を有し、本体装置1101には制御基板1150を搭載する。
制御基板1150には、CPU(Central Processing Unit)1151やGPU(Graphics Processing Unit)、DSP(Digital Signal Processor)などの各種マイクロプロセッサ、VRAMやRAM,ROM等の各種ICメモリ1152、インターフェース回路1157が搭載されている。
インターフェース回路1157には、赤外線ビデオカメラ42で撮影された画像の画像データを入力する回路、深度センサ44による走査データを入力する回路、投影装置30へ画像信号を出力する回路、などが含まれている。
なお、制御基板1150の一部又は全部は、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)、SoC(System on a Chip)により実現するとしてもよい。
そして、制御コンピュータ1100は、制御基板1150が所定のプログラム及びデータに基づいて演算処理することにより、投影システム1000を統合的に動作制御する。
次に、映像表現の進行に従ってその概要を説明する。
図2は、映像表現の開始時における取り扱い空間10の状態の例を示す図である。
映像表現の開始時、ユーザ2は、第1投影対象物21の把持部21jを把持して第2投影対象物22の脇に立つ。この時点では、ユーザ2は第1投影対象物21を何れの料理にも触れさせていないので、第1投影対象物21には画像は投影されていない。
第2投影対象物22にも、開始時点では画像は投影されていない、或いは第2投影画像52とは別に配膳テーブルとしての柄を表す所定の背景画像を投影するとしてもよい。いずれにしても、第2投影画像52はこの時点では投影されていない。
第3投影対象物23には、ユーザ2が第1投影対象物21を取り扱うことによって運ばれて移動される所定物体の候補となる第1の選択候補の画像、すなわち第1候補画像が第3投影画像53として投影されている。本実施形態では、1つ若しくは複数のハンバーグの画像が投影される。
第4投影対象物24には、ユーザ2が第1投影対象物21を取り扱うことによって運ばれて移動される所定物体の候補となる第2の選択候補の画像、第2候補画像が第4投影画像54として投影されている。本実施形態では、たっぷりのチャーハンが盛られた画像が投影される。
第5投影対象物25には、この時点では画像は投影されていない。
第1投影対象物21は、赤外線ビデオカメラ42の撮影画像中の特徴的な形状を有する画像部分21t(図2の上部左側の吹き出し画像中に示した被投影部21hのハッチング部分)の輪郭や、深度センサ44の走査データから識別され、その位置P・速度V・加速度A・姿勢θが算出されてトラッキングされる。位置P・速度V・加速度A・姿勢θは、第1投影対象物21の取り扱い状況を表すパラメータ値とされる。なお、これらのパラメータ値は、映像表現の内容に応じて適宜取捨選択して利用することができる。
図3は、ユーザ2が第1投影対象物21を取り扱うことで運んで移動しようとする所定物体を選択操作している取り扱い空間10の状態を示す図である。
ユーザ2は、第1投影対象物21を、第3投影画像53又は第4投影画像54に重ねることで、第1投影対象物21を取り扱うことで運んで移動しようとする所定物体を選択する。映像表現のシチュエーション設定からすると、配膳皿に取り分ける料理の選択に相当する。図3の例では、第1投影対象物21を第3投影画像53に重ねた状態を表しているが、第4投影画像54に重ねても良いのは勿論である。
本実施形態では、第1投影対象物21の取り扱いによって運ばれて移動される所定物体の選択操作は、第1投影対象物21へ第1投影画像51を投影開始する条件(第1開始条件)を満たしたことで検出される。第1投影対象物21と、選択候補物体の画像が投影されている対象物(本実施形態では、第3投影対象物23、第4投影対象物24)とが一定距離以内に位置した(接近した)ことが、第1開始条件とされる。
そして、第1投影対象物21の取り扱いによって運ばれて移動される所定物体が選択されると、第1投影対象物21には、第1開始条件を満たした投影画像である第3投影画像53又は第4投影画像54に対応付けられている物体と同種の物体の画像として、第1投影画像51が投影開始される。
具体的には、第3投影画像53はハンバーグなので、第1投影対象物21が第3投影対象物23に対して一定距離以内に接近したと検出されると、ハンバーグを表す第1投影画像51が第1投影対象物21に投影開始される。仮に、第1投影対象物21が第4投影対象物24に対して一定距離痛いに接近したと検出された場合には、第4投影画像54がチャーハンなので、チャーハンを表す第1投影画像51が第1投影対象物21に投影開始される。そして、第1投影対象物21に第1投影画像51が投影開始されることで、あたかも第1投影対象物21で、第3投影画像53又は第4投影画像54で表現されている料理を掬ったかのような映像表現となる。
図4は、ユーザ2が第1投影対象物21を取り扱うことで移動操作をしている取り扱い空間10の状態を示す図である。
ユーザ2は、料理を掬うとこれを配膳皿まで運んで移動させるように操作する。
第1投影対象物21を取り扱うことで運んで移動しようとする所定物体の選択が完了してから、移動が完了するまでの移動過程においても、第1投影対象物21はトラッキングされているので、第1投影画像51が第1投影対象物21に追従して投影され続ける。よって、ユーザ2には、あたかも掬った料理をフライ返しにのせて運んで移動させているように見える。
そして、本実施形態では、トラッキングによって算出されている第1投影対象物21の位置P・速度V・加速度A・姿勢θを利用して、第1投影対象物21への投影画像を変化させることで、移動中の所定物体の様子を表現する。
具体的には、第1投影対象物21の位置P・速度V・加速度A・姿勢θに基づいて、第1投影対象物21の取り扱い状況が所定条件を満たしたか否かを判定する。そして、所定条件が満たされた場合には、第1投影画像51に関連付けられた第2投影画像52を第2投影対象物22に投影する制御を開始する。つまり、ここで言う所定条件は、第2開始条件と言い換えることができる。
本実施形態における所定条件は、移動させている物体をこぼす・落とす状況に相当するように設定されている。よって、所定条件は、物体をこぼしたり落としたりしてしまったと判断できるような速度V、加速度A、姿勢θのうち少なくとも1つのパラメータ値の条件として記述することができる。また、第1投影対象物21が、撮影範囲外に出てしまった、あるいは検出が不可能な姿勢になった等の理由で、位置P等を検出できなくなったような場合も、この所定条件に加えることとしても良い。
そして、本実施形態における第2投影画像52は、第1投影画像51と同じ画像、或いは、第1投影画像51によって表される物体を第1投影画像51とは異なる表現で表した画像とされる。
具体的には、第1投影画像51としてハンバーグを表す画像が用いられている場合には、同じハンバーグの画像や、落下して一部が崩れてしまったハンバーグの画像などが、第2投影画像52として投影される。また、第1投影画像51としてチャーハンを表す画像が用いられている場合には、こぼれ落ちたチャーハンの画像が、第2投影画像52として投影される。
また、第1投影対象物21の取り扱いによって運ばれて移動される所定物体に係る制限の設定(具体的には、第1投影画像51によって表される物体は、部分的に一部だけ落下することのない一体不可分の料理(例えばハンバーグであったりステーキであったり)であるとする設定)によっては、第2投影画像52の投影開始に伴って、第1投影画像51の投影の中止や、第1投影画像51を別の画像に切り換えるといった処理を行う。
第1投影画像51によって表される物体をハンバーグとするならば、第2投影画像52もハンバーグとして、第2投影画像52の投影開始とともに、第1投影画像51の投影を中止するか、ハンバーグのソースのみ残ったような画像に第1投影画像51を差し替える変更を行うことで、ハンバーグがまるごと落ちたような映像表現をする。
第2投影画像52が投影される位置や投影される数などは、所定条件を満たしたタイミングにおける第1投影対象物21の取り扱い状況に応じて決定される。
例えば、速度Vが大きいほど、第1投影対象物21に対して第2投影画像52が投影される位置が遠くになるように決定される。これにより、ハンバーグを急いで運んでいる時に落下させてしまった場合に、より遠くへ飛んで落下したかのように表現される。
また、本実施形態では、所定条件を満たすまでの中間状況において、運ばれることで所定物体が揺れている状態を表現することもできる。
具体的には、第1投影対象物21の取り扱い状況が所定条件を満たす前に至る中間状況に達したか否かを判定し、達したと判定した場合には、投影中の第1投影画像51を、第1投影画像51によって表されていた物体が揺動する画像又は揺動した結果を表現する画像に差し替えて投影する制御を行う。
より具体的には、ハンバーグであれば、ハンバーグが揺れている様子を表す画像(図4中の符号51’)に差し替えて第1投影画像51を投影する。チャーハンであれば、チャーハンの山の一部が崩れる様子を表す画像に変更して第1投影画像51を投影する。プリンであれば、ゆらゆら揺れる様相の画像に差し替えると好適である。この場合、差し替える画像はアニメーション画像であると好適である。これらの表現は、「落ちかけている」ことを示すことが目的であるので、揺動に限らず、点滅させたり、色を変化させたりすることでそれを示しても良いことは勿論である。しかし、そういった表現は非現実的なものとなる可能性が高い。現実を模した体験を提供する上で、落ちかけていることを自然に示すには、揺動させるという表現が適している。
図5は、第1投影対象物21の移動操作の完了過程における取り扱い空間10の状態の例を示す図である。
ユーザ2が、第1投影対象物21を第5投影対象物25に重ねると、移動完了と判断される。あるいは、第1投影対象物21を第5投影対象物25に重ねた上で、横向きにする(姿勢の変化が検出される状態にするか、物体として検出ができない状態にする)等の操作を行うことで、移動完了と判断されるようにしても良い。そして移動完了と判断されると、第1投影対象物21の取り扱いによって移動された物体の移動完了状態の様子を表す第5投影画像55が第5投影対象物25に投影開始される。また、これに伴って、第1投影対象物21への第1投影画像51の投影が中止される。或いは、ハンバーグのソースのみ残ったような画像に第1投影画像51を差し替える変更を行う。これにより、ハンバーグが配膳された状態を表現できる。
図6は、第1投影対象物21の移動操作の完了後における取り扱い空間10の状態の例を示す図である。ユーザ2が第1投影対象物21を第5投影対象物25から離すと、取り扱っている第1投影対象物21には第1投影画像51がもはや投影されていないので、ユーザ2は料理を運び終えた体感を得ることができる。
次に、こうした映像表現を可能にする機能構成と、必要とされるプログラムやデータについて説明する。
図7は、本実施形態の投影システム1000の機能構成例を示す機能ブロック図である。
投影システム1000は、操作入力部100と、処理部200と、画像投影部392と、記憶部500とを有する。
操作入力部100は、ユーザ2の映像表現に係る各種操作を受け付け、その結果を処理部200へ出力する。本実施形態の操作入力部100は、第1投影対象物21の位置をトラッキングするための計測を行うトラッキング計測部102を有する。
そして、本実施形態のトラッキング計測部102は、撮像部104と、深度検出部106とを有する。本実施形態では、撮像部104には赤外線ビデオカメラ42が該当し、深度検出部106には深度センサ44が該当する(図1参照)。
処理部200は、例えばCPUやGPU等のプロセッサや、ASIC、ICメモリなどの電子部品によって実現され、操作入力部100や記憶部500を含む各機能部との間でデータの入出力制御を行う。そして、所定のプログラムやデータ、操作入力部100からの操作入力信号等に基づいて各種の演算処理を実行して、投影システム1000の動作を統合的に制御する。本実施形態の構成では、制御コンピュータ1100の制御基板1150がこれに該当する。
そして、本実施形態の処理部200は、トラッキング制御部202と、選択制御部210と、開始検出制御部212と、第1投影制御部214と、取り扱い状況検出制御部220と、判定部230と、第2投影制御部240と、中間判定部242と、終了検出部244と、画像生成部292と、を含む。勿論、これら以外の機能部も適宜含めることができる。
トラッキング制御部202は、トラッキング計測部102による計測結果に基づいて、第1投影対象物21の位置をトラッキングするための演算処理を行う。すなわち、トラッキング制御部202は、トラッキング計測部102とともに、第1投影対象物21の位置をトラッキングするトラッキング手段を構成する。
選択制御部210は、ユーザ2による第1投影対象物21の取り扱いにより、運んで移動させる所定物体を選択制御する。具体的には、所定の候補物体の投影対象物(本実施形態では、第3投影対象物23と第4投影対象物24)に選択候補となる候補物体の画像を投影制御するとともに、候補物体が投影された投影対象物に第1投影対象物21が接近したことに応じて、接近された候補物体の投影対象物に対応づけられている候補物体を、第1投影対象物21により移動される所定物体として設定する。
開始検出制御部212は、第1投影対象物21が所定の開始位置に位置したことを検出する。本実施形態における開始位置は、第3投影対象物23と、第4投影対象物24との各設置位置の2箇所がこれに該当する。
第1投影制御部214は、開始検出制御部212の検出に応じて、ユーザ2が動かして取り扱う第1投影対象物21に第1投影画像51を投影する制御を行う。
具体的には、第1投影制御部214は、
1)トラッキング制御部202によるトラッキングに係る演算結果に基づいて、動かされる第1投影対象物21に追従させるように第1投影対象物21に第1投影画像51を投影する制御、
2)取り扱い状況が所定条件を満たす場合に、第1投影対象物21への第1投影画像51の投影を中止又は変更する制御、
3)取り扱い状況が前記所定条件を満たす前に至る中間状況に達した場合に、第1投影画像51を、当該第1投影画像51によって表されていた物体が揺動する画像に変更して投影する制御、
4)第1投影対象物21が所定の終了位置に位置した検出に応じて、第1投影画像51の第1投影対象物21への投影を終了する制御、
を行う。
取り扱い状況検出制御部220は、第1投影対象物21の取り扱い状況を検出する。本実施形態では、ユーザ2による第1投影対象物21の取り扱いに係る所定物理量として、位置P、速度V、加速度A、姿勢θを検出することができる。具体的には、撮像部104による撮影画像と深度検出部106による検出結果の少なくとも何れかに基づいてこれらの所定物理量を検出することができる。撮影画像を用いる場合、取り扱い状況検出制御部220は、例えば撮影画像中の第1投影対象物21の被投影部21hの画像部分21t(図2参照)に基づいて所定物理量を検出すると好適である。
判定部230は、選択制御部210により選択された所定物体に関連付けられた取り扱い状況が、所定条件を満たしたか否かを、取り扱い状況検出制御部220により検出された所定物理量に基づいて判定する。
第2投影制御部240は、取り扱い状況が所定条件を満たした場合に、第1投影画像51に関連付けられた第2投影画像52を第2投影対象物22に投影する制御を行う。
中間判定部242は、取り扱い状況が所定条件を満たす前に至る中間状況に達したか否かを判定する。
終了検出部244は、第1投影対象物21が所定の終了位置に位置したことを検出する。本実施形態では、第1投影対象物21が第5投影対象物25に接近したことをもって、所定の終了位置に位置したと判定する。
記憶部500は、処理部200に制御コンピュータ1100を統合的に制御させるための諸機能を実現するためのプログラムや各種データ等を記憶する。また、処理部200の作業領域として用いられ、処理部200が各種プログラムに従って実行した演算結果などを一時的に記憶する。この機能は、例えばRAMやROMなどのICメモリ、ハードディスク等の磁気ディスク、CD-ROMやDVDなどの光学ディスク、オンラインストレージなどによって実現される。図1の例では制御基板1150が搭載するICメモリ1152やハードディスクなどの記憶媒体がこれに該当する。オンラインストレージを用いるとしてもよい。
画像生成部292は、各種投影画像の画像を画像投影部392で投影させるための画像信号を生成する。勿論、投影画像のデコードや、生成などを行う構成としてもよい。
画像投影部392は、画像の投影を行う。本実施形態では、投影装置30がこれに該当する(図1参照)。
図8は、本実施形態における記憶部500が記憶するプログラムやデータの例を示す図である。本実施形態の記憶部500は、制御プログラム501と、投影画像定義データ510と、を記憶する。また、記憶部500は、逐次更新管理されるデータとして、トラッキングデータ600と、第1投影対象物21の取り扱いにより運ばれて移動される所定物体の種類を示す所定物体名602と、第1投影画像管理データ604と、第2投影画像管理データ610と、を記憶する。その他、タイマや、カウンタ、各種フラグなどの情報を適宜記憶できる。
制御プログラム501は、処理部200が読み出して実行することで、トラッキング制御部202~画像生成部292の各機能を実現させるためのプログラムである。
投影画像定義データ510は、第1投影対象物21の取り扱いにより運ばれて移動される所定物体の種類毎に用意され、当該物体の映像表現を実現するための各種データを格納する。本実施形態では、所定物体として選択できるのは2種類(ハンバーグとチャーハン)のうちの何れかとするため、投影画像定義データ510は2つだけ図示されているが、選択肢が3種類以上の場合には、それと同数だけ投影画像定義データ510は用意されることになる。
1つの投影画像定義データ510は、例えば図9に示すように、固有の物体名511と、候補物体画像512と、候補物体画像投影制御データ514と、第1投影画像データ520と、第1開始条件定義データ522と、中間投影画像データ530と、中間条件定義データ532と、第2投影画像データ540と、第2開始条件定義データ542と、第2投影制御パラメータ値設定関数544と、第2投影中止設定546と、第5投影画像データ550と、第5開始条件定義データ552と、を含む。勿論、これら以外のデータも適宜含めることができる。
候補物体画像512は、第1投影対象物21の取り扱いにより運ばれて移動される所定物体の選択候補として、当該物体を提示する際に表示する画像である。本実施形態における第3投影画像53又は第4投影画像54がこれに該当する。
そして、候補物体画像投影制御データ514が、候補物体画像512を取り扱い空間10のどこへどのように表示させるかを定義する各種制御データ(例えば、位置座標、表示姿勢、表示形態の時間変化パターン、など)を格納する。
第1開始条件定義データ522は、第1投影画像データ520で定義される第1投影画像51を、第1投影対象物21へ投影表示する制御を開始するための条件を定義する。
本実施形態では、第1投影対象物21と、第3投影対象物23又は第4投影対象物24と、が接近して重なったと見なされる双方の代表点位置の距離条件として定義される。なお、所定物の選択操作の認識に、第1投影対象物21の位置や姿勢変化(具体的には、フライ返しを差し込んで持ち上げる動作に相当する一連の位置や姿勢の変化)を条件として含める場合には、当該定義データにその条件のデータも適宜含めることができる。
中間条件定義データ532は、取り扱い状況が所定条件を満たす前に至る中間状況に達したか否かを判定するための条件であって、投影中の第1投影画像51を、中間投影画像データ530の画像へ差し替える条件である。
第2開始条件定義データ542は、第2投影画像データ540で定義される第2投影画像52を、第2投影対象物22へ投影表示する制御を開始するための条件を定義する。
第2投影制御パラメータ値設定関数544は、第2投影画像52をどこにどのように表示させるかの各種パラメータ値を設定するための関数である。変数として、第1投影対象物21の取り扱い状況を記述するパラメータ値(例えば、位置P・速度V・加速度A・姿勢θなど)を用いることができる。当該設定関数が、当該投影画像定義データ510に対応する物体の物性を画像表現するカギとなる。
第2投影中止設定546は、第2投影画像52の投影に伴って、第1投影画像51の投影を中止又は変更するか否かの設定を示す。第2投影中止設定546は、適宜省略することもできる。
第2投影画像52の投影に係るこれらのデータを適切に設定することで、本実施形態でいうところのハンバーグの塊としての落下や、粒の集合であるチャーハンの一部が崩れたかのような落下、といった異なる2つの落下の様子を、それぞれそれらしく表現することができるようになる。
なお、第2投影画像データ540と、第2開始条件定義データ542と、第2投影制御パラメータ値設定関数544と、第2投影中止設定546と、のセットは、図示の例では1セットのみであるが、第2投影画像データ540のバリエーション違いで複数セット設ける構成も可能である。この場合、より複雑で豊かな映像表現が可能になる。
第5開始条件定義データ552は、第5投影画像データ550で定義される第5投影画像55を、第5投影対象物25へ投影する制御を開始する条件を定義する。本実施形態では、第1投影対象物21と第5投影対象物25との接近、且つ、第1投影画像51が投影中止されていないこと、として記述することができる。
なお、投影表示する制御を開始するための条件と同様に、第1投影対象物21の位置や姿勢変化(具体的には、フライ返しを傾けるような動作に相当する一連の位置や姿勢の変化)を条件として含める場合にも、当該定義データにその条件のデータも適宜含めることができる。あるいは、第1投影対象物21と第5投影対象物25とが接近した直後に、第1投影対象物21の位置をトラッキング部が見失ったような場合を条件として含める場合にも、当該定義データにその条件のデータも適宜含めることができる。ただし、どちらの場合も、第1投影画像51が投影中止されていない必要がある。
図8に戻り、トラッキングデータ600は、トラッキングの対象毎に用意され、トラッキングの対象の最新の追跡状況を記述する各種情報を格納する。本実施形態では、第1投影対象物21は1つだけなのでトラッキングデータ600は1つとする。そして、例えば、取り扱い空間10における位置座標、移動速度、加速度、姿勢などの情報を含む。なお、映像表現の内容によっては、これらの情報の1つ又は複数を省略できるし、その他の情報も適宜含めることができる。
所定物体名602は、第1投影対象物21の取り扱いにより運ばれ移動される所定物体の識別情報を格納する。映像表現開始時点は、未指定を表す所定値が格納されるが、所定物体の選択操作の結果に応じて更新される。
第1投影画像管理データ604は、第1投影画像51の投影制御に係る各種制御パラメータ値を格納する。例えば、投影位置座標、投影数、投影時の拡大縮小倍率、投影時の姿勢、などのパラメータ値を格納することができる。本実施形態では、第1投影対象物21には1つだけ第1投影画像51を投影するので、当該管理データは1つの画像に関してだけ設定されるが、複数の第1投影画像51を同時に投影する構成では、当該管理データをその分だけ用意することとなる。
第2投影画像管理データ610は、第2投影画像52の投影制御に係る各種制御パラメータ値を格納する。例えば、投影位置座標、投影数、投影時の拡大縮小倍率、投影時の姿勢、などのパラメータ値を格納することができる。
また、図8には示していないが、ユーザ2によって取り扱われる第1投影対象物21以外の投影対象物20は固定とされるため、これらの投影対象物20の取り扱い空間10中の位置や姿勢のデータを記憶部500に予め記憶させておくこととする。勿論、第1投影対象物21とともに、他の投影対象物20の位置や姿勢もトラッキングすることとする場合には、各投影対象物20の位置や姿勢のデータを常時最新のデータに更新記憶することとしてもよい。
[動作の説明]
次に、本実施形態における投影システム1000の動作について説明する。
図10と図11は、制御コンピュータ1100における処理の流れを説明するためのフローチャートであって、制御コンピュータ1100が制御プログラム501を実行することにより実現される。
制御コンピュータ1100は、先ず、投影画像定義データ510別に候補物体画像512(図9参照)の投影を開始する(ステップS2)。本実施形態では、これにより第3投影対象物23と、第4投影対象物24にそれぞれ異なる候補物体画像が投影されることになる。
次に、制御コンピュータ1100は、第1投影対象物21のトラッキングと取り扱い状況の検出とを開始する(ステップS4)。検出結果は、トラッキングデータ600として記憶部500に格納される(図8参照)。
制御コンピュータ1100は、第1投影対象物21の位置を監視し、開始位置に到達したかを判定する。本実施形態では、第3投影対象物23の所定位置と、第4投影対象物24の所定位置とが、開始位置に該当する。
そして、開始位置に到達したと判定した場合は(ステップS10のYES)、制御コンピュータ1100は、到達した開始位置に応じて所定物体名602(図8参照)を設定する(ステップS12)。本実施形態では、第1投影対象物21が第3投影対象物23の所定位置に所定距離内に接近すると、第3投影対象物23の開始位置に到達したと判定し、第3投影画像53で表現されている物体(本実施形態では、ハンバーグ)を、所定物体名602に設定する。同様にして、第1投影対象物21が第4投影対象物24の所定位置に所定距離内に接近すると、第4投影対象物24の開始位置に到達したと判定し、第4投影画像54で表現されている物体(本実施形態では、チャーハン)を、所定物体名602に設定する。
そして、制御コンピュータ1100は、第1投影対象物21へ第1投影画像51の投影制御を開始する(ステップS14)。具体的には、所定物体名602に合致する物体名511を有する投影画像定義データ510の第1投影画像データ520の画像を投影開始する。これに伴い、第1投影画像管理データ604が作成される。なお、第1投影画像51は、トラッキングの結果を反映して、第1投影対象物21が移動されてもこれに追従して投影制御される。
第1投影画像51の投影開始以降、制御コンピュータ1100は、第1投影対象物21が終了位置に到達したかを監視している(ステップS16)。具体的には、トラッキングデータ600に格納されている、位置P、速度V、加速度A、姿勢θが、所定物体名602に合致する物体名511を有する投影画像定義データ510の第5開始条件定義データ552を満たすかを監視する。本実施形態では、終了位置は、第5投影対象物25の所定位置又はその近傍とされる。よって、第1投影対象物21が第5投影対象物25の所定位置に接近した場合に終了位置に到達したと判定される。
ステップS16にて、終了位置に到達していないと判定されると(ステップS16のNO)、図11に移る。第1投影画像51の投影開始以降、制御コンピュータ1100は、第1投影対象物21の取り扱い状況が、所定物体名602に係る中間条件を満たしたかを監視している(ステップS20)。具体的には、トラッキングデータ600に格納されている、位置P、速度V、加速度A、姿勢θが、所定物体名602に合致する物体名511を有する投影画像定義データ510の中間条件定義データ532を満たすかを監視している。
そして、中間条件が満たされていると肯定判定した場合には(ステップS20のYES)、投影中の第1投影画像51を、中間投影画像データ530の画像に差し替えて投影を継続する(ステップS22)。本実施形態では、揺動状態の画像に差し替える。
もし、中間条件が満たされていなければ(ステップS20のNO)、第1投影画像51を非揺動状態の画像に戻す(ステップS24)。例えば、1度落としたハンバーグを掬い直すと揺れていない状態のハンバーグの画像が投影されることになる。
また、第1投影画像51の投影開始以降、制御コンピュータ1100は、第1投影対象物21の取り扱い状況が、第2開始条件を満たしているかを監視する(ステップS30)。具体的には、トラッキングデータ600に格納されている、位置P、速度V、加速度A、姿勢θが、所定物体名602に合致する物体名511を有する投影画像定義データ510の第2開始条件定義データ542を満たすかを監視する。
そして、第2開始条件を満たしている場合には(ステップS30のYES)、制御コンピュータ1100は、第2投影対象物22への第2投影画像52の投影を開始する(ステップS32;図4参照)。
具体的には、所定物体名602に合致する物体名511を有する投影画像定義データ510の第2投影制御パラメータ値設定関数544(図9参照)と、トラッキングデータ600(図8参照)に格納されている位置P・速度V・加速度A・姿勢θと、を参照して、第2投影画像52を投影する位置や数量、大きさなどを決定して、第2投影画像管理データ610を作成し、投影を開始する。なお、第2投影中止設定546(図9参照)が「有り」に設定されている場合には、第2投影画像52の投影開始とともに、第1投影画像51の投影を中止又は変更する。本実施形態でいうところの、ハンバーグがまるごと落下した状態がこれに相当する。
図10に戻って、第1投影対象物21が終了位置に到達したと判定された場合(ステップS16のYES)、制御コンピュータ1100は、第5投影対象物25へ第5投影画像55の投影を開始するとともに、第1投影画像51の投影を中止又は投影画像を変更する(ステップS42;図5参照)。
このように、本実施形態によれば、投影システムを用いた新しい映像表現が可能になる。
〔変形例〕
以上、本発明を適用した実施形態の例について説明したが、本発明を適用可能な形態は上記形態に限定されるものではなく適宜構成要素の追加・省略・変更を施すことができる。
[変形例その1]
例えば、投影対象物に深度センサ44で計測される深度方向に凹凸を設けて、所定物体の選択条件、兼、第1投影画像51の投影開始条件に、深度方向の操作に係る条件を加えることができる。
例えば、図12は、第3投影対象物23の縦断面図である。
当該構成における第3投影対象物23は、深鍋に相当する。上面視中央部に凹部23hが設けられており、第1投影対象物21(図12の例では、お玉やレードル)を挿入できるスペースが確保されている。そして、凹部23hの平坦な底面には、流動性の候補物体(例えば、カレー、シチューなど)の第3投影画像53が投影される。
そして、当該構成の第3投影画像53の物体に係る第1開始条件定義データ522(図9参照)は、第1実施形態のように第1投影対象物21が第3投影対象物23に接近し、且つ、深度センサ44で計測される第1投影対象物21の深度値が、凹部23hに挿入されたと判断できる深度値条件(図12中の一点鎖線)を満たした場合、とする。
当該構成によれば、深鍋にお玉を差し込んで流動性の物体を掬って運ぶという仮想体験をその映像表現で実現可能になる。
[変形例その2]
また、上記実施形態では、第2投影画像52は1度表示されると、映像表現が終了するまで表示されたままとしているが、適宜、第2投影画像52を消去する制御を含めることができる。例えば、投影画像定義データ510(図9参照)に、第2消去条件データを追加して、この第2消去条件が満たされたと肯定判定された場合に、当該第2投影画像52を消去する。
第2消去条件データの内容は、適宜設定可能である。例えば、第1投影対象物21が第2投影画像52の投影位置に所定距離まで接近した場合とすることができる。この例では、テーブルに落ちたハンバーグを、もう一度フライ返しで掬い直して取り上げた映像表現が可能となる。
[変形例その3]
また、投影する所定物体は、それに対応する投影対象物でしか移動・運搬できないという構成とすることもできる。例えば、第1投影対象物21をフライ返しとお玉の2種類とする。そして、運搬する所定物体を、第2投影対象物としてのフライパンに投影されたハンバーグと、第3投影対象物としての鍋に投影されたカレーとする。このとき、ハンバーグはフライ返しでなければ掬うことができず、カレーはお玉でなければ掬うことができない、という構成とすることもできる。
[変形例その4]
また、上記実施形態では、第5投影対象物25を固定として例示したが、第5投影対象物25を、個体識別可能な別の第1投影対象物21とすることもできる。当該構成を前提にして、1)第1投影対象物21をお玉やスプーンとし、2)第1投影画像51をピンポン球等のボールとし、3)投影画像定義データ510に第1投影制御パラメータ値設定関数を追加して、当該関数で第1投影対象物21の取り扱い状況に応じて第1投影画像51の投影位置のオフセット量を決定する構成、とするならば、複数のユーザがお玉(それぞれのユーザが把持する第1投影対象物21)を使ってピンポン球をリレーするピンポン球リレーのような仮想体験を実現する映像表現が可能になる。
10…取り扱い空間
20…投影対象物
21…第1投影対象物
21h…被投影部
21j…把持部
21t…画像部分
22…第2投影対象物
30…投影装置
40…トラッキングセンサ
42…赤外線ビデオカメラ
44…深度センサ
51…第1投影画像
52…第2投影画像
102…トラッキング計測部
104…撮像部
106…深度検出部
200…処理部
202…トラッキング制御部
210…選択制御部
212…開始検出制御部
214…第1投影制御部
220…取り扱い状況検出制御部
230…判定部
240…第2投影制御部
242…中間判定部
244…終了検出部
392…画像投影部
500…記憶部
501…制御プログラム
510…投影画像定義データ
511…物体名
520…第1投影画像データ
530…中間投影画像データ
532…中間条件定義データ
540…第2投影画像データ
542…第2開始条件定義データ
546…第2投影中止設定
600…トラッキングデータ
602…所定物体名
604…第1投影画像管理データ
610…第2投影画像管理データ
1000…投影システム
1100…制御コンピュータ
1150…制御基板

Claims (15)

  1. ユーザが動かして取り扱う第1の投影対象物に所定物体を表す第1の投影画像を投影する制御を行う第1の投影制御手段と、
    前記第1の投影対象物の取り扱い状況を検出する検出手段と、
    前記取り扱い状況が所定条件を満たしたか否かを判定する判定手段と、
    前記判定手段により肯定判定された場合に、前記第1の投影画像に関連付けられた第2の投影画像を第2の投影対象物に投影する制御を行う第2の投影制御手段と、
    前記取り扱い状況が前記所定条件を満たす前に至る中間状況に達したか否かを判定する中間判定手段と、
    を備え
    前記第1の投影制御手段は、前記中間判定手段により肯定判定された場合に、前記第1の投影画像の投影制御として、前記第1の投影対象物に前記所定物体の揺動状態の画像を投影する制御を行う、
    投影システム。
  2. 前記第2の投影画像は、前記第1の投影画像と同じ画像、或いは、前記所定物体を前記第1の投影画像とは異なる表現で表した画像、である、
    請求項1に記載の投影システム。
  3. 前記第1の投影対象物の位置をトラッキングするトラッキング手段、
    を更に備え、
    前記第1の投影制御手段は、前記トラッキングに基づいて、動かされる前記第1の投影対象物に追従させるように前記第1の投影対象物に前記第1の投影画像を投影する制御を行う、
    請求項1又は2に記載の投影システム。
  4. 前記第1の投影制御手段は、前記判定手段により肯定判定された場合に、前記第1の投影対象物への前記第1の投影画像の投影を中止する、又は、投影する前記第1の投影画像を別の画像に差し替える変更を行う
    請求項1~3の何れか一項に記載の投影システム。
  5. 前記ユーザによる前記第1の投影対象物の取り扱いは、前記所定物体を運ぶ又は移動させる取り扱いであ
    請求項1~の何れか一項に記載の投影システム。
  6. 前記第1の投影対象物が所定の開始位置に位置したことを検出する開始検出手段、
    を更に備え、
    前記第1の投影制御手段は、前記開始検出手段の検出に応じて、前記第1の投影画像の前記第1の投影対象物への投影を開始する制御を行う、
    請求項1~の何れか一項に記載の投影システム。
  7. 前記第1の投影対象物が所定の終了位置に位置したことを検出する終了検出手段、
    を更に備え、
    前記第1の投影制御手段は、前記終了検出手段の検出に応じて、前記第1の投影画像の前記第1の投影対象物への投影を終了する制御を行う、
    請求項1~の何れか一項に記載の投影システム。
  8. 複数種類の前記所定物体のうち、一種類の前記所定物体を選択する選択手段、
    を更に備え、
    前記判定手段は、前記選択された所定物体に関連付けられた前記所定条件を満たしたか否かを判定する、
    請求項の何れか一項に記載の投影システム。
  9. 前記検出手段は、前記ユーザによる前記第1の投影対象物の取り扱いに係る所定物理量を検出し、
    前記判定手段は、前記所定物理量に基づいて前記所定条件を満足したか否かを判定する、
    請求項1~の何れか一項に記載の投影システム。
  10. 前記所定物理量は、前記第1の投影対象物の位置、速度、加速度および姿勢の何れかである、
    請求項に記載の投影システム。
  11. ユーザが動かして取り扱う第1の投影対象物に第1の投影画像を投影する制御を行う第1の投影制御手段と、
    前記第1の投影対象物の速度又は加速度を前記ユーザによる前記第1の投影対象物の取り扱いに係る所定物理量として検出することで、前記第1の投影対象物の取り扱い状況を検出する検出手段と、
    前記取り扱い状況が所定条件を満たしたか否かを前記所定物理量に基づいて判定する判定手段と、
    前記判定手段により肯定判定された場合に、前記第1の投影画像に関連付けられた第2の投影画像を第2の投影対象物に投影する制御を行う第2の投影制御手段と、
    を備えた投影システム。
  12. 前記ユーザによる前記第1の投影対象物の取り扱い空間を撮影範囲に含むカメラ、
    を更に備え、
    前記検出手段は、前記カメラの撮影画像に基づいて前記所定物理量を検出する、
    請求項11の何れか一項に記載の投影システム。
  13. 前記カメラは、前記取り扱い空間の上方から俯瞰して撮影する位置に設置されており、
    前記検出手段は、前記撮影画像中の前記第1の投影対象物の画像部分に基づいて前記所定物理量を検出する、
    請求項12に記載の投影システム。
  14. 前記第1の投影対象物は、前記ユーザが把持するための把持部と、前記第1の投影画像が投影される被投影部とを有し、
    前記検出手段は、前記撮影画像中の前記被投影部の画像部分に基づいて前記所定物理量を検出する、
    請求項13に記載の投影システム。
  15. 前記第1の投影制御手段によって制御される投影装置は、前記取り扱い空間の上方から前記第1の投影画像を投影する位置に設置されており、
    前記第2の投影対象物は、前記取り扱い空間の底部固定位置に設けられ、
    前記第2の投影画像は、前記第1の投影画像によって表される物体が落下した状態の画像である、
    請求項1214の何れか一項に記載の投影システム。
JP2018069604A 2018-03-30 2018-03-30 投影システム Active JP7078221B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018069604A JP7078221B2 (ja) 2018-03-30 2018-03-30 投影システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018069604A JP7078221B2 (ja) 2018-03-30 2018-03-30 投影システム

Publications (2)

Publication Number Publication Date
JP2019179209A JP2019179209A (ja) 2019-10-17
JP7078221B2 true JP7078221B2 (ja) 2022-05-31

Family

ID=68278443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018069604A Active JP7078221B2 (ja) 2018-03-30 2018-03-30 投影システム

Country Status (1)

Country Link
JP (1) JP7078221B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7147314B2 (ja) * 2018-07-19 2022-10-05 セイコーエプソン株式会社 表示システム、及び、反射体

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072071A (ja) 2004-09-03 2006-03-16 Japan Advanced Institute Of Science & Technology Hokuriku 表示制御装置
JP2015087726A (ja) 2013-11-01 2015-05-07 シャープ株式会社 画像投影装置
JP2015210379A (ja) 2014-04-25 2015-11-24 株式会社ソニー・コンピュータエンタテインメント 画像融合システム、情報処理装置、情報端末、および情報処理方法
US20170223321A1 (en) 2014-08-01 2017-08-03 Hewlett-Packard Development Company, L.P. Projection of image onto object
JP2018018169A (ja) 2016-07-25 2018-02-01 キヤノン株式会社 情報処理装置および情報処理方法
JP2018036813A (ja) 2016-08-31 2018-03-08 ソニー株式会社 情報処理システム、情報処理方法、およびプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072071A (ja) 2004-09-03 2006-03-16 Japan Advanced Institute Of Science & Technology Hokuriku 表示制御装置
JP2015087726A (ja) 2013-11-01 2015-05-07 シャープ株式会社 画像投影装置
JP2015210379A (ja) 2014-04-25 2015-11-24 株式会社ソニー・コンピュータエンタテインメント 画像融合システム、情報処理装置、情報端末、および情報処理方法
US20170223321A1 (en) 2014-08-01 2017-08-03 Hewlett-Packard Development Company, L.P. Projection of image onto object
JP2018018169A (ja) 2016-07-25 2018-02-01 キヤノン株式会社 情報処理装置および情報処理方法
JP2018036813A (ja) 2016-08-31 2018-03-08 ソニー株式会社 情報処理システム、情報処理方法、およびプログラム
WO2018042948A1 (en) 2016-08-31 2018-03-08 Sony Corporation Information processing system, method of information processing, and program

Also Published As

Publication number Publication date
JP2019179209A (ja) 2019-10-17

Similar Documents

Publication Publication Date Title
US9149716B2 (en) Game apparatus and game program
US9983409B2 (en) Stereoscopic display device and control method
EP2494432B1 (en) Gesture-based user interface
US8405656B2 (en) Method and system for three dimensional interaction of a subject
JP5813948B2 (ja) プログラム及び端末装置
JP6343718B2 (ja) ジェスチャインタフェース
JP5238900B2 (ja) ゲーム装置、ゲーム装置の制御方法、及びプログラム
US20150312559A1 (en) Display device, control method, and control program
JP5425940B2 (ja) ゲーム装置、ゲーム装置の制御方法、及びプログラム
JP7078221B2 (ja) 投影システム
Bikos et al. An interactive augmented reality chess game using bare-hand pinch gestures
CN101534916B (zh) 游戏装置、游戏装置的控制方法
US10076704B2 (en) Game device
JP6738604B2 (ja) プログラム及びゲーム装置
JP5971816B2 (ja) ゲーム装置及びプログラム
JP6385272B2 (ja) 入力処理装置及びプログラム
JP2013154125A (ja) ゲーム装置、ゲーム装置の制御方法、及びプログラム
CN109316739A (zh) 一种游戏场景中的三维位置选取方法和装置
JP2019162257A (ja) 遠隔操作システム及びプログラム
JP5789771B2 (ja) 操作入力装置、プログラム
JP5715583B2 (ja) ゲーム装置及びプログラム
JP2012247953A (ja) プログラム、情報記憶媒体、情報処理システム及び情報処理方法
JP6779048B2 (ja) ゲームの実行方法、プログラムおよび記録媒体
JP5396432B2 (ja) プログラム、情報記憶媒体、情報処理システム及び情報処理方法
JP2022047565A (ja) 職業訓練装置

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20190125

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190220

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190220

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20190222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190419

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220510

R150 Certificate of patent or registration of utility model

Ref document number: 7078221

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350