JP2015220661A - 投影システム、情報処理装置、情報処理方法及びプログラム - Google Patents

投影システム、情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2015220661A
JP2015220661A JP2014104319A JP2014104319A JP2015220661A JP 2015220661 A JP2015220661 A JP 2015220661A JP 2014104319 A JP2014104319 A JP 2014104319A JP 2014104319 A JP2014104319 A JP 2014104319A JP 2015220661 A JP2015220661 A JP 2015220661A
Authority
JP
Japan
Prior art keywords
projection
image
angle
product
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014104319A
Other languages
English (en)
Other versions
JP6326959B2 (ja
Inventor
雄大 今道
Takehiro Imamichi
雄大 今道
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014104319A priority Critical patent/JP6326959B2/ja
Publication of JP2015220661A publication Critical patent/JP2015220661A/ja
Application granted granted Critical
Publication of JP6326959B2 publication Critical patent/JP6326959B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)

Abstract

【課題】プロジェクションマッピングを行う場合のユーザの利便性を向上させる。
【解決手段】映像を処理する情報処理装置140と、処理された映像を対象物の表面に投影するプロジェクタ110とを有する投影システム100における情報処理方法であって、商品200が載置される載置面210に対して、プロジェクタ110の投影方向を表す平行線を投影する第1の投影工程と、載置面210に載置された商品200の載置方向を表す方向線を、載置面210に投影する第2の投影工程と、商品200の表面に投影された映像に対して商品200が位置合わせされた状態における、平行線に対する方向線の角度であるキャリブレーション角度を算出する第1の算出工程と、キャリブレーション角度を、商品200を示す識別情報と対応付けて格納する格納工程とを有する。
【選択図】図2

Description

本発明は投影システム、情報処理装置、情報処理方法及びプログラムに関する。
近年、プロジェクタ等の投影装置を使用して対象物に映像を投影し、投影した映像に様々な視覚効果を与える"プロジェクションマッピング"と呼ばれる技術が普及している。
一般に、プロジェクションマッピングは、ビルなどの建築物を対象として、広告などの映像を投影するのに用いられてきた。一方で、例えば、ショールーム等における商品に直接映像を投影し、当該商品を紹介する際の演出に利用すれば、より多くの顧客の目を当該商品に引きつけることができるものと考えられる。
しかしながら、プロジェクションマッピングの場合、投影装置のユーザは、投影する映像と対象物との位置関係を事前に定義しておくことが必要であり、そのための作業に手間がかかるため、利便性が悪い。
また、ショールーム等における商品のように載置方向を自由に変えることができる対象物の場合、位置関係を事前に定義しても映像がずれて投影されてしまうことが想定される。対象物に対して映像がずれて投影された場合、その都度、ユーザは事前に定義された位置関係を満たすように、対象物の位置合わせを行わなければならず、利便性が悪い。
本発明は上記課題に鑑みてなされたものであり、プロジェクションマッピングを行う場合のユーザの利便性を向上させることを目的とする。
本発明の実施形態に係る情報処理方法は、以下のような構成を有する。すなわち、
映像を処理する情報処理装置と、処理された映像を対象物の表面に投影する投影装置と、を有する投影システムにおける情報処理方法であって、
前記対象物が載置される載置面に対して、前記投影装置の投影方向を表す平行線を投影する第1の投影工程と、
前記載置面に載置された前記対象物の載置方向を表す方向線を、前記載置面に投影する第2の投影工程と、
前記対象物の表面に投影された映像に対して前記対象物が位置合わせされた状態における、前記平行線に対する前記方向線の角度であるキャリブレーション角度を算出する第1の算出工程と、
前記キャリブレーション角度を、前記対象物を示す識別情報と対応付けて格納する格納工程とを有する。
本発明の各実施形態によれば、プロジェクションマッピングを行う場合のユーザの利便性を向上させることが可能となる。
投影システムのシステム構成を示す図である。 投影システムの配置例を示す図である。 情報処理装置のハードウェア構成を示す図である。 キャリブレーションプログラムが実行されることで実現される機能を示す図である。 キャリブレーション処理の流れを示すフローチャートである。 キャリブレーション処理時に投影される映像を示す図である。 キャリブレーション情報を示す図である。 方向検出機能を説明するための図である。 方向検出処理の流れを示すフローチャートである。 マッピング映像情報を示す図である。 プロジェクションマッピングプログラムが実行されることで実現される機能を示す図である。 プロジェクションマッピング処理の流れを示すフローチャートである。 プロジェクションマッピング処理の流れを説明するための図である。 マッピング映像補正機能を説明するための図である。
以下、本発明の実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。
[第1の実施形態]
<1.投影システムのシステム構成>
はじめに、本実施形態に係る投影システムのシステム構成について説明する。図1は、投影システム100のシステム構成を示す図である。
図1に示すように、投影システム100は、投影装置の一例であるプロジェクタ110と、撮像装置の一例であるカメラ120と、情報処理装置140とを有する。また、投影システム100は、対象物である商品に付された商品タグ190を読み取るRFIDリーダ130を有する。なお、プロジェクタ110、カメラ120、RFIDリーダ130は、それぞれ情報処理装置140と接続されている。
プロジェクタ110は、情報処理装置140より送信される映像を商品及び商品が載置される載置面に投影する。情報処理装置140より送信される映像には、商品の表面にプロジェクションマッピングするための映像が含まれる。また、商品が載置される載置面に、プロジェクタ110の投影方向を表す平行線(例えば、格子状の線(格子線)を含む)を投影するための映像、あるいは、載置面に載置された商品の載置方向を表す線(方向線)を投影するための映像が含まれる。
カメラ120は、キャリブレーション処理時に、商品の表面に投影された映像に対して商品が位置合わせされた状態を撮影し、撮影画像を情報処理装置140に送信する。また、カメラ120は、プロジェクションマッピング処理時に、商品が載置面に載置された状態を撮影し、撮影画像を情報処理装置140に送信する。
なお、「キャリブレーション処理」とは、商品の表面に対してプロジェクションマッピングが適切に行われた状態(商品の位置合わせが行われることで、商品の表面に映像がずれることなく投影されている状態)を記録しておくための処理をいう。
RFID(Radio Frequency Identifier)リーダ130は、商品に付された商品タグ190を読み取る。商品に付された商品タグには、2つのRFIDタグ191、192が内蔵されており、RFIDリーダ130は、それぞれのRFIDタグ191、192と通信することで、それぞれのRFIDタグ191、192に格納された識別情報を読み取る。また、それぞれのRFIDタグ191、192と通信した際の受信強度を受信強度情報として取得する。更に、読み取った識別情報及び取得した受信強度情報を情報処理装置140に送信する。
情報処理装置140は、キャリブレーションプログラム150とキャリブレーションプログラム150を実行することで得られたキャリブレーション情報を格納するキャリブレーション情報データベース(以下、単にDBと略す)160とを有する。また、情報処理装置140は、商品の表面にプロジェクションマッピングするためのマッピング映像を格納するマッピング映像DB180を有する。更に、情報処理装置140は、キャリブレーション情報に応じたマッピング映像を商品の表面にプロジェクションマッピングするためのプロジェクションマッピングプログラム170を有する。
キャリブレーションプログラム150は、キャリブレーション処理時に、RFIDリーダ130より送信された識別情報及び受信強度情報に基づいて、商品の載置方向を表す方向線を生成する。また、キャリブレーション処理時に、商品の表面にプロジェクションマッピングするためのマッピング映像と、商品が載置される載置面に格子線を投影するための映像及び方向線を投影するための映像と、をプロジェクタ110に送信する。更に、キャリブレーション処理時に、カメラ120より送信された撮影画像に基づいて、方向線と格子線とのなす角度(「キャリブレーション角度」と称す)を算出し、撮影画像及び識別情報と対応付けてキャリブレーション情報DB160に格納する。
プロジェクションマッピングプログラム170は、プロジェクションマッピング処理時に、RFIDリーダ130より送信された識別情報及び受信強度情報に基づいて、商品の載置方向を示す角度を算出する。また、プロジェクションマッピング処理時に、算出した商品の載置方向を示す角度と、キャリブレーション処理時に算出したキャリブレーション角度との角度差(角度のずれ量)を算出する。更に、算出した角度差に基づいて、商品の表面にプロジェクションマッピングするマッピング映像を読み出し、撮影画像に基づいて補正したうえで、プロジェクタ110を介して、商品の表面に投影するよう指示する。
<2.投影システムの配置例>
次に、投影システム100を構成する各部の配置例について説明する。図2は、投影システム100の配置例を示す図である。
図2に示すように、商品200は、RFIDリーダ130が配された載置面210に載置される。載置面210の上方には、キャリブレーション処理時に載置面210に格子線の映像や方向線の映像を投影したり、商品200の表面にプロジェクションマッピングするための映像を投影するプロジェクタ110が配されている。
同様に、載置面210の上方には、キャリブレーション処理時に位置合わせされた商品200を含む載置面210全体を撮影するカメラ120が配されている。
一方、載置面210における商品200の載置位置には、RFIDリーダ130が埋め込まれている。これにより、載置面210に載置された商品に付された商品タグ190を読み取ることができる。
<3.情報処理装置のハードウェア構成>
次に、情報処理装置140のハードウェア構成について説明する。図3は、情報処理装置140のハードウェア構成を示す図である。
図3に示すように、情報処理装置140は、CPU(Central Processing Unit)301、ROM(Read Only Memory)302、RAM(Random Access Memory)303、記憶部304を備える。更に、接続部305、操作部306、表示部307を備える。なお、情報処理装置140の各部は、バス308を介して相互に接続されているものとする。
CPU301は、記憶部304に格納された各種プログラムを実行するコンピュータである。
ROM302は不揮発性メモリである。ROM302は、記憶部304に格納された各種プログラムをCPU301が実行するために必要な、各種プログラム、データ等を格納する。具体的には、BIOS(Basic Input/Output System)やEFI(Extensible Firmware Interface)等のブートプログラムなどを格納する。
RAM303は、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等の主記憶装置である。RAM303は、各種プログラムがCPU301によって実行される際に展開される、作業領域として機能する。記憶部304は、CPU301により実行される各種プログラムを格納する。
接続部305は、プロジェクタ110、カメラ120、RFIDリーダ130と接続するための接続部である。
操作部306は、情報処理装置140に対して各種指示を入力する際に用いられる。表示部307は、情報処理装置140の内部状態等を表示する。
<4.情報処理装置のキャリブレーション機能の説明>
次に、情報処理装置140のキャリブレーション機能について、図4〜図7を用いて説明する。
<4.1 キャリブレーション機能の機能構成>
はじめに、キャリブレーションプログラム150が実行されることで実現されるキャリブレーション機能について説明する。図4は、キャリブレーションプログラム150が実行されることで実現されるキャリブレーション機能の機能構成を示す図である。
図4に示すように、キャリブレーション機能には、格子線投影部401と、キャリブレーション映像投影部402と、方向検出部403と、方向線投影部404と、キャリブレーション角度算出部405とが含まれる。
格子線投影部401は、載置面210に格子線(プロジェクタ110の投影方向を表す平行線)を投影するために、格子線の映像をプロジェクタ110に送信する。
キャリブレーション映像投影部402は、商品200の表面にプロジェクションマッピングするためのマッピング映像をプロジェクタ110に送信する。キャリブレーション映像投影部402によりプロジェクタ110に送信されるマッピング映像は、マッピング映像DB180より読み出される。キャリブレーション映像投影部402により読み出されるマッピング映像は、マッピング映像DB180に格納されている複数のマッピング映像のうち、基準映像(詳細は後述)として格納されているマッピング映像である。
方向検出部403は、RFIDリーダ130より送信された識別情報及び受信強度情報に基づいて、RFIDタグ191、192の位置座標を算出する。なお、商品タグ190は、RFIDタグ191から見てRFIDタグ192の方向が、商品200の正面方向を指すように、商品200に付されているものとする。
方向線投影部404は、商品タグ190が付された商品200の載置方向を表す方向線を算出する。具体的には、方向検出部403において検出されたRFIDタグ191、192の位置座標を通る線を算出することで、方向線の映像を生成する。また、方向線投影部404は、生成した方向線の映像をプロジェクタ110に送信する。
キャリブレーション角度算出部405は、カメラ120より送信される撮影画像に基づいてキャリブレーション角度を算出する。なお、カメラ120より送信される撮影画像は、載置面210に格子線及び方向線の映像が投影され、商品200の表面に基準映像が投影されている状態で、ユーザが、商品200に対して位置合わせを行った状態で撮影された撮影画像である。キャリブレーション角度算出部405では、撮影画像を解析することで、載置面210に投影されている格子線と方向線とのなす角度(キャリブレーション角度)を算出する。つまり、キャリブレーション角度とは、基準映像に基づいて位置合わせが行われた状態での、商品200の載置方向を表す方向線と格子線とのなす角度である。
<4.2 キャリブレーション処理の流れ>
次に、キャリブレーション処理の流れについて、図5及び図6を参照しながら説明する。図5は、キャリブレーション処理の流れを示すフローチャートであり、図6は、キャリブレーション処理時に投影される映像を示す図である。
キャリブレーションプログラム150が実行されることで、図5に示すキャリブレーション処理が開始される。
ステップS501において、格子線投影部401は格子線の映像をプロジェクタ110に送信することで、載置面210に格子線を投影する。図6(a)は、載置面210に格子線601が投影された様子を示している。
ステップS502において、RFIDリーダ130が起動すると、ステップS503において、ユーザは商品200を載置面210に載置する。なお、商品200が載置面210に載置されたことは、RFIDリーダ130によって検知され、情報処理装置140に通知される。
ステップS504において、キャリブレーション映像投影部402は、マッピング映像DB180より基準映像を読み出し、プロジェクタ110に送信することで、商品200に基準映像を投影する。
ステップS505において、方向検出部403は、RFIDリーダ130から送信された識別情報及び受信強度情報を受信し、RFIDタグ191、192の位置座標を算出する。方向検出部403は、商品200が載置面210に載置されている間、所定周期で、位置座標の算出を行う。なお、ステップS503の方向検出処理の詳細は後述する。
ステップS506において、方向線投影部404は、方向検出部403において位置座標が算出されるごとに当該位置座標を通る直線を算出し、商品200の載置方向を表す方向線の映像を生成する。また、方向線投影部404は、生成した方向線の映像を逐次プロジェクタ110に送信することで、載置面210に方向線を投影する。これにより、載置面210に投影された方向線は、商品200の位置合わせに連動することとなる。
図6(b)は、方向線602が載置面210に投影され、基準映像603が商品200の表面に投影された様子を示している。なお、図6(b)の例では、基準映像603としてアルファベット"A"が投影されている。
図6(b)に示すように、商品200の位置合わせが行われていない状態では、商品200の載置方向と基準映像603の方向との間で角度にずれが生じている。
ステップS507において、ユーザは、基準映像603が商品200に対して角度ずれなく投影されるように、商品200の位置合わせを行う。図6(c)は、ユーザが位置合わせを行っている様子を示している。図6(c)に示すように、商品200を矢印611方向に回転させ商品200のの載置方向を変えることで、基準映像603を、商品200に対して角度ずれなく投影させることができる。
図6(d)は、商品200の位置合わせが完了した様子を示している。位置合わせが完了することで、商品200に対して、基準映像603が角度ずれなく投影されることとなる。また、商品200の載置方向を変えたことで、方向線602の方向も変わる。
ステップS507における位置合わせが完了すると、ステップS508において、カメラ120が載置面210を撮影し、撮影画像を情報処理装置140に送信する。
ステップS509において、キャリブレーション角度算出部405は、キャリブレーション角度を算出する。図6(d)で示したように、商品200の位置合わせが完了した状態で撮影された撮影画像には、格子線601と方向線602とが含まれる。このため、キャリブレーション角度算出部405では、撮影画像を解析することで、格子線601と方向線602とのなす角度(キャリブレーション角度)を算出することができる。
ステップS510において、キャリブレーション角度算出部405は、算出したキャリブレーション角度を、キャリブレーション情報DB160に格納する。なお、キャリブレーション角度算出部405では、算出したキャリブレーション角度を、ステップS505において取得した識別情報及びステップS508において取得した撮影画像と対応付けてキャリブレーション情報DB160に格納する。
ステップS511では、キャリブレーション処理の終了指示が入力されたか否かを判定し、終了指示が入力されていないと判定した場合には、ステップS506に戻る。一方、終了指示が入力されたと判定した場合には、キャリブレーション処理を終了する。
<4.3 キャリブレーション情報DBの説明>
次に、キャリブレーション情報DB160に格納されるキャリブレーション情報について説明する。図7は、キャリブレーション情報DB160に格納されるキャリブレーション情報700の一例を示す図である。図7に示すように、キャリブレーション情報700は、情報の項目として、"商品識別子"、"キャリブレーション画像"、"キャリブレーション角度"を含む。
"商品識別子"には、RFIDリーダ130から送信される識別情報が格納される。図7の例では、識別情報="AAAA"と"BBBB"とが格納されている。
"キャリブレーション画像"には、キャリブレーション処理時に商品200の位置合わせが完了した後、カメラ120により撮影された撮影画像が格納される。図7の例では、識別情報="AAAA"の商品についてのキャリブレーション画像と、識別情報="BBBB"の商品についてのキャリブレーション画像とが格納されている。
"キャリブレーション角度"には、キャリブレーション画像に基づいて、キャリブレーション角度算出部405により算出されたキャリブレーション角度が格納される。図7の例では、識別情報="AAAA"の商品のキャリブレーション角度として、"20°"が格納され、識別情報="BBBB"の商品のキャリブレーション角度として、"75°"が格納されている。
<4.4 方向検出機能の説明>
次に、キャリブレーション機能を実現するにあたり、商品200の載置方向を特定するための方向検出機能について説明する。投影システム100における方向検出機能とは、商品200に付された商品タグ190に内蔵されたRFIDタグ191、192との通信結果に基づいて方向線を算出すべく、RFIDタグ191、192の位置座標を算出する機能である。
図8は、投影システム100における方向検出機能を説明するための図である。図8に示すように、商品タグ190は、商品200に付されており、本実施形態では、商品タグ190が付された面を下側にして、商品200が載置面210に載置される。
商品タグ190に内蔵されたRFIDタグ191は、商品タグ190の略中央位置に配されている。一方、商品タグ190に内蔵されたRFIDタグ192は、商品タグ190の端部位置に配されている。商品タグ190は、商品200に付される際、RFIDタグ191からRFIDタグ192に向かうベクトルが、商品200の正面方向を指すように、付される。
RFIDリーダ130は、複数のアンテナ801〜804が配されたアンテナユニット800と、複数のアンテナ801〜804を介して送受信される信号を処理する信号処理部810とを有する。
複数のアンテナ801〜804それぞれがRFIDタグ191と通信を行った際の受信強度の一例を、グラフ820に示す。方向検出部403では、アンテナ801〜804それぞれの受信強度と、アンテナ801〜804の位置座標とに基づいて、RFIDタグ191の位置座標を算出する。
同様に、複数のアンテナ801〜804それぞれがRFIDタグ192と通信を行った際の受信強度の一例を、グラフ830に示す。方向検出部403では、アンテナ801〜804それぞれの受信強度と、アンテナ801〜804の位置座標とに基づいて、RFIDタグ192の位置座標を算出する。
このように、方向検出部403が、RFIDタグ191、192それぞれの位置座標を算出することで、方向線投影部404では、載置面210に載置された商品200の載置方向を表す方向線を算出することができる。
<4.5 方向検出処理の説明>
次に、方向検出処理(ステップS604)の詳細について説明する。図9は、方向検出部403による方向検出処理(ステップS604)の流れを示すフローチャートである。
ステップS901において、信号処理部810は、RFIDタグ191と通信し、RFIDタグ191に格納された識別情報を読み取る処理(第1の読み取り処理)を実行する。具体的には、信号処理部810では、アンテナ801〜804に、順次、電圧を印加することでアンテナ801〜804より電磁波を出力するとともに、RFIDタグ191からの反射波を受信する。
ステップS902において、信号処理部810は、アンテナ801〜804のいずれかにおいて反射波を受信できたか否かを判定する。反射波を受信できなかった場合には、RFIDタグ191に格納された識別情報の読み取りができなかったと判断し、ステップS905に進む。
一方、反射波を受信できた場合には、RFIDタグ191に格納された識別情報の読み取りができたと判断し、ステップS903に進む。ステップS903において、信号処理部810は、受信した反射波に基づいて識別情報を取得する。また、ステップS904において、信号処理部810は、反射波を受信した各アンテナ801〜804における受信強度を解析することで受信強度情報を生成する。
ステップS905において、信号処理部810は、RFIDタグ192と通信し、RFIDタグ192に格納された識別情報を読み取る処理(第2の読み取り処理)を実行する。具体的には、信号処理部810では、アンテナ801〜804に、順次、電圧を印加することでアンテナ801〜804より電磁波を出力するとともに、RFIDタグ192からの反射波を受信する。
ステップS906において、信号処理部810は、アンテナ801〜804のいずれかにおいて反射波を受信できたか否かを判定する。反射波を受信できなかった場合には、RFIDタグ192に格納された識別情報の読み取りができなかったと判断し、ステップS909に進む。
一方、反射波を受信できた場合には、RFIDタグ192に格納された識別情報の読み取りができたと判断し、ステップS907に進む。ステップS907において、信号処理部810は、受信した反射波に基づいて識別情報を取得する。また、ステップS908において、信号処理部810は、反射波を受信した各アンテナ801〜804における受信強度を解析することで受信強度情報を生成する。
ステップS909において、信号処理部810は、ステップS903において取得した識別情報とステップS907において取得した識別情報とが対応しているか否かを判定する。なお、本実施形態において、1つの商品タグ190に内蔵された2つのRFIDタグ191、192には、互いに対応する識別情報が格納されているものとする。
ステップS909において、識別情報が対応していないと判定した場合には、ステップS911に進む。一方、ステップS909において、識別情報が対応していると判定した場合には、同一の商品タグ190に内蔵されたRFIDタグであると判断し、ステップS910に進む。
ステップS910において、信号処理部810は、ステップS903及びステップS907において取得した識別情報、ステップS904及びステップS908において生成した受信強度情報を情報処理装置140に送信する。更に、方向検出部403は、受信した受信強度情報に基づいて、RFIDタグ191、192の位置座標を算出し、方向線投影部404に出力する。
ステップS911では、キャリブレーション処理の終了指示が入力されたか否かを判定し、終了指示が入力されていないと判定された場合には、ステップS901に戻る。一方、終了指示が入力されたと判定した場合には、方向検出処理を終了する。
<4.6 キャリブレーション機能のまとめ>
以上のとおり、情報処理装置140のキャリブレーション機能を用いれば、ユーザは、商品200を載置面210に載置し、基準映像に合致するように商品200の位置合わせを行うだけで、基準映像と商品200との位置関係を定義することができる。
つまり、プロジェクションマッピングを行う上で必要な、投影する映像と対象物との位置関係を事前に定義する作業にかかる手間を抑えることが可能となり、プロジェクションマッピングを行う場合のユーザの利便性を向上させることが可能となる。
<5.情報処理装置のプロジェクションマッピング機能の説明>
次に、情報処理装置140のプロジェクションマッピング機能について、図10〜図13を用いて説明する。
<5.1 マッピング映像DBの説明>
はじめに、マッピング映像DB180に格納されるマッピング映像情報について説明する。図10は、マッピング映像DB180に格納されるマッピング映像情報1000の一例を示す図である。
図10に示すように、マッピング映像情報1000は、商品識別子ごとに管理されており、商品200が載置面210に載置された際の載置方向に応じた様々な映像を保持している。このため、マッピング映像情報1000には、情報の項目として、"角度θ"、"マッピング映像"が含まれる。"角度θ"には、商品200が載置面210に載置された際の載置方向を示す角度が格納される。また、"マッピング映像"には、それぞれの角度に応じたマッピング映像が格納される。
なお、基準映像は、キャリブレーション処理時に投影されるマッピング映像であり、本実施形態では、商品200に対して基準映像が角度ずれなく投影されている状態の角度θを"0°"と定義する。
角度θ=θとは、基準映像が商品200に対して角度ずれなく投影されている状態から、商品200がθだけ回転した状態を示している。また、マッピング映像=映像1とは、商品200がθだけ回転した状態で、商品200に対して角度ずれなく投影させることが可能なマッピング映像を示している。つまり、映像1は、基準映像をθだけ回転させたマッピング映像である。
同様に、角度θ=θとは、基準映像が角度ずれなく投影されている状態から、商品200がθだけ回転した状態を示している。また、マッピング映像=映像2とは、商品200がθだけ回転した状態で、商品200に対して角度ずれなく投影させることが可能なマッピング映像を示している。つまり、映像2は、基準映像をθだけ回転させたマッピング映像である。以下、マッピング映像情報1000には、所定の角度ごとにマッピング映像が保持されている。
<5.2 プロジェクションマッピング機能の機能構成>
次に、プロジェクションマッピングプログラム170が実行されることで実現されるプロジェクションマッピング機能について説明する。図11は、プロジェクションマッピングプログラム170が実行されることで実現されるプロジェクションマッピング機能の機能構成を示す図である。
図11に示すように、プロジェクションマッピング機能には、商品識別部1101と、角度算出部1102と、撮影画像取得部1103と、マッピング映像補正部1104と、マッピング映像投影部1105とが含まれる。
商品識別部1101は、商品200が載置面210に載置されることで、RFIDリーダ130から送信される識別情報に基づいて商品識別子を認識する。また、商品識別部1101は、認識した商品識別子に対応するマッピング映像情報1000を読み出す。
角度算出部1102は、RFIDリーダ130から送信される識別情報及び受信強度情報に基づいて、載置面210に載置された商品200の載置方向を算出する。また、角度算出部1102は、商品200の載置方向を示す角度と、商品200のキャリブレーション角度との角度差(角度θ)を算出する。更に、角度算出部1102は、商品識別部1101により読み出されたマッピング映像情報1000の中から、算出した角度差(角度θ)に対応するマッピング映像を抽出する。
例えば、角度算出部1102において算出した角度差(角度θ)が、θであった場合には、角度算出部1102では、マッピング映像として映像2を抽出する。
撮影画像取得部1103は、プロジェクションマッピング処理において、商品200が載置面210に載置された状態をカメラ120が撮影した場合に、カメラ120が撮影した撮影画像を取得する。また、撮影画像取得部1103は、取得した撮影画像において、商品200が描画されている位置を識別する。
マッピング映像補正部1104は、角度算出部1102により抽出されたマッピング映像を、撮影画像取得部1103により識別された位置に基づいて補正する。これにより、角度ずれだけでなく位置ずれも補正されたマッピング映像を、商品200に投影することが可能となる。
マッピング映像投影部1105は、マッピング映像補正部1104において補正されたマッピング映像を、プロジェクタ110に送信する。
<5.3 プロジェクションマッピング処理の流れ>
次に、プロジェクションマッピング処理の流れについて、図12〜図14を参照しながら説明する。図12は、プロジェクションマッピング処理の流れを示すフローチャートであり、図13は、プロジェクションマッピング処理時に投影される映像を示す図である。図14は、プロジェクションマッピング処理時にカメラ120により撮影された撮影画像を示す図である。
プロジェクションマッピングプログラム170が実行されることで、図12に示すプロジェクションマッピング処理が開始される。
ステップS1201において、RFIDリーダ130が起動すると、ステップS1202において、ユーザは商品200を載置面210に載置する。図13(a)は、RFIDリーダ130が起動した状態であって、かつ、商品200が載置面210に載置される前の状態を示している。
ステップS1203において、角度算出部1102は、RFIDリーダ130から送信された識別情報及び受信強度情報に基づいて、商品タグ190に内蔵されたRFIDタグ191、192の位置座標を算出する。なお、角度算出部1102による方向検出処理は、方向検出部403による方向検出処理と同様であり、既に図8を用いて説明済みであるため、ここでは説明を省略する。
ステップS1204において、角度算出部1102は、ステップS1203において算出した位置座標に基づいて、商品200の載置方向を示す角度を算出する。図13(b)において、線702は、商品200の載置方向を表している。なお、プロジェクションマッピング処理においては、載置面210に線702が投影されることはなく、図13(b)に示す線702は、角度算出部1102による内部的な処理を便宜的に記載したものである。
角度算出部1102は、更に、算出した商品200の載置方向を示す角度と、キャリブレーション角度との角度差(角度θ)を算出する。図13(b)において、線702Bは、キャリブレーション角度の方向を示している。なお、線702同様、プロジェクションマッピング処理においては、載置面210に線702Bが投影されることはなく、図13(b)に示す線702Bは、角度算出部1102による内部的な処理を便宜的に記載したものである。角度算出部1102では、線702と線702Bとの角度差(角度θ)を算出する。
ステップS1204において、角度算出部1102は、算出した角度差(角度θ)に対応するマッピング映像を、マッピング映像情報1000より読み出す。
ステップS1205において、撮影画像取得部1103は、商品200が載置面210に載置された状態を撮影することで得られた撮影画像を取得する。図14の撮影画像1400は、商品200が載置面210に載置された状態を撮影することで得られた撮影画像である。実線1401は、商品200の位置を示している。また、図14の例では、キャリブレーション処理時にキャリブレーション画像として格納された撮影画像に含まれる、商品200の位置を点線1411で示している。
ステップS1206において、マッピング映像補正部1104は、ステップS1204においてマッピング映像情報1000より読み出されたマッピング映像を、ステップS1205において取得した撮影画像に基づいて補正する。図14の例では、マッピング映像を、点線1411で示す位置から、実線1401で示す位置に平行移動させる。
ステップS1207において、マッピング映像投影部1105は、ステップS1206において補正されたマッピング映像を、プロジェクタ110に送信する。これにより、補正後のマッピング映像が、商品200に投影される。図13(c)は、マッピング映像補正部1104において補正されたマッピング映像を、商品200に投影した様子を示している。
図13(c)に示すように、載置面210に載置された商品200の載置方向に応じて、投影されるマッピング映像が選択されるため、載置された商品200の載置方向に応じたマッピング映像が、プロジェクションマッピングされる。また、撮影画像1400に基づいて導出される、商品200の位置ずれに応じて、選択されたマッピング映像を補正するため、位置ずれのないプロジェクションマッピングを実現することができる。
<5.4 プロジェクションマッピング機能のまとめ>
このように、本実施形態に係る投影システム100では、キャリブレーション角度との角度差を算出し、算出した角度差に応じたマッピング映像を投影させることができる。また、撮影画像に基づいて位置ずれを補正したマッピング映像を投影させることができる。このため、キャリブレーション処理時の商品の載置方向及び位置を再現できなくても、プロジェクションマッピング処理時の商品の載置方向及び位置に対して映像がずれてマッピングされることはない。
つまり、情報処理装置140のプロジェクションマッピング機能を用いれば、載置面210に載置された商品200の載置方向及び位置が変わってしまった場合でも、これを検知し、変わった後の載置方向及び位置に応じたマッピング映像を投影することができる。
この結果、載置方向及び位置が変わってしまった場合でも、ユーザが位置合わせを行う必要はなく、プロジェクションマッピングを行う場合のユーザの利便性を向上させることが可能となる。
<6.まとめ>
以上の説明から明らかなように、本実施形態に係る投影システム100は、
・商品に付される商品タグにRFIDタグを2つ内蔵させ、各RFIDタグとの通信結果に基づいて、RFIDタグの位置座標を算出することで、商品タグが付された商品の載置方向を算出する構成とした。
・キャリブレーション処理時に、マッピング映像を投影するとともに、格子線及び方向線を投影させる構成とした。
・商品に対してマッピング映像がずれることなく投影されるように、商品の位置合わせを行った後に、格子線及び方向線が投影された状態を撮影することで、格子線に対する方向線の角度(キャリブレーション角度)を算出する構成とした。
・プロジェクションマッピング処理時に載置面に載置された商品の載置方向を示す角度と、キャリブレーション角度との角度差を算出し、算出した角度差に応じたマッピング映像を選択する構成とした。
・プロジェクション処理時に撮影した撮影画像における商品の位置と、キャリブレーション処理時に撮影した撮影画像における商品の位置とのずれに応じて、選択したマッピング映像を補正して投影する構成とした。
このように、投影する映像と商品との位置関係を、格子線と方向線との角度差として算出する構成とすることで、投影する映像と商品との位置関係を商品ごとに事前に定義する手間を省くことができるようになる。
また、プロジェクションマッピング処理時に載置面にユーザが載置した際の載置方向及び位置に応じて、自動的に、マッピング映像が切り替えられ、補正される。このため、キャリブレーション処理時の載置方向及び位置からずれた場合であっても、マッピング映像はずれることなく投影される。
この結果、プロジェクションマッピングを行う場合のユーザの利便性を向上させることが可能になる。
[第2の実施形態]
上記第1の実施形態では、商品200の載置方向を特定するために、RFIDリーダ130が受信した信号に基づいて、RFIDタグ191、192の位置座標を算出する構成としたが、本発明はこれに限定されない。
例えば、RFIDタグ191、192に代えて、RFIDタグ191、192の位置に対応する位置にシールを付し、カメラ120が、当該シールを検出することで、商品200の載置方向を特定するように構成してもよい。
[第3の実施形態]
上記第1の実施形態では、マッピング映像情報1000を予め格納しておく構成としたが、本発明はこれに限定されない。例えば、基準映像のみを格納しておき、角度差(角度θ)が算出されるたびに、基準映像を角度補正する処理を実行することで、角度差(角度θ)に対応するマッピング映像を生成する構成としてもよい。
上記実施形態に挙げた構成等に、その他の要素との組み合わせなど、ここで示した構成に本発明が限定されるものではない。これらの点に関しては、本発明の趣旨を逸脱しない範囲で変更することが可能であり、その応用形態に応じて適切に定めることができる。
100 :投影システム
110 :プロジェクタ
120 :カメラ
130 :RFIDリーダ
140 :情報処理装置
150 :キャリブレーションプログラム
160 :キャリブレーション情報DB
170 :プロジェクションマッピングプログラム
180 :マッピング映像DB
190 :商品タグ
191、192 :RFIDタグ
200 :商品
210 :載置面
401 :格子線投影部
402 :キャリブレーション映像投影部
403 :方向検出部
404 :方向線投影部
405 :キャリブレーション角度算出部
601 :格子線
602 :方向線
603 :基準映像
700 :キャリブレーション情報
1000 :マッピング映像情報
1101 :商品識別部
1102 :角度算出部
1103 :撮影画像取得部
1104 :マッピング映像補正部
1105 :マッピング映像投影部
1400 :撮影画像
特開2010−124237号公報

Claims (11)

  1. 映像を処理する情報処理装置と、処理された映像を対象物の表面に投影する投影装置とを有する投影システムにおける情報処理方法であって、
    前記対象物が載置される載置面に対して、前記投影装置の投影方向を表す平行線を投影する第1の投影工程と、
    前記載置面に載置された前記対象物の載置方向を表す方向線を、前記載置面に投影する第2の投影工程と、
    前記対象物の表面に投影された映像に対して前記対象物が位置合わせされた状態における、前記平行線に対する前記方向線の角度であるキャリブレーション角度を算出する第1の算出工程と、
    前記キャリブレーション角度を、前記対象物を示す識別情報と対応付けて格納する格納工程と
    を有することを特徴とする情報処理方法。
  2. 前記対象物の表面に投影された映像に対して前記対象物が位置合わせされた状態における前記載置面を撮影する撮影工程を更に有し、
    前記第1の算出工程は、
    前記載置面を撮影した撮影画像に基づいて、前記キャリブレーション角度を算出することを特徴とする請求項1に記載の情報処理方法。
  3. 前記対象物が前記載置面に載置された場合に、前記対象物に付されたタグから送信された信号を受信し、前記対象物を示す識別情報を取得する検出工程を更に有することを特徴とする請求項1または2に記載の情報処理方法。
  4. 前記検出工程は、
    前記対象物に付された前記タグに内蔵される2つのRFIDから送信される信号を、複数のアンテナを介して受信した場合のそれぞれの受信強度を検出し、
    前記第2の投影工程は、
    前記検出工程において検出した受信強度に基づいて、前記2つのRFIDの位置を算出することで、前記載置面に載置された前記対象物の載置方向を算出することを特徴とする請求項3に記載の情報処理方法。
  5. 前記対象物が前記載置面に載置された場合に、前記格納工程において格納された前記キャリブレーション角度に対する、前記対象物の載置方向の角度のずれ量を算出する第2の算出工程と、
    前記角度のずれ量に応じた映像を、前記対象物の表面に投影する第3の投影工程と
    を更に有することを特徴とする請求項1に記載の情報処理方法。
  6. 前記対象物が前記載置面に載置された場合に、前記対象物に付されたタグから送信された信号を受信し、前記対象物を示す識別情報を取得する検出工程を更に有することを特徴とする請求項5に記載の情報処理方法。
  7. 前記第2の算出工程は、
    前記検出工程において取得された前記識別情報と対応付けて格納された前記キャリブレーション角度に対する、前記対象物の載置方向の角度のずれ量を算出することを特徴とする請求項6に記載の情報処理方法。
  8. 前記検出工程は、
    前記対象物に付された前記タグに内蔵される2つのRFIDから送信される信号を、複数のアンテナを介して受信した場合のそれぞれの受信強度を検出し、
    前記第2の算出工程は、
    前記検出工程において検出した受信強度に基づいて、前記2つのRFIDの位置を算出することで、前記載置面に載置された前記対象物の載置方向を算出することを特徴とする請求項7に記載の情報処理方法。
  9. 映像を処理する情報処理装置と、処理された映像を対象物の表面に投影する投影装置とを有する投影システムであって、
    前記対象物が載置される載置面に対して、前記投影装置の投影方向を表す平行線を投影する第1の投影手段と、
    前記載置面に載置された前記対象物の載置方向を表す方向線を、前記載置面に投影する第2の投影手段と、
    前記対象物の表面に投影された映像に対して前記対象物が位置合わせされた状態における、前記平行線に対する前記方向線の角度であるキャリブレーション角度を算出する算出手段と、
    前記キャリブレーション角度を、前記対象物を示す識別情報と対応付けて格納する格納手段と
    を有することを特徴とする投影システム。
  10. 対象物の表面に映像を投影する投影装置と接続される情報処理装置であって、
    前記対象物が載置される載置面に対して、前記投影装置の投影方向を表す平行線を投影するための映像を前記投影装置に出力する第1の出力手段と、
    前記載置面に載置された前記対象物の載置方向を表す方向線を、前記載置面に投影するための映像を前記投影装置に出力する第2の出力手段と、
    前記対象物の表面に投影された映像に対して前記対象物が位置合わせされた状態における、前記平行線に対する前記方向線の角度であるキャリブレーション角度を算出する算出手段と、
    前記キャリブレーション角度を、前記対象物を示す識別情報と対応付けて格納する格納手段と
    を有することを特徴とする情報処理装置。
  11. 対象物の表面に映像を投影する投影装置と接続される情報処理装置のコンピュータに、
    前記対象物が載置される載置面に対して、前記投影装置の投影方向を表す平行線を投影するための映像を出力する第1の出力工程と、
    前記載置面に載置された前記対象物の載置方向を表す方向線を、前記載置面に投影するための映像を出力する第2の出力工程と、
    前記対象物の表面に投影された映像に対して前記対象物が位置合わせされた状態における、前記平行線に対する前記方向線の角度であるキャリブレーション角度を算出する算出工程と、
    前記キャリブレーション角度を、前記対象物を示す識別情報と対応付けて格納する格納工程と
    を実行させるためのプログラム。
JP2014104319A 2014-05-20 2014-05-20 投影システム、情報処理装置、情報処理方法及びプログラム Expired - Fee Related JP6326959B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014104319A JP6326959B2 (ja) 2014-05-20 2014-05-20 投影システム、情報処理装置、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014104319A JP6326959B2 (ja) 2014-05-20 2014-05-20 投影システム、情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2015220661A true JP2015220661A (ja) 2015-12-07
JP6326959B2 JP6326959B2 (ja) 2018-05-23

Family

ID=54779709

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014104319A Expired - Fee Related JP6326959B2 (ja) 2014-05-20 2014-05-20 投影システム、情報処理装置、情報処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6326959B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017228921A (ja) * 2016-06-22 2017-12-28 サッポロビール株式会社 投影システム、投影方法、および投影プログラム
US10025167B2 (en) 2016-06-29 2018-07-17 Seiko Epson Corporation Projection-type display device
WO2019186813A1 (ja) * 2018-03-28 2019-10-03 本田技研工業株式会社 除雪機、除雪機における投影方法、プログラムおよび記憶媒体、並びに、投影システム
US10929706B2 (en) 2018-03-19 2021-02-23 Ricoh Company, Ltd. Image processing device and projection system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007036482A (ja) * 2005-07-25 2007-02-08 Nippon Telegr & Teleph Corp <Ntt> 情報投影表示装置およびプログラム
JP2007272365A (ja) * 2006-03-30 2007-10-18 Advanced Telecommunication Research Institute International コンテンツ提示装置
JP2009008905A (ja) * 2007-06-28 2009-01-15 Ricoh Co Ltd 情報表示装置および情報表示システム
WO2013136602A1 (ja) * 2012-03-16 2013-09-19 富士フイルム株式会社 プロジェクタ付き撮影装置及びその撮影制御方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007036482A (ja) * 2005-07-25 2007-02-08 Nippon Telegr & Teleph Corp <Ntt> 情報投影表示装置およびプログラム
JP2007272365A (ja) * 2006-03-30 2007-10-18 Advanced Telecommunication Research Institute International コンテンツ提示装置
JP2009008905A (ja) * 2007-06-28 2009-01-15 Ricoh Co Ltd 情報表示装置および情報表示システム
WO2013136602A1 (ja) * 2012-03-16 2013-09-19 富士フイルム株式会社 プロジェクタ付き撮影装置及びその撮影制御方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017228921A (ja) * 2016-06-22 2017-12-28 サッポロビール株式会社 投影システム、投影方法、および投影プログラム
US10025167B2 (en) 2016-06-29 2018-07-17 Seiko Epson Corporation Projection-type display device
US10929706B2 (en) 2018-03-19 2021-02-23 Ricoh Company, Ltd. Image processing device and projection system
WO2019186813A1 (ja) * 2018-03-28 2019-10-03 本田技研工業株式会社 除雪機、除雪機における投影方法、プログラムおよび記憶媒体、並びに、投影システム
US11351864B2 (en) 2018-03-28 2022-06-07 Honda Motor Co., Ltd. Snowplow, projection method for snowplow, storage medium, and projection system

Also Published As

Publication number Publication date
JP6326959B2 (ja) 2018-05-23

Similar Documents

Publication Publication Date Title
CN110622497B (zh) 具备具有不同焦距的相机的设备及实现相机的方法
US9129435B2 (en) Method for creating 3-D models by stitching multiple partial 3-D models
US9361731B2 (en) Method and apparatus for displaying video on 3D map
US8369578B2 (en) Method and system for position determination using image deformation
JP6230113B2 (ja) 撮影動画像に指示画像を同期して重畳する映像指示同期方法、システム、端末、及びプログラム
KR102149463B1 (ko) 이미지를 처리하기 위한 전자 장치 및 방법
JP6326959B2 (ja) 投影システム、情報処理装置、情報処理方法及びプログラム
JP2011081775A (ja) 投影画像領域検出装置
US20140375685A1 (en) Information processing apparatus, and determination method
KR20180022539A (ko) 중첩영역의 제어점들을 이용한 시차 최소화 스티칭 장치 및 방법
US10176552B2 (en) Non-transitory computer-readable storage medium, image display method, and image processing system for associating the same object in different images
US20200329228A1 (en) Information processing apparatus, control method thereof and storage medium
JP2009289046A (ja) 3次元データを用いた作業支援装置及び方法
EP3216005B1 (en) Image processing device and method for geometric calibration of images
EP3379430A1 (en) Mobile device, operating method of mobile device, and non-transitory computer readable storage medium
JP2016500959A (ja) 画像キャプチャおよび容易なアノテーションのための方法およびシステム
JP6146869B2 (ja) 撮影動画像に指示画像を同期して重畳する映像指示表示方法、システム、端末、及びプログラム
JP5216703B2 (ja) 映像表示システム、及び、映像表示方法
JP6357843B2 (ja) アプリケーション検査システム、アプリケーション検査装置及びアプリケーション検査プログラム
US9571738B2 (en) Image processing apparatus
JP6564679B2 (ja) 画像処理装置、画像マッチングによる同一部位検出方法および画像処理用プログラム
CN105637560B (zh) 优化基于增强现实的定位系统的定位的方法
JP6299269B2 (ja) 画像処理システム、プログラム及び投影装置
US10636137B1 (en) System for determining object orientations in an image
US20230316574A1 (en) Matching objects in images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180320

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180402

R151 Written notification of patent or utility model registration

Ref document number: 6326959

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees