JP2007293717A - 位置データ変換装置及び位置データ変換方法 - Google Patents

位置データ変換装置及び位置データ変換方法 Download PDF

Info

Publication number
JP2007293717A
JP2007293717A JP2006122512A JP2006122512A JP2007293717A JP 2007293717 A JP2007293717 A JP 2007293717A JP 2006122512 A JP2006122512 A JP 2006122512A JP 2006122512 A JP2006122512 A JP 2006122512A JP 2007293717 A JP2007293717 A JP 2007293717A
Authority
JP
Japan
Prior art keywords
projection
image
real space
angle
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006122512A
Other languages
English (en)
Other versions
JP4594272B2 (ja
Inventor
Hiroaki Kawada
博昭 河田
Tamotsu Machino
保 町野
Satoshi Iwaki
敏 岩城
Yoshito Nanjo
義人 南條
Yoshimasa Yanagihara
義正 柳原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2006122512A priority Critical patent/JP4594272B2/ja
Publication of JP2007293717A publication Critical patent/JP2007293717A/ja
Application granted granted Critical
Publication of JP4594272B2 publication Critical patent/JP4594272B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】撮影装置によって撮影された撮影画像の特定の位置を管理用座標系の位置に変換し、管理用座標系の特定の位置を投影装置によって投影される投影画像の位置に変換する。
【解決手段】位置データ変換装置62は、撮影画像の所望の位置を示す第1の画像位置データ72、駆動装置7の駆動制御値73、基準体位置データ71に基づいて、管理用座標系の位置を示す第1の管理位置データ74を求める。また、位置データ変換装置62は、第2の管理位置データ75、駆動制御値73、基準体位置データ75に基づいて、投影コンテンツ19aを投影する管理座標系の位置に対応する投影画像の位置を示す第2の画像位置データ76を求める。位置データ変換装置62は、投影コンテンツ19aを第2の画像位置データ76の示す位置に配置した投影画像データ26を作成し、投影画像データ26を投影装置5に提供する。
【選択図】 図1

Description

本発明は、撮影画像又は投影画像の位置に関する変換を行う位置データ変換装置及び位置データ変換方法に関する。
従来より、プロジェクタなどの映像投影装置により実空間上に映像を投影し、この投影された映像の映像情報を撮像装置により取得して種々の処理を行う映像入出力装置が開発されている。
このような従来の映像入出力装置は、映像を撮影するカメラと映像を投影するプロジェクタとを各光軸が直交するように配置し、この光軸の交点にハーフミラーを配置する構成を採用している(特許文献1、特許文献2参照)。
この構成により、光軸が一致するため、投影対象面までの距離などに依存せずに投影映像と撮影映像とを関連付けた処理を行うことができる。つまり、投影映像の処理及び撮影映像の処理時に投影映像と撮影映像の位置合わせを行う必要がない。
さらに、従来においては、カメラの視野に対してプロジェクタにより映像を投影する場合に、カメラの視野内にプロジェクタの投影領域を収めるための技術が提案されている(特許文献3参照)。
特開2001−211372号公報
特開2004−233126号公報
特開2005−322055号公報
例えば、カメラの光軸とプロジェクタの光軸とが一致する機構を持ち、このカメラとプロジェクタとが移動可能であり、さらに光軸の方向も変更可能とした場合、カメラの撮影画像の特定の位置が管理用座標系のどの位置に対応するか、精度高く認識することは困難である。
また、管理用座標系の特定の位置が、プロジェクタによって投影される投影画像のどの位置に対応するか、精度高く認識することは困難である。
本発明は、以上のような実情に鑑みてなされたもので、撮影装置によって撮影された撮影画像の特定の位置を管理用座標系の位置に変換可能とし、または管理用座標系の特定の位置を投影装置によって投影される投影画像の位置に変換可能とする位置データ変換装置及び位置データ変換方法を提供することを目的とする。
本発明の一例の位置データ変換装置は、撮影装置と、投影装置と、撮影装置と投影装置とについての光軸一致機構と、撮影装置と投影装置との3次元空間における設置状態を変更する駆動装置とを具備するロボットに対して用いられる位置データ変換装置に関する。
この位置データ変換装置は、撮影装置によって撮影された撮影画像データの示す撮影画像の所望の位置を示す第1の画像位置データと、駆動装置の駆動制御値と、3次元空間に配置されている基準体の位置データとに基づいて、所望の位置に対応する管理用座標系の位置を示す第1の管理位置データを求める第1変換手段と、第1変換手段によって求められた第1の管理位置データと、投影装置によって投影コンテンツを投影する管理座標系の位置を示す第2の管理位置データとを記憶する管理位置記憶手段と、第2の管理位置データと、駆動装置の駆動制御値と、3次元空間に配置されている基準体の位置データとに基づいて、投影コンテンツを投影する管理座標系の位置に対応する投影画像の位置を示す第2の画像位置データを求める第2変換手段と、投影コンテンツを第2の画像位置データの示す位置に配置した投影画像データを作成し、投影画像データを投影装置に提供する投影画像作成手段とを具備する。
なお、上記の例においては、発明を装置として表現している。しかしながら、これに限らず、方法、プログラム、コンピュータ読み取り可能な記憶媒体などで表現してもよい。
本発明により、撮影装置によって撮影された撮影画像の特定の位置を管理用座標系の位置に変換することができ、または管理用座標系の特定の位置を投影装置によって投影される投影画像の位置に変換することができる。
以下、図面を参照しながら本発明の実施の形態について説明する。なお、以下の各図において同様の機能を実現する部分については同一の符号を付して説明を省略するか、あるいは簡単に説明を行う。
(第1の実施の形態)
本実施の形態においては、撮影装置と投影装置との光軸が一致されており、撮影装置と投影装置との3次元空間での配置状態が変更可能なロボットと連携し、撮影装置によって撮影された撮影画像の特定の位置を管理用座標系の位置に変換するとともに、管理用座標系の特定の位置を投影装置によって投影される投影画像の位置に変換する位置データ変換装置について説明する。なお、管理用座標系とは、例えば、3次元空間を管理するため、データベース上で利用される座標系である。
図1は、本実施の形態に係る位置データ変換装置の一例を示すブロック図である。
本実施の形態に係る位置データ変換装置62は、ロボット63との間でデータを送受信可能である。
ロボット63は、撮影装置4と、投影装置5と、光軸一致機構6と、駆動装置7と、駆動制御値取得部64とを具備する。光軸一致機構6は、撮影装置4と投影装置5とについて光軸一致を図る。駆動装置7は、撮影装置4と投影装置5との3次元空間における設置状態を変更する。駆動装置7は、例えば空間内の走行や、撮影装置4と投影装置5とのパン・チルトなどを行う。本実施の形態においては、光軸一致機構6により、撮影装置4と投影装置5とについて、光軸のみではなく画角も整合されているとする。なお、光軸及び画角の一致については、撮影装置4と投影装置5とにおいて光軸及び画角が一致する部分を処理に用いるとしてもよい。本実施の形態において、撮影装置4と投影装置5の光軸と画角とについては、一致していることが好ましいが、例えば装置又はユーザが許容する範囲でほぼ一致の状態であるとしてもよい。
駆動制御値取得部64は、撮影装置4と投影装置5との3次元空間における設置状態の変更状態を示す駆動装置7の駆動制御値73を求め、記憶装置65に記憶する。
位置データ変換装置62は、撮影画像記憶装置8、認識部9、記憶装置65、表示指定部66、変換部67、位置管理用データベース68、変換部69、投影コンテンツ記憶装置19、記憶装置70、投影画像作成部20、投影画像記憶装置21を具備する。
撮影画像記憶装置8は、撮影装置4によって撮影された撮影画像データ25を記憶する。
認識部9は、撮影画像記憶装置8に記憶されている撮影画像データ25に基づいて、撮影画像データ25の示す3次元空間の画像に配置されている基準体の位置を示す基準体位置データ71を作成し、記憶装置65に記憶する。
また、認識部9は、撮影画像データ25の示す3次元空間の画像に配置されている認識対象物の位置を示す画像位置データ72を作成し、記憶装置65に記憶する。
なお、画像位置データ72は、表示指定部66によって作成されるとしてもよい。この場合、表示指定部66は、撮影画像データ25による撮影画像をユーザに対して表示し、ユーザによる撮影画像の所望の位置の指定を受け付け、この指定された位置を示す画像位置データ72を作成する。
変換部67は、撮影装置4によって撮影された撮影画像データ25の示す撮影画像の所望の位置を示す第1の画像位置データ72と、駆動装置7の駆動制御値73と、基準体位置データ71とに基づいて、所望の位置に対応する管理用座標系の位置を示す管理位置データ74を求め、管理位置データ74を位置管理用データベース68に記憶する。
位置管理用データベース68は、変換部67によって求められた管理位置データ74と、投影装置5によって投影コンテンツ19aを投影する管理座標系の位置を示す管理位置データ75とを記憶する。
変換部69は、管理位置データ75と、駆動装置7の駆動制御値73と、基準体位置データ71とに基づいて、投影コンテンツ19aを投影する管理座標系の位置に対応する投影画像の位置を示す画像位置データ76を求め、画像位置データ76を記憶装置70に記憶する。
投影画像作成部20は、投影コンテンツ記憶装置19に記憶されている投影コンテンツ19aを画像位置データ76の示す位置に配置した投影画像データ26を作成し、投影画像データ26を投影画像記憶装置21に記憶する。これにより、投影画像データ26は、投影装置5に送信される。また、投影画像作成部20は、複数の投影コンテンツの中から、投影画像に含めるべき投影コンテンツを選択し、投影画像データ26を作成するとしてもよい。
以上説明した本実施の形態においては、撮影装置4によって撮影された撮影画像の特定の位置を管理用座標系の位置に変換することができる。
また、管理用座標系の特定の位置を投影装置5によって投影される投影画像の位置に変換することができる。
本実施の形態においては、撮影装置4と投影装置5との光軸の一致化が図られているため、撮影画像における位置と投影画像における位置とを一元管理でき、上記位置変換の処理を簡略化できる。
(第2の実施の形態)
本実施の形態に係る実空間情報付加装置は、実空間に存在する物体に情報を付加する装置である。この実空間情報付加装置を用いることにより、情報を付加したい物体が存在する場所に行かなくても情報を付加することができる。この実空間情報付加装置は、上記第1の実施の形態に係るロボット63及び位置データ変換装置62を組み込んでいる。
本実施の形態の実空間情報付加システムは、図2に示すように、実空間情報付加装置100、データベース120、及び画像撮影投影装置150を備えている。
画像撮影投影装置150で取得した画像を基にして、実空間情報付加装置100がこの画像を表示画面上で情報を付加し、実空間情報付加装置100において、この情報を閲覧する。なお、実空間情報付加装置100と画像撮影投影装置150は、一般的に遠隔に配置される。例えば、画像撮影投影装置150は作業員が作業をしている現場側に配置され、実空間情報付加装置100が現場を遠隔地から支援する支援者(以下、サポート員と称する)がいるサポート側に配置される。すなわち、このサポート員は実空間情報付加装置100のユーザである。しかし、これに限定されず、画像撮影投影装置150のそばに実空間情報付加装置100を配置していても構わない。
実空間情報付加装置100は、入力部101、入力データ処理部102、データベースアクセス部103、座標変換部104、表示部105、画像受信部106、制御指令値送信部107、情報表示処理部108、投影画像作成部20を備える。実空間情報付加装置100は、位置データ変換装置62を組み込んでいる。例えば、入力部101、入力データ処理部102、表示部105は、上記第1の実施の形態に係る表示指示部66に相当する。また、例えば、座標変換部104は、上記第1の実施の形態に係る変換部67,69に相当する。
画像撮影投影装置150は、撮影装置4、投影装置5、光軸一致機構6、駆動装置7、画像送信部156、制御指令値受信部152、現在値取得部154を備えている。画像撮影投影装置150は、上記第1の実施の形態に係るロボット63に相当する。現在値取得部154は、上記第1の実施の形態に係る駆動制御値取得部64に相当する。
光軸一致機構6は、撮影装置4と投影装置5とについて光軸一致を図る。駆動装置7は、撮影装置4、投影装置5、光軸一致機構6を駆動させる。
入力部101は、実空間情報付加装置100のサポート員が、操作量を入力するためのものである。入力部101は、例えば、ジョイスティック、マウス、キーボード、マイクを備えている。サポート員は、入力部101を使用して、情報を付加したい物体が撮影されるように、カメラ155の位置姿勢を制御することができる。サポート員は、例えば、ジョイスティックからの操作量又はキーボード入力からの操作量をカメラ位置姿勢の制御量に利用する。また、サポート員は、入力部101のマイクを使用して音声等を入力する。
また、サポート員は、表示部105上で入力部101のマウスをクリックすることにより、情報を付加する位置を指定する。
撮影装置4は、現場での画像、映像を取得する。画像送信部156は、撮影装置4が取得した画像を実空間情報付加装置100に送信する。画像受信部106は、画像撮影投影装置150から送信された撮影装置4が取得した画像を受信する。
表示部105は、駆動装置7としてパン・チルト駆動を用いた場合、撮影装置4は駆動装置7を制御して撮影される範囲を確認するためのものである。例えば、表示部105は、サポート側で、パン・チルト軸を中心として撮影装置4を回転させたときに撮影される範囲を確認するためのものである。また、表示部105は、情報を付加する位置を指定するために現場側の撮影装置4で撮影された画像が表示される位置指定ウィンドウ502と、情報が付加された仮想オブジェクトの仮想オブジェクトリスト503を表示する。ここで、仮想オブジェクトは情報を付加した画面上の位置に情報が付加されたことを可視化するために表示する図形のことである。位置指定ウィンドウ502は後に図6を参照して説明する。
入力データ処理部102は、入力部101から受け取った操作量を、撮影装置4の位置姿勢の制御量に変換し、制御指令値送信部107に出力する。また、入力データ処理部102は、入力部101のマウスのクリックが表示部105の表示画面内の所定のウィンドウ(図6に示す位置指定ウィンドウ502)内でのものであるか否かを判定し、このウィンドウ内のものである場合にはこのウィンドウ上の座標値を座標変換部104に送信すると共に、付加する情報として仮想オブジェクト名を入力することを促すメッセージを表示部105に表示させる。
また、入力データ処理部102は、サポート員が入力部101により仮想オブジェクト名を入力すると、付加するコンテンツが保存されている場所を示す指標であるデータパスを入力することを促すメッセージを表示部105に表示させる。ここで、コンテンツは、テキストデータ、音声データ、画像データ、映像データなどのコンピュータで提示可能なデータ、及びコンピュータで実行可能な実行形式のファイルである。さらに、入力データ処理部102は、サポート員が入力部101によりコンテンツのデータパスを入力すると、入力されたコンテンツが画像や映像、テキストのように表示部105で提示できるものであれば、コンテンツを提示する位置を指定することを促すメッセージを表示部105に表示させる。
また、入力データ処理部102は、サポート員が入力部101により位置指定画面上でマウスをクリックすることによりコンテンツを提示する位置を指定すると、この位置を、情報を付加する位置を指定されたときと同様に座標変換部104に送信する。さらに、入力データ処理部102は、入力された仮想オブジェクト名、コンテンツのデータパス、及び座標変換部104で変換されて得られた、仮想オブジェクトのグローバル座標値とコンテンツを提示するグローバル座標値をデータベースアクセス部103に送信する。ここで、位置指定ウィンドウ502上での座標系をローカル座標系と呼び、現場カメラ155が撮影できる実空間平面上の座標系をグローバル座標系(上記第1の実施の形態における管理用座標系に相当)と呼ぶ。また、サポート員が仮想オブジェクト上をダブルクリックすると、入力データ処理部102は、仮想オブジェクトがダブルクリックされたと判定し、仮想オブジェクト名を基にして、データベースアクセス部103を介してデータベース120から仮想オブジェクトに関連付けられているコンテンツヘのデータパスを取得する。さらに、入力データ処理部102は取得したコンテンツのデータパスをもとにコンテンツデータを取得し、表示部105に表示する。なお、コンテンツが画像、テキストの場合、入力データ処理部102は、データベースアクセス部103を介してデータベース120からコンテンツを提示するグローバル位置を取得し、座標変換部104でローカル座標系に変換してから表示部105のその位置に表示する。
入力データ処理部102は、仮想オブジェクトの消去を「YES」、「NO」の選択肢で確認する仮想オブジェクト消去確認ダイアログを表示する。サポート員が「YES」を選択すると、入力データ処理部102は、データベースアクセス部103を介して対象となる仮想オブジェクトをデータベース120から削除する。入力データ処理部102は、サポート員が「NO」を選択した場合、仮想オブジェクト消去確認ダイアログと、選択ダイアログを非表示にする。
制御指令値送信部107は、入力データ処理部102から撮影装置4の位置姿勢の制御量を受け取り、制御指令値受信部152に出力する。制御指令値受信部152は、制御指令値送信部107からこの制御量を受け取り、駆動装置6に出力する。駆動装置6は、受信した制御量に応じて撮影装置4及び投影装置5の位置・姿勢を制御する。駆動装置6は、走行などによる空間における位置の移動、パン・チルト駆動を行う。
座標変換部104は、ローカル座標系での座標値をグローバル座標系での座標値に変換し入力データ処理部102に送信する。座標変換部104は、グローバル座標系とローカル座標系との座標変換を行う。
データベースアクセス部103は、仮想オブジェクト名、コンテンツのデータパス、仮想オブジェクトのグローバル座標値、コンテンツを提示するグローバル座標値を1セットとしてデータベース120に登録する。なお、このとき、仮想オブジェクトを表示するための図形の形状と範囲を同時に登録することとする。
情報表示処理部108は、定期的に現場側の現在値取得部154に問い合わせて撮影装置4及び投影装置5の現在位置姿勢を取得し保持する。また、情報表示処理部108は、取得した現在位置姿勢から表示部105で現在表示されている実空間平面の範囲をグローバル座標系で算出する。さらに、情報表示処理部108は、データベースアクセス部103を介して、データベース120から現在登録されている仮想オブジェクトのグローバル座標値を取得し、これらが現在表示されている実空間平面の範囲内にあるかどうかを判定する。情報表示処理部108は、登録されている仮想オブジェクトの位置が現在表示されている範囲内に存在した場合、グローバル座標値を座標変換部104に出力する。さらに、情報表示処理部108は、表示部105に図形(仮想オブジェクト)を表示させると共に、仮想オブジェクトリスト503に表示されている文字を強調表示にする。なお、情報表示処理部108は、仮想オブジェクトを表示する際、その仮想オブジェクト名と仮想オブジェクトを表示している指定画面上の表示位置を一時的に保持する。
さらに、情報表示処理部108は、投影画像作成部20によって作成された投影画像データに基づいて、投影装置5に投影を指示する。
現在値取得部154は、情報表示処理部108からの問い合わせに応じて、撮影装置4及び投影装置5の駆動装置7から現在の撮影装置4及び投影装置5の位置姿勢を取得し、情報表示処理部108に送信する。
なお、ネットワークを利用するためのデータ送受信部については図中において省略している。
次に、本実施形態の実空間情報付加装置100の動作を図3を参照して説明する。
入力データ処理部102又は情報表示処理部108が終了イベントがあるかどうか監視する(ステップS201)。終了イベントがある場合は実空間情報付加装置100の動作を終了し、終了イベントがない場合はステップS202に進む。ステップS202では、情報表示処理部108が仮想オブジェクトを可視化する。すなわち、情報表示処理部108が、データベース120の内容を基にして、座標変換部104を利用してローカル座標を求め、仮想オブジェクトを表示部105に表示する。ステップS202は後に図9を参照して詳細に説明する。
入力データ処理部102が、入力部101から入力があるか否かを判定する(ステップS203)。入力がある場合はステップS204に進み、一方、入力がない場合はステップS201に戻る。入力データ処理部102が、入力部101でジョイスティック等から操作量が入力されたか否かを判定する(ステップS204)。操作量の入力がある場合はステップS205に進み、一方、入力がない場合はステップS206に進む。
ステップS205では、ステップS204で入力された操作量に基づいて、撮影装置4及び投影装置5の位置姿勢を制御する。ステップS205の詳細は後に図4を参照して説明する。ステップS205の処理が終了するとステップS201に戻る。ステップS206では、入力データ処理部102が、位置指定ウィンドウ502上で、マウスによるクリックイベントを検出したか否かを判定する。クリックイベントを検出したと判定された場合はステップS207に進み、一方、検出しないと判定された場合はステップS208に進む。
ステップS207では、ステップS206でクリックされたマウスの位置に基づいて、データベース120に情報(コンテンツ)を付加する。ステップS207の詳細は後に図5を参照して説明する。ステップS207の処理が終了するとステップS201に戻る。ステップS208では、入力データ処理部102が位置指定ウィンドウ502上でダブルクリックイベントを検出したか否かを判定する。ダブルクリックイベントを検出したと判定された場合はステップS209に進み、一方、検出しないと判定された場合はステップS210に進む。
ステップS209では、入力データ処理部102が、コンテンツデータをサポート員に提示する。すなわち、コンテンツが画像の場合は表示部105に表示する。ステップS209の詳細は後に図11を参照して説明する。ステップS209の処理が終了するとステップS201に戻る。ステップS210では、入力データ処理部102が、表示部105に表示されている仮想オブジェクト上でのマウスによる右クリックイベントを検出したか否かを判定する。検出したと判定された場合はステップS211に進み、一方、検出しないと判定された場合はステップS201に戻る。
ステップS211では、入力データ処理部102がサポート員に操作選択ダイアログを提示し、コンテンツを変更したり、仮想オブジェクトを消去したりする処理を行う。ステップS211の詳細は後に図16を参照して説明する。ステップS211の処理が終了するとステップS201に戻る。
次に、図3のステップS205の処理を図4を参照して説明する。
現場側の撮影装置4で撮影される映像が、画像送信部156、サポート側の画像受信部106を介して表示部105に送信され、サポート員に提示される。サポート員は、この画像を観察し、入力部101のジョイスティック等により操作する。その後、入力データ処理部102が入力部101からこの操作での操作量を取得し、この操作量を撮影装置4及び投影装置5の位置姿勢の制御量に変換し、制御指令値送信部107に出力する(ステップS301)。
制御指令値送信部107が、この制御量を画像取得装置150に送信し、制御指令値受信部152がこの制御量を受信する(ステップS302)。制御指令値受信部152は、受信した制御量を駆動装置7に送信する(ステップS303)。駆動装置7は、受信した制御量に応じて撮影装置4及び投影装置5の空間における位置及び姿勢(走行、パン、チルトなど)を制御する(ステップS304)。
駆動装置7が、例えば、パン・チルトの回転ステージを用いて撮影装置4及び投影装置5を制御する場合、撮影装置4及び投影装置5は水平軸及び垂直軸を中心として回転する。そして、撮影装置4が取得した映像及び画像は、画像送信部156及び画像受信部106を介して表示部105に表示される。サポート員は、回転ステージの軸を中心として撮影装置4が回転したときに撮影される範囲を表示部105で確認することが可能となる。サポート員は、図4に示したフローチャートのように、情報を付加したい物体が撮影されるように、撮影装置4の位置姿勢を制御することができる。なお、ここではジョイスティックからの操作量を撮影装置4及び投影装置5の位置姿勢の制御量に利用したが、キーボード入力からの操作量を撮影装置4及び投影装置5の位置姿勢の制御量に利用しても良い。
次に、図3のステップS207の処理を図5、図6及び図7を参照して説明する。図6は、表示部105の表示例である。表示部105は撮影装置4で撮影された画像が表示される位置指定ウィンドウ502と、情報が付加された仮想オブジェクトリスト503をサポート員に提示する。図7は、情報を付加する場合のGUIの遷移を示す図である。
サポート員は、図6の位置指定ウィンドウ502上でマウスをクリックすることにより情報を付加する位置、すなわち仮想オブジェクトの位置を指定する。サポート員は、例えば、図7の(A)に示したようなクリック位置でクリックする。入力データ処理部102は、マウスのクリックが位置指定ウィンドウ502内のクリックであれば、位置指定ウィンドウ502上の座標値を座標変換部104に送信する(ステップS401)。
座標変換部104は、位置指定ウィンドウ502上での座標系であるローカル座標系と、撮影装置4が撮影できる実空間平面上の座標系であるグローバル座標系との座標変換を行う(ステップS402)。すなわち、座標変換部104は受信したローカル座標系での座標値をグローバル座標系での座標値に変換する(ステップS402)。座標変換部104は、この変換された座標値を入力データ処理部102に送信する(ステップS403)。
入力データ処理部102は、付加する情報として仮想オブジェクト名を入力することを促すメッセージを表示部105に表示する(ステップS404)。入力データ処理部102は、例えば、図7の(B)に示すように、「仮想オブジェクト名を入力してください」と位置指定ウィンドウ502に表示する。サポート員が仮想オブジェクト名を入力する(ステップS405)と、入力データ処理部102はコンテンツを選択する処理を実行する(ステップS406)。このステップS406は後に、図8を参照して詳細に説明する。
次に、図5のステップS406を図7及び図8を参照して説明する。
入力データ処理部102は、付加するコンテンツが保存されているデータパスを入力することを促すメッセージを表示部105に表示する(ステップS701)。入力データ処理部102は、例えば、図7の(C)に示したように、表示部105上に「コンテンツを入力してください」を表示する。
サポート員は、付加する情報(コンテンツ)へのデータパスを入力する(ステップS702)。サポート員は、例えば、図7の(C)に示したように、「C:\contents\test.txt」と入力する。なお、図7の(C)では、データヘのパスを入力する例を示したが、既存のコンテンツ用ファイルの一覧を表示し、サポート員に選択させるようにしてもよい。また、テキスト入力ダイアログを表示してサポート員に直接テキストデータを入力させ、そのデータをファイル化してもよい。この場合は、作成したファイルのデータパスをコンテンツのデータパスとする。
入力データ処理部102が、サポート員が入力したコンテンツが画像や映像、テキストのようにディスプレイに提示することができるものであるか否かを判定する(ステップS703)。提示することができるものである場合にはステップS704に進み、一方、できない場合にはステップS709に進む。
ステップS704では、入力データ処理部102はコンテンツを提示する位置(コンテンツ提示位置)を指定することを促すメッセージを表示部105に表示する。入力データ処理部102は、例えば、図7の(D)のように「コンテンツを表示する位置を指定してください」と表示部105に表示させる。なお、コンテンツを表示する位置を仮想オブジェクトからの相対位置、あるいは画面上の絶対位置で予め登録しておき、コンテンツの提示位置を指定する手順を省略することによりサポート員の入力項目を減らしてもよい。
一方、ステップS709では、入力データ処理部102は、入力された仮想オブジェクト名、コンテンツのデータパス、及びステップS402で取得された、仮想オブジェクトのグローバル座標値をデータベースアクセス部103に送信する。
サポート員が、位置指定ウィンドウ502上でマウスをクリックすることによりコンテンツを提示する位置を指定する(ステップS705)。サポート員は、例えば、図7の(D)のクリック位置に示したような位置をクリックする。その後、ステップS710に進む。
入力データ処理部102は情報を付加する位置が指定されたときと同様に、指定された位置をローカル座標系で示した値を座標変換部104に送信する(ステップS706)。座標変換部104は、ローカル座標系での座標値をグローバル座標系での座標値に変換し入力データ処理部102に送信する(ステップS706)。入力データ処理部102は、入力された仮想オブジェクト名、コンテンツのデータパス、及び座標変換部104で変換された仮想オブジェクトのグローバル座標値とコンテンツを提示するグローバル座標値をデータベースアクセス部103に送信する(ステップS708)。データベースアクセス部103は、仮想オブジェクト名、コンテンツのデータパス、仮想オブジェクトのグローバル座標値、コンテンツを提示するグローバル座標値を1セットとしてデータベース120に登録する(ステップS710)。なお、この時、仮想オブジェクトを表示するための図形の形状と範囲を同時に登録することとする。本実施の形態では、後に図10の仮想オブジェクト901として示すように、図形の形状を「楕円」とし、範囲はマウスで入力された位置指定ウィンドウ502上のある点を中心として、長軸の長さをa、短軸の長さをbとする。
次に、図3のステップS202を図9及び図10を参照して説明する。ステップS202は、情報が付加されていることを可視化する処理、つまり仮想オブジェクトを表示する処理である。図10は、上述したように、登録した仮想オブジェクト「直方体A」902を表示した例を示す図である。図10において直方体A902は、位置指定ウィンドウ502の左側に示した図形である。
情報を付加した位置に楕円図形(仮想オブジェクト901)を表示する際、仮想オブジェクトリスト503内で「直方体A」を強調表示する。なお、仮想オブジェクトリスト503内の他の仮想オブジェクトに対応する楕円図形が位置指定ウィンドウ502内に表示されていないのは、それらの仮想オブジェクトが位置指定ウィンドウ502内に存在しないからである。すなわち、これらの仮想オブジェクトに関連する実物体がカメラ155の視野外にあるからである。
現在値取得部154は、情報表示処理部108からの問い合わせがあると、駆動装置7から現在の撮影装置4及び投影装置5の位置姿勢を取得し、情報表示処理部108に送信する(ステップS801)。情報表示処理部108は、取得した撮影装置4及び投影装置5の現在位置姿勢から表示部105に現在表示されている実空間平面の範囲をグローバル座標系で算出する(ステップS802)。さらに、情報表示処理部108は、データベースアクセス部103を介して、現在登録されている仮想オブジェクトのグローバル座標値を取得する(ステップS803)。情報表示処理部108は、これらのグローバル座標値が現在表示されている実空間平面の範囲内にあるかどうかを判定する(ステップS804)。登録されている仮想オブジェクトの位置が現在表示されている範囲内に存在していると判定された場合はステップS805に進み、一方、存在していないと判定された場合はステップS808に進む。
ステップS805では、情報表示処理部108は登録されている仮想オブジェクトのグローバル座標値を座標変換部104に送信する。座標変換部104は、このグローバル座標系での座標値をローカル座標系での座標値に変換し、このローカル座標系での座標値を情報表示処理部108に送信する(ステップS806)。さらに、情報表示処理部108はこのローカル座標系での座標値に基づいて表示部105に図形を表示する(ステップS807)。情報表示処理部108は、仮想オブジェクトリスト503に表示されている文字のうち、図形を表示した仮想オブジェクトの名前を強調表示する(ステップS808)。なお、情報表示処理部108は、仮想オブジェクトを表示する際、その仮想オブジェクト名と仮想オブジェクトを表示している指定画面上の表示位置を一時的に保持する。
次に、図3のステップS209を図11及び図12を参照して説明する。このステップS209は、コンテンツを閲覧する場合である。図12は、付加されたコンテンツを提示した例を示す図である。
サポート員が仮想オブジェクト901上をダブルクリックすると、入力データ処理部102は、仮想オブジェクトがダブルクリックされたと判定し、仮想オブジェクト名をデータベースアクセス部103へ送信する(ステップS1001)。サポート員は例えば、図12の仮想オブジェクト901上をダブルクリックする。データベースアクセス部103は、この仮想オブジェクトに関連付けられているコンテンツヘのデータパスを取得する(ステップS1002)。データベースアクセス部103はこのデータパスを入力データ処理部102に送信する(ステップS1003)。さらに、入力データ処理部102は取得したコンテンツのデータパスをもとにコンテンツデータを取得する(ステップS1004)。
入力データ処理部102が、このコンテンツデータに音声等の音源データが含まれているか否か判定する(ステップS1005)。音源データが含まれている場合にはステップS1009に進み、一方、含まれていない場合にはステップS1006に進む。
ステップS1006では、入力データ処理部102は、データベースアクセス部103を介してデータベース120から、コンテンツを提示するためのグローバル座標値を取得する。座標変換部104が、このグローバル座標値をグローバル座標系からローカル座標系に変換する(ステップS1007)。情報表示処理部108が、表示部105にこのコンテンツをその位置に表示する。図12の例では、「この重さは1kgです」というコンテンツ1101が表示される。一方、ステップS1009では、音声等をスピーカーで再生する。
座標変換部104におけるローカル座標系からグローバル座標系への変換、及びグローバル座標系からローカル座標系への変換については、下記の第3の実施の形態以降において説明する。
次に、図3のステップS211の処理を図13及び図14を参照して説明する。このステップS211は、作成された仮想オブジェクトに関連付けたコンテンツを変更する処理を示す。図14は、仮想オブジェクトに関連付けたコンテンツを変更する場合の画面遷移を示す図である。
サポート員が仮想オブジェクトを右クリックする(図3のステップS210)と、入力データ処理部102は、図14の(B)に示すように、「コンテンツ変更」と「仮想オブジェクトの消去」と「キャンセル」の中から操作を選択させる操作選択ダイアログ1601を表示する(ステップS1501)。入力データ処理部102は、サポート員がどの項目を選択したかを判定する(ステップS1502)。
入力データ処理部102が、サポート員が「キャンセル」を選択したと判定した場合はステップS1505に進み、サポート員が「コンテンツ変更」を選択したと判定した場合はステップS1503に進み、サポート員が「仮想オブジェクトの消去」を選択したと判定した場合はステップS1506に進む。
ステップS1505では、入力データ処理部102が表示部105での操作選択ダイアログ1601を非表示にする。
ステップS1503では、入力データ処理部102は、変更するコンテンツのデータパスの入力を促すダイアログ602を表示する。以下は、図8に示したステップS406の処理を行う。すなわち、サポート員がコンテンツのデータパスを入力すると、入力されたコンテンツが画像や映像、テキストのようにディスプレイに提示できるものであれば、入力データ処理部102はコンテンツを提示する位置を指定することを促すメッセージ(例えば、図7の「コンテンツを表示する位置を指定して下さい」603)を表示部105に表示する。なお、コンテンツを表示する位置を仮想オブジェクトからの相対位置、あるいは画面上の絶対位置で予め登録しておき、コンテンツの提示位置を指定する手順を省略することによりサポート員の入力項目を減らしてもよい。サポート員が、位置指定ウィンドウ502上でマウスをクリックすることによりコンテンツを提示する位置を指定すると、入力データ処理部102はローカル座標系での座標値を座標変換部104に送信する。座標変換部104では、ローカル座標系での座標値をグローバル座標系での座標値に変換し入力データ処理部102に送信する。入力データ処理部102は、対象となった仮想オブジェクトの仮想オブジェクト名、コンテンツのデータパス、コンテンツを提示するグローバル座標値をデータベースアクセス部103に送信する。データベースアクセス部103は、仮想オブジェクト名をキーにして、コンテンツのデータパス、コンテンツを提示するグローバル座標値を既存のデータに上書きで登録する。その後、ステップS1505に進む。
一方、ステップS1506では、入力データ処理部102は仮想オブジェクトの消去を「YES」、「NO」の選択肢で確認する仮想オブジェクトの消去確認ダイアログを表示部105に表示させる(ステップS1506)。入力データ処理部102は、この消去確認ダイアログで「YES」が選択されたか「NO」が選択されたかを判定する(ステップS1507)。「YES」が選択された場合はステップS1508に進み、「NO」が選択された場合はステップS1509に進む。
ステップS1508では、入力データ処理部102は、データベースアクセス部103を介して対象となる仮想オブジェクトをデータベース120から削除し、ステップS1509に進む。ステップS1509では、入力データ処理部102は、仮想オブジェクト消去確認ダイアログと、選択ダイアログを非表示にし、ステップS1505に進む。
以上に示した本実施形態によれば、撮影した実空間画像を表示する画面上において、情報を付加したい実物体が表示されている画面上の位置に情報を関連付けた仮想オブジェクトを生成し、情報を付加したい物体と仮想オブジェクトとの対応関係を維持することにより、あたかも実物体に情報が付加されているかのようにすることを実現することができる。
(第3の実施の形態)
図15は、本実施の形態に係る画像入出力装置1の一例を示すブロック図である。
画像入出力装置1は、本体(ロボット)2と、位置データ変換装置3とを具備する。なお、位置データ変換装置3の一部又は全部は、本体2に搭載されていてもよく、ネットワークを介してデータ伝送可能であるとしてもよい。
位置データ変換装置3は、上記第1の実施の形態に係る位置データ変換装置62又は上記第2の実施の形態に係る実空間情報付加装置100に相当する機能を実現する。
本体2は、撮影装置4、投影装置5、光軸一致機構6、駆動装置7を具備し、位置データ変換装置3は、撮影画像記憶装置8、認識部9、パラメータ記憶装置10、第1位置要素演算部11、第2位置要素演算部12、撮影画像位置から実空間位置(管理用座標系の位置)へ変換する演算に用いられる第1画角内位置要素演算部13、実空間位置から撮影画像位置へ変換する演算に用いられる第2画角内位置要素演算部14、位置要素記憶装置15、第1変換部16、第2変換部17、変換位置データ記憶装置18、投影コンテンツ記憶装置19、投影画像作成部20、投影画像記憶装置21を具備する。
図16は、本実施の形態に係る画像入出力装置1と実空間平面22との関係の一例を示す斜視図である。
図17は、実空間平面22の特定の座標軸におけるパラメータの例を示す図である。この図17は、実空間平面22と画像入出力装置1の本体2とを上方から見た図である。この図17では、撮影装置4に関するパラメータを例示している。しかしながら、本実施の形態では、撮影装置4と投影装置5との光軸、画角、撮影範囲と投影範囲が光軸一致機構6により一致するように調整されているため、投影装置5に関するパラメータも図17の撮影装置4に関するパラメータと同様に取り扱うとする。
図18は、実空間平面22の座標系Rと撮影画像23の座標系Cとの例を示す図である。実空間平面22の座標系Rは、水平(横)方向の位置をXR、垂直(縦)方向の位置をYRとし、位置を(XR,YR)で表す。撮影画像23の座標系Cは、水平方向の位置をXC、垂直方向の位置をYCとし、位置を(XC,YC)で表す。投影画像24の座標系Pは、水平方向の位置をXP、垂直方向の位置をYPとし、位置を(XP、YP)で表す。
本実施の形態では、説明を簡略化するために、水平方向について、撮影画像23の特定の位置を、実空間平面22の位置に変換し、また水平方向について、実空間平面22の特定の位置を、投影画像24の位置に変換する場合を例として説明する。しかしながら、水平方向ではない他の方向(例えば垂直方向など)についての位置変換を行う場合も同様である。
以下に、上記図15で示した画像入出力装置1の各構成要素について説明する。
撮影装置4は、例えばカメラであり、実空間平面22を撮影した撮影画像23を表す撮影画像データ25を取得し、撮影画像データ25を記憶装置8に記憶する。
投影装置5は、例えばプロジェクタであり、投影画像記憶装置21に記憶されている投影画像データ26に基づいて、実空間平面22に対して投影画像データ26の示す投影画像24を投影する。
光軸一致機構6は、撮影装置4と投影装置5とについて光軸及び画角を一致させ、さらに撮影範囲と投影範囲とを一致させるための機構である。例えば、図19に示すように、投影装置5の光軸5aがハーフミラー27を経由し、撮影装置4の光軸4aがハーフミラー27によって反射されることで、光軸4a,5aを一致させることができる。この図19では、光軸一致機構6としてハーフミラー27が用いられている。
駆動装置7によって、撮影装置4、投影装置5、光軸一致機構6は自由に空間を移動可能であり、光軸4a,5aの方向(撮影方向、投影方向)を変更可能である。駆動装置7は、例えば無線又は有線による操作にしたがって動作する。
基準体28としては、例えばARツールキットが用いられる。本実施の形態においては、基準体28の位置を実空間平面22の座標系Rの原点とする。
認識部9は、撮影画像記憶装置8に記憶されている撮影画像データ25を読み出し、基準体28が設置されている実空間平面22の撮影画像23に基づいて、撮影装置4と実空間平面22における基準体28の設置位置との角度(撮影装置4の光軸4aと実空間平面22との角度)θ1、及び撮影装置4と実空間平面22における基準体28の設置位置(基準体28の中点)との距離Lを求め、角度θ1及び距離Lをパラメータ記憶装置10に記憶する。
また、認識部9は、撮影装置4によって撮影された撮影画像データ25に基づいて、撮影画像23内の認識対象物Q1を検出し、撮影画像23の座標系Cにおける認識対象物Q1の位置XC1を示す撮影画像位置データ29をパラメータ記憶装置10に記憶する。
パラメータ記憶装置10は、角度θ1及び距離L、さらに、撮影装置4の画角θ3、撮影装置4と基準体28とを結ぶ線36と撮影装置4の光軸4aとの間の角度θ2、撮影装置4の水平方向のピクセル数Pixを記憶する。角度θ2は、本体2のパン・チルト制御によって取得される情報である。
本実施の形態においては、投影装置5の画角、投影装置5と基準体28とを結ぶ線と投影装置5の光軸5aとの間の角度についても、θ3、θ2とする。
さらに、パラメータ記憶装置10は、投影対象画像E2を投影したい実空間平面22の座標系Rの位置XR2を示す実空間位置データ30を記憶する。
図20は、実空間平面22の座標系Rの位置の演算に用いられる位置要素値の例を示す図である。
図21は、位置要素値の演算に用いられる角度の例を示す図である。
図22は、撮影画像23の各ピクセル位置についての仮想撮影平面と実空間平面22との関係の一例を示す図である。
この図20〜22は、実空間平面22を上方から見た図である。
第1位置要素値L・cosθ1は、実空間平面22における基準体28の設置位置と、撮影装置4から実空間平面22に対する垂線31との間の距離(基準体28と、実空間平面22と垂線31との交点32との間の距離)を表す。
第2位置要素値L・sinθ1・tanθ4は、撮影装置4の基準体28側の画角線33と実空間平面22との交点34と、撮影装置4から実空間平面22に対する垂線31との間の距離(交点32と交点34との距離)を表す。
θ5は、垂線31と線36との間の角度を表す。このθ5は(1)式により算出される。
θ5=(π/2)−θ1 …(1)
θ4は、垂線31と画角線33との間の角度を表す。このθ4は(2)式により算出される。
θ4=θ2−θ5−(θ3/2) …(2)
仮想撮影平面35は、撮影装置4の光軸4aと直交し撮影装置4の基準体28側の画角線33と実空間平面22との交点34を通る仮想的な平面である。
θ6は、実空間平面22と仮想撮影平面35との間の角度を表し、θ8は、画角線33と実空間平面22との間の角度を表す。θ6は(3)式により算出される。
θ6=π−((π−θ3)/2)−θ8=π−((π−θ3)/2)−((π/2)−θ4)=(θ3/2)+θ2−θ5−(θ3/2)=θ2−(π/2)+θ1 …(3)
Pixは、撮影画像23の水平方向のピクセル数を表し、(θ3/Pix)は、各ピクセルについての画角に相当する。
θ7は、画角線33と角度(θ3/Pix)で交わるとともに仮想撮影平面35と交わる直線37(ピクセル位置GP1のピクセルについての基準体28と逆側の画角線)と実空間平面22との間の角度を表す。すなわち、このθ7は、撮影画像34のピクセル位置GP1に配置されているピクセルにおける基準体28と逆側の画角線37と実空間平面22との間の角度を表し、(4)式により算出される。
θ7=π−θ1−(θ2+(θ2+(θ3/Pix))) …(4)
本実施の形態において、撮影画像23のピクセル位置GP1〜GPmは、画角線33側から順に、GP1,…,GPn,…,GPmと並んでいるとする。また、認識対象画像Q1の位置XC1は、ピクセル位置GPnに対応するとする。
撮影画像23のピクセル位置GP1〜GPmは、それぞれ仮想撮影平面35のピクセル位置P1〜Pmに対応する。すなわち、仮想撮影平面35のピクセル位置P1〜Pmは、撮影装置4のピクセル位置GP1〜GPmに配置されている各ピクセルに撮影される仮想撮影平面35の範囲を表す。
実空間平面22上の位置を表す各範囲(幅)R1〜Rmは、撮影装置4の各ピクセル位置GP1〜GPmにおけるピクセルが各仮想撮影平面35のピクセル位置P1〜Pm経由で、実空間平面22上に割り当てられた場合の範囲を表す。すなわち、実空間平面22上の各範囲R1〜Rmは、撮影装置4の各ピクセル位置GP1〜GPmのピクセルが撮影する実空間平面22の範囲を表す。
各ピクセルGP1〜GPm位置におけるピクセルの画角線の撮影装置4から実空間平面までの長さは、基準体28側から順に、X1,…,Xm+1である。例えば、ピクセル位置GP1のピクセルにおける画角線の長さはX1,X2であり、ピクセル位置GPnのピクセルにおける画角線の長さはXn,Xn+1であり、ピクセル位置GPnのピクセルの画角線の長さはXn,Xn+1である。
ピクセル位置GP1,GP2,GPnのピクセルにおける基準体28側画角線の長さX1,X2,Xnは、それぞれ(5)〜(7)式で求まる。
X1=L・sinθ1/cosθ4 …(5)
X2=L・sinθ1/cos(θ4+(θ3/Pix)) …(6)
Xn=L・sinθ1/cos(θ4+(n−1)・θ3/Pix) …(7)
交点38は、直線37と仮想撮影平面35との交点である。交点39は、交点38から実空間平面39への垂線40と、実空間平面22との交点である。
L1は、交点38と交点39との間の距離を表す。L2は、交点34と交点39との間の距離を表す。
第1位置要素演算部11は、パラメータ記憶装置10に記憶されている距離L、角度θ1に基づいて、第1位置要素値L・cosθ1を求め、位置要素記憶装置15に記憶する。
第2位置要素演算部12は、パラメータ記憶装置10に記憶されている撮影装置4の画角θ3、距離L、角度θ1、角度θ2に基づいて、第2位置要素値L・sinθ1・tanθ4を求め、位置要素記憶装置15に記憶する。
第1画角内位置要素演算部13は、パラメータ記憶装置10に記憶されている距離L,角度θ1,角度θ2,角度θ3,ピクセル数Pix,認識対象物Q1の撮影されていたピクセル位置GPn(=Xc1)に基づいて、第1画角内要素値RRを求め、第1画角内要素値RRを位置要素記憶装置15に記憶する。
第1画角内要素値RRは、例えば、撮影装置4のピクセル位置GPnによって撮影される実空間平面22上の範囲Rnと、交点34との間の距離を表す。より具体的には、第1画角内要素値RRとしては、実空間平面22上の範囲Rnの基準体28側の境界41と交点34との距離RRn-1(R1+…+Rn-1)から、実空間平面22上の範囲Rnの基準体28と逆側の境界42と交点34との距離RRn(R1+…+Rn)までの間の値を用いる。この場合、第1画角内要素値RRは、R1からRnまでを順次求め、R1からRnまでの和を算出することで求められる。
なお、RRとして、単に、距離RRn(=R1+…+Rn)を用いるとしてもよく、距離RRn-1(=R1+…+Rn-1)を用いるとしてもよい。
以下に、R1、RnとRn+1の関係式について説明する。
l1=P1sinθ6 …(8)
l2=P1cosθ6 …(9)
tanθ7=l1/(R1−l2) …(10)
tanθ7=(P1・sinθ6)/(R1−P・cosθ6) …(11)
R1=(P1(sinθ6+cosθ6・tanθ7))/tanθ7 …(12)
ここで、
P1=(2/Pix)・(X1・sin(θ3/2)) …(13)
を、上記(12)式に代入すると、R1を算出する(14)式が得られる。
Figure 2007293717
図23は、Rn+1の演算を説明するための図である。この図23で示されるように、Xn,Xn+2,Rn,Rn+1の間には、(15)式の関係が得られる。
Xn:Xn+2=Rn:Rn+1 …(15)
したがって、Xn、Xn+2、Rnに基づいてRn+1を求めるための(16)式が得られる。
Figure 2007293717
R2を求める場合、上記(15)式より、(17)式が得られる。
R2=(X3・R1)/X1 …(17)
この(17)式に、上記(14)式のR1を代入すると、(18)式が得られる。
この(18)式に対して、上記(7)式から得られるX3の値を代入することにより、(19)式に示すR2の値を求めることができる。
Figure 2007293717
Figure 2007293717
上記のR1、及びRnとRn+1との関係式を用いて同様の演算を繰り返すことで、R1〜Rnまでを算出することができ、R1からRnまでの値を累積して加算した値を求めることもできる。
第1変換部16は、位置要素記憶装置15に記憶されている第1位置要素値L・cosθ1、第2位置要素値L・sinθ1・tanθ4、第1画角内要素値RRに基づいて、実空間平面22の位置を表す実空間位置データXR1を求め、実空間位置データXR1を変換位置データ記憶装置18に記憶する。
例えば、第1変換部16は、第1位置要素値L・cosθ1、第2位置要素値L・sinθ1・tanθ4、第1画角内要素値RRの和を、撮影画像23のピクセル位置を実空間平面22の位置に変換した結果として求める。
続いて、実空間平面22の位置Pnを、投影画像24のピクセル位置に変換する場合について、上記図15、図16、図18、図20を用いて説明する。なお、この場合、図18及び図20の仮想撮影平面35は、仮想投影平面となる。各パラメータについては、上記撮影画像23のピクセル位置GPnを実空間平面22の位置Pnに変換する場合と同様のものを用いて説明する。
第2画角内位置要素演算部14は、パラメータ記憶装置10に記憶されている実空間位置データ30と、位置要素記憶装置15に記憶されている第1位置要素値L・cosθ1、第2位置要素値L・sinθ1・tanθ4を読み出す。
第2画角内位置要素演算部14は、実空間位置データ30の示す投影対象画像E2を投影したい実空間平面22の位置XR2から、第1位置要素値L・cosθ1と、第2位置要素値L・sinθ1・tanθ4とを引き算して第2画角内要素値RRを求め、第2画角内要素値RRを位置要素記憶装置15に記憶する。
第2変換部17は、位置要素記憶装置15に記憶されている第2画角内要素値RRと、パラメータ記憶装置10に記憶されている距離L,角度θ1,角度θ2,角度θ3,ピクセル数Pixに基づいて、上記(8)〜(16)式などを用いて、順次、投影画像24のピクセル位置に対応する実空間平面22上の範囲を求め、求めた範囲を累積して加算した値が第2画角内要素値RRの所定範囲となる場合に、この実空間平面22上の範囲Rnに対応する投影画像24のピクセルGPnを求める。
そして、第2変換部17は、この変換後のピクセル位置GPnの位置を示す投影画像位置データXP2を変換位置データ記憶装置18に記憶する。
投影画像作成部20は、変換位置データ記憶装置18に記憶されている投影画像位置データXP2の示すピクセルGPnの位置に、投影コンテンツ記憶装置19に記憶されている投影コンテンツ19aを表示するための投影画像データ26を作成し、投影画像データ26を投影画像記憶装置21に記憶する。
図24は、本実施の形態に係る画像入出力装置1による認識対象物Q1の認識状態及び投影対象画像E2の投影状態の一例を示す図である。この図24は、上方から画像入出力装置1と実空間平面22とを見ている。画像入出力装置1は、認識対象物Q1が実空間平面22のどの位置に存在するかを正確に認識することができる。また、画像入出力装置1は、実空間平面22の希望の位置に投影対象画像E2を正確に投影することができる。
図25は、本実施の形態に係る画像入出力装置1による実空間平面22の位置認識処理の一例を示すフローチャートである。
ステップS1において、画像入出力装置1の本体2は、駆動装置7により空間位置移動を行う。
ステップS2において、撮影装置4は、撮影画像データ25を撮影画像記憶装置8に記憶する。
ステップS3において、認識部9は、撮影画像データ25の示す撮影画像に基準体28が写っているか判断する。
基準体28が写っていない場合、ステップS4において、駆動装置7は、撮影装置4の光軸4aの方向を切り替え、処理は上記ステップS2に戻る。
基準体28が写っている場合、ステップS5において、認識部9は、角度θ1、距離Lをパラメータ記憶装置10に記憶する。
ステップS6において、駆動装置7は、撮影装置4の光軸4aの方向を切り替える。
ステップS7において、撮影装置4は、光軸4aの方向切り替え後の撮影画像データ25を撮影画像記憶装置8に記憶するとともに、画像入出力装置1は、角度θ2をパラメータ記憶装置10に記憶する。
ステップS8において、認識部9は、撮影画像データ25の示す撮影画像23に認識対象物Q1が写っているか判断する。
認識対象物Q1が写っていない場合、処理は、上記ステップS6に戻る。
認識対象物Q1が写っている場合、ステップS9において、認識部9は、認識対象物Q1のピクセル位置GPnを示す撮影画像位置データ29をパラメータ記憶装置10に記憶する。
ステップS10aにおいて、第1位置要素演算部11は、パラメータ記憶装置10に記憶されている距離Lと角度cosθ1とに基づいて、第1位置要素値L・cosθ1を求め、第1位置要素値L・cosθ1を位置要素記憶装置15に記憶する。
ステップS10bにおいて、第2位置要素演算部12は、パラメータ記憶装置10に記憶されている画角θ3、距離L、角度θ1、角度θ2に基づいて、第2位置要素値L・sinθ1・tanθ4を求め、第2位置要素値L・sinθ1・tanθ4を位置要素記憶装置15に記憶する。
ステップS10cにおいて、第1画角内位置要素演算部13は、パラメータ記憶装置10に記憶されている距離L,角度θ1,角度θ2,角度θ3,ピクセル数Pix,認識対象物Q1の撮影されていたピクセル位置GPn(=Xc1)に基づいて、第1画角内要素値RRを求め、第1画角内要素値RRを位置要素記憶装置15に記憶する。
ステップS11において、第1変換部15は、位置要素記憶装置15に記憶されている第1位置要素値L・cosθ1、第2位置要素値L・sinθ1・tanθ4、第1画角内要素値RRを足し算し、認識対象画像Q1の撮影されたピクセル位置GPnに対応する実空間平面22の位置Rnを表す実空間位置データXR1を求め、実空間位置データXR1を変換位置データ記憶装置18に記憶する。
図26は、本実施の形態に係る画像入出力装置1による実空間平面22の所定位置への投影対象画像の投影処理の一例を示すフローチャートである。
ステップT1〜T5は、上記図25のステップS1〜S5と同様である。
ステップT6において、駆動装置7は、投影装置5の光軸5aの方向を切り替える。
ステップT7において、画像入出力装置1は、角度θ2をパラメータ記憶装置10に記憶する。
ステップT8a,T8bは、上記図25のステップS10a,S10bと同様である。
ステップT9において、第2画角内位置要素演算部14は、パラメータ記憶装置10に記憶されている実空間位置データ30の示す投影対象画像E2を投影したい実空間位置から、位置要素記憶装置15に記憶されている第1位置要素値L・cosθ1と第2位置要素値L・sinθ1・tanθ4とを引き算して第2画角内要素値RRを求め、第2画角内要素値RRを位置要素値記憶装置15に記憶する。
ステップT10において、第2変換部17は、位置要素値記憶装置15に記憶されている第2画角内要素値RRと、パラメータ記憶装置10に記憶されている距離L,角度θ1,角度θ2,角度θ3,ピクセル数Pixに基づいて、投影画像24のピクセル位置に対応する実空間平面22上の範囲を求め、交点34から第2画角内要素値RRだけ離れている実空間平面22の範囲Rnに対応する投影画像24のピクセルGPnを求め、この変換後のピクセルGPnの位置を示す投影画像位置データXP2を変換位置データ記憶装置18に記憶する。
ステップT11において、投影画像作成部20は、変換後のピクセルGPnの位置が投影画像24内か否か判断する。
変換後のピクセルGPnの位置が投影画像24内でない場合、処理は終了する。
変換後のピクセルGPnの位置が投影画像24内の場合、ステップT12において、投影画像作成部20は、変換位置データ記憶装置18に記憶されている投影画像位置データXP2の示すピクセルGPnの位置に、投影コンテンツ記憶装置19に記憶されている投影コンテンツを表示するための投影画像データ26を作成し、投影画像データ26を投影画像記憶装置21に記憶する。
ステップT13において、投影装置26は、投影画像記憶装置21に記憶されている投影画像データ26の示す投影画像24を投影する。
以上説明した本実施の形態においては、撮影装置4と投影装置5とに対して光軸一致機構6が適用されるため、撮影画像23の座標系Cと投影画像24の座標系Pのとの一致性を確保できる。これにより、画像入出力装置1において座標系を一つにして管理することができ、処理の簡略化、高速化を実現することができる。
本実施の形態においては、例えばARツールキットなどのような基準体28の画像認識による3次元位置特定手法が用いられ、本体2と基準体28との距離及び方向などの関係を取得することができる。
本実施の形態においては、認識対象物Q1のある実空間平面22、投影対象画像E2を投影する実空間平面22に基準体28が設置され、撮影画像23、投影画像24の座標系C,Pを実空間平面22の座標系Rで管理することができる。
本実施の形態においては、撮影装置4及び投影装置5が2軸(パン・チルト)の駆動軸を持ち、さらに本体2の空間位置が移動可能であっても、認識対象物Q1の位置認識及び投影対象画像E2の投影位置について誤差発生を防止でき、高精度の位置管理を行うことができる。
(第4の実施の形態)
本実施の形態においては、上記第1の実施の形態の変形例について説明する。
図27は、本実施の形態に係る画像入出力装置の構成の一例を示すブロック図である。
本実施の形態に係る画像入出力装置43では、ネットワーク44経由で、本体45、設定情報記憶部46、指示者側システム47が設置されている。
本体45は、撮影装置4、投影装置5、光軸一致機構6、駆動装置7、画像送信部48、表示・処理制御部49、算出部50を具備する。
駆動装置7は、撮影装置4及び投影装置5の光軸方向を変えるパン・チルト駆動部7Aと、本体45の空間における位置を変える移動駆動部7Bとを具備する。
画像送信部48は、撮影装置4によって得られた撮影画像データ25をネットワーク44経由で指示者側システム47に送信する。
表示・処理制御部49は、指示位置取得部51より、作業者52が指示具53により指示した位置データを入力する。この表示・処理制御部49は、上記第1の実施の形態における投影画像作成部20として機能する。
算出部50は、上記第1の実施の形態における第1位置要素演算部11、第2位置要素演算部12、第1画角内位置要素演算部、第2画角内位置要素演算部14、第1変換部16、第2変換部17として機能する。
設定情報記憶部46は、上記第1の実施の形態におけるパラメータ記憶装置10、位置要素記憶装置15、変換位置データ記憶装置18、投影コンテンツ記憶装置19として用いられる。
指示者54は、指示者側システム47を用いて設定情報記憶部47への情報の記憶、本体45への各種指示を行う。指示者側システム47は、画像受信部55、画像認識部56、表示部57、データ入力部58、キーボード59、マウス60、ファイル記憶部61を具備する。
画像受信部55は、画像送信部48からネットワーク44経由で撮影画像データ25を受信する。
画像認識部56は、上記第1の実施の形態における認識部9としての機能を持つ。
例えば、本実施の形態に係る画像入出力装置43は、撮影装置4によって撮影された位置を登録する登録処理を実行し、また、登録された位置に投影対象画像E2を投影する投影処理を実行する。指示者54は、指示者側システム47により登録指示、駆動指示、投影指示を入力する。
図28は、本実施の形態に係る登録処理と投影処理との関係の一例を示すフローチャートである。
ステップU1において、画像入出力装置43の表示・処理制御部49は、投影対象画像E2の投影位置の登録が指示されたか否か判断する。
登録指示がなされた場合、ステップU2において、画像認識部56及び算出部50は、登録処理を実行する。
登録指示がなされていない場合、ステップU3において、本体45は、移動駆動部7bにより、空間を移動する。
また、ステップU4において、パン・チルト駆動部7aは、撮影装置4及び投影装置5の光軸4a,5aを切り替える。
次に、ステップU5において、画像入出力装置43の表示・処理制御部49は、投影対象画像E2の投影が指示されたか否か判断する。
投影指示がなされた場合、ステップU6において、算出部50及び表示・処理制御部49は、投影処理を実行する。
投影指示がなされていない場合、ステップU7において、本体45は、移動駆動部7bにより、空間を移動する。
また、ステップU8において、パン・チルト駆動部7aは、撮影装置4及び投影装置5の光軸4a,5aを切り替える。
そして、ステップU9において、処理は終了か否か判断される。終了しない場合、処理は上記ステップU1に戻る。
図29は、本実施の形態に係る画像入出力装置43による登録処理の一例を示すフローチャートである。
ステップV1において、移動駆動部7bは、本体45の空間移動を停止する。
ステップV2において、画像認識部56は、撮影画像23内に基準体28が存在するか否か判断する。
基準体28が撮影画像23内に存在しない場合、ステップV3において、パン・チルト駆動部7aは撮影装置4の光軸4aを変化させ、処理は上記ステップV2に戻る。
基準体28が撮影画像23内に存在する場合、ステップV4において、画像認識部56は、基準体28の認識処理を実行する。
ステップV5において、画像認識部56は、撮影装置4と基準体28との距離L、撮影装置4と基準体28との角度θ1を取得する。
ステップV6において、パン・チルト駆動部7aは、登録される実空間平面22の位置が撮影画像23内に収まるように、撮影装置4の光軸4aの方向を変化させる。
ステップV7において、キーボード59、マウス60、データ入力部58は、指示者54から、撮影画像23内の登録される位置の指定を入力する。
ステップV8において、投影装置5は、指定された位置に、投影対象画像E2を投影する。
ステップV9において、算出部50は、指定された撮影画像23のピクセル位置を、実空間平面22の位置に変換する。
ステップV10において、設定情報記憶装置46は、指定された撮影画像23のピクセル位置に対応する実空間平面22の位置を、設定情報記憶部46に記憶する。
図30は、本実施の形態に係る画像入出力装置43による撮影画像23のピクセル位置から基準体28を基準として定まる実空間平面の位置への変換処理の一例を示すフローチャートである。
ステップW1において、算出部50は、指定された撮影画像23のピクセル位置nを取得する。
ステップW2において、算出部50は、ループ変数kに1を代入する。
ステップW3において、算出部50は、上記(1)式、(7)式、(16)式を用いて、Rk,Xk,Xk+2,Rk+1を算出する。
ステップW4において、算出部50は、k=nか判断する。
k=nではない場合、ステップW5において、算出部50はk=k+1とし、処理は上記ステップW3に戻る。
k=nの場合、ステップW6において、算出部50は、第1位置要素値L・cosθ1、第2位置要素値L・sinθ1・tanθ4、R1〜Rnを足し合わせた変換後の実空間平面22の位置を求める。
図31は、本実施の形態に係る画像入出力装置43による投影処理の一例を示すフローチャートである。
ステップZ1〜Z5は、上記ステップV1〜V5と同様である。
ステップZ6において、パン・チルト駆動部7aは、投影装置5の光軸5aの方向を変化させる。
ステップZ7において、算出部50は、投影画像24の各ピクセル位置に対応する実空間平面22の範囲を算出する。
ステップZ8において、算出部50は、算出された実空間平面22の範囲を投影位置とする投影対象画像E2があるか否か判断する。
算出された実空間平面22の範囲を投影位置とする投影対象画像E2がない場合、処理はステップZ11に移動する。
算出された実空間平面22の範囲を投影位置とする投影対象画像E2がある場合、ステップZ9において、算出部50は、この投影対象画像E2を投影するように登録された実空間平面22の位置を、投影画像24のピクセル位置に変換する。
ステップZ10において、表示・処理制御部49は、変換によって得られた投影画像24のピクセル位置に、投影対象画像E2を表示する投影画像データ26を作成し、投影装置5は、作成された投影画像データ26に基づく投影画像24を投影する。
ステップZ11において、処理を終了するか否か判断される。処理を終了しない場合、処理は上記ステップZ6に戻る。
図32は、投影画像24の各ピクセル位置に対応する実空間平面22の範囲の算出処理の一例を示すフローチャートである。
ステップA1において、算出部50は、投影画像24の端部のピクセル位置1,Pixを取得する。
ステップA2において、算出部50は、ループ変数kに1を代入する。
ステップA3において、算出部50は、上記(1)式、(7)式、(16)式を用いて、Rk,Xk,Xk+2,Rk+1を算出する。
ステップA4において、算出部50は、k=Pixか判断する。
k=Pixではない場合、ステップA5において、算出部50はk=k+1とし、処理は上記ステップA3に戻る。
k=nの場合、ステップA6において、算出部50は、R1〜RPixを記憶する
図33は、投影対象画像E2の投影される実空間平面22の位置を、投影画像24のピクセル位置に変換する処理の一例を示すフローチャートである。
ステップB1において、算出部50は、設定情報記憶部46から、投影対象画像E2を投影するように登録された実空間平面22の位置を取得する。
ステップB2において、算出部50は、取得された実空間平面22の位置から第1位置要素値L・cosθ1と第2位置要素値L・sinθ1・tanθ4とを引きた値RRを求める。
ステップB3において、算出部50は、ループ変数kに1を代入する。
ステップB4において、算出部50は、上記(1)式、(7)式、(16)式を用いて、Rk,Xk,Xk+2,Rk+1を算出する。
ステップB5において、算出部50は、投影画像24のピクセル位置に対応する実空間平面22の範囲について投影画像24の端からの累積加算値を算出し、累積加算値がRRより大きいか否か判断する。
累積加算値がRRより大きくない場合、ステップB6において、算出部50はk=k+1とし、処理は上記ステップB3に戻る。
累積加算値がRRより大きい場合、ステップB7において、算出部50は、この時点でのkの値を、投影対象画像E2を投影する投影画像24のピクセル位置として記憶する。
以上説明した本実施の形態においては、指示者54によって指示された撮影画像23のピクセル位置を、実空間平面22における位置に変換し、投影対象画像E2を投影する位置として登録することができる。
また、本実施の形態においては、投影装置4の投影範囲に登録された投影対象画像E2があるか否か判断し、投影範囲内に投影対象画像E2が登録されている場合に、この投影対象画像E2に対応する実空間平面22の位置を、投影画像24のピクセル位置に変換し、投影対象画像E2を登録された位置に投影することができる。
なお、上記各実施の形態においては、同一の機能が実現可能であれば、様々に変更してもよい。例えば、撮影画像記憶装置8、パラメータ記憶装置10、位置要素記憶装置15、変換位置データ記憶装置18、投影コンテンツ記憶装置19、投影画像記憶装置21は、自由に統合又は分割することができる。
また、認識部9、第1位置要素演算部11、第2位置要素演算部12、第1画角内一要素演算部13、第2画角内位置要素演算部14、第1変換部16、第2変換部17、投影画像作成部20の各処理についても、自由に統合又は分割することができる。
また、上記位置データの変換に用いる各種の数式に代えて近似式を用いるとしてもよい。
上記各実施の形態に係る各構成要素の機能は、例えばプログラムによって制御されるプロセッサにより実現されるとしてもよい。
この場合におけるプログラムは、例えば磁気ディスク(フレキシブルディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリなどの記憶媒体に書き込んで、プロセッサを持つコンピュータに適用可能である。また、プログラムは、通信媒体により伝送してコンピュータに適用することも可能である。コンピュータは、プログラムを読み込み、このプログラムによって動作が制御されることにより、上記各実施の形態に係る機能を実現する。プログラムは、複数のコンピュータに分散して配置され、複数のコンピュータ間で互いに連携しつつ処理が実行されるとしてもよい。
本発明の第1の実施の形態に係る位置データ変換装置の一例を示すブロック図。 本発明の第2の実施の形態に係る実空間情報付加システムのブロック図。 図2の実空間情報付加システムの全体の動作を示すフローチャート。 図3のステップS205の処理を示すフローチャート。 図3のステップS207の処理を示すフローチャート。 図5に示した処理での表示部の表示例を示す図。 図5に示した処理での表示部上のGUI(Graphical User Interface)の遷移を示す図。 図5のステップS406の処理を示すフローチャート。 図3のステップS202の処理を示すフローチャート。 図9に示した処理での表示部の表示例を示す図。 図3のステップS209の処理を示すフローチャート。 図11に示した処理での表示部の表示例を示す図。 図3のステップS211の処理を示すフローチャート。 図13に示した処理での表示部上のGUIの遷移を示す図。 本発明の第3の実施の形態に係る画像入出力装置の一例を示すブロック図。 第3の実施の形態に係る画像入出力装置と実空間平面との関係の一例を示す斜視図。 実空間平面の特定の座標軸のパラメータの例を示す図。 実空間平面の座標系Rと撮影画像の座標系との例を示す図 光軸一致機構の一例を示す図。 実空間平面の座標系Rの位置の演算に用いられる位置要素値の例を示す図。 位置要素値の演算に用いられる角度の例を示す図。 撮影画像の各ピクセルについての仮想撮影平面と実空間平面との関係の一例を示す図。 Rnの演算を説明するための図。 第3の実施の形態に係る画像入出力装置による認識対象物の認識状態及び投影対象画像の投影状態の一例を示す図。 第3の実施の形態に係る画像入出力装置による実空間平面の位置認識処理の一例を示すフローチャート。 第3の実施の形態に係る画像入出力装置による実空間平面の所定位置への投影対象画像の投影処理の一例を示すフローチャート。 本発明の第4の実施の形態に係る画像入出力装置の構成の一例を示すブロック図。 第4の実施の形態に係る登録処理と投影処理との関係の一例を示すフローチャート。 第4の実施の形態に係る画像入出力装置による登録処理の一例を示すフローチャート。 第4の実施の形態に係る画像入出力装置による撮影画像のピクセル位置から基準体を基準として定まる実空間平面の位置への変換処理の一例を示すフローチャート。 第4の実施の形態に係る画像入出力装置による投影処理の一例を示すフローチャート。 撮影画像の各ピクセル位置に対応する実空間平面の範囲の算出処理の一例を示すフローチャート。 投影対象画像の投影される実空間平面の位置を、投影画像のピクセル位置に変換する処理の一例を示すフローチャート。
符号の説明
1,43…画像入出力装置、2,45…本体、3,62…位置データ変換装置、4…撮影装置、5…投影装置、6…光軸一致機構、7…駆動装置、8…撮影画像記憶装置、9…認識部、10…パラメータ記憶装置、11…第1位置要素演算部、12…第2位置要素演算部、13…第1画角内位置要素演算部、14…第2画角内位置要素演算部、15…位置要素記憶装置、16…第1変換部、17…第2変換部、18…変換位置データ記憶装置、19…投影コンテンツ記憶装置、19a…投影コンテンツ、20…投影画像作成部、21…投影画像記憶装置、22…実空間平面、23…撮影画像、24…投影画像、26…投影画像データ、28…基準体、46…設定情報記憶部、47…指示者側システム、49…表示・処理制御部、50…算出部、56…画像認識部、63…ロボット、64…駆動制御値取得部、65,70…記憶装置、66…表示指定部、67,69…変換部、68…位置管理用データベース、71…基準体位置データ、72…画像位置データ、73…駆動制御値、74,75…管理位置データ、76…画像位置データ

Claims (8)

  1. 撮影装置と、投影装置と、前記撮影装置と前記投影装置とについての光軸一致機構と、前記撮影装置と前記投影装置との3次元空間における設置状態を変更する駆動装置とを具備するロボットに対して用いられる位置データ変換装置において、
    前記撮影装置によって撮影された撮影画像データの示す撮影画像の所望の位置を示す第1の画像位置データと、前記駆動装置の駆動制御値と、前記3次元空間に配置されている基準体の位置データとに基づいて、前記所望の位置に対応する管理用座標系の位置を示す第1の管理位置データを求める第1変換手段と、
    前記第1変換手段によって求められた前記第1の管理位置データと、前記投影装置によって投影コンテンツを投影する前記管理座標系の位置を示す第2の管理位置データとを記憶する管理位置記憶手段と、
    前記第2の管理位置データと、前記駆動装置の駆動制御値と、前記3次元空間に配置されている基準体の位置データとに基づいて、前記投影コンテンツを投影する前記管理座標系の位置に対応する投影画像の位置を示す第2の画像位置データを求める第2変換手段と、
    前記投影コンテンツを前記第2の画像位置データの示す位置に配置した投影画像データを作成し、前記投影画像データを前記投影装置に提供する投影画像作成手段と
    を具備することを特徴とする位置データ変換装置。
  2. 請求項1記載の位置データ変換装置において、
    前記撮影画像データに基づいて、前記撮影画像に含まれている認識対象物の位置を検出し、前記認識対象物の位置を前記所望の位置として前記第1の画像位置データを作成する認識手段をさらに具備することを特徴とする位置データ変換装置。
  3. 請求項1記載の位置データ変換装置において、
    前記撮影装置によって撮影された撮影画像データの示す撮影画像を表示し、ユーザから撮影画像の所望の位置の指定を受け付け、前記第1の画像位置データを作成する表示指定手段をさらに具備することを特徴とする位置データ変換装置。
  4. 請求項1乃至請求項3のいずれか1項に記載の位置データ変換装置において、
    前記投影画像作成手段は、前記第2の画像位置データの示す位置が、前記投影画像内の場合に、前記第2の管理位置データに関連付けられている前記投影コンテンツを選択し、前期投影画像データを作成することを特徴とする位置データ変換装置。
  5. 撮影装置の撮影画像に写る実空間平面に配置されている基準体を認識し、前記実空間平面における特定座標について、「前記撮影装置と前記基準体との間の距離L」と、「前記撮影装置と前記基準体を結ぶ線と前記実空間平面との角度θ1」とを求める認識手段と、
    前記特定座標について、前記距離Lと前記角度θ1とに基づいて、前記基準体と、前記撮影装置から前記平面への垂線との間の距離を表す第1の値を求める第1位置要素演算手段と、
    前記特定座標について、「前記撮影装置と前記基準体とを結ぶ線と前記撮影装置の光軸との間の角度θ2」と、「前記撮影装置の画角θ3」と、前記距離Lと、前記角度θ1とに基づいて、前記撮影装置の前記基準体側の画角線と前記実空間平面との交点と、前記撮影装置から前記実空間平面への垂線との間の距離を表す第2の値を求める第2位置要素演算手段と、
    前記特定座標について、前記撮影画像における特定の位置に基づいて、前記撮影画像における特定の位置に対応する前記実空間平面の位置と、前記撮影装置の前記基準体側の画角線と前記実空間平面との交点との間の距離を表す値RRを求める画角内位置要素演算手段と、
    前記第1の値と、前記第2の値と、前記値RRとに基づいて、前記撮影画像における特定の位置を、前記特定座標における位置に変換した実空間位置データを求める変換手段と
    を具備することを特徴とする位置データ変換装置。
  6. 投影装置の投影画像が投影される実空間平面に設置されている基準体を認識し、前記実空間平面における特定座標について、「前記投影装置と前記基準体との間の距離L」と、「前記投影装置と前記基準体を結ぶ線と前記実空間平面との角度θ1」とを求める認識手段と、
    前記特定座標について、前記距離Lと前記角度θ1とに基づいて、前記基準体と、前記投影装置から前記平面への垂線との間の距離を表す第1の値を求める第1位置要素演算手段と、
    前記特定座標について、「前記投影装置と前記基準体とを結ぶ線と前記投影装置の光軸との間の角度θ2」と、「前記投影装置の画角θ3」と、前記距離Lと、前記角度θ1とに基づいて、前記投影装置の前記基準体側の画角線と前記実空間平面との交点と、前記投影装置から前記実空間平面への垂線との間の距離を表す第2の値を求める第2位置要素演算手段と、
    前記特定座標について、前記第1の値と、前記第2の値と、前記特定座標における特定の位置とに基づいて、前記特定座標における特定の位置と、前記投影装置の前記基準体側の画角線と前記実空間平面との交点との間の距離を表す値RRを求める画角内位置要素演算手段と、
    前記特定座標について、前記投影装置の前記基準体側の画角線と前記実空間平面との交点から、前記値RRの距離だけ離れた前記実空間平面の位置に対応する前記投影画像における位置を表す投影画像位置データを求める変換手段と
    を具備することを特徴とする位置データ変換装置。
  7. 第1記憶装置に記憶されている撮影画像データに基づいて、撮影装置の撮影画像に写る実空間平面に配置されている基準体を認識し、前記実空間平面における特定座標について、「前記撮影装置と前記基準体との間の距離L」と、「前記撮影装置と前記基準体を結ぶ線と前記実空間平面との角度θ1」とを求め、前記距離L及び前記角度θ1を第2記憶装置に記憶し、
    前記第2記憶装置に記憶されている前記距離L及び前記角度θ1に基づいて、前記特定座標について、前記基準体と、前記撮影装置から前記平面への垂線との間の距離を表す第1の値を求め、前記第1の値を第3記憶装置に記憶し、
    前記第2記憶装置に記憶されている「前記撮影装置と前記基準体とを結ぶ線と前記撮影装置の光軸との間の角度θ2」と、「前記撮影装置の画角θ3」と、前記距離Lと、前記角度θ1とに基づいて、前記特定座標について、前記撮影装置の前記基準体側の画角線と前記実空間平面との交点と、前記撮影装置から前記実空間平面への垂線との間の距離を表す第2の値を求め、前記第2の値を前記第3記憶装置に記憶し、
    前記第2記憶装置に記憶されている前記撮影画像における特定の位置データに基づいて、前記特定座標について、前記撮影画像における特定の位置に対応する前記実空間平面の位置と、前記撮影装置の前記基準体側の画角線と前記実空間平面との交点との間の距離を表す値RRを求め、前記値RRを前記第3記憶装置に記憶し、
    前記第3記憶装置に記憶されている前記第1の値と、前記第2の値と、前記値RRとに基づいて、前記撮影画像における特定の位置を、前記特定座標における位置に変換した実空間位置データを求め、前記実空間位置データを第4記憶装置に記憶する
    ことを特徴とする位置データ変換方法。
  8. 第1記憶装置に記憶されている投影画像データの示す投影画像が投影装置によって投影される実空間平面に設置されている基準体を認識し、前記実空間平面における特定座標について、「前記投影装置と前記基準体との間の距離L」と、「前記投影装置と前記基準体を結ぶ線と前記実空間平面との角度θ1」とを求め、前記距離L及び前記角度θ1を第2記憶装置に記憶し、
    前記第2記憶装置に記憶されている前記距離L及び前記角度θ1に基づいて、前記特定座標について、前記基準体と、前記投影装置から前記平面への垂線との間の距離を表す第1の値を求め、前記第1の値を第3記憶装置に記憶し、
    前記第2記憶装置に記憶されている「前記投影装置と前記基準体とを結ぶ線と前記投影装置の光軸との間の角度θ2」と、「前記投影装置の画角θ3」と、前記距離Lと、前記角度θ1とに基づいて、前記特定座標について、前記投影装置の前記基準体側の画角線と前記実空間平面との交点と、前記投影装置から前記実空間平面への垂線との間の距離を表す第2の値を求め、前記第2の値を前記第3記憶装置に記憶し、
    前記第3記憶装置に記憶されている前記第1の値と、前記第2の値と、前記特定座標における特定の位置とに基づいて、前記特定座標について、前記特定座標における特定の位置と、前記投影装置の前記基準体側の画角線と前記実空間平面との交点との間の距離を表す値RRを求め、前記値RRを前記第3記憶装置に記憶し、
    前記特定座標について、前記投影装置の前記基準体側の画角線と前記実空間平面との交点から、前記第3記憶装置に記憶されている前記値RRの距離だけ離れた前記実空間平面の位置に対応する前記投影画像における位置を表す投影画像位置データを求め、前記投影画像位置データを第4記憶装置に記憶する
    ことを特徴とする位置データ変換方法。
JP2006122512A 2006-04-26 2006-04-26 位置データ変換装置及び位置データ変換方法 Expired - Fee Related JP4594272B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006122512A JP4594272B2 (ja) 2006-04-26 2006-04-26 位置データ変換装置及び位置データ変換方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006122512A JP4594272B2 (ja) 2006-04-26 2006-04-26 位置データ変換装置及び位置データ変換方法

Publications (2)

Publication Number Publication Date
JP2007293717A true JP2007293717A (ja) 2007-11-08
JP4594272B2 JP4594272B2 (ja) 2010-12-08

Family

ID=38764277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006122512A Expired - Fee Related JP4594272B2 (ja) 2006-04-26 2006-04-26 位置データ変換装置及び位置データ変換方法

Country Status (1)

Country Link
JP (1) JP4594272B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010140207A (ja) * 2008-12-11 2010-06-24 Fuji Xerox Co Ltd 指示システム、指示装置及び指示プログラム
JP2011118713A (ja) * 2009-12-04 2011-06-16 Fujitsu Ltd 投光制御プログラム、投光制御装置および投光制御方法
WO2015034130A1 (ko) * 2013-09-03 2015-03-12 재단법인 실감교류인체감응솔루션연구단 원격 존재 장치
US10092831B2 (en) 2016-02-19 2018-10-09 Koei Tecmo Games Co., Ltd. Game system, game device and data processing apparatus

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0418613A (ja) * 1990-02-19 1992-01-22 Dentsu Purotsukusu:Kk 自動追尾投影装置
JPH0798208A (ja) * 1993-09-29 1995-04-11 Nippondenso Co Ltd 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
JPH10149435A (ja) * 1996-11-19 1998-06-02 Kunikatsu Takase 環境認識システム並びに該システムに用いるマーク
JPH10221074A (ja) * 1997-01-31 1998-08-21 Nippon Steel Corp 三次元座標測定方法
JP2000352761A (ja) * 1999-06-10 2000-12-19 Sony Corp 映像投射装置及び方法並びに映像投射制御装置
JP2001282456A (ja) * 2000-04-03 2001-10-12 Japan Science & Technology Corp マンマシーン・インターフェース・システム
JP2003131319A (ja) * 2001-10-25 2003-05-09 Seiko Epson Corp 光送受装置
JP2003177017A (ja) * 2001-10-03 2003-06-27 Mamoru Otsuki 写真測量方法および写真測量プログラム
JP2003270719A (ja) * 2002-03-13 2003-09-25 Osaka Industrial Promotion Organization 投影方法、投影装置、作業支援方法及び作業支援システム
JP2004151435A (ja) * 2002-10-31 2004-05-27 Nippon Telegr & Teleph Corp <Ntt> プロジェクション制御方法,プロジェクション制御装置,プロジェクションシステム,プロジェクション制御プログラムおよびプロジェクション制御プログラムを記録した記録媒体
JP2005322055A (ja) * 2004-05-10 2005-11-17 Nippon Telegr & Teleph Corp <Ntt> 作業支援用情報提示装置、作業支援用情報提示方法及び作業支援用情報を提示するためのプログラム
JP2005323310A (ja) * 2004-05-11 2005-11-17 Nippon Telegr & Teleph Corp <Ntt> 視野共有装置、視野移動量入力装置、画像表示装置、撮影範囲投影方法、視野移動量入力装置の制御方法、画像表示装置の制御方法、視野共有装置のプログラム、視野移動量入力装置のプログラム及び画像表示装置のプログラム

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0418613A (ja) * 1990-02-19 1992-01-22 Dentsu Purotsukusu:Kk 自動追尾投影装置
JPH0798208A (ja) * 1993-09-29 1995-04-11 Nippondenso Co Ltd 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
JPH10149435A (ja) * 1996-11-19 1998-06-02 Kunikatsu Takase 環境認識システム並びに該システムに用いるマーク
JPH10221074A (ja) * 1997-01-31 1998-08-21 Nippon Steel Corp 三次元座標測定方法
JP2000352761A (ja) * 1999-06-10 2000-12-19 Sony Corp 映像投射装置及び方法並びに映像投射制御装置
JP2001282456A (ja) * 2000-04-03 2001-10-12 Japan Science & Technology Corp マンマシーン・インターフェース・システム
JP2003177017A (ja) * 2001-10-03 2003-06-27 Mamoru Otsuki 写真測量方法および写真測量プログラム
JP2003131319A (ja) * 2001-10-25 2003-05-09 Seiko Epson Corp 光送受装置
JP2003270719A (ja) * 2002-03-13 2003-09-25 Osaka Industrial Promotion Organization 投影方法、投影装置、作業支援方法及び作業支援システム
JP2004151435A (ja) * 2002-10-31 2004-05-27 Nippon Telegr & Teleph Corp <Ntt> プロジェクション制御方法,プロジェクション制御装置,プロジェクションシステム,プロジェクション制御プログラムおよびプロジェクション制御プログラムを記録した記録媒体
JP2005322055A (ja) * 2004-05-10 2005-11-17 Nippon Telegr & Teleph Corp <Ntt> 作業支援用情報提示装置、作業支援用情報提示方法及び作業支援用情報を提示するためのプログラム
JP2005323310A (ja) * 2004-05-11 2005-11-17 Nippon Telegr & Teleph Corp <Ntt> 視野共有装置、視野移動量入力装置、画像表示装置、撮影範囲投影方法、視野移動量入力装置の制御方法、画像表示装置の制御方法、視野共有装置のプログラム、視野移動量入力装置のプログラム及び画像表示装置のプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010140207A (ja) * 2008-12-11 2010-06-24 Fuji Xerox Co Ltd 指示システム、指示装置及び指示プログラム
JP2011118713A (ja) * 2009-12-04 2011-06-16 Fujitsu Ltd 投光制御プログラム、投光制御装置および投光制御方法
WO2015034130A1 (ko) * 2013-09-03 2015-03-12 재단법인 실감교류인체감응솔루션연구단 원격 존재 장치
US9332219B2 (en) 2013-09-03 2016-05-03 Center Of Human-Centered Interaction For Coexistence Telepresence device
US10092831B2 (en) 2016-02-19 2018-10-09 Koei Tecmo Games Co., Ltd. Game system, game device and data processing apparatus

Also Published As

Publication number Publication date
JP4594272B2 (ja) 2010-12-08

Similar Documents

Publication Publication Date Title
US10854013B2 (en) Systems and methods for presenting building information
US11526992B2 (en) Imagery-based construction progress tracking
WO2011010533A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP6071746B2 (ja) 情報提供装置及び情報提供システム
JP2019153274A (ja) 位置算出装置、位置算出プログラム、位置算出方法、及びコンテンツ付加システム
CN110915201B (zh) 图像显示系统以及方法
KR101286866B1 (ko) Ar 태그 정보를 생성하는 사용자 단말기 및 그 방법, 그리고, 시스템
JP6236101B2 (ja) インフラ設備の管理システムとその方法ならびにその表示システム、それに用いられるサーバ、端末装置およびプログラム
WO2020202163A1 (en) Determining position of an image capture device
JP4594272B2 (ja) 位置データ変換装置及び位置データ変換方法
US11395102B2 (en) Field cooperation system and management device
JP5514038B2 (ja) ストリートビュー自動出力装置、地図自動出力装置、ストリートビュー自動出力方法、地図自動出力方法、およびプログラム
US11210864B2 (en) Solution for generating virtual reality representation
JP2013142956A (ja) 撮影対象検索システム
KR102512560B1 (ko) 3d 투어 비교 표시 시스템 및 방법
JP6208977B2 (ja) 情報処理装置、通信端末およびデータ取得方法
JP4167509B2 (ja) 測量システム
JP2020204973A (ja) 情報処理装置、プログラム及び情報処理システム
JP6719315B2 (ja) 鉄道の支障範囲可視化システム
JP2015069444A (ja) 映像出力装置、映像出力方法、及びプログラム
WO2023224036A1 (ja) 情報処理方法、情報処理装置、及び情報処理プログラム
US20230221120A1 (en) A system and method for remote inspection of a space
JP2012244311A (ja) カメラ遠隔制御装置およびカメラ遠隔制御方法
JP4709102B2 (ja) 画像管理システム、画像管理方法、プログラム
JP2006065517A (ja) 実空間情報付加装置、方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100914

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100916

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130924

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees