JP5937745B1 - 画像表示装置、画像表示方法及びプログラム - Google Patents

画像表示装置、画像表示方法及びプログラム Download PDF

Info

Publication number
JP5937745B1
JP5937745B1 JP2015242444A JP2015242444A JP5937745B1 JP 5937745 B1 JP5937745 B1 JP 5937745B1 JP 2015242444 A JP2015242444 A JP 2015242444A JP 2015242444 A JP2015242444 A JP 2015242444A JP 5937745 B1 JP5937745 B1 JP 5937745B1
Authority
JP
Japan
Prior art keywords
image
unit
viewpoint information
viewpoint
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015242444A
Other languages
English (en)
Other versions
JP2017107500A (ja
Inventor
智也 石川
智也 石川
大介 大鐘
大介 大鐘
小島 昌樹
昌樹 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SITESENSING, INC.
Original Assignee
SITESENSING, INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SITESENSING, INC. filed Critical SITESENSING, INC.
Priority to JP2015242444A priority Critical patent/JP5937745B1/ja
Application granted granted Critical
Publication of JP5937745B1 publication Critical patent/JP5937745B1/ja
Publication of JP2017107500A publication Critical patent/JP2017107500A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】3次元モデル画像を2次元化して印刷した紙面に記入した情報を容易に元の3次元モデル画像に反映して画像表示することができる画像表示装置等を提供する。【解決手段】画像表示装置100の制御部1が特定の視点における3次元モデル画像を線画化し、視点情報をコード化した視点情報コードとともに同一紙面に印刷する。印刷した紙面に対し、ユーザが色ペンで記入した画像を読取り、選択色領域・選択線分の抽出処理を行う。抽出した選択色領域と選択線分を、3次元モデル画像の可視平面とマッチングし、合致した場合には、可視平面を選択色領域として、可視エッジを選択線分として識別表示し、面積・長さを求める。【選択図】図2

Description

本発明は、3次元モデル画像を表示する画像表示装置、画像表示方法及びプログラムに関する。
近年、建築物等の構造物を3次元モデル画像で表示する画像表示装置が様々な用途で用いられている。3次元モデル画像を2次元化して印刷した紙面に元の3次元画像の情報を含めておき、その紙面をスキャナで読み取って、元の3次元モデル画像を取得する装置が提案されている(例えば、特許文献1)。
特許文献1に記載の印刷制御装置は、3次元画像を平面に投影した2次元画像を紙面に印刷したとき、画像とともに、3次元画像データの所在を示すアドレス情報を画像化して同一紙面に埋め込む。その画像をスキャナで読み取る際、埋め込まれた画像からアドレス情報を取得し、当該アドレス情報に基づいて3次元データを取得し、3次元画像印刷手段により印刷する。この装置により、紙面に印刷した2次元画像から当該画像の3次元画像を取得して再利用できると説明している。
特開2006−41624号公報
建築物についての交渉等の場面では、紙面を用い、紙面に情報を記入する場合がある。そういった場面では、3次元モデル画像を2次元化して印刷した紙面を利用する。印刷した紙面に記入した情報を3次元モデル画像に反映するには、操作者が手作業で入力する必要があった。
また、建築物を3次元モデル画像で表した場合、構造が複雑であるため、視点位置や焦点距離によって、2次元化したときの2次元画像は大きく異なる。特許文献1に記載の方法で、3次元モデル画像を取得することができても、3次元モデル画像のどの部分を示しているのか把握が困難であり、紙面に記入した情報を反映するのに多くの時間を要し、また、誤った情報を入力してしまう虞があった。
本発明は、上記実情に鑑みてなされたものであり、3次元モデル画像を2次元化して印刷した紙面に記入した情報を容易に元の3次元モデル画像に反映して画像表示することのできる画像表示装置等を提供することを目的とする。
上記目的を達成するため、本発明の第1の観点に係る画像表示装置は、
構造物の3次元モデル画像を表示する表示部と、
前記3次元モデル画像の視点情報を取得する視点情報取得部と、
前記視点情報取得部が取得した前記視点情報が示す視点における3次元モデル画像を2次元画像に変換する2次元画像変換部と、
前記視点情報取得部が取得した視点情報をコード化した視点情報コードを作成する視点情報コード化部と、
前記2次元画像変換部が変換した前記2次元画像と前記視点情報コード化部が作成した視点情報コードとを同一の紙面で印刷する印刷処理部と、
前記印刷処理部が印刷した紙面の前記2次元画像への書き込みと、前記視点情報コードと、を読み取る画像読取部と、
前記画像読取部で読み取った前記書き込みの情報と、前記3次元モデル画像とが対応する箇所を、前記視点情報コードを用いて判別して、前記書き込みの情報を前記3次元モデル画像に含めて表示する表示制御部と、
を備えることを特徴とする。
前記画像読取部で読み取った前記書き込みの情報は、特定の色を付されたものであり、
前記画像読取部が読み取った前記書き込みの情報から選択した色領域又は線分を含む選択箇所を抽出する選択箇所抽出部と、
前記3次元モデル画像の、前記視点情報が示す視点において視認可能な箇所を示す可視箇所を抽出する可視箇所抽出部と、
前記選択箇所抽出部が抽出する選択箇所と、前記可視箇所抽出部が抽出する可視箇所と、が一致する箇所を判別するマッチング部と、を更に備え、
前記表示制御部は、前記一致する箇所に前記選択箇所抽出部が抽出した選択箇所の情報を含めて表示してもよい。
前記可視箇所抽出部は、前記3次元モデル画像の前記視点情報が示す視点において視認可能な平面である可視平面を抽出し、
前記マッチング部は、一致すると判別された箇所の前記可視平面の面積又は長さを計算して出力してもよい。
前記選択箇所抽出部は、予め定めた大きさ以上の選択箇所を抽出するようにしてもよい。
前記マッチング部は、前記可視箇所のエッジと、前記選択箇所のエッジと、に交差する複数の直線上における、前記可視箇所のエッジと前記選択箇所のエッジとの距離の和が予め定めた値以下であるときに、一致すると判別してもよい。
前記視点情報は、視点の座標、視線方向、焦点距離、及び、視界画像の大きさの少なくとも1つを含んでもよい。
前記2次元画像変換部が変換する前記2次元画像は、前記3次元モデル画像のエッジを含む線画であってもよい。
前記2次元画像変換部は、前記視点情報が示す視点における3次元モデル画像において、前記視点と前記3次元モデル画像の間に仮想した視界画像面に対して、前記3次元モデル画像中の視認可能なエッジ、及び、前記3次元モデル画像に示されたテクスチャから抽出したエッジを投影して前記線画に変換してもよい。
前記印刷処理部は、前記視点情報コードと前記2次元画像とともに、色校正用枠を印刷し、
前記画像読取部は、前記色校正用枠に書き込まれた色を元に、色の範囲を特定し、特定された範囲の色で書き込まれた前記2次元画像への書き込みを読み取ってもよい。
前記視点情報コード化部は、マトリックス型の2次元コードである前記視点情報コードを作成してもよい。
また、本発明の第2の観点に係る画像表示方法は、
構造物の3次元モデル画像を表示する表示ステップと、
前記3次元モデル画像の視点情報を取得する視点情報取得ステップと、
前記視点情報取得ステップで取得した前記視点情報が示す視点における3次元モデル画像を2次元画像に変換する2次元画像変換ステップと、
前記視点情報取得ステップ取得した視点情報をコード化した視点情報コードを作成する視点情報コード化ステップと、
前記2次元画像変換ステップで変換した前記2次元画像と前記視点情報コード化ステップで作成した視点情報コードとを同一の紙面で印刷する印刷処理ステップと、
前記印刷処理ステップで印刷した紙面の前記2次元画像への書き込みと、前記視点情報コードと、を読み取る画像読取ステップと、
前記画像読取ステップで読み取った前記書き込みの情報と、前記3次元モデル画像とが対応する箇所を、前記視点情報コードを用いて判別して、前記書き込みの情報を前記3次元モデル画像に含めて表示する表示制御ステップと、
を有することを特徴とする。
また、本発明の第3の観点に係るプログラムは、
コンピュータを、
構造物の3次元モデル画像を表示する表示部、
前記3次元モデル画像の視点情報を取得する視点情報取得部、
前記視点情報取得部が取得した前記視点情報が示す視点における3次元モデル画像を2次元画像に変換する2次元画像変換部、
前記視点情報取得部が取得した視点情報をコード化した視点情報コードを作成する視点情報コード化部、
前記2次元画像変換部が変換した前記2次元画像と前記視点情報コード化部が作成した視点情報コードとを同一の紙面で印刷する印刷処理部、
前記印刷処理部が印刷した紙面の前記2次元画像への書き込みと、前記視点情報コードと、を読み取る画像読取部、
前記画像読取部で読み取った前記書き込みの情報と、前記3次元モデル画像とが対応する箇所を、前記視点情報コードを用いて判別して、前記書き込みの情報を前記3次元モデル画像に含めて表示する表示制御部、
として機能させることを特徴とする。
本発明によれば、3次元モデル画像を2次元化して印刷した紙面に記入した情報を容易に元の3次元モデル画像に反映して画像表示することが可能になる。
本発明の実施形態1に係る画像表示装置のハードウェア構成を示すブロック図である。 画像表示装置の機能構成を示す機能ブロック図である。 3次元モデル画像の表示例を示す図である。 他の視点の3次元モデル画像の表示例を示す図である。 3次元モデル画像を変換した線画を示す図である。 線画の印刷紙面を示す図である。 印刷紙面に色ペンで記入した状態を示す図である。 紙面情報反映処理のフローチャートを示す図である。 3次元モデル画像の線画化処理のフローチャートを示す図である。 3次元モデル画像のエッジ検出を説明するための図である。 3次元モデル画像のテクスチャのエッジ検出を説明するための図である。 選択色領域・選択線分を抽出する方法を説明するための図である。 選択色領域・選択線分を抽出する処理のフローチャートを示す図である。 選択色領域・選択線分と可視平面のマッチング処理のフローチャートを示す図である。 選択色領域・選択線分と可視平面をマッチングする方法を説明するための図である。
(実施形態)
本発明の実施形態について図面を参照して詳細に説明する。本実施形態では、3次元構造物が建築物であり、建築物の外観及び内観の3次元データからなる3次元モデル画像を用いる場合について説明する。
画像表示装置100は、3次元モデル画像を表示する表示プログラム及び紙面情報反映処理のプログラムがインストールされたパソコン、サーバ、スマートフォン、タブレット型端末等の任意の情報処理端末から構成される。
本実施形態に係る画像表示装置100は、3次元モデル画像を表示すると共に3次元モデル画像を2次元の線画に変換した紙面に書き込まれた情報を3次元モデル画像に反映する機能を有する情報処理装置である。図1に示すように、画像表示装置100は、制御部1と、記憶部2と、入力部3と、表示部4と、通信部5と、バス6と、を備える。
制御部1は、ROM(Read Only Memory)と、RAM(Random Access Memory)と、CPU(Central Processing Unit)と、を備える。ROMは、各種初期設定、ハードウェアの検査、プログラムのロード等を行うための初期プログラム等を記憶する。RAMは、CPUが実行する各種ソフトウェアプログラム、これらのソフトウェアプログラムの実行に必要なデータ等を一時的に記憶するワークエリアとして機能する。CPUは、様々な処理及び演算を実行する中央演算処理部である。
記憶部2は、例えばハードディスクドライブ又はフラッシュメモリ等のような不揮発性メモリを備える。記憶部2は、建築物の3次元データを3次元モデルで表示するための画像処理プログラム、及び、本実施形態に係る紙面情報反映処理プログラム等の各種プログラムを記憶する。
入力部3は、画面上の位置を指定するポインティングデバイス、及び、文字及び数字を入力する文字入力デバイスからなり、入力部3に対するユーザの操作に基づく操作信号を制御部1に出力する。入力部3をタッチパネルで構成し、タッチ操作により、画面上の位置を指定し、文字及び数字を入力するようにしてもよい。
表示部4は、例えば、液晶ディスプレイ又は有機EL(Electro Luminescence)ディスプレイ等のような表示デバイスを備える。表示部4は、制御部1から画像信号等を取得して表示デバイスの画面に出力する。
通信部5は、任意の通信方式で外部機器とデータ信号を送受信する。通信方式は、有線でも無線でもよい。通信部5は、印刷機及びスキャナ又はカメラとデータの送受信を行う。
バス6は、制御部1と、記憶部2と、入力部3と、表示部4と、通信部5を接続する。
画像表示装置100の制御部1は、記憶部2に記憶している紙面情報反映処理プログラムを実行することにより、図2に示すように、操作入力取得部101、視点情報取得部102、3次元データ取得部103、表示制御部104、線画変換部105、視点情報コード化部106、印刷処理部107、画像読取部108、視点情報復元部109、選択色領域・選択線分抽出部110、可視平面抽出部111、マッチング部112として機能する。
操作入力取得部101は、入力部3よりユーザの操作入力を取得する。操作入力取得部101は、表示部4に表示されている3次元モデル画像に対して、視点情報に係る操作信号を取得し、視点情報取得部102に出力する。また、視点情報に係る操作以外の3次元モデル画像の移動、表示切替等の表示を操作する操作信号を取得し、表示制御部104に出力する。
視点情報取得部102は、操作入力取得部101から入力される視点情報に係る操作信号を取得し、3次元モデル画像を表示する際の視点等を決定し、表示制御部104に出力する。視点情報は、視点の座標、視線方向、焦点距離、及び、視界画像の大きさの情報を含む。視点情報に係る操作信号は、例えば、視点決定モードに設定した状態で、ユーザがカーソルを動かす操作をした場合に、視点情報取得部102は、操作入力取得部101から当該操作に基づく操作信号を取得し、カーソルの位置に応じた視点の座標、視線方向を決定し、表示制御部104に視点情報を出力する。
3次元データ取得部103は、記憶部2に記憶されている3次元モデル画像の3次元データを取得し、表示制御部104に出力する。3次元データ取得部103が取得する3次元データは、3次元モデル画像で表された建築物の表面の3次元座標と、当該座標における色情報を含む。
表示制御部104は、操作入力取得部101、視点情報取得部102、3次元データ取得部103、マッチング部112から入力される各種情報に基づいて、表示部4に3次元モデル画像、印刷画面及びマッチング結果等を表示させる表示制御信号を生成し、表示部4に出力する。
表示制御部104が出力する表示制御信号に基づいて表示部4に表示された3次元モデル画像は、図3に示すような画像である。本実施形態においては、マンションの3次元モデル画像200の場合について説明する。図3の3次元モデル画像200の中央から紙面に垂直手前方向に延びた直線上に視点がある。また、視線方向は、視点から3次元モデル画像200の中心に延びている。
表示部4にはカーソル210も表示されており、ユーザが入力部3のポインティングデバイスを操作することによりカーソル210を任意の方向に移動させることができ、このカーソル210の移動方向に応じて、視点位置が変更され、3次元モデル画像200は回転する。また、特定のキー入力と同時にカーソル210を移動させることにより視線方向を変えるようにしてもよい。
表示部4に表示される3次元モデル画像200は、ユーザが入力部3を操作することにより、ズームイン又はズームアウトすることができる。つまり、視点位置が建築物の表面に向かって近づき又は遠ざかる。例えば、入力部3がマウスホイールを備えたマウスの場合には、マウスホイールを回転させることでズームイン又はズームアウトすることができる。また、入力部3がタッチパネルの場合はピンチインすることでズームアウトし、ピンチアウトすることでズームインすることができる。
焦点距離は、3次元モデル画像200の表面の表示したいところが適切に表示されるように決定する。また、視界画像の大きさは、視点位置と3次元モデル画像200を表示するウィンドウの大きさ等に基づいて決定する。
図3に示したマンションの3次元モデル画像200に対して、視点情報に係る操作をすることにより、図4に示すような建物の特定の面を正面に向けた3次元モデル画像220を表示させることができる。
線画変換部105は、表示制御部104が表示している3次元モデル画像220を、視点情報取得部102から取得した視点情報を用いて、図5に示すような、2次元平面に線を引いて表した線画221に変換して出力する。
視点情報コード化部106は、視点情報取得部102から取得した視点情報をコード化して、視点情報コード222を作成する。コード化方法は任意の方法で良いが、情報密度の高い方法が望ましい。例えばマトリックス型の2次元コードであるQRコード(登録商標)を用いる。
印刷処理部107は、図6に示すような、線画変換部105が変換した線画221と、視点情報コード化部106が作成した視点情報コード222とを一枚の紙面230に配置した印刷ページを生成する。生成した印刷ページを含む印刷情報を、通信部5を介して外部の印刷機に送信する処理を実行する。
印刷された紙面230に対して、ユーザはまず紙面230の隅に設けた色校正用枠231の中を、書き込みに用いる色ペンで塗る。そして、線画221のうち、選択する領域の外周又は線分を当該色ペンでなぞる。図7の例では、バルコニーの外壁を選択色領域223として選択するため、外壁の周りを色ペンでなぞっている状態を示している。
画像読取部108は、通信部5を介して接続されたスキャナやカメラを用いて、色ペンで書き込んだ紙面230の画像を読み取る。
視点情報復元部109は、画像読取部108が読み取った画像から、視点情報コード222を抽出し、視点情報コード222から視点情報を復元して、視点情報取得部102に出力する。
選択色領域・選択線分抽出部110は、画像読取部108から読み取った画像から、色ペンで塗られている領域を抽出し、ユーザが色ペンで書き込むことにより選択した色領域及び線分を抽出する。
可視平面抽出部111は、表示制御部104から、現在表示部4に表示されている3次元モデル画像220のうち、視認することができる可視平面を抽出する。
マッチング部112は、選択色領域・選択線分抽出部110で抽出した色領域又は線分と、可視平面抽出部111で抽出した可視平面をマッチングする。そして、互いに対応づけられた場合は、当該対応づけられた部分の色を変える等、書き込みが行われた部分であることを示す識別表示を含めた3次元モデル画像220を表示させる。
以上のように構成された画像表示装置100の動作について、図8に示すフローチャートに沿って説明する。
まず、制御部1の3次元データ取得部103が記憶部2から建築物の3次元データを取得し、取得した3次元データに基づいて表示制御部104が3次元モデル画像200を表示部4に表示させる(ステップS11)。このときの3次元モデル画像200の視点は予め定めた位置である。
その後、入力部3に対して、ユーザによる視点情報を変える操作があった場合には、視点情報取得部102が視点情報を取得し(ステップS12)、表示制御部104に出力する。そして、ユーザの操作に基づいて選択した視点から外観した3次元モデル画像220を表示する。本実施形態においては、視点位置、視線方向を選択し、焦点距離、視界画像の大きさを最適化することにより、図4に示すような特定の面を正面に向けた3次元モデル画像220を表示させる。
その後、線画変換部105が表示部4に表示している3次元モデル画像220の線画化処理を行い、図5に示すような線画221を作成する(ステップS13)。線画化処理は、例えば、図9に示す処理を実行する。
まず、現在表示部4に表示している3次元モデル画像200において視認できるエッジである可視エッジを、視点と3次元モデル画像200の間に仮想した視界画像面224に投影する(ステップS131)。例えば、図10に示すように、3次元モデル画像200と視点225の間に仮想した視界画像面224にマンションの屋上の2点間の直線が視界画像面224に投影される。
このような3次元モデル画像200の各点の3次元座標(X,Y,Z)から視界画像面224への投影で得られる2次元画像の各点の2次元座標(x,y)は、以下の式(1)で表される射影変換により求めることができる。
ここで、[Rt]は、視点位置・視線方向を表した3×4の行列であり、[m]は、焦点距離や画像の中心を表した3×3の行列である。
次に、現在表示部4に表示されている3次元モデル中、3次元形状を有さない2次元の画像からなるテクスチャについて、エッジ検出を行う(ステップS132)。例えば、図11(a)に示すように窓の部分は、平面に2次元画像を表示させている。窓部分のテクスチャに対してエッジ検出する。そして、テクスチャを図11(b)のようなエッジ検出画像に変換する(ステップS133)。変換して得られたエッジ検出画像を視界画像面224に投影する(ステップS134)。このようにして図5に示すような線画221を得ることができる。
図8のステップS13で線画化処理が終わると、視点情報コード化部106は、視点情報取得部102から取得した視点情報をコード化する(ステップS14)。視点情報に含まれる視点位置、視線方向、焦点距離、及び、視界画像の大きさを例えばQRコード(登録商標)に変換する。
ステップS13で取得した線画221とステップS14でコード化した視点情報コード222を1枚の紙面230に配置した、図6に示すような印刷ページを生成する。生成した印刷ページを含む印刷情報を、通信部5を介して外部の印刷機に送信して印刷を実行する(ステップS15)。
ステップS15で印刷した紙面に対して、ユーザは、まず色校正用枠231を色ペンで塗る。また、ユーザは、その色ペンを用いて、3次元モデル画像の線画221上で選択する領域の外周又は線分をなぞる。
画像読取部108は、ユーザが線画221に色ペンで記入した紙面230を、通信部5を介して接続されたカメラ又はスキャナで読み取る(ステップS16)。そして視点情報復元部109は、紙面230に含まれている視点情報コード222を読み取って復元し(ステップS17)、復元した視点情報を視点情報取得部102に出力する。
次に選択色領域・選択線分抽出部110が、色校正用枠231内の色の平均Pave及び標準偏差σを取得する。例えば、横軸を輝度とし、縦軸を頻度とすると、色ペンで塗られた部分は、図12(a)に示すような分布となり、この分布より、色ペンの色の平均Pave及び標準偏差σを求めることができる(ステップS18)。
ステップS18で求めた平均及び標準偏差を用いて、ユーザが色ペンでなぞって選択した選択色領域及び線分を抽出する(ステップS19)。選択色領域・選択線分の抽出方法は、例えば、図13に示す処理を実行する。
まず、色ペンの色の標準偏差σに対して、2σ以内の範囲内の色であって選択色と判別できる画像を線画221から抽出する(ステップS191)。抽出した画像は互いを識別できる番号でラベリングを行う(ステップS192)。
ラベリングをした画像のうち、予め定めた大きさ以下の画像をノイズとして除去する(ステップS193)。残った画像について細線化し、輪郭を抽出する(ステップS194)。その後、細線化した画像の長手方向の長さに対して、長手方向に直交する方向の長さが予め定めた値より小さい場合には、画像は線分であると判定する(ステップS195)。
選択色領域・選択線分の抽出処理について例示すると、まず、図12(b)に示すように、4つの画像を抽出し(ステップS191)、それらを図12(c)に示すように、1〜4の番号を振る(ステップS192)。そして、図12(d)に示すようにラベル1、4の画像は予め定めた大きさ以下であるため、ノイズとして除去する(ステップS193)。その後、、図12(e)に示すようにラベル2、3の画像を細線化処理する(ステップS194)。ラベル2、3の画像は、長手方向に直交する方向の長さが予め定めた値より大きいため、画像は線分ではなく選択色領域であると判定する(ステップS195)。
図8のステップS19の後、可視平面抽出部111は、3次元モデル画像220から、視認できる可視平面を抽出する(ステップS20)。図4に示す3次元モデル画像220の場合は、例えば、バルコニーの外壁が視認できる平面として抽出される。
ステップS19で抽出した選択色領域・選択線分と、ステップS20で抽出した可視平面とについてマッチング処理を行う(ステップS21)。選択色領域・選択線分と可視平面とのマッチング処理は、例えば、図14に示す処理を実行する。
まず、図15(a)に示すような3次元モデル画像220について、可視平面のエッジである可視エッジを視界画像面224に投影する(ステップS211)。視界画像面224上には選択色領域も投影されており、選択色領域と可視エッジを重ね合わせる。
そして、図15(b)に示すように、可視エッジに直交する複数の線を等間隔で引き、各線上で可視エッジと選択色領域の枠線との距離を計算し、それらの和を求める(ステップS212)。この和が予め定めた値より小さい場合は、対応する可視平面を選択色領域として検出する(ステップS213)。
同様に可視エッジに直交する複数の線を等間隔で引き、各線上で可視エッジと選択線分との距離を計算し、それらの和が予め定めた値より小さい場合は、対応する可視エッジが選択線分であるとして検出する(ステップS214)。なお、ステップS213、S214で用いる複数の線は可視エッジ及び選択色領域の枠線又は選択線分に直交するとしたが、所定の角度で交差する直線であれば、直交には限られない。
図8のステップS21でマッチングした結果、マッチング部112は、3次元モデル画像220の中で選択色領域、選択線分として検出した部分を図15(c)のように識別表示する。つまり、印刷した紙面230に対する書き込みの情報が3次元モデル画像220に含めて表示される。そして、当該領域の面積又は当該線分の長さを計算し、出力する(ステップS22)。
このように、図8に示す紙面情報反映処理により、紙面230への書き込み情報を3次元モデル画像に反映させることとなる。
以上説明したように、本実施形態においては、画像表示装置100の制御部1が特定の視点における3次元モデル画像220を線画化し、視点情報をコード化した視点情報コード222とともに同一紙面230に印刷する。印刷した紙面230に対し、ユーザが色ペンで記入した画像を読取り、選択色領域・選択線分の抽出処理を行う。抽出した選択色領域と選択線分を、3次元モデル画像の可視平面とマッチングし、合致した場合には、可視平面を選択色領域として、又は、可視エッジを選択線分として識別表示し、面積・長さを求めることとした。これにより、3次元モデル画像220を線画化して印刷した紙面230に記入した情報を容易に元の3次元モデル画像220に反映して画像表示することができる。
このように本発明は、3次元モデル画像の視点情報を取得し、視点情報が示す視点における3次元モデル画像を2次元画像に変換し、視点情報をコード化した視点情報コードを作成し、変換した2次元画像と視点情報コードとを同一の紙面で印刷する。印刷した紙面の2次元画像への書き込みと、視点情報コードと、を読み取り、読み取った書き込みの情報と、3次元モデル画像とが対応する箇所を、視点情報コードを用いて判別して、書き込みの情報を3次元モデル画像に含めて表示することとした。これにより、3次元モデル画像を2次元化して印刷した紙面に記入した情報を容易に元の3次元モデル画像に反映して画像表示することが可能になる。
なお、本発明は、上記実施の形態に限定されず、本発明の要旨を逸脱しない範囲での種々の変更は勿論可能である。
例えば、3次元モデル画像を印刷する際に線画に変換するとしたが、任意の2次元画像であってもよい。例えば、線画221中のエッジ検出画像にテクスチャを挿入した2次元画像であっても良い。
また、1つの画像表示装置100が3次元モデル画像を線画化するという処理と、線画が印刷された紙面に対して、ユーザが記入した情報を読み取り、選択色領域・選択線分と、可視平面をマッチングして、可視平面を選択する処理を実行するとしたが、線画化する処理と、選択色領域等を可視平面と選択する処理と、は、異なる2以上の情報処理装置で実行するようにしてもよい。処理負担が軽減され、高効率化が図れる。
また、制御部4が実行した処理のプログラムを、既存のコンピュータ等の情報端末で実行させることにより、当該情報端末を本発明に係る画像表示装置100として機能させることも可能である。
このようなプログラムの配布方法は任意であり、例えば、CD−ROM(Compact Disc Read-Only Memory)、DVD(Digital Versatile Disc)、MO(Magneto Optical Disc)、メモリカード等のコンピュータ読み取り可能な記録媒体に格納して配布してもよいし、インターネット等の通信ネットワークを介して配布してもよい。
1…制御部
2…記憶部
3…入力部
4…表示部
5…通信部
100…画像表示装置
101…操作入力取得部
102…視点情報取得部
103…3次元データ取得部
104…表示制御部
105…線画変換部
106…視点情報コード化部
107…印刷処理部
108…画像読取部
109…視点情報復元部
110…選択色領域・選択線分抽出部
111…可視平面抽出部
112…マッチング部
200,220…3次元モデル画像
210…カーソル
221…線画
222…視線情報コード
223…選択色領域
224…視界画像面
225…視点
230…紙面
231…色校正用枠

Claims (12)

  1. 構造物の3次元モデル画像を表示する表示部と、
    前記3次元モデル画像の視点情報を取得する視点情報取得部と、
    前記視点情報取得部が取得した前記視点情報が示す視点における3次元モデル画像を2次元画像に変換する2次元画像変換部と、
    前記視点情報取得部が取得した視点情報をコード化した視点情報コードを作成する視点情報コード化部と、
    前記2次元画像変換部が変換した前記2次元画像と前記視点情報コード化部が作成した視点情報コードとを同一の紙面で印刷する印刷処理部と、
    前記印刷処理部が印刷した紙面の前記2次元画像への書き込みと、前記視点情報コードと、を読み取る画像読取部と、
    前記画像読取部で読み取った前記書き込みの情報と、前記3次元モデル画像とが対応する箇所を、前記視点情報コードを用いて判別して、前記書き込みの情報を前記3次元モデル画像に含めて表示する表示制御部と、
    を備える画像表示装置。
  2. 前記画像読取部で読み取った前記書き込みの情報は、特定の色を付されたものであり、
    前記画像読取部が読み取った前記書き込みの情報から選択した色領域又は線分を含む選択箇所を抽出する選択箇所抽出部と、
    前記3次元モデル画像の、前記視点情報が示す視点において視認可能な箇所を示す可視箇所を抽出する可視箇所抽出部と、
    前記選択箇所抽出部が抽出する選択箇所と、前記可視箇所抽出部が抽出する可視箇所と、が一致する箇所を判別するマッチング部と、を更に備え、
    前記表示制御部は、前記一致する箇所に前記選択箇所抽出部が抽出した選択箇所の情報を含めて表示する、
    請求項1に記載の画像表示装置。
  3. 前記可視箇所抽出部は、前記3次元モデル画像の前記視点情報が示す視点において視認可能な平面である可視平面を抽出し、
    前記マッチング部は、一致すると判別された箇所の前記可視平面の面積又は長さを計算して出力する、
    請求項2に記載の画像表示装置。
  4. 前記選択箇所抽出部は、予め定めた大きさ以上の選択箇所を抽出する、
    請求項2又は3に記載の画像表示装置。
  5. 前記マッチング部は、前記可視箇所のエッジと、前記選択箇所のエッジと、に交差する複数の直線上における、前記可視箇所のエッジと前記選択箇所のエッジとの距離の和が予め定めた値以下であるときに、一致すると判別する、
    請求項2乃至4のいずれか1項に記載の画像表示装置。
  6. 前記視点情報は、視点の座標、視線方向、焦点距離、及び、視界画像の大きさの少なくとも1つを含む、
    請求項1から5のいずれか1項に記載の画像表示装置。
  7. 前記2次元画像変換部が変換する前記2次元画像は、前記3次元モデル画像のエッジを含む線画である、
    請求項1から6のいずれか1項に記載の画像表示装置。
  8. 前記2次元画像変換部は、前記視点情報が示す視点における3次元モデル画像において、前記視点と前記3次元モデル画像の間に仮想した視界画像面に対して、前記3次元モデル画像中の視認可能なエッジ、及び、前記3次元モデル画像に示されたテクスチャから抽出したエッジを投影して前記線画に変換する、
    請求項7に記載の画像表示装置。
  9. 前記印刷処理部は、前記視点情報コードと前記2次元画像とともに、色校正用枠を印刷し、
    前記画像読取部は、前記色校正用枠に書き込まれた色を元に、色の範囲を特定し、特定された範囲の色で書き込まれた前記2次元画像への書き込みを読み取る、
    請求項1から8のいずれか1項に記載の画像表示装置。
  10. 前記視点情報コード化部は、マトリックス型の2次元コードである前記視点情報コードを作成する、
    請求項1から9のいずれか1項に記載の画像表示装置。
  11. 構造物の3次元モデル画像を表示する表示ステップと、
    前記3次元モデル画像の視点情報を取得する視点情報取得ステップと、
    前記視点情報取得ステップで取得した前記視点情報が示す視点における3次元モデル画像を2次元画像に変換する2次元画像変換ステップと、
    前記視点情報取得ステップ取得した視点情報をコード化した視点情報コードを作成する視点情報コード化ステップと、
    前記2次元画像変換ステップで変換した前記2次元画像と前記視点情報コード化ステップで作成した視点情報コードとを同一の紙面で印刷する印刷処理ステップと、
    前記印刷処理ステップで印刷した紙面の前記2次元画像への書き込みと、前記視点情報コードと、を読み取る画像読取ステップと、
    前記画像読取ステップで読み取った前記書き込みの情報と、前記3次元モデル画像とが対応する箇所を、前記視点情報コードを用いて判別して、前記書き込みの情報を前記3次元モデル画像に含めて表示する表示制御ステップと、
    を有する画像表示方法。
  12. コンピュータを、
    構造物の3次元モデル画像を表示する表示部、
    前記3次元モデル画像の視点情報を取得する視点情報取得部、
    前記視点情報取得部が取得した前記視点情報が示す視点における3次元モデル画像を2次元画像に変換する2次元画像変換部、
    前記視点情報取得部が取得した視点情報をコード化した視点情報コードを作成する視点情報コード化部、
    前記2次元画像変換部が変換した前記2次元画像と前記視点情報コード化部が作成した視点情報コードとを同一の紙面で印刷する印刷処理部、
    前記印刷処理部が印刷した紙面の前記2次元画像への書き込みと、前記視点情報コードと、を読み取る画像読取部、
    前記画像読取部で読み取った前記書き込みの情報と、前記3次元モデル画像とが対応する箇所を、前記視点情報コードを用いて判別して、前記書き込みの情報を前記3次元モデル画像に含めて表示する表示制御部、
    として機能させるプログラム。
JP2015242444A 2015-12-11 2015-12-11 画像表示装置、画像表示方法及びプログラム Active JP5937745B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015242444A JP5937745B1 (ja) 2015-12-11 2015-12-11 画像表示装置、画像表示方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015242444A JP5937745B1 (ja) 2015-12-11 2015-12-11 画像表示装置、画像表示方法及びプログラム

Publications (2)

Publication Number Publication Date
JP5937745B1 true JP5937745B1 (ja) 2016-06-22
JP2017107500A JP2017107500A (ja) 2017-06-15

Family

ID=56184766

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015242444A Active JP5937745B1 (ja) 2015-12-11 2015-12-11 画像表示装置、画像表示方法及びプログラム

Country Status (1)

Country Link
JP (1) JP5937745B1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007086716A (ja) * 2005-08-22 2007-04-05 Ricoh Co Ltd 画像表示システム、画像表示方法、符号化方法及び立体表示用印刷物
JP2011076382A (ja) * 2009-09-30 2011-04-14 Dainippon Printing Co Ltd データ入力支援システム、図面データ化方法及び図面データ化処理プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007086716A (ja) * 2005-08-22 2007-04-05 Ricoh Co Ltd 画像表示システム、画像表示方法、符号化方法及び立体表示用印刷物
JP2011076382A (ja) * 2009-09-30 2011-04-14 Dainippon Printing Co Ltd データ入力支援システム、図面データ化方法及び図面データ化処理プログラム

Also Published As

Publication number Publication date
JP2017107500A (ja) 2017-06-15

Similar Documents

Publication Publication Date Title
CN107484428B (zh) 用于显示对象的方法
JP6674192B2 (ja) 画像処理装置と画像処理方法
JP4032776B2 (ja) 複合現実感表示装置及び方法、記憶媒体、並びにコンピュータ・プログラム
CN108876934B (zh) 关键点标注方法、装置和系统及存储介质
CN104885098B (zh) 基于移动装置的文本检测及跟踪
US9792731B2 (en) System and method for controlling a display
TW201346216A (zh) 虛擬尺
JP6054831B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
US7756364B2 (en) Digital pen and paper system
US10950056B2 (en) Apparatus and method for generating point cloud data
JP7059054B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2015176516A (ja) 表示装置、表示制御プログラム、および表示制御方法
US10229543B2 (en) Information processing device, information superimposed image display device, non-transitory computer readable medium recorded with marker display program, non-transitory computer readable medium recorded with information superimposed image display program, marker display method, and information-superimposed image display method
KR101961758B1 (ko) 3차원 컨텐츠 제공 시스템, 방법 및 컴퓨터 판독 가능한 기록매체
JP6438995B2 (ja) 図面投影システム、図面投影方法及びプログラム
JP6640294B1 (ja) 複合現実システム、プログラム、携帯端末装置、及び方法
JP2005332177A (ja) 3次元情報処理装置、3次元情報処理方法、及び3次元情報処理プログラム
CN113129362A (zh) 一种三维坐标数据的获取方法及装置
JP2008040557A (ja) 画像表示装置、画像表示方法及び画像表示プログラム
KR101582225B1 (ko) 인터랙티브 증강현실 서비스 시스템 및 방법
JP6405539B2 (ja) 多視点画像に対するラベル情報の処理装置及びそのラベル情報の処理方法
JP5937745B1 (ja) 画像表示装置、画像表示方法及びプログラム
CN111640190A (zh) Ar效果的呈现方法、装置、电子设备及存储介质
JP7401245B2 (ja) 画像合成装置、画像合成装置の制御方法およびプログラム
JP2022128087A (ja) 計測システム及び計測プログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160512

R150 Certificate of patent or registration of utility model

Ref document number: 5937745

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250