JP2016099665A - 視点位置算出装置、画像生成装置、視点位置算出方法、画像生成方法、視点位置算出プログラム、及び、画像生成プログラム - Google Patents
視点位置算出装置、画像生成装置、視点位置算出方法、画像生成方法、視点位置算出プログラム、及び、画像生成プログラム Download PDFInfo
- Publication number
- JP2016099665A JP2016099665A JP2014233783A JP2014233783A JP2016099665A JP 2016099665 A JP2016099665 A JP 2016099665A JP 2014233783 A JP2014233783 A JP 2014233783A JP 2014233783 A JP2014233783 A JP 2014233783A JP 2016099665 A JP2016099665 A JP 2016099665A
- Authority
- JP
- Japan
- Prior art keywords
- viewpoint
- data
- measurement information
- shape data
- line segment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
【課題】3次元形状データから見易い画像を提供する視点位置算出装置、画像生成装置、視点位置算出方法、画像生成方法、視点位置算出プログラム、及び、画像生成プログラムを提供する。【解決手段】実施形態によれば、形状取得部と計測情報取得部と視点位置算出部とを含む視点位置算出装置が提供される。形状取得部は、対象物の3次元形状を表し、対象物の第1位置及び第2位置に関する情報を含む形状データを取得する。計測情報取得部は、第1位置と第2位置とを結び計測の対象となる長さに対応する線分に関する線分データを含む第1計測情報データを取得する。視点位置算出部は、形状データと第1計測情報データとに基づいて視点を算出する。視点から対象物をみたときの第1画像は、形状データと線分データとから生成され、第1位置と第2位置とを含む対象物の第1領域の像と、線分の像と、を含む。【選択図】図1
Description
本発明の実施形態は、視点位置算出装置、画像生成装置、視点位置算出方法、画像生成方法、視点位置算出プログラム、及び、画像生成プログラムに関する。
対象物の3次元形状を計測したデータを用いて、画像を生成することができる。画像を生成する際の視点を変更することで、様々な方向から対象物の形状を確認することができる。このような画像において、見易い画像を提供することが望まれる。
本発明の実施形態は、3次元形状データから見易い画像を提供する視点位置算出装置、画像生成装置、視点位置算出方法、画像生成方法、視点位置算出プログラム、及び、画像生成プログラムを提供する。
本発明の実施形態によれば、形状取得部と、計測情報取得部と、視点位置算出部と、を含む視点位置算出装置が提供される。前記形状取得部は、第1部分と第2部分とを含む対象物の3次元形状を表す形状データであって、前記第1部分の第1位置及び前記第2部分の第2位置に関する情報を含む形状データを取得する。前記計測情報取得部は、前記第1位置と前記第2位置とを結び寸法計測の対象となる長さを表す線分に関する線分データを含む第1計測情報データを取得する。前記視点位置算出部は、前記形状データと前記第1計測情報データとに基づいて、視点を算出する。前記視点から前記対象物をみたときの第1画像が生成され、前記第1画像は、前記形状データと前記線分データとから生成され、前記第1位置と前記第2位置とを含む前記対象物の第1領域の像と、前記線分の像と、を含む。
以下に、各実施の形態について図面を参照しつつ説明する。
なお、図面は模式的または概念的なものであり、各部分の厚みと幅との関係、部分間の大きさの比率などは、必ずしも現実のものと同一とは限らない。また、同じ部分を表す場合であっても、図面により互いの寸法や比率が異なって表される場合もある。
なお、本願明細書と各図において、既出の図に関して前述したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
なお、図面は模式的または概念的なものであり、各部分の厚みと幅との関係、部分間の大きさの比率などは、必ずしも現実のものと同一とは限らない。また、同じ部分を表す場合であっても、図面により互いの寸法や比率が異なって表される場合もある。
なお、本願明細書と各図において、既出の図に関して前述したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
(第1の実施形態)
図1は、第1の実施形態に係る視点位置算出装置及び画像生成装置を例示するブロック図である。
図2は、第1の実施形態に係る視点位置算出及び画像生成装置を例示するフローチャートである。
図1は、第1の実施形態に係る視点位置算出装置及び画像生成装置を例示するブロック図である。
図2は、第1の実施形態に係る視点位置算出及び画像生成装置を例示するフローチャートである。
図1に示すように、本実施形態に係る画像生成装置210は、視点位置算出装置110と、表示画像生成部4と、を含む。
視点位置算出装置110は、形状取得部1と、計測情報取得部2と、視点位置算出部3と、を含む。
視点位置算出部3は、候補視点位置算出部31と、評価用形状生成部32と、評価値算出部33と、視点位置選択部34と、を含む。
視点位置算出装置110は、形状取得部1と、計測情報取得部2と、視点位置算出部3と、を含む。
視点位置算出部3は、候補視点位置算出部31と、評価用形状生成部32と、評価値算出部33と、視点位置選択部34と、を含む。
例えば、画像生成装置210及び視点位置算出装置110に含まれる各ブロックには、CPU(Central Processing Unit)やメモリなどを含む演算装置が用いられる。また、形状取得部1及び計測情報取得部2は、有線または無線を介して外部と通信する入出力インターフェイスを含んでいてもよい。各ブロックの一部、又は全部には、LSI(Large Scale Integration)等の集積回路またはIC(Integrated Circuit)チップセットを用いることができる。各ブロックに個別の回路を用いてもよいし、一部又は全部を集積した回路を用いてもよい。各ブロック同士が一体として設けられてもよいし、一部のブロックが別に設けられてもよい。また、各ブロックのそれぞれにおいて、その一部が別に設けられてもよい。集積化には、LSIに限らず、専用回路又は汎用プロセッサを用いてもよい。
図1の各ブロックは、通信網を介して、直接的、又は間接的に、相互に通信可能な形態であってもよい。通信網は、例えば、LAN(Local Area Network、インターネット等のネットワーク(クラウド)等である。
形状取得部1は、形状データを取得する(ステップS101)。ここで、形状データは、対象物の3次元形状を表すデータである。対象物は、例えば、エレベータの昇降路内壁、エレベータかごの進行方向を制御するために取り付けられるレール、及び、レールを支えるために壁面に取り付けられるブラケット、などである。但し、実施形態において、対象物は、この例に限られない。形状データにおいて、対象物の形状は、例えば三角形の面の集合で表現されている。実施形態に係る視点位置算出装置110及び画像生成装置210は、形状データによって表現された対象物の各部分の寸法測定に用いられる。
図3(a)〜図3(c)は、寸法測定の状況を例示する模式図である。図3(a)は、形状データによって表現された対象物を例示している。この例では、対象物は、エレベータシャフト20である。
図3(b)は、形状データから生成される画像を例示している。図3(b)に表した画像は、図3(a)の形状データをレンダリングして得られた画像である。この例では、レンダリングの際に用いられる視点21は、エレベータの下方(紙面の下方)に位置している。図3(b)の画像は、視点21から、視点方向21dに沿って、エレベータシャフト20を見上げた画像に対応する。
形状データによって表現された対象物の表面上に、計測の基準となる点(計測基準点)を設定する。つまり、形状データ上の計測したい箇所に応じて、画像上の2点を選択する。例えば、第1計測基準点(第1位置P1)及び第2計測基準点(第2位置P2)が選択される。そして、それらの間の距離を算出することで、寸法を測定することができる。このとき、2つの計測基準点を端点とする線分L1が定義される。線分L1は、ディスプレイなどに表示される。これにより、設定した計測基準点によって計測される寸法を明確にすることができる。寸法測定が複数回行われる場合、計測基準点の組合せを明確にすることができる。
計測情報取得部2は、計測情報データを取得する(ステップS102)。計測情報データは、計測基準点と、各計測基準点に対応する面のIDと、線分と、の組合せに関するデータである。
視点位置算出部3は、形状データと計測情報データとに基づいて、計測基準点が定義された対象物(レール、ブラケット、壁面、または、天井)と、計測基準点と、線分と、が見えるような視点を算出する(ステップS103〜ステップS108)。
表示画像生成部4は、視点位置算出部3で算出された視点を用いて、形状データと、計測情報データ(線分データ)と、をレンダリングすることで、視点から対象物をみたときの表示画像(第1画像)を生成する(ステップS109)。表示画像は、第1位置P1及び第2位置P2を含む対象物の第1領域の像を含む。さらに、表示画像は、線分L1の像を含む。
例えば、図3(c)に表したように、表示画像生成部4は、形状データ及び線分データを、平面24(スクリーン面)に投影する。平面24は、視点21と注視点22とがなすベクトル23を法線ベクトルとする平面である。なお、レンダリング方法は上記の方法に限定するものではなく、コンピュータグラフィクス(CG)の分野で一般的な種々のレンダリング手法を適用しても良い。例えば、CGの分野では、カメラ26の制御に、Look−atベクトル及びUpベクトルが用いられる。視点21と注視点22とがなすベクトル23、および、姿勢ベクトル25、は、Look−atベクトル、および、Upベクトル、にそれぞれ対応している。これらを用いて処理が可能な種々のレンダリング方法が適用可能である。
以下、図1に表した各ブロックの詳細について説明する。
(1)形状取得部1
形状取得部1は、外部記憶や3次元距離計測装置からエレベータシャフトを表現する形状データを取得する(ステップS101)。図4は、形状データの一部及び計測情報データを例示する模式図である。図4に表したように、形状データは、三角形面41の集合で表現されており、三角形面41ごとに一意な面IDが定義されているものとする。四角形以上の多角形面、または曲面などのパラメトリック表現されている形状の場合には、三角形面による表現に変換すればよい。
(1)形状取得部1
形状取得部1は、外部記憶や3次元距離計測装置からエレベータシャフトを表現する形状データを取得する(ステップS101)。図4は、形状データの一部及び計測情報データを例示する模式図である。図4に表したように、形状データは、三角形面41の集合で表現されており、三角形面41ごとに一意な面IDが定義されているものとする。四角形以上の多角形面、または曲面などのパラメトリック表現されている形状の場合には、三角形面による表現に変換すればよい。
外部記憶としては、ハードディスクやCDなどの記憶メディアに限らず、通信網で接続されたサーバが含まれる。
3次元距離計測装置としては、レーザーレンジファインダや、ステレオカメラなどが挙げられる。ステレオカメラの場合には、画像ベースで各ピクセルの奥行を推定することで3次元点を得ることができる。これらの装置から得られるデータは3次元点であるため、得られた点群から三角形面を構成する。これには、レーザーレンジファインダのディテクタやピクセルの隣接関係を用いて面を構成する方法や、点群から面を直接推定する方法など種々の方法がある。
(2)計測情報取得部2
計測情報取得部2は、2つの計測基準点と1つの線分、およびそれぞれの計測基準点が含まれる三角形面の面IDを1つのまとまりとした計測情報データを取得する(ステップS102)。
計測情報取得部2は、2つの計測基準点と1つの線分、およびそれぞれの計測基準点が含まれる三角形面の面IDを1つのまとまりとした計測情報データを取得する(ステップS102)。
例えば、対象物は、第1位置P1に位置する第1部分Paと、第2位置P2に位置する第2部分Pbと、を含み、形状データは、対象物のうちの第1位置P1及び第2位置P2に関する情報を含む。第1位置P1と第2位置P2との間の距離を測定する場合、第1位置P1と第2位置P2とを結ぶ線分L1が定義される。すなわち、線分L1は、寸法測定の対象となる長さに対応する線分である。換言すると、第1位置P1は、計測の開始位置であり、第2位置P2は、計測の終了位置であり、線分L1は、第1位置P1から第2位置P2まで延在する線分である。
例えば、1つの計測情報データ(第1計測情報データ)は、1つの線分データを含む。図4の例では、線分データは、第1位置P1と、第2位置P2と、線分L1と、に関する情報を含む。実施形態においては、測定したい箇所に対応して、複数の計測情報データ(線分データ)を定義することができる。
(3)視点位置算出部3
(3−1)候補視点位置算出部31
候補視点位置算出部31は、形状データと計測情報データとに基づいて、最終的に用いられる視点の候補となる複数の候補視点を算出する。表示画像生成部4で最終的に用いられる視点は、ここで算出される複数の候補視点から1つを選択したものである。
(3−1)候補視点位置算出部31
候補視点位置算出部31は、形状データと計測情報データとに基づいて、最終的に用いられる視点の候補となる複数の候補視点を算出する。表示画像生成部4で最終的に用いられる視点は、ここで算出される複数の候補視点から1つを選択したものである。
候補視点位置算出部31は、候補視点の算出の際に、視点位置と、注視点位置と、その視点位置の真上の方向を決定する姿勢ベクトルと、を算出する。これらは、視点を算出する際に用いられる。フローチャートでは、ステップS103及びステップS104に対応する処理が行われる。
(ステップS103)
候補視点位置算出部31は、計測基準点が含まれる三角形面を基準に計測対象面群を求める。計測対象面群とは、計測基準点が含まれる三角形面の近傍に位置する、三角形面の面IDの集合である。1つの計測対象面群に属する複数の三角形面は、実質的に1つの平面を形成する、と見なせる。
候補視点位置算出部31は、計測基準点が含まれる三角形面を基準に計測対象面群を求める。計測対象面群とは、計測基準点が含まれる三角形面の近傍に位置する、三角形面の面IDの集合である。1つの計測対象面群に属する複数の三角形面は、実質的に1つの平面を形成する、と見なせる。
図5は、第1の実施形態に係る計測対象面群の導出を例示するフローチャートである。
図6は、第1の実施形態に係る計測対象面群の導出を例示する模式図である。
図7は、第1の実施形態に係る計測対象面群を例示する模式図である。
図5に表したように、まず、ステップS201において、計測基準点を含む三角形面の面IDをスタック1に追加する。例えば、スタック1には、複数の面IDが追加され、複数の面IDに対応する三角形面のそれぞれは、計測基準点のいずれかを含む。
図6は、第1の実施形態に係る計測対象面群の導出を例示する模式図である。
図7は、第1の実施形態に係る計測対象面群を例示する模式図である。
図5に表したように、まず、ステップS201において、計測基準点を含む三角形面の面IDをスタック1に追加する。例えば、スタック1には、複数の面IDが追加され、複数の面IDに対応する三角形面のそれぞれは、計測基準点のいずれかを含む。
ステップS202において、スタック1から面IDを1つ取り出す。ステップS203において、評価済み面リストに、取り出した面IDを追加する。
図6の例では、取り出した面IDに対応する三角形面(探索基準面61)は、例えば、第1計測基準点(第1位置P1)を含む。
図6の例では、取り出した面IDに対応する三角形面(探索基準面61)は、例えば、第1計測基準点(第1位置P1)を含む。
ステップS204において、探索基準面61と稜線を共有し(隣接し)、かつ、評価済み面リストに面IDが登録されていない三角形面(探索対象面62)を算出する。これにより、複数の探索対象面62を含む探索対象面群が算出される。
ステップS205において、探索対象面群から未評価の探索対象面62を1つ選択する。ステップS206において、選択された探索対象面62を評価済み面リストに追加する。ステップS207において、選択された探索対象面62の法線ベクトル62nと、探索基準面61の法線ベクトル61nと、のなす角度θnを算出する(図7を参照)。
ステップS208において、角度θnの大きさが、予め設定された閾値以下かどうかを判定する。角度θnの大きさが閾値以下の場合には、2つの面が同一の向きを向いているとみなす。つまり、選択された探索対象面62と、探索基準面61と、が同一の平面上に位置するとみなす。そして、ステップS209に進み、選択された探索対象面62の面IDを、スタック1と、計測対象面群と、に追加する。
これらの処理を、図5のフローチャートに従って繰り返す。ステップS210において、探索対象面群に含まれる面が全て評価済みであるか判定する。評価済みでない場合は、ステップS205から処理を繰り返す。評価済みの場合は、ステップS211へ進み、スタック1が空であるか判定する。スタック1が空でない場合は、ステップS202から処理を繰り返す。
繰り返し処理においては、再びステップS202にて、スタック1から探索基準面61が取り出される。このとき、新たな探索基準面61は、計測基準点(例えば第1位置P1)を含まない場合もある。新たに取り出された探索基準面61に基づいて、探索対象面62が算出される。そして、算出された探索対象面群が評価される。
このような処理を繰り返すことによって、計測対象面群を得る。例えば、第1位置P1に対応した計測対象面群51、及び、第2位置P2に対応した計測対象面群52、が得られる(図4参照)。
なお、図4の例では、計測対象面群51は、6枚の三角形面41から構成されており、計測対象面群52は、別の6枚の3角形面41から構成されている。但し、実施形態において、計測対象面群を構成する3角形面41は、この例に限られない。
繰り返し処理においては、再びステップS202にて、スタック1から探索基準面61が取り出される。このとき、新たな探索基準面61は、計測基準点(例えば第1位置P1)を含まない場合もある。新たに取り出された探索基準面61に基づいて、探索対象面62が算出される。そして、算出された探索対象面群が評価される。
このような処理を繰り返すことによって、計測対象面群を得る。例えば、第1位置P1に対応した計測対象面群51、及び、第2位置P2に対応した計測対象面群52、が得られる(図4参照)。
なお、図4の例では、計測対象面群51は、6枚の三角形面41から構成されており、計測対象面群52は、別の6枚の3角形面41から構成されている。但し、実施形態において、計測対象面群を構成する3角形面41は、この例に限られない。
前述した処理からもわかるように、計測対象面群は計測基準点1つにつき、少なくとも1セット算出される。計測対象面群は、少なくとも計測基準点の数だけ存在する。
(ステップS104)
候補視点位置算出部31は、計測基準点と、線分と、ステップS103において求めた計測対象面群と、から候補視点(の集合)を算出する(ステップS104)。候補視点は、最終的なレンダリングに用いられる視点の候補となる視点である。例えば、視点は、視点位置と、注視点位置と、前述した姿勢ベクトルと、を含む。
候補視点位置算出部31は、計測基準点と、線分と、ステップS103において求めた計測対象面群と、から候補視点(の集合)を算出する(ステップS104)。候補視点は、最終的なレンダリングに用いられる視点の候補となる視点である。例えば、視点は、視点位置と、注視点位置と、前述した姿勢ベクトルと、を含む。
候補視点の算出は、例えば、大きく分けて下記3つのステップを含む。
(ステップ1)候補視点基準位置を求めるステップ。候補視点基準位置は、候補視点算出の基準となる視点である。
(ステップ2)視点位置と注視点位置とを求めるステップ。これらは、候補視点基準位置ViewPoint_baseを後述するルールで座標変換することによって、求められる。
(ステップ3)これまでに求められた情報から、姿勢ベクトルを算出するステップ。
(ステップ1)候補視点基準位置を求めるステップ。候補視点基準位置は、候補視点算出の基準となる視点である。
(ステップ2)視点位置と注視点位置とを求めるステップ。これらは、候補視点基準位置ViewPoint_baseを後述するルールで座標変換することによって、求められる。
(ステップ3)これまでに求められた情報から、姿勢ベクトルを算出するステップ。
(ステップ1)まず、計測対象面群のセットごとに代表点を求める。この代表点の算出では、例えば、計測対象面群を構成する頂点の座標の平均値が求められる。平均値の座標に対応する点を代表点pfとする。また、計測情報データの線分ごとに、その代表点plを求める。代表点plには、例えば、線分の中点が用いられる。
例えば、図4に表した例において、計測対象面群51を構成する三角形面の頂点の座標の平均値が、代表点pf(代表点pf1)となる。そして、計測対象面群52を構成する三角形面の頂点の座標の平均値が、代表点pf(代表点pf2)となる。
以下では、代表点pfの位置座標の集合を、集合PFと表記し、代表点plの位置座標の集合を集合PLと表記する。また、計測基準点の位置座標の集合を集合PMと表記する。集合PFの要素の数は、集合PMの要素の数と同じである。集合PLの要素の数は、集合PFの要素の数の半分である。
集合PFと、集合PLと、集合PMと、の和集合を集合Peval(=PF ∪ PL ∪ PM)とする。集合Pevalの各要素を平均した点p_centerを求める。また、集合Pevalに対して主成分分析を行って主軸(固有ベクトル)を求める。以下では、対応する固有値が大きい順に、主軸を第1主軸vec1、第2主軸vec2、第3主軸vec3として説明する。このように、形状データと計測情報データとに基づいて求められた主軸は、複数の候補視点を算出する際の基準となる座標軸である。このような座標軸を設定することで、好適な視点位置を算出しやすくなる。
図8は、第1の実施形態に係る候補視点位置の算出を例示する模式図である。
以下の式(1)によって、ViewPoint baseを算出する。
ViewPoint base = p_center + α × (Distance) × vec3 ・・・(1)
式(1)において、ViewPoint baseは、候補視点基準位置の座標であり、p_centerは、集合Pevalの各要素を平均した点の座標であり、vec3は、第3主軸vec3を表すベクトルである。また、Distanceは、点p_centerと、集合Pevalの各要素と、の間の距離の最大値である。αは、1以上の実数である。αの値を大きくする程、出力画像は、対象物の広い範囲を写した画像となる。
以下の式(1)によって、ViewPoint baseを算出する。
ViewPoint base = p_center + α × (Distance) × vec3 ・・・(1)
式(1)において、ViewPoint baseは、候補視点基準位置の座標であり、p_centerは、集合Pevalの各要素を平均した点の座標であり、vec3は、第3主軸vec3を表すベクトルである。また、Distanceは、点p_centerと、集合Pevalの各要素と、の間の距離の最大値である。αは、1以上の実数である。αの値を大きくする程、出力画像は、対象物の広い範囲を写した画像となる。
(ステップ22)図8に示すように、第1主軸vec1を軸とした回転角をθ、第2主軸vec2を軸とした回転角をφとする。そして、候補視点基準位置ViewPoint_baseを、それぞれの軸毎に予め決められた回転角θ’、φ’の範囲で回転させる。これにより、候補視点の視点位置を算出する。
図9は、第1の実施形態に係る候補視点位置の算出を例示する模式図である。
具体的には、まず、図9に示すように、候補視点基準位置ViewPoint_baseを、第1主軸vec1を軸として、−θ’だけ回転させる。これにより、位置ViewPoint_startが求められる。そして、位置ViewPoint_startを、+θ’までΔθずつ繰り返し回転させる。これにより、位置ViewPoint_baseと、位置ViewPoint_endと、の間の視点位置を示す集合Vθを得る。
具体的には、まず、図9に示すように、候補視点基準位置ViewPoint_baseを、第1主軸vec1を軸として、−θ’だけ回転させる。これにより、位置ViewPoint_startが求められる。そして、位置ViewPoint_startを、+θ’までΔθずつ繰り返し回転させる。これにより、位置ViewPoint_baseと、位置ViewPoint_endと、の間の視点位置を示す集合Vθを得る。
次に、第2主軸vec2を軸として、回転角φ対しても同様に、Δφずつ回転することで、集合Vθφを得る。ただし、この時は、候補視点基準位置ViewPoint_baseの代わりに集合Vθの要素を用いるものとする。つまり、集合Vθの要素数分だけ、第2主軸vec2を軸とした回転による視点位置生成の処理を繰り返す。
最後に、集合Vθφの各要素に対して、点p_centerを基準として点対称な位置の集合Vrθφを算出する。集合Vθφと集合Vrθφとの和集合VPを、候補視点の視点位置とする。
上記の処理で算出された視点位置のそれぞれに対して、下記の式(2)によって、注視点の位置lookを算出する。注視点は、候補視点の視点位置と、計測情報データと、形状データと、に基づいて定められる。
look_i = k × near_i + l × far_i ・・・(2)
ここで、k+l=1.0である。集合VPの要素をvp_i(iは、要素ごとの通し番号)とし、要素vp_iと、点p_centerと、を通過する直線を、leyeとする。この時、near_iは、集合Pevalの要素の中で、要素vp_iに最も近い要素から、直線leyeに降ろした垂線の足(の座標)である。far_iは、集合Pevalの要素の中で、要素vp_iから最も遠い要素から直線leyeに降ろした垂線の足(の座標)である。注視点は、集合VPの要素ごとに1つずつ算出される。
look_i = k × near_i + l × far_i ・・・(2)
ここで、k+l=1.0である。集合VPの要素をvp_i(iは、要素ごとの通し番号)とし、要素vp_iと、点p_centerと、を通過する直線を、leyeとする。この時、near_iは、集合Pevalの要素の中で、要素vp_iに最も近い要素から、直線leyeに降ろした垂線の足(の座標)である。far_iは、集合Pevalの要素の中で、要素vp_iから最も遠い要素から直線leyeに降ろした垂線の足(の座標)である。注視点は、集合VPの要素ごとに1つずつ算出される。
(ステップ3)まず、要素vp_iと、それに対応する注視点と、から、視線ベクトルVlookを求める。次に、事前に与えられた基準姿勢ベクトルVup_baseと、視線ベクトルVlookと、の外積を求める。このようにして得られたベクトルと、視線ベクトルVlookと、の外積を再び求める。これにより、姿勢ベクトルVupが求められる。
なお、基準姿勢ベクトルVup_baseと視線ベクトルVlookと、が同一の向き、または、真逆の向きになっている場合には、例えば、第1主軸vec1または第2主軸vec2を基準として、基準姿勢ベクトルVup_baseを微小な角度(例えばΔθを超えない範囲、または、Δφを超えない範囲)だけ回転させる。これにより、姿勢ベクトルVupを安定して求めることができる。
最後に、基準姿勢ベクトルVup_baseと姿勢ベクトルVupとの内積の値によって、このベクトルを補正する。具体的には、例えば、基準姿勢ベクトルVup_baseと姿勢ベクトルVupとの内積の値が負である場合には、Vup=−Vupとする。これらの処理は、集合VPの各要素に対して行われるため、姿勢ベクトルVupも、集合VPの要素の数と同じ数だけ算出される。
上述した例では、基準姿勢ベクトルVup_baseは、予め与えられている。但し、実施形態は、これに限定されるものではない。例えば、前述した第1主軸(ベクトル)vec1、または、第2主軸(ベクトル)vec2を、基準姿勢ベクトルVup_baseとして用いてもよい。
(3−2)評価用形状生成部32
評価用形状生成部32は、計測情報データをもとに三角形面の集合で構成される評価用形状に関する評価用形状データを生成する。
評価用形状生成部32は、計測情報データをもとに三角形面の集合で構成される評価用形状に関する評価用形状データを生成する。
図10(a)及び図10(b)は、第1の実施形態に係る評価用形状を例示する模式図である。
後述の評価値算出部33では、形状データ、および、計測情報データの一部である線分、を平面に投影する。そして、計測情報データに対応した部分が、平面において占める面積の割合によって、見易さを評価する。その際には、図10(a)のような線分をそのままレンダリングするのではなく、図10(b)のような評価用形状をレンダリングする。評価用形状は、図10(a)に示した線分を代表する形状である。このような評価用形状を、評価に用いる。
評価用形状は、三角形面で表現された球と円柱との組合せで構成される。まず、線分の端点を中心とし、あらかじめ決められた半径rsの球を生成する。この半径rsを大きくすることで、端点周辺が見える場合の評価値が高くなりやすくなる。次に、線分を中心軸とし、あらかじめ決められた半径rcの円柱を生成する。半径rcを大きくすることで、線分の周辺が見える場合の評価値が高くなりやすくなる。評価用形状は、線分と1対1に対応するため、線分の数だけ存在することになる。半径rs及び半径rcを適切に設定することで、評価の精度を向上させることができる。
例えば、第1位置P1を中心とする半径rsの球を第1球S1とする。第2位置P2を中心とする半径rsの球を第2球S2とする。線分L1を中心軸とする円柱を円柱C1とする。この場合、第1計測情報データに対応する評価用形状データは、第1球S1と、第2球S2と、円柱C1と、の少なくとも一部に関する情報を含む。
(3−3)評価値算出部33
評価値算出部33は、形状データと評価用形状データとに基づいて、各候補視点ごとに、視点評価値(見やすさの評価値)を算出する。視点評価値は、形状データと線分データとの相対的な位置関係に応じて算出される。
評価値算出部33は、形状データと評価用形状データとに基づいて、各候補視点ごとに、視点評価値(見やすさの評価値)を算出する。視点評価値は、形状データと線分データとの相対的な位置関係に応じて算出される。
具体的には、評価値算出部33は、それぞれの候補視点を用いて、形状データと評価用形状データとをレンダリングする。そして、レンダリング結果に占める、評価用形状データの割合に基づいて、見易さの評価値を算出する。
まず、評価値算出部33は、複数の候補視点(集合VP)の中から、未評価の候補視点を1つ選択する(ステップS105)。選択した候補視点を用いて、形状データと、評価用形状と、(計測対象面群と、)を投影する。評価用形状データの投影面積に基づいて、見やすさの評価値を算出する(ステップS106)。各候補視点について、評価値の算出を行う(ステップS107)。
視点評価値には、例えば式(3)によって表される視点エントロピーEが用いられる。視点エントロピーEは、評価用形状データが表現する評価用形状の投影面への投影面積に基づく。
Area_i:評価用形状の投影面積
Area_t:形状データの投影面積
i :線分データの数(=評価用形状の数)
評価値算出部33は、複数の候補視点のそれぞれごとに、投影面を算出する。投影面は、視点(vp_i)と、それに対応する注視点(look_i)と、によって定義される視線ベクトルに対して垂直な平面である。Area_i及びArea_tは、投影面に、それぞれの形状を構成する三角形面を順次投影することで算出される。そのため、視点エントロピーEは、集合VPの要素の数だけ算出される。
Area_i:評価用形状の投影面積
Area_t:形状データの投影面積
i :線分データの数(=評価用形状の数)
評価値算出部33は、複数の候補視点のそれぞれごとに、投影面を算出する。投影面は、視点(vp_i)と、それに対応する注視点(look_i)と、によって定義される視線ベクトルに対して垂直な平面である。Area_i及びArea_tは、投影面に、それぞれの形状を構成する三角形面を順次投影することで算出される。そのため、視点エントロピーEは、集合VPの要素の数だけ算出される。
上記の処理において、Area_iは、評価用形状を構成する三角形面の法線ベクトルの向きと、視線ベクトルの向きと、が真逆に近づくほど大きくなる。また、三角形面の裏面を表示するように設定した場合には、Area_iは、評価用形状を構成する三角形面の法線ベクトルの向きと、視線ベクトルの向きと、が平行に近づくほど大きくなる。
また、視点位置が評価用形状に近づくほど三角形面が大きく投影されるため、Area_iも大きくなる。これにより、視点エントロピーEは、評価用形状が可能な限り視線ベクトルと正対し、かつ、評価用形状が大きく見える視点におけるほど、大きくなると考えられる。
また、視点位置が評価用形状に近づくほど三角形面が大きく投影されるため、Area_iも大きくなる。これにより、視点エントロピーEは、評価用形状が可能な限り視線ベクトルと正対し、かつ、評価用形状が大きく見える視点におけるほど、大きくなると考えられる。
上記では、Area_iを求めるために、評価用形状のみを用いる例を説明した。但し、実施形態は、これに限定されない。例えば、評価用形状に加えて、形状データの一部(計測対象面群)を用いても良い。これにより、さらに評価の精度を向上させることができる。この場合、評価用形状と同様に、計測対象面群に対応する三角形面を投影面に投影し、投影面積をArea_iに加算すればよい。つまり、前述の式において、Area_iを、評価用形状と計測対象面群との両方の投影面積とすればよい。
この場合、例えば、評価用形状データは、抽出された形状データの一部(計測対象面群)の情報をさらに含む。計測対象面群は、例えば、法線ベクトル61nに基づく。法線ベクトル61nは、例えば、線分L1と、形状データに基づく対象物の表面と、の交点を通り、形状データに基づく対象物の表面に対して垂直なベクトルである。ここで用いられる計測対象面群には、候補視点位置算出部31によって求められた計測対象面群を用いることができる。例えば、計測対象面群の情報は、候補視点位置算出部31から、評価用形状生成部32に渡される。なお、再度、評価用形状生成部32が計測対象面群を算出してもよい。
ただし、計測対象面群に対応する三角形面は形状データの一部であるため、Area_tを求める場合には、Area_tが、計測対象面群に対応する三角形面の投影面積を含まないようにする。これには、Area_tを算出するために各三角形面を投影する段階で、処理対象の三角形面の面IDが計測対象面群に含まれるかを調べ、含まれる場合には処理をスキップすればよい。
(3−4)視点位置選択部34
視点位置選択部34は、複数の候補視点のうち、評価値算出部33で候補視点ごとに求めた評価値が最大となる候補視点を選択する。選択された候補視点を最終的な視点とする(ステップS108)。
視点位置選択部34は、複数の候補視点のうち、評価値算出部33で候補視点ごとに求めた評価値が最大となる候補視点を選択する。選択された候補視点を最終的な視点とする(ステップS108)。
すなわち、視点位置選択部34は、候補視点位置算出部31において算出された候補視点と、評価値算出部33において候補視点のそれぞれに対して求められた視点エントロピーEと、に基づいて、表示画像生成部4において用いる視点を選択する。具体的には、集合VPの中から、視点エントロピーEが最大となる要素vpと、それに対応する注視点位置look及び姿勢ベクトルVupを選択する。
(4)表示画像生成部4
表示画像生成部4は、形状取得部1で取得した形状データと、計測情報取得部2で取得した線分データと、を、視点位置算出部3で算出された視点及び注視点と、姿勢ベクトルと、に基づいてレンダリングする(ステップS109)。また、上記の方法では、線分データをそのまま投影しているが、線分データの端点をあらかじめ決められた半径を持つ球とし、線分データを円柱で表現してもよい。平面に投影した際の太さを調節するようにしても良い。
表示画像生成部4は、形状取得部1で取得した形状データと、計測情報取得部2で取得した線分データと、を、視点位置算出部3で算出された視点及び注視点と、姿勢ベクトルと、に基づいてレンダリングする(ステップS109)。また、上記の方法では、線分データをそのまま投影しているが、線分データの端点をあらかじめ決められた半径を持つ球とし、線分データを円柱で表現してもよい。平面に投影した際の太さを調節するようにしても良い。
図11(a)〜図11(c)は、画像生成装置の動作を例示する模式図である。
図11(a)は、形状データによって表現されたエレベータシャフト20を例示している。例えば、エレベータシャフト20の内壁には、部材T1、部材T2、及び、部材T3、が設けられている。部材T1〜T3は、エレベータの上下方向において並んでいる。例えば、部材T1〜T3のそれぞれは、エレベータのレールを把持する部材である。図11(b)及び図11(c)は、図11(a)に示した形状データのレンダリング結果を例示している。
図11(a)は、形状データによって表現されたエレベータシャフト20を例示している。例えば、エレベータシャフト20の内壁には、部材T1、部材T2、及び、部材T3、が設けられている。部材T1〜T3は、エレベータの上下方向において並んでいる。例えば、部材T1〜T3のそれぞれは、エレベータのレールを把持する部材である。図11(b)及び図11(c)は、図11(a)に示した形状データのレンダリング結果を例示している。
ここで、部材T1と、部材T3と、の間の距離を測定する場合について考える。すなわち、部材T1上に前述の第1計測基準点(第1位置P1)があり、部材T3上に前述の第2計測基準点(第2位置P2)がある場合について考える。
図11(b)は、参考例の画像生成装置によって生成された画像を例示している。図11(b)に表した画像の生成に用いられた視点は、エレベータの上下方向において、部材T1〜T3と、並んでいる。つまり、この場合、視点から注視点へ向かう視線ベクトルは、エレベータの上下方向に対して、略平行である。
図11(b)に表したように、部材T1と部材T3との間に位置する部材T2は、部材T1に隠れている。このため、図11(b)の画像上において、部材T1と部材T3とを選択し、これらの間の距離を測定しようとしたときに、誤って部材T2を選択してしまう場合がある。例えば、部材T1と部材T2との間の距離を測定してしまい、正しい測定結果が得られない場合がある。つまり、図11(b)の例では、測定箇所を選択した場合に、意図した箇所を選択しているかを確認することが難しい。
図11(c)は、実施形態に係る画像生成装置210によって生成された画像を例示している。図11(c)に表した画像の生成に用いられた視点は、例えば水平方向において、部材T1〜T3と、並んでいる。つまり、この場合、視点から注視点へ向かう視線ベクトルは、エレベータの上下方向と交差する。例えば、視線ベクトルは、部材T1と部材T3とを結ぶ線分に対して略垂直である。図11(c)の画像は、第1位置P1と第2位置P2とを含む対象物の第1領域R1の像と、線分L1の像と、を含む。このため、図11(c)の画像上において、部材T1と、部材T3と、の位置関係を確認しやすい。図11(c)の画像上においては、部材T1及び部材T3が選択されたことを確認しやすい。このように、視点位置算出装置110によって算出された視点を用いることで、計測箇所を見易い表示を得ることができる。
近年の社会インフラの老朽化の進行に伴い、それらの維持管理、および修繕に対する要求が増加している。それは身近なインフラの1つであるエレベータにおいても例外ではなく、リプレースに対する需要が増大している。リプレースの際には、すでにリプレース前のエレベータを構成する設備が存在している。それらを新規の設備で入れ替えるために、既存設備の寸法を計測して、エレベータシャフトに適した建材を決定する。しかしながら、建物の利便性の観点から稼働中のエレベータを長時間停止しておくことは難しい。そのため、計測作業を行うことが可能なのは限られた熟練の技術者のみとなっていた。
これに対し、ある地点から対象物までの3次元距離が計測できるレーザーレンジファインダなどの機材を用いて、エレベータシャフト内の3次元形状データ(形状データ)を取得するという試みが行われてきている。以下では、このような機材を用いた方法を3次元計測と呼ぶ。この方法には、エレベータを停止する時間が短くてすむ、熟練の技術が必要ない、リプレース計画を立てる段階でエレベータシャフト内の形状を再確認できるなどの利点がある。
ところで、リプレースのために最終的に必要なデータは寸法であるため、後者の場合には、のちほど形状データから寸法が計測される。一般的なリプレース作業においては、壁面間の内寸や、エレベータカゴ(以下ではカゴ)の進行方向を制御するために取り付けられるレールから壁面までの距離、レールを支えるために壁面に一定間隔で取り付けられるブラケット間の距離などが測られることになる。前述したように、ディスプレイに表示された形状データ上において、計測したい箇所を選択するなどの方法によって、計測を行うことができる。
また、形状データのみでは、対象物がどのような物体であるかを把握することが困難である場合がある。このため、計測時にエレベータシャフト内の画像を撮影しておき、それを合わせて表示することで、計測基準点の設定を容易にする試みも行われている。例えば、カゴの上にエレベータシャフト天井方向に向けたカメラを置いて撮影する。撮影された映像に形状データのレンダリング結果を重畳する。これにより、あたかもカゴの上に乗った状態でエレベータシャフト内を見上げたかのような表示を得ることができる。これにより、画像の一部分を選択しているようなイメージで計測基準点を設定することができる。
前述した方法で形状データから寸法を得ようとする場合、ディスプレイに表示されたレンダリング結果から計測位置を決定する。このため、正しい計測位置で計測できているかの確認が行われる。前述したようにカメラ映像の補助はこれを助けるが、カメラの視点から測定箇所が隠れている場合や、手前と奥にある物体の境界付近を計測基準点としたい場合には、カメラの情報は助けにならない。そのため、計測を行うオペレータは、形状データをレンダリングする際の視点を操作し、計測位置の確認が可能な視点を探す。
この作業はオペレータに対して操作に対する慣れとコンピュータグラフィクスに関する知識を要求する。これは、3次元計測を導入するうえで大きな障害になると考えられる。また、リプレース作業のためには、少なくとも20か所以上の計測が必要といわれており、その全てにおいて手動で最適な視点を決定することになる。この作業は作業効率を低下させる原因となる。
三次元形状上の特定の部分を確認するのに好適な視点の決定方法として、駅構内の案内図作成を想定した参考例がある。ここでは、経路と形状データとの交点を求め、その点の法線ベクトルに基づいて評価用モデルが作成される。作成された評価モデルと、駅構内の3次元データと、を合わせて、あらかじめ定義された候補視点位置を用いてレンダリングする。そして、レンダリングの結果画像に占める、評価モデルの割合が最も大きくなる視点を最適な視点とする。このように視点を自動的に決定している。しかしながら、計測を考えた場合、交点の法線ベクトルから求められる評価用モデルが線分の見え方を評価するのに適していないため、参考例の方法をそのまま用いても好適な視点位置を得ることができない。
これに対して、実施形態においては、形状データと、計測情報データと、に基づいて、レンダリングに用いられる視点が算出される。視点の算出の際には、ステップS103〜ステップS108のように、計測情報データに含まれる線分の見やすさが評価される。これにより、計測基準点と、計測基準点を結ぶ線分と、計測基準点を含む対象物の領域と、が見易く表示された画像が生成される。
以上では、対象物がエレベータシャフトである場合について説明したが、実施形態は、これに限定されない。対象物は、工場などの建造物であってもよい。例えば、工場内には、多くの設備や配管が設置されている。実施形態に係る視点位置算出装置及び画像生成装置を、配管と配管との間の距離を計測する際に用いてもよい。
(第2の実施形態)
第1の実施形態において説明した例では、複数の計測情報データが定義された場合、その全ての計測情報データを対象として、好適な視点が算出される。すなわち、複数の計測情報データと、それに関係する形状データの一部と、を表示するのに好適な視点が算出される。これに対し、本実施形態では、複数の計測情報データの一部を選択し、選択された計測情報データを対象として好適な視点が算出される。
第1の実施形態において説明した例では、複数の計測情報データが定義された場合、その全ての計測情報データを対象として、好適な視点が算出される。すなわち、複数の計測情報データと、それに関係する形状データの一部と、を表示するのに好適な視点が算出される。これに対し、本実施形態では、複数の計測情報データの一部を選択し、選択された計測情報データを対象として好適な視点が算出される。
図12は、第2の実施形態に係る視点位置算出装置及び画像生成装置を例示するブロック図である。
図13は、第2の実施形態に係る視点位置算出及び画像生成を例示するフローチャートである。
図13は、第2の実施形態に係る視点位置算出及び画像生成を例示するフローチャートである。
図12に表したように、本実施形態に係る画像生成装置220は、視点位置算出装置120と、表示画像生成部4と、を含む。視点位置算出装置120は、第1の実施形態と同様に、形状取得部1と、計測情報取得部2と、視点位置算出部3と、を含み、さらに、入力部5と、表示部6と、を含む。
本実施形態は、入力部5と、表示部6と、を含む点において、第1の実施形態と異なる。入力部5及び表示部6によって、複数の計測情報データのうちの一部が選択される。
表示部6は、計測情報取得部2が取得する計測情報データを選択するための表示デバイスである。表示部6は、形状データの少なくとも一部と、計測情報データと、をレンダリングした画像を表示する。表示デバイスは、例えば、CRT(Cathode Ray Tube)またはフラットディスプレイパネル(液晶パネルまたはLED(Light Emitting Diode)パネル)などの種々の表示機器を含む。また、上記のような表示機器を、遠隔またはケーブルレスで操作する際に用いられる、通信網やトランスミッタ・レシーバなども、表示部6に含まれる。
入力部5は、計測情報取得部2が取得する計測情報データを選択するための入力デバイスである。入力部5から、計測情報データを選択する選択信号が入力される。入力部5は、例えば、タッチペン、タッチパネル、マウス、キーボード、または、マイク、など種々のデバイスを含む。また、上記のようなデバイスを、遠隔またはケーブルレスで操作する際に用いられる、通信網やトランスミッタ・レシーバなども、入力部5に含まれる。
図13に表したように、本実施形態に係る視点位置算出装置120の処理は、第1の実施形態と同様のステップS101〜ステップS109を含み、さらに、形状データと計測情報データとを描画するステップS221と、計測情報データを選択するステップS222と、を含む。
ステップS101において、第1の実施形態と同様に、形状取得部1は、形状データを取得する。ステップS102において、計測情報取得部2は、複数の計測情報データを取得する。例えば、複数の計測情報データは、第1計測情報データを含む。
ステップS221において、形状データと、複数の形状情報データと、に基づいて、表示画像生成部4によって画像が生成される。生成された画像は、表示部6に表示される。
ステップS222において、表示部6に表示された画像に基づいて、入力部5を介して、複数の計測情報データの一部が選択される。例えば、表示部6には、複数の計測情報データに対応した画像が表示され、使用者は、複数の計測情報データから第1計測情報データを選択する。計測情報取得部2は、入力部5から入力された選択信号に基づいて、第1計測情報データを取得する。その後は、第1の実施形態と同様に、選択された計測情報データと、当該計測情報データに対応する形状データの一部と、に応じて、視点が算出され、見易い画像が提供される。
どの計測情報データが選択されたかを判定するためには、例えば、投影面に投影する際に、投影されたピクセルがどの計測情報データと対応しているかを求めておく。これにより、入力部5で選択された位置の計測情報データを取得することができる。
また、レンダリング時の視点位置から選択されたピクセルへのベクトルと、計測情報データの線分と、が十分に近い場合には、その線分に対応する計測情報データを取得してもよい。その際には、ディスプレイに表示されている線分をユーザに直接選択させることで計測情報データを選択しても良いし、リスト表示されている計測情報データから選択させるようにしてもよい。選択は入力部5により行われる。上記の処理により選択された一部の計測情報データを、好適な視点を求めるため計測情報データとして用いる。
また、レンダリング時の視点位置から選択されたピクセルへのベクトルと、計測情報データの線分と、が十分に近い場合には、その線分に対応する計測情報データを取得してもよい。その際には、ディスプレイに表示されている線分をユーザに直接選択させることで計測情報データを選択しても良いし、リスト表示されている計測情報データから選択させるようにしてもよい。選択は入力部5により行われる。上記の処理により選択された一部の計測情報データを、好適な視点を求めるため計測情報データとして用いる。
(第3の実施形態)
図14は、第3の実施形態に係る視点位置算出装置及び画像生成装置を例示するブロック図である。
図14に表したように、本実施形態に係る画像生成装置230は、視点位置算出装置130と、表示画像生成部4と、を含む。視点位置算出装置130は、第2の実施形態に係る視点位置算出装置120と同様に、形状取得部1と、計測情報取得部2と、視点位置算出部3と、入力部5と、表示部6と、を含み、さらに、計測情報補正部7を含む。
図14は、第3の実施形態に係る視点位置算出装置及び画像生成装置を例示するブロック図である。
図14に表したように、本実施形態に係る画像生成装置230は、視点位置算出装置130と、表示画像生成部4と、を含む。視点位置算出装置130は、第2の実施形態に係る視点位置算出装置120と同様に、形状取得部1と、計測情報取得部2と、視点位置算出部3と、入力部5と、表示部6と、を含み、さらに、計測情報補正部7を含む。
第3の実施形態に係る視点位置算出装置は、計測情報データを修正する計測情報補正部7を含む点において、第1及び第2の実施形態と異なる。
第3の実施形態においては、視点位置算出部3により求められた視点でレンダリングされた画像に基づいて、修正を行いたい計測情報データの端点が選択される。その後、計測情報補正部7は、計測情報データを補正し、補正された計測情報データに基づいて、表示画像生成部4によって表示画像を生成する。
図15は、第3の実施形態に係る視点位置算出及び画像生成装置を例示するフローチャートである。図15は、本実施形態に係る視点位置算出装置130の処理の一部を例示している。視点位置算出装置130の処理は、第2の実施形態と同様のステップS101〜109、ステップS221、及びステップS222を含む。
視点位置算出装置130の処理は、さらに、ステップS301、ステップS302、及びステップS303を含む。
視点位置算出装置130の処理は、さらに、ステップS301、ステップS302、及びステップS303を含む。
図16(a)及び図16(b)は、第3の実施形態に係る視点位置算出及び画像生成装置の動作を例示する模式図である。
まず、第2の実施形態と同様に、ステップS109において、表示画像生成部4によって、形状データと複数の計測情報データとがレンダリングされる。
例えば、複数の計測情報データは、第1計測情報データと、第2計測情報データと、を含むとする。第1計測情報データは、第1計測基準点(第1位置P1)と、第2計測基準点(第2位置P2)と、線分L1と、に関するデータを含む。対象物は、第3位置P3に位置する第3部分Pcと、第4位置P4に位置する第4部分Pdと、をさらに含み、第2計測情報データは、第3計測基準点(第3位置P3)と、第4計測基準点(第4位置P4)と、第3位置P3と第4位置P4とを結ぶ線分L2と、に関するデータを含む。これにより、例えば、図16(a)に表したような画像が表示部6に表示される。
次に、ステップS301において、表示された複数の計測基準点(線分の端点)のうちの一部を選択する選択情報が入力部5から入力される。計測情報補正部7は、選択された計測情報データを取得する。例えば、図16(a)の例において、複数の計測基準点のうち、第1計測情報データに属する第1計測基準点が選択される。
どの計測情報データが選択されたかを判定するためには、例えば、投影面に投影する際に、投影されたピクセルがどの計測情報データと対応しているかを求めておく。これにより、入力部5で選択された位置の計測情報データを取得することができる。
また、レンダリング時の視点位置から選択されたピクセルへのベクトルと、計測情報データの線分と、が十分に近い場合には、その線分に対応する計測情報データを取得してもよい。その際には、ディスプレイに表示されている線分をユーザに直接選択させることで計測情報データを選択しても良いし、リスト表示されている計測情報データから選択させるようにしてもよい。
また、レンダリング時の視点位置から選択されたピクセルへのベクトルと、計測情報データの線分と、が十分に近い場合には、その線分に対応する計測情報データを取得してもよい。その際には、ディスプレイに表示されている線分をユーザに直接選択させることで計測情報データを選択しても良いし、リスト表示されている計測情報データから選択させるようにしてもよい。
次に、ステップS302において、ステップS301で選択された第1計測基準点が属する第1計測情報データとは異なる計測情報データに属する計測基準点のうち、第1計測基準点に最も近い計測基準点を算出する。
例えば、図16(a)の例において、第2計測情報データに属する第3計測基準点が算出される。
例えば、図16(a)の例において、第2計測情報データに属する第3計測基準点が算出される。
そして、算出された第3計測基準点と、第1計測基準点と、の間の第1距離を算出する。第1距離が予め決められた閾値よりも短い場合には、ステップS303において、第1計測情報データと、第2計測情報データと、を統合する。
この統合においては、第1計測基準点の位置座標を、第4計測基準点の位置座標で置き換えた後、第2計測情報データを削除すればよい。このようにして、図16(b)に表したように、計測情報補正部7は、入力部5から入力された選択信号に基づいて、第1計測情報データと、第2計測情報データと、を統合する。すなわち、第2計測基準点と、第4計測基準点と、を端点とする線分に関する計測情報データを生成し、新たな第1計測情報データとする。
表示画像上に、別途、ボタンなどのUIを設けてもよい。上記の例では、ステップS302は、ステップS301ののちに自動的に行われているが、UIを選択することをトリガとして処理を行うように構成してもよい。例えば、Deleteボタン80を設ける。Deleteボタン80を選択することで、ステップS302の処理を行うようにしてもよい。
以上説明したように、実施形態においては、2つ計測基準点と、それらを結ぶ線分と、に関する計測情報データが用いられる。これにより、入力部5及び表示部6を用いることで、ユーザが計測する箇所を適宜修正変更することができる。
なお、実施形態に係る画像生成装置及び視点位置算出装置には、CPUなどの制御装置、ROMやRAMなどの記憶装置、HDD(Hard Disk Drive)やSSD(Solid State Drive)などの外部記憶装置、ディスプレイなどの表示装置、などを用いることができる。汎用のコンピュータ装置をハードウェアとして用いることで、実施形態に係る画像生成装置を実現してもよい。また、各ブロックをソフトウェア的に実現してもハードウェア的に実現してもよい。
以上、実施形態として、視点位置算出装置、画像生成装置、視点位置算出方法、及び、画像生成方法について説明した。但し、実施形態は、上述の方法をコンピュータに実行させるためのプログラムの形態、あるいは、このプログラムを記録したコンピュータ読み取り可能な記録媒体の形態、であってもよい。
記録媒体としては、例えば、CD-ROM(-R/-RW)、光磁気ディスク、HD(ハードディスク)、DVD-ROM(-R/-RW/-RAM)、FD(フレキシブルディスク)、フラッシュメモリ、メモリカード、メモリスティック、及び、その他各種ROM、RAM等を用いることができる。
実施形態によれば、3次元形状データから見易い画像を提供する視点算出装置、及び、画像生成装置が提供できる。
以上、具体例を参照しつつ、本発明の実施の形態について説明した。しかし、本発明の実施形態は、これらの具体例に限定されるものではない。例えば、形状取得部、計測情報取得部、視点位置算出部、表示画像生成部などの各要素の具体的な構成に関しては、当業者が公知の範囲から適宜選択することにより本発明を同様に実施し、同様の効果を得ることができる限り、本発明の範囲に包含される。
また、各具体例のいずれか2つ以上の要素を技術的に可能な範囲で組み合わせたものも、本発明の要旨を包含する限り本発明の範囲に含まれる。
また、各具体例のいずれか2つ以上の要素を技術的に可能な範囲で組み合わせたものも、本発明の要旨を包含する限り本発明の範囲に含まれる。
その他、本発明の実施の形態として上述した装置、方法、及びプログラムを基にして、当業者が適宜設計変更して実施し得る全ての装置、方法、及びプログラムも、本発明の要旨を包含する限り、本発明の範囲に属する。
その他、本発明の思想の範疇において、当業者であれば、各種の変更例及び修正例に想到し得るものであり、それら変更例及び修正例についても本発明の範囲に属するものと了解される。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1…形状取得部、 2…計測情報取得部、 3…視点位置算出部、 4…表示画像生成部、 5…入力部、 6…表示部、 7…計測情報補正部、 20…エレベータシャフト、 21…視点、 21d…視点方向、 22…注視点、 23…ベクトル、 24…平面、 25…姿勢ベクトル、 26…カメラ、 31…候補視点位置算出部、 32…評価用形状生成部、 33…評価値算出部、 34…視点位置選択部、 41…三角形面、 51、52…計測対象面群、 61…探索基準面、 61n…法線ベクトル、 62…探索対象面、 62n…法線ベクトル、 80…Delteボタン、 θ、φ…回転角、 110、120、130…視点位置算出装置、 210、220、230…画像生成装置、 C1…円柱、 L1、L2…線分、 P1〜P4…第1〜第4位置、 Pa、Pb、Pc、Pd…第1〜第4部分 R1…第1領域、 S1…第1球、 S101〜S109…ステップ、 S2…第2球、 S201〜S209、S221、S222、S301〜S303…ステップ、 T1〜T3…部材、 ViewPoint_start…位置、 ViewPoint_end…位置、 ViewPoint_base…候補視点基準位置、 b1〜b4…第1〜第4計測基準点、 p_center…点、 pf、pf1、pf2、pl…代表点、 rc、rs…半径、 vec1〜3…第1〜第3主軸
Claims (19)
- 第1部分と第2部分とを含む対象物の3次元形状を表す形状データであって、前記第1部分の第1位置及び前記第2部分の第2位置に関する情報を含む形状データを取得する形状取得部と、
前記第1位置と前記第2位置とを結び計測の対象となる長さに対応する線分に関する線分データを含む第1計測情報データを取得する計測情報取得部と、
前記形状データと前記第1計測情報データとに基づいて、視点を算出する視点位置算出部と、
を備え、
前記視点から前記対象物をみたときの第1画像が生成され、
前記第1画像は、前記形状データと前記線分データとに基づいて生成され、前記第1画像は、前記第1位置と前記第2位置とを含む前記対象物の第1領域の像と、前記線分の像と、を含む視点位置算出装置。 - 前記視点位置算出部は、
前記形状データと前記第1計測情報データとに基づいて、前記視点の候補となる複数の候補視点を算出する候補視点位置算出部と、
前記第1計測情報データに基づいて、評価用形状データを生成する評価用形状生成部と、
前記形状データと前記評価用形状データとに基づいて、前記複数の候補視点のそれぞれごとに、前記形状データと前記線分データとの相対的な位置関係に応じた視点評価値を算出する評価値算出部と、
前記視点評価値に基づいて、前記複数の候補視点から、前記視点を算出する視点位置選択部と、
を含む請求項1記載の視点位置算出装置。 - 前記候補視点位置算出部は、前記形状データと前記第1計測情報データとに基づいて、座標軸を算出し、
前記座標軸は、前記複数の候補視点を算出する際の基準となる請求項2記載の視点位置算出装置。 - 前記評価用形状データは、前記第1位置を中心とする第1球と、前記第2位置を中心とする第2球と、前記線分を軸とした円柱と、の少なくとも一部に関する情報を含む請求項2または3に記載の視点位置算出装置。
- 前記評価用形状データは、前記形状データの一部の情報をさらに含み、
前記形状データの前記一部は、前記線分と、前記形状データに基づく前記対象物の表面と、の交点を通り、前記形状データに基づく前記対象物の前記表面に対して垂直なベクトルに基づいて抽出される請求項4記載の視点位置算出装置。 - 前記評価値算出部は、前記複数の候補視点のそれぞれごとに投影面を算出し、
前記視点評価値は、前記評価用形状データに基づく評価用形状の前記投影面への投影面積に基づく請求項2〜5のいずれか1つに記載の視点位置算出装置。 - 前記形状データの少なくとも一部と、前記第1計測情報データと、をレンダリングした前記第1画像を表示する表示部をさらに備えた請求項1〜6のいずれか1つに記載の視点位置算出装置。
- 入力部をさらに備え、
前記計測情報取得部は、前記入力部から入力された選択信号に基づいて、前記第1計測情報データを取得する請求項1〜7のいずれか1つに記載の視点位置算出装置。 - 入力部と、
計測情報補正部と、
をさらに備え、
前記対象物は、第3部分と、第4部分と、をさらに含み、
前記計測情報補正部は、前記入力部から入力された選択信号に基づいて、前記第3部分の第3位置と、前記第4部分の第4位置と、を結ぶ線分に関する第2計測情報データと、前記第1計測情報データと、を統合する請求項1〜7のいずれか1つに記載の視点位置算出装置。 - 請求項1〜9のいずれか1つに記載の視点位置算出装置と、
前記視点と、前記形状データと、前記線分データと、に基づいて前記第1画像を生成する表示画像生成部と、
を備えた画像生成装置。 - 対象物の3次元形状を表す形状データであって、前記対象物のうちの第1位置及び第2位置に関する情報を含む形状データを取得する形状取得部と、
前記第1位置と、前記第2位置と、前記第1位置と前記第2位置とを結び計測の対象となる長さに対応する線分と、に関する線分データを含む第1計測情報データを取得する計測情報取得部と、
前記形状データと前記第1計測情報データとに基づいて、前記第1位置と前記第2位置とを含む前記対象物の第1領域の像と、前記線分の像と、を含む第1画像を生成する表示画像生成部と、
を備えた画像生成装置。 - 第1部分と第2部分とを含む対象物の3次元形状を表す形状データであって、前記第1部分の第1位置及び前記第2部分の第2位置に関する情報を含む形状データを取得し、
前記第1位置と前記第2位置とを結び計測の対象となる長さに対応する線分に関する線分データを含む第1計測情報データを取得し、
前記形状データと前記第1計測情報データとに基づいて、視点を算出し、前記視点から前記対象物をみたときの第1画像は、前記形状データと前記線分データとから生成され、前記第1位置と前記第2位置とを含む前記対象物の第1領域の像と、前記線分の像と、を含む視点位置算出方法。 - 前記形状データと前記第1計測情報データとに基づいて、前記視点の候補となる複数の候補視点をさらに算出し、
前記第1計測情報データに基づいて、評価用形状データをさらに生成し、
前記形状データと前記評価用形状データとに基づいて、前記複数の候補視点のそれぞれごとに、前記形状データと前記線分データとの相対的な位置関係に応じた視点評価値をさらに算出し、
前記視点評価値に基づいて、前記複数の候補視点から、前記視点を算出する請求項12記載の視点位置算出方法。 - 前記形状データと前記第1計測情報データとに基づいて、座標軸を算出し、
前記座標軸は、前記複数の候補視点を算出する際の基準となる請求項13記載の視点位置算出方法。 - 対象物の3次元形状に表す形状データであって、前記対象物のうちの第1位置及び第2位置に関する情報を含む形状データを取得し、
前記第1位置と、前記第2位置と、前記第1位置と前記第2位置とを結び計測の対象となる長さに対応する線分と、に関する線分データを含む第1計測情報データを取得し、
前記形状データと前記第1計測情報データとに基づいて、前記第1位置と前記第2位置とを含む前記対象物の第1領域の像と、前記線分の像と、を含む第1画像を生成する画像生成方法。 - コンピュータに、
第1部分と第2部分とを含む対象物の3次元形状を表す形状データであって、前記第1部分の第1位置及び前記第2部分の第2位置に関する情報を含む形状データを取得させ、
前記第1位置と前記第2位置とを結び計測の対象となる長さに対応する線分に関する線分データを含む第1計測情報データを取得させ、
前記形状データと前記第1計測情報データとに基づいて、視点を算出させ、前記視点から前記対象物をみたときの第1画像は、前記形状データと前記線分データとから生成され、前記第1位置と前記第2位置とを含む前記対象物の第1領域の像と、前記線分の像と、を含むとさせる視点位置算出プログラム。 - コンピュータに、
前記形状データと前記第1計測情報データとに基づいて、前記視点の候補となる複数の候補視点をさらに算出させ、
前記第1計測情報データに基づいて、評価用形状データをさらに生成させ、
前記形状データと前記評価用形状データとに基づいて、前記複数の候補視点のそれぞれごとに、前記形状データと前記線分データとの相対的な位置関係に応じた視点評価値をさらに算出させ、
前記視点評価値に基づいて、前記複数の候補視点から、前記視点を算出させる請求項16記載の視点位置算出プログラム。 - コンピュータに、
前記形状データと前記第1計測情報データとに基づいて、座標軸を算出させ、
前記座標軸は、前記複数の候補視点を算出する際の基準となる請求項17記載の視点位置算出プログラム。 - コンピュータに、
対象物の3次元形状に表す形状データであって、前記対象物のうちの第1位置及び第2位置に関する情報を含む形状データを取得させ、
前記第1位置と、前記第2位置と、前記第1位置と前記第2位置とを結び計測の対象となる長さに対応する線分と、に関する線分データを含む第1計測情報データを取得させ、 前記形状データと前記第1計測情報データとに基づいて、前記第1位置と前記第2位置とを含む前記対象物の第1領域の像と、前記線分の像と、を含む第1画像を生成させる画像生成プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014233783A JP2016099665A (ja) | 2014-11-18 | 2014-11-18 | 視点位置算出装置、画像生成装置、視点位置算出方法、画像生成方法、視点位置算出プログラム、及び、画像生成プログラム |
CN201510794268.1A CN105608731A (zh) | 2014-11-18 | 2015-11-18 | 视点位置计算装置和图像生成装置 |
US14/944,576 US20160140736A1 (en) | 2014-11-18 | 2015-11-18 | Viewpoint position calculation device, image generation device, and viewpoint position calculation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014233783A JP2016099665A (ja) | 2014-11-18 | 2014-11-18 | 視点位置算出装置、画像生成装置、視点位置算出方法、画像生成方法、視点位置算出プログラム、及び、画像生成プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016099665A true JP2016099665A (ja) | 2016-05-30 |
Family
ID=55962150
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014233783A Abandoned JP2016099665A (ja) | 2014-11-18 | 2014-11-18 | 視点位置算出装置、画像生成装置、視点位置算出方法、画像生成方法、視点位置算出プログラム、及び、画像生成プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20160140736A1 (ja) |
JP (1) | JP2016099665A (ja) |
CN (1) | CN105608731A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5977880B1 (ja) * | 2015-12-11 | 2016-08-24 | 株式会社東急コミュニティー | 表示制御装置、表示制御方法、およびプログラム |
KR20190030788A (ko) * | 2017-07-31 | 2019-03-25 | 주식회사 자이언소프트 | 3차원 의류 데이터 생성 시스템 |
JP2019121394A (ja) * | 2018-01-05 | 2019-07-22 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および画像を生成する方法 |
JP2020126208A (ja) * | 2019-02-06 | 2020-08-20 | オリンパス株式会社 | 3次元画像表示方法、3次元画像表示装置、およびプログラム |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7024751B2 (ja) * | 2019-03-20 | 2022-02-24 | オムロン株式会社 | 制御装置および制御プログラム |
CN110599575B (zh) * | 2019-08-15 | 2020-12-11 | 贝壳技术有限公司 | 三维空间中物体图像的呈现方法、装置及存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006026790A (ja) * | 2004-07-15 | 2006-02-02 | Fanuc Ltd | 教示モデル生成装置 |
JP5042651B2 (ja) * | 2007-01-31 | 2012-10-03 | 株式会社バンダイナムコゲームス | プログラム、情報記憶媒体及びゲーム装置 |
JP4733757B2 (ja) * | 2009-06-05 | 2011-07-27 | 株式会社スクウェア・エニックス | ポリゴン処理装置,プログラム及び情報記録媒体 |
JP5004109B2 (ja) * | 2010-05-27 | 2012-08-22 | トヨタ自動車株式会社 | 3次元形状データの作成方法、3次元形状データの作成装置および3次元形状データの作成プログラム |
CN104994783B (zh) * | 2013-02-08 | 2018-11-13 | 柯惠有限合伙公司 | 用于肺神经切除术的系统和方法 |
-
2014
- 2014-11-18 JP JP2014233783A patent/JP2016099665A/ja not_active Abandoned
-
2015
- 2015-11-18 CN CN201510794268.1A patent/CN105608731A/zh active Pending
- 2015-11-18 US US14/944,576 patent/US20160140736A1/en not_active Abandoned
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5977880B1 (ja) * | 2015-12-11 | 2016-08-24 | 株式会社東急コミュニティー | 表示制御装置、表示制御方法、およびプログラム |
JP2017107476A (ja) * | 2015-12-11 | 2017-06-15 | 株式会社東急コミュニティー | 表示制御装置、表示制御方法、およびプログラム |
KR20190030788A (ko) * | 2017-07-31 | 2019-03-25 | 주식회사 자이언소프트 | 3차원 의류 데이터 생성 시스템 |
KR102042551B1 (ko) | 2017-07-31 | 2019-11-12 | 주식회사 자이언소프트 | 3차원 의류 데이터 생성 시스템 |
JP2019121394A (ja) * | 2018-01-05 | 2019-07-22 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および画像を生成する方法 |
JP7212519B2 (ja) | 2018-01-05 | 2023-01-25 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および画像を生成する方法 |
JP2020126208A (ja) * | 2019-02-06 | 2020-08-20 | オリンパス株式会社 | 3次元画像表示方法、3次元画像表示装置、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20160140736A1 (en) | 2016-05-19 |
CN105608731A (zh) | 2016-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2016099665A (ja) | 視点位置算出装置、画像生成装置、視点位置算出方法、画像生成方法、視点位置算出プログラム、及び、画像生成プログラム | |
US20210192099A1 (en) | Method and system for generating an adaptive projected reality in construction sites | |
JP2012033043A (ja) | 情報表示装置及び情報表示方法 | |
JP5799273B2 (ja) | 寸法計測装置、寸法計測方法、寸法計測システム、プログラム | |
JP6896688B2 (ja) | 位置算出装置、位置算出プログラム、位置算出方法、及びコンテンツ付加システム | |
US20200394841A1 (en) | Information processing apparatus, information processing method, and storage medium | |
US20170046854A1 (en) | Measurement device | |
JPWO2016084389A1 (ja) | モデリング装置、3次元モデル生成装置、モデリング方法、プログラム | |
JP2017181209A (ja) | 距離測定装置、距離測定方法及びプログラム | |
TW201928388A (zh) | 座標系統制定方法、裝置及資料結構產品 | |
US20110246062A1 (en) | Map and directions system with vertical distance | |
JPWO2015141080A1 (ja) | プロジェクタシステム及びキャリブレーションボード | |
JP6956899B2 (ja) | 表示データ生成装置、表示データ生成方法、および表示データ生成プログラム | |
JP2016133818A (ja) | 空間情報可視化装置、プログラムおよび空間情報可視化方法 | |
JP5571128B2 (ja) | 計測支援装置、方法及びプログラム | |
JP2018163466A (ja) | 図面投影システム、図面投影方法及びプログラム | |
TWI671543B (zh) | 豪雨預測方法、豪雨預測裝置、適用有豪雨預測裝置之系統、以及豪雨預測程式 | |
JP2017091063A (ja) | 物体検知装置、情報処理装置およびその方法 | |
JP2017036998A (ja) | 色情報決定装置および画像生成装置 | |
JPWO2013175836A1 (ja) | 監視カメラ管理装置、監視カメラ管理方法およびプログラム | |
JP2013092888A (ja) | データ処理装置 | |
JP2017026488A (ja) | 距離計測装置、距離計測システム、距離計測方法及び距離計測プログラム | |
WO2015141214A1 (ja) | 多視点画像に対するラベル情報の処理装置及びそのラベル情報の処理方法 | |
JP2021064267A (ja) | 画像処理装置、及び画像処理方法 | |
Kumar et al. | Enhancement Of Navigation Technology Using Augmented Reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170906 |
|
A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20180413 |