JP6615545B2 - 画像処理装置、画像処理方法および画像処理用プログラム - Google Patents

画像処理装置、画像処理方法および画像処理用プログラム Download PDF

Info

Publication number
JP6615545B2
JP6615545B2 JP2015181893A JP2015181893A JP6615545B2 JP 6615545 B2 JP6615545 B2 JP 6615545B2 JP 2015181893 A JP2015181893 A JP 2015181893A JP 2015181893 A JP2015181893 A JP 2015181893A JP 6615545 B2 JP6615545 B2 JP 6615545B2
Authority
JP
Japan
Prior art keywords
image
point cloud
point
projection sphere
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015181893A
Other languages
English (en)
Other versions
JP2017058843A (ja
Inventor
忠之 伊藤
陽 佐々木
隆浩 古明地
直樹 森川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2015181893A priority Critical patent/JP6615545B2/ja
Priority to US15/264,950 priority patent/US20170078570A1/en
Publication of JP2017058843A publication Critical patent/JP2017058843A/ja
Application granted granted Critical
Publication of JP6615545B2 publication Critical patent/JP6615545B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06T3/12
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03543Mice or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Description

本発明は、複数の画像を組み合わせてより広角な画像を得る技術に関する。
視線の方向が異なる複数の静止画像を組み合わせてパノラマ画像と称されるより広角な画像を得る技術が知られている(特許文献1を参照)。また、この技術を利用したカメラとして全周カメラや全天球カメラが知られている。
特開2014−155168号公報
パノラマ画像は、特定の視点を中心とした投影球面を設定し、その内周面に複数の画像を投影することで作成される。この際、隣接する画像同士が一部重複するようにすることで、複数の画像が合成され、パノラマ画像が得られる。パノラマ画像を構成する各画像の視点が一致していれば、原理的に画像間のつながりの不連続性や画像の歪みは生じない。しかしながら、合成の対象となる複数の画像の視点が一致しているとは限らない。例えば、複数のカメラを備えた全周カメラの場合、物理的に各カメラの視点の位置を一致させることができないので、厳密に見ると画像同士のつなぎ目の部分でのズレ、および画像全体で見た場合の歪みが存在する。
このような背景において、本発明は、複数の画像を合成することで得たパノラマ画像における画像のズレの問題を解決することを課題とする。
請求項1に記載の発明は、異なる視点から重複する対象を撮影した第1の静止画像および第2の静止画像の画像データを受け付ける画像データ受付部と、前記第1の静止画像を撮影したカメラおよび前記第2の静止画像を撮影したカメラと外部標定要素の関係が既知のレーザースキャナを用いた前記対象に対するレーザースキャンを行うことで得た点群位置データを取得する点群位置データ取得部と、前記重複する対象の特定の位置の指定を受け付ける指定受付部と、前記指定受付部で受け付けた指定位置の三次元位置を取得する三次元位置取得部と、前記指定位置の三次元位置に基づいて半径Rの値を決定した投影球を設定する投影球設定部と、前記第1の静止画像と前記第2の静止画像とを前記投影球に投影した第1の合成画像を形成する合成画像形成部と前記第1の合成画像と前記点群位置データの各点を前記投影球に投影した点群画像とを合成した第2の合成画像を得る合成部とを備え、前記指定位置の前記三次元位置は、前記第2の合成画像における前記指定位置に対応する前記点群画像を構成する点の位置から求められることを特徴とする画像処理装置である。
請求項2に記載の発明は、請求項1に記載の発明において、前記投影球の中心位置と前記指定位置との距離rを算出する距離算出部を備え、前記投影球設定部は、前記距離算出部が算出した前記距離rに基づき前記半径Rの値を決定することを特徴とする。
請求項3に記載の発明は、請求項2に記載の発明において、前記Rの値を前記rに一致させることを特徴とする。
請求項4に記載の発明は、請求項1〜3のいずれか一項に記載の発明において、前記指定受付部は、前記合成画像を表示した表示画面上に表示されるカーソルの当該画面上における位置に基づき、前記特定の位置の指定を受け付け、前記投影球設定部は、前記カーソルの動きに合わせて前記半径Rの値を可変することを特徴とする。
請求項5に記載の発明は、異なる視点から重複する対象を撮影した第1の静止画像の画像データおよび第2の静止画像の画像データを受け付ける画像データ受付ステップと、前記第1の静止画像を撮影したカメラおよび前記第2の静止画像を撮影したカメラと外部標定要素の関係が既知のレーザースキャナを用いた前記対象に対するレーザースキャンを行うことで得た点群位置データを取得する点群位置データ取得ステップと、前記重複する対象の特定の位置の指定を受け付ける指定受付ステップと、前記指定受付ステップで受け付けた指定位置の三次元位置を取得する三次元位置取得ステップと、前記指定位置の三次元位置に基づいて半径Rの値を決定した投影球を設定する投影球設定ステップと、前記第1の静止画像と前記第2の静止画像とを前記投影球に投影した第1の合成画像を形成する合成画像形成ステップと、前記合成画像形成ステップで形成された前記第1の合成画像の画像データを表示装置に送信するステップと、前記第1の合成画像と前記点群位置データの各点を前記投影球に投影した点群画像とを合成した第2の合成画像を得るステップとを備え、前記指定位置の前記三次元位置は、前記第2の合成画像における前記指定位置に対応する前記点群画像を構成する点の位置から求められることを特徴とする画像処理方法である。
請求項6に記載の発明は、コンピュータに読み取らせて実行させるプログラムであって、コンピュータに異なる視点から重複する対象を撮影した第1の静止画像の画像データおよび第2の静止画像の画像データを受け付ける画像データ受付ステップと、前記第1の静止画像を撮影したカメラおよび前記第2の静止画像を撮影したカメラと外部標定要素の関係が既知のレーザースキャナを用いた前記対象に対するレーザースキャンを行うことで得た点群位置データを取得する点群位置データ取得ステップと、前記重複する対象の特定の位置の指定を受け付ける指定受付ステップと、前記指定受付部で受け付けた指定位置の三次元位置を取得する三次元位置取得ステップと、前記指定位置の三次元位置に基づいて半径Rの値を決定した投影球を設定する投影球設定ステップと、前記第1の静止画像と前記第2の静止画像とを前記投影球に投影した第1の合成画像を形成する合成画像形成ステップと、前記合成画像形成ステップで形成された前記第1の合成画像の画像データを表示装置に送信するステップと、前記第1の合成画像と前記点群位置データの各点を前記投影球に投影した点群画像とを合成した第2の合成画像を得るステップとを実行させ、前記指定位置の前記三次元位置は、前記第2の合成画像における前記指定位置に対応する前記点群画像を構成する点の位置から求められることを特徴とする画像処理用プログラムである。
本発明によれば、複数の画像を合成することで得たパノラマ画像における画像のズレの問題が解決される。
画像を合成してパノラマ画像を形成する原理を示す図である。 画像のずれが生じる原理を示す図である。 画像のずれが生じない条件を示す図である。 実施形態のブロック図である。 処理の手順の一例を示すフローチャートである。 パノラマ画像の一例を示す図面代用写真である。 パノラマ画像の一例を示す図面代用写真である。 パノラマ画像の一例を示す図面代用写真である。 パノラマ画像と点群画像とを合成した画像の一例を示す図面代用写真である。 パノラマ画像の一例を示す図面代用写真である。 パノラマ画像の一例を示す図面代用写真である。
1.第1の実施形態
(概要)
まず、視点が異なる複数の画像同士を合成した際に生じる問題について説明する。図1には、位置(視点)が異なる3つのカメラを用いて一部が重複する静止画像を3枚撮影し、それを投影球の内周面に投影してパノラマ画像を作成した場合が示されている。
図2には、視点C1の第1のカメラおよび視点C2の第2のカメラが点Pの位置を撮影した場合が示されている。ここで、視点C1とC2は、一致しておらず、パノラマ画像を作成する際の投影球の中心C0も視点C1およびC2と一致していない。この場合、第1のカメラの撮像画像中の点Pの画面位置がp1であり、第2のカメラの撮像画像中の点Pの画面位置がp2となる。
まず、2つのカメラの撮影画像を合成する場合を考える。この場合、投影球の面上にp1とp2を投影する。具体的には、C1とp1を結ぶ方向線を設定し、この方向線と投影球とが交わる点が投影球へのp1の投影位置P1となる。同様に、C2とp2を結ぶ方向線を設定し、この方向線と投影球とが交わる点が投影球へのp2の投影位置P2となる。
この場合、理想的には、得られるパノラマ画像上において、視点C0から見た点Pの画像が投影球面上の点P0の位置に見えなくてはならない。しかしながら、第1のカメラが写した画像に基づくパノラマ画像上では、点PがP1の位置に写り、第2のカメラが写した画像に基づくパノラマ画像上では、点PがP2の位置に写る。つまり、パノラマ画像上において、点Pは、正確な位置ではなく、更に2点にぶれて見える。
上記の現象に起因して、パノラマ画像上での画像のズレが発生する。また、視点の違いに起因する画面全体における歪みが発生する。図6は、この現象が生じたパノラマ画像の一例を示す図面代用写真である。図6の画像では、矢印で示された中央やや左上の蛍光灯の画像部分にズレが生じている。このズレは、図2を用いて説明した本来点P0の位置に見える像がP1とP2の位置に見える現象に起因する。この現象は、視点C1,C2の位置が投影球中心C0と一致しないことに原因がある。
図3は、本発明の原理を示す概念図である。図3は、図2に示す状況において、投影球の半径Rを可変させた場合が示されている。ここで、D1,D2は、第1のカメラから撮影した画像に基づく投影点P1と第2のカメラから撮影した画像に基づく投影点P2との投影位置の差である。図3から判るように、投影球の半径Rを可変すると、投影位置の差Dの値は変化する。
Rの変化に起因するDの違いは、実際の画像上で確認できる。図7と図8には、同じ範囲のパノラマ画像の図面代用写真が示されている。ここで、図7は、R=20mの場合であり、図8は、R=2mの場合である。ここで、2枚の図面代用写真における中央上部の蛍光灯の部分および右奥方向に延在する配管の画像に着目すると、画像のズレがなく鮮明になっている部分と像が二重になっている部分が、図7と図8では異なることが判る。これは、画面上の位置の違いにより、写っている部分(図3の点Pに相当)のrが異なり、Rとの関係で決まるDの値が変化するからである。
ここで、図3から、投影球の半径Rを投影球中心C0とPとの間の距離rに一致させると、すなわちR=rとすると、D=0となることが判る。この場合、P1,P2,P0の位置が一致し、パノラマ画像における画像のズレは解消される。ここで、R=rとするには、rを知る必要がある。
本実施形態では、rをレーザ測距装置(レーザスキャナ)から得た三次元点群位置データから取得する。手順としては、まず点Pの指定が行なわれる。次に、点Pに対応する三次元点群データから対応する三次元座標のデータが取得される。そして、投影球中心C0の位置データと点Pの三次元位置データとに基づき、rの距離が計算される。次いで、R=rとなるようにRを設定し、点Pに係る複数の画像の投影球面上での画像の合成を行う。以上の処理により、点Pの位置に限定されるが画像のズレが解消される。
(ハードウェアの構成)
図4には、実施形態のブロック図が示されている。図4には、画像処理装置100、全周カメラ200、レーザスキャナ300および表示装置400が示されている。画像処理装置100は、コンピュータとして機能し、後述する機能部を有する。全周カメラ200は、全方位撮影用多眼カメラであり、上方と周囲360°の撮影を行う。この例において、全周カメラ200は、6台のカメラを備えている。6台のカメラの内、5台のカメラは、水平方向に向けられ鉛直上方から見て等角な角度位置(72°毎)に配置されている。また、残りの1台のカメラは、鉛直上方(仰角90°)に向けられている。これら6台のカメラは、画角(撮影範囲)が一部重複するように設定されている。この6台のカメラから得られる静止画像を合成することでパノラマ画像が得られる。
全周カメラ200において、各カメラの向きと位置の相対位置関係は予め調べられ、既知となっている。また、物理的な問題から、各カメラの視点(投影中心)の位置は一致していない。全周カメラについては、例えば、特開2012−204982号公報や特開2014−71860号公報に記載されている。全周カメラ200として市販品を用いることもできる。市販されている全周カメラとしては、Point Grey社製の商品名Ladybug3等がある。なお、全周カメラの代わりに回転機構を有するカメラを用いて撮影方向の違う複数の静止画像を得、この複数の静止画像を合成してパノラマ画像を得る形態も利用可能である。勿論、パノラマ画像は、全周画像に限定されず、特定の角度範囲におけるものであってもよい。全周カメラ200から異なる方向を撮影した複数の静止画像の画像データは、画像処理装置100に送られる。
6台のカメラは、特定のタイミングで同時に静止画像を撮影する。撮影は、特定の時間間隔でもって行なうことも可能である。例えば、時差をもって6台のカメラを順次動作させ、得られた画像を合成することで全周画像を得ることも可能である。また、動画を撮影する形態も可能である。動画を撮影する場合、動画を構成するフレーム画像(例えば、1秒間に30枚撮影されるフレーム画像)が静止画像として取り扱われる。
レーザスキャナ300は、対象物にレーザ光を照射し、その反射光を検出することで、対象物までの方向と距離を検出する。ここで、レーザスキャナ300の外部標定要素(位置と向き)が既知であれば、レーザ光の反射点の三次元座標が判る。また、レーザスキャナ300の絶対位置が不明であっても、相対座標系における三次元点群位置データを得ることができる。レーザスキャナ300は、レーザ照射部と反射光受光部を上下左右に首を振るように動かしながら、全周カメラ200の撮影範囲と同じ範囲のレーザスキャンを行う。レーザスキャナについては、特開2008―268004号公報や2010−151682号公報に記載されている。
レーザスキャナ300と全周カメラ200の位置関係と向きの関係は予め取得されており、既知である。レーザスキャナ300が取得する点群位置データの座標系は、絶対座標系であってもよし、相対座標系におけるものであってもよい。絶対座標系というのは、GNSS等を用いて測定した位置を記述する座標系である。相対座標系というのは、全周カメラ200の機械中心やその他適当な位置を原点として記述される座標系である。
絶対座標系を用いるのであれば、GNSS等の手段により、全周カメラ200とレーザスキャナ300の位置情報を取得する。全周カメラ200とレーザスキャナ300の位置情報が取得できない環境では、全周カメラ200の構造的な重心の位置等を原点とする相対座標を設定し、この相対座標を用いてレーザスキャナ300と全周カメラ200における位置と向きの関係、およびレーザスキャナ300が取得する三次元点群位置データの記述を行なう。
表示装置400は、液晶ディスプレイ等の画像表示装置である。表示装置400として、タブレットやパーソナルコンピュータのディスプレイを利用することができる。表示装置400には、画像処理装置100で処理された画像のデータが送られ、その画像が表示される。
図4には、画像処理装置100が備える各機能部が示されている。画像処理装置100は、CPU、電子メモリやハードディスク装置等の各種の記憶装置、各種の演算回路、インターフェース回路を備え、後述する機能を実行するコンピュータとしての機能を有している。
画像処理装置100は、画像データ受付部101、指定受付部102、点群位置データ取得部103、三次元位置取得部104、距離算出部105、投影球設定部106、合成画像形成部107、画像と点群画像の合成部108を備えている。これらの機能部は、ソフトウェア的な構成(プログラムがCPUによって実行されることで実現される構成)であってもよいし、専用の回路によって構成されていてもよい。また、ソフトウェア的に構成された機能部と、専用の回路によって構成された機能部が混在していてもよい。例えば、図示する各機能部は、CPU(Central Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)などのPLD(Programmable Logic Device)などの電子回路の1または複数の組み合わせにより構成されている。
画像処理装置100を構成する各機能部を専用のハードウェアで構成するのか、CPUにおけるプログラムの実行によりソフトウェア的に構成するのかは、要求される演算速度、コスト、消費電力等を勘案して決定される。例えば、特定の機能部をFPGAで構成すれば、処理速度の上では優位であるが高コストとなる。他方で、CPUでプログラムを実行することで特定の機能部を実現する構成は、ハードウェア資源を節約できるので、コスト的に優位となる。しかしながら、CPUで機能部を実現する場合、処理速度は、専用のハードウェアに比較して見劣りする。また、CPUで機能部を実現する場合、複雑な演算に対応できない場合もあり得る。なお、機能部を専用のハードウェアで構成することとソフトウェア的に構成することとは、上述した違いはあるが、特定の機能を実現するという観点からは、等価である。
以下、画像処理装置100が備える各機能部について説明する。画像データ受付部101は、全周カメラ200が撮影した静止画像の画像データを受け付ける。具体的には、全周カメラ200が備える6台のカメラが撮影した静止画像の画像データが画像データ受付部101で受け付けられる。
指定受付部102は、合成画像形成部107で形成した合成画像(パノラマ画像)における着目点の指定を受け付ける。例えば、重複する対象を撮影した2枚の静止画像を合成したパノラマ画像があり、そのパノラマ画像がPC(パーソナルコンピュータ)の画面上に表示されている場合を考える。この場合、ユーザは、当該PCのGUI(グラフィカル・ユーザ・インターフェース)を操作して、本発明を利用した処理(画像のズレを低減する処理)を行う点を着目点として指定する。例えば、カーソルを着目点に移動させ、そこで左クリックを行うことで、着目点を指定する。カーソルで指定された着目点の画面上における位置は、GUIの機能から取得できる。
点群位置データ取得部103は、レーザスキャナ300が取得した点群位置データを取得し、画像処理装置100内に取り込む。この例では、レーザスキャナ300を用いて点群位置データを計測するが、ステレオ画像から点群位置データを得ることもできる。ステレオ画像を用いて点群位置データを得る技術に関しては、例えば特開2013−186816号公報に記載されている。
三次元位置取得部104は、指定受付部102で指定された点(着目点)の三次元位置を点群位置データに基づいて取得する。以下、この処理について説明する。着目点の三次元点群位置を取得するには、後述する画像と点群の合成部108で得られたパノラマ画像と三次元点群位置データとを合成した画像(画像と点群の合成画像)を利用する。まず、パノラマ画像と三次元点群位置データとを合成した画像(画像と点群の合成画像)について説明する。
点群位置データでは、レーザスキャナ300から見た点群を構成する各点の方向が判るので、レーザスキャナ300から見た各点を後述する投影球設定部106が設定する投影球の内周面に投影し、その投影点を画素とした点群画像(点群により構成された2次元画像)が作成できる。この点群画像は、点で構成された画像であり、通常の静止画像と同様に扱うことができる。
ここで、全周カメラ200とレーザスキャナ300における相対位置関係と相対的な向きの関係は予め取得され既知である。よって、全周カメラを構成する6台のカメラの画像を合成する方法と同じ方法で、全周カメラ200のカメラが撮影した静止画像と上記の点群画像とは重ね合わせることができる。この原理により、全周カメラ200が撮影した複数の静止画像を組み合わせることで得られるパノラマ画像と上記の点群画像とを重ね合わせることができる。この画像が点群と画像の合成画像となる。図9にパノラマ画像と上記の点群画像とを重ね合わせた画像(画像と点群の合成画像)の一例を示す。図9に例示される画像を作成する処理が、画像と点群の合成部108において行われる。
図9に例示される重ね合わせ画像を利用することで、指定受付部102で指定された点(着目点)の三次元位置を点群位置データに基づいて取得できる。具体的には、指定受付部102で指定された点(着目点)の画面上の位置に対応する点群位置データの点が図9に例示される画像と点群の合成画像から取得される。そしてこの取得した点の三次元座標位置を点群位置データ取得部103が取得した点群位置データから取得する。なお、着目点に対応する点がない場合は、(1)近傍の点を選択し、その点の三次元位置を取得、(2)近傍の点の複数を選択し、その三次元位置の平均値を取得、(3)近傍の点の複数を選択し、更にそこから三次元位置が近い複数の点を選択し、その平均値を取得、といった方法で着目点の三次元座標の値を取得する。以上の画像と点群の合成画像を用いて着目点の三次元位置を取得する処理が三次元位置取得部104において行われる。
距離算出部105は、三次元位置取得部104が取得した着目点と合成画像形成部107が合成画像(パノラマ画像)を形成する際に利用する投影球(投影球設定部106が設定する投影球)の中心との間の距離を計算する。例えば、図3のrの値の算出が距離算出部105において行われる。
投影球の中心は、例えば全周カメラ200の構造的な重心の位置に設定される(勿論、他の位置でもよい)。レーザスキャナ300および全周カメラ200における各カメラの相対的な外部標定要素(位置と向き)が予め取得され、既知であるので、上記の投影球の中心の位置と三次元位置取得部104が取得した着目点の三次元位置とは、同じ座標系を用いて記述される。したがって、三次元位置取得部104が取得した着目点と投影球設定部106が設定する投影球の中心との間の距離(図3のr)を計算することができる。
投影球設定部106は、パノラマ画像の作成に必要な投影球の設定を行う。以下、図3を参照して、投影球設定部106の機能について説明する。図3に例示するように、投影球は、全周カメラ200の構造重心の位置を中心とした半径Rの球面状の仮想的な投影面である。この投影面に全周カメラ200の6台のカメラが写した静止画像を投影することで6枚の画像が合成され、投影球の内側に映し出されたパノラマ画像が得られる。なお、投影球の中心は、全周カメラ200の構造重心の位置に限定されず、他の位置であってもよい。
投影球設定部106の重要な機能は、上述した投影球の半径Rの値を可変設定できる点にある。以下、この機能について説明する。まず、指定受付部102が画面上の特定の位置を指定する指示を受け付けていない場合、投影球設定部106は、予め決められている初期設定値のRの値を選択し、投影球の設定を行う。Rの初期設定値としては、例えば数m〜数十mの値、あるいは無限遠の値が選択される。
指定受付部102が画面上の特定の位置(着目点)の指定を受け付けている場合、投影球設定部106は、当該着目点と投影球中心との間の距離rに対応させて投影球の半径Rの値を設定する。この例では、R=rとする処理が行なわれる。Rはrに完全に一致させなくてもよいが、極力一致させることが望ましい。例えば、Rはrに±5%以下の精度で一致させる。
距離算出部105は、rの値をリアルタイムに計算する。投影球設定部106は、リアルタイムに計算されるrの値に応じて、Rの値をリアルタイムに計算する。例えば、指定受付部102が受け付けるユーザが選択した着目点の位置が変わり、距離算出部105が計算するrの値が変化すると、R=rとなるように、投影球設定部106がRの値を計算し直す。
合成画像形成部107は、投影球設定部106が設定した半径Rの投影球の内周面に全周カメラ200の各カメラ(この場合は、6台のカメラ)が撮影した静止画像を投影し、一部が重複した状態で合成された6枚の静止画像により構成されるパノラマ画像を形成する。
上記の構成では、図3に示すように、パノラマ画像における特定の位置が着目点Pとして指定されると、rの値が計算され、更にR=rとなるように処理が行なわれる。この結果、着目点Pの位置の変更に伴うrの変化に対応して、投影球の半径Rが動的に変動する。
(処理の一例)
以下、図4の画像処理装置100で実行される処理の手順の一例を説明する。以下において説明する処理を実行するプログラムは、画像処理装置100内の記憶領域や適当な外部記憶媒体に記憶され、画像処理装置100によって実行される。
処理が開始されると、全周カメラ200が撮影した静止画像の画像データが受け付けられる(ステップS101)。ここでは、全周カメラ200が備える6台のカメラが撮影した静止画像のデータが取得される。なお、画像データは、リアルタイムに全周カメラ200から得る場合に限定されず、予め撮影しておき、適当な記憶領域に記憶させておいたものを改めて受け付ける形態であってもよい。この処理は、図4の画像データ受付部101において行われる。また、レーザスキャナ300が計測した点群位置データを取得する(ステップS102)。この処理は、点群位置データ取得部103において行われる。
次に、投影球の半径Rの値を初期値に設定する(ステップS103)。初期値の値は予め定めておいた値を利用する。Rの初期値を設定したら、投影球の設定を行う(ステップS104)。ステップS104およびS104の処理は、図4の投影球設定部106において行われる。
投影球の設定を行ったら、ステップS101で受け付けた画像データに基づき、全周カメラ200が備える6台のカメラが写した静止画像をステップS104で設定された投影球の内面に投影し、画像の合成を行う(ステップS105)。この処理は、図4の合成画像形成部107において行われる。ステップS105の処理により、投影球の中心から周囲を見たパノラマ画像が得られる。ステップ105の処理によって得られたパノラマ画像の画像データは、図4の画像合成部107から表示装置400に出力され、当該パノラマ画像が表示装置400に表示される。
パノラマ画像を得たら、パノラマ画像と点群画像とを合成する処理を行う(ステップS106)。この処理は、画像と点群画像の合成部108において行われる。この処理で得られた合成画像を実際に表示した場合の一例が図9に示されている。
パノラマ画像、およびパノラマ画像と点群との合成画像を得たら、指定受付部102が新たに着目点(図3の場合の点P)の指定を受け付けたか否か、を判定し(ステップS107)、新たな着目点が指定された場合、ステップS108に進み、新たな着目点が指定されていない場合、ステップS107の処理を繰り返す。例えば、着目点の指定の変更がない場合、この時点で設定されているRの値がそのまま維持される。
着目点の変更がある場合、図4の距離算出部105において、rの値(図3参照)が計算される(ステップS108)。rの計算は、以下のようにして行われる。まず、着目点のパノラマ画像中での位置を特定する。次いで、ステップS106の処理で得たパノラマ画像と点群画像とを合成した合成画像(例えば、図9の画像)中で、着目点の位置を特定し、着目点に対応する位置(例えば、図3の点P)の三次元座標を得る。そして、この着目点の三次元位置と投影球の中心の位置との間の距離を計算する。例えば、図3の場合でいうと、点Pと点C0の間の距離rが計算される。
rを得たら、R=rとした条件で投影球の再設定が行なわれる(ステップS109)。Rの再設定を行ったら、ステップS105以下の処理を新たに設定したRを用いて再度実行する。この場合、表示装置400に表示されるパノラマ画像におけるRの値(図3参照)がR=rとなるように変更され、この変更を反映したパノラマ画像の表示が行なわれる。
以上のようにして、着目点の変更により、rの値が変化すると、それに応じてRの値は変更される。つまり、着目点が変更され、その三次元位置が変わった場合、パノラマ画像の投影面となる投影球の半径が動的に変更される。そしてこの投影球の変更を反映したパノラマ画像の表示が行なわれる。
(優位性)
図3に原理が示されているように、着目点Pが指定された際にrを計算し、更にR=rとすることで、点Pの位置における投影像のズレが解消される。着目点Pの位置が変更され、rの値が変わると、それに応じてRの値も変わり、R=rの関係が維持される。このため、着目点Pにおける像の精度は維持される。
図10と図11には、画面上においてカーソルを用いて着目点を指定した場合の例が示されている。この場合、カーソルで指示した部分が着目点であり、その点においてR=rとなるように処理が行なわれる。その結果、カーソルで指定した着目点の画像が鮮明となる。他方で、R=rの条件からはずれ、更にその程度が大きくなる程、像のぶれが大きくなる。例えば、カーソルを移動させると、その動きに従って画像中の鮮明となる位置が移動する。
(その他)
着目点の指定を受け付ける別の方法として、合成画像形成部107が形成したパノラマ画像をタッチパネルディスプレイに表示し、タッチペン等の当該ディスプレイへの接触により、着目点の指定を受け付ける方法が挙げられる。
また、着目点の指定を受け付ける別の方法として、合成画像形成部107が形成したパノラマ画像を見ているユーザの視線を検出し、更にその視線と当該パノラマ画像の画像面との交点を検出し、その位置を指定位置として受け付ける方法が挙げられる。この方法によれば、ユーザが着目した位置の画像が鮮明になるように動的に投影球の半径の調整が行なわれる。視線を検出する技術については、例えば、特開2015−118579号公報に記載されている。

Claims (6)

  1. 異なる視点から重複する対象を撮影した第1の静止画像および第2の静止画像の画像データを受け付ける画像データ受付部と、
    前記第1の静止画像を撮影したカメラおよび前記第2の静止画像を撮影したカメラと外部標定要素の関係が既知のレーザースキャナを用いた前記対象に対するレーザースキャンを行うことで得た点群位置データを取得する点群位置データ取得部と、
    前記重複する対象の特定の位置の指定を受け付ける指定受付部と、
    前記指定受付部で受け付けた指定位置の三次元位置を取得する三次元位置取得部と、
    前記指定位置の三次元位置に基づいて半径Rの値を決定した投影球を設定する投影球設定部と、
    前記第1の静止画像と前記第2の静止画像とを前記投影球に投影した第1の合成画像を形成する合成画像形成部と
    前記第1の合成画像と前記点群位置データの各点を前記投影球に投影した点群画像とを合成した第2の合成画像を得る合成部と
    を備え、
    前記指定位置の前記三次元位置は、前記第2の合成画像における前記指定位置に対応する前記点群画像を構成する点の位置から求められることを特徴とする画像処理装置。
  2. 前記投影球の中心位置と前記指定位置との距離rを算出する距離算出部を備え、
    前記投影球設定部は、前記距離算出部が算出した前記距離rに基づき前記半径Rの値を決定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記Rの値を前記rに一致させることを特徴とする請求項2に記載の画像処理装置。
  4. 前記指定受付部は、前記合成画像を表示した表示画面上に表示されるカーソルの当該画面上における位置に基づき、前記特定の位置の指定を受け付け、
    前記投影球設定部は、前記カーソルの動きに合わせて前記半径Rの値を可変することを特徴とする請求項1〜3のいずれか一項に記載の画像処理装置。
  5. 異なる視点から重複する対象を撮影した第1の静止画像の画像データおよび第2の静止画像の画像データを受け付ける画像データ受付ステップと、
    前記第1の静止画像を撮影したカメラおよび前記第2の静止画像を撮影したカメラと外部標定要素の関係が既知のレーザースキャナを用いた前記対象に対するレーザースキャンを行うことで得た点群位置データを取得する点群位置データ取得ステップと、
    前記重複する対象の特定の位置の指定を受け付ける指定受付ステップと、
    前記指定受付ステップで受け付けた指定位置の三次元位置を取得する三次元位置取得ステップと、
    前記指定位置の三次元位置に基づいて半径Rの値を決定した投影球を設定する投影球設定ステップと、
    前記第1の静止画像と前記第2の静止画像とを前記投影球に投影した第1の合成画像を形成する合成画像形成ステップと、
    前記合成画像形成ステップで形成された前記第1の合成画像の画像データを表示装置に送信するステップと、
    前記第1の合成画像と前記点群位置データの各点を前記投影球に投影した点群画像とを合成した第2の合成画像を得るステップと
    を備え、
    前記指定位置の前記三次元位置は、前記第2の合成画像における前記指定位置に対応する前記点群画像を構成する点の位置から求められることを特徴とする画像処理方法。
  6. コンピュータに読み取らせて実行させるプログラムであって、
    コンピュータに
    異なる視点から重複する対象を撮影した第1の静止画像の画像データおよび第2の静止画像の画像データを受け付ける画像データ受付ステップと、
    前記第1の静止画像を撮影したカメラおよび前記第2の静止画像を撮影したカメラと外部標定要素の関係が既知のレーザースキャナを用いた前記対象に対するレーザースキャンを行うことで得た点群位置データを取得する点群位置データ取得ステップと、
    前記重複する対象の特定の位置の指定を受け付ける指定受付ステップと、
    前記指定受付部で受け付けた指定位置の三次元位置を取得する三次元位置取得ステップと、
    前記指定位置の三次元位置に基づいて半径Rの値を決定した投影球を設定する投影球設定ステップと、
    前記第1の静止画像と前記第2の静止画像とを前記投影球に投影した第1の合成画像を形成する合成画像形成ステップと、
    前記合成画像形成ステップで形成された前記第1の合成画像の画像データを表示装置に送信するステップと、
    前記第1の合成画像と前記点群位置データの各点を前記投影球に投影した点群画像とを合成した第2の合成画像を得るステップと
    を実行させ、
    前記指定位置の前記三次元位置は、前記第2の合成画像における前記指定位置に対応する前記点群画像を構成する点の位置から求められることを特徴とする画像処理用プログラム。
JP2015181893A 2015-09-15 2015-09-15 画像処理装置、画像処理方法および画像処理用プログラム Active JP6615545B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015181893A JP6615545B2 (ja) 2015-09-15 2015-09-15 画像処理装置、画像処理方法および画像処理用プログラム
US15/264,950 US20170078570A1 (en) 2015-09-15 2016-09-14 Image processing device, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015181893A JP6615545B2 (ja) 2015-09-15 2015-09-15 画像処理装置、画像処理方法および画像処理用プログラム

Publications (2)

Publication Number Publication Date
JP2017058843A JP2017058843A (ja) 2017-03-23
JP6615545B2 true JP6615545B2 (ja) 2019-12-04

Family

ID=58237510

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015181893A Active JP6615545B2 (ja) 2015-09-15 2015-09-15 画像処理装置、画像処理方法および画像処理用プログラム

Country Status (2)

Country Link
US (1) US20170078570A1 (ja)
JP (1) JP6615545B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017090986A1 (en) 2015-11-23 2017-06-01 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling electronic apparatus thereof
US10339627B2 (en) 2016-10-10 2019-07-02 Gopro, Inc. Apparatus and methods for the optimal stitch zone calculation of a generated projection of a spherical image
EP3429210A1 (en) * 2017-07-13 2019-01-16 Thomson Licensing Methods, devices and stream for encoding and decoding volumetric video
EP3432581A1 (en) * 2017-07-21 2019-01-23 Thomson Licensing Methods, devices and stream for encoding and decoding volumetric video
JP2019100995A (ja) 2017-12-08 2019-06-24 株式会社トプコン 測量画像表示制御装置、測量画像表示制御方法および測量画像表示制御用プログラム
EP3606032B1 (en) * 2018-07-30 2020-10-21 Axis AB Method and camera system combining views from plurality of cameras
US10715783B1 (en) * 2019-03-01 2020-07-14 Adobe Inc. Stereo-aware panorama conversion for immersive media
WO2021184326A1 (zh) * 2020-03-20 2021-09-23 深圳市大疆创新科技有限公司 电子装置的控制方法、装置、设备及系统
CN111464782B (zh) * 2020-03-31 2021-07-20 浙江大华技术股份有限公司 一种枪球联动控制方法、装置、电子设备及存储介质
CN113205581B (zh) * 2021-05-21 2023-03-21 广东电网有限责任公司 一种电缆顶管的探测方法及系统

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4583883B2 (ja) * 2004-11-08 2010-11-17 パナソニック株式会社 車両用周囲状況表示装置
JP5800501B2 (ja) * 2010-03-12 2015-10-28 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、及び、表示制御方法
JP5740826B2 (ja) * 2010-03-29 2015-07-01 セイコーエプソン株式会社 画像表示装置、画像情報処理装置及び画像情報処理方法
JP4796194B1 (ja) * 2010-03-31 2011-10-19 株式会社パスコ カーソルの表示方法およびカーソルの表示プログラム
US9407904B2 (en) * 2013-05-01 2016-08-02 Legend3D, Inc. Method for creating 3D virtual reality from 2D images
US9288476B2 (en) * 2011-02-17 2016-03-15 Legend3D, Inc. System and method for real-time depth modification of stereo images of a virtual reality environment
JP6186775B2 (ja) * 2012-05-31 2017-08-30 株式会社リコー 通信端末、表示方法、及びプログラム
US9398215B2 (en) * 2013-04-16 2016-07-19 Eth Zurich Stereoscopic panoramas
CN110401795A (zh) * 2013-04-30 2019-11-01 索尼公司 图像处理装置、图像处理方法和程序
US9903950B2 (en) * 2014-08-27 2018-02-27 Leica Geosystems Ag Multi-camera laser scanner
JP6450589B2 (ja) * 2014-12-26 2019-01-09 株式会社モルフォ 画像生成装置、電子機器、画像生成方法及びプログラム
US9589327B2 (en) * 2015-06-10 2017-03-07 Samsung Electronics Co., Ltd. Apparatus and method for noise reduction in depth images during object segmentation

Also Published As

Publication number Publication date
US20170078570A1 (en) 2017-03-16
JP2017058843A (ja) 2017-03-23

Similar Documents

Publication Publication Date Title
JP6615545B2 (ja) 画像処理装置、画像処理方法および画像処理用プログラム
JP6484349B2 (ja) カメラリグおよび立体画像キャプチャ
US8581961B2 (en) Stereoscopic panoramic video capture system using surface identification and distance registration technique
JP5580164B2 (ja) 光学情報処理装置、光学情報処理方法、光学情報処理システム、光学情報処理プログラム
WO2018076154A1 (zh) 一种基于鱼眼摄像机空间位姿标定的全景视频生成方法
JP2018524832A (ja) パノラマバーチャルリアリティコンテンツの全方位ステレオキャプチャおよびレンダリング
JP6223169B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6398472B2 (ja) 画像表示システム、画像表示装置、画像表示方法、およびプログラム
JP2017208619A (ja) 画像処理装置、画像処理方法、プログラム及び撮像システム
GB2555908A (en) Multi-tier camera rig for stereoscopic image capture
CN107563959B (zh) 全景图生成方法及装置
JP2010276433A (ja) 撮像装置、画像処理装置及び距離計測装置
CN111340959B (zh) 一种基于直方图匹配的三维模型无缝纹理贴图方法
TWI615808B (zh) 全景即時影像處理方法
US8908012B2 (en) Electronic device and method for creating three-dimensional image
JP6579706B2 (ja) 画像処理装置、画像処理方法および画像処理用プログラム
JP2016114445A (ja) 3次元位置算出装置およびそのプログラム、ならびに、cg合成装置
CN110796690B (zh) 图像匹配方法和图像匹配装置
JP6625654B2 (ja) 投影装置、投影方法、および、プログラム
JP2005275789A (ja) 三次元構造抽出方法
TWI662694B (zh) 三維影像攝取方法及系統
JP6610741B2 (ja) 画像表示システム、画像表示装置、画像表示方法、およびプログラム
KR101986433B1 (ko) 시점 변환을 이용하는 영상 스티칭 방법 및 시스템
TWI672950B (zh) 可補償影像變化的影像裝置
WO2019100216A1 (zh) 3d建模方法、电子设备、存储介质及程序产品

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180821

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191106

R150 Certificate of patent or registration of utility model

Ref document number: 6615545

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250