JP2011518383A - レーザースキャンされたポイントの集合体を用いて選択的圧縮マスクを生成する方法 - Google Patents

レーザースキャンされたポイントの集合体を用いて選択的圧縮マスクを生成する方法 Download PDF

Info

Publication number
JP2011518383A
JP2011518383A JP2011504943A JP2011504943A JP2011518383A JP 2011518383 A JP2011518383 A JP 2011518383A JP 2011504943 A JP2011504943 A JP 2011504943A JP 2011504943 A JP2011504943 A JP 2011504943A JP 2011518383 A JP2011518383 A JP 2011518383A
Authority
JP
Japan
Prior art keywords
data
camera
compression
region
camera data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011504943A
Other languages
English (en)
Other versions
JP2011518383A5 (ja
Inventor
ジェイムズ イー. ハガン,
アルカディウス ウイソッキ,
マルチン ミカエル クミーチク,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tele Atlas BV
Original Assignee
Tele Atlas BV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tele Atlas BV filed Critical Tele Atlas BV
Publication of JP2011518383A publication Critical patent/JP2011518383A/ja
Publication of JP2011518383A5 publication Critical patent/JP2011518383A5/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

本発明は、モバイルマッピングシステムのカメラデータを処理する方法に関し、a)前記モバイルマッピングシステム(101)の少なくとも1つのカメラ(9(j))からカメラデータを取得する工程と、b)前記カメラデータにおける少なくとも1つの領域を検出する工程と、c)第1領域におけるカメラデータに圧縮技術を適用する工程とを有する。前記方法は、更に、少なくとも第1レンジセンサ(3(1))から、レンジセンサデータ(101)を取得する工程を有する。前記レンジセンサデータは、少なくとも部分的に前記カメラデータに対応する。また、前記工程b)が前記レンジセンサデータを用いて前記カメラデータ(102)における前記少なくとも1つの領域を認識する工程を有する。

Description

本発明は、モバイルマッピングシステム(MMS)からのカメラデータを処理する方法、コンピュータ装置、そのようなコンピュータ装置を含むデータ処理システム、コンピュータープログラム、及びそのようなコンピュータプログラムが供給されたデータキャリアに関する。
いくつかのMMSアプリケーションにおいて、その主な目的は、例えば、カーナビゲーションシステムにおいて用いられる、通りの「実世界」2D及び/または3D画像で後で用いられる、建物の外観や、木、道路標識、街頭等のその他の固定のオブジェクトの画像を撮影することである。そして、これらの画像は、ドライバーが車の窓を通して見たときの実世界の景色に対応する2D及び/または3D画像をナビゲーションシステムの画面上で見ることができるように、そのようなナビゲーションシステムを有する車のドライバーに表示される。そのような画像は、カーナビゲーションシステム以外の他のアプリケーション、例えば、スタンドアローンシステムまたはネットワーク環境において協動するコンピュータ上で遊ぶことのできるゲームで用いることもできる。そのような環境はインターネットであってもよい。以下に示す本発明の解決法は、特定のアプリケーションに限られるものではない。
画像は収集されて格納され、道路網の相当の部分をカバーするために多くの画像が撮影されるにつれ、非常に大きなデータサイズとなる。従って、画像データは、おそらく複数のカメラから得られる多くの像のフレームを含む。画像データを管理可能なサイズに減らすために、圧縮技術を用いることができる。一般的に、画像の品質は圧縮量に反比例する。このことは、可能な圧縮技術が画像データに適用されるのにも関わらず、交通標識などのアイテムを認識可能/判読可能に保たなければいけないことからすると、不利である。
従来例によれば、各画像における異なる注目領域を識別し、第1の注目領域では(比較的高い)第1圧縮因数を用い、第2の注目領域では(比較的低い)第2圧縮因数を用いる技術はすでに知られている。これにより、交通標識などの価値の高い情報を捨てること無く、比較的高いデータサイズ削減を確実に行うことができる。この技術は、ラスター画像(例えばカメラデータ)の差分圧縮と呼ばれ、近頃の文書スキャン圧縮システムの主な構成要素となっている。
これらの従来例の解決法(例えば、Luratech社のLuraDocument)の殆どは、テキスト認識を、注目領域を識別する手段として用いている。そのようなシステムの根底となる仮定は、非テキスト領域をより高いレートで圧縮(すなわち、よりロスが多くなる)してもよいということである。そのようなアルゴリズムは、演算コストが高く、複雑で、MMSデータに適用された場合、コンピュータ能力にかなりの負担をかけならないだろう。また、テキスト認識アルゴリズムは、認識のために、フォント、文字間隔、テキストの向きの前提を必要とする。最も重要なのは、そのような技術がテキストを含む注目領域を認識することに限られていることである。
2006年10月30日に提出され、本願の出願時には公開されていなかったPCT/NL2006/050269は、ある被写体を認識するために、スキャナを用いて画像における領域を探すことにより画像認識を補助するシステムについて記載している。PCT/NL2006/050269は、領域を探すことについてのみ言及しているが、カメラデータ量を管理することの問題について、何も述べていない。
2007年11月7日に提出され、本願の出願時には公開されていなかったPCT/NL2007/050541は、例えば、個人の機密データをカメラデータから削除するために、ある被写体を識別するためにどのようにスキャナデータを用いることができるかについて記載している。ここでも、この文書はカメラデータ量を管理することの問題について、何も述べていない。
本発明は、比較的少ないコンピューター能力を用いて実行することができる差分圧縮アルゴリズムを提供することを目的とする。
PCT/NL2006/050269(WO2008/054203(A1)) PCT/NL2007/050541(CA2705019(A1))
一様態によれば、モバイルマッピングシステムのカメラデータを処理する方法であって、
a)前記モバイルマッピングシステムの少なくとも1つのカメラからカメラデータを取得する工程と、
b)前記カメラデータにおける少なくとも1つの領域を検出する工程と、
c)第1領域におけるカメラデータに圧縮技術を適用する工程とを有し、
前記方法が、更に、少なくとも第1レンジセンサから、少なくとも部分的に前記カメラデータに対応するレンジセンサデータを取得しする工程を有し、前記工程b)が前記レンジセンサデータを用いて前記カメラデータにおける前記少なくとも1つの領域を認識することを特徴とする方法を提供する。
更に、別の様態によれば、プロセッサと、前記プロセッサに接続されたメモリとを含むコンピュータ装置であって、前記メモリは前記プロセッサに以下の処理を行わせるデータと命令とを含むコンピュータプログラムを有し、前記プロセッサは、
a)前記モバイルマッピングシステムの少なくとも1つのカメラからカメラデータを取得し、
b)前記カメラデータにおける少なくとも1つの領域を検出し、
c)第1領域におけるカメラデータに第1圧縮技術を適用し、
前記プロセッサは、更に、少なくとも第1レンジセンサから、少なくとも部分的に前記カメラデータに対応するレンジセンサデータを取得することができ、前記処理b)が前記レンジセンサデータを用いて前記カメラデータにおける前記少なくとも1つの領域を認識する処理を行うことを特徴とするコンピュータ装置を提供する。
また、一様態によれば、上記記載のコンピュータ装置と、移動体システムとを有するデータ処理システムであって、前記移動体システムが、時間、位置、方位データを供給するための位置判定システムと、前記第1レンジセンサデータを供給するための少なくとも第1レンジセンサと、前記画像データを供給するための少なくとも1つのカメラとを含むことを特徴とするデータ処理システムを提供する。
また、一様態によれば、コンピュータに、上記記載の方法の各工程を実行させるためのプログラムを提供する。
また、一様態によれば、そのようなプログラムを格納したことを特徴とするコンピュータが読み取り可能な記憶媒体を提供する。
なお、提供された実施形態は、テキストを基準とした従来技術の解決方法よりも、計算コストが少なく、より簡素である。本実施形態におけるように、レンジセンサを用いることで、交通標識(平面オブジェクト)を見分ける為に、認識すべきテキストのフォント、文字間隔、向きに関する前提が必要なくなる。また、本実施形態はテキストを見分けることだけに限らず、他の多くのオブジェクトを見分けることができる。
図1は、カメラとレーザースキャナとを有するMMSシステムを示す図である。 図2は、位置及び方位パラメータを示す図である。 図3は、2台のカメラと2つのレンジセンサが屋根に取り付けられた車の概略上面図である。 図4aは、本発明を実行可能なコンピュータ装置を示す図である。 図4bは、本発明の実施形態にかかるフローチャートである。 図5は、一実施形態にかかるカメラデータを示す図である。 図6は、一実施形態にかかるレンジセンサデータを示す図である。 図7は、一実施形態にかかる仕切られた領域を示す図である。 図8a及び8bは、カメラデータに投影されたセンサデータを示す図である。 図9は、カメラデータにおける注目領域を示す図である。 図10は、一実施形態にかかるカメラデータを示す図である。
図を参照して、本発明を詳細に説明するが、図は本発明の実施形態を表すことを目的としており、発明の範囲を限定するものではない。本発明の範囲は、添付の請求項及び技術的に同等なものにより定義される。
本発明は、主に、モバイルマッピングシステム(MMS)におけるカメラが撮影した画像の処理に関する。更に詳しくは、いくつかの実施形態において、本発明はそのような画像の処理に関する。しかしながら、添付の請求項の範囲が及ぶその他のアプリケーションが除外されるものではない。例えば、カメラは、飛行機や船舶などの他の適する運送手段によって運ぶことができる。
図1は、車1の形態を取るMMSシステムを示す。車1には、1以上のカメラ9(I)、I=1、2、3、…I、及び1以上のレーザースキャナ3(j)、j=1、2、3…Jが備えられている。
ここでは、カメラ9(i)が撮影したデータをカメラデータと呼ぶ。これは2Dデータである。スキャナ3(j)によって得られたデータをスキャナデータと呼ぶ。これは、3Dデータである。カメラデータとスキャナデータとを合わせてMMSデータと呼ぶ。
レンジセンサ
少なくとも2つ以上のレーザースキャナ3(j)からの情報を用いることができる。ドライバーは、目的の道路を車1で走ることができる。レーザースキャナ3(j)は、いくつかの方角の組について、レンジセンサとレンジセンサにより感知されたオブジェクトとの距離を検出することのできるどのような種類のレンジセンサにも置き換えることができる。このような代わりのレンジセンサは、例えば、レーダーセンサやライダー(LIDAR)センサである。レーダーセンサを用いる場合、その範囲及び方角計測データは、レーザースキャナで得ることができるものと互換性がなければならない。
レンジセンサは、異なるオブジェクトに関するそのようなポイント集合体を提供する。異なるオブジェクトは同じ場所に無いため、そのようなポイント集合体のそれぞれに関連するポイントは、どのオブジェクトに属するかに応じて、明らかな異なるレンジセンサまでの距離及び/またはレンジセンサへの方角を示す。従って、レンジセンサに応じたこれら範囲の差を用いることで、異なるオブジェクトに対するマスクを簡単に作ることができる。そして、これらのマスクは、カメラが撮影した画像におけるオブジェクトを識別するために、その画像に適用することができる。これは、それらのオブジェクトを識別するための信頼できる方法であり、画像データにのみ依存するよりも簡単であることが分かった。
レーザースキャナデータは多くの画素を有しており、各画素は向き情報、すなわち、特定の画素を取得するときに向けられたレーザースキャナの向き、及び距離情報、すなわち、レーザースキャナと検出されたオブジェクトとの間の距離を有する。
一実施形態では、レンジセンサ/レーザースキャナ3(j)は、ここで説明する実施形態のために充分に密な出力を生成するために、最低50Hzで1度の解像度を生成するように構成される。ジック株式会社により製造されたLMS291-S05モデルのようなレーザースキャナは、そのような出力を生成することができる。このようなレーザースキャナは、交通標識などのようなアイテムを検出するために充分な解像度を提供する。
画像センサ
「カメラ」という用語は、例えば、Ladybug(登録商標)を含む、どのようなタイプの画像センサも含む。
MMSシステムにおけるカメラは、同じシーンの重なる部分を有する複数の画像を描画するように、素早く連写画像を撮影することができる。そのような重なる部分では、撮影されたオブジェクトを複数の画像において見ることができる。
本発明の原則は、例えば、レーザー、レーダーまたはライダー(LIDAR)など、どのようなタイプのレンジセンサを使用しているときにも適用することができる。画像は、適切な運送手段(例えば、飛行機)によって運ばれる、どのようなタイプのカメラによっても撮影することができる。
車1には、複数の車輪2が備えられている。更に、車1には、高精度の位置/方位決定システムが備えられている。そのようなシステムは、車1の位置及び方位について、自由度6のデータを提供するように構成されている。図1に一実施形態を示す。図1に示すように、位置/方位決定システムは、以下のデバイスを含む:
●アンテナ8に接続され、複数の衛星SLk(k=1、2、3、…)と通信するように構成され、衛星SLkから受信した信号から位置信号を算出するGPS(global positioning system)ユニット。GPSユニットは、マイクロプロセッサμPに接続されている。マイクロプロセッサμPはGPSユニットから受信されたデータを時間に伴って格納するように構成されている。更なる処理を行うために、そのようなデータを外部コンピュータ装置に送ってもよい。一実施形態においては、マイクロプロセッサμPは、GPSユニットから受信した信号に基づいて、車1のモニタ4に表示するのに適した表示信号を決定し、車がどこにいるか、及び、どの方向に進んでいるか、(注:一般的にGPSが用いられる。及び元々の米国国防総省のGPSと同様に、ヨーロッパのGalileoまたはロシアのGLONASSなどのシステムも「GPS」を構成することがある。)をドライバーに知らせる。
●DMI(距離計測装置)。この装置は、1以上の車輪2の回転数を感知することにより、車1の走行距離を計測する走行距離計である。DMIもまた、マイクロプロセッサμPに接続されている。マイクロプロセッサμPは、DMIから受信したデータを時間に伴って格納するように構成されている。そのようなデータも、更なる処理のために外部コンピュータに送信しても良い。一実施形態において、マイクロプロセッサμPは、GPSユニットからの出力信号から表示信号を算出する間、DMIによって計測された距離を考慮に入れる。
●IMU(内部計測ユニット)。このようなIMUは、回転加速度を計測するために備えられた3つのジャイロユニット及び、3つの直交方向に沿った3つの並進運動加速器として実現することができる。IMUもまた、マイクロプロセッサμPに接続されている。マイクロプロセッサμPは、IMUから受信したデータを時間に伴って格納するように構成されている。そのようなデータも、更なる処理のために外部コンピュータに送信しても良い。
図1に示すようなシステムは、例えば、車1に搭載された1以上のカメラ9(i)で画像を撮影することにより、地理的データを収集する。カメラは、マイクロプロセッサμPに接続されている。そして、レーザースキャナ3(j)は、目的の道路を車1が走行している間に、レーザーサンプルを取得する。従って、レーザーサンプルは、これらの目的の道路に付随する周辺の状況に関するデータを含み、例えば、建物のブロック、木、交通標識、駐車車両、人などに関するデータを含む。
レーザースキャナ3(j)もまた、マイクロプロセッサμPに接続され、これらのレーザーサンプルをマイクロプロセッサμPに送る。
GPS、IMU及びDMIの3つの計測装置から、できるだけ正確な位置及び方位計測結果を提供することは、一般的な要望である。これらの位置及び方位データは、カメラ9(i)が写真を撮影し、レーザースキャナ3(j)がレーザーサンプルを取得する間に計測される。画像(カメラデータ)及びレーザーサンプル(スキャナデータ)は共に、後で用いるために、これらの画像及びレーザーサンプルを取得したときの、対応する車1の位置及び方位データに関連づけて、マイクロプロセッサμPの適したメモリ内に保存する。GPS、IMU、DMI、カメラ9(i)及びレーザースキャナ3(j)からのすべてのデータを将来的に相互に関連づけるための別の方法は、これらすべてのデータにタイムスタンプを押し、タイムスタンプを押したデータを他のデータと結びつけてマイクロプロセッサのメモリに格納することである。他の時間同調マーカーを代わりに用いてもよい。
画像及びレーザーサンプル(それぞれ、カメラデータ及びスキャナデータ)は、例えば、建物のブロックの外観や交通標識等の情報を含む。
図2は、図1に示す3つの計測ユニットGPS、DMI、IMUからどのような位置信号を得ることができるかを示している。図2は、マイクロプロセッサμPが6つの異なるパラメータ、すなわち、予め決められた座標系における、原点に対する3つの距離パラメータx、y、zと、それぞれがx軸、y軸、z軸を中心とした回転を定義する、3つの角度パラメータωx、ωy、ωzを計算するように構成されている。z方向は、重力ベクトルの方向のz方向に一致する。
図3は、2つのレンジセンサ3(1)、3(2)(レーザースキャナであってもよいが、別の例として、例えば、レーダーであっても良い。)と、2つのカメラ9(1)、9(2)を有するMMSを示す。2つのレンジセンサ3(1)、3(2)は、車1の進行方向に対し、車1の右側を向くように、車1の屋根に配置されている。レンジセンサ3(1)のスキャン方向をSD1と呼び、レンジセンサ3(2)のスキャン方向をSD2と呼ぶ。カメラ9(1)も右側、つまり、車1の進行方向に対して垂直な方向を向いている。カメラ9(2)は、進行方向を向いている。この設定は、車両が右側を通行するすべての国に適している。この設定は、車両が道の左側を通行するすべての国では、カメラ9(1)及びレーザースキャナ3(1)、3(2)が車の屋根の左側に設置されるように変更することが好ましい(ここでも、「左」は、車1の進行方向に向かって定義されている)。なお、当業者であれば、これ以外の多くの構成を用いることが可能であることは、理解されるであろう。例えば、1つのレンジセンサ3(1)を車1の右側に配置し、2つ目のレンジセンサ3(2)を車1の左側に配置しても良い。勿論、レーザースキャナが1つであっても良い。
車1のマイクロプロセッサは、コンピュータ装置により実現することができる。そのようなコンピュータ装置の一例を図4aに示す。
図4aは、計算処理を行うためのプロセッサ11を有するコンピュータ装置10の全体を示す。
プロセッサ11は、ハードディスク12、読み出し専用メモリ(ROM)13、EEPROM(Electrically Erasable Programmable Read Only Memory)14、及びRAM(Random Access Memory)15を含む、複数のメモリ構成部分に接続されている。これらのメモリタイプが必ずしもすべて無くてもよい。更に、これらのメモリ構成部分はプロセッサ11の側に位置していなくても良く、プロセッサ11から離れた場所にあっても良い。
プロセッサ11はまた、キーボード16やマウス17などの、ユーザが指示やデータを入力するための手段に接続されている。タッチスクリーン、トラックボール,及び/または音声変換器などの、当業者に知られている他の入力手段を供給しても良い。
プロセッサ11に接続された読み出し部19が備えられている。読み出し部19は、フロッピー(登録商標)ディスク20またはCDROM21などのデータキャリアからデータを読み出したり、または可能であればデータを書き込んだりするように構成されている。他のデータキャリアとしては、当業者に知られているように、例えばテープ、DVD、CD−R、DVD−R、メモリスティックなどがある。
プロセッサ11は、出力データを紙に印刷するためのプリンタ23と、例えば、モニターやLCD(Liquid Crystal Display)スクリーン、または、当業者に知られている他のタイプの表示器などの表示器18に接続されている。
プロセッサ11をスピーカ29に接続してもよい。
プロセッサ11は、例えば、PSTN(Public Switched Telephone Network)、LAN(Local Area Network)、WAN(Wide Area Network)、インターネットなどの通信ネットワーク27に、I/O手段25により接続してもよい。プロセッサ11は、ネットワーク27を介して、他の通信装置と通信するように構成しても良い。道路を移動しながら車両がデータを集めている時には、これらの接続が、リアルタイムですべてに接続されていなくても良い。
データキャリア20、21は、実施形態に応じた方法を実行する能力をプロセッサに提供するように構成された、データ及び指示の形式のコンピュータプログラムであってもよい。しかしながら、そのようなコンピュータプログラムは、別の例として、遠隔通信ネットワーク27を介してダウンロードしても良い。
プロセッサ11は、スタンドアローンのシステムとして、またはそれぞれが大きなコンピュータプログラムのサブタスクを実施する複数のパラレル処理プロセッサとして、または、いくつかのサブプロセッサを有する1以上のメインプロセッサとして実現することができる。本発明の機能の一部は、ネットワーク27を介してプロセッサ11と通信する遠隔プロセッサにより実施することもできる。
車1に応用した場合、コンピュータ装置は、図4aに示すすべての構成を持つ必要は無いことが分かる。例えば、コンピュータ装置はその場合、スピーカー及びプリンタを有さなくてもよい。車1で実施する場合、コンピュータ装置は、少なくとも、プロセッサ11、適切なプログラムを格納するためのいくつかのメモリ、及びオペレータからの指示及びデータを受けるとともに、オペレータに出力データを示すための何らかの種類のインタフェースが必要である。
カメラ9(i)、レーザースキャナ3(j)及び、位置/方位計測システムによりそれぞれ得られた、画像、スキャン及び格納された位置及び方位データを後処理するために、車1上には無いかもしれないが、従来はオフラインでの後処理するために建物内にある、図4aに示す物と同様の構成を用いることができる。カメラ9(i)、スキャナ3(j)、及び位置/方位計測システムにより得られた画像、スキャン及び位置/方位データは、メモリ12〜15のいずれかに保存される。これは、まずDVDやメモリスティック等に格納することにより実行するか、または、メモリ12、13、14、15から、できれば無線により送信することにより実行することができる。計測値にはすべてタイムスタンプを付すことが好ましく、これらの様々な時間計測値も格納される。
実施形態
実施形態によれば、スキャナデータは、カメラデータ内の差分圧縮パラメータを設定するために、カメラデータにおける領域をマスク処理するためのマスクを生成するために用いられる。そのため、スキャナデータは、カメラデータにおける領域を決定するために用いられる。この領域は注目領域で、異なる注目領域はそれぞれに割り当てられた異なる注目レベルを有する。そして、異なる圧縮パラメータは、異なる注目レベルに適している。
そのため、モバイルマッピングシステムのカメラデータを処理する方法であって、
a)前記モバイルマッピングシステムの少なくとも1つのカメラ9(j)からカメラデータを取得する工程と、
b)前記カメラデータにおける少なくとも1つの領域を検出する工程と、
c)第1領域におけるカメラデータに圧縮技術を適用する工程とを有し、
前記方法が、更に、少なくとも第1レンジセンサ(3(1))から、少なくとも部分的に前記カメラデータに対応するレンジセンサデータを取得しする工程を有し、前記工程b)が前記レンジセンサデータを用いて前記カメラデータにおける前記少なくとも1つの領域を認識することを特徴とする方法を提供する。
該方法は更に、
d)第2領域における前記カメラデータに第2圧縮技術を適用する。少なくとも2つの領域は、異なる注目レベルを有する注目領域であっても良い。前記第1圧縮技術は第1圧縮因子を適用する工程を含み、前記第2圧縮技術は第2圧縮因子を適用する工程を含んでもよく、前記第2圧縮因子は、前記第1圧縮因子よりも大きい。勿論、これは逆、すなわち、第1圧縮因子が第2圧縮因子よりも小さくても良い。
これにより、第1領域に第1の圧縮技術を用い、第2領域に第2の技術を用いることができる。第1の圧縮技術では、第1圧縮因子(比較的高いデータ削減)を用いてもよい。第2の技術では、第2圧縮因子(比較的低いデータ削減)を用いる第2の圧縮技術を用いてもよい。
本実施の形態は、スキャナデータを用いて、カメラデータにおける領域を決定するアルゴリズムを用いる。このアルゴリズムは、領域検出アルゴリズムと呼ばれている。このような領域検出アルゴリズムの例を以下に示す。領域検出アルゴリズムは柔軟性があり、異なるアプリケーション、異なる領域(都市、田園、工業地帯など)毎に、異なっていてもよい。
そのため、前記工程b)が、前記少なくとも1つの領域を検出するために、領域検出アルゴリズムを前記レンジセンサデータに適用する工程を含んでいても良い。前記領域検出アルゴリズムは、
1)所定距離または領域基準内にある、
2)平面、
3)特定のオブジェクト(またはオブジェクトクラス)、
4)特定のオブジェクト(またはオブジェクトクラス)ではない、
5)予め決められた特徴を有する表面、
である領域を検出するように構成することができる。
オブジェクトクラスは、例えば、木、車、人間などである。予め決められた特徴を有する表面は、例えば、ある決められた寸法を有するか、または、予め決められた形状(円形、三角形、正方形)を持つ平面の表面である。
本実施形態では、カメラデータ内の領域を検出するために、カメラデータ以外の情報を利用する。カメラデータ及びスキャナデータは、空間分析を用いて相互に関連付けられる。
スキャナデータをカメラデータに関連付けるまたは投影する処理は、ここで説明するようにして行うことができる。スキャナデータにはタイムスタンプが付される。このタイムスタンプは、後で、その瞬間の車1の厳密な位置及び方位を計算するために使用することができる。車1の位置及び方位は、GPS(global positioning system)ユニット、DMI(距離計測装置)及び/またはIMU(内部計測ユニット)により得られたログデータから推定することができる。車に対するレーザースキャナの位置及び方位は分かっているので、各レーザースキャナの点を実世界座標において計算することができる。
また、カメラデータにはタイムスタンプが付されており、車に対するその位置及び方位は分かっている。従って、カメラデータについて、実世界座標及び方位を判断することができる。そのため、スキャナデータとカメラデータの双方について、厳密な位置及び方位データを入手することができる。
カメラレンズパラメータ(焦点距離、キャリブレーションされた光学歪み)からの情報を利用することで、簡単な射影方程式を用いて、各スキャナデータをカメラデータの座標空間にマッピングすることができる。従って、画像データの各画素を、深さ、または、カメラで検出されたオブジェクトまたは表面に関連付けることができる。スキャナデータの解像度は、通常、画像データよりも低いため、レーザースキャナデータの集合が通常必要となる。これは、レーザースキャナポイントからメッシュを生成して、そのメッシュをカメラデータにマッピングするか、または、各レーザーポイントを画像座標にマッピングして、拡張などの画像技術を用いて画像空間で推定することにより行うことができる。
従って、スキャナデータ及びカメラデータは、実際には、画像データ及び画像空間基準データの2種類の情報を含んでいる。画像データは画像そのもの(点の集合体または複数の画素)を形成し、画像空間基準データは、どこで、またどの方向で画像が撮影されたかを定義した(メタ)情報を含む。画像空間基準データは、例えばx、y、z及びα、β、γからなる6つのエントリを含んでもよく、ここでは、x、y、z座標は特定のカメラ9(j)またはレンジセンサ3(i)の(相対)位置を定義するために用いられ、α、β、γは、特定のカメラ9(j)またはレンジセンサ3(i)の特定のカメラまたはレーザースキャナの(相対)方向を定義する角度である。
フローチャート
図4bは、本実施形態のフローチャートを示す。このフローチャートは、このフローチャートを行う能力をプロセッサ11に供給するように構成されたデータ及び命令の形式で、符号化されていてもよい。データと命令はメモリに格納され、プロセッサ11により読み出し及び実行可能としてもよい。
最初の動作101で、コンピュータ装置10はMMSデータを上述したようにして取得する。この動作の結果、図4bに概略的に示すように、スキャナデータとカメラデータとが得られる。
第2の動作102において、コンピュータ装置10はスキャナデータを用いて領域を検出する。このために異なる領域検出アルゴリズムを用いても良い。領域は、注目レベルを割り当てることのできる注目領域である。例えば、いくつかの領域には第1注目レベルが割り当てられ(例えば、平面オブジェクトは、交通標識である可能性が高い)、他のオブジェクトには、第1注目レベルよりも低い第2注目レベルが割り当てられる(例えば、所定距離よりも遠くにある領域、または、特定のオブジェクト(またはオブジェクトクラス)に関連付けられた領域)。
第1の領域検出アルゴリズムによれば、領域は例えば、車1から10メートルなどの所定距離または領域内にある領域として定義される。スキャナデータは距離情報を含むため、車1から所定距離内にあるカメラデータにおける全ての領域を簡単に判断することができる。勿論、所定距離は、車1に対してだけではなく、カメラ9(I)、I=1、2、3、…I、またはレーザースキャナ3(j)、j=1、2、3、…Jに対して定義しても良い。
また、領域は車に対して、所定領域内にある領域として定義しても良く、所定領域は、立方体の形状の領域、またはその他適した形状、例えば菱形、円筒、球の弧などの形状の領域であってもよい。
所定距離または領域外の全ての領域は第1領域と定義し、所定距離または領域内の領域は第2領域と定義することができる。なお、領域は必ずしもまとまっている必要はない。以下に説明するように、差分圧縮に渡される独立ピクセルのセットであるマスクが生成される。
本実施形態によれば、例えば、ポリゴンを形成するメッシュ生成を用いた集合技術を用いて、検出された領域は集められ、一個のオブジェクトとして分離される。使用可能な技術としては、RANSACアルゴリズムがある。
本実施形態はいくつかの利点を有する。例えば10mより離れた全てのものが、次の画像で視認可能にできるとよい。そのため、60m離れた所にテキスト(または他の情報)があったとしても、カメラが撮影する次の画像で見ることができるため、無視することができる。従って、単一画像が効果的な方法で圧縮されるだけではなく、続く画像も効果的な方法で圧縮される。
第2領域検出アルゴリズムによれば、領域は平面オブジェクトとして定義される。平面オブジェクトは、少なくともある(実世界)サイズ、例えば、少なくとも30×30cmの大きさを有する平面オブジェクトとして定義することができる。平面オブジェクトの実世界サイズは、角度及び距離データを用いてスキャナデータから計算することができる。平面オブジェクトはスキャナデータから簡単に取得することができるため、交通標識などをフィルタリングすることができる。
第3領域検出アルゴリズムによれば、アルゴリズムは車などの特定オブジェクトの為のスキャナデータを分析するように構成されている。特定のアプリケーションについて、車に興味が無ければ、領域検出アルゴリズムは車のような形状のオブジェクトを検出し、それらのオブジェクトを、低い注目レベルが割り当てられた第1領域として定義してもよい。逆に、特定のアプリケーションについて、車などの特定のオブジェクトに特別な興味がある場合、領域検出アルゴリズムは車のような形状のオブジェクトを検出し、それらのオブジェクトを高い注目レベルが割り当てられた領域として定義してもよい。
また、上述したアルゴリズムの組み合わせを用いても良く、その場合、3つの領域を見分けることができる:
−平面であって、所定領域内にあり、高い注目レベルが割り当てられる領域、
−平面ではなく、所定領域内にあり、中程度の注目レベルが割り当てられる領域、
−所定領域外にあって、低い注目レベルが割り当てられる領域。
一般的に、適切な数の領域及びタイプの領域が識別され、それぞれに特定の注目レベルが割り当てられ、及び/または、適切な圧縮技術の処理対象となる。
通常、2種類の領域検出アルゴリズムを確認することができる:
1)距離規範を用いた領域検出アルゴリズムと、
2)特定オブジェクトを検索するためのスキャナデータを分析するためのルールを用いた領域検出アルゴリズム。
図5〜図10の例は、これら2種類の領域検出アルゴリズムの組み合わせである。
更なる動作103において、動作102で検出された領域はカメラデータ上に投影される。
スキャナデータをカメラデータにリンクするための実証済みの方法があることが分かっている。例えば、レーザースキャナに連結され、レーザースキャナに同調したカメラにより、システムはレンジセンサデータと画像データとの間に直接的な相互関係を供給することを示した。このようなシステムは、例えば、
−Medienkommunikation IMKのFraunhofer-InstitutのProf. Dr. Dr. h.c. Martin Reiserによる、3D-CAM - Depth Camera and Depth Keying (http://www.imk.fhg.de/sixcms/media.php/130/3d cameng.pdf) 及び
−IEEEメンバーの G. Yahav及びISRAEL国, Yokneam, 3DV Systems Ltd.,のG. J. Iddan及びD. Mandelboumによる3D Imaging Camera for Gaming Application(http://www.3dvsystems.com/technology/3D%20Camera%20for%20Gaming-l.pdf)
により示されている。
その他、購入可能なシステムは、特別な赤外線カメラからの画像を通常のCCDセンサから得られたデータと統合する手段により、z方向の距離が拡張されたカメラ画像を構成する。
従来例に基づいて、カメラデータにおける各ピクセルの3D位置を判断することができる。しかしながら、スキャナデータをカメラデータにただ投影することも可能である。
動作104において、動作102及び103に基づいてマスクが生成される。マスクは識別された領域と、可能であれば各領域のタイプを指示するもの(平面、オブジェクトクラス、領域内にあるか領域外にあるか、など)及び/または識別された領域に割り当てられた注目レベルを含む。マスクは、特定領域に適用される望ましい圧縮技術を直接的に指示するものを含んでいても良い。
マスクは、最終的に、既に記述したような差分圧縮を適用するために用いられる。
動作103または104は、カメラデータの適切な部分が全て考慮されていることを確認するために、スキャナデータを拡張してもよい。この拡張については以下に更に詳細に説明する。
動作104は、画像座標空間におけるマスク生成である。図8aは、動作102/103の結果を示す。スキャナデータの解像度が比較的低いため、投影の結果は、領域ではなく、ポイントとなる。従って、動作103/104の一部としての拡張は、ポイントではなく、領域が生成されたことを確認するためである。マスクは異なる検出領域に関する情報を含み、マスクにおける領域は、スキャナデータの拡張されたポイントにより覆われる領域により定義される。そのため、拡張されたポイントは、マスクを形成するために用いることができる。
動作102〜104は、領域を検出し、カメラデータ/画像空間にマッピングする1つの動作と見なすこともできる。
先に定義したように、スキャナデータ及びカメラデータは、画像データと画像空間基準データの2種類の情報を含む。スキャナデータの画像データは画像そのもの(ポイントの集合体または複数の画素)を形成し、画像空間基準データは、どこで、またどの方向で画像が撮影されたかを定義した(メタ)情報を含む。なお、動作102は、スキャナデータの画像データを主に用い、動作103は、カメラデータの画像データと画像空間基準データを両方とも用いることは理解されるであろう。最終的に、動作105はカメラデータの画像データを主に用いる。
そのため、前記工程b)が、前記少なくとも1つの検出された領域を前記カメラデータ103に投影する工程を更に有する方法を提供する。さらに、前記工程b)が、マスクを生成する工程と、該生成したマスク104に基づいて前記工程c)を行う工程とを更に有する方法を提供する。更に、前記生成されたマスク104に基づいて、前記工程d)を実行しても良い。
最後の処理105において、差分圧縮がカメラデータに適用される。差分圧縮は、上述したように、第1領域において第1圧縮技術を用いる処理を含む。一実施形態によれば、第2圧縮技術は第2領域に適用される。第1圧縮技術は、(比較的高い)第1圧縮因子を用いる処理を含む。第2技術は(比較的低い)第2圧縮因子を用いる第2圧縮技術を用いる処理を含む。
圧縮技術は、マスクに含まれる情報に基づいて選択される。例えば、マスクが異なる領域に対する注目レベルを含む場合、適する圧縮技術を選択するために注目レベルを用いることができる。一実施形態によれば、高注目レベルは低圧縮因子(できれば、圧縮因子は0)に対応し、低注目レベルは高圧縮因子に対応する。
一実施形態によれば、「注目レベル」と品質因子との間で直接、並進運動秤が生成され、品質因子は、量的に計測された圧縮因子(例えば、JPEGは1から100を用い、100は最高品質)である。
また、2を超える領域を検出することができるが、このとき異なるまたは同じ圧縮技術を異なる領域に適用することができる。
なお、ここで、当業者であれば、一旦マスクが分かれば、どのように動作105を実行するか、すなわち、どのように微分JPEG圧縮技術などの微分圧縮技術を適用するかは、理解できるであろう。本実施形態はそのようなマスクを提供する方法を提供する。
図5は、例えば動作101の結果であるカメラデータの一例を示す。図5において、カメラから遠すぎて、解釈の訳に立たないオブジェクト(交通標識)を示すために、ボックスが描画されている。
図6は、例えば、動作101の結果であるスキャナデータの一例を示す。スキャナデータは3Dポイントの集合体で、各ポイントには例えば、レーザースキャナ3(j)、j=1、2、3、…Jに対する距離が対応付けられている。
上記では、動作102に関して、以下に定義するような異なる領域が得られる、異なる領域検出アルゴリズムを記載している。
1)車1、カメラ9、またはスキャナ3から所定距離または領域基準内にある領域
2)平面オブジェクト
3)車などの特定オブジェクトまたはオブジェクトクラス
4)車などの特定オブジェクトまたはオブジェクトクラスでない
5)所定の特徴を有する表面
図を参照して、1)と2)の組み合わせについて説明する。この例によれば、平面ではない全てのもの及びカメラに対して所定領域外にある全てのものが第1領域と識別され、カメラに対して所定領域内にある平面オブジェクトが第2領域と識別される。
まず、図7に概略が示されているような仕切られた領域の外にある全てのスキャナデータは第1領域と見なされる。図7はy方向がカメラ9が向いている方向に略一致する場合の座標システムを示している。この例では、この仕切られた領域は、
x=<−6;6>;y=<0.3:20>;z=<1;6>
と定義されている。
次の動作で、仕切られた領域内にある全ての平面オブジェクが検出され、第2領域と定義される。所定領域内にある、平面ではない全てのものが第1領域と定義される。これらの動作は、上述した動作102の一部として実行され、決められた領域が生成される。
上述したように、動作103において、領域がカメラデータ上に投影される。図8aは画像データ上に投影されたスキャナデータを概略的に示す。スキャナ3の解像度が限定されているかもしれないので、カメラデータの全ての関係ある部分が確実にすべて考慮されるようにするために、スキャナデータは拡張される。拡張されたスキャナデータを図8bに示す。
図9は、第2領域として検出されたカメラデータの一部を概略的に示す。この情報は、マスクを生成するために、動作104で用いられる。
マスクにより、異なる領域に対して異なる圧縮レートパラメータを用いることが可能になる(動作105)。図10は、動作105の可能な結果を示す。図10は、上述した例に基づいて、異なる圧縮率がかけられた再生画像を示す。
図から分かるように、カメラに最も近い街灯柱の交通標識は、まだ判読可能である。しかしながら、道路の先の方にある交通標識は、図5と比較して図10ではかなりぼやけており、解釈することができない(枠を参照)。これが、道路の先の方にある交通標識にカメラの近くにある交通標識よりも高圧縮因子を掛けた微分圧縮技術の結果である。道路の先の方にある交通標識は図5においてほとんど(全く)解釈できないため、安全に圧縮することができる。
圧縮技術
動作105を行う時に、異なる圧縮技術を用いることができる。例えば、第1及び第2圧縮技術は、カメラデータを圧縮するためにJPEG2000基準を用いても良い。JPEG2000により、異なる圧縮因子を品質要件に依存させることができる。
勿論、ウェーブレットに基づく圧縮技術のような、他の圧縮技術を用いることもできる。
更なる実施形態によれば、領域に用いられる圧縮技術は、色空間の削減である。これは、例えば、交通標識である可能性が高い平面領域に利用することができる。交通標識は人工建造物であるため、色空間は、 交通標識を作るために用いられたと分かっている、限られた数の色(国によって使用される色の組は異なるが、例えば、黒、白、青、赤、オレンジ)に狭めることができる。
一例として、例えば、http://vectormagic.stanford.edu/vectorize/uploadに記載されているVectorMagicソフトウエアを、これを実現するものとして参照する。一般的に、このような人工オブジェクトのベクトル化は、良い圧縮(データサイズ削減)技術である。
コンピュータ装置
上記記載によれば、プロセッサ11と、前記プロセッサに接続されたメモリ12、13、14、15とを含むコンピュータ装置10であって、前記メモリは前記プロセッサ11に以下の処理を行わせるデータと命令とを含むコンピュータプログラムを有し、前記プロセッサは、
a)前記モバイルマッピングシステム101の少なくとも1つのカメラ(9(j))からカメラデータを取得し、
b)前記カメラデータにおける少なくとも1つの領域を検出し、
c)第1領域におけるカメラデータに第1圧縮技術を適用し、
前記プロセッサ11は、更に、少なくとも第1レンジセンサ3(1)から、少なくとも部分的に前記カメラデータに対応するレンジセンサデータ101を取得することができ、前記処理b)が前記レンジセンサデータを用いて前記カメラデータ102における前記少なくとも1つの領域を認識する処理を行うことを特徴とするコンピュータ装置を提供する。
更なるコンピュータ装置によれば、前記プロセッサ11は、d)検出された第2領域における前記カメラデータに第2圧縮技術を適用する処理を更に行う。前記第1圧縮技術は第1圧縮因子を適用する処理を含み、前記第2圧縮技術は第2圧縮因子を適用する処理を含でもよく、前記第1圧縮因子は、前記第2圧縮因子よりも大きい。
前記処理b)は、少なくとも1つの領域を検出するために、領域検出アルゴリズムを前記レンジセンサデータに適用する処理を含む。前記領域検出アルゴリズムは、
−所定距離または領域基準内にある、
−平面、
−特定のオブジェクト(またはオブジェクトクラス)、
−特定のオブジェクト(またはオブジェクトクラス)ではない、
−予め決められた特徴を有する表面、
である領域を検出するように構成することができる。
また、前記処理b)は、前記少なくとも1つの検出された領域を前記カメラデータに投影する処理を更に有し、また、前記処理b)は、マスクを生成する処理と、該生成したマスクに基づいて前記処理c)を行う処理とを更に有する。また、前記生成されたマスク104に基づいて、前記処理d)を実行してもよい。
また、前記処理b)は、複数の領域を検出する処理を含み、前記領域の数は、1から前記スキャナデータにおける画素数まで変化する。また、前記圧縮技術は、色空間の削減であってもよい。
更なる実施形態によれば、上記記載のコンピュータ装置と、移動体システムとを有するデータ処理システムであって、前記移動体システムが、時間、位置、方位データを供給するための位置判定システムと、前記第1レンジセンサデータを供給するための少なくとも第1レンジセンサ3(i)と、前記画像データを供給するための少なくとも1つのカメラ9(j)とを含むことを特徴とするデータ処理システムが提供される。
一実施形態によれば、コンピュータに、上記記載の方法の各工程を実行させるためのプログラムが提供される。
一実施形態によれば、上記記載のプログラムを格納したことを特徴とするコンピュータが読み取り可能な記憶媒体が提供される。
別の実施形態
更なる実施形態によれば、複数の領域が認識され、異なる領域は異なる圧縮技術を適用する対象となる。各領域は分類され、この分類に応じて圧縮技術が適用される。分類は、例えば、複数の領域に注目レベルを割り当てることにより行われる。
一実施形態によれば、モバイルマッピングシステムのカメラデータを処理する方法であって、
a)前記モバイルマッピングシステム(101)の少なくとも1つのカメラ(9(j))からカメラデータを取得する工程と、
b)前記カメラデータにおける少なくとも3つの注目領域を検出する工程と、
c1)第1注目領域におけるカメラデータに第1圧縮技術を適用する工程と、
c2)第2注目領域におけるカメラデータに第2圧縮技術を適用する工程と、
c3)第3注目領域におけるカメラデータに第3圧縮技術を適用する工程とを有し、
前記方法が、更に、少なくとも第1レンジセンサ3(1)から、少なくとも部分的に前記カメラデータに対応するレンジセンサデータ(動作101)を取得しする工程を有し、前記工程b)が前記レンジセンサデータを用いて前記カメラデータにおける前記少なくとも1つの注目領域を認識する(動作102)ことを特徴とする方法を提供する。
勿論、3つではなく、どのような適した数の領域を検出しても良い。そのような実施形態によれば、工程b)が、複数の領域を検出し、領域の数が1からスキャナデータにおける画素の数まで様々である方法が提供される。
従って、実施形態に基づいて、異なる圧縮技術が適用される複数の領域を認識するためのスキャナデータに基づいて、マスクが生成されることは明らかである。マスクにより構成される異なる領域の数は、例えば、2、3、4などの適切な数である。実際は、かなり多くの領域が、マスクにより認識され、構成されてもよい。各領域は異なる圧縮技術を施す対象となる。
マスクにより構成される認識された領域の数は、スキャナデータの画素数と同じように多い。
一実施形態によれば、スキャナデータの各画素は領域として検出される(動作102)。方向情報及び距離情報に基づいて、注目レベルをスキャナデータの各画素に割り当てても良い。そのため、一例として、注目レベルは、距離が離れるにつれて低くなる。
更なる例によれば、所定距離または領域基準内にあるレーザースキャナの全ての画素には、第1注目レベルが与えられ、所定距離または領域基準外にあるレーザースキャナの全ての画素には、距離が離れるにつれて低くなる(例えば、距離に反比例する)注目レベルが与えられる
割り当てられた注目レベルに基づいてマスクが生成され、それに基づいて異なる圧縮技術がカメラデータに適用される。
スキャナデータの各画素は、適切な圧縮技術を適用することのできるカメラ画素の数に少なくとも関連していると仮定する。
追記
実施形態は、MMSアプリケーションの分野だけではなく、固定のマッピング技術の分野、写真測量、一般科学やエンターテイメント目的の画像及び映像圧縮にも適用することができる。
スキャンデータからの注目領域の選択及びスキャナデータをカメラデータ内の対応する領域にリンクさせることは、コストの高い計算を必要とせず、CPUの能力に普通の負荷をかけるだけで、十分に速くMMSストリームを処理することができる。
実施形態が提供するのは、重要なデータを無くさずに済む、信頼できる設定された差分圧縮マスクである。上記実施形態は、圧縮マスクを設定するために、一般化された距離及び場所の特徴、または、表面の特徴を用いることに柔軟に対応している。
アプリケーションによっては、上記実施形態は幾分控えめに用いられる。モバイルマッピングが集めた典型的な道路標識に対して、カメラデータに対する直後の処理として幾分控えめな処理を適用することができ、その場合、およそ3:1の節約になる。
投影内での特定の分析や、エンドユーザへの引き渡しのためには、同じ技術の骨組みを用いて、より積極的なアプローチをすることもできる。例えば、処理は、最初、カメラ9(i)から10m以内にあるオブジェクトに注目することができる。この場合、(生画像データと比較して)非常にコンパクトなデータセットを生成するため、処理アプリケーション(いくつかのアプリケーションでは、差分圧縮と解像度削減とを混ぜることができる)への引き渡しのために、より高い圧縮率を達成することができる。

Claims (26)

  1. モバイルマッピングシステムのカメラデータを処理する方法であって、
    a)前記モバイルマッピングシステム(101)の少なくとも1つのカメラ(9(j))からカメラデータを取得する工程と、
    b)前記カメラデータにおける少なくとも1つの領域を検出する工程と、
    c)第1領域におけるカメラデータに圧縮技術を適用する工程とを有し、
    前記方法が、更に、少なくとも第1レンジセンサ(3(1))から、少なくとも部分的に前記カメラデータに対応するレンジセンサデータ(101)を取得しする工程を有し、前記工程b)が前記レンジセンサデータを用いて前記カメラデータ(102)における前記少なくとも1つの領域を認識することを特徴とする方法。
  2. d)第2領域における前記カメラデータに第2圧縮技術を適用する工程を更に有することを特徴とする請求項1に記載の方法。
  3. 前記第1圧縮技術は第1圧縮因子を適用する工程を含み、前記第2圧縮技術は第2圧縮因子を適用する工程を含み、前記第1圧縮因子は、前記第2圧縮因子よりも大きいことを特徴とする請求項2に記載の方法。
  4. 前記第1圧縮技術は第1圧縮因子を適用する工程を含み、前記第2圧縮技術は第2圧縮因子を適用する工程を含み、前記第2圧縮因子は、前記第1圧縮因子よりも大きいことを特徴とする請求項2に記載の方法。
  5. 前記工程b)が、前記少なくとも1つの領域を検出するために、領域検出アルゴリズムを前記レンジセンサデータに適用する工程を含むことを特徴とする請求項1乃至4のいずれか1項に記載の方法。
  6. 前記領域検出アルゴリズムは、
    −所定距離または領域基準内にある、
    −平面、
    −予め決められた特徴を有する表面、
    −特定のオブジェクト(またはオブジェクトクラス)、
    −特定のオブジェクト(またはオブジェクトクラス)ではない、
    うちの少なくともいずれかである領域を検出するように構成されていることを特徴とする請求項5に記載の方法。
  7. 前記工程b)は、前記少なくとも1つの検出された領域を前記カメラデータ(103)に投影する工程を更に有することを特徴とする請求項5または6に記載の方法。
  8. 前記工程b)は、マスクを生成する工程と、該生成したマスク(104)に基づいて前記工程c)を行う工程とを更に有することを特徴とする請求項1乃至7のいずれか1項に記載の方法。
  9. 前記生成されたマスク(104)に基づいて、前記工程d)を実行する工程を更に有することを特徴とする請求項2乃至7のいずれか1項に記載の方法。
  10. 前記方法b)は、複数の領域を検出する工程を有し、前記領域の数は、1から前記スキャナデータにおける画素数まで変化することを特徴とする請求項1乃至9のいずれか1項に記載の方法。
  11. 前記圧縮技術は、色空間の削減を含むことを特徴とする請求項1乃至10のいずれか1項に記載の方法。
  12. プロセッサ(11)と、前記プロセッサに接続されたメモリ(12、13、14、15)とを含むコンピュータ装置(10)であって、前記メモリは前記プロセッサ(11)に以下の処理を行わせるデータと命令とを含むコンピュータプログラムを有し、前記プロセッサは、
    a)前記モバイルマッピングシステム(101)の少なくとも1つのカメラ(9(j))からカメラデータを取得し、
    b)前記カメラデータにおける少なくとも1つの領域を検出し、
    c)第1領域におけるカメラデータに第1圧縮技術を適用し、
    前記プロセッサ(11)は、更に、少なくとも第1レンジセンサ(3(1))から、少なくとも部分的に前記カメラデータに対応するレンジセンサデータ(101)を取得することができ、前記処理b)が前記レンジセンサデータを用いて前記カメラデータ(102)における前記少なくとも1つの領域を認識する処理を行うことを特徴とするコンピュータ装置。
  13. 前記プロセッサ(11)は、d)検出された第2領域における前記カメラデータに第2圧縮技術を適用する処理を更に行うことを特徴とする請求項12に記載のコンピュータ装置(10)。
  14. 前記第1圧縮技術は第1圧縮因子を適用する処理を含み、前記第2圧縮技術は第2圧縮因子を適用する処理を含み、前記第1圧縮因子は、前記第2圧縮因子よりも大きいことを特徴とする請求項13に記載のコンピュータ装置(10)。
  15. 前記第1圧縮技術は第1圧縮因子を適用する処理を含み、前記第2圧縮技術は第2圧縮因子を適用する処理を含み、前記第2圧縮因子は、前記第1圧縮因子よりも大きいことを特徴とする請求項13に記載のコンピュータ装置(10)。
  16. 前記処理b)が、少なくとも1つの領域を検出するために、領域検出アルゴリズムを前記レンジセンサデータに適用する処理を含むことを特徴とする請求項12乃至15のいずれか1項に記載のコンピュータ装置(10)。
  17. 前記領域検出アルゴリズムは、
    −所定距離または領域基準内にある、
    −平面、
    −予め決められた特徴を有する表面、
    −特定のオブジェクト(またはオブジェクトクラス)、
    −特定のオブジェクト(またはオブジェクトクラス)ではない、
    うちの少なくともいずれかである領域を検出するように構成されていることを特徴とする請求項16に記載のコンピュータ装置(10)。
  18. 前記処理b)は、前記少なくとも1つの検出された領域を前記カメラデータ(103)に投影する処理を更に有することを特徴とする請求項16または17に記載のコンピュータ装置(10)。
  19. 前記処理b)は、マスクを生成する処理と、該生成したマスク(104)に基づいて前記処理c)を行う処理とを更に有することを特徴とする請求項12乃至17のいずれか1項に記載のコンピュータ装置(10)。
  20. 前記生成されたマスク(104)に基づいて、前記処理d)を実行する処理を更に有することを特徴とする請求項13乃至19のいずれか1項に記載のコンピュータ装置(10)。
  21. 前記処理b)は、複数の領域を検出する処理を含み、前記領域の数は、1から前記スキャナデータにおける画素数まで変化することを特徴とする請求項12乃至20のいずれか1項に記載のコンピュータ装置(10)。
  22. 前記圧縮技術は、色空間の削減を含むことを特徴とする請求項12乃至21のいずれか1項に記載のコンピュータ装置(10)。
  23. 請求項12乃至22のいずれか1項に記載のコンピュータ装置と、移動体システムとを有するデータ処理システムであって、前記移動体システムが、時間、位置、方位データを供給するための位置判定システムと、前記第1レンジセンサデータを供給するための少なくとも第1レンジセンサ(3(i))と、前記画像データを供給するための少なくとも1つのカメラ(9(j))とを含むことを特徴とするデータ処理システム。
  24. コンピュータに、請求項1乃至11のいずれか1項に記載の方法の各工程を実行させるためのプログラム。
  25. 請求項24に記載のプログラムを格納したことを特徴とするコンピュータが読み取り可能な記憶媒体。
  26. 請求項1を実行することにより得られるモバイルマッピングシステムのカメラデータを含む画像ファイル。
JP2011504943A 2008-04-18 2008-04-18 レーザースキャンされたポイントの集合体を用いて選択的圧縮マスクを生成する方法 Pending JP2011518383A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/NL2008/050227 WO2009128701A1 (en) 2008-04-18 2008-04-18 Method of using laser scanned point clouds to create selective compression masks

Publications (2)

Publication Number Publication Date
JP2011518383A true JP2011518383A (ja) 2011-06-23
JP2011518383A5 JP2011518383A5 (ja) 2011-08-04

Family

ID=40659226

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011504943A Pending JP2011518383A (ja) 2008-04-18 2008-04-18 レーザースキャンされたポイントの集合体を用いて選択的圧縮マスクを生成する方法

Country Status (7)

Country Link
US (1) US9843810B2 (ja)
EP (1) EP2263380A1 (ja)
JP (1) JP2011518383A (ja)
CN (1) CN101953165A (ja)
AU (1) AU2008354776A1 (ja)
CA (1) CA2721675A1 (ja)
WO (1) WO2009128701A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013047083A1 (ja) * 2011-09-28 2013-04-04 沖電気工業株式会社 画像処理装置、画像処理方法、プログラム、および画像処理システム
KR101826364B1 (ko) * 2012-03-08 2018-02-06 현대엠엔소프트 주식회사 컬러 지상 라이다 측량 데이터를 이용하여 건물의 3차원 모델링 데이터를 자동으로 생성하기 위한 방법
JP2018116004A (ja) * 2017-01-20 2018-07-26 パイオニア株式会社 データ圧縮装置、制御方法、プログラム及び記憶媒体

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101030763B1 (ko) * 2010-10-01 2011-04-26 위재영 이미지 획득 유닛, 방법 및 연관된 제어 유닛
US8885151B1 (en) 2012-09-04 2014-11-11 Google Inc. Condensing sensor data for transmission and processing
DE102013016813B4 (de) * 2012-12-19 2023-09-07 Sony Corporation Verfahren zum Betrieb einer tragbaren Screeningvorrichtung und tragbare Screeningvorrichtung
US9100720B2 (en) 2013-03-14 2015-08-04 The Nielsen Company (Us), Llc Methods and apparatus to measure exposure to logos in vehicle races
US20150041511A1 (en) * 2013-08-09 2015-02-12 Dennis Powell Compartmentalized Backpack with Imbedded Tracker Device
DE102013220312A1 (de) * 2013-10-08 2015-04-09 Bayerische Motoren Werke Aktiengesellschaft Fortbewegungsmittel und Verfahren zum Informationsaustausch mit einem Fortbewegungsmittel
CN103884335A (zh) * 2014-04-09 2014-06-25 北京数联空间科技股份有限公司 基于二维码地理信息标志的遥感与摄影测量定位方法
US9384402B1 (en) * 2014-04-10 2016-07-05 Google Inc. Image and video compression for remote vehicle assistance
BR112016030840B1 (pt) * 2014-06-30 2023-10-03 Bodidata, Inc Sistema de digitalizador portátil
USD893860S1 (en) 2014-07-29 2020-08-25 Dennis Powell Compartmented backpack
WO2017110801A1 (ja) * 2015-12-25 2017-06-29 三菱電機株式会社 測位計測装置、データ保管装置、データ利用装置、測位計測プログラム、データ保管プログラムおよびデータ利用プログラム
CN107817502B (zh) * 2016-09-14 2020-08-07 北京百度网讯科技有限公司 激光点云数据处理方法和装置
CN208572631U (zh) * 2018-06-21 2019-03-01 北京四维图新科技股份有限公司 智能感知系统的装置
CN112449171B (zh) * 2019-09-03 2021-10-29 上海交通大学 点云分视角传输的编码方法、系统及介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03230691A (ja) * 1990-02-05 1991-10-14 Minolta Camera Co Ltd ディジタル電子スチルカメラ
JPH11150726A (ja) * 1997-11-18 1999-06-02 Toyota Motor Corp 車両用動画像処理方法および車両用動画像処理装置
JP2003259354A (ja) * 2002-03-01 2003-09-12 Nissan Motor Co Ltd 車両用画像処理装置および車両用画像処理方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4951140A (en) 1988-02-22 1990-08-21 Kabushiki Kaisha Toshiba Image encoding apparatus
JPH0595540A (ja) * 1991-09-30 1993-04-16 Sony Corp 動画像符号化装置
JP3230691B2 (ja) 1992-03-31 2001-11-19 芝浦メカトロニクス株式会社 ワイヤボンディング方法
JPH1051642A (ja) * 1996-07-31 1998-02-20 Fuji Xerox Co Ltd 画像処理装置
GB2322509B (en) * 1997-02-21 2001-09-12 Motorola Ltd Communication system and method for transmitting information
AU2464101A (en) * 1999-12-29 2001-07-09 Geospan Corporation Any aspect passive volumetric image processing method
JP2003302470A (ja) 2002-04-05 2003-10-24 Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai 歩行者検出装置および歩行者検出方法
US20040066391A1 (en) 2002-10-02 2004-04-08 Mike Daily Method and apparatus for static image enhancement
US20040234140A1 (en) 2003-05-19 2004-11-25 Shunichiro Nonaka Apparatus and method for moving image conversion, apparatus and method for moving image transmission, and programs therefor
US20060017835A1 (en) * 2004-07-22 2006-01-26 Dana Jacobsen Image compression region of interest selection based on focus information
JP4510554B2 (ja) 2004-08-31 2010-07-28 富士重工業株式会社 立体物監視装置
KR100703392B1 (ko) 2004-12-29 2007-04-03 삼성전자주식회사 지도 데이터를 이용한 전자앨범 제작 장치 및 방법
EP1712931A1 (en) * 2005-04-14 2006-10-18 Qinetiq Limited Method and apparatus for detecting a target in a scene
WO2008054203A1 (en) 2006-10-30 2008-05-08 Tele Atlas B.V. Method and apparatus for detecting objects from terrestrial based mobile mapping data
EP1931150A1 (en) * 2006-12-04 2008-06-11 Koninklijke Philips Electronics N.V. Image processing system for processing combined image data and depth data
EP2208021B1 (en) 2007-11-07 2011-01-26 Tele Atlas B.V. Method of and arrangement for mapping range sensor data on image sensor data

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03230691A (ja) * 1990-02-05 1991-10-14 Minolta Camera Co Ltd ディジタル電子スチルカメラ
JPH11150726A (ja) * 1997-11-18 1999-06-02 Toyota Motor Corp 車両用動画像処理方法および車両用動画像処理装置
JP2003259354A (ja) * 2002-03-01 2003-09-12 Nissan Motor Co Ltd 車両用画像処理装置および車両用画像処理方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013047083A1 (ja) * 2011-09-28 2013-04-04 沖電気工業株式会社 画像処理装置、画像処理方法、プログラム、および画像処理システム
JP2013073459A (ja) * 2011-09-28 2013-04-22 Oki Electric Ind Co Ltd 画像処理装置、画像処理方法、プログラム、および画像処理システム
US9489565B2 (en) 2011-09-28 2016-11-08 Oki Electric Industry Co., Ltd. Image processing apparatus, image processing method, program, and image processing system
KR101826364B1 (ko) * 2012-03-08 2018-02-06 현대엠엔소프트 주식회사 컬러 지상 라이다 측량 데이터를 이용하여 건물의 3차원 모델링 데이터를 자동으로 생성하기 위한 방법
JP2018116004A (ja) * 2017-01-20 2018-07-26 パイオニア株式会社 データ圧縮装置、制御方法、プログラム及び記憶媒体

Also Published As

Publication number Publication date
AU2008354776A1 (en) 2009-10-22
WO2009128701A1 (en) 2009-10-22
CA2721675A1 (en) 2009-10-22
CN101953165A (zh) 2011-01-19
US9843810B2 (en) 2017-12-12
EP2263380A1 (en) 2010-12-22
US20110026772A1 (en) 2011-02-03

Similar Documents

Publication Publication Date Title
JP2011518383A (ja) レーザースキャンされたポイントの集合体を用いて選択的圧縮マスクを生成する方法
US8571354B2 (en) Method of and arrangement for blurring an image
US9880010B2 (en) Method of and arrangement for mapping range sensor data on image sensor data
US9679362B2 (en) System and method for generating textured map object images
KR101319471B1 (ko) 부감 화상 생성장치, 부감 화상 생성방법 및 기록매체
WO2008130233A1 (en) Method of and apparatus for producing road information
CN106918331A (zh) 相机模块、测量子系统和测量系统
KR20110044217A (ko) 3차원으로 내비게이션 데이터를 디스플레이하는 방법
JP2010510559A5 (ja)
JP2011170599A (ja) 屋外構造物計測装置及び屋外構造物計測方法
Ariff et al. Exploratory study of 3D point cloud triangulation for smart city modelling and visualization
GB2523598A (en) Method for determining the position of a client device
JP2004030011A (ja) 3次元形状データ取得システムおよび方法
TW201232477A (en) Method and apparatus for use in forming an image

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110406

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110406

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120217

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120928