JP6837880B2 - 画像処理装置、画像処理システム、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理システム、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP6837880B2
JP6837880B2 JP2017050498A JP2017050498A JP6837880B2 JP 6837880 B2 JP6837880 B2 JP 6837880B2 JP 2017050498 A JP2017050498 A JP 2017050498A JP 2017050498 A JP2017050498 A JP 2017050498A JP 6837880 B2 JP6837880 B2 JP 6837880B2
Authority
JP
Japan
Prior art keywords
image
dimensional data
distance
unit
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017050498A
Other languages
English (en)
Other versions
JP2018156192A (ja
Inventor
健二 君山
健二 君山
鈴木 美彦
美彦 鈴木
拓也 二神
拓也 二神
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2017050498A priority Critical patent/JP6837880B2/ja
Priority to US15/913,954 priority patent/US10579859B2/en
Priority to EP18160898.5A priority patent/EP3376435B1/en
Publication of JP2018156192A publication Critical patent/JP2018156192A/ja
Application granted granted Critical
Publication of JP6837880B2 publication Critical patent/JP6837880B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/42Document-oriented image-based pattern recognition based on the type of document
    • G06V30/424Postal images, e.g. labels or addresses on parcels or postal envelopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Description

本発明の実施形態は、画像処理装置、画像処理システム、画像処理方法、およびプログラムに関する。
近年、物流分野においては、不定形の荷物パッケージに記載されている宛名をOCR((Optical Character Recognition)装置により認識することが行われている。荷物パッケージが紙袋やビニール袋の場合、荷物の形状に応じて荷物パッケージが変形し、荷物パッケージに記載された宛名も変形する。
宛名の変形が小さい場合、OCR装置は、宛名画像の歪みを画像処理によって補正することで、宛名に記載された住所情報を認識することができる。しかしながら、宛名が大きく変形した場合は、OCR装置が宛名を誤認識したり、認識不能となったりする場合があった。
特開2016−123043号公報 特開2012−22474号公報 特開2001−53966号公報
本発明が解決しようとする課題は、対象物に付与された対象情報の認識率を向上させることができる画像処理装置、画像処理システム、画像処理方法、およびプログラムを提供することである。
実施形態の画像処理装置は、3次元データ生成部と、2次元データ生成部と、認識用画像生成部とを持つ。3次元データ生成部は、文字または記号による対象情報が付与された対象物の画像と、基準位置から前記対象物までの距離を画素ごとに示す距離画像とに基づいて、前記対象物の3次元データを生成する。2次元データ生成部は、前記3次元データ生成部によって生成された前記3次元データを平面化することにより、2次元データを生成する。認識用画像生成部は、前記2次元データ生成部によって生成された前記2次元データに基づき、前記対象情報の認識に用いられる認識用画像を生成する。
第1実施形態に係る画像処理システム10の全体構成を示す図。 第1実施形態に係る第2画像取得部120を用いた距離の測定処理の一例を示す図。 第1実施形態に係る画像処理装置200のブロック図。 第1実施形態に係る画像処理装置200の処理を示すフローチャート。 第2実施形態に係る画像処理装置200のブロック図。 第2実施形態に係る画像処理装置200の処理を示すフローチャート。 第3実施形態に係るライトフィールドカメラ120の詳細な構成を示す図。 第3実施形態に係るマイクロレンズアレイ126の構造を示す図。 第3実施形態に係るマイクロレンズアレイ126とイメージセンサ127との関係を示す図。 第3実施形態に係る視差の計算を説明するための図。 第4実施形態に係るマイクロレンズアレイ126の構造を示す図。
以下、実施形態の画像処理装置、画像処理システム、画像処理方法、およびプログラムを、図面を参照して説明する。
(第1実施形態)
図1は、第1実施形態に係る画像処理システム10の全体構成を示す図である。図1に示されるように、本実施形態の画像処理システム10は、画像取得装置100と、画像処理装置200と、区分装置300と、ビデオコーディングシステム(以下、「VCS」と称する)500とを備える。
画像処理装置200は、画像取得装置100および区分装置300と通信可能に接続されている。また、画像処理装置200は、VCS500とネットワークNWを介して接続されている。ネットワークNWは、例えば、WAN(Wide Area Network)やLAN(Local Area Network)等である。
画像取得装置100は、第1画像取得部110と、第2画像取得部120と、照明130と、照明140とを備える。第1画像取得部110は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary metal oxide semiconductor)センサが一直線に配列されたラインスキャンセンサである。照明130および照明140は、ベルトコンベア310上の荷物(対象物の一例)400に光を照射する。第1画像取得部110は、ベルトコンベア310によって一定速度で搬送される荷物400を連続的に撮影することによって、荷物400の画像を取得する。画像取得装置100は、第1画像取得部110によって取得された荷物400の画像を画像処理装置200に送信する。
図2は、第1実施形態に係る第2画像取得部120を用いた距離の測定処理の一例を示す図である。第2画像取得部120は、例えば、視点の異なる複数の画像を取得するステレオカメラであり、荷物400の距離画像を生成するために用いられる。第2画像取得部120は、第1カメラ121と、第2カメラ122とを備える。第1カメラ121は左画像を取得し、第2カメラ122は右画像を取得する。
図1および図2において、Y軸は荷物400が搬送される方向の軸であり、X軸はY方向に直交する方向の軸であり、Z軸は荷物400の高さ方向の軸である。以降、第1カメラ121と第2カメラ122とを結ぶベースラインのZ軸方向の位置を「基準位置」と称する。
図2においては、左画像面123と、右画像面124とが示されている。ここで、第1カメラ121と第2カメラ122との間の距離(ベースライン長)をB、焦点距離をF、基準位置から荷物400までの距離をDZ、左画像における荷物400の位置と左画像の中心との差をDL、右画像における荷物400の位置と右画像の中心との差をDRとする。
この場合、視差d=DL−DRとなり、距離DZ=F×B/dとなる。焦点距離Fは、第1カメラ121と第2カメラ122に使用されるレンズによって決まる値である。距離Bは、第1カメラ121の位置および第2カメラ122の位置によって決まる値である。視差dは、左画像および右画像に対してテンプレートマッチングを行うことにより求められる。
第2画像取得部120は、取得した右画像および左画像を画像処理装置に送信する。画像処理装置200は、第2画像取得部120から受信した右画像および左画像に基づき、画素ごとに距離DZを求めることで、荷物400の距離画像を生成することができる。距離画像は、例えば、距離が長いほど輝度値が高い(または低い)画像である。画像取得装置100は、生成した距離画像を画像処理装置200に送信する。
画像処理装置200は、画像取得装置100から受信した荷物400の画像および生成した距離画像に基づき、荷物400の宛名領域(対象情報が存在する領域)410に記載されている住所情報(対象情報)を認識する。画像処理装置200は、認識結果(住所情報)を区分装置300に送信する。住所情報は、例えば、数字によって記載された郵便番号、文字や数字、記号によって記載された住所、またはこれらの組み合わせである。
区分装置300は、例えば複数の段および複数の列に区画された複数の区分ポケット(不図示)、およびVCSポケット(不図示)を含む。区分装置300は、画像処理装置200から受信した認識結果(住所情報)に応じて、ベルトコンベア310によって搬送される荷物400の区分先を切り替え、区分先の区分ポケットに荷物400を集積する。
画像処理装置200は、宛名領域410に記載されている住所情報を認識できなかった場合、住所情報を認識できなかった旨の通知を区分装置300に送信する。区分装置300は、画像処理装置200から住所情報を認識できなかった旨の通知を受信すると、荷物400の区分先をVCSポケットに切り替える。
また、画像処理装置200は、宛名領域410に記載されている住所情報を認識できなかった場合、荷物400の画像データおよびVC依頼を、ネットワークNWを介してVCS500に送信する。
VCS500は、画像処理装置200により住所情報を認識できなかった荷物400の画像を表示し、作業者の視認により住所情報の認識を補助するシステムである。VCS500の各端末は、荷物400の画像を表示装置によって表示し、キーボードやタッチパネル等の入力デバイスによって作業者による住所情報の入力を受け付ける。
VCS500は、作業者による住所情報の入力を受け付けると、入力された住所情報を、ネットワークNWを介して画像処理装置200に送信する。画像処理装置200は、VCS500から受信した住所情報を区分装置300に送信する。これによって、OCR処理によって住所情報を認識できなかった荷物400が、正しい区分先に区分される。
なお、画像処理装置200が距離画像を生成することとしたが、これに限られない。例えば、画像取得装置100が、第2画像取得部120によって取得された左画像および右画像に基づいて距離画像を生成し、生成した距離画像を画像処理装置200に送信してもよい。
図3は、第1実施形態に係る画像処理装置200のブロック図である。画像処理装置200は、距離画像生成部210と、3次元データ生成部220と、2次元データ生成部230と、認識用画像生成部240と、認識部250とを備える。
距離画像生成部210、3次元データ生成部220、2次元データ生成部230、認識用画像生成部240、および認識部250は、CPU(Central Processing Unit)等のプロセッサが、プログラムメモリに記憶されたプログラムを実行することで実現される。なお、距離画像生成部210、3次元データ生成部220、2次元データ生成部230、認識用画像生成部240、および認識部250は、プロセッサがプログラムを実行するのと同様の機能を有するLSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、およびFPGA(Field-Programmable Gate Array)等のハードウェアにより実現されてもよい。
前述したように、距離画像生成部210は、第2画像取得部120から受信した右画像および左画像に基づき、画素ごとに距離DZを求めることで、荷物400の距離画像を生成する。距離画像生成部210は、生成した距離画像を3次元データ生成部220に出力する。
3次元データ生成部220は、ノイズ除去部221と、スケーリング部222と、モデリング部223と、3次元マッピング部224とを備える。2次元データ生成部230は、ベース面検出部231と、平面化部232とを備える。
距離画像生成部210によって生成された距離画像には、視差の計算誤差などによりはずれ値が含まれる。このため、ノイズ除去部221は、距離画像生成部210から入力された距離画像からノイズを除去する。例えば、ノイズ除去部221は、メディアンフィルタを用いてノイズを除去する。ノイズ除去部221は、ノイズが除去された距離画像をスケーリング部222に出力する。
スケーリング部222は、ノイズ除去部によってノイズを除去された距離画像のZ方向(荷物400の高さ方向)のスケールを、X方向(荷物400の画像の横方向)のスケールおよびY方向(荷物400の画像の縦方向)のスケールに基づいて調整する。スケーリング部222は、Z方向のスケールを調整された距離画像をモデリング部223に出力する。
モデリング部223は、スケーリング部222によってZ方向のスケールを調整された距離画像に基づき、荷物400の各画素の3次元空間上における座標(x,y,z)を算出する。例えば、モデリング部223は、スプライン補間を行うことによって、距離画像における不完全な部分の座標を補間する。モデリング部223は、算出した3次元空間上における座標の集合(3次元モデル)を、3次元マッピング部224に出力する。
3次元マッピング部224は、モデリング部223によって算出された3次元空間上の座標の集合と、第1画像取得部110から受信した荷物400の画像とに基づいて、3次元データを生成する。具体的には、3次元マッピング部224は、第1画像取得部110から受信した荷物400の画像に基づいて、荷物400の各画素の3次元空間上における座標(x,y,z)に、輝度値を対応付けることで、荷物400の3次元データを生成する。3次元マッピング部224は、生成した3次元データをベース面検出部231に出力する。
ベース面検出部231は、荷物400の位置の基準となるベース面を検出する。例えば、ベース面は、荷物400が置かれている面である。例えば、ベース面検出部231は、3次元マッピング部224によって生成された3次元データに対してRANSAC(RANdom SAmple Consensus)アルゴリズムを実行することで、ベース面を検出する。ベルトコンベア310の配置と第2画像取得部120の配置が固定である場合、ベース面検出部231は、ベース面を1度検出すればよい。ベース面検出部231は、検出したベース面のデータおよび3次元データを平面化部232に出力する。
平面化部232は、ベース面検出部231によって検出されたベース面を基準として、3次元マッピング部224によって生成された3次元データを平面化することにより、2次元データを生成する。具体的には、平面化部232は、3次元データにおける各点間の距離を維持しつつ、各点のZ方向の座標をベース面の高さまで下降させる。3次元データは、最終的には引き伸ばされた状態になり、歪の生じた住所情報(対象情報)が記載された面が平面化される。これによって、住所情報(対象情報)の歪みが補正される。平面化部232は、生成した2次元データを認識用画像生成部240に出力する。
3次元空間上の各座標がベース面上に移動したため、平面化部232によって生成された2次元データには、単位面積当たりで粗密が生じている。このため、平面化部232によって生成された2次元データを補正して、住所情報(対象情報)の認識に適した画像を生成する必要がある。
したがって、認識用画像生成部240は、平面化部232によって生成された2次元データに基づき、住所情報(対象情報)の認識に用いられる認識用画像を生成する。具体的には、認識用画像生成部240は、2次元のグリッドによって示される各画素の輝度を計算することで、認識用画像を生成する。
また、認識用画像生成部240は、平面化部232によって生成された2次元データに対して、解像度を高めるための超解像処理を行ってもよい。例えば、認識用画像生成部240は、2次元データに対して、最近傍探索により初期画像を形成し、自己相似性を用いる方式の超解像処理を行ってもよい。これによって、住所情報の認識率を向上させることができる。
認識部250は、2値化画像に対して認識処理を行う。このため、認識用画像生成部240は、2次元データに対して超解像処理を行うことにより、高解像度化された2値化画像を認識用画像として生成する。認識用画像生成部240は、生成した認識用画像を認識部250に出力する。
認識部250は、認識用画像生成部240によって生成された認識用画像に対してOCR処理を行う。認識部250は、宛名領域410内の文字情報を検出できた場合には、住所情報を認識することができる。一方、認識部250は、宛名領域410内の文字情報を検出できなかった場合には、住所情報を認識できない。
認識部250は、住所情報を認識できた場合、認識された住所情報を区分装置300に送信する。一方、認識部250は、住所情報を認識できなかった場合、VC依頼および認識用画像を、ネットワークNWを介してVCS500に送信する。
VCS500は、認識部250からVC依頼を受信すると、認識部250から受信した認識用画像を表示装置に表示する。作業者によって住所情報がVCS500に入力されると、VCS500は入力された住所情報を、ネットワークNWを介して認識部250に送信する。認識部250は、VCS500から受信した住所情報を区分装置300に送信する。これによって、認識部250によって住所情報を認識できなかった荷物400は、正しい区分先に区分される。
図4は、第1実施形態に係る画像処理装置200の処理を示すフローチャートである。本フローチャートを実行するためのプログラムは、画像処理装置200のプログラムメモリに格納されている。
まず、画像処理装置200は、第1画像取得部110から荷物400の画像を取得する(S1)。また、距離画像生成部210は、第2画像取得部120から受信した複数の画像に基づき、距離画像を生成する(S2)。次に、ノイズ除去部221は、距離画像からノイズを除去する(S3)。スケーリング部222は、ノイズ除去部221によってノイズを除去された距離画像のZ方向のスケールを、X方向のスケールおよびY方向のスケールに基づいて調整する(S4)。
モデリング部223は、スケーリング部222によってZ方向のスケールを調整された距離画像に基づき、荷物400の各画素の3次元空間上における座標を算出する(S5)。3次元マッピング部224は、モデリング部223によって算出された3次元空間上の座標の集合と、第1画像所得部110から取得した荷物400の画像とに基づいて、3次元データを生成する(S6)。
ベース面検出部231は、荷物400の位置の基準となるベース面を検出する(S7)。平面化部232は、ベース面検出部231によって検出されたベース面を基準として、3次元マッピング部224によって生成された3次元データを平面化することにより、2次元データを生成する(S8)。
認識用画像生成部240は、平面化部232によって生成された2次元データに基づき、住所情報の認識に用いられる認識用画像を生成する(S9)。認識部250は、認識用画像生成部240によって生成された認識用画像に対してOCR処理を行う(S10)。
次に、認識部250は、住所情報を認識できたか否かを判定する(S11)。認識部250は、住所情報を認識できたと判定した場合、後述するS14に処理を移行させる。一方、認識部250は、住所情報を認識できなかったと判定した場合、VC依頼および認識用画像を、ネットワークNWを介してVCS500に送信する(S12)。その後、認識部250は、ネットワークNWを介してVCS500から住所情報を受信する(S13)。
認識部250は、S11において認識された住所情報、またはS13において受信された住所情報を、区分装置300に送信する(S14)。これによって、認識部250によって住所情報を認識できなかった荷物400は、正しい区分先に区分される。
以上説明したように、第1実施形態の画像処理装置200は、3次元データ生成部220と、2次元データ生成部230と、認識用画像生成部240とを持つ。3次元データ生成部220は、荷物400の画像と距離画像とに基づいて、荷物400の3次元データを生成する。2次元データ生成部230は、3次元データ生成部220によって生成された3次元データを平面化することにより、2次元データを生成する。認識用画像生成部240は、2次元データ生成部230によって生成された2次元データに基づき、住所情報の認識に用いられる認識用画像を生成する。これによって、第1実施形態の画像処理装置200は、荷物400に付与された住所情報の認識率を向上させることができる。
(第2実施形態)
次に、第2実施形態について説明する。荷物400のパッケージにビニール等の光沢のある物質が使用されている場合は、照明の光がパッケージの表面で鏡面反射するため、第1画像取得部110によって取得された荷物400の画像に白とび(輝度値の飽和)が生じる。荷物400の画像に白とびが生じると、住所情報(対象情報)の認識ができない場合がある。このため、第2実施形態の画像処理装置200は、住所情報の周辺における光が反射している領域を検出し、2次元データにおける光の反射を、画像処理によって抑制する。これによって、住所情報の認識率を向上させることができる。以下、第2実施形態について詳細に説明する。
図5は、第2実施形態に係る画像処理装置200のブロック図である。図5において、図3の各部に対応する部分には同一の符号を付し、説明を省略する。画像処理装置200は、距離画像生成部210と、3次元データ生成部220と、2次元データ生成部230と、認識用画像生成部240と、認識部250とに加えて、反射領域検出部260と、反射抑制部270とを備える。
住所情報(対象情報)に鏡面反射が生じている場合には、住所情報を再現することができないため、認識部250はVCS500にVC依頼を行う。一方、住所情報の周辺の画像に鏡面反射(白とび)が生じると、認識部250は、鏡面反射によって輝度が急激に変化する部分(エッジ)を文字の一部であると誤認識する可能性がある。この場合、反射抑制部270は、住所情報の認識率を向上させるため、鏡面反射を抑制する処理を行う。
反射抑制部270が、住所情報が記載されている領域に対して鏡面反射の抑制処理を行うと、かえって住所情報の認識率が下がる。このため、反射領域検出部260は、3次元マッピング部224によって生成された荷物400の3次元データに基づいて、住所情報が記載されている可能性が高い真上(Z方向)を向いた面における輝度の高い領域を、反射抑制処理の対象から除外する。
反射領域検出部260は、真上(Z方向)を向いた面か否かを、この面の法線ベクトルを用いて判別する。反射領域検出部260は、真上(Z方向)を向いた面以外の面における輝度の高い領域を鏡面反射領域と判定する。これによって、反射領域検出部260は、荷物400の3次元データに基づき、住所情報が記載されている領域における白地部分と、鏡面反射によって白とびが発生した部分とを識別することができる。
図5に示されるように、第1画像取得部110は、反射領域検出部260に荷物400の画像を出力する。また、3次元マッピング部224は、反射領域検出部260に3次元データを出力する。反射領域検出部260は、荷物400の画像において、住所情報の周辺における光が反射している領域を検出する。具体的に、反射領域検出部260は、第1画像取得部110から入力された荷物400の画像における輝度値が飽和している領域を、鏡面反射領域として検出する。
また、反射領域検出部260は、3次元マッピング部224から入力された荷物400の3次元データに基づいて、真上(Z方向)を向いた面における輝度の高い領域を、鏡面反射領域から除外する。反射領域検出部260は、検出した鏡面反射領域を、反射抑制部270に出力する。
反射抑制部270は、反射領域検出部260によって検出された鏡面反射領域に基づき、平面化部232によって生成された2次元データにおける光の反射を、画像処理によって抑制する。例えば、反射抑制部270は、インペインティング処理などの既存アルゴリズムを実行することによって、鏡面反射領域に対して反射抑制処理を行う。インペインティング処理において、反射抑制部270は、周辺の画素を用いた穴埋めを行うことで、反射領域検出部260によって検出された鏡面反射領域における光の反射を抑制する。反射抑制部270は、違和感を無くすための穴埋め処理よりも、新たなエッジ(輝度が急激に変化する部分)を生じさせない穴埋め処理を優先して行ってもよい。
反射抑制部270は、反射抑制処理が行われた2次元データを、認識用画像生成部240に出力する。これ以降の処理は、第1実施形態と同様であるので、説明を省略する。
図6は、第2実施形態に係る画像処理装置200の処理を示すフローチャートである。本フローチャートを実行するためのプログラムは、画像処理装置200のプログラムメモリに格納されている。
まず、画像処理装置200は、第1画像取得部110から荷物400の画像を取得する(S1)。また、距離画像生成部210は、第2画像取得部120から受信した複数のサブ画像に基づき、距離画像を生成する(S2)。次に、ノイズ除去部221は、距離画像からノイズを除去する(S3)。スケーリング部222は、ノイズ除去部221によってノイズを除去された距離画像のZ方向のスケールを、X方向のスケールおよびY方向のスケールに基づいて調整する(S4)。
モデリング部223は、スケーリング部222によってZ方向のスケールを調整された距離画像に基づき、荷物400の各画素の3次元空間上における座標を算出する(S5)。3次元マッピング部224は、モデリング部223によって算出された3次元空間上の座標の集合と、画像取得装置100から入力された荷物400の画像とに基づいて、3次元データを生成する(S6)。
ベース面検出部231は、荷物400の位置の基準となるベース面を検出する(S7)。平面化部232は、ベース面検出部231によって検出されたベース面を基準として、3次元マッピング部224によって生成された3次元データを平面化することにより、2次元データを生成する(S8)。
反射領域検出部260は、画像取得装置100から取得した荷物400の画像において、住所情報の周辺における光が反射している鏡面反射領域を検出する(S15)。反射抑制部270は、反射領域検出部260によって検出された鏡面反射領域に基づき、平面化部232によって生成された2次元データおける光の反射を、画像処理によって抑制する(S16)。
認識用画像生成部240は、反射抑制部270によって反射抑制処理が行われた2次元データに基づき、住所情報の認識に用いられる認識用画像を生成する(S9)。認識部250は、認識用画像生成部240によって生成された認識用画像に対してOCR処理を行う(S10)。以降の処理は、第1実施形態と同様であるので、説明を省略する。
以上説明したように、第2実施形態の画像処理装置200は、反射領域検出部260と、反射抑制部270とを持つ。反射領域検出部260は、荷物400の画像において、住所情報の周辺における光が反射している鏡面反射領域を検出する。反射抑制部270は、反射領域検出部260によって検出された鏡面反射領域に基づき、平面化部232によって生成された2次元データにおける光の反射を、画像処理によって抑制する。これによって、第2実施形態の画像処理装置200は、荷物400に付与された住所情報の認識率を更に向上させることができる。
(第3実施形態)
次に、第3実施形態について説明する。第1実施形態および第2実施形態においては、第2画像取得部120は、視点の異なる複数の画像を取得するステレオカメラであることとした。これに対し、第3実施形態においては、第2画像取得部120は、ライトフィールドカメラであることとする。以下、第3実施形態について詳細に説明する。
第2画像取得部(ライトフィールドカメラ)120は、ベルトコンベア310上を移動する荷物400を撮影する。第2画像取得部120は、荷物400から反射されて第2画像取得部120に到達した光線の位置情報だけでなく、光線の進む方向に関する情報についても取得する。第2画像取得部120によって取得された画像データ(ライトフィールドデータ)に対して所定の処理が行われることで、フォーカスを任意の位置に合わせたり、視点を変えたりした画像を再構成することができる。以下、第2画像取得部120をライトフィールドカメラ120と称する。
図7は、第3実施形態に係るライトフィールドカメラ120の詳細な構成を示す図である。図7において、Y軸は荷物400が搬送される方向の軸であり、X軸はY方向に直交する方向の軸であり、Z軸は荷物400の高さ方向の軸である。
ライトフィールドカメラ120は、メインレンズ125、マイクロレンズアレイ126、およびイメージセンサ127を備える。メインレンズ125は、被写体(荷物400)からの光が入射するレンズである。マイクロレンズアレイ126は、複数のマイクロレンズを備えるレンズアレイである。イメージセンサ127は、複数の画素を有する撮像素子であり、各画素にて光の強度を検出する。イメージセンサ127は、例えば、CCDや、CMOS等のセンサである。
図7に示されるライトフィールドカメラ120は複眼方式であるが、これに限られない。例えば、多眼方式等、他の方式のライトフィールドカメラであっても同等の効果が得られる。また、本実施形態のライトフィールドカメラ120は虚像光学系であるが、これに限られない。例えば、実像光学系であっても同等の効果が得られる。
図8は、第3実施形態に係るマイクロレンズアレイ126の構造を示す図である。図8に示されるように、マイクロレンズアレイ126は、マイクロレンズが格子状に配列されたレンズアレイである。メインレンズ125から入射した光線群は、光線の方向にしたがって、マイクロレンズアレイ126によって分解される。図8においては、13×13のマイクロレンズアレイ126が示されているが、マイクロレンズの数はこれに限られない。
また、本実施形態においては、マイクロレンズは光軸から見た形状が円形であることとしたが、これに限られない。例えば、マイクロレンズは、多角形(例えば、四角形)であってもよい。
図9は、第3実施形態に係るマイクロレンズアレイ126とイメージセンサ127との関係を示す図である。図9に示されるように、マイクロレンズアレイ126によって分解された光線は、円形のサブ画像128aおよび128bとして、イメージセンサ127上に投影される。ここでは、説明を簡単にするために2つのサブ画像128aおよび128bを示したが、実際には複数のマイクロレンズのそれぞれに対応する複数のサブ画像がイメージセンサ127上に投影される。
マイクロレンズアレイ126から投影された複数のサブ画像をイメージセンサ127の複数の画素が受光することで、光線の入射方向ごとの強度を検出することができる。イメージセンサ127によって検出された画像データ(ライトフィールドデータ)は、複数のマイクロレンズごとのサブ画像の集まりとなる。
ライトフィールドカメラ120は、取得したライトフィールドデータを画像処理装置200に送信する。画像処理装置200の距離画像生成部210は、ライトフィールドカメラ120から受信したライトフィールドデータに基づき、距離画像を生成する。以下、距離画像の生成方法について説明する。
距離画像生成部210は、ライトフィールドデータに基づき、マイクロレンズを介して得られるサブ画像ごとに、ライトフィールドカメラ120から被写体までの距離を算出する。これによって、距離画像生成部210は、距離画像を生成することができる。距離画像は、例えば、距離が長いほど輝度値が高い(または低い)画像である。距離画像生成部210は、隣接する複数のサブ画像に対してテンプレートマッチングを行うことにより視差を算出し、算出した視差に基づき、ステレオ画像処理のアルゴリズムを用いて距離を求める。
図10は、第3実施形態に係る視差の計算を説明するための図である。中央のマイクロレンズ126aは、マイクロレンズ126bおよび126cと、Y方向において隣接している。また、中央のマイクロレンズ126aは、マイクロレンズ126dおよび126eと、X方向において隣接している。
以下、中央のマイクロレンズ126aを介して得られるサブ画像についての、ライトフィールドカメラ120から被写体までの距離の算出処理について具体的に説明する。距離画像生成部210は、中央のマイクロレンズ126aを介して得られるサブ画像と、4つのマイクロレンズ126bから126eを介して得られる4つのサブ画像のそれぞれに対してテンプレートマッチングを行うことにより、4つの視差を算出する。
具体的に、距離画像生成部210は、マイクロレンズ126aを介して得られるサブ画像と、マイクロレンズ126bを介して得られるサブ画像とに基づき視差D1を算出する。また、距離画像生成部210は、マイクロレンズ126aを介して得られるサブ画像と、マイクロレンズ126cを介して得られるサブ画像とに基づき視差D2を算出する。また、距離画像生成部210は、マイクロレンズ126aを介して得られるサブ画像と、マイクロレンズ126dを介して得られるサブ画像とに基づき視差D3を算出する。また、距離画像生成部210は、マイクロレンズ126aを介して得られるサブ画像と、マイクロレンズ126eを介して得られるサブ画像とに基づき視差D4を算出する。
次に、距離画像生成部210は、4つの視差D1からD4の平均値Daveに基づき、ステレオ画像処理のアルゴリズムを用いて、中央のマイクロレンズ126aを介して得られるサブ画像についての被写体までの距離を算出する。距離画像生成部210は、以上の処理を全てのマイクロレンズに対して行うことにより、距離画像を生成する。距離画像生成部210は、生成した距離画像をノイズ除去部221に出力する。
なお、距離画像生成部210は、平均値Daveを用いて距離を算出することとしたが、これに限られない。例えば、距離画像生成部210は、テンプレートマッチングの結果の信頼度に基づいて最良と推定できる視差を4つの視差D1からD4の中から選択し、選択した視差に基づき、ステレオ画像処理のアルゴリズムを用いて、中央のマイクロレンズ126aを介して得られるサブ画像についての被写体までの距離を算出してもよい。
以上説明したように、第3実施形態における距離画像生成部210は、ライトフィールドカメラ120によって取得された荷物400の画像データ(ライトフィールドデータ)に基づいて、距離画像を生成してもよい。これによって、第3実施形態においても、荷物400に付与された住所情報の認識率を向上させることができる。
なお、モデリング部223は、距離画像が取得された際の信頼度(テンプレートマッチングの結果の信頼度)に基づいて、距離画像に含まれる距離情報に重み付けをして、3次元データを生成してもよい。これによって、モデリング部223は、より高精度に3次元データを生成することができる。
(第4実施形態)
次に、第4実施形態について説明する。第3実施形態においては、ライトフィールドカメラ120をエリアセンサとして用いることとした。これに対し、第4実施形態においては、ライトフィールドカメラ120をラインセンサとして用いることとする。これによって、ライトフィールドカメラ120の構成を簡易化することができる。以下、第4実施形態について詳細に説明する。
図11は、第4実施形態に係るマイクロレンズアレイ126の構造を示す図である。図11に示されるように、マイクロレンズアレイ126は、マイクロレンズが格子状に配列されたレンズアレイである。メインレンズ125から入射した光線群は、光線の方向にしたがって、マイクロレンズアレイ126によって分解される。
マイクロレンズアレイ126は、Y方向(短手方向)の長さよりも、X方向(長手方向)の長さの方が長い。ここで、Y方向は、ベルトコンベア310上を移動する荷物400の移動方向であり、X方向は、Y方向に直交する方向である。図11に示されるマイクロレンズアレイ126は、3行×15列=45個のマイクロレンズを有するが、マイクロレンズの個数はこれに限られない。
荷物400は、ライトフィールドカメラ120に対してY方向に相対的に移動しながら、ライトフィールドカメラ120によって撮影される。ライトフィールドカメラ120によって取得されたライトフィールドデータは、複数のマイクロレンズを介して得られた複数のマイクロ画像の集合であって、Y方向の画素数よりも、X方向の画素数の方が多い。
ライトフィールドカメラ120は、1回の撮影で1次元の画素値を出力する。ベルトコンベア310によって等速度で搬送される荷物400を、ライトフィールドカメラ120が連続して撮影することにより、荷物400の二次元画像が得られる。このため、図11に示されるように、1ラインの画像を得るために必要な範囲のみにマイクロレンズアレイ126とイメージセンサ127が配置される。
ライトフィールドカメラ120は、ライトフィールドカメラ120の長手方向(X方向)が荷物400の移動方向(Y方向)に対して直角となるように配置される。本実施形態においては、マイクロレンズは光軸から見た形状が円形であることとしたが、これに限られない。例えば、マイクロレンズは、多角形(例えば、四角形)であってもよい。また、本実施形態のライトフィールドカメラ120に代えて、従来のライトフィールドカメラからの出力の一部のみを用いることで代用してもよい。
本実施形態のライトフィールドカメラ120を用いることで、照明130および照明140によって照らされる範囲を、ライン形状の範囲に限定することができる。照明130および照明140は広い範囲を照らす必要が無いため、照明130および照明140を小型化および低コスト化することができる。また、荷物400が連続して重なりながら搬送される場合や、荷物400が移動方向に長い形状である場合であっても、ライトフィールドカメラ120は荷物400の全体を撮影することができる。なお、ライン形状の範囲を集中して照らすために、照明130および照明140と荷物400との間にレンズを配置してもよい。
以上説明したように、第4実施形態における距離画像生成部210は、ラインセンサとして使用されるライトフィールドカメラ120によって取得された荷物400の画像データ(ライトフィールドデータ)に基づいて、距離画像を生成する。これによって、第4実施形態においては、照明を小型化および低コスト化することができるとともに、荷物400の形状に関わらず距離画像を生成することができる。
なお、第1実施形態から第4実施形態において、画像取得装置100の位置が固定され、荷物400が画像取得装置100の撮影位置を通過することとしたが、これに限られない。例えば、荷物400の位置が固定され、画像取得装置100が移動して荷物400を撮影してもよい。また、画像取得装置100および荷物400の両方が移動することにより、画像取得装置100が対象物を撮影してもよい。
(第5実施形態)
上記第1実施形態から第4実施形態においては、宛名領域410に付与された住所情報を認識することとしたが、認識対象はこれに限られない。例えば、第5実施形態において、認識部250は、道路を通行している車両のナンバープレートに対して認識処理を行う。認識部250は、第1実施形態から第4実施形態のいずれをナンバープレートの認識処理に適用してもよい。以下、第5実施形態について詳細に説明する。
第5実施形態において、画像取得装置100は路側に設置されている。第1画像取得部110および第2画像取得部120は、車両のナンバープレートを撮影する。距離画像生成部210は、第2画像取得部120によって取得されたナンバープレートの画像に基づいて、距離画像を生成する。
3次元データ生成部220は、第1画像取得部110によって取得されたナンバープレートの画像と、距離画像生成部210によって生成された距離画像とに基づいて、ナンバープレートの3次元データを生成する。2次元データ生成部230は、3次元データ生成部220によって生成された3次元データを平面化することにより、2次元データを生成する。
認識用画像生成部240は、2次元データ生成部230によって生成された2次元データに基づき、ナンバープレートの認識に用いられる認識用画像を生成する。これによって、ナンバープレート(対象物)に記載されたナンバー情報(対象情報)の認識率を向上させることができる。
(第6実施形態)
第6実施形態において、認識部250は、路側に設置されている道路標識に対して認識処理を行う。認識部250は、第1実施形態から第4実施形態のいずれを道路標識の認識処理に適用してもよい。以下、第6実施形態について詳細に説明する。
第6実施形態において、画像取得装置100は車両に搭載されている。第1画像取得部110および第2画像取得部120は、道路標識を撮影する。距離画像生成部210は、第2画像取得部120によって取得された道路標識の画像に基づいて、距離画像を生成する。
3次元データ生成部220は、第1画像取得部110によって取得された道路標識の画像と、距離画像生成部210によって生成された距離画像とに基づいて、道路標識の3次元データを生成する。2次元データ生成部230は、3次元データ生成部220によって生成された3次元データを平面化することにより、2次元データを生成する。
認識用画像生成部240は、2次元データ生成部230によって生成された2次元データに基づき、道路標識の認識に用いられる認識用画像を生成する。これによって、道路標識(対象物)に記載された情報(対象情報)の認識率を向上させることができる。
なお、第1実施形態から第6実施形態において、距離画像生成部210は、ステレオカメラまたはライトフィールドカメラによって撮影された画像に基づいて距離画像を生成することとしたが、これに限られない。例えば、第2画像取得部120は、基準位置から荷物400までの距離を測定する距離センサであってもよい。この場合、距離画像生成部210は、距離センサによって測定された距離に基づいて距離画像を生成してもよい。
また、第1実施形態から第6実施形態において、画像処理装置200は認識部250を備えることとしたが、これに限られない。例えば、認識部250は、画像処理装置200と通信可能なOCR装置に設けられてもよい。
以上説明した少なくともひとつの実施形態によれば、画像処理装置200は、3次元データ生成部220と、2次元データ生成部230と、認識用画像生成部240とを持つ。3次元データ生成部220は、住所情報が付与された荷物400の画像と、基準位置から荷物400までの距離を画素ごとに示す距離画像とに基づいて、荷物400の3次元データを生成する。2次元データ生成部230は、3次元データ生成部220によって生成された3次元データを平面化することにより、2次元データを生成する。認識用画像生成部240は、2次元データ生成部230によって生成された2次元データに基づき、住所情報の認識に用いられる認識用画像を生成する。これによって、荷物400(対象物)に付与された住所情報(対象情報)の認識率を向上させることができる。
なお、上記実施形態による画像処理装置200は、内部にコンピュータシステムを有している。そして、上述した画像処理装置200の各処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって上記各種処理が行われる。ここで、コンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしてもよい。
上記実施形態は、以下のように表現することができる。
情報を記憶する記憶部と、
前記記憶部に記憶されたプログラムを実行するハードウェアプロセッサと、を備え、
前記記憶部には、前記ハードウェアプロセッサに、
文字または記号による対象情報が付与された対象物の画像と、基準位置から前記対象物までの距離を画素ごとに示す距離画像とに基づいて、前記対象物の3次元データを生成させ、
前記3次元データを平面化させることにより、2次元データを生成させ、
前記2次元データに基づき、前記対象情報の認識に用いられる認識用画像を生成させる
前記プログラムが格納されている、
画像処理装置。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
以下、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
文字または記号による対象情報が付与された対象物の画像と、基準位置から前記対象物までの距離を画素ごとに示す距離画像とに基づいて、前記対象物の3次元データを生成する3次元データ生成部と、
前記3次元データ生成部によって生成された前記3次元データを平面化することにより、2次元データを生成する2次元データ生成部と、
前記2次元データ生成部によって生成された前記2次元データに基づき、前記対象情報の認識に用いられる認識用画像を生成する認識用画像生成部と、
を備える画像処理装置。
[C2]
前記3次元データ生成部は、
前記距離画像からノイズを除去するノイズ除去部と、
前記ノイズ除去部によって前記ノイズを除去された前記距離画像の前記対象物の高さ方向のスケールを、前記対象物の画像の横方向のスケールおよび縦方向のスケールに基づいて調整するスケーリング部と、
前記スケーリング部によって前記対象物の高さ方向のスケールを調整された前記距離画像に基づき、前記対象物の各画素の3次元空間上における座標を算出するモデリング部と、
前記モデリング部によって算出された3次元空間上の前記座標と、前記対象物の画像とに基づいて、前記3次元データを生成する3次元マッピング部と、を備える
[C1]記載の画像処理装置。
[C3]
前記モデリング部は、前記距離画像が取得された際の信頼度に基づいて前記距離画像に含まれる距離情報に重み付けをして、前記3次元データを生成する
[C2]記載の画像処理装置。
[C4]
前記2次元データ生成部は、
前記対象物の位置の基準となるベース面を検出するベース面検出部と、
前記ベース面検出部によって検出された前記ベース面を基準として、前記3次元データ生成部によって生成された前記3次元データを平面化することにより、前記2次元データを生成する平面化部と、を備える
[C1]から[C3]の何れか1つに記載の画像処理装置。
[C5]
前記平面化部は、前記3次元データにおける各点間の距離を維持しつつ、前記各点の高さ方向の座標を前記ベース面の高さまで下降させる
[C4]記載の画像処理装置。
[C6]
前記認識用画像生成部は、前記2次元データ生成部によって生成された前記2次元データに対して、解像度を高めるための超解像処理を行う
[C1]から[C5]の何れか1つに記載の画像処理装置。
[C7]
前記認識用画像生成部は、前記2次元データに対して、自己相似性を用いる方式の前記超解像処理を行う
[C6]記載の画像処理装置。
[C8]
前記認識用画像生成部は、前記2次元データに対して、最近傍探索により初期画像を生成する方式の前記超解像処理を行う
[C6]記載の画像処理装置。
[C9]
前記認識用画像生成部は、前記2次元データに対して前記超解像処理を行うことにより、高解像度化された2値化画像を前記認識用画像として生成する
[C6]記載の画像処理装置。
[C10]
前記対象物の画像において、前記対象情報の周辺における光が反射している領域を検出する反射領域検出部と、
前記反射領域検出部によって検出された前記領域に基づき、2次元データ生成部によって生成された2次元データにおける光の反射を、画像処理によって抑制する反射抑制部と、を更に備える
[C1]から[C9]の何れか1つに記載の画像処理装置。
[C11]
前記反射領域検出部は、前記3次元データに基づき、前記対象情報が記載されている領域における白地部分と、鏡面反射によって白とびが発生した部分とを識別する
[C10]記載の画像処理装置。
[C12]
前記反射抑制部は、インペインティング処理により、周辺の画素を用いた穴埋めを行うことで、前記反射領域検出部によって検出された前記領域における光の反射を抑制する
[C10]または[C11]記載の画像処理装置。
[C13]
文字または記号による対象情報が付与された対象物の画像を取得する画像取得装置と、
前記対象情報の認識に用いられる認識用画像を生成する画像処理装置と、を備え、
前記画像処理装置は、
前記画像取得装置によって取得された前記対象物の画像と、基準位置から前記対象物までの距離を画素ごとに示す距離画像とに基づいて、前記対象物の3次元データを生成する3次元データ生成部と、
前記3次元データ生成部によって生成された前記3次元データを平面化することにより、2次元データを生成する2次元データ生成部と、
前記2次元データ生成部によって生成された前記2次元データに基づき、前記認識用画像を生成する認識用画像生成部と、
を備える画像処理システム。
[C14]
文字または記号による対象情報が付与された対象物の画像と、基準位置から前記対象物までの距離を画素ごとに示す距離画像とに基づいて、前記対象物の3次元データを生成し、
前記3次元データを平面化することにより、2次元データを生成し、
前記2次元データに基づき、前記対象情報の認識に用いられる認識用画像を生成する
画像処理方法。
[C15]
コンピュータに、
文字または記号による対象情報が付与された対象物の画像と、基準位置から前記対象物までの距離を画素ごとに示す距離画像とに基づいて、前記対象物の3次元データを生成させ、
前記3次元データを平面化させることにより、2次元データを生成させ、
前記2次元データに基づき、前記対象情報の認識に用いられる認識用画像を生成させる
プログラム。
10…画像処理システム、100…画像取得装置、110…第1画像取得部、120…第2画像取得部、200…画像処理装置、210…距離画像生成部、220…3次元データ生成部、221…ノイズ除去部、222…スケーリング部、223…モデリング部、224…3次元マッピング部、230…2次元データ生成部、231…ベース面検出部、232…平面化部、240…認識用画像生成部、250…認識部、260…反射領域検出部、270…反射抑制部、300…区分装置、400…荷物、410…宛名領域、500…ビデオコーディングシステム

Claims (14)

  1. プログラムを記憶するメモリと、
    前記メモリに記憶された前記プログラムを実行するプロセッサと、
    を備え、
    前記プロセッサは、
    文字または記号による対象情報が付与された対象物の画像と、基準位置から前記対象物までの距離を画素ごとに示す距離画像とに基づいて、前記対象物の3次元データを生成
    成された前記3次元データを平面化することにより、2次元データを生成
    成された前記2次元データに基づき、前記対象情報の認識に用いられる認識用画像を生成し、
    さらに、前記プロセッサは、
    前記距離画像からノイズを除去し、
    前記ノイズを除去された前記距離画像の前記対象物の高さ方向のスケールを、前記対象物の画像の横方向のスケールおよび縦方向のスケールに基づいて調整し、
    前記対象物の高さ方向のスケールを調整された前記距離画像に基づき、前記対象物の各画素の3次元空間上における座標を算出し、
    算出された3次元空間上の前記座標と、前記対象物の画像とに基づいて、前記3次元データを生成する
    画像処理装置。
  2. 前記プロセッサは、前記距離画像が取得された際の信頼度に基づいて前記距離画像に含まれる距離情報に重み付けをして、前記3次元データを生成する
    請求項記載の画像処理装置。
  3. 前記プロセッサは、
    前記対象物の位置の基準となるベース面を検出
    出された前記ベース面を基準として、成された前記3次元データを平面化することにより、前記2次元データを生成す
    請求項1または2記載の画像処理装置。
  4. 前記プロセッサは、前記3次元データにおける各点間の距離を維持しつつ、前記各点の高さ方向の座標を前記ベース面の高さまで下降させる
    請求項記載の画像処理装置。
  5. 前記プロセッサは、生成された前記2次元データに対して、解像度を高めるための超解像処理を行う
    請求項1からの何れか1項に記載の画像処理装置。
  6. 前記プロセッサは、前記2次元データに対して、自己相似性を用いる方式の前記超解像処理を行う
    請求項記載の画像処理装置。
  7. 前記プロセッサは、前記2次元データに対して、最近傍探索により初期画像を生成する方式の前記超解像処理を行う
    請求項記載の画像処理装置。
  8. 前記プロセッサは、前記2次元データに対して前記超解像処理を行うことにより、高解像度化された2値化画像を前記認識用画像として生成する
    請求項記載の画像処理装置。
  9. 前記プロセッサは、
    前記対象物の画像において、前記対象情報の周辺における光が反射している領域を検出
    出された前記領域に基づき、生成された2次元データにおける光の反射を、画像処理によって抑制す
    請求項1からの何れか1項に記載の画像処理装置。
  10. 前記プロセッサは、前記3次元データに基づき、前記対象情報が記載されている領域における白地部分と、鏡面反射によって白とびが発生した部分とを識別する
    請求項記載の画像処理装置。
  11. 前記プロセッサは、インペインティング処理により、周辺の画素を用いた穴埋めを行うことで、出された前記領域における光の反射を抑制する
    請求項9または10記載の画像処理装置。
  12. 文字または記号による対象情報が付与された対象物の画像を取得する画像取得装置と、
    前記対象情報の認識に用いられる認識用画像を生成する画像処理装置と、を備え、
    前記画像処理装置は、
    プログラムを記憶するメモリと、
    前記メモリに記憶された前記プログラムを実行するプロセッサと、
    を備え、
    前記プロセッサは、
    前記画像取得装置によって取得された前記対象物の画像と、基準位置から前記対象物までの距離を画素ごとに示す距離画像とに基づいて、前記対象物の3次元データを生成
    成された前記3次元データを平面化することにより、2次元データを生成
    成された前記2次元データに基づき、前記認識用画像を生成し、
    さらに、前記プロセッサは、
    前記距離画像からノイズを除去し、
    前記ノイズを除去された前記距離画像の前記対象物の高さ方向のスケールを、前記対象物の画像の横方向のスケールおよび縦方向のスケールに基づいて調整し、
    前記対象物の高さ方向のスケールを調整された前記距離画像に基づき、前記対象物の各画素の3次元空間上における座標を算出し、
    算出された3次元空間上の前記座標と、前記対象物の画像とに基づいて、前記3次元データを生成する
    画像処理システム。
  13. 文字または記号による対象情報が付与された対象物の画像と、基準位置から前記対象物までの距離を画素ごとに示す距離画像とに基づいて、前記対象物の3次元データを生成し、
    前記3次元データを平面化することにより、2次元データを生成し、
    前記2次元データに基づき、前記対象情報の認識に用いられる認識用画像を生成する画像処理方法であって、
    前記距離画像からノイズを除去し、
    前記ノイズを除去された前記距離画像の前記対象物の高さ方向のスケールを、前記対象物の画像の横方向のスケールおよび縦方向のスケールに基づいて調整し、
    前記対象物の高さ方向のスケールを調整された前記距離画像に基づき、前記対象物の各画素の3次元空間上における座標を算出し、
    算出された3次元空間上の前記座標と、前記対象物の画像とに基づいて、前記3次元データを生成する
    画像処理方法。
  14. コンピュータに、
    文字または記号による対象情報が付与された対象物の画像と、基準位置から前記対象物までの距離を画素ごとに示す距離画像とに基づいて、前記対象物の3次元データを生成させ、
    前記3次元データを平面化させることにより、2次元データを生成させ、
    前記2次元データに基づき、前記対象情報の認識に用いられる認識用画像を生成させる
    プログラムであって、
    さらに、コンピュータに、
    前記距離画像からノイズを除去させ、
    前記ノイズを除去された前記距離画像の前記対象物の高さ方向のスケールを、前記対象物の画像の横方向のスケールおよび縦方向のスケールに基づいて調整させ、
    前記対象物の高さ方向のスケールを調整された前記距離画像に基づき、前記対象物の各画素の3次元空間上における座標を算出させ、
    算出された3次元空間上の前記座標と、前記対象物の画像とに基づいて、前記3次元データを生成させる
    プログラム。
JP2017050498A 2017-03-15 2017-03-15 画像処理装置、画像処理システム、画像処理方法、およびプログラム Active JP6837880B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017050498A JP6837880B2 (ja) 2017-03-15 2017-03-15 画像処理装置、画像処理システム、画像処理方法、およびプログラム
US15/913,954 US10579859B2 (en) 2017-03-15 2018-03-07 Image processing apparatus, image processing system, image processing method, and program
EP18160898.5A EP3376435B1 (en) 2017-03-15 2018-03-09 Image processing apparatus, image processing system, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017050498A JP6837880B2 (ja) 2017-03-15 2017-03-15 画像処理装置、画像処理システム、画像処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2018156192A JP2018156192A (ja) 2018-10-04
JP6837880B2 true JP6837880B2 (ja) 2021-03-03

Family

ID=61616915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017050498A Active JP6837880B2 (ja) 2017-03-15 2017-03-15 画像処理装置、画像処理システム、画像処理方法、およびプログラム

Country Status (3)

Country Link
US (1) US10579859B2 (ja)
EP (1) EP3376435B1 (ja)
JP (1) JP6837880B2 (ja)

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3504585B2 (ja) 1992-04-28 2004-03-08 オリンパス株式会社 画像取り込み装置及び画像取り込み方法
DE69629930T2 (de) 1996-12-30 2004-07-22 Datalogic S.P.A., Lippo Di Calderara Di Reno Verfahren zum Festlegen eines auf einem Objekt angebrachten optischen Codes
DE69705725T2 (de) 1997-11-17 2002-05-23 Datalogic Spa Verfahren zur Lokalisierung von Farbbereichen oder von Bereichen mit grossen Helligkeitsänderungen in einem Bild
JPH11306282A (ja) 1998-04-17 1999-11-05 Nippon Telegr & Teleph Corp <Ntt> 文字列領域抽出方法及び装置
JP3479601B2 (ja) 1998-08-19 2003-12-15 日本電信電話株式会社 景観画像中文字読み取り方法及び実施装置ならびにその方法を記録した記録媒体
WO2001026041A1 (fr) 1999-10-06 2001-04-12 Fujitsu Limited Dispositif et procede de reconnaissance de caracteres presents sur des images
JP4552484B2 (ja) * 2004-03-31 2010-09-29 ブラザー工業株式会社 画像入出力装置
WO2005096126A1 (ja) 2004-03-31 2005-10-13 Brother Kogyo Kabushiki Kaisha 画像入出力装置
US7463772B1 (en) * 2004-09-13 2008-12-09 Google Inc. De-warping of scanned images
US20070257934A1 (en) * 2006-05-08 2007-11-08 David Doermann System and method for efficient enhancement to enable computer vision on mobile devices
WO2008102205A2 (en) * 2006-08-09 2008-08-28 Fotonation Vision Limited Detection of airborne flash artifacts using preflash image
JP2011070579A (ja) * 2009-09-28 2011-04-07 Dainippon Printing Co Ltd 撮影画像表示装置
EP2339534A1 (en) * 2009-11-18 2011-06-29 Panasonic Corporation Specular reflection compensation
JP2011170536A (ja) 2010-02-17 2011-09-01 Ubiteq Inc 文字認識システム
JP5554654B2 (ja) 2010-07-13 2014-07-23 キヤノン電子株式会社 画像処理方法、携帯情報端末及びプログラム
JP2012147252A (ja) * 2011-01-12 2012-08-02 Nippon Hoso Kyokai <Nhk> 画像縮小装置及び画像拡大装置、並びにプログラム
EP2751748B1 (en) * 2011-08-30 2019-05-08 Digimarc Corporation Methods and arrangements for identifying objects
US9367770B2 (en) 2011-08-30 2016-06-14 Digimarc Corporation Methods and arrangements for identifying objects
US8988446B2 (en) * 2011-10-07 2015-03-24 Zynga Inc. 2D animation from a 3D mesh
KR101978172B1 (ko) * 2011-11-29 2019-05-15 삼성전자주식회사 깊이 영상을 고해상도로 변환하는 방법 및 장치
JP2014238731A (ja) * 2013-06-07 2014-12-18 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理システム、および画像処理方法
JP6630041B2 (ja) 2014-12-25 2020-01-15 キヤノン電子株式会社 画像読取装置、その制御方法、プログラム、画像読取システム、及び画像処理装置
US9563957B1 (en) * 2015-07-02 2017-02-07 Yesvideo, Inc. 2D/3D image scanning and compositing
ITUB20154043A1 (it) * 2015-09-30 2017-03-30 Datalogic IP Tech Srl Sistema e metodo di lettura di informazioni codificate
JP2017216497A (ja) 2016-05-30 2017-12-07 株式会社東芝 画像処理装置、画像処理システム、画像処理方法、およびプログラム

Also Published As

Publication number Publication date
US20180268199A1 (en) 2018-09-20
JP2018156192A (ja) 2018-10-04
US10579859B2 (en) 2020-03-03
EP3376435A1 (en) 2018-09-19
EP3376435B1 (en) 2023-10-11

Similar Documents

Publication Publication Date Title
CN109813251B (zh) 用于三维测量的方法、装置以及系统
US8867790B2 (en) Object detection device, object detection method, and program
JP5792157B2 (ja) 画像処理装置、方法、プログラム及び記録媒体
CN110826499A (zh) 物体空间参数检测方法、装置、电子设备及存储介质
US20040252863A1 (en) Stereo-vision based imminent collision detection
US20180091798A1 (en) System and Method for Generating a Depth Map Using Differential Patterns
WO2012120856A1 (ja) 物体検出装置及び物体検出方法
WO2018072817A1 (en) A device and method for obtaining distance information from views
US9025862B2 (en) Range image pixel matching method
JP2009529824A (ja) 3次元映像獲得用cmosステレオカメラ
WO2007015059A1 (en) Method and system for three-dimensional data capture
CN105551020B (zh) 一种检测目标物尺寸的方法及装置
CN105335955A (zh) 对象检测方法和对象检测装置
JP2006236104A (ja) 対象物判定装置
KR20150074544A (ko) 차량 검출 방법
JP2013174547A (ja) ステレオ3次元計測装置
CN110443228B (zh) 一种行人匹配方法、装置、电子设备及存储介质
JP6837880B2 (ja) 画像処理装置、画像処理システム、画像処理方法、およびプログラム
JP6567384B2 (ja) 情報認識装置、情報認識方法、およびプログラム
JP2018045464A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2001153633A (ja) 立体形状検出方法および装置
JP2017216497A (ja) 画像処理装置、画像処理システム、画像処理方法、およびプログラム
US10007857B2 (en) Method for the three-dimensional detection of objects
JP2013114381A (ja) 対象物識別装置および対象物識別方法
CN114766039A (zh) 对象检测方法、对象检测设备、终端设备、以及介质

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170913

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170913

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190906

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210210

R150 Certificate of patent or registration of utility model

Ref document number: 6837880

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150