JP6260620B2 - 画像処理装置、画像処理方法、及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法、及び画像処理プログラム Download PDF

Info

Publication number
JP6260620B2
JP6260620B2 JP2015522462A JP2015522462A JP6260620B2 JP 6260620 B2 JP6260620 B2 JP 6260620B2 JP 2015522462 A JP2015522462 A JP 2015522462A JP 2015522462 A JP2015522462 A JP 2015522462A JP 6260620 B2 JP6260620 B2 JP 6260620B2
Authority
JP
Japan
Prior art keywords
image
component
images
image processing
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015522462A
Other languages
English (en)
Other versions
JPWO2014203403A1 (ja
Inventor
信二 滋野
信二 滋野
照雄 下村
照雄 下村
幸三 馬場
幸三 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2014203403A1 publication Critical patent/JPWO2014203403A1/ja
Application granted granted Critical
Publication of JP6260620B2 publication Critical patent/JP6260620B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/02Recognising information on displays, dials, clocks

Description

本願は、画像処理装置、画像処理方法、及び画像処理プログラムに関する。
作業員等が、様々な場所に設置されたメータ等の認識対象物を撮影し、その撮影した画像情報を認識してメータ等に表示された数値等を読み取る手法がある。また、認識対象物が撮影された画像中のどこにあるかを識別するため、認識対象物に識別用マーカを付け、撮影された画像に含まれる識別用マーカの位置から認識対象物の画像領域を取得する手法がある(例えば、特許文献1参照)。
特開2002−56371号公報
しかしながら、例えば屋外等に設置されている認識対象物を撮影した場合は、外光の影響が大きく、画像全体の色味が変化したり、画像の一部に光源(例えば、太陽やカメラのフラッシュ等)が写り込むため画像の認識が難しくなる場合がある。
また、上述したような外光の影響や、メータの種類の相違による読み取り易さが画像毎に異なるため、単なる照度補正だけではメータの数値等を認識しやすい状態の画像にすることができない。
1つの側面では、本発明は、撮影画像を認識処理に適した画像に変換することを目的とする。
一態様における画像処理装置は、入力画像に含まれる画素の値に基づいて、前記入力画像を色成分毎の複数の画像に変換し、変換した前記複数の画像のそれぞれにおいて画像に含まれる画素間の輝度の差分を特定し、特定した前記複数の画像のそれぞれに対応する輝度の差分に基づいて、前記複数の画像の中から少なくとも1つの画像を選択し、選択した前記画像を出力する画像処理部を有し、前記画像処理部は、前記入力画像のR成分、G成分、及びB成分の各成分画像に対し、前記入力画像に設定したライン中の画素情報から、各画素のRGB間の各成分の差分値を求め、求めた前記差分値のうち最大の差分が、予め設定された閾値を超える画素数に応じて、前記複数の画像として、前記入力画像のH成分、S成分、及びI成分の各成分画像を変換対象とするか否かを決定する
撮影画像を認識処理に適した画像に変換することができる。
図1は本実施形態における画像処理装置の機能構成例を示す図である。 図2は画像処理装置のハードウェア構成例を示す図である。 図3は画像処理装置の処理の一例を示すフローチャートである。 図4は射影変換部における処理を説明するための図である。 図5は画像処理部の処理の一例を示すフローチャートである。 図6はチャネル評価の対象画像の一例を示す図である。 図7はチャネル分割された各成分画像の一例を示す図である。 図8は7セグメント表示された数字部分の画像例を示す図である。 図9は境界強調処理の一例を示す図である。 図10は画像処理の第1実施例を説明するための図である。 図11は画像処理の第2実施例を説明するための図である。
以下、図面に基づいて実施形態を説明する。
<画像処理装置の機能構成例>
図1は、本実施形態における画像処理装置の機能構成例を示す図である。図1の例に示す画像処理装置10は、入力部11と、出力部12と、記憶部13と、撮像部14と、マーカ検出部15と、射影変換部16と、画像処理部17と、画像認識部18と、通信部19と、制御部20とを有する。
入力部11は、画像処理装置10を使用するユーザ等から、各種指示の開始や終了、設定の入力等の各種入力を受け付ける。具体的には、入力手段11は、例えば本実施形態における撮影指示、マーカ検出指示、射影変換指示、画像最適化指示、画像認識指示等の各指示を受け付ける。
入力部11は、例えばキーボードやマウス等でもよく、また画面を用いたタッチパネル形式等でもよく、或いは例えばマイクロフォン(以下、「マイク」という)等でもよい。
出力部12は、入力部11により入力された内容や、入力内容に基づき実行された内容等の出力を行う。出力部12は、例えば画面表示により出力する場合には、ディスプレイやモニタ等の表示部を有し、音声により出力する場合には、スピーカ等の音声出力手段を有する。また、出力部12は、タッチパネル上に表示してもよい。したがって、上述した入力部11と出力部12とは、例えばタッチパネルのように入出力が一体型であってもよい。
記憶部13は、本実施形態において必要となる各種情報を記憶する。例えば、記憶部13は、入力部11から得られる入力情報、撮像部14から得られる画像情報、通信部19を介して外部装置等から取得した画像情報、本実施形態における画像処理結果等を記憶する。また、記憶部13は、本実施形態における画像処理を実行するための各種設定情報、各種処理の実行経過や結果等を記憶する。なお、記憶部13に記憶される情報は、上述した情報に限定されるものではない。
記憶部13は、制御部20等による制御により、記憶された各種情報を必要に応じて所定のタイミングで読み出したり、書き込んだりする。記憶部13は、例えばハードディスクやメモリ等である。
撮像部14は、例えば様々な場所に設置されたメータ等の認識対象物を含む画像を撮影し、撮影された画像を取得する。撮像部14は、撮影する画像のサイズや解像度、フラッシュの有無、ズーム率等の撮影パラメータに予め設定された撮像条件に基づいて、認識対象物の撮影を行う。撮像部14は、例えばデジタルカメラ等であるが、これに限定されるものではない。
ここで、撮像部14により撮影される認識対象物には、画像中から認識対象物の位置がわかるように、認識対象物の周囲に1又は複数のマーカが取り付けられている。マーカとは、背景部分との色差や輝度差が大きくなるような色を有するポイント(点又は領域)等であるが、これに限定されるものではない。例えば、マーカは、予め設定された模様やマーク(例えば四角、三角、星印等)でもよく、これらを複数組み合わせたものであってもよい。
マーカは、例えば読み取る対象メータの数値や形状等が示された領域が矩形の場合に、その矩形の4隅にマーカを設定するが、これに限定されるものではない。例えば、円形のメータの場合には、その円周上に等間隔に配列した4点であってもよい。また、複数のマーカは、全て同一のマークに限定されるものではなく、例えば撮影した画像からメータの向きが分かるように、少なくとも1つのマークを他のマークと異なるマークにしてもよい。撮像部14により撮影された画像は、記憶部13に記憶されてもよく、そのままマーカ検出部15に入力されてもよい。
マーカ検出部15は、撮像部14等により撮影された認識対象物を含む画像情報又は通信部19を介して外部装置から取得した認識対象物を含む画像情報からマーカの位置を検出する。例えば、マーカ検出部15は、撮像部14により撮影された画像がカラー画像の場合、撮影画像を二値画像に変換する。ここで、二値画像に変換するとは、マーカに対して設定した色情報を使用し、画像の画素毎に、その色情報の近傍色を1、それ以外の色情報を持つ画素を0として二値化を行う。なお、近傍色とは、予め設定されたマーカの色情報に対して所定の誤差を含む範囲である。色情報としては、明度や輝度等があるが、これに限定されるものではない。また、二値化する場合には、上述の例に限定されるものではなく、例えば近傍色を0、それ以外の色の画素を1としてもよい。
また、マーカ検出部15は、ノイズ除去を行ってもよい。マーカ検出部15は、上述した二値化された画像に対して、例えば膨張、収縮を行うことで、二値ノイズを除去することができる。膨張とは、例えば注目画素の周辺に1画素でも白い画素があれば白に置き換える処理をいう。また、収縮とは、膨張とは逆に周辺に1画素でも黒い画素があれば黒に置き換える処理をいう。なお、マーカ検出部15は、上述した値化する前に平滑化処理等を行うことで、ノイズ除去を行ってもよい。
また、マーカ検出部15は、マーカ領域を抽出する。具体的には、上述したノイズ除去を行った二値化画像に対してラベリング処理を行って1又は複数の領域を抽出する。ここで、マーカ検出部15は、予め設定された数のマーカ領域(例えば、4領域)が得られない場合には、「マーカなし」としてユーザに通知する等の処理を行ってもよい。
また、マーカ検出部15は、抽出されたマーカ領域に対するマーカ位置(座標)を取得する。なお、マーカ検出部15は、例えば各マーカ領域の中心位置を各マーカ位置として取得する。マーカ位置は、画像に対して設定された2次元座標(x,y)として取得することができるが、これに限定されるものではない。
射影変換部16は、マーカ検出部15により検出された撮影画像中のマーカ位置(4点)を予め設定された4点に位置付けるため、射影変換を行う。射影変換部16は、例えばマーカ位置(例えば、4点)と、変換後の4点の位置とから、例えばホモグラフィ(homography)行列を算出し、算出した行列を用いて画像の射影変換を行うことができるが、これに限定されるものではない。なお、射影変換部16は、マーカで囲まれた領域内の画像に対する射影変換を行い、そのマーカ領域に囲まれた領域の画像を生成する。射影変換を行うことで、撮影画像中のマーカ領域が傾いていたり、認識対象物を正面から撮影できていないような場合でも正面から撮影した画像として取得することができる。
画像処理部17は、射影変換部16により変換された画像に対して、画像認識に適した画像に補正する処理を行う。例えば、画像処理部17は、射影変換部16により変換された画像に対して、各画素の値に基づいて予め設定された複数種類の画像(チャネル画像)に変換する。また、画像処理部17は、変換した複数種類の画像の中から、各画像の輝度情報に基づく所定の条件(例えば、輝度差や輝度分散等)に基づいて少なくとも1つの画像を選択する。なお、以後の説明において、画像処理部17が実行する処理を指して最適化処理と記載する場合がある。
なお、画像処理部17は、例えば認識対象物の種類や撮影時間、撮影条件(フラッシュの有無、周辺の明るさ、カメラのオートゲイン機能の有無等)、及び撮影位置等のうち、少なくとも1つの情報を用いて画像の選択や最適化等をいってもよい。画像処理部17の具体例については後述する。
画像認識部18は、画像処理部17により最適化された画像から、数値や文字、記号、及び形状(例えば、アナログメータの針の形状、位置)等のうち、少なくとも1つの情報を認識する。例えば、画像認識部18は、例えば電卓の表示部のように7つの線分(セグメント)で1桁の数字を表す7セグメント表示する表示方式を用いるデジタルメータの場合には、その数値を認識する。また、画像認識部18は、文字盤に記載された数値に対する針の位置により数値を読み取るようなアナログメータの場合には、その針の形状(位置)等を認識する。画像認識部18における認識内容は、これらに限定されるものではない。
例えば、画像認識部18は、画像中の数値や文字を読み取る場合には、Optical Character Recognition(OCR)等による文字認識を行ってもよく、予め記憶された数字や文字、形状等とのマッチング処理を行うことで、画像中の数値や文字、形状等を認識してもよい。
通信部19は、例えばインターネットやLocal Area Network(LAN)等の通信ネットワークを介して外部装置と各種情報の送受信を行うための送受信部である。通信部19は、外部装置等にすでに記憶されている各種情報等を受信することができ、また画像処理装置10で処理された結果を、通信ネットワーク等を介して外部装置等に送信することもできる。
制御部20は、画像処理装置10の各構成部全体の制御を行う。具体的には、制御部20は、例えばユーザ等による入力部11からの指示等に基づいて、画像処理に関する各制御を行う。ここで、各制御とは、例えば上述した撮像部14に認識対象物(例えば、メータ等)を撮影させる、マーカ検出部15にマーカ検出させる、射影変換部16に射影変換させる、画像処理部17に画像を最適化させる等がある。また、各制御は、画像認識部18に画像を認識させる等があるが、これらに限定されるものではない。
上述した画像処理装置10の例としては、例えばタブレット端末やスマートフォン、携帯電話等の通信端末があるが、これに限定されるものではない。画像処理装置10の例としては、その他にも、画像処理装置10とは異なるカメラ等で撮影された画像を通信部19により取得して、本実施形態における画像処理を行うPersonal Computer(PC)やサーバ等のコンピュータでもよい。この場合、画像処理装置10は撮像部14を有しなくてもよい。また、画像処理装置10は、デジタルカメラ(撮像装置)やゲーム機器等でもよい。
上述した本実施形態の構成により、撮影された際の照明の条件や撮影対象のメータの種類が多様であっても、認識処理に適した画像に変換することができる。
<画像処理装置10のハードウェア構成例>
図2は、画像処理装置のハードウェア構成例を示す図である。なお、図2の例では、画像処理装置10は、例えばタブレット端末等の通信端末を例に説明する。図2の例に示す画像処理装置10は、マイク31と、スピーカ32と、ディスプレイ33と、操作部34と、カメラ35と、位置情報取得部36と、時刻部37と、電力部38と、メモリ39と、通信部40と、Central Processing Unit(CPU)41と、ドライバ42とを有し、これらはシステムバスBで相互に接続されている。
マイク31は、ユーザが発した音声や、その他の音を入力する。スピーカ32は、通話相手先の音声を出力したり、着信音等の音を出力する。マイク31及びスピーカ32は、例えば通話機能等により通話相手と会話するとき等に用いられる。
表示部33は、例えばLiquid Crystal Display(LCD)や有機Electro Luminescence(EL)等のディスプレイである。また、表示部33は、例えばディスプレイとタッチパネルとを有するタッチパネルディスプレイ等でもよい。
操作部34は、例えばタッチパネル上に表示されるアイコンやボタン群、画像処理装置自体に設けられた操作ボタン等である。操作ボタンは、例えば電源ボタン、撮影ボタン、音量調整ボタン、その他の操作ボタンであるが、これに限定されるものではない。操作部34は、ユーザからの各種指示や情報等を入力することができる。
カメラ35は、作業員等が管理する認識対象物を撮影する。カメラ35は、画像処理装置10に内蔵されたカメラでもよく、また、画像処理装置10には内蔵されておらず、直接的もしくは通信を介して間接的に接続して撮影したデータを画像処理装置10に送信するカメラでもよい。
位置情報取得部36は、Global Positioning System(GPS)機能等を用いて画像処理装置10の位置情報(例えば、緯度・経度情報等)を取得する。位置情報は、例えばカメラ35により撮影された画像が、どの位置で撮影されたものであるか等を判断することきに用いられるが、これに限定されるものではない。また、位置情報の取得例は、GPSに限定されるものではなく、例えば画像処理装置10がWireless Fidelity(Wi−Fi(登録商標))等で近距離通信をしている場合には、そのアクセスポイントの位置情報等から画像処理装置10の位置情報を取得してもよい。また、位置情報取得部36は、画像処理装置10に設けられた加速度センサやジャイロセンサ等を用いて傾きや角度、方向等を取得してもよい。
なお、カメラ35が、画像処理装置10に直接的にもしくは通信を介して間接的に接続して撮影を行うカメラである場合、位置情報取得部36は、画像処理装置10ではなくカメラに搭載され、撮影が行われた位置の情報を取得することが好ましい。
時刻部37は、時刻を取得する。時刻部37は、年月日も含めて取得することができ、またタイマとしての機能を有していてもよい。時刻部37により得られる時刻は、例えばカメラ35で撮影された画像を取得したときの時間等を管理する場合に用いられるが、これに限定されるものではない。
電力部38は、画像処理装置10の各構成に対して電力を供給する。電力部38は、例えばバッテリ等の内部電源であるが、これに限定されるものではない。電力部38は、電力量を常時又は所定の時間間隔で検出し、電力量の残量等を監視することもできる。
メモリ39は、例えば補助記憶装置や主記憶装置等である。メモリ39は、例えばRead Only Memory(ROM)やRandom Access Memory(RAM)等である。また、メモリ39は、例えばHard Disk Drive(HDD)やSolid State Drive(SSD)等のストレージ手段でもよい。
メモリ39は、各種のデータやプログラム等を記憶し、必要に応じてそれらのデータ等の入出力を行う。また、メモリ39は、CPU41からの指示により実行プログラム等を読み出して実行したり、プログラム実行中に得られる各種情報等を記憶する。
通信部40は、例えばアンテナ等を用いて基地局からの無線信号(通信データ)を受信したり、アンテナを介して無線信号を基地局に送信する通信インターフェースである。また、通信部40は、例えば赤外線通信やWi−Fi、Bluetooth(登録商標)等の通信手法を用いて、外部装置と近距離通信を行ってもよい。
CPU41は、OS等の制御プログラム、及びメモリ39に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御することで、画面表示における各処理を実現する。なお、プログラム実行中に必要な各種情報等は、メモリ39から取得し、実行結果等を格納してもよい。
ドライバ42は、例えば記録媒体43等を着脱自在にセットすることができ、セットした記録媒体43に記録された各種情報を読み込んだり、所定の情報を記録媒体43に書き込むことができる。ドライバ42は、例えば媒体装填スロット等であるが、これに限定されるものではない。
記録媒体43は、上述したように実行プログラム等を格納するコンピュータで読み取り可能な記録媒体である。記録媒体43は、例えばフラッシュメモリ等の半導体メモリであってもよい。また、記録媒体43は、Universal Serial Bus(USB)メモリ等の可搬型記録媒体であってもよいが、これに限定されるものではない。
本実施形態では、上述したコンピュータ本体のハードウェア構成に実行プログラム(例えば、画像処理プログラム等)をインストールすることで、ハードウェア資源とソフトウェアとが協働して本実施形態における表示処理等を実現することができる。
<画像処理プログラム>
次に、本実施形態における画像処理プログラムを用いた画像処理装置10の処理の一例について、フローチャートを用いて説明する。図3は、画像処理装置の処理の一例を示すフローチャートである。
図3の例に示す画像処理装置10において、撮像部14は、撮影画像を取得する(S01)。なお、S01の処理では、通信部19により撮影画像のデータを受信することで取得してもよい。次に、マーカ検出部15は、撮影した画像に対してマーカ検出処理を行う(S02)。
マーカ検出部15は、検出結果からマーカがあるか否かを判断する(S03)。S03の処理において、マーカがある場合(S03において、YES)、射影変換部16は、そのマーカ領域に対する射影変換を行う(S04)。
次に、画像処理部17は、上述したS04の処理により射影変換された画像の最適化処理を行う(S05)。次に、画像認識部18は、上述したS05の処理により得られる最適化された画像から認識対象物の文字や数値、記号、針の形状及び位置等のうち、少なくとも1つの情報を認識する(S06)。
なお、画像処理装置10は、上述したS03の処理において、マーカ検出部15の検出結果が、マーカなしである場合(S03において、NO)、ユーザ通知を行い(S07)、処理を終了する。なお、S07の処理では、ユーザ通知後、ユーザが再度撮影した撮影画像を取得して、S02以降の処理を行ってもよい。
<射影変換部16の具体例>
次に、上述した射影変換部16の具体例について説明する。図4は、射影変換部における処理を説明するための図である。図4(A)は、撮影された画像の一例を示し、図4(B)は、射影変換により取得される画像の一例を示している。
射影変換部16は、例えば撮像部14により撮影された図4(A)に示すような画像50−1を撮影する。画像50−1には、例えばメータ等の認識対象物が含まれている。なお、図4(A)の例では、アナログメータが示されている。
ここで、ユーザ(作業員等)により撮影される画像は、メータ部分が傾いていたり、正面から撮影されていない場合がある。したがって、射影変換部16は、例えば図4(A)に示すようにメータの位置を示すマーカ51−1〜51−4を、予め設定された4点の位置関係(縦横の距離)に変換し、図4(B)に示すような正規化した射影変換画像50−2を取得する。
なお、画像の正規化は、例えばマーカ位置(4点)と変換後の4点から3×3のホモグラフィ行列を算出し、算出した行列を用いて画像の射影変換を行うことができるが、これに限定されるものではない。
<画像処理部17の具体例>
次に、上述した画像処理部17の具体例について説明する。画像処理部17では、例えば予め設定された複数の画像処理を行い、検出対象(例えば7セグメントのLight Emitting Diode(LED)表示部分や針部分)のみ残し、それ以外を除去する。
例えば、同じメータでも撮影条件(例えば、デジタル部分の光源の影響、外光等の周辺の明るさの影響、オートゲイン機能等の撮影パラメータの影響)等により、撮影結果が異なる。そこで、画像処理部17は、以下に示す画像処理等を行う。
図5は、画像処理部の処理の一例を示すフローチャートである。図5の例において、画像処理部17は、射影変換部16により得られる射影変換画像を取得する(S01)。次に、画像処理部17は、取得した画像に含まれる各画素の値に基づいて、成分(チャネル)毎の画像に変換し、変換した画像を用いてチャネル評価を行う(S12)。チャネルとは、S01の処理で取得したカラー画像に含まれる各画素のそれぞれの色成分であり、例えば赤(R)、緑(G)、青(B)、色相(H)、彩度(S)、輝度(I)等であるが、これに限定されるものではない。
画像処理部17は、上述した複数種類の成分画像の輝度情報等を評価して不要なチャネル画像を除外し、必要なチャネル画像を用いて最適化を行う。例えば、画像処理部17は、上述したS12の処理により得られる評価結果に基づいて、画像の最適化に必要な成分のチャネル画像を射影変換画像から分割するチャネル分割を行い(S13)、得られた各チャネル画像から、少なくとも1つの画像(チャネル)を選択する(S14)。
次に、画像処理部17は、選択したチャネル画像に対してマスク処理を行い(S15)、得られた画像に対して境界強調等の最適化処理を行う(S16)。なお、S16の処理では、例えば二値化や明るさ補正、鮮鋭化補正等の処理を行ってもよい。これにより、本実施形態における画像の最適化を実現することができる。
<チャネル評価の具体例>
次に、上述したS12におけるチャネル評価の具体例について説明する。チャネル評価では、取得した射影変換画像に対し、予め設定された条件と比較することで、対象のチャネル(成分)画像を除外する。これにより、必要なチャネルのみを選択して画像の最適化を行う。以下に、上述した予め設定された条件と、その条件に対応する処理の例について説明する。
<条件1>
例えば、画像処理部17は、複数種類の画像として、1つの入力画像に対してR成分の画像、G成分の画像、B成分の画像に変換する。次に、画像処理部17は、入力画像に含まれる、ある画素のラインを設定し、そのライン中の各画素についてRGB間の各成分(R成分とG成分、R成分とB成分、G成分とB成分)のそれぞれの差分を求める。また、画像処理部17は、1つの画素について求めた差分のうち最大の差分が所定の値を超える画素を抽出する。更に、画像処理部17は、上述したライン中において抽出される画素数を求め、求めた画素数に応じて、H成分の画像、S成分の画像、及びI成分の画像を変換対象とするか否かを決定する。
上述した内容を具体的に説明する。条件1では、例えば画像から横1列又は縦1列のラインの輝度を取得する。なお、ラインは、縦又は横から少なくとも1列であればよいが、これに限定されるものではない。次に、画像処理部17は、取得したライン上の全画素でRGB間のそれぞれの差の絶対値を求め、求めた値と予め設定された閾値(第1の閾値)とを比較する。なお、第1の閾値は、例えばモノクロに近い画像か否かを判断するための閾値であるが、これに限定されるものではない。例えば、画像処理部17は、求めた値が閾値以下の場合、H成分、S成分、及びI成分のチャネルを除外し、R成分、G成分、B成分を変換対象とする。
<条件2>
例えば、画像処理部17は、R成分、G成分、B成分、H成分、S成分、及びI成分の各成分画像に対し、入力画像である画素のラインにつき、そのライン中の画素について、各画素のR成分、G成分、B成分の輝度値を求める。また、画像処理部17は、求めた輝度値が何れかが所定値を超える画素数を求める。また、画像処理部17は、その所定の値を超えた成分のチャネルを除外し、それ以外の成分の画像を変換対象とするか否かを決定する。
上述の内容を具体的に説明する。条件2では、条件1と同様に、例えば画像から横1列又は縦1列のラインの輝度を取得する。次に、画像処理部17は、ライン上のR成分、G成分、B成分の特定チャネルに対して、予め設定された閾値(第2の閾値)以上の画素をカウントする。次に、画像処理部17は、そのカウント値(画素数)を上述したチャネル間で比較し、特定のチャネルのみ多い場合に、そのカウントの多いチャネルを除外する。なお、第2の閾値は、例えばライン上の各画素の輝度が所定の成分で飽和しているか否かを判断するための閾値であるが、これに限定されるものではない。これにより、画像処理部17は、上述したR成分、G成分、B成分、H成分、S成分、及びI成分の各成分画像のうち、カウントの多い成分画像を除いた成分画像を変換対象とする。
ここで、図6は、チャネル評価の対象画像の一例を示す図である。図6(A)〜(D)は、射影変換画像を示している。図6(A)、(B)は、デジタル数値表示のメータ例を示し、図6(C)、(D)は、アナログ表示のメータ例を示している。
上述したチャネル評価を行うためのラインの位置及び数は、予め固定に設定されていてもよく、また入力画像に含まれる認識対象物の種類、撮影時間、撮影場所、及び撮影パラメータ等のうち、少なくとも1つの条件によって設定されてもよい。また、ライン設定は、撮影された認識対象物の範囲(マーカ領域)の形状、マーカの色、大きさ、外光等の影響等に応じて任意にラインを設定してもよい。
例えば、図6(A)の(i)、図6(B)の(i)に示すようなデジタル数値の場合に、セグメント部と非セグメント部とを通る横直線1本を設定することで、そのライン60における上述した各成分画像の輝度情報等から評価することができる。
なお、画像処理部17は、例えば図6(A)の(ii)に示すようにセグメント部と非セグメント部とを通る横直線のライン60を複数本(例えば、上下2本)設定することでチャネル評価の安定性を向上させることができる。また、画像処理部17は、例えば撮像部14におけるフラッシュ等の影響を受ける場合を考慮して、図6(A)の(iii)に示すように、縦方向にも1本のライン60を追加してもよい。なお、縦ライン60の場合には、フラッシュ撮影時等に中央に反射が入る可能性が高いため、画像の中央付近にライン60を設定することが好ましいがこれに限定されるものではなく、例えば縦方向に複数本のライン60を設定してもよい。
また、画像処理部17は、図6(C)の(i)に示すように、アナログメータ(針の移動幅180度未満)の場合には、例えば針を必ず通る線1本を設定する。また、画像処理部17は、上述したように撮像部14におけるフラッシュの影響等を考慮し、縦方向にも線1本設定してもよい。また、画像処理部17は、メータの針が小さい場合があるため、横線を上下に2本以上設定することで、チャネル評価時におけるノイズに強くなる。
また、画像処理部17は、アナログメータ(針の移動幅180度以上)の場合には、針が回転する中心が分かるので、図6(D)の(i)に示すように中心を通る十字の2本ライン60を設定する。また、画像処理部17は、針がどの位置に来ても必ずライン上を通るように、例えば図6(D)の(ii)に示すように縦横2本ずつのライン60を設定してもよい。
画像処理部17は、図6の例に示すようなライン60に対して、各成分の輝度等を取得し、その輝度に基づいてチャネルを除外する。例えば、図6(A)に示すようなデジタル画像の場合には、Rと、G、Bとの間に輝度差があり、Rの輝度が高い。その場合、R成分は飽和しているため、R成分の画像を使用しないようにする。
また、図6(B)に示す画像は、R成分、G成分、B成分の差が小さいため、各成分とも除外しない。また、図6(C)に示すような画像の場合、R成分、G成分、及びB成分にそれぞれ差があり、R、G、B共に高輝度領域が存在するため、各成分画像は除外しない。
なお、画像処理部17は、上述した条件1及び条件2に限定されずに、他の条件で不要なチャネル画像を除外してもよい。また、画像処理部17は、上述したR成分、G成分、B成分、H成分、S成分、及びI成分の各成分画像の全てを変換対象としてもよい。
<チャネル分割について>
次に、上述したS13におけるチャネル分割の具体例について説明する。チャネル分割では、射影変換後の正規化画像に対して、S12のチャネル評価処理により変換対象となった所定の成分(チャネル)毎の画像に分割する。例えば、全てのチャネルが変換対象である場合、入力画像からR成分、G成分、B成分、H成分、S成分、及びI成分の各成分画像に変換する。なお、分割されるチャネル数については、これに限定されるものではない。
ここで、図7は、チャネル分割された各成分画像の一例を示す図である。図7(A)は、デジタルメータの一例を示し、図7(B)は、アナログメータの一例を示している。また、図7(A)、(B)の例では、元画像(射影変換画像)に対するR成分、G成分、B成分、H成分、S成分、I成分の各成分画像が示されている。画像処理部17は、チャネル分割により元画像から上述した各成分画像を生成することができる。
<チャネル選択について>
次に、上述したS14におけるチャネル選択の具体例について説明する。チャネル選択では、例えばデジタルメータのように検出部(セグメント部)と非検出部(非セグメント部)とが分離する場合と、アナログメータのように検出部と非検出部とが混在する場合とで分けてチャネル選択を行う。
<分離型の場合>
画像処理部17は、例えば上述した図7(A)に示すように射影変換画像において検出部(セグメント部)と非検出部(非セグメント部)とが分離する場合、n個の検出部に対して比較対象の非検出部との輝度差の合計が高いチャネル画像を選択する。例えば、画像処理部17は、3桁の数値がある場合には、7×3=21箇所のセグメント部に対して、各々の非セグメント部との差を取得する。
なお、画像処理部17は、複数の選択候補がある場合には、例えば非検出部の輝度の分散が小さい方の画像を選択することができる。
図8は、7セグメント表示された数字部分の画像例を示す図である。図8の例において領域A、Bは、非検出部(非セグメント部)を示している。セグメント(1)は7セグメントの中央の横セグメントを示し、セグメント(2)は7セグメントの上左の縦セグメントを示し、セグメント(3)は7セグメントの最上の横セグメントを示している。また、セグメント(4)は7セグメントの上右の縦セグメントを示し、セグメント(5)は7セグメントの下右の縦セグメントを示し、セグメント(6)は7セグメントの最下の横セグメントを示している。また、セグメント(7)は7セグメントの下左の縦セグメントを示す。
画像処理部17は、領域A、Bのそれぞれの輝度値を各領域画像から取得する。この輝度値は、例えばそれぞれの領域の平均輝度値である。画像処理部17は、セグメント(1)の輝度値と、領域A及び領域Bの平均輝度値との差分値を取得する。また、画像処理部17は、セグメント(2)〜(4)の各セグメントの輝度値と、領域Aの輝度値との差分値を取得する。更に、画像処理部17は、セグメント(5)〜(7)の各セグメントの輝度値と、領域Bの輝度値との差分値を取得する。なお、分離型において、画面上における検出部と非検出部の各領域については、予めユーザ等がその範囲を設定しておいてもよく、メータ等の認識対象物の種類に応じて各領域が設定されるようにしてもよい。
画像処理部17は、例えば図7(A)に示すようなR,G,B,H,S,Iの各チャネル画像に対して上述の手法により各セグメントに対して取得した差分値(輝度差)の合計が高い画像を1つ選択する。なお、画像処理部17は、差分値の合計が高い画像が複数ある場合には、領域A及び領域Bの非ヒストグラム部の輝度の分散が小さい(領域内で輝度の差が少ない)方のチャネル画像を選択する。
<混合型の場合>
また、画像処理部17は、図7(B)に示すように検出部と非検出部とが混在型の場合には、例えば図7(B)に示すR,G,B,H,S,Iの各チャネル画像に対して、画素毎に得られた輝度の分散を求め、その分散の低い画像を選択する。混合型とは、例えばアナログメータ等において針が目盛りや文字上を動くため、検出部(針)と非検出部(目盛り、文字)とが重なるような場合であるが、これに限定されるものではない。
画像処理部17は、上述したように輝度の分散を求める場合に、輝度値に基づく輝度ヒストグラムを作成し、作成した輝度ヒストグラムを用いて分散の低い画像を選択してもよい。また、画像処理部17は、後述するマスク処理を行った後の画像を用いてチャネル選択処理を行ってもよい。
画像処理部17は、上述した手法により、例えば図7(A)の例では、G成分画像が選択され、図7(B)の例では、H成分画像が選択される。なお、上述の例では、R,G,B,H,S,Iの各チャネル画像に対して分離型と混合型における処理を行ったが、例えば上述したチャネル評価によって除外されたチャネルがある場合には、そのチャネル画像に対する処理を省略できる。したがって、処理速度を向上させることができる。
本実施形態では、上述したように、分離型と混在型とによりチャネルの選択手法が異なる。そのため、画像処理部17は、どちらの手法でチャネル選択を行うかをユーザ等により設定させてもよい。また、画像処理部17は、例えば撮影対象となっているメータの種類(例えば、デジタルメータ、アナログメータ)、形状等により、チャネル選択手法を変えたり、マスク画像を変えることができる。なお、メータの種類は、例えばユーザ(作業員)等が設定してもよく、また画像処理装置10が画像中に含まれる製品コード等を文字認識し、認識した製品コードからメータの種類を特定してもよい。
また、画像処理部17は、認識対象物の撮影時間に基づき、例えば昼夜によって明るさ補正の係数を変化させてもよい。また、画像処理部17は、撮影場所(設置位置)に対応させて閾値等を調整しておき、その場所で実際に認識対象物の撮影を行う場合に、その閾値を使用して撮影してもよい。例えば、画像処理部17は、撮影時間が夜間の場合は、7セグメントの表示の明るさが強く、滲みが発生するため、チャネル選択により、にじみの少ない成分画像を認識に用いるようにすることができる。
<マスク処理>
次に、上述したS15におけるマスク処理の具体例について説明する。マスク処理は、予め設定されたマスク画像を用いて撮影画像や射影変換画像とのAND処理を行うことにより、不要な画像領域をマスクするマスキング処理を行う。なお、マスク画像は、認識対象物であるメータ等の種類(形状、大きさ)等により異なる。そのため、画像処理部17は、例えば予め認識対象物の種類(例えば製品コード等)に対応するマスク画像を記憶手段13等に記憶しておき、ユーザ等により指示された種類に応じたマスク画像を用いてもよい。また、画像処理部17は、画像からOCR等を用いた文字認識により認識対象物の製品コード等を読み取り、読み取った製品コードから対応するマスク画像を取得してもよい。また、画像処理部17は、画像から得られるメータの半径や中心からマスク画像を自動作成してもよい。
上述したマスク処理を行うことで、不要な部分の情報を削除して、ノイズを低減することができるため、より適切に画像を最適化することができる。
<境界強調処理>
次に、上述したS16における境界強調処理の具体例について説明する。図9は、境界強調処理の一例を示す図である。図9(A)は、デジタルメータの画像に対する境界強調の一例を示し、図9(B)は、アナログメータの画像に対する境界強調の一例を示している。
図9(A)の例において、上述したチャネル選択により選択されたG成分画像70−1は、数値「4」上の光(外光等)によるノイズの影響で誤検知される可能性がある。そこで、画像処理部17は、G成分画像に対するぼかし処理により、ぼかし画像70−2を生成し、生成したぼかし画像70−2と、G成分画像70−1との差の絶対値を求めることで、数値「4」上のノイズが消えて認証対象に良好な強調画像70−3を取得することができる。なお、ぼかし処理とは、例えば平滑化フィルタやメディアンフィルタ、ガウシアンフィルタ等を用いて生成することができるが、これに限定されるものではない。
また、図9(B)の例では、H成分画像71−1に対して、上述したぼかし処理を行い、得られたぼかし画像71−2と、H成分画像71−1との差の絶対値により、メータの針が強調された画像71−3を取得することができる。
<最適化処理の具体例>
本実施形態における画像の最適化処理は、上述した手法により取得した射影変換画像を補正し、画像認識(例えば、メータ認識)に適切な画像に取得する。本実施形態における最適化処理は、例えば外光等の影響を受けやすい屋外で撮影された画像や映像等に用いるのが好ましいが、これに限定されるものではない。
本実施形態における最適化処理としては、上述した処理の他に、例えば明るさ補正や鮮鋭化補正等を行うことができる。
<明るさ補正の具体例>
例えば、srcを最適化前画像、dstを最適化後画像とすると、明るさ補正は「dst=src×N+N」と定義することができる。ここで、Nはスケーリング係数を示し、Nは加算値係数を示す。例えば、画像処理部17は、メータ等の認識対象物を撮影した場所が撮影時間の関係で暗い画像となった場合、輝度0〜128を0〜255に拡張する場合、N=2.0、N=0(ただし、255以上は全て255)と設定することができる。なお、設定内容については、これに限定されるものではない。
<鮮鋭化補正の具体例>
画像処理部17は、鮮鋭化補正の場合には、予め設定された鮮鋭化係数Nを用いた3×3の行列を用いたフィルタ処理を行う。
鮮鋭化補正は、例えば「dst=M×src(3,3)」として定義することができ、そのときの行列Mは以下に示す(1)式に示すように定義することができる。
なお、上述した(1)式において、Nは鮮鋭化係数であり、例えばエッジを強調したい場合には、N≧1.0で任意の値を設定することができ、数が大きいほどエッジが強調される。
また、画像処理部17は、上述したS16に示す境界強調処理において、例えば「dst=src×N+N」とすることで、スケール変換を行うことができる。ここで、Nはスケーリング係数を示し、Nは加算値係数を示す。例えば、上述した図9に示すように、元画像とぼかし画像との差の絶対値を取った場合、画像が暗くなるため、画像処理部17は、低輝度部分を均等に拡張する。なお、境界強調は、例えば文字、数値と、その背景との差が少ない場合に利用することができるが、これに限定されるものではない。
<上述した最適化処理における係数の決め方について>
本実施形態では、上述した最適化処理における係数の組合せを複数用意しておき、撮影画像に対する少なくとも1つ以上の情報から、上述した係数を決定する。決定する条件としては、例えば「認識対象物(メータ)の種類」、「メータの設置場所(位置情報)」、「撮影時間」、「マーカの元の色(既知の色)と画像から検出した色(補正した色)との差」、「マーカと周辺のエッジ強度」等があるが、これに限定されるものではない。
なお、画像処理部17は、メータの設置場所については、例えばユーザ等により予め設定してもよく、画像処理装置10が備える位置情報取得部36等により取得してもよい。また、撮影時間は、例えば画像処理装置10が備える時刻部37から時間情報を取得してもよい。
<第1実施例>
次に、上述した本実施形態における画像処理の実施例について図を用いて説明する。図10は、画像処理の第1実施例を説明するための図である。なお、図10の例では、認識対象物がデジタルメータである場合の画像処理の一例を示している。図10の例において、画像処理装置10は、撮像部14により撮影された元画像80を入力し、入力画像中のマーカを検出し、検出したマーカの位置に基づいてマーカ領域を切り出した射影変換画像81を取得する。
次に、画像処理装置10は、画像処理部17により射影変換画像81に対して、上述したチャネル評価やチャネル選択等を行い、チャネルに応じた色成分画像82−1〜82−3を取得する。なお、チャネル選択の際には、例えば撮影時間によりチャネル選択手法を変えてもよく、またR成分画像を二値化した画像等から動的にチャネル選択手法を変えてもよいが、これに限定されるものではない。
図10の例において、画像82−1はR成分の画像を示し、画像82−2はG成分の画像を示し、画像82−3はB成分の画像を示している。図10の例では、赤を抽出することで認識できる7セグメント表示を示しているが、夜間に撮影した場合には照射光とオートゲイン等の影響で、赤が滲んだ画像になり認識が困難となる。そのため、図10の例では、上述したチャネル選択処理等によりG成分の画像82−2を用いる。この場合、G成分の画像82−2に対して、メディアンフィルタやガウシアンフィルタによりぼかし画像83を生成し、生成したぼかし画像と元のG成分の画像82−2との輝度差を取り出して、画像認識部18が認識するための認識画像84を生成する。
なお、図10の例では、画像最適化によるチャネル選択によりG成分の画像82−2のみを用いたが、これに限定されるものではなく、2以上の画像を用いて、それぞれ認識画像を生成し、生成した複数の認識画像を合成して最終的な認識画像を生成してもよい。
<第2実施例>
図11は、画像処理の第2実施例を説明するための図である。なお、図11の例では、認識対象物がアナログメータである場合の画像処理の一例を示している。図11の例において、画像処理装置10は、撮像部14により撮影された元画像90を入力し、入力画像中のマーカを検出し、検出したマーカの位置に基づいてマーカ領域を切り出した射影変換画像91を取得する。
次に、射影変換画像91に対して、上述したチャネル評価やチャネル選択等を行い、色成分画像92−1〜92−5を取得する。なお、チャネル選択の際には、例えば撮影時間によりチャネル選択手法を変えてもよく、またR成分画像を二値化した画像から動的にチャネル選択手法を変えてもよいが、これに限定されるものではない。
図11の例では、太陽光と影とによりメータの認識をしづらい画像になっている。本実施形態における画像最適化処理では、人が見やすい画像への変換ではなく、メータとして認識しやすい画像として最適化する。
例えば、画像処理装置10は、画像処理部17によりチャネルをR、G、B(赤、緑、青)や、H、S、I(色相、彩度、輝度)等に分解して使用するチャネルを選択する。図11の例において、画像92−1はH成分の画像を示し、画像92−2はS成分の画像を示し、画像92−3はR成分の画像を示し、画像92−4はG成分の画像を示し、画像92−5はB成分の画像を示している。
ここで、図11の例では、上述したチャネル選択等によりH成分の画像92−1を用いる。この場合、画像処理装置10は、H成分の画像92−1に対して二値化画像93を生成し、更に予め設定されたマスク画像94と合成する。本実施形態におけるマスク画像94は、予め設定された複数のマスク画像からメータの種類等に応じて任意に選択することができるが、これに限定されるものではない。例えば、画像処理装置10は、メータの半径や中心からマスク画像を自動作成することもできる。
これにより、画像認識部18が、認識するための認識画像95を生成する。なお、図11の例では、画像最適化によるチャネル選択によりH成分の画像92−1のみを用いたが、これに限定されるものではなく、2以上の画像を用いて、それぞれ認識画像を生成し、生成した複数の認識画像を合成して最終的な認識画像を生成してもよい。
また、図11の例では、針の形状を強調する処理を行ったが、これに限定されるものではなく、例えば、文字盤の数値を強調する処理も併せて行ってもよい。図11に示す認識画像95の針の位置から数値を認識する場合、画像認識部18は、メータの種類等に基づく針の振り幅の最小値と最大値とを予め記憶しておき、そのメータの種類に応じた範囲で針の位置に対する数値を認識することができる。
なお、本実施形態では、認識対象物の一例としてデジタルメータ(7セグメント)とアナログメータ(針メータ)とに対する認識用画像の生成例について説明したが、これに限定されるものではない。本実施形態は、例えば7セグメント表示以外のデジタル表示や針メータ以外のアナログ表示でも同様に適用することができる。また、デジタル表示とアナログ表示を両方含むメータ等については、上述した画像処理を部分的に組み合わせてもよく、デジタル部分とアナログ部分とでそれぞれ対応する画像処理を行ってもよい。
<本実施形態の応用例>
本実施形態は、画像認識部18により認識されたデータを、1以上の情報処理装置を有するクラウドコンピューティングを用いて管理することができる。例えば、本実施形態では、1以上の所定の場所に設置された放射線の線量計や温度センサ等の計測機器が撮影された画像を取得し、その画像を認識し、認識した結果得られた計測機器が示す値と設置場所、撮影時間等の情報をクラウド等に記憶しておくことで、時系列比較や統計等の情報の提供を行うことができる。
また、上述した本実施形態は、作業員が、スマートフォンやデジタルカメラ等のような端末を用いて認識対象物を撮影する例を示したが、これに限定されるものではなく、認識対象物の前に固定で設置されたカメラから所定のタイミング又は周期で撮影された画像を取得して、上述した画像処理による数値等の認識を行ってもよい。
また、本実施形態における画像処理は、端末にインストールされたアプリケーション(アプリ)により実行してもよい。例えば、アプリ起動後に周期的な認識を開始し、周期毎に1回にカメラ画像を撮影し、撮影した画像に対して上述した本実施形態における画像処理を実行し、認識結果をファイルに保存するようにしてもよい。
また、本実施形態は、検体等の反応による色変化状況等からウィルス感染状態を判別する場合に、上述した画像処理を行ってもよい。例えば、認識対象物としてマーカが付された検知プレートを撮影し、撮影した画像のマーカ検出からその検知プレートの正規化(例えば、歪み補正)等を行い、画像中から適切な色成分を抽出して、画像認識による試薬反応の検出を行うことができる。なお、上述した各実施形態については、必要に応じて適宜組み合わせて使用してもよい。
上述したように、本実施形態によれば、例えば撮影された際の照明の条件や撮影対象のメータの種類が多様であっても、認識処理に適した画像に変換することができる。例えば、本実施形態では、カラーマーカ等を認識対象物の周囲に貼り付け、画像認識等により自動的にマーカを検出し、検出したマーカに基づいて画像変換、画像最適化処理等を行う。これにより、本実施形態では、認識対象の撮影距離や撮影角度に依存せずに精度よく認識することができる。また、本実施形態によれば、任意の撮影者(作業者等)が、任意の撮影装置を使用して、任意の場所で、任意の時間に撮影した画像から目的の文字や数値等の情報を適切に認識することができる。
また、本実施形態によれば、1つの画像から色成分毎の複数のチャネル画像を生成し、種々の条件に応じて適切な画像を選択して最適化を行うことで、認識が困難な画像を処理対象から除外することで、処理にかかる時間を短縮化できる。これにより、本実施形態では、画像処理にかかる計算機負荷を軽減できるため、処理能力が低いコンピュータ等であっても処理時間の長期化を抑止できる。
以上、実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、上述した実施例の構成要素を全部又は複数を組み合わせることも可能である。
10 画像処理装置
11 入力部
12 出力部
13 記憶部
14 撮像部
15 マーカ検出部
16 射影変換部
17 画像処理部
18 画像認識部
19 通信部
20 制御部
31 マイクロフォン
32 スピーカ
33 ディスプレイ
34 操作部
35 カメラ
36 位置情報取得部
37 時刻部
38 電力部
39 メモリ
40 通信部
41 CPU
42 ドライバ
43 記録媒体
50,70,71 画像
51 マーカ
60 ライン
80,82,90,92 元画像
81,91 射影変換画像
83 ぼかし画像
84,95 認識画像
93 二値化画像
94 マスク画像

Claims (8)

  1. 入力画像に含まれる画素の値に基づいて、前記入力画像を色成分毎の複数の画像に変換し、変換した前記複数の画像のそれぞれにおいて画像に含まれる画素間の輝度の差分を特定し、特定した前記複数の画像のそれぞれに対応する輝度の差分に基づいて、前記複数の画像の中から少なくとも1つの画像を選択し、選択した前記画像を出力する、画像処理部を有し、
    前記画像処理部は、
    前記入力画像のR成分、G成分、及びB成分の各成分画像に対し、前記入力画像に設定したライン中の画素情報から、各画素のRGB間の各成分の差分値を求め、求めた前記差分値のうち最大の差分が、予め設定された閾値を超える画素数に応じて、前記複数の画像として、前記入力画像のH成分、S成分、及びI成分の各成分画像を変換対象とするか否かを決定することを特徴とする画像処理装置。
  2. 入力画像に含まれる画素の値に基づいて、前記入力画像を色成分毎の複数の画像に変換し、変換した前記複数の画像のそれぞれにおいて画像に含まれる画素間の輝度の差分を特定し、特定した前記複数の画像のそれぞれに対応する輝度の差分に基づいて、前記複数の画像の中から少なくとも1つの画像を選択し、選択した前記画像を出力する、画像処理部を有し、
    前記画像処理部は、
    前記入力画像のR成分、G成分、B成分、H成分、S成分、I成分の各成分画像のうち、前記入力画像に設定したライン中の画素情報から、各画素のRGB間の各成分の差分値を求め、求めた前記差分値が予め設定された閾値を超える画素数が、予め設定された閾値を超えるか否かにより、前記複数の画像として、前記閾値を超えた成分以外の成分画像を変換対象として決定することを特徴とする画像処理装置。
  3. 前記ラインの位置及び数は、前記入力画像に含まれる認識対象物の種類、撮影時間、撮影場所、及び撮影パラメータのうち、少なくとも1つに基づいて設定されることを特徴とする請求項又はに記載の画像処理装置。
  4. 前記入力画像に含まれるマーカの位置を検出するマーカ検出部と、
    前記マーカ検出部により得られたマーカの位置に対応する画像領域の射影変換を行う射影変換部とを有し、
    前記画像処理部は、前記射影変換部により得られる画像を前記入力画像とすることを特徴とする請求項1又は2に記載の画像処理装置。
  5. 画像処理装置が、
    入力画像に含まれる画素の値に基づいて、前記入力画像を色成分毎の複数の画像に変換し、変換した前記複数の画像のそれぞれにおいて画像に含まれる画素間の輝度の差分を特定し、特定した前記複数の画像のそれぞれに対応する輝度の差分に基づいて、前記複数の画像の中から少なくとも1つの画像を選択し、選択した前記画像を出力する、ことを特徴とする画像処理方法であって、
    前記入力画像のR成分、G成分、及びB成分の各成分画像に対し、前記入力画像に設定したライン中の画素情報から、各画素のRGB間の各成分の差分値を求め、求めた前記差分値のうち最大の差分が、予め設定された閾値を超える画素数に応じて、前記複数の画像として、前記入力画像のH成分、S成分、及びI成分の各成分画像を変換対象とするか否かを決定することを特徴とする画像処理方法
  6. 画像処理装置が、
    入力画像に含まれる画素の値に基づいて、前記入力画像を色成分毎の複数の画像に変換し、変換した前記複数の画像のそれぞれにおいて画像に含まれる画素間の輝度の差分を特定し、特定した前記複数の画像のそれぞれに対応する輝度の差分に基づいて、前記複数の画像の中から少なくとも1つの画像を選択し、選択した前記画像を出力する、ことを特徴とする画像処理方法であって、
    前記入力画像のR成分、G成分、B成分、H成分、S成分、I成分の各成分画像のうち、前記入力画像に設定したライン中の画素情報から、各画素のRGB間の各成分の差分値を求め、求めた前記差分値が予め設定された閾値を超える画素数が、予め設定された閾値を超えるか否かにより、前記複数の画像として、前記閾値を超えた成分以外の成分画像を変換対象として決定することを特徴とする画像処理方法
  7. 入力画像に含まれる画素の値に基づいて、前記入力画像を色成分毎の複数の画像に変換し、変換した前記複数の画像のそれぞれにおいて画像に含まれる画素間の輝度の差分を特定し、特定した前記複数の画像のそれぞれに対応する輝度の差分に基づいて、前記複数の画像の中から少なくとも1つの画像を選択し、選択した前記画像を出力する、処理をコンピュータに実行させる画像処理プログラムであって、
    前記入力画像のR成分、G成分、及びB成分の各成分画像に対し、前記入力画像に設定したライン中の画素情報から、各画素のRGB間の各成分の差分値を求め、求めた前記差分値のうち最大の差分が、予め設定された閾値を超える画素数に応じて、前記複数の画像として、前記入力画像のH成分、S成分、及びI成分の各成分画像を変換対象とするか否かを決定することを特徴とする画像処理プログラム
  8. 入力画像に含まれる画素の値に基づいて、前記入力画像を色成分毎の複数の画像に変換し、変換した前記複数の画像のそれぞれにおいて画像に含まれる画素間の輝度の差分を特定し、特定した前記複数の画像のそれぞれに対応する輝度の差分に基づいて、前記複数の画像の中から少なくとも1つの画像を選択し、選択した前記画像を出力する、処理をコンピュータに実行させる画像処理プログラムであって、
    前記入力画像のR成分、G成分、B成分、H成分、S成分、I成分の各成分画像のうち、前記入力画像に設定したライン中の画素情報から、各画素のRGB間の各成分の差分値を求め、求めた前記差分値が予め設定された閾値を超える画素数が、予め設定された閾値を超えるか否かにより、前記複数の画像として、前記閾値を超えた成分以外の成分画像を変換対象として決定することを特徴とする画像処理プログラム。
JP2015522462A 2013-06-17 2013-06-17 画像処理装置、画像処理方法、及び画像処理プログラム Active JP6260620B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/067155 WO2014203403A1 (ja) 2013-06-17 2013-06-17 画像処理装置、画像処理方法、及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JPWO2014203403A1 JPWO2014203403A1 (ja) 2017-02-23
JP6260620B2 true JP6260620B2 (ja) 2018-01-17

Family

ID=52104164

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015522462A Active JP6260620B2 (ja) 2013-06-17 2013-06-17 画像処理装置、画像処理方法、及び画像処理プログラム

Country Status (4)

Country Link
US (1) US20160086031A1 (ja)
JP (1) JP6260620B2 (ja)
CN (1) CN105283902B (ja)
WO (1) WO2014203403A1 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6122248B2 (ja) * 2012-03-28 2017-04-26 大阪瓦斯株式会社 エネルギ情報出力装置及びデータ管理システム
US20150116496A1 (en) * 2013-10-29 2015-04-30 Ottarr, Llc Camera, Sensor and/or Light-Equipped Anchor
US10051253B1 (en) 2015-12-18 2018-08-14 Snap Inc. Binarization of a video stream
JP2017126187A (ja) * 2016-01-14 2017-07-20 株式会社明電舎 メータ読取装置
US11853635B2 (en) * 2016-03-09 2023-12-26 Samsung Electronics Co., Ltd. Configuration and operation of display devices including content curation
CN107390260A (zh) * 2016-05-16 2017-11-24 中国辐射防护研究院 基于ocr技术用于数字显示仪表的数字化校准系统及方法
CN115297228A (zh) * 2016-05-31 2022-11-04 特伊亚集团股份有限公司 用于机器遥测的传输和数字化系统
US11440676B2 (en) 2017-04-24 2022-09-13 Theia Group, Incorporated Recording and real-time transmission of in-flight condition of aircraft cockpit to ground services
JP6901334B2 (ja) * 2017-07-04 2021-07-14 中国計器工業株式会社 光学的数字読取り方法及び装置
JP6897431B2 (ja) * 2017-08-30 2021-06-30 オムロン株式会社 画像処理装置、設定支援方法、および設定支援プログラム
JP7041497B2 (ja) * 2017-11-09 2022-03-24 株式会社 日立産業制御ソリューションズ 計測値読取りシステム、計測値読取り装置及び計測値読取方法
US10789716B2 (en) * 2017-11-17 2020-09-29 Canon Kabushiki Kaisha Image processing apparatus and method of controlling the same and recording medium
US10262432B1 (en) * 2017-12-30 2019-04-16 Gabriel Keilholz System and method for measuring and comparing items using computer vision
JP6542406B1 (ja) * 2018-02-16 2019-07-10 株式会社東芝 読取システム、読取方法、プログラム、及び記憶媒体
CN108797723B (zh) * 2018-03-27 2019-03-12 张卫平 基于图像检测的智能化冲洗装置
JPWO2020121626A1 (ja) * 2018-12-12 2021-10-21 住友電気工業株式会社 画像処理装置、コンピュータプログラム、および画像処理システム
JP6868057B2 (ja) * 2019-05-27 2021-05-12 株式会社東芝 読取システム、読取方法、プログラム、記憶媒体、及び移動体
JP6656453B2 (ja) * 2019-06-11 2020-03-04 株式会社東芝 読取システム、読取装置、プログラム、及び記憶媒体
JP7333733B2 (ja) * 2019-09-13 2023-08-25 株式会社Pfu 媒体搬送装置、制御方法及び制御プログラム
CN112329775B (zh) * 2020-11-12 2022-04-15 中国舰船研究设计中心 一种数字多用表字符识别方法
EP4195164A1 (en) * 2021-12-13 2023-06-14 Ispark Robust remote instrument reading
CN116758081B (zh) * 2023-08-18 2023-11-17 安徽乾劲企业管理有限公司 一种无人机道路桥梁巡检图像处理方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0896141A (ja) * 1994-09-29 1996-04-12 Canon Inc 画像処理装置
JP4435355B2 (ja) * 2000-01-19 2010-03-17 株式会社キーエンス カラー画像の変換方法、変換装置、及び記録媒体
JP2003298853A (ja) * 2002-04-01 2003-10-17 Pfu Ltd 画像処理装置
US7155053B2 (en) * 2003-05-13 2006-12-26 Olympus Corporation Color image processing method and apparatus
US7529007B2 (en) * 2005-06-10 2009-05-05 Lexmark International, Inc. Methods of identifying the type of a document to be scanned
JP4936045B2 (ja) * 2006-04-06 2012-05-23 住友電気工業株式会社 車体色判別装置、方法及びプログラム
KR101098087B1 (ko) * 2007-03-28 2011-12-26 후지쯔 가부시끼가이샤 화상 처리 장치, 화상 처리 방법, 화상 처리 프로그램을 기록한 컴퓨터 판독 가능한 매체
JP2009005398A (ja) * 2008-09-01 2009-01-08 Toshiba Corp 画像処理装置
JP2010128727A (ja) * 2008-11-27 2010-06-10 Hitachi Kokusai Electric Inc 画像処理装置
US8456545B2 (en) * 2009-05-08 2013-06-04 Qualcomm Incorporated Systems, methods, and apparatus for generation of reinforcement pattern and systems, methods, and apparatus for artifact evaluation
JP5663866B2 (ja) * 2009-08-20 2015-02-04 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
JP5026484B2 (ja) * 2009-09-17 2012-09-12 シャープ株式会社 携帯端末装置、画像出力装置、撮像画像処理システム、携帯端末装置の制御方法、画像出力方法、プログラム、および記録媒体
KR101720771B1 (ko) * 2010-02-02 2017-03-28 삼성전자주식회사 디지털 촬영장치, 그 제어방법 및 이를 실행시키기 위한 프로그램을 저장한 기록매체
JP5573618B2 (ja) * 2010-11-12 2014-08-20 富士通株式会社 画像処理プログラムおよび画像処理装置
JP5812742B2 (ja) * 2011-07-25 2015-11-17 株式会社三共 携帯端末,携帯端末用プログラム,遊技用システム,及び遊技用管理装置
JP5713350B2 (ja) * 2011-10-25 2015-05-07 日本電信電話株式会社 画像処理装置、方法、及びプログラム
KR101295092B1 (ko) * 2011-12-28 2013-08-09 현대자동차주식회사 차량용 색상검출기

Also Published As

Publication number Publication date
JPWO2014203403A1 (ja) 2017-02-23
CN105283902A (zh) 2016-01-27
CN105283902B (zh) 2018-10-30
US20160086031A1 (en) 2016-03-24
WO2014203403A1 (ja) 2014-12-24

Similar Documents

Publication Publication Date Title
JP6260620B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP6208383B2 (ja) プレビューモードにおける画像キャプチャリングパラメータ調整
US9002061B2 (en) Image processing device, image processing method and computer-readable medium
US9319583B2 (en) Camera device and methods for aiding users in use thereof
EP3125135A1 (en) Picture processing method and device
US20170366741A1 (en) Method and apparatus for setting image capturing parameters
MX2014004073A (es) Aparato y metodo para reconocer de manera automatica un codigo de respuesta rapira (qr).
US10027878B2 (en) Detection of object in digital image
JP2016151955A (ja) 画像処理装置、撮像装置、距離計測装置、および画像処理方法
CN107622497B (zh) 图像裁剪方法、装置、计算机可读存储介质和计算机设备
WO2018184260A1 (zh) 文档图像的校正方法及装置
US20190191078A1 (en) Information processing apparatus, a non-transitory computer readable storage medium and information processing method
JP6325902B2 (ja) 寸法計測方法、カメラ付き電子機器、および、カメラ付き電子機器用プログラム
US9721177B2 (en) Image acquisition using a level-indication icon
JP5768193B2 (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム
JP6217225B2 (ja) 画像照合装置、画像照合方法及びプログラム
JP6115024B2 (ja) 撮像装置及び撮像処理方法並びにプログラム
CN110460773B (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
KR101158275B1 (ko) 큐알코드 자동 인식 장치 및 방법
JP2012204853A (ja) 撮像装置及び携帯端末機並びに撮像装置の調整方法
JP2017182668A (ja) データ処理装置、撮像装置、及びデータ処理方法
JP6326316B2 (ja) 画像処理装置、撮影装置、プログラム、記録媒体
CN116416141A (zh) 图像处理方法及装置、设备、存储介质
CN113327290A (zh) 双目模组标定方法、装置、存储介质及电子设备
JP2018014546A (ja) 画像処理装置、画像処理方法、及び撮像装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171127

R150 Certificate of patent or registration of utility model

Ref document number: 6260620

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150