JP2018018386A - 対象検出装置、対象検出方法、およびプログラム - Google Patents
対象検出装置、対象検出方法、およびプログラム Download PDFInfo
- Publication number
- JP2018018386A JP2018018386A JP2016149683A JP2016149683A JP2018018386A JP 2018018386 A JP2018018386 A JP 2018018386A JP 2016149683 A JP2016149683 A JP 2016149683A JP 2016149683 A JP2016149683 A JP 2016149683A JP 2018018386 A JP2018018386 A JP 2018018386A
- Authority
- JP
- Japan
- Prior art keywords
- image
- value
- detection
- pixel
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
【課題】改善された検出精度および検出速度を有する検出対象検出装置を提供する。【解決手段】入力された画像に対して、画像の各画素の画像に含まれる画素との間の画素値の隔たりに基づいて画像の第1の領域を特定する特定部と、第1の領域に属する画素に対して特徴量を計算して割り当てる特徴量割当部と、特徴量を入力し、画像に含まれる検出対象の検出結果を生成する検出結果生成部と、を備え、特徴量割当部は、第1の領域に属さない画素に対しては、特徴量を計算しない対象検出装置。【選択図】図1
Description
本開示は、対象検出装置、対象検出方法、およびプログラムに関する。
近年、コンピュータの処理能力の向上に伴い、カメラによって撮影された画像から、コンピュータを用いて人物等の検出対象を検出する装置が考案されている。そのような装置の一例として、HOG(Histogram of Oriented Gradients)特徴量の一種である勾配方向ヒストグラムや、SVM(Support Vector Machine)を用いたシステムが提案されている(特許文献1参照)。HOG特徴量を用いることによって、ロバスト性に優れた検出を行うことができる。
しかしながら、特許文献1に記載のシステムにおいては、画像内の全画素に亘って勾配方向ヒストグラムを計算する必要があり、計算量が膨大になる。その結果、検出対象を画像から検出する検出速度も遅くなってしまう問題がある。
歩行者を検出するための他の画像処理方法としては、事前に撮影した背景の画像との差分に基づいて歩行者の検出を行う背景差分法、GMM(Gaussian Mixture Model)を用いて算出される背景モデルに基づいて歩行者の検出を行う方法、Optical Flowを用いた運動物体の検出を行う方法等、種々の方法が知られている。しかしながら、これらの方法は、例えば車両と歩行者が同時に動く場合等、背景部分が複雑である実際の環境において、歩行者を精度良く検出することができない。
本開示の目的は、改善された検出精度および検出速度を有する対象検出装置を提供することである。
本開示に係る対象検出装置は、入力された画像に対して、前記画像の各画素の前記画像に含まれる画素との間の画素値の隔たりに基づいて前記画像の第1の領域を特定する特定部と、前記第1の領域に属する画素に対して特徴量を計算して割り当てる特徴量割当部と、前記特徴量を入力し、前記画像に含まれる検出対象の検出結果を生成する検出結果生成部と、を備え、前記特徴量割当部は、前記第1の領域に属さない画素に対しては、前記特徴量を計算しない、構成を採る。
本開示によれば、改善された検出精度および検出速度を有する対象検出装置を提供することができる。
以下、本開示の実施の形態について、図面を参照しながら説明する。なお、全図を通して同一符号は同一又は相当部分を示すものとする。
(第1の実施の形態)
図1は、本開示の第1の実施の形態に係る対象検出装置100のブロック図である。対象検出装置100は、画像入力部110と、顕著領域特定部120と、特徴量割当部130と、検出結果生成部140と、検出結果出力部150と、を備える。
図1は、本開示の第1の実施の形態に係る対象検出装置100のブロック図である。対象検出装置100は、画像入力部110と、顕著領域特定部120と、特徴量割当部130と、検出結果生成部140と、検出結果出力部150と、を備える。
対象検出装置100は、画像を入力し、入力された画像に含まれる検出対象を検出し、検出された検出対象を出力する。対象検出装置100の検出対象は、一例において歩行者である。他の検出対象としては、例えば、対向車、壁、標識等の対象物が挙げられる。
画像入力部110は、対象検出装置100の検出対象を含む画像を入力する。一例において、画像入力部110は、車両の前方に備えられたカメラによって撮影された画像を入力する。
顕著領域特定部120は、入力された画像から顕著領域(第1の領域)を特定する。一例として、顕著領域特定部120は、特定された顕著領域を示す顕著領域画像を出力する。ここで、顕著領域は、図3A〜Cを参照して後述される領域であり、図4〜5Bを参照して後述される特徴量を計算する画像の範囲を規定する領域として用いられる。また、顕著領域は、後述するように例えば検出対象を探索するウィンドウを規定する領域としても用いられる。
顕著領域特定部120は、色領域変換部122と、顕著値計算部124と、ヒストグラム生成部126と、画素選択部128と、を備える。色領域変換部122は、入力された画像の色空間をRGB色空間からLab色空間(L*a*b*色空間を含む)に変換する。顕著値計算部124は、Lab色空間に変換された画像(以下Lab画像と称する)の各画素について、図3A〜Cを参照して後述される顕著値を計算する。
ヒストグラム生成部126は、各画素に対して計算された顕著値から、画素の画素値(Lab値)に対する頻度の値を計算し、計算した頻度の値に基づきヒストグラムを生成する。画素選択部128は、生成したヒストグラムに基づき、Lab画像から複数の画素を選択する。顕著領域特定部120は、選択された複数の画素によって形成される領域を、特徴量を計算する画像の範囲を規定する顕著領域として特定する。
特徴量割当部130は、顕著領域に基づいて、Lab画像の各画素に対して特徴量を割り当てる。特徴量は、一例においてHOG特徴量である。例えば、HOG特徴量は、図4を参照して後述されるScharr−HOG特徴量である。
特徴量割当部130は、顕著領域に属する画素に対しては、特徴量を計算して割り当て、顕著領域に属さない画素に対しては、特徴量を計算しない。一例として、特徴量割当部130は、特徴量を計算しない画素に対して、所与の特徴量(例えばヌル値)を割り当てる。このように、顕著領域によって規定される範囲に限定して特徴量を計算することにより、Lab画像の全画素に対して特徴量を計算する場合と比較して、計算量を低減することができる。これにより、対象検出装置100の検出対象の検出処理を高速化することができる。
検出結果生成部140は、Lab画像の画素に割り当てられた特徴量に基づき、Lab画像に含まれる検出対象を検出する。検出結果生成部140は、例えば、検出対象分類部142を備える。検出対象分類部142は、SVM(Support Vector Machine)である。
対象検出装置100を使用する前に、SVMに学習させるために、検出対象が含まれる画像群および検出対象が含まれない画像群を準備する。準備した画像群の各画像に対して特徴量割当部130が画像の画素毎に特徴量を割り当て、各画像に割り当てた特徴量を、例えば検出対象が含まれるか否かを示す、SVMのバイナリ出力値に関連づけて学習させておく。計算された特徴量が顕著領域のみに割り当てられており、顕著領域に含まれないノイズ等の不要な情報については学習しないので、本開示においては、より検出精度の高いSVMを得ることができる。
SVMに学習させる際には、SVMが学習用の画像群に過剰に適合することにより学習用の画像群とは異なる画像からの検出対象の検出率が低下してしまう現象である過剰適合を防ぐ必要がある。例えば、SVMで用いられる誤差関数に正則化項を追加すること(例えばL2正則化)により、過剰適合を防ぐ。
対象検出装置100の使用時に、検出対象分類部142は、入力されたLab画像から計算された特徴量を入力し、検出対象が含まれるか否かを示す出力値(例えばSVMのバイナリ出力値)を出力する。検出対象が含まれることを出力値が示す場合、検出結果生成部140は、検出対象が含まれることを示す検出結果を生成する。検出対象が含まれないことを出力値が示す場合、検出結果生成部140は、検出対象が含まれないことを示す検出結果を生成する。
一例において、検出結果生成部140は、検出対象を検出する領域を規定するウィンドウを顕著領域に基づいて決定する。例えば、検出結果生成部140は、顕著領域に属する画素を所定の第1の割合以上含むウィンドウに対してのみ、検出対象を検出する。こうすると、検出に必要な計算量を低減することができ、検出を高速化することができる。
検出結果生成部140は、例えば、SVMに代えて、ニューラルネットワークや、Boosting等を用いて、検出対象の学習および検出を行ってもよい。
検出結果出力部150は、検出された検出対象を示す情報を出力する。一例として、検出結果出力部150は、検出された検出対象をハイライトし、画像入力部110に入力された画像に重畳した画像データを生成し、検出された検出対象を示す情報として出力する。例えば、検出された検出対象を、枠で囲むことによってハイライトしてもよい。
<Lab色空間>
Lab色空間は、補色空間の一種で、明度を意味する次元Lと、補色次元aおよびbとをもつ色空間である。図2は、入力された画像210とRGB色空間からLab色空間に変換された画像210L,210a,210bを示す。画像210L、画像210a、および画像210bは、それぞれ画像210のL成分、a成分、およびb成分の画像である。
Lab色空間は、補色空間の一種で、明度を意味する次元Lと、補色次元aおよびbとをもつ色空間である。図2は、入力された画像210とRGB色空間からLab色空間に変換された画像210L,210a,210bを示す。画像210L、画像210a、および画像210bは、それぞれ画像210のL成分、a成分、およびb成分の画像である。
図2に示されるように、Lab値のL成分値は、人間の明度の知覚に極めて近い値となっている。したがって、Lab色空間を用いた場合、RGB色空間を用いる場合と比較して、より人間の知覚に近い検出処理を行うことができる。
<顕著領域>
図3Aは、顕著領域(Salient Region)が特定される画像の一例である。図3Bは、Lab値clに対する頻度F(cl)を示すヒストグラムの一例である。図3Cは、ヒストグラムに基づいて特定された顕著領域を示す顕著領域画像の一例である。
図3Aは、顕著領域(Salient Region)が特定される画像の一例である。図3Bは、Lab値clに対する頻度F(cl)を示すヒストグラムの一例である。図3Cは、ヒストグラムに基づいて特定された顕著領域を示す顕著領域画像の一例である。
<<色距離>>
2つの画素Ik,Iiに対して、色距離D(Ik,Ii)を定義する。ここで、D(Ik,Ii)は、距離の公理を満たし、かつIkおよびIiのLab値にのみ依存する、任意の実数値関数である。例えば、2つの画素Ik,Iiの色距離D(Ik,Ii)を、次の<数式1>で定義する。
ここで、IkL、Ika、ikbは、それぞれ画素IkのL成分値、a成分値、b成分値を表す。同様に、IiL、Iia,Iibは、それぞれ画素IiのL成分値、a成分値、b成分値を表す。ノルム
は、例えばL2ノルムであるが、最大値ノルムであってもLnノルム(ただしn≠2)であっても構わない。
2つの画素Ik,Iiに対して、色距離D(Ik,Ii)を定義する。ここで、D(Ik,Ii)は、距離の公理を満たし、かつIkおよびIiのLab値にのみ依存する、任意の実数値関数である。例えば、2つの画素Ik,Iiの色距離D(Ik,Ii)を、次の<数式1>で定義する。
<<顕著値>>
次いで、画素Ikの顕著値(Saliency、第1の値)S(Ik)を、次の<数式2>で定義する。
ここで、Iは、画像全体の画素からなる集合を表す。すなわち、S(Ik)は、画像に含まれる全画素Ii∈Iに亘って、画素Ikとの色距離D(Ik,Ii)を総和したものである。画素IkのLab値をclとすると、S(Ik)を次のように表すことができる。
次いで、画素Ikの顕著値(Saliency、第1の値)S(Ik)を、次の<数式2>で定義する。
次に、画素IkおよびそのLab値clに対して、差分値(第2の値)C(Ik)、C(cl)および頻度F(Ik)、F(cl)を、次の<数式3>および<数式4>で定義する。
<数式1>に従って定義した色距離D(Ik、Ii)のように、その値が画素IkおよびIiのLab値clおよびcjにのみ依存する場合、D(cl,cj)の定義と、D(cl,cj)を用いて定義されるS(Ik)、S(cl)、C(Ik)、C(cl)、F(Ik)、およびF(cl)の定義とは、いずれもwell−definedであることに留意する。
図3Aに示される画像310からF(cl)を計算し、横軸にcl、縦軸にF(cl)をとることにより、図3Bに示されるヒストグラム320が生成される。ヒストグラム320においては、出現頻度の低いLab値clほど右側に現れるようにclを配置している。
次いで、ヒストグラム320に基づいて、画像310に含まれる画素Ii∈Iが顕著領域に属するか否かが決定される。一例として、画素Ii∈Iが次の条件:
F(Ii)<C1かつC(Ii)>C2
を満たす場合、画素Iiが顕著領域に属すると決定され、画素Iiが選択される。ここで、C1およびC2は、所定の第1の閾値および第2の閾値である。顕著領域に属する画素のLab値は、例えば、図3Bで示される楕円322で囲まれたLab値のように表される。
F(Ii)<C1かつC(Ii)>C2
を満たす場合、画素Iiが顕著領域に属すると決定され、画素Iiが選択される。ここで、C1およびC2は、所定の第1の閾値および第2の閾値である。顕著領域に属する画素のLab値は、例えば、図3Bで示される楕円322で囲まれたLab値のように表される。
なお、第1の値としては、顕著値S(Ik)に限られず、画像の画素との色距離を画素毎に総和した値である他の値を採用してもよい。また、第2の値としては、差分値C(Ii)に限られず、画像の画素との色距離を画像に含まれる色空間の座標値毎に総和した値である他の値を採用してもよい。さらに、第1の値および第2の値としては、これらの値に代えて、画像の各画素の画像に含まれる画素との間の画素値の隔たりを表す他の式を採用してもよい。
図3Cに示される顕著領域画像330において白色で示される顕著領域は、楕円332で囲まれた部分に、検出すべき検出対象である歩行者が含まれる範囲を良好にとらえていることが判る。顕著領域に属する画素に対してのみ特徴量を計算することによって、計算量を低減することができることも判る。
なお、画像310に示されるように、ヒストグラムの生成に用いられる画像について、元のLab画像を用いる代わりに、元のLab画像に含まれる画素をブロック単位でグループ化することにより、画像の解像度を落としてもよい。グループ化された画素のLab値として、グループに含まれる画素のLab値の平均値を採用してもよい。こうすると、ヒストグラムの生成をより高速化することができる。
<特徴量>
Scharr−HOG(Scharr Filter Combined HOG)特徴量は、HOG特徴量の1つである。例えば、Lab画像の1成分(例えばL成分の画像210L)Ix,yに対して、グラディエントのx成分Gxおよびy成分Gyを、それぞれ次のように計算する。
Scharr−HOG(Scharr Filter Combined HOG)特徴量は、HOG特徴量の1つである。例えば、Lab画像の1成分(例えばL成分の画像210L)Ix,yに対して、グラディエントのx成分Gxおよびy成分Gyを、それぞれ次のように計算する。
次いで、グラディエント値Gを近似値として次のように計算する。
次いで、グラディエントの角度θを次のように計算する。
Scharr−HOG特徴量を用いると、上記の<数式5>〜<数式8>からも判るように、他の代表的なHOG特徴量であるSobel−HOG(Sobel Filter Combined HOG)特徴量と同等の計算速度でグラディエント値を計算することができる。
図4は、図2に示された画像210のL成分の画像210Lに対して計算したScharr−HOG特徴量のグラディエント値Gを示す画像410である。図4に示されるように、グラディエント値Gは、画像210に含まれるエッジを良好に特徴付けていることが判る。
図5Aは、顕著領域において計算したScharr−HOG特徴量を示す画像510である。図5Bは、図5Aの特徴量に基づきSVMを用いて検出した検出対象を示す画像520である。
図5Aに示されるように、Scharr−HOG特徴量は、画像510の黒色で示される部分については計算されない。これにより、特徴量の計算量を低減し、対象検出装置100の検出処理を高速化することができる。また、図5Bに示されるように、顕著領域に含まれない部分における誤検出も抑制することができる。
HOG特徴量の他の例としては、例えばSobel−HOG特徴量が挙げられる。カーネルサイズ3のSobel Filterを用いるSobel−HOG特徴量の計算量は、Scharr−HOG特徴量の計算量と同等である。しかしながら、Sobel−HOG特徴量を用いた場合と比較して、Scharr−HOG特徴量を用いた方が、より高精度のグラディエント値を得ることができ、さらに、人物の検出精度を上げることができる点において好ましい。特に、Sobel−HOG特徴量は、水平方向と垂直方向のエッジを抽出する場合に有用であるが、それ以外の方向のエッジを抽出する用途には適していない。これに対して、Scharr−HOG特徴量は、斜め方向のエッジを抽出する用途にも適している。
図6Aは、全領域について計算したHOG特徴量を示す画像である。図6Bは、図6Aの特徴量に基づきSVMを用いて検出した検出対象を示す画像である。
図6Aに示されるように、HOG特徴量が、画像610の全体に亘り計算されている。特徴量の計算量は、図5Aの場合と比較して大きいことが判る。さらに、画像610の白丸で囲まれた部分が、図6Bに示されるように、画像620において通行人と誤検出されている。すなわち、画像610に映っている背景部分のうち、比較的複雑度の高い部分が通行人と誤検出されている。
このように、本開示の対象検出装置100は、特徴量の計算量を低減し、検出処理を高速化しつつ、検出対象の誤検出も低減することができる。
図7は、対象検出装置100の処理フローを説明するフローチャートである。まず、画像入力部110が画像を入力する(ステップS1100)。次いで、顕著領域特定部120は、画像入力部110が入力した画像から顕著領域を特定し、顕著領域画像を生成する(ステップS1200)。
次いで、特徴量割当部130は、顕著領域特定部120が特定した顕著領域に基づいて、画像入力部110が入力した画像の各画素に対して特徴量を割り当てる(ステップS1300)。次いで、検出対象分類部142は、顕著領域特定部120が特定した顕著領域に基づいて選択されたウィンドウの特徴量を、検出対象分類部142に入力する(ステップS1400)。次いで、検出結果生成部140は、検出対象分類部142の出力に基づき、ウィンドウにおける検出結果を生成する(ステップS1500)。次いで、検出結果生成部140は、ウィンドウの走査が完了したか否かを判定する(ステップS1600)。ウィンドウの走査が完了していないと判定した場合(ステップS1600:NO)、ステップS1400に進む。ウィンドウの走査が完了したと判定した場合(ステップS1600:YES)、終了する。
図8は、図7のステップS1200の処理フローを説明するフローチャートである。まず、色領域変換部122は、画像の色領域をRGBからLabに変換し、Lab画像を生成する(ステップS1210)。次いで、顕著値計算部124は、色領域変換部122が生成したLab画像の全画素について顕著値を計算する(ステップS1220)。次いで、ヒストグラム生成部126は、顕著値計算部124が計算した顕著値に基づいてヒストグラムを生成する(ステップS1230)。次いで、画素選択部128は、ヒストグラム生成部126によって生成されたヒストグラムに基づき、色領域変換部122が生成したLab画像から複数の画素を選択する(ステップS1240)。顕著領域特定部120は、選択された複数の画素によって形成される領域を、顕著領域として特定する。
(その他の実施の形態)
第1の実施の形態においては、入力された画像の色空間をLab色空間に変換する。しかしながら、これに代えて任意の色空間(例えばHSL色空間、HSV色空間)に変換する実施の形態も考えられる。また、入力された画像がモノクロ画像である実施の形態も考えられる。
第1の実施の形態においては、入力された画像の色空間をLab色空間に変換する。しかしながら、これに代えて任意の色空間(例えばHSL色空間、HSV色空間)に変換する実施の形態も考えられる。また、入力された画像がモノクロ画像である実施の形態も考えられる。
図9は、コンピュータ2100のハードウェア構成の一例を示す図である。上述した各実施の形態および各変形例における各部の機能は、コンピュータ2100が実行するプログラムにより実現される。
図9に示すように、コンピュータ2100は、入力ボタン、タッチパッドなどの入力装置2101、ディスプレイ、スピーカなどの出力装置2102、CPU(Central Processing Unit)2103、ROM(Read Only Memory)2104、RAM(Random Access Memory)2105を備える。また、コンピュータ2100は、ハードディスク装置、SSD(Solid State Drive)などの記憶装置2106、DVD−ROM(Digital Versatile Disk Read Only Memory)、USB(Universal Serial Bus)メモリなどの記録媒体から情報を読み取る読取装置2107、ネットワークを介して通信を行う送受信装置2108を備える。上述した各部は、バス2109により接続される。
そして、読取装置2107は、上記各部の機能を実現するためのプログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置2106に記憶させる。あるいは、送受信装置2108が、ネットワークに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードした上記各部の機能を実現するためのプログラムを記憶装置2106に記憶させる。
そして、CPU2103が、記憶装置2106に記憶されたプログラムをRAM2105にコピーし、そのプログラムに含まれる命令をRAM2105から順次読み出して実行することにより、上記各部の機能が実現される。また、プログラムを実行する際、RAM2105または記憶装置2106には、各実施の形態で述べた各種処理で得られた情報が記憶され、適宜利用される。
本開示に係る対象検出装置は、車両に備えたカメラが撮影した画像から、歩行者等の検出対象を検出するのに好適である。
100 対象検出装置
110 画像入力部
120 顕著領域特定部
130 特徴量割当部
140 検出結果生成部
150 検出結果出力部
110 画像入力部
120 顕著領域特定部
130 特徴量割当部
140 検出結果生成部
150 検出結果出力部
Claims (10)
- 入力された画像に対して、前記画像の各画素の前記画像に含まれる画素との間の画素値の隔たりに基づいて前記画像の第1の領域を特定する特定部と、
前記第1の領域に属する画素に対して特徴量を計算して割り当てる特徴量割当部と、
前記特徴量を入力し、前記画像に含まれる検出対象の検出結果を生成する検出結果生成部と、
を備え、
前記特徴量割当部は、前記第1の領域に属さない画素に対しては、前記特徴量を計算しない対象検出装置。 - 前記特定部は、前記画像の各画素に対する、前記画像の画素との色距離を画素毎に総和した値である第1の値と、前記画像の画素との色距離を前記画像に含まれる色空間の座標値毎に総和した値である第2の値とに基づいて、前記第1の領域を特定する、請求項1に記載の対象検出装置。
- 前記特定部は、前記第1の値を前記第2の値で割った値が所定の第1の閾値より小さい画素であって、前記第2の値が所定の第2の閾値より大きい画素からなる領域を、前記第1の領域として特定する、請求項2に記載の対象検出装置。
- 前記色距離がLab色距離であり、前記色空間がLab色空間である、請求項2または3に記載の対象検出装置。
- 前記検出結果生成部は、前記第1の領域に基づいて検出対象を識別する領域を規定するウィンドウを決定する、請求項1から4のいずれか記載の検出対象検出装置。
- 前記ウィンドウは、前記第1の領域に属する画素を所定の第1の割合以上含むウィンドウである、請求項5に記載の対象検出装置。
- 前記特徴量は、Scharr−HOG特徴量である、請求項1から6のいずれかに記載の対象検出装置。
- 前記検出結果生成部は、SVMを用いて前記特徴量に基づいて検出対象を検出する、請求項1から7のいずれかに記載の対象検出装置。
- 入力された画像に対して、前記画像の各画素の前記画像に含まれる画素との間の画素値の隔たりに基づいて前記画像の第1の領域を特定するステップと、
前記第1の領域に属する画素に対して特徴量を計算して割り当てるステップと、
前記特徴量を入力し、前記画像に含まれる検出対象の検出結果を生成するステップと、
を備え、
前記割り当てるステップにおいて、前記第1の領域に属さない画素に対しては、前記特徴量を計算しない対象検出方法。 - コンピュータを、
入力された画像に対して、前記画像の各画素の前記画像に含まれる画素との間の画素値の隔たりに基づいて前記画像の第1の領域を特定する特定部、
前記第1の領域に属する画素に対して特徴量を計算して割り当てる特徴量割当部、および
前記特徴量を入力し、前記画像に含まれる検出対象の検出結果を生成する検出結果生成部として機能させ、
前記特徴量割当部は、前記第1の領域に属さない画素に対しては、前記特徴量を計算しないプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016149683A JP2018018386A (ja) | 2016-07-29 | 2016-07-29 | 対象検出装置、対象検出方法、およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016149683A JP2018018386A (ja) | 2016-07-29 | 2016-07-29 | 対象検出装置、対象検出方法、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018018386A true JP2018018386A (ja) | 2018-02-01 |
Family
ID=61075316
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016149683A Pending JP2018018386A (ja) | 2016-07-29 | 2016-07-29 | 対象検出装置、対象検出方法、およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018018386A (ja) |
-
2016
- 2016-07-29 JP JP2016149683A patent/JP2018018386A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9430704B2 (en) | Image processing system with layout analysis and method of operation thereof | |
KR101932009B1 (ko) | 다중 객체 검출을 위한 영상 처리 장치 및 방법 | |
CN105184763B (zh) | 图像处理方法和装置 | |
US8805077B2 (en) | Subject region detecting apparatus | |
US10748023B2 (en) | Region-of-interest detection apparatus, region-of-interest detection method, and recording medium | |
US8811751B1 (en) | Method and system for correcting projective distortions with elimination steps on multiple levels | |
JP4877374B2 (ja) | 画像処理装置及びプログラム | |
US8897600B1 (en) | Method and system for determining vanishing point candidates for projective correction | |
US8923610B2 (en) | Image processing apparatus, image processing method, and computer readable medium | |
JP2010140478A (ja) | 文書画像分類のための方法及びシステム | |
JP2000105829A (ja) | 顔パーツ検出方法及びその装置 | |
JP2019102061A (ja) | テキスト線の区分化方法 | |
WO2019062426A1 (zh) | 边框检测方法、服务器及存储介质 | |
US10140555B2 (en) | Processing system, processing method, and recording medium | |
JP2011253354A (ja) | 画像処理装置および方法、並びにプログラム | |
JP5027201B2 (ja) | テロップ文字領域検出方法,テロップ文字領域検出装置およびテロップ文字領域検出プログラム | |
JP5201184B2 (ja) | 画像処理装置及びプログラム | |
US11410278B2 (en) | Automatic artifact removal in a digital image | |
JP6785181B2 (ja) | 物体認識装置、物体認識システム、及び物体認識方法 | |
US9008434B2 (en) | Feature extraction device | |
US11190684B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP6546385B2 (ja) | 画像処理装置及びその制御方法、プログラム | |
US10140509B2 (en) | Information processing for detection and distance calculation of a specific object in captured images | |
JP2014197342A (ja) | 物体位置検出装置、物体位置検出方法、及びプログラム | |
US20230410561A1 (en) | Method and apparatus for distinguishing different configuration states of an object based on an image representation of the object |