JP2004295781A - Image recognition method and image recognition apparatus - Google Patents
Image recognition method and image recognition apparatus Download PDFInfo
- Publication number
- JP2004295781A JP2004295781A JP2003090303A JP2003090303A JP2004295781A JP 2004295781 A JP2004295781 A JP 2004295781A JP 2003090303 A JP2003090303 A JP 2003090303A JP 2003090303 A JP2003090303 A JP 2003090303A JP 2004295781 A JP2004295781 A JP 2004295781A
- Authority
- JP
- Japan
- Prior art keywords
- moving object
- image
- shape
- image recognition
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、画像認識方法及び画像認識装置に関し、特に、画像認識により、人間、動物、及び自動車等の監視対象物を認識する画像認識方法、及びその方法を利用する装置に関するものである。
【0002】
【従来の技術】
従来、画像データを基に、人間や自動車等の監視対象物を認識する方法として、予め登録された背景画像データと、移動物体が撮像された画像データとの差分を取得し、その差分画像データを基に、監視対象物を認識する方法が知られている。
【0003】
以上の従来技術は、当業者において当然として行われているものであり、出願人は、この従来技術が記載された文献を知見していない。
【0004】
【発明が解決しようとする課題】
しかし、この方法では、高度の画像処理を伴うため、処理能力の高いコンピュータ等、高価な装置が必要となるとともに、監視対象物の認識に比較的長い時間を要していた。また、監視対象物の形状が一定ではない場合、すなわち人間等、その動作によって輪郭が随時変化する場合には、撮像された移動物体が監視対象物(人間)であるか否かを判別することが困難となっていた。また、カメラに対する移動物体の位置や、カメラと移動物体との距離が異なる場合には、撮像される移動物体の大きさが異なることから、判別の困難さが助長されていた。
【0005】
そこで、本発明は、上記の実情に鑑み、撮像された移動物体の輪郭形状から監視対象物を確実に判別すると共に、比較的安価な装置で実現できる画像認識方法及び画像認識装置を提供するものである。
【0006】
【課題を解決するための手段】
本発明にかかる画像認識方法は、移動物体を撮像した動画データを所定の時間間隔のフレーム画像に分離するフレーム分離工程と、順に分離された二つのフレーム画像について、画像の変化の有無を画素毎または予め分割された小領域毎に判定し、判定結果を基に前記フレーム画像を数値列データに変換する変換工程と、前記数値列データを基に、前記移動物体の輪郭形状に対応する形状コードを生成するデータ生成工程と、前記形状コードを基に、前記移動物体が監視対象物か否かを判別する判別工程とを備えるものである。
【0007】
この画像認識方法によれば、動画データはフレーム分離工程においてフレーム分離され、そのフレーム画像を基本に以降の認識処理が行われる。なお、このときのフレーム分離の時間間隔は、認識すべき動作の速さや、認識の精度及び処理能力に応じて適宜設定される。
【0008】
続く変換工程においては、所定の時間間隔で分離された二つのフレーム画像における画像の変化が、画素毎または予め分割された小領域毎に判定されるとともに、その判定結果に基づく数値が与えられる。例えば、変化があると判定された場合は「1」を出力し、変化がないと判定された場合は「0」を出力する。このようにして、フレーム画像が数値列データに変更される。次のコード生成工程では、この数値列データを基に移動物体の輪郭形状に対応する形状コードが生成される。判別工程では、生成された移動物体の形状コードを、予め設定された監視対象物の形状コードと比較することにより、移動物体が監視対象物であるか否かを判別する。
【0009】
本発明にかかる画像認識装置は、移動物体を撮像してその動画データを出力する撮像手段と、前記動画データを入力して所定の時間間隔のフレーム画像に分離するフレーム分離手段と、順に分離された二つのフレーム画像について、画像の変化の有無を画素毎または予め分割された小領域毎に判定し、判定結果を基に前記フレーム画像を数値列データに変換する変換手段と、前記数値列データを基に、前記移動物体の輪郭形状に対応する形状コードを生成するコード生成手段と、前記形状コードを基に、前記移動物体が監視対象物か否かを判別する判別手段とを具備するものである。
【0010】
この画像認識装置によれば、前述した画像認識方法と同様、撮像手段により撮像された動画データは、フレーム分割手段によってフレーム分離され、そのフレーム画像を基本に以降の認識処理が行われる。また、変更手段により、フレーム画像に変化があるか否かが、画素毎または予め分割された小領域毎に判定されるとともに、その判定結果に基づく数値が与えられる。その後、コード生成手段により、この数値列データを基に移動物体の輪郭形状に対応する形状コードが生成される。そして判別手段では、生成された移動物体の形状コードを、予め設定された監視対象物の形状コードと比較することにより、移動物体が監視対象物であるか否かを判別する。
【0011】
また、この画像認識装置において、「前記コード生成手段は、前記移動物体の輪郭形状における特徴点の座標を検出する座標検出手段と、前記各特徴点を結ぶ線分の長さ及びその傾きを算出する線分算出手段とを有し、前記各線分の長さ及び傾きの組合せを基に前記形状コードを生成する」構成とすることができる。
【0012】
ここで、特徴点とは、移動物体の輪郭上に位置する複数の点である。特徴点を設定する方法として、輪郭上の点を一定の間隔でサンプリングしてもよいが、輪郭を構成する曲線の頂点または変曲点(輪郭形状を示す曲線が凸から凹に、または凹から凸に変わる点)を抽出するようにしてもよい。
【0013】
この画像認識装置によれば、形状コードを生成するにあたり、座標検出手段により、移動物体の輪郭形状における特徴点の座標が検出される。この複数の特徴点を順に結ぶことにより、輪郭形状を簡略化した多角形、すなわち直線のみからなる図形が形成される。そこで、線分算出手段は、各特徴点を結ぶ線分の長さ及びその傾きを算出し、各線分の長さ及び傾きの組合せ、すなわち多角形の図形に関する情報を基に形状コードを生成する。なお、直線のみからなる図形は、移動物体の輪郭形状を構成する曲線の集まりよりもはるかに情報量が少ないため、処理の簡略化を図ることが可能になる。
【0014】
【発明の実施の形態】
以下、本発明の一実施形態である画像認識装置について、図1乃至図4に基づき説明する。図1は画像認識装置の機能的構成を示すブロック図であり、図2及び図3は画像認識方法を説明するための説明図であり、図4は画像認識装置における処理の流れを示すフローチャートである。
【0015】
本実施形態の画像認識装置1は、人間、動物、及び自動車等の移動可能な監視対象物を、その輪郭形状を基に判別するものであり、例えば、侵入者を判別したときに報知手段を作動させるホームセキュリティシステム、走行中の自動車の車種を判別する車両認識システム、及びコンベア上の流れる工業製品の種類を認識し分別する分別システム等に適用することができる。
【0016】
本実施形態では、一例として、画像認識装置1をホームセキュリティシステムに適用した場合について説明する。ホームセキュリティシステムとして、監視カメラを備えるものが従来から知られているが、従来のシステムでは、侵入者である人間と、犬や猫等のペットとを判別することができないため、室内でペットを飼っている住宅においては、居住者が外出する際、ペットを連れて外出したり、サークルやクレイトの中にペットを入れて室内を動き回らないようにする等の対策が必要であった。ところが、本発明の画像認識装置1をホームセキュリティシステムに組み込めば、侵入者とペット(例えば犬)とを判別することが可能になり、侵入者と判別された場合にのみ報知手段を作動させることが可能になる。
【0017】
図1に示すように、本実施形態の画像認識装置1は、CDDカメラ等の監視カメラ2(本発明の撮像手段に相当)を備えるとともに、監視カメラ2から出力される動画データを基に、移動物体が監視対象物(すなわち侵入者)かペットかを判別する機能的な構成を有している。なお、この機能的構成は、汎用のコンピュータの記憶手段に格納された実行プログラムによって実現されるものであり、フレーム分離手段3、変換手段5、コード生成手段6、及び判別手段7が含まれている。フレーム分離手段3は、監視カメラ2から動画データを入力して所定の時間間隔(例えば0.1秒毎)に分離されたフレーム画像(静止画)を生成するものである。分離されたフレーム画像は、記憶装置8の画像記憶部9に記憶される。ここで、画像記憶部9にフレーム画像を記憶するのは、最新のフレーム画像が分離された時点で、前回のフレーム画像と比較するためである。
【0018】
変換手段5は、所定の時間間隔で分離された最新のフレーム画像と前回のフレーム画像とを、画像記憶部9から読出し、画像の変化の有無を画素毎に判定する変化判定手段10を有しており、この判定結果を基にフレーム画像を数値列データに変換するものである。さらに詳しく説明すると、変化判定手段10は、画素毎に検出される変化量を予め定められたしきい値と比較して、変化量がしきい値よりも大きい画素を、動画素(動きのある画素)として抽出する。これにより、被写体の中から動きのある部分のみを抽出することができる。つまり、被写体に対して、動きのない背景と、動きのある移動物体とを分離することが可能になる。そこで、変換手段5では、例えば動画素に対して「1」を出力し、静止画素に対して「0」を出力し、その後、この数値を所定の順序に並べることにより、移動物体に関する数値列データを作成する。
【0019】
コード生成手段6は、変換手段5によって生成された数値列データを基に、移動物体の輪郭形状に対応する形状コードを生成するものであり、座標検出手段11と線分算出手段12とを有している。座標検出手段11は、移動物体の輪郭形状を構成する曲線に対して複数の特徴点を求め、その座標を検出するものである。例えば図2(a)に示すように、抽出された移動物体の形状が人間の上半身の場合には、その輪郭形状を構成する複数の曲線における頂点T1,T2,T3……Tnを特徴点として設定する。この特徴点を結ぶことにより、輪郭形状を簡略化した多角形、すなわち、図2(b)に示すように、直線のみからなる図形が形成される。線分算出手段12は、各特徴点を結ぶ線分の長さB,C,D……と、隣接する線分同士の内角b,c,d……とを算出し、各線分の長さ及び内角の組合せからなる形状コード(例えばBbCcDd……)を生成し出力する。
【0020】
図1に示す判別手段7は、コード生成手段6によって生成された形状コードを基に、移動物体が人間(侵入者)であるか、それとも犬等のペットであるかを判別するものであり、ここには、縦横比判別手段13と、部位特定手段14と、部位判別手段15とが備えられている。まず縦横比判別手段13は、移動物体全体の輪郭形状が縦長か横長かを判定し、縦長の場合には移動物体が人間であり、横長の場合には移動物体が人間以外の移動物体であると判別する。これは図3に示すように、人間Hは起立姿勢で動くことが多く、犬や猫等の動物Aは横伏姿勢で動くことが多いことから、この姿勢の違いを利用して人間か否かを判別するものである。
【0021】
一方、部位特定手段14は、コード生成手段6によって生成された形状コードを基に、被写体に含まれる体の部位を特定するものである。記憶装置8のコード記憶部16には、頭部、胴部、及び足部等、体の各部位における輪郭形状を表す形状コードが予め記憶されており、生成された形状コードとコード記憶部16に記憶された形状コードとを照合させることにより、生成された形状コードがどの部位を表す形状コードであるのかを特定する。例えば、形状コードとして、細長く鉛直方向に延びる形態の形状コードが生成された場合には、足部を示す形状コードであると特定する。
【0022】
部位判別手段15は、部位特定手段14によって特定された部位に応じて、検出された移動物体が人間か否かの判別を行うものである。具体的な判別としては、足部に関する関節判別部17、頭部に関する頭部判別部18、肩部に関する肩幅判別部19、及び尻部に関する尻尾判別部20を例示することができる。
【0023】
関節判別部17は、部位特定手段14によって特定された部位が「足部」付近に相当する場合、「足の関節の成り立ち」に基づいて判別する。これは、図3に示すように、人間Hの足は、膝部を中心として大腿骨25と脛骨26とが上下方向に延び、曲げる動作によって「く」の字形となるのに対し、犬等の動物Aの足は、飛節を中心として脛骨27と中足骨28とが正面上下方向に延出された逆「く」の字形の形状になっていることから、これらの形状の違いを利用して判別するものである。つまり、進行方向(移動方向)に対し、生成された形状コードが「く」の字状であれば人間H(侵入者)であると判別し、一方、形状コードが逆「く」の字状であれば、犬等の動物Aであると判別する。なお、この判別は、監視カメラ2に対し移動物体が左右方向に横切った場合、すなわち移動物体の側面を撮像した場合に有効となる。
【0024】
頭部判別部18は、部位特定手段14によって特定された部位が「頭部」付近に相当する場合、「胴部に対する頭部の位置」に基づいて判別する。これは、図3に示すように、移動物体を側面から見た場合、人間Hの頭は胴部の上方に位置するのに対し、犬等の動物Aの頭は胴部の斜め上方に位置することから、これらの相対位置の違いを利用して判別するものである。つまり、移動物体の大きさが殆ど変わらない場合、すなわち監視カメラ2に対し移動物体が左右方向に横切った場合において、頭部が胴部の上方に位置している場合には、人間H(侵入者)であると判別し、一方、頭部が胴部の斜め上方または前方に位置している場合には犬等の動物Aであると判別する。
【0025】
肩幅判別部19は、部位特定手段14によって特定された部位が「肩部及び頭部」付近に相当する場合、「頭部に対する肩幅の広さ」に基づいて判別する。これは、移動物体の正面または背面を見た場合、人間Hは肩幅(胴部の横幅)が広いのに対し、犬等の動物Aは胴部の横幅が狭いことから、この幅の違いを利用して判別するものである。つまり、移動物体の大きさが変化する場合、すなわち監視カメラ2に対して遠近方向に移動する場合において、頭部に対する肩幅が所定の比率よりも大きいときには、その移動物体は人間H(侵入者)であると判別し、一方、所定の比率よりも小さいときには犬等の動物Aであると判別する。
【0026】
尻尾判別部20は、部位特定手段14によって特定された部位が「尻部」付近に相当する場合、「尻尾の存在」に基づいて判別する。これは、人間Hには犬のような尻尾を有しないことから、この違いを利用して判別するものである。つまり、尻部付近に細長い紐状の形状が認識された場合には犬等の動物Aであると判別する。
【0027】
なお、人間Hと動物Aとの判別は上記の方法に限定されるものではなく、例えば腕の位置や全体の大きさ等、人間Hと動物Aとを区別できる形状または姿勢であれば、その違いを利用して判別することが可能である。
【0028】
ところで、本実施形態では、フレーム画像における変化の有無、すなわち所定時間間隔で分離されるフレーム画像の差分に基づいて移動物体を抽出するため、揺れ動くカーテンや洗濯物が、移動物体として認識される可能性がある。しかし、本発明によれば、人間の特徴的部位に応じて人間か否かを判別するため、カーテンや洗濯物が風にふかれても報知手段を作動させることはない。
【0029】
また、地震により画像認識装置1またはそれに内蔵された監視カメラ2が揺動した場合には、フレーム画像全体が動画素と判別され、背景自体が移動物体と認識される可能性がある。しかし、この場合、移動物体の輪郭形状は画面全体の形状となり、人間の輪郭とは明らかに異なることから、それが人間と判別されることはない。
【0030】
次に、本実施形態の警備システム1における画像処理の流れについて、図4に示すフローチャートに基づき説明する。まず、フレーム分離工程(ステップS1)において動画データがフレーム画像に分離され、そのフレーム画像を基本に以降の認識処理が行われる。なお、このときのフレーム分離の時間間隔は、認識すべき動作の速さや、認識の精度及び処理能力に応じて適宜設定される。分離されたフレーム画像は画像記憶部9に記憶される(ステップS2)。
【0031】
続いて順次分離されるフレーム画像に対して変化の有無を画素毎に判定する(ステップS3)とともに、変化の有無を数値列データに変換する(ステップS4)。そして、数値列データから移動物体の輪郭形状における特徴点を抽出しその座標を検出する(ステップS5)とともに、各特徴点を結ぶ線分の長さ及び内角を検出し(ステップS6)、それを基に形状コードを生成する(ステップS7)。ここで、ステップS3及びステップS4の処理が本発明の変換工程に相当し、ステップS5〜ステップS7の処理が本発明のコード生成工程に相当する。その後、移動物体の外観形状を示す形状コードを基に、移動物体が人間(侵入者)か否かを判別する(ステップS8)。なお、ホームセキュリティシステムでは、侵入者と認定された場合、すなわち、少なくとも一つの判別手段において人間と判別された場合、報知手段を作動させる。
【0032】
このように、上記の画像認識装置1では、ホームセキュリティシステムに適用した場合、撮像された移動物体が侵入者であるかペットであるかを正確に判別することができ、侵入者である場合にのみ報知手段を作動させることができる。このため、ペットを連れて外出したり、サークルやクレイトの中にペットを入れて室内を動き回らないようにする等の対策が不要となり、使い勝手を大きく向上させることができる。また、上記の画像認識装置1では、監視対象物の特徴的部位に応じた複数の判別部を有するため、判別の精度を大きく向上させることができる。
【0033】
さらに、上記の画像認識装置1では、膨大な情報を有する動画データを効率的に処理することによって、認識処理の対象データ量を少なくすることができる。これにより、汎用のコンピュータによるリアルタイムな処理が可能となり、比較的安価な画像認識装置を提供することが可能になる。
【0034】
以上、本発明について好適な実施形態を挙げて説明したが、本発明はこの実施形態に限定されるものではなく、以下に示すように、本発明の要旨を逸脱しない範囲において、種々の改良及び設計の変更が可能である。
【0035】
すなわち、上記の画像認識装置1では、フレーム画像についての変化の有無を、画素毎に判定するものを示したが、フレーム画像を複数の小領域に分割する領域分割手段を備え、フレーム画像についての変化の有無を分割された小領域毎に判定するようにしてもよい。フレーム画像の分割数は、フレーム画像の総画素数よりもはるかに低く設定されるため、この領域分割により処理の簡略化を図ることが可能になる。
【0036】
上記の画像認識装置1では、形状コードを生成する際、線分の傾きとして隣接する線分同士の内角を算出するものを示したが、線分の傾斜角度やベクトルを算出するようにしてもよい。
【0037】
上記の実施形態では、画像認識装置をホームセキュリティシステムに適用し、人間(侵入者)とペットとを判別するものを示したが、監視対象物は、特に限定されるものではなく、輪郭形状に特徴のある移動物体であれば、本発明の画像認識装置によって判別することが可能である。例えば、車両認識システムに適用した場合には、走行中の自動車の車種をその輪郭形状から判別することが可能になり、手配車の捜索や交通状況の調査等に利用することが可能になる。また、分別システムに適用した場合には、例えばコンベア上を流れる生産物を輪郭形状に応じて判別し自動的に振分けることが可能となる。特に、本発明の画像認識装置は、汎用の安価なコンピュータで実現することができることから、その応用範囲は広く、防犯設備、生産管理装置、安全装置、遊技機、及び玩具等、幅広い分野で適用することが可能である。
【0038】
【発明の効果】
本発明によれば、移動物体の輪郭形状に対応する形状コードを生成するとともに、その形状コードを解析することによって監視対象物か否かを判別することから、監視対象物を比較的容易に且つ正確に認識することができる。また、膨大な情報を有する動画データを効率的に処理することによって、認識処理の対象データ量を少なくすることができる。これにより、汎用のコンピュータによるリアルタイムな処理が可能となり、比較的安価な装置で実現することが可能になる。
【図面の簡単な説明】
【図1】本発明の一実施形態である画像認識装置の機能的構成を示すブロック図である。
【図2】画像認識方法を説明するための説明図である。
【図3】人間と犬との輪郭形状の違いを説明するための説明図である。
【図4】画像認識装置における処理の流れを示す説明図である。
【符号の説明】
1 画像認識装置
2 監視カメラ(撮像手段)
3 フレーム分離手段
5 変換手段
6 コード生成手段
7 判別手段
11 座標検出手段
12 線分算出手段[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image recognition method and an image recognition apparatus, and more particularly to an image recognition method for recognizing a monitoring target such as a human, an animal, and a car by image recognition, and an apparatus using the method.
[0002]
[Prior art]
Conventionally, as a method of recognizing a monitoring target such as a human or a car based on image data, a difference between previously registered background image data and image data of a moving object is acquired, and the difference image data is acquired. There is known a method of recognizing a monitoring target based on the following.
[0003]
The above prior art is naturally performed by those skilled in the art, and the applicant does not know the document describing this prior art.
[0004]
[Problems to be solved by the invention]
However, since this method involves high-level image processing, an expensive device such as a computer having a high processing capability is required, and a relatively long time is required to recognize the monitoring target. Further, when the shape of the monitored object is not constant, that is, when the contour of the monitored object changes as needed due to its operation, it is determined whether or not the captured moving object is the monitored object (human). Had become difficult. In addition, when the position of the moving object with respect to the camera or the distance between the camera and the moving object is different, the size of the moving object to be imaged is different, which makes the determination difficult.
[0005]
In view of the above circumstances, the present invention provides an image recognition method and an image recognition device that can reliably determine a monitoring target from a contour shape of a captured moving object and can be realized by a relatively inexpensive device. It is.
[0006]
[Means for Solving the Problems]
The image recognition method according to the present invention includes: a frame separation step of separating moving image data of a moving object into frame images at predetermined time intervals; and, for two frame images separated in sequence, the presence or absence of an image change for each pixel. Or a determination step for each divided small area, and a conversion step of converting the frame image into numerical sequence data based on the determination result; and a shape code corresponding to the contour shape of the moving object based on the numerical sequence data. And a discriminating step of discriminating whether or not the moving object is a monitoring target based on the shape code.
[0007]
According to this image recognition method, moving image data is subjected to frame separation in a frame separation step, and subsequent recognition processing is performed based on the frame image. The time interval of the frame separation at this time is appropriately set according to the speed of the operation to be recognized, the accuracy of the recognition, and the processing capability.
[0008]
In the subsequent conversion step, the change of the image in the two frame images separated at a predetermined time interval is determined for each pixel or for each small area divided in advance, and a numerical value based on the determination result is given. For example, when it is determined that there is a change, “1” is output, and when it is determined that there is no change, “0” is output. In this way, the frame image is changed to the numerical sequence data. In the next code generation step, a shape code corresponding to the contour shape of the moving object is generated based on the numerical sequence data. In the determining step, it is determined whether the moving object is a monitoring target by comparing the generated shape code of the moving object with a preset shape code of the monitoring target.
[0009]
The image recognition device according to the present invention is configured such that an imaging unit that images a moving object and outputs moving image data thereof, a frame separation unit that inputs the moving image data and separates the moving image data into frame images at predetermined time intervals, Conversion means for judging the presence or absence of an image change for each of the two frame images for each pixel or for each small area previously divided, and converting the frame image into numerical sequence data based on the judgment result; and Code generating means for generating a shape code corresponding to the contour shape of the moving object based on the above, and determining means for determining whether or not the moving object is a monitoring target based on the shape code It is.
[0010]
According to this image recognition apparatus, similarly to the above-described image recognition method, the moving image data captured by the imaging unit is separated into frames by the frame division unit, and the subsequent recognition processing is performed based on the frame image. Further, the changing unit determines whether or not there is a change in the frame image for each pixel or for each small area divided in advance, and gives a numerical value based on the determination result. After that, the code generation means generates a shape code corresponding to the contour shape of the moving object based on the numerical sequence data. Then, the determining means determines whether the moving object is a monitoring target by comparing the generated shape code of the moving object with a preset shape code of the monitoring target.
[0011]
In the image recognition apparatus, the code generation unit may include a coordinate detection unit configured to detect a coordinate of a feature point in the contour shape of the moving object, and a length and a slope of a line segment connecting the feature points may be calculated. And generating the shape code based on a combination of the length and the inclination of each of the line segments.
[0012]
Here, the feature points are a plurality of points located on the contour of the moving object. As a method of setting the feature points, points on the contour may be sampled at regular intervals, but the vertices or inflection points of the curve constituting the contour (the curve indicating the contour shape changes from convex to concave or from concave to concave) (A point that changes to a convex shape) may be extracted.
[0013]
According to this image recognition device, when generating the shape code, the coordinates of the characteristic points in the contour shape of the moving object are detected by the coordinate detection means. By sequentially connecting the plurality of feature points, a polygon having a simplified outline shape, that is, a figure consisting of only straight lines is formed. Therefore, the line segment calculating means calculates the length of the line segment connecting each feature point and its inclination, and generates a shape code based on a combination of the length and the inclination of each line segment, that is, information on a polygonal figure. . It should be noted that a graphic consisting only of straight lines has a much smaller amount of information than a collection of curves forming the contour shape of the moving object, so that the processing can be simplified.
[0014]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an image recognition apparatus according to an embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a block diagram showing a functional configuration of the image recognition device, FIGS. 2 and 3 are explanatory diagrams for explaining an image recognition method, and FIG. 4 is a flowchart showing a flow of processing in the image recognition device. is there.
[0015]
The
[0016]
In the present embodiment, a case where the
[0017]
As shown in FIG. 1, the
[0018]
The
[0019]
The code generation means 6 generates a shape code corresponding to the contour shape of the moving object based on the numerical sequence data generated by the conversion means 5, and includes a coordinate detection means 11 and a line segment calculation means 12. are doing. The coordinate detecting
[0020]
The determining means 7 shown in FIG. 1 determines whether the moving object is a human (intruder) or a pet such as a dog based on the shape code generated by the code generating means 6, Here, an aspect
[0021]
On the other hand, the
[0022]
The
[0023]
When the part specified by the
[0024]
When the part specified by the
[0025]
When the part specified by the
[0026]
When the part specified by the
[0027]
Note that the discrimination between the human H and the animal A is not limited to the above method. For example, any shape or posture that can distinguish the human H and the animal A, such as the position of the arm or the overall size, is used. It is possible to determine using the difference.
[0028]
By the way, in the present embodiment, since the moving object is extracted based on the presence or absence of a change in the frame image, that is, the difference between the frame images separated at predetermined time intervals, a swinging curtain or laundry may be recognized as the moving object. There is. However, according to the present invention, since it is determined whether or not a person is a person according to a characteristic part of the person, the notification means is not activated even if the curtain or the laundry is blown by the wind.
[0029]
When the
[0030]
Next, the flow of image processing in the
[0031]
Subsequently, the presence / absence of a change is determined for each pixel of the sequentially separated frame images (step S3), and the presence / absence of the change is converted into numerical sequence data (step S4). Then, feature points in the contour shape of the moving object are extracted from the numerical value sequence data and their coordinates are detected (step S5), and the length and interior angle of the line connecting each feature point are detected (step S6). A shape code is generated based on the shape code (step S7). Here, the processing of steps S3 and S4 corresponds to the conversion step of the present invention, and the processing of steps S5 to S7 corresponds to the code generation step of the present invention. Thereafter, it is determined whether or not the moving object is a human (intruder) based on the shape code indicating the external shape of the moving object (step S8). In the home security system, when it is determined that the person is an intruder, that is, when it is determined that at least one of the determination units is a human, the notification unit is activated.
[0032]
As described above, in the
[0033]
Further, in the
[0034]
As described above, the present invention has been described with reference to the preferred embodiments. However, the present invention is not limited to these embodiments, and various improvements and modifications can be made without departing from the scope of the present invention as described below. Design changes are possible.
[0035]
That is, in the
[0036]
In the above-described
[0037]
In the above embodiment, the image recognition device is applied to the home security system to discriminate between a human (intruder) and a pet. However, the monitoring target is not particularly limited and has a contour shape. A moving object having a characteristic can be determined by the image recognition device of the present invention. For example, when the present invention is applied to a vehicle recognition system, it is possible to determine the type of a running car from its contour shape, and it is possible to use it for searching for a arranged vehicle, investigating traffic conditions, and the like. In addition, when the present invention is applied to a sorting system, for example, products flowing on a conveyor can be determined according to a contour shape and automatically sorted. In particular, since the image recognition device of the present invention can be realized by a general-purpose inexpensive computer, its application range is wide, and it is applied to a wide range of fields such as security equipment, production control devices, safety devices, amusement machines, and toys. It is possible to do.
[0038]
【The invention's effect】
According to the present invention, a shape code corresponding to the contour shape of a moving object is generated, and the shape code is analyzed to determine whether or not the monitored object is a monitored object. Can be accurately recognized. In addition, by efficiently processing moving image data having enormous information, the amount of data to be subjected to recognition processing can be reduced. As a result, real-time processing can be performed by a general-purpose computer, and can be realized by a relatively inexpensive device.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a functional configuration of an image recognition device according to an embodiment of the present invention.
FIG. 2 is an explanatory diagram for explaining an image recognition method.
FIG. 3 is an explanatory diagram for explaining a difference in contour between a human and a dog.
FIG. 4 is an explanatory diagram showing a flow of processing in the image recognition device.
[Explanation of symbols]
1
3 frame separating means 5 converting
Claims (3)
順に分離された二つのフレーム画像について、画像の変化の有無を画素毎または予め分割された小領域毎に判定し、判定結果を基に前記フレーム画像を数値列データに変換する変換工程と、
前記数値列データを基に、前記移動物体の輪郭形状に対応する形状コードを生成するコード生成工程と、
前記形状コードを基に、前記移動物体が監視対象物か否かを判別する判別工程と
を備えることを特徴とする画像認識方法。A frame separation step of separating moving image data of a moving object into frame images at predetermined time intervals,
For the two frame images separated in order, the presence or absence of a change in the image is determined for each pixel or for each small region divided in advance, a conversion step of converting the frame image into numerical sequence data based on the determination result,
A code generation step of generating a shape code corresponding to the contour shape of the moving object based on the numerical sequence data;
A determination step of determining whether or not the moving object is a monitoring target based on the shape code.
順に分離された二つのフレーム画像について、画像の変化の有無を画素毎または予め分割された小領域毎に判定し、判定結果を基に前記フレーム画像を数値列データに変換する変換手段と、
前記数値列データを基に、前記移動物体の輪郭形状に対応する形状コードを生成するコード生成手段と、
前記形状コードを基に、前記移動物体が監視対象物か否かを判別する判別手段と
を具備することを特徴とする画像認識装置。Image capturing means for capturing a moving object and outputting moving image data thereof; frame separating means for inputting the moving image data and separating the moving object data into frame images at predetermined time intervals;
For two frame images separated in order, a conversion unit that determines the presence or absence of a change in the image for each pixel or for each small region divided in advance, and converts the frame image into numerical sequence data based on the determination result.
Code generation means for generating a shape code corresponding to the contour shape of the moving object based on the numerical sequence data,
An image recognition apparatus comprising: a determination unit configured to determine whether the moving object is a monitoring target based on the shape code.
前記移動物体の輪郭形状における特徴点の座標を検出する座標検出手段と、
前記各特徴点を結ぶ線分の長さ及びその傾きを算出する線分算出手段とを有し、
前記各線分の長さ及び傾きの組合せを基に前記形状コードを生成することを特徴とすることを請求項2に記載の画像認識装置。The code generation means includes:
Coordinate detection means for detecting the coordinates of a feature point in the contour shape of the moving object,
Line segment calculation means for calculating the length of the line segment connecting each of the feature points and the inclination thereof,
The image recognition apparatus according to claim 2, wherein the shape code is generated based on a combination of the length and the inclination of each line segment.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003090303A JP2004295781A (en) | 2003-03-28 | 2003-03-28 | Image recognition method and image recognition apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003090303A JP2004295781A (en) | 2003-03-28 | 2003-03-28 | Image recognition method and image recognition apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004295781A true JP2004295781A (en) | 2004-10-21 |
Family
ID=33403965
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003090303A Pending JP2004295781A (en) | 2003-03-28 | 2003-03-28 | Image recognition method and image recognition apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004295781A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010020401A (en) * | 2008-07-08 | 2010-01-28 | Honda Motor Co Ltd | Vehicle periphery monitoring device |
KR20160047988A (en) * | 2014-10-23 | 2016-05-03 | 엑시스 에이비 | Modification of at least one parameter used by video processing algorithm for monitoring of a scene |
JP2018106360A (en) * | 2016-12-26 | 2018-07-05 | キヤノン株式会社 | Information processor, information processing method and program |
JP2019164666A (en) * | 2018-03-20 | 2019-09-26 | 株式会社Jvcケンウッド | Recognition device, recognition method and recognition program |
JP2020534590A (en) * | 2017-08-20 | 2020-11-26 | ネイバー コーポレーションNAVER Corporation | Processing of visual input |
-
2003
- 2003-03-28 JP JP2003090303A patent/JP2004295781A/en active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010020401A (en) * | 2008-07-08 | 2010-01-28 | Honda Motor Co Ltd | Vehicle periphery monitoring device |
KR20160047988A (en) * | 2014-10-23 | 2016-05-03 | 엑시스 에이비 | Modification of at least one parameter used by video processing algorithm for monitoring of a scene |
KR101869000B1 (en) * | 2014-10-23 | 2018-06-20 | 엑시스 에이비 | Modification of at least one parameter used by video processing algorithm for monitoring of a scene |
US10032283B2 (en) | 2014-10-23 | 2018-07-24 | Axis Ab | Modification of at least one parameter used by a video processing algorithm for monitoring of a scene |
JP2018106360A (en) * | 2016-12-26 | 2018-07-05 | キヤノン株式会社 | Information processor, information processing method and program |
US10943103B2 (en) | 2016-12-26 | 2021-03-09 | Canon Kabushiki Kaisha | Human body detection apparatus, human body detection method, information processing apparatus, information processing method, and storage medium |
JP2020534590A (en) * | 2017-08-20 | 2020-11-26 | ネイバー コーポレーションNAVER Corporation | Processing of visual input |
JP7027524B2 (en) | 2017-08-20 | 2022-03-01 | ネイバー コーポレーション | Processing of visual input |
JP2019164666A (en) * | 2018-03-20 | 2019-09-26 | 株式会社Jvcケンウッド | Recognition device, recognition method and recognition program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3987048B2 (en) | Vehicle periphery monitoring device | |
JP6398347B2 (en) | Image processing apparatus, recognition object detection method, recognition object detection program, and moving object control system | |
JP5401344B2 (en) | Vehicle external recognition device | |
JP4173901B2 (en) | Vehicle periphery monitoring device | |
JP5197679B2 (en) | Object detection apparatus and program | |
JP4203512B2 (en) | Vehicle periphery monitoring device | |
EP3276535A1 (en) | A monitoring system of a passenger conveyor, and a monitoring method thereof | |
US8810653B2 (en) | Vehicle surroundings monitoring apparatus | |
JP2003284057A (en) | Vehicle periphery monitoring unit | |
JP4171501B2 (en) | Vehicle periphery monitoring device | |
JP6786279B2 (en) | Image processing device | |
JP2005354597A (en) | Vehicle vicinity monitoring apparatus | |
JP2003216937A (en) | Night vision system | |
JP2005352974A (en) | Vehicle circumference monitoring device | |
JP2000105835A (en) | Object recognizing method and object tracking and monitoring device | |
JP3200950B2 (en) | Object recognition device | |
JP4609076B2 (en) | Moving object detection apparatus and moving object detection method | |
JP2004145660A (en) | Obstacle detection device | |
JP4937844B2 (en) | Pedestrian detection device | |
US9160986B2 (en) | Device for monitoring surroundings of a vehicle | |
KR20130054637A (en) | Apparatus and method detecting object in automatic parking system | |
JP2001056853A (en) | Behavior detecting device and kind discriminating device, behavior detecting method, and recording medium where behavior detecting program is recorded | |
JP2008288684A (en) | Person detection device and program | |
JP2004295798A (en) | Security system | |
CN114708552A (en) | Three-dimensional area intrusion detection method and system based on human skeleton |