JP5786495B2 - 画像認識装置、画像認識方法及び画像認識用コンピュータプログラム - Google Patents
画像認識装置、画像認識方法及び画像認識用コンピュータプログラム Download PDFInfo
- Publication number
- JP5786495B2 JP5786495B2 JP2011146077A JP2011146077A JP5786495B2 JP 5786495 B2 JP5786495 B2 JP 5786495B2 JP 2011146077 A JP2011146077 A JP 2011146077A JP 2011146077 A JP2011146077 A JP 2011146077A JP 5786495 B2 JP5786495 B2 JP 5786495B2
- Authority
- JP
- Japan
- Prior art keywords
- section
- moving image
- objects
- picture
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/30—Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Television Signal Processing For Recording (AREA)
Description
上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を限定するものではないことを理解されたい。
図1は、この画像認識装置により実行される、画像認識処理を示す図である。図1において、入力された動画像100の一部の区間110に含まれるピクチャ101、102に写っている物体は、所定のカテゴリに含まれる全ての物体A〜Zを認識対象とする汎用の物体識別器120を用いて認識される。例えば、ピクチャ101から物体Aが認識され、ピクチャ102から物体Bが認識される。そして認識された物体A、Bに基づいて、認識対象となる物体を限定した複数の個別物体識別器121〜124の中から、動画像100に写っている物体が属すると推定されるサブカテゴリに属する物体のみを認識対象とする個別物体識別器123が選択される。そして、個別物体識別器123を用いて、動画像の残りの区間111に含まれるピクチャ103〜105に写っている物体が認識される。これにより、ピクチャ103〜105について、写っている可能性が無い物体を誤って認識する可能性が低減されるので、物体の認識精度の向上が図られる。
インターフェース部11は、動画像入力装置から、または通信ネットワークを介して動画像を取得し、その動画像を処理部13へ渡す。
検査区間設定部21は、検査区間を設定する度に、検査区間の先頭を表す時刻及び検査区間の終わりを表す時刻を記憶部12に記憶するとともに、それらの時刻を汎用認識部22に通知する。
なお、以下では、便宜上、動画像中で検査区間以外の残りの区間を未検査区間と呼ぶ。
手順1:汎用認識部22は、ピクチャを複数の領域に分割する。
手順2:汎用認識部22は、各領域から、それぞれ、認識すべき物体の特徴を表す特徴量を少なくとも一つ抽出する。
手順3:汎用認識部22は、領域ごとに、抽出された特徴量を汎用物体識別器に入力することにより、その領域に写っている物体を認識する。
以下、各手順について説明する。
汎用認識部22は、ピクチャに写っている各物体がそれぞれ別個の領域に含まれるように、ピクチャを複数の領域に分割する。そのために、汎用認識部22は、例えば、所定の値の範囲に含まれる画素値を持つ画素の集合を一つの領域とし、その所定の範囲に含まれない画素値を持つ画素の集合を他の領域とするようにピクチャを分割してもよい。この場合、所定の値の範囲は、例えば、想定される物体に応じて予め設定される。また画素値は、例えば、RGB表色系の色成分値の何れかであってもよい。あるいは、汎用認識部22は、ピクチャの各画素の色成分値を、HSV表色系あるいはHLS表色系の値に変換し、HSV表色系あるいはHLS表色系における色相または彩度若しくは輝度値を画素値としてもよい。
また、汎用認識部22は、ピクチャを複数の領域に分割した後に、孤立点を解消するために、複数の領域のうちの少なくとも一つの領域について、モルフォロジーの膨張収縮演算あるいは収縮膨張演算を行ってもよい。さらに、汎用認識部22は、各領域についてラベリング処理を行うことで、互いに分離した複数のサブ領域を検出した場合には、各サブ領域をそれぞれ別個の領域としてもよい。
汎用認識部22は、ピクチャの複数の領域のそれぞれから、少なくとも一つの特徴量を抽出する。汎用認識部22は、例えば、複数の領域のうちの着目する領域について、複数の色成分のそれぞれについての出現頻度を表す色ヒストグラムを求め、その色ヒストグラムを特徴量としてもよい。
あるいは、汎用認識部22は、着目する領域の形状またはテクスチャに基づいて決定される特徴量を抽出してもよい。例えば、汎用認識部22は、着目する領域に含まれる画素数、着目する領域の縦横比または円形度を特徴量として求めてよい。なお、円形度は、着目する領域の面積(すなわち、着目する領域に含まれる画素数)をS、着目する領域の周囲長をLとして、(4πS/L2)として表される。また汎用認識部22は、着目する領域をウェーブレット変換することで得られるウェーブレット係数を特徴量としてもよい。さらに、汎用認識部22は、着目領域内でHaar-like特徴量またはHistograms of Oriented Gradients(HOG)特徴量を求めてもよい。
さらに、汎用認識部22は、着目する領域内の画素値の統計量、例えば、各色成分の分散または輝度値の分散、最小輝度値と最大輝度値の差または平均輝度値などを特徴量として求めてもよい。
汎用認識部22は、ピクチャの複数の領域のそれぞれについて、求めた特徴量をそれぞれ一つの要素とする特徴量ベクトルを汎用物体識別器に入力することにより、その領域に写っている物体を認識する。
汎用物体識別器を学習するために、所定のカテゴリに属する全ての物体のそれぞれについて、予め複数のサンプル画像が準備される。また、認識対象となる何れの物体も写っていないサンプル画像も複数準備されることが好ましい。そしてサンプル画像ごとに、汎用認識部22が抽出する特徴量と同じ特徴量が抽出される。そして汎用物体識別器に、サンプル画像から抽出された特徴量を要素とする特徴量ベクトルを入力すると、そのサンプル画像に写っている物体の種別を表す値を出力するように、汎用物体識別器は、その汎用物体識別器を形成する機械学習システムに応じた学習法を用いて学習される。
また汎用物体識別器は、認識対象となる物体ごとに準備された複数のサポートベクトルマシンを有してもよい。サポートベクトルマシンは基本的に2クラス識別器である。そのため、各サポートベクトルマシンは、入力された特徴量ベクトルに対して、そのサポートベクトルマシンが認識対象とする物体が写っているか否かの判定結果を出力するように、例えば、カーネルトリックと呼ばれる手法を用いて学習される。
なお、汎用認識部22は、認識された物体ごとに、認識された頻度を求め、その物体ごとの頻度も選択部23へ通知してもよい。
また、汎用認識部22は、上記の手順1を省略し、ピクチャ全体から特徴量を抽出し、その特徴量を要素とする特徴量ベクトルを汎用物体識別器に入力することによって物体を認識してもよい。
例えば、球技に関する第1のサブカテゴリと、モータースポーツに関する第2のサブカテゴリとが予め設定される。この場合、第1のサブカテゴリに属する物体には、例えば、「ボール」、「人」及び「芝生」が含まれる。一方、第2のサブカテゴリに属する物体には、例えば、「車」、「バイク」及び「道路」が含まれる。
なお、サブカテゴリの区分は、スポーツ及びドラマといった、一般的な映像のジャンルの区分とは異なる観点で行われてもよい。例えば、特定のシーンに写る可能性の有る物体(例えば、海、特定のロゴマークなど)が属するサブカテゴリと、その特定のシーンに写る可能性の有る物体を含まず、他のシーンにおいて写る可能性の有る物体が属するサブカテゴリとが設定されてもよい。
評価値算出部24は、求めた評価値を判定部25へ渡す。
なお、閾値Lは、例えば、対象となる動画像中の未検査区間に含まれる各ピクチャに対して、サブカテゴリごとに特化された個別物体識別器を用いて物体を認識する精度が、汎用物体識別器を用いて物体を認識する精度よりも高くなる評価値の最小値に設定される。この最小値は、例えば、予めサブカテゴリごとに用意された複数のサンプル動画像に対して個別物体識別器及び汎用物体識別器を用いてそれぞれ物体を認識したときの精度を求めることによって求められる。例えば、確信度D(t,j)及びwR(t,j)が、それぞれ0〜1の範囲内の値となる場合、閾値Lは、例えば、1.5〜1.8に設定される。
判定部25は、その判定結果を処理部13に出力する。
なお、個別認識部26による処理は、対象となるピクチャが含まれる区間及び使用される物体識別器を除いて、汎用認識部22による処理と同一である。そこで、以下では、個別認識部26が使用する個別物体識別器について説明する。
ただし、個別物体識別器は、その個別物体識別器に対応するサブカテゴリに属する物体のみを認識対象とするように学習される。すなわち、サブカテゴリごとに、そのサブカテゴリに属する物体のそれぞれについて、予め複数のサンプル画像が準備される。また、認識対象となる何れの物体も写っていないサンプル画像も複数準備されることが好ましい。そして注目するサブカテゴリに対応する個別物体識別器は、その注目するサブカテゴリについて準備されたサンプル画像を用いて、個別物体識別器を形成する機械学習システムに応じた教師付き学習法に従って予め学習される。
したがって、個別物体識別器は、対応するサブカテゴリに属する物体のみを認識対象とする。そのため、正しいサブカテゴリが選択されていれば、個別物体識別器による物体の認識精度は、汎用物体識別器による物体の認識精度よりも高くなる。
また、個別認識部26は、未検査区間に含まれる複数のピクチャの中から選択した1枚以上のピクチャについてのみ、物体を認識してもよい。物体が認識されるピクチャは、例えば、10〜30ピクチャ当たり1枚であってもよい。
先ず、処理部13の検査区間設定部21は、対象となる動画像に検査区間を設定する(ステップS101)。
その後、処理部13は、画像認識処理を終了する。
さらに他の変形例によれば、動画像中の各ピクチャに、そのピクチャに写っている場所の位置情報が付与されている場合、区間設定部は、予め指定した基準位置から所定の距離範囲内に位置する場所に対応するピクチャを検査区間に設定してもよい。なお、所定の距離範囲は、例えば、公園、駅といった一つの施設に相当する範囲、例えば、10m〜1kmに設定される。
(付記1)
動画像中に、当該動画像の全区間よりも短く、かつ少なくとも1枚のピクチャを含む第1の区間を設定する区間設定部と、
所定のカテゴリに属する複数の物体のそれぞれについての特徴を表す少なくとも一つの第1の特徴量を入力とし、当該入力された第1の特徴量に応じて前記複数の物体のうちの何れかを認識結果として出力する汎用物体識別器に、前記第1の区間に含まれる少なくとも一枚のピクチャから抽出された前記少なくとも一つの第1の特徴量を入力することにより、前記第1の区間に含まれるピクチャに写っている物体を認識する第1の物体認識部と、
前記複数の物体のうちの認識された物体を表す情報を入力とし、当該入力された情報に応じて前記所定のカテゴリに属する物体のうちの一部を含む複数のサブカテゴリのうちの一つを選択するカテゴリ識別器に、前記第1の区間について認識された物体を表す情報を入力することにより、前記複数のサブカテゴリの中から前記動画像に写っている物体が属すると推定されるサブカテゴリを選択する選択部と、
前記選択されたサブカテゴリに属する少なくとも一つの物体のそれぞれについての特徴を表す少なくとも一つの第2の特徴量を入力とし、当該入力された第2の特徴量に応じて前記選択されたサブカテゴリに属する少なくとも一つの物体のうちの何れかを認識結果として出力する個別物体識別器に、前記動画像中の前記第1の区間以外の第2の区間に含まれる少なくとも一枚のピクチャから抽出された前記少なくとも一つの第2の特徴量を入力することにより、前記第2の区間に含まれるピクチャに写っている物体を認識する第2の物体認識部と、
を有する画像認識装置。
(付記2)
前記動画像に含まれる各ピクチャに写っている物体が前記選択されたサブカテゴリに属する確信度、及び前記第2の区間における出現物体数の予測値のうちの少なくとも一方に基づいて、前記第1の区間の適切さを表す評価値を求める評価値算出部と、
前記評価値に基づいて前記第1の区間が適切か否かを判定する判定部とをさらに有し、
前記判定部が前記第1の区間が適切でないと判定した場合、前記区間設定部は、前記第1の区間を変更または延長し、一方、前記判定部が前記第1の区間が適切であると判定した場合、前記第2の物体認識部は、前記個別物体識別器に、前記第2の区間に含まれる少なくとも一枚のピクチャから抽出された前記少なくとも一つの第2の特徴量を入力することにより前記第2の区間に含まれるピクチャに写っている物体を認識する、付記1に記載の画像認識装置。
(付記3)
前記評価値算出部は、前記確信度が高いほど、あるいは、前記出現物体数の予測値が多いほど前記評価値を高くする、付記2に記載の画像認識装置。
(付記4)
前記判定部は、前記評価値が、前記個別物体識別器を用いて前記第2の区間に含まれるピクチャに写っている物体を認識したときの認識精度が、前記汎用物体識別器を用いて前記第2の区間に含まれるピクチャに写っている物体を認識したときの認識精度より高くなる値となる場合、前記第1の区間が適切であると判定する、付記2または3に記載の画像認識装置。
(付記5)
前記第2の物体認識部は、前記第1の区間に含まれる少なくとも一枚のピクチャに写っている物体を、前記個別物体識別器を用いて認識する、付記1〜4の何れか一項に記載の画像認識装置。
(付記6)
動画像中に、当該動画像の全区間よりも短く、かつ少なくとも1枚のピクチャを含む第1の区間を設定し、
所定のカテゴリに属する複数の物体のそれぞれについての特徴を表す少なくとも一つの第1の特徴量を入力とし、当該入力された第1の特徴量に応じて前記複数の物体のうちの何れかを認識結果として出力する汎用物体識別器に、前記第1の区間に含まれる少なくとも一枚のピクチャから抽出された前記少なくとも一つの第1の特徴量を入力することにより、前記第1の区間に含まれるピクチャに写っている物体を認識し、
前記複数の物体のうちの認識された物体を表す情報を入力とし、当該入力された情報に応じて前記所定のカテゴリに属する物体のうちの一部を含む複数のサブカテゴリのうちの一つを選択するカテゴリ識別器に、前記第1の区間について認識された物体を表す情報を入力することにより、前記複数のサブカテゴリの中から前記動画像に写っている物体が属すると推定されるサブカテゴリを選択し、
前記選択されたサブカテゴリに属する少なくとも一つの物体のそれぞれについての特徴を表す少なくとも一つの第2の特徴量を入力とし、当該入力された第2の特徴量に応じて前記選択されたサブカテゴリに属する少なくとも一つの物体のうちの何れかを認識結果として出力する個別物体識別器に、前記動画像中の前記第1の区間以外の第2の区間に含まれる少なくとも一枚のピクチャから抽出された前記少なくとも一つの第2の特徴量を入力することにより、前記第2の区間に含まれるピクチャに写っている物体を認識する、
ことを含む画像認識方法。
(付記7)
動画像中に、当該動画像の全区間よりも短く、かつ少なくとも1枚のピクチャを含む第1の区間を設定し、
所定のカテゴリに属する複数の物体のそれぞれについての特徴を表す少なくとも一つの第1の特徴量を入力とし、当該入力された第1の特徴量に応じて前記複数の物体のうちの何れかを認識結果として出力する汎用物体識別器に、前記第1の区間に含まれる少なくとも一枚のピクチャから抽出された前記少なくとも一つの第1の特徴量を入力することにより、前記第1の区間に含まれるピクチャに写っている物体を認識し、
前記複数の物体のうちの認識された物体を表す情報を入力とし、当該入力された情報に応じて前記所定のカテゴリに属する物体のうちの一部を含む複数のサブカテゴリのうちの一つを選択するカテゴリ識別器に、前記第1の区間について認識された物体を表す情報を入力することにより、前記複数のサブカテゴリの中から前記動画像に写っている物体が属すると推定されるサブカテゴリを選択し、
前記選択されたサブカテゴリに属する少なくとも一つの物体のそれぞれについての特徴を表す少なくとも一つの第2の特徴量を入力とし、当該入力された第2の特徴量に応じて前記選択されたサブカテゴリに属する少なくとも一つの物体のうちの何れかを認識結果として出力する個別物体識別器に、前記動画像中の前記第1の区間以外の第2の区間に含まれる少なくとも一枚のピクチャから抽出された前記少なくとも一つの第2の特徴量を入力することにより、前記第2の区間に含まれるピクチャに写っている物体を認識する、
ことをコンピュータに実行させる画像認識用コンピュータプログラム。
11 インターフェース部
12 記憶部
13 処理部
14 記録媒体アクセス装置
15 記録媒体
21 検査区間設定部
22 汎用認識部
23 選択部
24 評価値算出部
25 判定部
26 個別認識部
Claims (5)
- 動画像中に、当該動画像の全区間よりも短く、かつ少なくとも1枚のピクチャを含む第1の区間を設定する区間設定部と、
所定のカテゴリに属する複数の物体のそれぞれについての特徴を表す少なくとも一つの第1の特徴量を入力とし、当該入力された第1の特徴量に応じて前記複数の物体のうちの何れかを認識結果として出力する汎用物体識別器に、前記第1の区間に含まれる少なくとも一枚のピクチャから抽出された前記少なくとも一つの第1の特徴量を入力することにより、前記第1の区間に含まれるピクチャに写っている物体を認識する第1の物体認識部と、
前記複数の物体のうちの認識された物体を表す情報を入力とし、当該入力された情報に応じて前記所定のカテゴリに属する物体のうちの一部を含む複数のサブカテゴリのうちの一つを選択するカテゴリ識別器に、前記第1の区間について認識された物体を表す情報を入力することにより、前記複数のサブカテゴリの中から前記動画像に写っている物体が属すると推定されるサブカテゴリを選択する選択部と、
前記選択されたサブカテゴリに属する少なくとも一つの物体のそれぞれについての特徴を表す少なくとも一つの第2の特徴量を入力とし、当該入力された第2の特徴量に応じて前記選択されたサブカテゴリに属する少なくとも一つの物体のうちの何れかを認識結果として出力する個別物体識別器に、前記動画像中の前記第1の区間以外の第2の区間に含まれる少なくとも一枚のピクチャから抽出された前記少なくとも一つの第2の特徴量を入力することにより、前記第2の区間に含まれるピクチャに写っている物体を認識する第2の物体認識部と、
前記動画像に含まれる各ピクチャに写っている物体が前記選択されたサブカテゴリに属する確信度、及び前記第2の区間における出現物体数の予測値のうちの少なくとも一方に基づいて、前記第1の区間の適切さを表す評価値を求める評価値算出部と、
前記評価値に基づいて前記第1の区間が適切か否かを判定する判定部と、
を有し、
前記判定部が前記第1の区間が適切でないと判定した場合、前記区間設定部は、前記第1の区間を変更または延長し、一方、前記判定部が前記第1の区間が適切であると判定した場合、前記第2の物体認識部は、前記個別物体識別器に、前記第2の区間に含まれる少なくとも一枚のピクチャから抽出された前記少なくとも一つの第2の特徴量を入力することにより前記第2の区間に含まれるピクチャに写っている物体を認識する画像認識装置。 - 前記評価値算出部は、前記確信度が高いほど、あるいは、前記出現物体数の予測値が多いほど前記評価値を高くする、請求項1に記載の画像認識装置。
- 前記判定部は、前記評価値が、前記個別物体識別器を用いて前記第2の区間に含まれるピクチャに写っている物体を認識したときの認識精度が、前記汎用物体識別器を用いて前記第2の区間に含まれるピクチャに写っている物体を認識したときの認識精度より高くなる値となる場合、前記第1の区間が適切であると判定する、請求項1または2に記載の画像認識装置。
- 動画像中に、当該動画像の全区間よりも短く、かつ少なくとも1枚のピクチャを含む第1の区間を設定し、
所定のカテゴリに属する複数の物体のそれぞれについての特徴を表す少なくとも一つの第1の特徴量を入力とし、当該入力された第1の特徴量に応じて前記複数の物体のうちの何れかを認識結果として出力する汎用物体識別器に、前記第1の区間に含まれる少なくとも一枚のピクチャから抽出された前記少なくとも一つの第1の特徴量を入力することにより、前記第1の区間に含まれるピクチャに写っている物体を認識し、
前記複数の物体のうちの認識された物体を表す情報を入力とし、当該入力された情報に応じて前記所定のカテゴリに属する物体のうちの一部を含む複数のサブカテゴリのうちの一つを選択するカテゴリ識別器に、前記第1の区間について認識された物体を表す情報を入力することにより、前記複数のサブカテゴリの中から前記動画像に写っている物体が属すると推定されるサブカテゴリを選択し、
前記動画像に含まれる各ピクチャに写っている物体が前記選択されたサブカテゴリに属する確信度、及び前記動画像中の前記第1の区間以外の第2の区間における出現物体数の予測値のうちの少なくとも一方に基づいて、前記第1の区間の適切さを表す評価値を求め、
前記評価値に基づいて前記第1の区間が適切か否かを判定し、
前記第1の区間が適切でないと判定された場合、前記第1の区間を変更または延長し、
前記第1の区間が適切であると判定された場合、前記選択されたサブカテゴリに属する少なくとも一つの物体のそれぞれについての特徴を表す少なくとも一つの第2の特徴量を入力とし、当該入力された第2の特徴量に応じて前記選択されたサブカテゴリに属する少なくとも一つの物体のうちの何れかを認識結果として出力する個別物体識別器に、前記第2の区間に含まれる少なくとも一枚のピクチャから抽出された前記少なくとも一つの第2の特徴量を入力することにより、前記第2の区間に含まれるピクチャに写っている物体を認識する、
ことを含む画像認識方法。 - 動画像中に、当該動画像の全区間よりも短く、かつ少なくとも1枚のピクチャを含む第1の区間を設定し、
所定のカテゴリに属する複数の物体のそれぞれについての特徴を表す少なくとも一つの第1の特徴量を入力とし、当該入力された第1の特徴量に応じて前記複数の物体のうちの何れかを認識結果として出力する汎用物体識別器に、前記第1の区間に含まれる少なくとも一枚のピクチャから抽出された前記少なくとも一つの第1の特徴量を入力することにより、前記第1の区間に含まれるピクチャに写っている物体を認識し、
前記複数の物体のうちの認識された物体を表す情報を入力とし、当該入力された情報に応じて前記所定のカテゴリに属する物体のうちの一部を含む複数のサブカテゴリのうちの一つを選択するカテゴリ識別器に、前記第1の区間について認識された物体を表す情報を入力することにより、前記複数のサブカテゴリの中から前記動画像に写っている物体が属すると推定されるサブカテゴリを選択し、
前記動画像に含まれる各ピクチャに写っている物体が前記選択されたサブカテゴリに属する確信度、及び前記動画像中の前記第1の区間以外の第2の区間における出現物体数の予測値のうちの少なくとも一方に基づいて、前記第1の区間の適切さを表す評価値を求め、
前記評価値に基づいて前記第1の区間が適切か否かを判定し、
前記第1の区間が適切でないと判定された場合、前記第1の区間を変更または延長し、
前記第1の区間が適切であると判定された場合、前記選択されたサブカテゴリに属する少なくとも一つの物体のそれぞれについての特徴を表す少なくとも一つの第2の特徴量を入力とし、当該入力された第2の特徴量に応じて前記選択されたサブカテゴリに属する少なくとも一つの物体のうちの何れかを認識結果として出力する個別物体識別器に、前記第2の区間に含まれる少なくとも一枚のピクチャから抽出された前記少なくとも一つの第2の特徴量を入力することにより、前記第2の区間に含まれるピクチャに写っている物体を認識する、
ことをコンピュータに実行させる画像認識用コンピュータプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011146077A JP5786495B2 (ja) | 2011-06-30 | 2011-06-30 | 画像認識装置、画像認識方法及び画像認識用コンピュータプログラム |
US13/471,886 US8934724B2 (en) | 2011-06-30 | 2012-05-15 | Image recognition device, image recognizing method, storage medium that stores computer program for image recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011146077A JP5786495B2 (ja) | 2011-06-30 | 2011-06-30 | 画像認識装置、画像認識方法及び画像認識用コンピュータプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013012163A JP2013012163A (ja) | 2013-01-17 |
JP5786495B2 true JP5786495B2 (ja) | 2015-09-30 |
Family
ID=47390765
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011146077A Active JP5786495B2 (ja) | 2011-06-30 | 2011-06-30 | 画像認識装置、画像認識方法及び画像認識用コンピュータプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US8934724B2 (ja) |
JP (1) | JP5786495B2 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140040474A (ko) * | 2012-09-26 | 2014-04-03 | 한국전자통신연구원 | 비디오 요약 장치, 방법 및 시스템 |
JP2014127188A (ja) * | 2012-12-27 | 2014-07-07 | Toshiba Corp | 整形装置及び方法 |
JP6088381B2 (ja) * | 2013-08-02 | 2017-03-01 | 株式会社日立国際電気 | 物体検索システム |
WO2015030689A2 (en) * | 2013-08-27 | 2015-03-05 | Altun Halis | A tool and method for robust, scale and orientation invariant object detection and classification |
TWI533182B (zh) * | 2014-11-07 | 2016-05-11 | 緯創資通股份有限公司 | 光學觸控模組及其觸控偵測方法 |
EP3196898B1 (en) * | 2014-11-21 | 2019-04-03 | Fujikura Ltd. | Superconducting coil |
CN104598566B (zh) * | 2015-01-09 | 2018-01-09 | 四川九洲电器集团有限责任公司 | 运动目标的关联规则分析方法及系统 |
JP2017041022A (ja) * | 2015-08-18 | 2017-02-23 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
WO2017104272A1 (ja) * | 2015-12-18 | 2017-06-22 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP6977345B2 (ja) * | 2017-07-10 | 2021-12-08 | コニカミノルタ株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
KR102402513B1 (ko) | 2017-09-15 | 2022-05-27 | 삼성전자주식회사 | 컨텐트를 실행하는 방법 및 장치 |
US10733758B2 (en) | 2018-10-30 | 2020-08-04 | Rapsodo Pte. Ltd. | Learning-based ground position estimation |
WO2020235268A1 (ja) | 2019-05-23 | 2020-11-26 | コニカミノルタ株式会社 | 物体検出装置、物体検出システム、物体検出方法、プログラムおよび記録媒体 |
US20220207863A1 (en) | 2019-05-23 | 2022-06-30 | Konica Minolta, Inc. | Object detection device, object detection method, program, and recording medium |
US11443277B2 (en) * | 2020-03-26 | 2022-09-13 | Fractal Analytics Private Limited | System and method for identifying object information in image or video data |
CN111626202B (zh) | 2020-05-27 | 2023-08-29 | 北京百度网讯科技有限公司 | 用于识别视频的方法及装置 |
CN114005079B (zh) * | 2021-12-31 | 2022-04-19 | 北京金茂教育科技有限公司 | 多媒体流处理方法及装置 |
US11756288B2 (en) * | 2022-01-05 | 2023-09-12 | Baidu Usa Llc | Image processing method and apparatus, electronic device and storage medium |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3579387B2 (ja) | 2001-10-26 | 2004-10-20 | 株式会社東芝 | デジタル放送受信装置および電子番組表の表示制御装置 |
JP2004302644A (ja) * | 2003-03-28 | 2004-10-28 | Sony Corp | 顔識別装置、顔識別方法、記録媒体、及びロボット装置 |
JP4476744B2 (ja) * | 2003-09-02 | 2010-06-09 | 富士フイルム株式会社 | 撮像システム、及びプログラム |
JP4531501B2 (ja) | 2003-09-29 | 2010-08-25 | 富士フイルム株式会社 | 照合システム及びそのプログラム |
JP4671640B2 (ja) | 2004-08-12 | 2011-04-20 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 映像ジャンル判定方法、映像ジャンル判定装置及び映像ジャンル判定プログラム |
US7646922B2 (en) * | 2005-12-30 | 2010-01-12 | Honeywell International Inc. | Object classification in video images |
US8311344B2 (en) * | 2008-02-15 | 2012-11-13 | Digitalsmiths, Inc. | Systems and methods for semantically classifying shots in video |
JP5322550B2 (ja) * | 2008-09-18 | 2013-10-23 | 三菱電機株式会社 | 番組推奨装置 |
JP2010287178A (ja) * | 2009-06-15 | 2010-12-24 | Sharp Corp | 画像処理装置、画像読取装置、複合機、画像処理方法、プログラム、記録媒体 |
US8644624B2 (en) * | 2009-07-28 | 2014-02-04 | Samsung Electronics Co., Ltd. | System and method for indoor-outdoor scene classification |
CA2817103C (en) * | 2010-11-11 | 2016-04-19 | Google Inc. | Learning tags for video annotation using latent subtags |
-
2011
- 2011-06-30 JP JP2011146077A patent/JP5786495B2/ja active Active
-
2012
- 2012-05-15 US US13/471,886 patent/US8934724B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20130004081A1 (en) | 2013-01-03 |
JP2013012163A (ja) | 2013-01-17 |
US8934724B2 (en) | 2015-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5786495B2 (ja) | 画像認識装置、画像認識方法及び画像認識用コンピュータプログラム | |
US11113587B2 (en) | System and method for appearance search | |
CN105469029B (zh) | 用于对象再识别的系统和方法 | |
US10846554B2 (en) | Hash-based appearance search | |
KR101452562B1 (ko) | 비디오 이미지에서 텍스트를 검출하는 방법 | |
JP4991923B2 (ja) | 画像処理方法及び装置 | |
US20140056473A1 (en) | Object detection apparatus and control method thereof, and storage medium | |
US8831357B2 (en) | System and method for image and video search, indexing and object classification | |
JP2003016448A (ja) | 前景/背景セグメント化を用いた画像のイベント・クラスタリング | |
US20230394794A1 (en) | Information processing device, information processing method, and program recording medium | |
Shi et al. | Graph-based background suppression for scene text detection | |
JP5796107B2 (ja) | テキスト検出の方法及び装置 | |
AU2019303730B2 (en) | Hash-based appearance search | |
CN116524377A (zh) | 一种基于tir图像的无人机目标跟踪识别方法 | |
EP4332910A1 (en) | Behavior detection method, electronic device, and computer readable storage medium | |
CN112907634B (zh) | 基于无人机的车辆跟踪方法 | |
CN112380970B (zh) | 基于局部区域搜索的视频目标检测方法 | |
Zhuge et al. | Robust video text detection with morphological filtering enhanced MSER | |
Tong et al. | Shot classification in broadcast soccer video | |
Park et al. | Extraction of visual information in basketball broadcasting video for event segmentation system | |
CN112836578B (zh) | 一种基于表观特征的货架缺货检测方法 | |
Awoke et al. | Ethiopic and latin multilingual text detection from images using hybrid techniques | |
CN115131582A (zh) | 基于形态学识别模板匹配的目标识别方法、装置及介质 | |
Strat et al. | Bags of Trajectory Words for video indexing | |
CN113449629A (zh) | 基于行车视频的车道线虚实识别装置、方法、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140304 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150127 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150407 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150608 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20150616 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150630 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150713 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5786495 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |