JPWO2020008576A1 - 判定方法、判定プログラムおよび情報処理装置 - Google Patents

判定方法、判定プログラムおよび情報処理装置 Download PDF

Info

Publication number
JPWO2020008576A1
JPWO2020008576A1 JP2020528613A JP2020528613A JPWO2020008576A1 JP WO2020008576 A1 JPWO2020008576 A1 JP WO2020008576A1 JP 2020528613 A JP2020528613 A JP 2020528613A JP 2020528613 A JP2020528613 A JP 2020528613A JP WO2020008576 A1 JPWO2020008576 A1 JP WO2020008576A1
Authority
JP
Japan
Prior art keywords
information
subject
acquired
contour
text information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020528613A
Other languages
English (en)
Other versions
JP7099526B2 (ja
Inventor
片岡 正弘
正弘 片岡
将夫 出内
将夫 出内
奥村 仁
仁 奥村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2020008576A1 publication Critical patent/JPWO2020008576A1/ja
Application granted granted Critical
Publication of JP7099526B2 publication Critical patent/JP7099526B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

情報処理装置(100)は、撮影装置により撮影された撮影画像を取得すると、物体の複数の向きに応じた該物体の複数の輪郭の形状にそれぞれ対応付けて、複数の向きを示す複数の向き情報を記憶する記憶部を参照して、複数の輪郭の形状のうち、撮影画像に含まれる被写体の輪郭の形状に対応する輪郭の形状に対応付けられた向き情報を取得する処理を繰り返す。情報処理装置(100)は、複数の向き情報の関係に基づき、被写体の動きに関する判定を行う。

Description

本発明は、判定方法等に関する。
従来、カメラで物体を撮影し、物体の動きをもとに、その行動パターンを検出するための各種の技術がある。たとえば、従来技術には、被写体の画像に形状モデルを当てはめ、パーツ単位での代表点位置の時系列データを抽出し、抽出した時系列データと、モデルデータとの照合を行うことで、動作カテゴリを特定するものがある。また、画像から人物の行動パターンを検出する従来技術として、HMM(Hidden Markov Model)を用い、標準的な行動の確率モデルを自動的に習得するものがある。
特開2010−102595号公報 特開2005−202653号公報
しかしながら、上述した従来技術では、撮影画像に含まれる被写体の動き又は被写体のいずれかの部位の状態に関する判定を容易に行うことができないという問題がある。
たとえば、画像から抽出されるエッジには様々な形状のエッジが含まれるため、被写体の画像に特定の形状モデルを当てはめることが難しく、動作カテゴリを容易に判定することができない。
1つの側面では、本発明は、撮影画像に含まれる被写体の動き又は被写体のいずれかの部位の状態に関する判定時間を短縮できる判定方法、判定プログラムおよび情報処理装置を提供することを目的とする。
第1の案では、コンピュータは、次の処理を実行する。コンピュータは、撮影装置により撮影された第1の撮影画像を取得すると、物体の複数の向きに応じた該物体の複数の輪郭の形状にそれぞれ対応付けて、複数の向きを示す複数の向き情報を記憶する記憶部を参照する。コンピュータは、複数の輪郭の形状のうち、取得した第1の撮影画像に含まれる被写体の輪郭の形状に対応する輪郭の形状に対応付けられた第1の向き情報を取得する。コンピュータは、撮影装置により新たに撮影された第2の撮影画像を取得すると、記憶部を参照する。コンピュータは、複数の輪郭の形状のうち、取得した第2の撮影画像に含まれる被写体の輪郭に対応する輪郭の形状に対応付けられた第2の向き情報を取得する。コンピュータは、取得した第1の向き情報及び第2の向き情報の関係に基づき、被写体の動きに関する判定を行う。
撮影画像に含まれる被写体の動き又は被写体のいずれかの部位の状態に関する判定時間を短縮できる。
図1は、本実施例に係る情報処理装置の処理の一例を説明するための図である。 図2は、アウトラインとPostScriptデータとの関係を説明するための図である。 図3は、本実施例に係る情報処理装置の構成を示す機能ブロック図である。 図4は、本実施例に係る画像バッファのデータ構造の一例を示す図である。 図5は、本実施例に係るアウトラインHMMのデータ構造の一例を示す図である。 図6は、ある識別情報およびある角度に対応するPostScriptデータの一例を示す図である。 図7は、本実施例に係る中間データ蓄積テーブルのデータ構造の一例を示す図である。 図8は、本実施例に係る動作判定テーブルのデータ構造の一例を示す図である。 図9は、本実施例に係るイベント判定テーブルのデータ構造の一例を示す図である。 図10は、本実施例に係るセンテンステンプレートの一例を示す図である。 図11は、重畳画像データの一例を示す図である。 図12は、本実施例に係る情報処理装置の処理手順を示すフローチャートである。 図13は、情報処理装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。
以下に、本発明にかかる判定方法、判定プログラムおよび情報処理装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
図1は、本実施例に係る情報処理装置の処理の一例を説明するための図である。情報処理装置は、カメラから複数の撮影画像データ10a,10b,10c,10dを順に取得する。以下の説明では、撮影画像データ10a〜10dをまとめて適宜、「撮影画像データ10」と表記する。
情報処理装置は、撮影画像データ10と、アウトラインHMM142とを比較して、撮影画像データ10毎に、中間データ15a〜15dを生成する。中間データ15aは、撮影画像データ10aから生成されるデータである。中間データ15bは、撮影画像データ10bから生成されるデータである。中間データ15cは、撮影画像データ10cから生成されるデータである。中間データ15dは、撮影画像データ10dから生成されるデータである。以下の説明では、中間データ15a〜15dをまとめて適宜、「中間データ15」と表記する。
中間データ15は、向き情報と、属性情報と、画像情報とを含む。向き情報は、被写体の向きの情報を示す。属性情報は、被写体に関する説明を記述したテキスト情報である。画像情報は、被写体に含まれる各パーツの画像情報である。被写体に含まれる各パーツは、ヘッドランプ、ウインカー、ボンネット等に対応する。
アウトラインHMM142は、物体の向き情報と、物体(全体)の輪郭の形状と、物体の各パーツの情報とを有する。パーツの情報は、物体の輪郭の形状内に含まれる各パーツの形状、位置等の情報が含まれる。以下の説明では、物体の輪郭の形状を「アウトライン」と表記する。
ここで、アウトライン及びパーツの情報(形状)は、PostScriptデータにより示される。図2は、アウトラインとPostScriptデータとの関係を説明するための図である。図2では、一例として、アウトライン5に対応するPostScriptデータ6を示す。PostScriptデータ6により、アウトライン5を描画することができる。
アウトライン5は、直線5AB、曲線5BC、直線5CD、直線5DAからなる。直線5ABは、制御点Aと制御点Bとを結ぶ直線である。直線5CDは、制御点Cと制御点Dとを結ぶ直線である。直線5DAは、制御点Dと制御点Aとを結ぶ直線である。曲線5BCは、制御点Bと制御点Cとを結ぶ曲線であり、制御点α,βおよび制御点(端点)B,Cにより、曲線の形状が決定される。
アウトライン5の制御点A,B,C,D、制御点α,βを基にして、アウトライン5のPostScriptデータ6が生成される。PostScriptデータ6に含まれる「Xa,Ya」は、制御点Aの座標を示すものである。「Xb,Yb」は、制御点Bの座標を示すものである。「Xc,Yc」は、制御点Cの座標を示すものである。「Xd,Yd」は、制御点Dの座標を示すものである。「Xα,Yα」は、制御点αの座標を示すものである。「Xβ,Yβ」は、制御点βの座標を示すものである。PostScriptデータ6には、各種のコマンド「newpath moveto lineto curveto stroke showpage」が含まれる。
また、PostScriptデータ6には、属性情報を格納する属性情報領域6aが設定されている。属性情報領域6aには、PostScriptデータ6に描画される物体あるいは物体の部品を説明するテキスト情報が予め格納されている。たとえば、PostScriptデータで描画される輪郭の形状が、スポーツカーの輪郭の形状である場合には、属性情報領域6aには、「スポーツカー」なるテキスト情報が格納される。PostScriptデータで描画される輪郭の形状が、スポーツカーの右ウインカーの輪郭の形状である場合には、属性情報領域6aには、「右ウインカー」なるテキスト情報が格納される。
続いて、情報処理装置が、撮影画像データ10aと、アウトラインHMM142とを比較して、中間データ15aを生成する処理について説明する。情報処理装置は、撮影画像データ10aから被写体の外郭(輪郭)の形状を抽出し、抽出した外郭の形状とヒットするアウトライン20aを特定する。情報処理装置は、ヒットしたアウトライン20aに対応する向き情報(0°/0:00)、属性情報、画像情報を取得する。なお、アウトラインHMM142には、向き情報(30°/1:00)に対応するアウトライン20b、向き情報(45°/1:30)に対応するアウトライン20c、向き情報(90°/3:00)に対応するアウトライン20d等が含まれる。
ここで、情報処理装置は、属性情報として、アウトライン20aに対応するPostScriptデータの属性情報領域に格納されたテキスト情報と、パーツのエッジに対応するPostScriptデータの属性情報領域に格納されたテキスト情報とを取得する。
情報処理装置は、画像情報として、パーツのエッジに対応する画像領域を、撮影画像データ10a上から特定し、特定した画像領域の部分的な画像情報を取得する。
情報処理装置は、撮影画像データ10b〜10dに関しても、上記の処理を実行することで、中間データ15b〜15dを生成する。
続いて、情報処理装置は、中間データ15a〜15dと、動作判定テーブル144およびイベント判定テーブル145とを基にして、センテンス情報30を生成する。
動作判定テーブル144は、被写体の動きに関する判定を行う場合に用いるテーブルである。動作判定テーブル144は、角度の遷移パターンと動作の種別とを対応付ける。情報処理装置は、中間データ15a〜15dと、動作判定テーブル144とを比較して、被写体の動作の種別を判定する。たとえば、中間データ15a〜15dの向きの情報(角度)が右回りに変化している場合には、被写体の動作の種別は、「右折」となる。
イベント判定テーブル145は、被写体に発生するイベントを判定する場合に用いるテーブルである。イベント判定テーブル145は、一定期間における画像情報の変化のパターンと、イベントとを対応付ける。情報処理装置は、中間データ15a〜15dと、イベント判定テーブル145とを比較して、イベントを判定する。たとえば、中間データ15の画像情報に含まれる右ウインカーの画像情報の輝度が、一定期間毎に、閾値以上、閾値未満となる場合には、イベントは「右ウインカーが点灯」となる。
情報処理装置は、動作判定テーブル144を用いて判定した動作の種別、および、イベント判定テーブル145を用いて判定したイベントを、所定のテンプレートに設定することで、センテンス情報30を生成する。
上記のように、本実施例に係る情報処理装置は、アウトラインHMM142と、撮影画像データ10の被写体の輪郭形状とを比較して、被写体の向きの推移を特定し、被写体の動きに関する判定を行う。これによって、被写体の動きや部位の状態の判定を行う際に、複雑なアルゴリズムを用いる必要が無いため、撮影画像データに含まれる被写体の動きに関する判定時間を短縮することができる。
情報処理装置は、アウトラインHMM142と、撮影画像データ10の被写体の部分的な画像情報を抽出し、部分的な画像情報の推移と、イベント判定テーブル145とを比較してイベントを判定する。これにより、被写体のいずれかの部位の状態に関する判定を容易に行うことができる。
情報処理装置は、中間データ15と、動作判定テーブル144およびイベント判定テーブル145とを基にして、センテンス情報30を生成する。これにより、被写体の動きに関する判定、イベントの判定結果を、センテンス情報により記録または表示することができる。
次に、本実施例に係る情報処理装置の構成の一例について説明する。図3は、本実施例に係る情報処理装置の構成を示す機能ブロック図である。図3に示すように、この情報処理装置100は、カメラ105、通信部110、入力部120、表示部130、記憶部140、制御部150を有する。
カメラ105は、被写体を2つの異なる方向から同時に撮影するステレオカメラ(双眼カメラ)または、左右に可動可能な単眼カメラであり、視差により被写体のアウトラインを識別することができる。カメラ105は、第1の方向から撮影した第1撮影画像データと、第1の方向とは異なる第2の方向から撮影した第2撮影画像データとを、情報処理装置100に出力する。以下の説明では、適宜、第1撮影画像データと、第2撮影画像データとをまとめて「撮影画像データ」と表記する。
通信部110は、ネットワークを介して外部装置とデータ通信を実行する処理部である。通信部110は、通信装置の一例である。情報処理装置100は、ネットワークを介して、カメラ105に接続し、ネットワークを介して、撮影画像データを受信してもよい。
入力部120は、情報処理装置100に各種の情報を入力するための入力装置である。たとえば、入力部120は、キーボードやマウス、タッチパネル等に対応する。
表示部130は、制御部150から出力される各種の情報を表示するための表示装置である。たとえば、表示部130は、液晶ディスプレイやタッチパネル等に対応する。
記憶部140は、画像バッファ141、アウトラインHMM142、中間データ蓄積テーブル143を有する。記憶部140は、動作判定テーブル144、イベント判定テーブル145、センテンステンプレート146、センテンス蓄積テーブル147を有する。記憶部140は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。
画像バッファ141は、カメラ105に撮影された撮影画像データを格納するバッファである。図4は、本実施例に係る画像バッファのデータ構造の一例を示す図である。図4に示すように、画像バッファ141は、時刻と、撮影画像データとを対応付ける。時刻は、撮影画像データが撮影された時刻である。撮影画像データは、カメラ105に撮影された画像データである。
アウトラインHMM142は、物体の向き情報と、物体のアウトラインと、物体に含まれる各パーツの情報とを保持する情報である。図5は、本実施例に係るアウトラインHMMのデータ構造の一例を示す図である。図5に示すように、アウトラインHMM142は、識別情報と、角度(時刻表現による物体の向き)毎のPostScriptデータを有する。識別情報は、物体を一意に識別する情報である。なお、識別情報は、アウトラインHMM142の各レコードを識別する番号であってもよい。
PostScriptデータは、アウトラインを描画するためのPostScriptデータである。図6は、ある識別情報およびある角度に対応するPostScriptデータの一例を示す図である。このPostScriptデータ40は、複数のPostScriptデータ40a,40b,40c,40dを含む。図6では一例として、PostScriptデータ40a〜40dを示すが、PostScriptデータ40は、他のPostScriptデータを含んでいてもよい。
最上層のPostScriptデータ40aは、物体(全体)の輪郭のアウトラインを描画するためのPostScriptデータである。たとえば、PostScriptデータ40が、ある識別情報の角度「0°/0:00」のPostScriptデータである場合には、物体(全体)の輪郭のアウトラインは、図1で説明したアウトライン20aに対応する。PostScriptデータ40aには、属性情報領域41aが含まれる。この属性情報領域41aには、テキスト情報「スポーツカー」が格納されている。
PostScriptデータ40aの配下の各PostScriptデータ40b〜40dは、物体の輪郭内に含まれる各パーツのエッジを描画するためのPostScriptデータである。たとえば、PostScriptデータ40bは、物体の右ウインカーのエッジを描画するためのPostScriptデータである。PostScriptデータ40bには、属性情報領域41bが含まれる。この属性情報領域41bには、テキスト情報「右ウインカー」が格納されている。
PostScriptデータ40cは、物体の左ウインカーのエッジを描画するためのPostScriptデータである。PostScriptデータ40cには、属性情報領域41cが含まれる。この属性情報領域41cには、テキスト情報「左ウインカー」が格納されている。
PostScriptデータ40dは、物体の輪郭内の他のパーツのエッジを描画するためのPostScriptデータである。図示を省略するが、PostScriptデータ40dの属性領域情報にも、部品を説明するためのテキスト情報が含まれているものとする。
中間データ蓄積テーブル143は、中間データ15を蓄積するテーブルである。図7は、本実施例に係る中間データ蓄積テーブルのデータ構造の一例を示す図である。図7に示すように、この中間データ蓄積テーブル143は、時刻、識別情報、向き情報、属性情報、画像情報を対応付ける。時刻は、撮影画像データの撮影時刻を示す。識別情報は、被写体を一意に識別する情報である。向き情報は、被写体の向きを示す情報である。
属性情報は、撮影画像データのアウトラインにヒットした各PostScriptデータの各属性情報領域に格納されたテキスト情報である。画像情報は、各時刻における各パーツの部分的な画像情報である。たとえば、各パーツの部分的な画像情報は、被写体のボンネットの画像情報、被写体の右ウインカーの画像情報、被写体の左ウインカーの画像情報等である。
動作判定テーブル144は、被写体の動きに関する判定を行う場合に用いるテーブルである。図8は、本実施例に係る動作判定テーブルのデータ構造の一例を示す図である。図8に示すように、動作判定テーブル144は、角度遷移パターンと、動作種別とを対応付ける。
角度遷移パターン「所定期間、角度変化なし」である場合には、動作種別「停止」となる。角度遷移パターン「角度が右回りに変化」である場合には、動作種別「右折」となる。たとえば、角度が「0°、30°、45°、・・・」と変化するものは、右回りの変化である。角度遷移パターン「角度が左回りに変化」である場合には、動作種別「左折」となる。角度が「・・・90°、60°、45°、・・・」と変化するものは、左回りの変化である。
イベント判定テーブル145は、被写体に発生するイベントを判定する場合に用いるテーブルである。図9は、本実施例に係るイベント判定テーブルのデータ構造の一例を示す図である。図9に示すように、イベント判定テーブルは、パーツ名称と、画像パターンと、イベントとを対応付ける。パーツ名称は、被写体のパーツを特定する名称である。画像パターンは、パーツに対応する部分的な画像情報の変化のパターンを示すものである。イベントは、被写体に発生しているイベントを示すのである。
たとえば、パーツ名称「ヘッドライト」に対応する画像パターンが「一定期間、輝度が連続して閾値以上」である場合に、イベントが「ライト点灯」である旨が登録されている。パーツ名称「ヘッドライト」に対応する画像パターンが「一定期間、輝度が連続して閾値未満」である場合に、イベントが「ライト消灯」である旨が登録されている。
パーツ名称「右ウインカー」に対応する画像パターンが「一定期間毎に、輝度が閾値以上、閾値未満を繰り返す」である場合に、イベントが「右ウインカーが点灯」である旨が登録されている。パーツ名称「左ウインカー」に対応する画像パターンが「一定期間毎に、輝度が閾値以上、閾値未満を繰り返す」である場合に、イベントが「左ウインカーが点灯」である旨が登録されている。
パーツ名称「ブレーキランプ」に対応する画像パターンが「輝度が閾値以上」である場合に、イベントが「ブレーキ」である旨が登録されている。
センテンステンプレート146は、センテンス情報を生成するための各種のテンプレートを保持している。たとえば、動作判定テーブル144を基に判定される動作の種別のテキスト情報、イベント判定テーブル145を基に判定されるイベントのテキスト情報を、テンプレートに組み込むことで、センテンス情報が生成される。
センテンス蓄積テーブル147は、後述する制御部150により生成されるセンテンス情報を蓄積するテーブルである。
制御部150は、第1取得部151、第2取得部152、判定部153、生成部154、表示制御部155を有する。第1取得部151、第2取得部152は、取得部の一例である。制御部150は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などによって実現できる。また、制御部150は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジックによっても実現できる。
第1取得部151は、カメラ105から、撮影画像データを取得する処理部である。第1取得部151は、取得した撮影画像データを時刻と対応付けて、画像バッファ141に格納する。カメラ105は、撮影時に時刻情報を、撮影画像データに付与してもよいし、第1取得部151が、図示しないタイマから時刻の情報を取得してもよい。
第2取得部152は、画像バッファ141に格納された撮影画像データと、アウトラインHMM142とを基にして、中間データを生成し、生成した中間データを中間データ蓄積テーブル143に格納する処理部である。以下において、第2取得部152の処理の一例について説明する。
第2取得部152は、撮影画像データ(第1撮影画像データおよび第2撮影画像データ)を基にして、ステレオカメラの原理により、撮影画像上の被写体の輪郭形状を抽出する。第2取得部152は、輪郭形状を、被写体のアウトラインとして特定する。以下の説明では、撮影画像データから抽出した被写体のアウトラインを「画像アウトライン」と表記する。
第2取得部152は、アウトラインHMM142の各PostScriptデータについて、最上層のPostScriptデータを基にして、被写体(全体)の輪郭のアウトラインをそれぞれ描画する。第2取得部152は、描画した各アウトラインと、画像アウトラインとを比較して類似度を算出し、類似度が最大(あるいは、所定の類似度以上)となるアウトラインと、画像アウトラインとの組を判定する。
第2取得部152は、各PostScriptデータに基づき描画した各アウトラインと、画像アウトラインとの類似度をどのように算出してもよい。たとえば、第2取得部152は、アウトラインに囲まれる領域と、画像アウトラインに囲まれる領域との一致率を、類似度として算出してもよい。以下の説明では、画像アウトラインとの類似度が最大となるアウトラインを描画するために用いたPostScriptデータ「対象PostScriptデータ」と表記する。
第2取得部152が、中間データの向き情報を特定する処理について説明する。第2取得部152は、アウトラインHMM142に格納された対象PostScriptデータの位置を基にして、被写体の向き情報を特定する。たとえば、対象PostScriptデータが、図5に示したアウトラインHMM142の各PostScriptデータのうち、1行目、1列目のPostScriptデータである場合には、向き情報は「0°/0:00」となる。第2取得部152は、特定した向き情報を、中間データに格納する。
第2取得部152が、中間データの属性情報を抽出する処理について説明する。第2取得部152は、対象PostScriptデータの各階層の属性情報領域に格納されたテキスト情報を取得し、取得したテキスト情報を、中間データに格納する。たとえば、対象PostScriptデータが、図6に示すPostScriptデータ40である場合には、「スポーツカー」、「右ウインカー」、「左ウインカー」を抽出する。第2取得部152は、抽出した各テキスト情報が、被写体のアウトラインのPostScriptデータのテキスト情報であるか、パーツのPostScriptデータのテキスト情報であるかを示す情報を、各テキスト情報に付与する。
第2取得部152が、中間データの画像情報を抽出する処理について説明する。第2取得部152は、対象PostScriptデータに含まれるパーツのPostScriptデータを参照し、撮影画像データ上の各パーツの領域を特定する。第2取得部152は、パーツの領域に含まれる部分的な画像情報と、パーツ名称とを対応付けて、中間データに格納する。たとえば、パーツ名称は、パーツに対応するPostScriptデータの属性情報領域に格納されたテキスト情報とする。たとえば、パーツの領域に含まれる部分的な画像情報は、状態情報に対応する。
第2取得部152は、画像バッファ141に撮影画像データが格納される度に、上記処理を繰り返し実行することで、複数の中間データを生成する。第2取得部152は、時刻と、識別情報と、中間データの向き情報、属性情報、画像情報とを対応付けて、中間データ蓄積テーブル143に格納する。
判定部153は、中間データ蓄積テーブル143に蓄積された各中間データの向き情報と、動作判定テーブル144とを基にして、被写体の動きに関する判定を行う。また、判定部153は、中間データ蓄積テーブル143に蓄積された各中間データのと、イベント判定テーブル145とを基にして、被写体のパーツの状態(イベント)に関する判定を行う。判定部153は、判定結果を、生成部154に出力する。
判定部153が、被写体の動きに関する判定を行う処理について説明する。判定部153は、基準時刻から所定時間後までの各向き情報を、中間データ蓄積テーブル143から取得する。基準時刻は、予め指定される時刻であってもよいし、現在時刻から所定時間前の時刻であってもよい。
判定部153は、取得した向き情報を時系列にソートし、各向き情報に示される角度の遷移と、動作判定テーブル144の各角度遷移パターンとを比較して、該当する角度遷移パターンを判定する。判定部153は、判定した角度遷移パターンに対応する動作種別を判定する。判定部153は、判定した動作種別を、生成部154に出力する。
判定部153が、被写体のパーツの状態(イベント)に関する判定を行う処理について説明する。判定部153は、基準時刻から所定時間後までの各画像情報(パーツ毎の部分的な画像情報)を、中間データ蓄積テーブル143から取得する。取得した部分的な画像情報は、パーツ名称と対応付けられているものとする。
判定部153は、パーツ名称毎に、部分的な画像情報を分類し、分類した画像情報を時系列にソートする。判定部153は、パーツ名称毎に時系列にソートした各画像情報と、図9に示した、イベント判定テーブル145とを比較して、ヒットするイベントを特定する。
たとえば、判定部153は、パーツ名称「ヘッドライト」に対応する各画像情報を参照し、時系列に並んだ各画像情報の輝度が、一定期間、連続して閾値以上である場合には、イベントが「ライト点灯」であると判定する。判定部153は、パーツ名称「ヘッドライト」に対応する各画像情報を参照し、時系列に並んだ各画像情報の輝度が、一定期間、連続して閾値未満である場合には、イベントが「ライト消灯」であると判定する。
判定部153は、パーツ名称「右ウインカー」に対応する各画像情報を参照し、時系列に並んだ各画像情報の輝度が、一定期間毎に、閾値以上、閾値未満を繰り返す場合には、イベントが「右ウインカーが点灯」であると判定する。判定部153は、パーツ名称「左ウインカー」に対応する各画像情報を参照し、時系列に並んだ各画像情報の輝度が、一定期間毎に、閾値以上、閾値未満を繰り返す場合には、イベントが「左ウインカーが点灯」であると判定する。
判定部153は、パーツ名称「ブレーキランプ」に対応する各画像情報を参照し、時系列に並んだ各画像情報の輝度が、閾値以上である場合には、イベントが「ブレーキ」であると判定する。
また、判定部153は、最上層のPostScriptデータのテキスト情報(たとえば、スポーツカー)に対応する画像情報を参照し、パーツ名称「スポーツカー」に対応する色を判定してもよい。以下の説明では、最上層のPostScriptデータのテキスト情報(たとえば、スポーツカー)に対応する画像情報から判定される色を、「被写体色情報」と表記する。また、最上層のPostScriptデータのテキスト情報(たとえば、スポーツカー)を、「被写体名称」と表記する。
判定部153は、被写体名称、被写体色情報、動作種別、イベントの情報を、判定結果として、生成部154に出力する。
生成部154は、判定部153の判定結果と、センテンステンプレート146とを基にして、センテンス情報を生成する処理部である。生成部154は、生成したセンテンス情報を、センテンス蓄積テーブル147に格納する。
図10は、本実施例に係るセンテンステンプレートの一例を示す図である。たとえば、センテンステンプレート146は、複数の領域146a,146b,146c,146dと各領域をつなぐテキスト情報を有する。領域146aは、「被写体色情報(のテキスト)」を設定する領域である。領域146bは、「被写体名称」を設定する領域である。領域146cは、「イベントの情報(テキスト)」を設定する領域である。領域146dは、「動作種別」を設定する領域である。
たとえば、被写体色情報が「赤色」、被写体名称が「スポーツカー」、イベントの情報が「右ウインカーを点滅」、動作種別が「右折」とする。この場合には、生成部154は、センテンス情報「赤色のスポーツカーが右ウインカーを点滅させながら右折した。」を生成する。
表示制御部155は、画像バッファ141から撮影画像データを取得し、取得した撮影画像データに、センテンス蓄積テーブル147に蓄積されたセンテンス情報を重畳した重畳画像データを生成する。表示制御部155は、重畳画像データを、表示部130に出力して表示させる。表示制御部155は、重畳画像データを生成する場合に、被写体のいずれかのパーツの位置に、センテンス情報を重畳する。表示制御部155は、被写体のパーツの位置は、対象PostScriptデータを基にして、判定する。
なお、表示制御部155は、センテンス情報の一部を切り出して、重畳画像データを生成してもよい。図11は、重畳画像データの一例を示す図である。図11に示す例では、重畳画像データ35において、被写体の左ウインカーの位置に、テキスト情報「点滅」が重畳されている。
次に、本実施例に係る情報処理装置の処理手順の一例について説明する。図12は、本実施例に係る情報処理装置の処理手順を示すフローチャートである。図12に示すように、情報処理装置100の第1取得部151は、カメラ105から撮影画像データを取得し、画像バッファ141に格納する(ステップS101)。
情報処理装置100の第2取得部152は、被写体の画像アウトライン(アウトライン)を抽出する(ステップS102)。第2取得部152は、画像アウトラインとアウトラインHMMとを比較し、ヒットするPostScriptデータ(対象PostScriptデータ)を特定する(ステップS103)。
第2取得部152は、対象PostScriptデータを基にして、中間データを生成する(ステップS104)。第2取得部152は、中間データを中間データ蓄積テーブル143に登録する(ステップS105)。
情報処理装置100の判定部153は、中間データ蓄積テーブル143と、動作判定テーブル144とを基にして、動作種別を判定する(ステップS106)。判定部153は、中間データ蓄積テーブル143とイベント判定テーブル145とを基にして、イベントを判定する(ステップS107)。
情報処理装置100の生成部154は、判定部153の判定結果を基にして、センテンス情報を生成し、センテンス蓄積テーブル147に登録する(ステップS108)。情報処理装置100の表示制御部155は、センテンス情報と撮影画像データとを重畳した重畳画像データを生成し、表示部130に出力する(ステップS109)。
情報処理装置100は、処理を継続する場合には(ステップS110,Yes)、ステップS101に移行する。情報処理装置100は、処理を継続しない場合には(ステップS110,No)、処理を終了する。
次に、本実施例に係る情報処理装置100の効果について説明する。情報処理装置100は、撮影画像データから被写体のアウトラインを抽出し、抽出したアウトラインと、アウトラインHMM142とを比較することで、被写体の向き情報を特定する処理を繰り返し実行し、各向き情報の関係に基づき、被写体の動きに関する判定を行う。このように、情報処理装置100は、各アウトラインから特定される向き情報を基にして、動きに関する判定を行うため、被写体の動きに関する判定時間を短縮できる。
情報処理装置100は、対象PostScriptデータに設けられた各属性情報領域のテキスト情報を基にして、センテンス情報を生成する。このため、被写体を説明するためのセンテンス情報を容易に生成することができる。
情報処理装置100は、被写体のアウトラインと、アウトラインHMM142とを比較した結果から、撮影画像データ上の被写体の各パーツの位置を特定する。情報処理装置100は、各パーツの位置に対応する画像情報のパターンを基にして、イベントを判定する。これにより、被写体のいずれかの部位の状態に関する判定を容易に行うことができる。
情報処理装置100は、撮影画像データの被写体のパーツに対応する位置に、センテンス情報を重畳することを、重畳画像データを生成し、表示部130に出力して表示させる。これにより、被写体の部位に関する状態をユーザにわかりやすく通知することができる。
次に、上記実施例に示した情報処理装置100と同様の機能を実現するコンピュータのハードウェア構成の一例について説明する。図13は、情報処理装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。
図13に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、ユーザからのデータの入力を受け付ける入力装置202と、ディスプレイ203とを有する。また、コンピュータ200は、記憶媒体からプログラム等を読み取る読み取り装置204と、有線または無線ネットワークを介して、外部装置、カメラ105等との間でデータの授受を行うインタフェース装置205とを有する。コンピュータ200は、各種情報を一時記憶するRAM206と、ハードディスク装置207とを有する。そして、各装置201〜207は、バス208に接続される。
ハードディスク装置207は、第1取得プログラム207a、第2取得プログラム207b、判定プログラム207c、生成プログラム207d、表示制御プログラム207eを有する。CPU201は、第1取得プログラム207a、第2取得プログラム207b、判定プログラム207c、生成プログラム207d、表示制御プログラム207eを読み出してRAM206に展開する。
第1取得プログラム207aは、第1取得プロセス206aとして機能する。第2取得プログラム207bは、第2取得プロセス206bとして機能する。判定プログラム207cは、判定プロセス206cとして機能する。生成プログラム207dは、生成プロセス206dとして機能する。表示制御プログラム207eは、表示制御プロセス206eとして機能する。
第1取得プロセス206aの処理は、第1取得部151の処理に対応する。第2取得プロセス206bの処理は、第2取得部152の処理に対応する。判定プロセス206cの処理は、判定部153の処理に対応する。生成プロセス206dの処理は、生成部154の処理に対応する。表示制御プロセス206eの処理は、表示制御部155の処理に対応する。
なお、各プログラム207a〜207eについては、必ずしも最初からハードディスク装置207に記憶させておかなくてもよい。例えば、コンピュータ200に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ200が各プログラム207a〜207eを読み出して実行するようにしてもよい。
100 情報処理装置
105 カメラ
110 通信部
120 入力部
130 表示部
140 記憶部
141 画像バッファ
142 アウトラインHMM
143 中間データ蓄積テーブル
144 動作判定テーブル
145 イベント判定テーブル
146 センテンステンプレート
147 センテンス蓄積テーブル
150 制御部
151 第1取得部
152 第2取得部
153 判定部
154 生成部
155 表示制御部

Claims (21)

  1. コンピュータが実行する判定方法であって、
    撮影装置により撮影された第1の撮影画像を取得すると、物体の複数の向きに応じた該物体の複数の輪郭の形状にそれぞれ対応付けて、前記複数の向きを示す複数の向き情報を記憶する記憶部を参照して、前記複数の輪郭の形状のうち、取得した前記第1の撮影画像に含まれる被写体の輪郭の形状に対応する輪郭の形状に対応付けられた第1の向き情報を取得し、
    前記撮影装置により新たに撮影された第2の撮影画像を取得すると、前記記憶部を参照して、前記複数の輪郭の形状のうち、取得した前記第2の撮影画像に含まれる前記被写体の輪郭に対応する輪郭の形状に対応付けられた第2の向き情報を取得し、
    取得した前記第1の向き情報及び前記第2の向き情報の関係に基づき、前記被写体の動きに関する判定を行う、
    処理を実行することを特徴とする判定方法。
  2. 前記記憶部は、前記向き情報とテキスト情報とをそれぞれ対応付け、前記第1の向き情報に対応する第1のテキスト情報と、前記第2の向きの情報に対応する第2のテキスト情報を、前記記憶部から取得し、取得した前記第1のテキスト情報および前記第2のテキスト情報を基にして、前記被写体の動きを示すテキスト情報を生成する処理を更に実行することを特徴とする請求項1に記載の判定方法。
  3. 前記被写体の情報と、前記被写体の動きを示すテキスト情報とを対応付けて出力する処理を更に実行することを特徴とする請求項2に記載の判定方法。
  4. コンピュータが実行する判定方法であって、
    撮影装置により撮影された複数の撮影画像を取得し、
    取得した前記複数の撮影画像に基づき、前記複数の撮影画像に含まれる被写体のいずれかの部位の輪郭の形状を示す輪郭データと、前記いずれかの部位の状態に関する状態情報とを生成し、
    物体が有する複数の部位の属性情報を、それぞれ前記複数の部位の輪郭の形状を示す複数の輪郭データに対応付けて記憶する記憶部を参照して、前記複数の輪郭データに、生成した前記輪郭データに対応する輪郭データが含まれる場合、該輪郭データに対応付けられた属性情報を取得し、
    生成した前記状態情報と、取得した前記属性情報とに基づき、前記被写体の前記いずれかの部位の状態に関する判定を行う、
    処理を実行することを特徴とする判定方法。
  5. 前記属性情報は、被写体の部品を示すテキスト情報を含み、前記テキスト情報と、前記判定を行う処理の判定結果とを基にして、前記被写体の前記いずれかの部位の状態を示すテキスト情報を生成する処理を更に実行することを特徴とする請求項4に記載の判定方法。
  6. 前記複数の撮影画像の少なくともいずれかの撮影画像に、前記被写体の前記いずれかの部位の状態を示すテキスト情報を重畳した重畳画像を生成し、前記重畳画像を表示する処理を更に実行することを特徴とする請求項4に記載の判定方法。
  7. 前記重畳画像を生成する処理は、前記いずれかの撮影画像に含まれる前記いずれかの部位に対応する位置に、前記テキスト情報を重畳することで重畳画像を生成することを特徴とする請求項6に記載の判定方法。
  8. 撮影装置により撮影された第1の撮影画像を取得すると、物体の複数の向きに応じた該物体の複数の輪郭の形状にそれぞれ対応付けて、前記複数の向きを示す複数の向き情報を記憶する記憶部を参照して、前記複数の輪郭の形状のうち、取得した前記第1の撮影画像に含まれる被写体の輪郭の形状に対応する輪郭の形状に対応付けられた第1の向き情報を取得し、
    前記撮影装置により新たに撮影された第2の撮影画像を取得すると、前記記憶部を参照して、前記複数の輪郭の形状のうち、取得した前記第2の撮影画像に含まれる前記被写体の輪郭に対応する輪郭の形状に対応付けられた第2の向き情報を取得し、
    取得した前記第1の向き情報及び前記第2の向き情報の関係に基づき、前記被写体の動きに関する判定を行う、
    処理をコンピュータに実行させることを特徴とする判定プログラム。
  9. 前記記憶部は、前記向き情報とテキスト情報とをそれぞれ対応付け、前記第1の向き情報に対応する第1のテキスト情報と、前記第2の向きの情報に対応する第2のテキスト情報を、前記記憶部から取得し、取得した前記第1のテキスト情報および前記第2のテキスト情報を基にして、前記被写体の動きを示すテキスト情報を生成する処理を更に実行することを特徴とする請求項8に記載の判定プログラム。
  10. 前記被写体の情報と、前記被写体の動きを示すテキスト情報とを対応付けて出力する処理を更に実行することを特徴とする請求項9に記載の判定プログラム。
  11. 撮影装置により撮影された複数の撮影画像を取得し、
    取得した前記複数の撮影画像に基づき、前記複数の撮影画像に含まれる被写体のいずれかの部位の輪郭の形状を示す輪郭データと、前記いずれかの部位の状態に関する状態情報とを生成し、
    物体が有する複数の部位の属性情報を、それぞれ前記複数の部位の輪郭の形状を示す複数の輪郭データに対応付けて記憶する記憶部を参照して、前記複数の輪郭データに、生成した前記輪郭データに対応する輪郭データが含まれる場合、該輪郭データに対応付けられた属性情報を取得し、
    生成した前記状態情報と、取得した前記属性情報とに基づき、前記被写体の前記いずれかの部位の状態に関する判定を行う、
    処理をコンピュータに実行させることを特徴とする判定プログラム。
  12. 前記属性情報は、被写体の部品を示すテキスト情報を含み、前記テキスト情報と、前記判定を行う処理の判定結果とを基にして、前記被写体の前記いずれかの部位の状態を示すテキスト情報を生成する処理を更に実行することを特徴とする請求項11に記載の判定プログラム。
  13. 前記複数の撮影画像の少なくともいずれかの撮影画像に、前記被写体の前記いずれかの部位の状態を示すテキスト情報を重畳した重畳画像を生成し、前記重畳画像を表示する処理を更に実行することを特徴とする請求項10に記載の判定プログラム。
  14. 前記重畳画像を生成する処理は、前記いずれかの撮影画像に含まれる前記いずれかの部位に対応する位置に、前記テキスト情報を重畳することで重畳画像を生成することを特徴とする請求項13に記載の判定プログラム。
  15. 撮影装置により撮影された第1の撮影画像を取得すると、物体の複数の向きに応じた該物体の複数の輪郭の形状にそれぞれ対応付けて、前記複数の向きを示す複数の向き情報を記憶する記憶部を参照して、前記複数の輪郭の形状のうち、取得した前記第1の撮影画像に含まれる被写体の輪郭の形状に対応する輪郭の形状に対応付けられた第1の向き情報を取得し、前記撮影装置により新たに撮影された第2の撮影画像を取得すると、前記記憶部を参照して、前記複数の輪郭の形状のうち、取得した前記第2の撮影画像に含まれる前記被写体の輪郭に対応する輪郭の形状に対応付けられた第2の向き情報を取得する取得部と、
    取得した前記第1の向き情報及び前記第2の向き情報の関係に基づき、前記被写体の動きに関する判定を行う判定部と
    を有することを特徴とする情報処理装置。
  16. 前記記憶部は、前記向き情報とテキスト情報とをそれぞれ対応付け、前記第1の向き情報に対応する第1のテキスト情報と、前記第2の向きの情報に対応する第2のテキスト情報を、前記記憶部から取得し、取得した前記第1のテキスト情報および前記第2のテキスト情報を基にして、前記被写体の動きを示すテキスト情報を生成する生成部を更に有することを特徴とする請求項15に記載の情報処理装置。
  17. 前記被写体の情報と、前記被写体の動きを示すテキスト情報とを対応付けて出力する表示制御部を更に有することを特徴とする請求項16に記載の情報処理装置。
  18. 撮影装置により撮影された複数の撮影画像を取得する第1取得部と、
    取得した前記複数の撮影画像に基づき、前記複数の撮影画像に含まれる被写体のいずれかの部位の輪郭の形状を示す輪郭データと、前記いずれかの部位の状態に関する状態情報とを生成し、物体が有する複数の部位の属性情報を、それぞれ前記複数の部位の輪郭の形状を示す複数の輪郭データに対応付けて記憶する記憶部を参照して、前記複数の輪郭データに、生成した前記輪郭データに対応する輪郭データが含まれる場合、該輪郭データに対応付けられた属性情報を取得する第2取得部と
    生成した前記状態情報と、取得した前記属性情報とに基づき、前記被写体の前記いずれかの部位の状態に関する判定を行う判定部と
    を有することを特徴とする情報処理装置。
  19. 前記属性情報は、被写体の部品を示すテキスト情報を含み、前記テキスト情報と、前記判定を行う処理の判定結果とを基にして、前記被写体の前記いずれかの部位の状態を示すテキスト情報を生成する生成部を更に有することを特徴とする請求項18に記載の情報処理装置。
  20. 前記複数の撮影画像の少なくともいずれかの撮影画像に、前記被写体の前記いずれかの部位の状態を示すテキスト情報を重畳した重畳画像を生成し、前記重畳画像を表示する表示制御部を更に有することを特徴とする請求項19に記載の情報処理装置。
  21. 前記表示制御部は、前記いずれかの撮影画像に含まれる前記いずれかの部位に対応する位置に、前記テキスト情報を重畳することで重畳画像を生成することを特徴とする請求項20に記載の情報処理装置。
JP2020528613A 2018-07-04 2018-07-04 判定方法、判定プログラムおよび情報処理装置 Active JP7099526B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/025415 WO2020008576A1 (ja) 2018-07-04 2018-07-04 判定方法、判定プログラムおよび情報処理装置

Publications (2)

Publication Number Publication Date
JPWO2020008576A1 true JPWO2020008576A1 (ja) 2021-06-24
JP7099526B2 JP7099526B2 (ja) 2022-07-12

Family

ID=69060491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020528613A Active JP7099526B2 (ja) 2018-07-04 2018-07-04 判定方法、判定プログラムおよび情報処理装置

Country Status (5)

Country Link
US (1) US11663731B2 (ja)
EP (1) EP3819862A4 (ja)
JP (1) JP7099526B2 (ja)
AU (1) AU2018430831B2 (ja)
WO (1) WO2020008576A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11763950B1 (en) 2018-08-16 2023-09-19 Clarify Health Solutions, Inc. Computer network architecture with machine learning and artificial intelligence and patient risk scoring
US11621085B1 (en) 2019-04-18 2023-04-04 Clarify Health Solutions, Inc. Computer network architecture with machine learning and artificial intelligence and active updates of outcomes
US11238469B1 (en) 2019-05-06 2022-02-01 Clarify Health Solutions, Inc. Computer network architecture with machine learning and artificial intelligence and risk adjusted performance ranking of healthcare providers

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008128867A (ja) * 2006-11-22 2008-06-05 Denso Corp タイヤ向き特定装置
JP2011129082A (ja) * 2009-11-20 2011-06-30 3D Media Co Ltd 3次元物体認識装置及び3次元物体認識方法
JP2014029664A (ja) * 2012-06-28 2014-02-13 Seiko Epson Corp 比較画像範囲生成方法、位置姿勢検出方法、比較画像範囲生成装置、位置姿勢検出装置、ロボット、ロボットシステム、比較画像範囲生成プログラム及び位置姿勢検出プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI222039B (en) * 2000-06-26 2004-10-11 Iwane Lab Ltd Information conversion system
JP4481663B2 (ja) 2004-01-15 2010-06-16 キヤノン株式会社 動作認識装置、動作認識方法、機器制御装置及びコンピュータプログラム
JP2010102595A (ja) 2008-10-24 2010-05-06 National Institute Of Information & Communication Technology コメント付き画像表示装置及びコメント付き画像表示方法
WO2013158456A1 (en) * 2012-04-17 2013-10-24 E-Vision Smart Optics, Inc. Systems, devices, and methods for managing camera focus
JP6273686B2 (ja) * 2013-03-29 2018-02-07 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
DE112017004968T5 (de) * 2016-09-30 2019-06-13 Aisin Seiki Kabushiki Kaisha Umgebungsüberwachungsvorrichtung
US10725540B2 (en) * 2018-06-29 2020-07-28 International Business Machines Corporation Augmented reality speed reading

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008128867A (ja) * 2006-11-22 2008-06-05 Denso Corp タイヤ向き特定装置
JP2011129082A (ja) * 2009-11-20 2011-06-30 3D Media Co Ltd 3次元物体認識装置及び3次元物体認識方法
JP2014029664A (ja) * 2012-06-28 2014-02-13 Seiko Epson Corp 比較画像範囲生成方法、位置姿勢検出方法、比較画像範囲生成装置、位置姿勢検出装置、ロボット、ロボットシステム、比較画像範囲生成プログラム及び位置姿勢検出プログラム

Also Published As

Publication number Publication date
EP3819862A4 (en) 2021-06-02
JP7099526B2 (ja) 2022-07-12
AU2018430831A1 (en) 2021-01-28
EP3819862A1 (en) 2021-05-12
US11663731B2 (en) 2023-05-30
US20210110559A1 (en) 2021-04-15
WO2020008576A1 (ja) 2020-01-09
AU2018430831B2 (en) 2021-12-16

Similar Documents

Publication Publication Date Title
JP7099526B2 (ja) 判定方法、判定プログラムおよび情報処理装置
US10453235B2 (en) Image processing apparatus displaying image of virtual object and method of displaying the same
US11087493B2 (en) Depth-image processing device, depth-image processing system, depth-image processing method, and recording medium
CN105654048A (zh) 一种多视角人脸比对方法
JP2013504114A (ja) 目状態検出装置及び方法
JP6639523B2 (ja) 学習画像自動選別装置、学習画像自動選別方法および学習画像自動選別プログラム
US20140118396A1 (en) Image processing device, image processing method, and computer program product
KR20150039252A (ko) 행동 인식 기반의 응용 서비스 제공 장치 및 그 방법
US9324008B2 (en) Classifier update device, information processing device, and classifier update method
EP2639743A2 (en) Image processing device, image processing program, and image processing method
CN111626105B (zh) 姿态估计方法、装置及电子设备
JPWO2018154709A1 (ja) 動作学習装置、技能判別装置および技能判別システム
US20200184671A1 (en) Image processing system and image processing method
CN111316283B (zh) 姿势识别方法及装置
KR20160046399A (ko) 텍스쳐 맵 생성 방법 및 장치와 데이터 베이스 생성 방법
JP2011232845A (ja) 特徴点抽出装置および方法
JP3995181B2 (ja) 個体識別装置
JP6350331B2 (ja) 追尾装置、追尾方法及び追尾プログラム
JP2014199505A (ja) 画像認識装置、画像認識方法及びプログラム
CN113657187A (zh) 一种脸部识别方法、设备和计算机可读存储介质
JP7113217B2 (ja) 照合装置、照合方法、及びプログラム
TWI618031B (zh) 影像邊緣偵測方法
KR101783156B1 (ko) Ar 마커를 이용한 물리적 프로그래밍 정보를 인식하는 방법 및 장치
JP2006092191A (ja) 顔画像検出装置、顔画像検出方法及び顔画像検出プログラム
JP2014137629A (ja) 画像検出装置及び制御プログラム並びに画像検出方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201221

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220613

R150 Certificate of patent or registration of utility model

Ref document number: 7099526

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150