JP6667006B2 - 深度画像を用いた行動パターン分析システム及び方法 - Google Patents

深度画像を用いた行動パターン分析システム及び方法 Download PDF

Info

Publication number
JP6667006B2
JP6667006B2 JP2018547243A JP2018547243A JP6667006B2 JP 6667006 B2 JP6667006 B2 JP 6667006B2 JP 2018547243 A JP2018547243 A JP 2018547243A JP 2018547243 A JP2018547243 A JP 2018547243A JP 6667006 B2 JP6667006 B2 JP 6667006B2
Authority
JP
Japan
Prior art keywords
behavior pattern
depth image
module
extracted
definition module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018547243A
Other languages
English (en)
Other versions
JP2019514102A (ja
Inventor
ハン,サンギュ
ジョン,キョンジン
チャン,キュテ
イ,ヨンジョン
ジン,ヨンベ
ジョン,カンジン
カン,ピルヨン
ホン,ジョンジュ
イ,サンレ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Korea Academy of Industrial Technology
Korea Research Institute of Bioscience and Biotechnology KRIBB
Original Assignee
Korea Academy of Industrial Technology
Korea Research Institute of Bioscience and Biotechnology KRIBB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Korea Academy of Industrial Technology, Korea Research Institute of Bioscience and Biotechnology KRIBB filed Critical Korea Academy of Industrial Technology
Publication of JP2019514102A publication Critical patent/JP2019514102A/ja
Application granted granted Critical
Publication of JP6667006B2 publication Critical patent/JP6667006B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Description

本発明は、行動パターン分析システム及び方法に関し、具体的には、深度画像を用いた行動パターン分析システム及び方法に関する。
従来は、行動パターン分析のための様々なアルゴリズムが開示されている。
韓国特許公開第10−2015−0100141号公報又は韓国登録特許第10−1513215号公報は、動画中の客体のパターン分析について例示している。ところが、従来のパターン解析アルゴリズムは、主に車両の移動や車両のナンバープレート認識不法駐停車のような定型化されたパターン分析に限定されている実情である。
人又は動物の具体的な動作に対する分析は容易ではない。例えば、人や動物が座っていたり立っていたり、又は歩き回ったりするような行動パターンについては分析が容易ではない。さらに、このような人や動物の具体的な動作は見る方向によっても異なって示されるので、正確な分析が困難である。例えば、走る動作において横に走る場合には、容易に分析可能であるとしても、カメラに向かって走ってくる場合や、斜線方向に走ってくる場合には、その客体のパターン変化が別々に示されるので、分析に困難がある。
従来は、VICONのような高価の動作分析装置を用いて分析することができるが、一般的なカメラを用いてパターン分析を行うことは不可能である実情である。
特定の空間内の実験対象者や動物に対する長時間のパターン分析を行う場合、このような実情から、実験者が直接肉眼で観察して行動パターンを分析し、記録することができるだけである。
そのため、一般的なカメラを用いてより容易且つ正確に実験対象者や動物の行動パターンを定義し、分析することができるアルゴリズムが求められる。
本発明の目的は、深度画像を用いた行動パターン分析システムを提供することにある。
本発明の他の目的は、深度画像を用いた行動パターン分析方法を提供することにある。
上述の本発明の目的に応じた深度画像を用いた行動パターン分析システムは、所定の空間上の実験対象者又は動物の3次元動画を生成する3次元動画生成モジュール;上記3次元動画生成モジュールで生成された3次元動画において、上記実験対象者又は動物を背景(background)と分離して抽出する客体抽出モジュール;上記客体抽出モジュールにより抽出された客体に対し、当該客体の長さ、大きさ、重心を測定し、上記客体の深度画像(depth image)を抽出して客体を定義する客体定義モジュール;上記客体定義モジュールで定義された客体が上記客体抽出モジュールで抽出される場合、当該客体の重心の移動速度及び移動時間と、上記抽出された深度データの変化を累積分析して上記客体の基本行動パターンを定義する行動パターン定義モジュール;上記行動パターン定義モジュールで定義された客体の基本行動パターンを用い、上記客体抽出モジュールで抽出された客体に対する基本行動パターンの持続時間及び頻度数を分析して把握する行動パターン分析モジュールを含むように構成されることができる。
ここで、上記行動パターン定義モジュールは、上記3次元動画において客体の深度画像の変化値と時間当たりの変化する客体のパターン分析を通じて、上記被験者又は動物の基本行動パターンを定義するように構成されることができる。
また、上記行動パターン定義モジュールは、座る、立つ、横たわる、うつ伏せる、歩き回る、走る、又はぶら下がるに対する基本行動パターンを定義するように構成されることができる。
なお、上記行動パターン定義モジュールは、座る、立つ、横たわる、うつ伏せる、歩き回る、走る、又はぶら下がるの基本行動パターンそれぞれに対して高さ(height)の変化パターン、客体の画像の時間当たりの変化パターン、重心の動きの速度をそれぞれ定義するように構成されることができる。
一方、上記3次元動画生成モジュールは、深度画像カメラの映像を合成して3次元動画を生成するように構成されることができる。
上述の本発明の他の目的に応じた深度画像を用いた行動パターン分析方法は、3次元動画生成モジュールが所定の空間上の実験対象者又は動物の3次元動画を生成する段階;客体抽出モジュールが、上記3次元動画生成モジュールで生成された3次元動画において、上記実験対象者又は動物を背景と分離して抽出する段階;客体定義モジュールが、上記客体抽出モジュールにより抽出された客体に対し、当該客体の長さ、大きさ、重心を測定し、上記客体の深度画像を抽出して客体を定義する段階;上記客体定義モジュールで定義された客体が、上記客体抽出モジュールで抽出される場合、行動パターン定義モジュールが、当該客体の重心の移動速度及び移動時間と、上記抽出された深度データの変化を累積分析して上記客体の基本行動パターンを定義する段階;行動パターン分析モジュールが、上記行動パターン定義モジュールで定義された客体の基本行動パターンを用い、上記客体抽出モジュールで抽出された客体に対する基本行動パターンの持続時間及び頻度数を分析して把握する段階を含むように構成されることができる。
このとき、上記客体定義モジュールで定義された客体が、上記客体抽出モジュールで抽出される場合、行動パターン定義モジュールが、当該客体の重心の移動速度及び移動時間と、上記抽出された深度データの変化を累積分析して上記客体の基本行動パターンを定義する段階は、上記3次元動画において客体の深度画像の変化値と時間当たりの変化する客体のパターン分析を通じて、上記被験者又は動物の基本行動パターンを定義するように構成されることができる。
また、上記客体定義モジュールで定義された客体が、上記客体抽出モジュールで抽出される場合、行動パターン定義モジュールが、当該客体の重心の移動速度及び移動時間と、上記抽出された深度データの変化を累積分析して上記客体の基本行動パターンを定義する段階は、座る、立つ、横たわる、うつ伏せる、歩き回る、走る、又はぶら下がるに対する基本行動パターンを定義するように構成されることができる。
また、上記客体定義モジュールで定義された客体が、上記客体抽出モジュールで抽出される場合、行動パターン定義モジュールが、当該客体の重心の移動速度及び移動時間と、上記抽出された深度データの変化を累積分析して上記客体の基本行動パターンを定義する段階は、座る、立つ、横たわる、うつ伏せる、歩き回る、走る、又はぶら下がるの基本行動パターンそれぞれに対して高さの変化パターン、客体の画像の時間当たりの変化パターン、重心の動きの速度をそれぞれ定義するように構成されることができる。
一方、上記3次元動画生成モジュールが所定の空間上の実験対象者又は動物の3次元動画を生成する段階は、深度画像カメラの映像を合成して3次元動画を生成するように構成されることができる。
上述の深度画像を用いた行動パターン分析システム及び方法によれば、深度画像カメラを用いた3次元動画で深度画像を抽出し、画像パターンの変化を分析して、実験対象者や動物の行動パターンを容易且つ正確に分析することができる効果がある。
特に、実験対象者や動物の基本行動パターンを蓄積されたデータを用いて分析することによって、実験対象者や動物の行動パターンを正確に定義し、把握することができる効果がある。
また、高価の装備がなくても、一般的な装備を用いて実験対象者や動物の行動分析をエラーなく行うことができる効果がある。
本発明の一実施例に係る深度画像を用いた行動パターン分析システムのブロック構成図である。 本発明の一実施例に係る深度画像を用いた行動パターン分析の例示図である。 本発明の他の実施例に係る深度画像を用いた行動パターン分析の例示図である。 本発明の一実施例に係る深度画像を用いた行動パターン分析方法のフローチャートである。
本発明は、多様な変更を加えることができ、色々な実施例を有することができるところ、特定の実施例を図面に例示し、発明を実施するための具体的な内容に詳細に説明しようとする。しかし、これは、本発明を特定の実施形態に限定しようとするものではなく、本発明の思想及び技術範囲に含まれる全ての変更、均等物乃至代替物を含むものと理解されなければならない。各図面を説明しながら類似の参照符号を類似の構成要素に使用した。
第1、第2、A、B等の用語は、多様な構成要素を説明するのに使用されることができるが、上記構成要素は、上記用語により限定されてはならない。上記用語は、一つの構成要素を他の構成要素から区別する目的のみで使用される。例えば、本発明の権利範囲を逸脱することなく第1の構成要素は第2の構成要素と命名されることができ、同様に、第2の構成要素も第1の構成要素と命名されることができる。及び/又はという用語は、複数の関連した記載された項目の組み合わせ又は複数の関連した記載された項目のうちのいずれかの項目を含む。
ある構成要素が他の構成要素に「連結されて」いるのか、「接続されて」いると言及されたときには、その他の構成要素に直接連結されているか、又は接続されている可能性もあるが、中間に他の構成要素が存在する可能性もあると理解されなければならない。反面、ある構成要素が他の構成要素に「直接連結されて」いるのか、「直接接続されて」いると言及されたときには、中間に他の構成要素が存在しないものと理解されなければならない。
本出願において使用した用語は、単に特定の実施例を説明するのに使用されたもので、本発明を限定しようとする意図ではない。単数の表現は、文脈上明らかに異なった意味でない限り、複数の表現を含む。本出願において、「含む」又は「有する」等の用語は、明細書上に記載された特徴、数字、段階、動作、構成要素、部品又はこれらを組み合わせたものが存在することを指定しようとするものであって、一つ又はそれ以上の他の特徴や数字、段階、動作、構成要素、部品又はこれらを組み合わせたものの存在又は付加可能性を予め排除しないものと理解されなければならない。
異なって定義されない限り、技術的若しくは科学的な用語を含めてここで使用される全ての用語は、本発明の属する技術分野において通常の知識を有する者により一般的に理解されることと同様の意味を有している。一般的に使用される辞典に定義されているような用語は、関連技術の文脈上有する意味と一致する意味を有するものと解されるべきであり、本出願において明白に定義しない限り、理想的若しくは過度に形式的な意味に解釈されない。
以下、本発明に係る好ましい実施例を添付の図面を参照して詳細に説明する。
図1は、本発明の一実施例に係る深度画像を用いた行動パターン分析システムのブロック構成図である。
図1を参照すれば、本発明の一実施例に係る深度画像を用いた行動パターン分析システム(以下、「行動パターン分析システム」という)100は、3次元動画生成モジュール110、客体抽出モジュール120、客体定義モジュール130、行動パターン定義モジュール140及び行動パターン分析モジュール150を含むように構成されることができる。
行動パターン分析システム100は、ステレオ映像により生成された3次元動画の深度画像を抽出し、特定の空間上の実験対象者や動物の行動パターンを綿密且つ正確に自動分析して把握することができるように構成される。
行動パターン分析システム100は、高価の装備がなくても、3次元動画において深度画像を用いた正確な行動パターンの解析アルゴリズムだけでエラーのないパターン分析が可能である。特に、累積された客体画像のパターンの変化を通じて基本行動パターンを定義するので、正確な行動パターンの分析が可能である。
行動パターン分析システム100は、特定の空間上で実験対象者や動物が示す行動パターンを分析するためのシステムである。実験又は治療等に活用が可能なシステムである。
以下、細部的な構成について説明する。
3次元動画生成モジュール110は、所定の空間上の実験対象者又は動物の3次元動画を生成するように構成されることができる。空間を撮影し、その動画内に実験対象者と動物が捕捉されることができる。撮影は1台以上の深度画像カメラ10により行われることができ、3次元動画生成モジュール110 2台の深度画像カメラ10により生成されたステレオ映像を合成して3次元動画を生成する。
客体抽出モジュール120は、3次元動画生成モジュール110で生成された3次元動画において実験対象者又は動物を背景と分離し、前景(foreground)として抽出するように構成されることができる。
ここで、背景は、特定の空間に固定的に配置された形状であって、通常は固定された姿勢を有する。
客体定義モジュール130は、客体抽出モジュール120により抽出された客体に対し、当該客体の長さ、大きさ、重心を測定するように構成されることができる。長さは、高さ、左右の長さ等になることができ、大きさは、全体的な大きさになることができる。重心は、客体の移動を把握するための構成である。
一方、客体定義モジュール130は、3次元動画において客体の深度画像を抽出するように構成されることができる。
また、客体定義モジュール130は、客体の長さ、大きさ、重心と深度画像により当該客体を定義するように構成されることができる。実験対象者や動物がとる姿勢や方向に応じて、客体の長さ、大きさ等が異になる場合があるので、当該客体の深度画像と長さ、大きさ等を総合的に分析して客体を定義するように構成されることができる。
客体定義モジュール130で定義された客体が客体抽出モジュール120を通じて抽出されるが、行動パターン定義モジュール140は、その抽出された客体に対し、当該客体の重心の移動速度及び移動時間と、そして抽出された深度データの変化を累積分析して客体の基本行動パターンを定義するように構成されることができる。すなわち、どの実験対象者に対して基本行動パターン、例えば、横たわる、立つ等を予め定義せずに、3次元動画により累積的に抽出される客体の行動パターンを通じて基本行動パターンを定義する。
ここで、より具体的には、行動パターン定義モジュール140は、3次元動画において客体の深度画像の変化値と時間当たりの変化する客体のパターン分析を通じて、実験対象者又は動物の基本行動パターンを定義するように構成されることができる。すなわち、実験対象者がパターンの変化がある程度速く行われるか、又はどのように変化するか等を分析して定義することができる。
例えば、行動パターン定義モジュール140は座る、立つ、横たわる、うつ伏せる、歩き回る、走る、又はぶら下がる等に対する基本行動パターンを定義するように構成されることができる。
具体的には、行動パターン定義モジュール140が座る、立つ、横たわる、うつ伏せる、歩き回る、走る、又はぶら下がるの基本行動パターンそれぞれに対して高さの変化パターン、客体の画像の時間当たりの変化パターン、重心の動きの速度をそれぞれ定義するように構成されることができる。座るの場合、立つよりも小さいある程度の高さの変化パターンを有することができ、重心もより低くなる。走るの場合には、高さの大きな変化なく重心が急速に変化し、このとき、深度画像も考慮される。
行動パターン分析モジュール150は、行動パターン定義モジュール140で定義された客体の基本行動パターンを用い、客体抽出モジュール120で抽出された客体に対する基本行動パターンの持続時間及び頻度数を分析して把握するように構成されることができる。従来は、観察者が、立つの行動パターンが数分間にどの程度の割合で発生するかをいちいち直接見て記録する必要があったが、本発明においては、行動パターン分析モジュール150が自動的に既定義の基本行動パターンを参考にして、その持続時間と頻度数を自動的に分析して把握することができる。
図2は、本発明の一実施例に係る深度画像を用いた行動パターン分析の例示図であり、図3は、本発明の他の実施例に係る深度画像を用いた行動パターン分析の例示図である。
図2及び図3では、立つに対する高さの変化と、また、動きに対する持続時間の変化を通じて行動パターンを分析する過程を例示している。
図4は、本発明の一実施例に係る深度画像を用いた行動パターン分析方法のフローチャートである。
図4を参照すれば、まず、3次元動画生成モジュール110が所定の空間上の実験対象者又は動物の3次元動画を生成するS101。ここで、3次元動画生成モジュールは、深度画像カメラ10の映像を合成して3次元動画を生成するように構成されることができる。
次に、客体抽出モジュール120が3次元動画生成モジュール110で生成された3次元動画において実験対象者又は動物を背景と分離して抽出するS102。
次に、客体定義モジュール130が客体抽出モジュール120により抽出された客体に対し、当該客体の長さ、大きさ、重心を測定し、客体の深度画像を抽出して客体を定義するS103。
次に、客体定義モジュール130で定義された客体が、客体抽出モジュール120で抽出される場合、行動パターン定義モジュール140が、当該客体の重心の移動速度及び移動時間と、抽出された深度データの変化を累積分析して客体の基本行動パターンを定義するS104。
このとき、行動パターン定義モジュール140は、3次元動画において客体の深度画像の変化値と時間当たりの変化する客体のパターン分析を通じて、実験対象者又は動物の基本行動パターンを定義するように構成されることができる。
例えば、行動パターン定義モジュール140は座る、立つ、横たわる、うつ伏せる、歩き回る、走る、又はぶら下がるに対する基本行動パターンを定義するように構成されることができる。
このとき、行動パターン定義モジュール140は座る、立つ、横たわる、うつ伏せる、歩き回る、走る、又はぶら下がるの基本行動パターンそれぞれに対して高さの変化パターン、客体の画像の時間当たりの変化パターン、重量中心の動きの速度をそれぞれ定義するように構成されることができる。
次に、行動パターン分析モジュール150が行動パターン定義モジュール140で定義された客体の基本行動パターンを用い、客体抽出モジュールで抽出された客体に対する基本行動パターンの持続時間及び頻度数を分析して把握するS105。
以上、実施例を参照して説明したが、当該技術分野の熟練された当業者は、下記の特許請求の範囲に記載された本発明の思想及び領域から逸脱しない範囲内で、本発明を多様に修正及び変更させることができることを理解することができる。

Claims (10)

  1. 所定の空間上の実験対象者又は動物の3次元動画を生成する3次元動画生成モジュールであって、前記3次元動画は2台以上の深度画像カメラにより生成されたステレオ画像を合成することにより生成される、3次元動画生成モジュール
    上記3次元動画生成モジュールで生成された3次元動画において、上記実験対象者又は動物を背景と分離して抽出する客体抽出モジュール;
    上記客体抽出モジュールにより抽出された客体に対し、当該客体の長さ、大きさ、重心を測定することによって、上記客体の深度画像から客体を抽出して定義する客体定義モジュール;
    上記客体定義モジュールで定義された客体が、上記客体抽出モジュールで抽出される場合、当該客体の重心の移動速度及び移動時間と、上記抽出された深度画像の変化を累積分析して上記客体の基本行動パターンを定義する行動パターン定義モジュール;
    上記行動パターン定義モジュールで定義された客体の基本行動パターンを用い、上記客体抽出モジュールで抽出された客体に対する基本行動パターンの持続時間及び頻度数を分析して把握する行動パターン分析モジュールを含む、深度画像を用いた行動パターン分析システム。
  2. 上記行動パターン定義モジュールは、
    上記3次元動画において客体の深度画像の変化と客体の重心の移動速度及び移動時間に基づく時間当たりの変化とに基づいて客体のパターン分析を行うことにより、上記実験対象者又は動物の基本行動パターンを定義するように構成されていることを特徴とする、請求項1に記載の深度画像を用いた行動パターン分析システム。
  3. 上記行動パターン定義モジュールは、
    座る、立つ、横たわる、うつ伏せる、歩き回る、走る、又はぶら下がることに対する基本行動パターンを定義するように構成されていることを特徴とする、請求項1に記載の深度画像を用いた行動パターン分析システム。
  4. 上記行動パターン定義モジュールは、
    座る、立つ、横たわる、うつ伏せる、歩き回る、走る、又はぶら下がることの基本行動パターンそれぞれに対して、客体の深度画像の時間当たりの変化パターン、重心の動きの速度をそれぞれ定義するように構成されていることを特徴とする、請求項3に記載の深度画像を用いた行動パターン分析システム。
  5. 上記3次元動画生成モジュールは、
    深度画像カメラの映像を合成して3次元動画を生成するように構成されていることを特徴とする、請求項1に記載の深度画像を用いた行動パターン分析システム。
  6. 3次元動画生成モジュールが所定の空間上の実験対象者又は動物の3次元動画を生成する段階であって、前記3次元動画は2台以上の深度画像カメラにより生成されたステレオ画像を合成することにより生成される、段階
    客体抽出モジュールが、上記3次元動画生成モジュールで生成された3次元動画において、上記実験対象者又は動物を背景と分離して抽出する段階;
    客体定義モジュールが、上記客体抽出モジュールにより抽出された客体に対し、当該客体の長さ、大きさ、重心を測定することによって、上記客体の深度画像から客体を抽出して定義する段階;
    上記客体定義モジュールで定義された客体が、上記客体抽出モジュールで抽出される場合、行動パターン定義モジュールが、当該客体の重心の移動速度及び移動時間と、上記抽出された深度画像の変化を累積分析して上記客体の基本行動パターンを定義する段階;
    行動パターン分析モジュールが、上記行動パターン定義モジュールで定義された客体の基本行動パターンを用い、上記客体抽出モジュールで抽出された客体に対する基本行動パターンの持続時間及び頻度数を分析して把握する段階を含む、深度画像を用いた行動パターン分析方法。
  7. 上記客体定義モジュールで定義された客体が、上記客体抽出モジュールで抽出される場合、行動パターン定義モジュールが、当該客体の重心の移動速度及び移動時間と、上記抽出された深度画像の変化を累積分析して上記客体の基本行動パターンを定義する段階は、
    上記3次元動画において客体の深度画像の変化と客体の重心の移動速度及び移動時間に基づく時間当たりの変化とに基づいて客体のパターン分析を行うことにより、上記実験対象者又は動物の基本行動パターンを定義するように構成されていることを特徴とする、請求項6に記載の深度画像を用いた行動パターン分析方法。
  8. 上記客体定義モジュールで定義された客体が、上記客体抽出モジュールで抽出される場合、行動パターン定義モジュールが、当該客体の重心の移動速度及び移動時間と、上記抽出された深度画像の変化を累積分析して上記客体の基本行動パターンを定義する段階は、
    座る、立つ、横たわる、うつ伏せる、歩き回る、走る、又はぶら下がることに対する基本行動パターンを定義するように構成されていることを特徴とする、請求項6に記載の深度画像を用いた行動パターン分析方法。
  9. 上記客体定義モジュールで定義された客体が、上記客体抽出モジュールで抽出される場合、行動パターン定義モジュールが、当該客体の重心の移動速度及び移動時間と、上記抽出された深度画像の変化を累積分析して上記客体の基本行動パターンを定義する段階は、
    座る、立つ、横たわる、うつ伏せる、歩き回る、走る、又はぶら下がることの基本行動パターンそれぞれに対して、客体の深度画像の時間当たりの変化パターン、重心の動きの速度をそれぞれ定義するように構成されていることを特徴とする、請求項8に記載の深度画像を用いた行動パターン分析方法。
  10. 上記3次元動画生成モジュールが所定の空間上の実験対象者又は動物の3次元動画を生成する段階は、
    深度画像カメラの映像を合成して3次元動画を生成するように構成されていることを特徴とする、請求項9に記載の深度画像を用いた行動パターン分析方法。
JP2018547243A 2015-11-30 2016-11-30 深度画像を用いた行動パターン分析システム及び方法 Active JP6667006B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2015-0168965 2015-11-30
KR1020150168965A KR101817583B1 (ko) 2015-11-30 2015-11-30 깊이 이미지를 이용한 행동 패턴 분석 시스템 및 방법
PCT/KR2016/013924 WO2017095120A1 (ko) 2015-11-30 2016-11-30 깊이 이미지를 이용한 행동 패턴 분석 시스템 및 방법

Publications (2)

Publication Number Publication Date
JP2019514102A JP2019514102A (ja) 2019-05-30
JP6667006B2 true JP6667006B2 (ja) 2020-03-18

Family

ID=58797192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018547243A Active JP6667006B2 (ja) 2015-11-30 2016-11-30 深度画像を用いた行動パターン分析システム及び方法

Country Status (4)

Country Link
US (1) US10713478B2 (ja)
JP (1) JP6667006B2 (ja)
KR (1) KR101817583B1 (ja)
WO (1) WO2017095120A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107667904A (zh) * 2017-07-27 2018-02-09 北京奥云牧数据科技有限公司 基于物联网技术的生猪大数据系统
CN110620916A (zh) * 2018-12-29 2019-12-27 北京时光荏苒科技有限公司 用于处理图像的方法和装置
CN110135246B (zh) * 2019-04-03 2023-10-20 平安科技(深圳)有限公司 一种人体动作的识别方法及设备
KR102215133B1 (ko) * 2019-12-24 2021-02-10 이주철 반려동물의 비문 촬영 장치
US11508077B2 (en) 2020-05-18 2022-11-22 Samsung Electronics Co., Ltd. Method and apparatus with moving object detection
KR102603396B1 (ko) 2022-08-12 2023-11-20 주식회사 아이트 인공지능을 이용한 영상 감시 기반 개체 인식 및 행동패턴 분석 방법 및 시스템

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000268173A (ja) * 1999-03-17 2000-09-29 Hitachi Denshi Ltd 物体認識画像処理方法
US6678413B1 (en) * 2000-11-24 2004-01-13 Yiqing Liang System and method for object identification and behavior characterization using video analysis
US20050163349A1 (en) * 2003-06-06 2005-07-28 Daniela Brunner System and method for assessing motor and locomotor deficits and recovery therefrom
JP2005004787A (ja) * 2004-07-26 2005-01-06 Toshiba Corp 行動計測装置、電子的装置及び記録媒体
CN101228555A (zh) * 2005-07-07 2008-07-23 独创目标实验室公司 用于目标的运动行为的三维监控和分析的系统
NZ578752A (en) * 2007-02-08 2012-03-30 Behavioral Recognition Sys Inc Behavioral recognition system
CA2964235A1 (en) * 2007-11-05 2009-05-14 Brian Francis Mooney Apparatus and method for analysing a golf swing
GB2455316B (en) * 2007-12-04 2012-08-15 Sony Corp Image processing apparatus and method
JP4982410B2 (ja) * 2008-03-10 2012-07-25 株式会社東芝 空間移動量算出装置及びその方法
US8634635B2 (en) * 2008-10-30 2014-01-21 Clever Sys, Inc. System and method for stereo-view multiple animal behavior characterization
GB2467514A (en) * 2008-12-23 2010-08-04 Univ Oxford Brookes Gait monitor for sensing vertical displacement
JP5440080B2 (ja) * 2009-10-02 2014-03-12 ソニー株式会社 行動パターン解析システム、携帯端末、行動パターン解析方法、及びプログラム
KR101160868B1 (ko) 2010-02-19 2012-07-12 (주) 엔투유 제스처 제어를 이용한 동물 매개 치료 시스템 및 동물 매개 치료 방법
JP5569062B2 (ja) * 2010-03-15 2014-08-13 オムロン株式会社 ジェスチャ認識装置、ジェスチャ認識装置の制御方法、および、制御プログラム
US9311556B2 (en) * 2010-05-19 2016-04-12 Plf Agritech Pty Ltd Image analysis for making animal measurements including 3-D image analysis
KR101758058B1 (ko) 2011-01-20 2017-07-17 삼성전자주식회사 깊이 정보를 이용한 카메라 모션 추정 방법 및 장치, 증강 현실 시스템
WO2013018070A1 (en) * 2011-08-03 2013-02-07 Yeda Research And Development Co. Ltd. Method for automatic behavioral phenotyping
JP6014037B2 (ja) * 2012-02-09 2016-10-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像認識装置、画像認識方法、プログラムおよび集積回路
WO2013170129A1 (en) * 2012-05-10 2013-11-14 President And Fellows Of Harvard College A system and method for automatically discovering, characterizing, classifying and semi-automatically labeling animal behavior and quantitative phenotyping of behaviors in animals
KR101465087B1 (ko) 2012-11-14 2014-11-26 포항공과대학교 산학협력단 생물의 자취 및 행동패턴을 분석하는 방법
US20160132124A1 (en) * 2013-08-02 2016-05-12 Mitsubishi Electric Corporation Gesture determination apparatus and method, gesture operation apparatus, program, and recording medium
KR102217253B1 (ko) 2014-02-24 2021-02-17 주식회사 케이티 행동패턴 분석 장치 및 방법
KR101513215B1 (ko) 2014-03-28 2015-04-17 주식회사 로보티어 객체 행동패턴 cctv 영상 분석서버
KR101470314B1 (ko) 2014-08-11 2014-12-09 (주)엔토스정보통신 객체 자동 인식/분류 cctv 시스템 및 그 방법
GB201506444D0 (en) * 2015-04-16 2015-06-03 Univ Essex Entpr Ltd Event detection and summarisation
EP3361935A4 (en) * 2015-10-14 2019-08-28 President and Fellows of Harvard College AUTOMATIC CLASSIFICATION OF ANIMAL BEHAVIOR
JP6964596B2 (ja) * 2016-03-18 2021-11-10 プレジデント・アンド・フェロウズ・オブ・ハーバード・カレッジ 動物行動の自動分類方法

Also Published As

Publication number Publication date
WO2017095120A1 (ko) 2017-06-08
KR101817583B1 (ko) 2018-01-12
JP2019514102A (ja) 2019-05-30
KR20170064101A (ko) 2017-06-09
US20180322336A1 (en) 2018-11-08
US10713478B2 (en) 2020-07-14

Similar Documents

Publication Publication Date Title
JP6667006B2 (ja) 深度画像を用いた行動パターン分析システム及び方法
WO2020189313A1 (ja) 監視装置、監視システム、及び、監視方法
JP2015058096A5 (ja)
WO2016106383A3 (en) First-person camera based visual context aware system
WO2016012865A3 (en) Wearable apparatus and methods for processing image data
JP2013045433A5 (ja)
JP2019016161A5 (ja)
JP2012187230A5 (ja) 撮像装置およびその制御方法
JP2014515291A5 (ja)
CN104954747B (zh) 视频监视方法和装置
JP2019067208A5 (ja)
JP2015103104A5 (ja)
WO2016031313A1 (ja) 体調検出装置、体調検出方法及び体調検出プログラム
JP2012222743A5 (ja) 撮像装置及びその制御方法、並びに情報処理装置
JP2015219603A5 (ja)
JP2019036791A5 (ja) 画像処理装置およびその制御方法、プログラム
JP2018180654A5 (ja) 情報処理装置、情報処理方法及びプログラム
WO2016031314A1 (ja) 個人識別装置、個人識別方法、及び、個人識別プログラム
JP2018042237A5 (ja)
JP2013074572A5 (ja)
KR101648786B1 (ko) 객체 인식 방법
Nguyen et al. Extracting silhouette-based characteristics for human gait analysis using one camera
JP2015008841A5 (ja)
JP2015515169A5 (ja)
WO2015181729A1 (en) Method of determining liveness for eye biometric authentication

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190827

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200221

R150 Certificate of patent or registration of utility model

Ref document number: 6667006

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250