JP2006221379A - 行動認識システム - Google Patents
行動認識システム Download PDFInfo
- Publication number
- JP2006221379A JP2006221379A JP2005033593A JP2005033593A JP2006221379A JP 2006221379 A JP2006221379 A JP 2006221379A JP 2005033593 A JP2005033593 A JP 2005033593A JP 2005033593 A JP2005033593 A JP 2005033593A JP 2006221379 A JP2006221379 A JP 2006221379A
- Authority
- JP
- Japan
- Prior art keywords
- person
- behavior
- action
- service area
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
【課題】 駅構内のようなエリア内の場所毎に人の移動状況が異なるようなサービスエリアにおいて、特異な状態にある人の行動を精度よく認識することができるようにする。
【解決手段】 サービスエリア内における大多数の人の行動パターンに応じてサービスエリアが複数のブロックに分割され、メモリ31にはブロック毎の大多数の人の行動パターンの特徴が行動パターン統計情報として記録されている。カメラ14ではブロック毎に人の動きを監視してセンシングデータを得て、位置計測装置21はセンシングデータに基づいて人の位置座標を得て人位置情報とする。そして、行動パターンデータ抽出装置22は人位置情報に応じて人の位置変化を求めて位置変化を行動パターンデータとし、行動・状況認識装置23はブロック毎に行動パターンデータと行動パターン統計情報とを比較し、人の行動を判定して行動認識結果として出力する。
【選択図】 図4
【解決手段】 サービスエリア内における大多数の人の行動パターンに応じてサービスエリアが複数のブロックに分割され、メモリ31にはブロック毎の大多数の人の行動パターンの特徴が行動パターン統計情報として記録されている。カメラ14ではブロック毎に人の動きを監視してセンシングデータを得て、位置計測装置21はセンシングデータに基づいて人の位置座標を得て人位置情報とする。そして、行動パターンデータ抽出装置22は人位置情報に応じて人の位置変化を求めて位置変化を行動パターンデータとし、行動・状況認識装置23はブロック毎に行動パターンデータと行動パターン統計情報とを比較し、人の行動を判定して行動認識結果として出力する。
【選択図】 図4
Description
本発明は、人の行動及び状態を認識するためのシステムに関し、特に、生活支援ロボットとともに用いられる行動認識システムに関するものである。
一般に、人の生活を支援して各種サービスを実行する生活支援ロボットにおいては、適切なサービスを適切なタイミングで行うため、人の行動及び状態を的確に認識する必要がある。つまり、人の行動及びその置かれた状態・状況に応じて適切なタイミングで適切なサービスを行うためには、生活支援ロボット側で人の行動及び状態(状況)を認識する必要がある。
従来、人等の移動物体の全体の動きの状況を精度よく認識するため、例えば、画像情報から各移動物体の位置、移動距離、移動速度、移動方向、移動方向の変化量、移動ベクトルと初期ベクトルとの方向差等の動きに関する特徴量の分布パターンを生成して、この分布パターンに応じて、駅構内、地下街、又は商店街等における全体の動きの状態又は特異な動きをする物体を自動的に認識するようにしたものがある(特許文献1参照)。
さらに、画像内の人物の行動意図を認識するため、画像処理部で、撮像部で取得した画像内のオブジェクトを抽出し、認知部によって、抽出したオブジェクトの属性(人物か否か人物であればその行動、物体であればその名称)を決定した後、シーン認知部によってシーン候補の中からオブジェクトの属性に基づいて最も確からしいシーンを選択し、推測部で、認知されたシーンにおける人物オブジェクトの行動属性に基づいて複数の可能な行動意図から最も合致する行動意図を特定するようにしたものがある(特許文献2参照)。
また、サービス提供者が迅速に顧客に対応するため、画像処理装置では、撮影装置により撮影された顧客画像を、静止状態画像、注文時動作画像、注文時類似動作画像の各々と比較して、顧客が注文時の動作をしているか否かを判別し、注文時動作であると認識した際には、注文用端末及び厨房内モニタに注文が発生したことを報知する。
そして、顧客画像から顧客が食べている料理画像を抽出して、この料理画像の残量を測定し、測定した残量を残量閾値と比較し、残量が残量閾値以下であると、注文用端末及び厨房内モニタに顧客が食べ終わった旨を報知するようにしたものがある(特許文献3参照)。
ところで、特許文献1においては、駅構内、地下街、又は商店街等の比較的広いサービスエリアを対象として、このサービスエリアにおける全体の動きの状態を捉えて、そこから特異な動きをする人を認識しようとしているものの、駅構内、地下街、又は商店街等の比較的広いサービスエリアにおいては、人がスムーズに移動する場所、人が滞留する場所(例えば、駅における券売機の周囲等)等人の移動状況が異なる場所が種々存在し、駅構内、地下街、又は商店街等の比較的広いサービスエリアにおける全体の動きの状態を捉えることができたとしても、サービスエリア内の場所毎に人の移動状況が異なるから、サービスエリア全体の動きから特異な動きをする人を認識することが極めて困難であるという課題がある。
特許文献2においては、シーン候補の中からオブジェクトの属性に基づいて最も確からしいシーンを選択し、認知されたシーンにおける人物オブジェクトの行動属性に基づいて複数の可能な行動意図から最も合致する行動意図を特定するようにしているものの、駅構内のように多数の人が存在するエリアにおいて、オブジェクトの属性に基づいて最も確からしいシーンを選択したのでは、多数の人の中から特異な動きをする人を認識することが難しいという課題がある。
特許文献3においては、単に顧客画像を、静止状態画像、注文時動作画像、注文時類似動作画像の各々と比較して、顧客が注文時の動作をしているか否かを判別しているだけで、駅構内のように多数の人が存在するエリアにおいて、多数の人の中から特異な動きをする人を認識することはできないという課題がある。
いずれにしても、特許文献1〜3においては、駅構内のようにエリア内の場所毎に人の移動状況が異なるようなサービスエリアにおいて、特異な動きをする人を精度よく認識することが極めて難しいという課題がある。
本発明の目的は、駅構内のようなエリア内の場所毎に人の移動状況が異なるようなサービスエリアにおいて、特異な動きをする人の行動を精度よく認識することのできる行動認識システムを提供することにある。
上記の課題を解決するため、本発明は、所定のサービスエリア内における人の行動パターンを認識する行動パターン認識システムであって、前記サービスエリア内における大多数の人の行動パターンに応じて前記サービスエリアが複数のブロックに分割され、前記ブロック毎の大多数の人の行動パターンの特徴が行動パターン統計情報として記録されたメモリと、前記ブロック毎に人の動きを監視してセンシングデータを得るセンシング部と、該センシングデータに基づいて人の位置座標を得て人位置情報とする位置算出手段と、前記位置算出手段から受けた前記人位置情報に応じて人の位置変化を求めて該位置変化を行動パターンデータとする行動パターン抽出手段と、前記ブロック毎に前記行動パターンデータと前記行動パターン統計情報とを比較し人の行動を判定して行動認識結果として出力する行動識別手段とを有することを特徴とするものである。
本発明では、前記行動パターン抽出手段は、例えば、前記行動パターンデータを統計処理して前記行動パターン統計情報を更新する。
本発明では、前記サービスエリア内にはロボットが自走し、少なくとも前記センシング部及び前記位置算出手段を前記ロボットに備えるようにしてもよい。なお、前記行動認識結果は、例えば、前記ロボットの制御に用いられる。
以上のように、本発明では、サービスエリア内における大多数の人の行動パターンに応じてサービスエリアを複数のブロックに分割し、ブロック毎の大多数の人の行動パターンの特徴を行動パターン統計情報として記録して、ブロック毎に人の動きを監視して得られたセンシングデータから人位置情報を得て、人位置情報に応じて人の位置変化を求めて、位置変化を示す行動パターンデータと行動パターン統計情報とを比較し人の行動を判定して行動認識結果として出力するようにしたので、サービスエリア内の場所毎に人の移動状況が異なるような場合であっても、特異な動きをする人の行動を精度よく認識することができるという効果がある。
本発明では、行動パターンデータを統計処理して行動パターン統計情報を更新するようにしたので、行動パターン統計情報で示される一般的な行動パターンの精度を高めることができる結果、人の行動を認識する際の精度を向上させることができるという効果がある。
本発明では、サービスエリア内を自走するロボットに、少なくともセンシング部及び位置算出手段を備えるようにしたので、別にセンシング部をサービスエリア内に配置する必要がなく、センシング部配置によるコストアップを低減することができるという効果がある。
以下、本発明の実施の形態について図面を参照して説明する。但し、この実施の形態に記載されている構成部品の寸法、材質、形状、その相対配置などは特に特定的な記載がない限り、この発明の範囲をそれのみに限定する趣旨ではなく、単なる説明例にすぎない。
図1を参照して、本発明の実施例1による行動認識システムは、例えば、図1に示すサービスエリア11において用いられ、このサービスエリア11には少なくとも1つの生活支援ロボット(以下単にロボットと呼ぶ)12が配置されており、ロボット12はサービスエリア11内移動するものとする。図示のサービスエリア11は、例えば、駅構内、地下街、又は商店街等であり、ロボット12はサービスエリア11内にいる人13に対して案内を行うとともにサービスエリア11内における警備等を行う。
図示のように、サービスエリア11内には複数のカメラ(センシング部)14が配置されている。そして、サービスエリア11は後述するようにして複数のブロック(領域)15−1〜15−N(Nは2以上の整数)に分割される。図2に示すように、サービスエリア11は複数のブロック15−1〜に分割されており、サービスエリア11内を、大多数の人の行動特性(行動パターン)に応じて複数のブロック15−1〜15−Nに分割する。例えば、各ブロック15−1〜15−Nは2m四方の正方形であるか又は設置物(例えば、駅構内である際には券売機)から半径2mの範囲とそれ以外の領域である。
ここで、行動特性とは、人の移動速度、静止時間、及び特定の行動の頻度等を示し、予めサービスエリア11において人13の行動特性を観察して、サービスエリア11を複数のブロック15−1〜15−Nに分割する。つまり、ブロック15−1〜15−Nおいてはそれぞれ人13の行動特性が異なることになる。そして、前述のようにして観察・計測された行動特性は、各ブック15−1〜15−Nに対応付けて行動パターン統計情報としてメモリ等に格納される。
図3は行動パターン統計情報の一例を示す図であり、図示のように、ブロック15−1〜15−N毎に、ブロックにおける平均移動速度、移動速度分散、平均静止時間、静止時間分散、及び単位時間当たりの平均静止回数が記録されている。例えば、駅構内では通路においては、平均移動速度は大きくなるものの、平均静止時間及び平均静止回数は少なくなる。一方、券売機周辺においては、平均移動速度は小さくなるものの、平均静止時間及び平均静止回数は大きくなる。
図4を参照して、本発明の実施例1による行動認識システム20は位置計測装置(位置算出手段)21、行動パターンデータ抽出装置(行動パターン抽出手段)22、及び行動・状況識別装置(行動識別手段)23を備えており、後述するようにして生成された行動認識結果が別のシステムに備えられたロボット制御プラットフォーム24に与えられて、ロボット制御プラットフォーム24では行動認識結果に応じてロボット12に対してロボット指令を送ってロボット12を制御する。
図5を参照して、位置計測装置21の動作について説明する。カメラ14(図1)で撮像された画像データ(画像信号)が位置計測装置21に与えられる(この画像データはブロック毎に得られる。つまり、カメラ14はブロック毎に撮像を行っている)。位置計測装置21では、画像データ25から人の頭部領域26を抽出し(ステップS1:例えば、画像データにおける色情報及び輝度変化情報に基づいて頭部と推測される領域を頭部領域として抽出する)、この頭部領域26の重心座標(x,y)を抽出する(ステップS2)。
そして、位置計測装置21は各カメラ14で得られた画像データ毎に上述のステップS1及びS2を実行して、各カメラ14における頭部重心座標を得る。位置計測装置21には、カメラ14毎にその設置位置、撮像方向(向き)、及びレンズパラメータデータがカメラデータとして格納されており、位置計測装置21は各カメラ14における頭部重心座標とカメラデータとに応じて、人の3次元座標計算を実行して(ステップS3)、人位置情報を出力する。なお、人の3次元座標計算においては、例えば、ステレオ視等の原理が用いられる。
上記の人位置情報は、図4に示す行動パターンデータ抽出装置22に与えられる。図6を参照すると、人位置情報は連続的に行動パターンデータ抽出装置22に与えられ、所定の時間(一定時間)時系列的に人位置時系列保存メモリ(図示せず)に保存される(ステップS4)。人位置時系列保存メモリから所定の時間毎に人位置情報が一定時間人位置時系列データとして読み出されて、一定時間人位置時系列データに基づいてその位置・移動ベクトルが抽出される(ステップS5)。例えば、現時点と5秒後との位置変化及び速度ベクトルが抽出される。
そして、行動パターンデータ抽出装置22では、位置・速度ベクトルに基づいて、当該人の静止回数・時間を計数する(ステップS6)。例えば、速度ベクトルから移動速度がゼロ及びゼロに近い場合に静止としてカウントし、連続する静止を静止時間として計数する。さらに、行動パターンデータ抽出装置22は、速度ベクトルに応じて平均移動速度分布を計数するとともに(ステップS7)、当該人の「座る」動作を抽出する(ステップS8)。「座る」動作の抽出に当っては、上下方向への速度変化ベクトル及び位置変化ベクトルに基づいて「座る」動作を抽出して、この動作の回数を計数する。
これによって、図6に示すように、静止回数・時間、移動速度の平均・分散、移動軌跡、及び「座る」動作の頻度分布を行動パターンデータとして得て、行動パターンデータ抽出装置22は行動パターンデータを行動・状況識別装置23に与える。
再び、図1を参照して、行動・状況識別装置23では行動パターンデータを受けると、メモリ31を検索して、予め規定された時間中に当該人が存在したブロックに係る行動特性(行動パターン分布情報)とを比較して、当該人の行動・状態を判定して、行動認識結果を出力する。
例えば、当該人の移動速度が平均移動速度よりもかなり大きい場合には、「急いでいる」と判定し、静止時間が平均静止時間よりもかなり大きい場合には、「困っている」と判定する。さらに、当該ブロックにおける行動パターン分布情報では、大多数の人が直線移動するにも拘わらず、当該人がUターンを繰り返している際には、特異な行動である(例えば、困っている)と判定する。
そして、この行動認識結果は、ロボット制御プラットフォーム24に与えられ、例えば、行動認識結果が「困っている」を示していると、ロボット制御プラットフォーム24では当該人の近傍に位置するロボット12に対してロボット指令を与えて、このロボット12に当該人の案内等を行わせる。
なお、ロボット12には、例えば、GPS装置が搭載されており、このGPS装置から得られた位置情報に基づいてロボット制御プラットフォーム24は各ロボット12の位置を把握しているものとする。
このようにして、サービスエリア内を人の行動特性に応じて複数のブロックに分割して、ブロック毎の行動特性(行動パターン)と異なる行動をする人を特異な状態にあると判定するようにしてので、ブロック毎に人の行動認識が行え、当該人に対して速やかにロボットによるサービスを提供できる。なお、ここでは、特異な状態とは、異常な行動を行うばかりでなく、例えば、「(道に)迷っている」、「(お店)で商品を見回っている」、「(案内所で)案内を求めている」等の行動状態・状況も含むものとする。
しかも、ブロック毎の行動パターン統計情報に応じて人の行動認識を行っているので、駅構内のようなエリア内の場所毎に人の移動状況が異なるようなサービスエリアにおいて、特異な状態にある人の行動を精度よく認識することができることになる。なお、上述の例では、行動認識結果をロボット制御プラットフォーム24に送って、ロボット制御プラットフォーム24がロボット指令をロボット12に与えるようにしたが、行動認識結果を、図4に破線矢印で示すように、直接ロボット12に与えるようにしてもよい。この際には、ロボット12は行動認識結果に応じて自分自身で制御を行うことになる。
上述の例では、サービスエリア11内にカメラ14を備えて、カメラ14から得られた画像データに応じて人位置情報を得るようにしたが、カメラ14に代えて、個人識別情報がICタグ情報として記録されたICタグを、人13が備えて、このICタグ情報を、サービスエリア11内に配置されたICタグ情報読取装置(図示せず)で読み取って、人を識別しつつその人の移動速度及び静止時間等を計数するようにしてもよく、超音波センサ等を用いて人を識別しつつ移動速度及び静止時間等を計数するようにしてもよい。
図7を参照して、本発明の実施例2による行動認識システムについて説明する。図7において、図1に示す構成要素については同一の参照番号を付し説明を省略する。ここでは、新たに行動パターン履歴情報メモリ32が備えられており、実施例1で説明したようにして得られた行動パターンデータをブロック15−1〜15−Nに対応付けて行動パターン履歴メモリ32に格納する。そして、行動パターン履歴メモリ32に格納された行動パターンデータを統計処理して、メモリ31内の行動パターン統計情報を更新する。
このようにして、行動パターンデータを統計処理して得られた結果に応じてメモリ31内の行動パターン統計情報を更新するようにすれば、行動パターン統計情報で示される一般的な行動パターンの精度を高めることができる結果、人の行動を認識する際の精度を向上させることができる。
図8を参照して、本発明の実施例2による行動認識システムについて説明する。図8において、図7に示す構成要素については同一の参照番号を付し説明を省略する。ここでは、ロボット12が前述した人位置情報を生成して、行動パターンデータ抽出装置22に送る。サービスエリア11内にカメラ14は配置されておらず、代わりにロボット12からの人位置情報をうけるための受信機33がサービスエリア11内に配置されている。
実施例3においては、図示はしないが、ロボット12は、その頭部に搭載した視覚カメラで周囲の画像を取り込む。そして、実施例1で説明したようにして、画像データから人の頭部領域を抽出して、この頭部領域の重心座標(頭部中心座標)を抽出する。ロボット12は、視覚カメラの設置位置、撮像方向(向き)、及びレンズパラメータデータと頭部重心座標とに応じて、人の3次元座標計算を実行して、人位置情報を得る。この人位置情報はロボット12から受信機33にロボットの位置を表すロボット位置情報とともに行動パターンデータ抽出装置22に送られる。
ロボット12はGPS装置等で自身の位置を計測しており、行動パターンデータ抽出装置22ではロボット位置情報からロボット12が位置するブロック、つまり、当該人が位置するブロックを判別することができる。
このようにして、図1に示す位置計算装置21をロボット12に備えるようにすれば、カメラ14等のセンサが不要となって、ロボット自体にセンシングの機能を担わせることができる結果、センサ配置によるコストアップを低減することができる。
なお、ロボット12自体が前述した行動パターンデータ抽出装置22及び行動・状況識別装置23を備えるようにしてもよく、このようにすれば、ロボット12自体によって行動認識が行える結果、人に対するサービスを的確に行うことができる。
サービスエリア内における大多数の人の行動パターンに応じてサービスエリアを複数のブロックに分割し、ブロック毎の大多数の人の行動パターンの特徴を行動パターン統計情報として記録して、ブロック毎に人の動きを監視して得られたセンシングデータから人位置情報を得て、人位置情報に応じて人の位置変化を求めて、位置変化を示す行動パターンデータと行動パターン統計情報とを比較し、人の行動を判定して行動認識結果として出力するようにしたから、サービスエリア内の場所毎に人の移動状況が異なるような場合であっても、特異な状態にある人の行動を精度よく認識することができる結果、生活支援ロボットシステム等の各種ロボットシステムにおける人の行動認識に適用できる。
11 サービスエリア
12 生活支援ロボット
13 人
14 カメラ
15−1〜15−N ブロック(領域)
20 行動認識システム
21 位置計測装置
22 行動パターンデータ抽出装置
23 行動・状況識別装置
24 ロボット制御プラットフォーム
25 画像データ
26 頭部領域
31 メモリ
32 行動パターン履歴情報メモリ
33 受信機
12 生活支援ロボット
13 人
14 カメラ
15−1〜15−N ブロック(領域)
20 行動認識システム
21 位置計測装置
22 行動パターンデータ抽出装置
23 行動・状況識別装置
24 ロボット制御プラットフォーム
25 画像データ
26 頭部領域
31 メモリ
32 行動パターン履歴情報メモリ
33 受信機
Claims (4)
- 所定のサービスエリア内における人の行動パターンを認識する行動パターン認識システムであって、
前記サービスエリア内における大多数の人の行動パターンに応じて前記サービスエリアが複数のブロックに分割されており、
前記ブロック毎の大多数の人の行動パターンの特徴が行動パターン統計情報として記録されたメモリ手段と、
前記ブロック毎に人の動きを監視してセンシングデータを得るセンシング部と、
該センシングデータに基づいて人の位置座標を得て人位置情報とする位置算出手段と、
前記位置算出手段から受けた前記人位置情報に応じて人の位置変化を求めて該位置変化を行動パターンデータとする行動パターン抽出手段と、
前記ブロック毎に前記行動パターンデータと前記行動パターン統計情報とを比較し人の行動を判定して行動認識結果として出力する行動識別手段とを有することを特徴とする行動認識システム。 - 前記行動パターン抽出手段は前記行動パターンデータを統計処理して前記行動パターン統計情報を更新するようにしたことを特徴とする請求項1記載の行動認識システム。
- 前記サービスエリア内にはロボットが自走しており、
少なくとも前記センシング部及び前記位置算出手段は前記ロボットに備えられていることを特徴とする請求項1又は2記載の行動認識システム。 - 前記サービスエリア内にはロボットが自走しており、
前記行動認識結果は前記ロボットの制御に用いられることを特徴とする請求項1又は2記載の行動認識システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005033593A JP2006221379A (ja) | 2005-02-09 | 2005-02-09 | 行動認識システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005033593A JP2006221379A (ja) | 2005-02-09 | 2005-02-09 | 行動認識システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006221379A true JP2006221379A (ja) | 2006-08-24 |
Family
ID=36983680
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005033593A Withdrawn JP2006221379A (ja) | 2005-02-09 | 2005-02-09 | 行動認識システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006221379A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009037893A1 (ja) * | 2007-09-19 | 2009-03-26 | Oki Electric Industry Co., Ltd. | 位置情報解析装置、位置情報解析方法および位置情報解析システム |
JP2015138295A (ja) * | 2014-01-20 | 2015-07-30 | 株式会社竹中工務店 | 不審者検出装置およびプログラム |
JP2016170516A (ja) * | 2015-03-11 | 2016-09-23 | オムロン株式会社 | 注視対象判定装置、注視対象判定方法、および、注視対象判定プログラム |
JP2017170568A (ja) * | 2016-03-24 | 2017-09-28 | 株式会社国際電気通信基礎技術研究所 | サービス提供ロボットシステム |
CN109508698A (zh) * | 2018-12-19 | 2019-03-22 | 中山大学 | 一种基于二叉树的人体行为识别方法 |
CN112750062A (zh) * | 2019-10-31 | 2021-05-04 | 比亚迪股份有限公司 | 车站的乘客服务控制方法、系统和终端设备 |
US20210137438A1 (en) * | 2017-10-31 | 2021-05-13 | Hewlett-Packard Development Company, L.P. | Control system for mobile robots |
-
2005
- 2005-02-09 JP JP2005033593A patent/JP2006221379A/ja not_active Withdrawn
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009037893A1 (ja) * | 2007-09-19 | 2009-03-26 | Oki Electric Industry Co., Ltd. | 位置情報解析装置、位置情報解析方法および位置情報解析システム |
JP2015138295A (ja) * | 2014-01-20 | 2015-07-30 | 株式会社竹中工務店 | 不審者検出装置およびプログラム |
JP2016170516A (ja) * | 2015-03-11 | 2016-09-23 | オムロン株式会社 | 注視対象判定装置、注視対象判定方法、および、注視対象判定プログラム |
JP2017170568A (ja) * | 2016-03-24 | 2017-09-28 | 株式会社国際電気通信基礎技術研究所 | サービス提供ロボットシステム |
US20210137438A1 (en) * | 2017-10-31 | 2021-05-13 | Hewlett-Packard Development Company, L.P. | Control system for mobile robots |
CN109508698A (zh) * | 2018-12-19 | 2019-03-22 | 中山大学 | 一种基于二叉树的人体行为识别方法 |
CN109508698B (zh) * | 2018-12-19 | 2023-01-10 | 中山大学 | 一种基于二叉树的人体行为识别方法 |
CN112750062A (zh) * | 2019-10-31 | 2021-05-04 | 比亚迪股份有限公司 | 车站的乘客服务控制方法、系统和终端设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7163945B2 (ja) | 移動状況推定装置、移動状況推定方法およびプログラム記録媒体 | |
US10417503B2 (en) | Image processing apparatus and image processing method | |
JP5641445B2 (ja) | 監視システム、監視方法、及び監視プログラム | |
EP3434626B1 (en) | Projection instruction device, parcel sorting system, and projection instruction method | |
JP3781370B2 (ja) | 移動装置 | |
EP2458553A1 (en) | Surveillance camera terminal | |
JP2006221379A (ja) | 行動認識システム | |
JP5927691B2 (ja) | エリアモニタリングシステム | |
EP2058777A1 (en) | Suspicious behavior detection system and method | |
US8731829B2 (en) | Flow line detection system, flow line detection method, and flow line detection program | |
EP3434621B1 (en) | Instruction projecting device, parcel sorting system and instruction projecting method | |
EP3434622A1 (en) | Instruction projecting device, package sorting system and instruction projecting method | |
EP2309454A2 (en) | Apparatus and method for detecting motion | |
EP3434623B1 (en) | Projection indicator, cargo assortment system, and projection indicating method | |
CN112381853A (zh) | 用于利用无线信号和图像来进行人员检测、跟踪和标识的装置和方法 | |
JP4777196B2 (ja) | 運転支援装置 | |
KR101840042B1 (ko) | 복합 가상 팬스 라인 설정 방법 및 이를 이용한 침입 감지 시스템 | |
JP7271373B2 (ja) | 映像処理装置、映像処理システムおよび映像処理方法 | |
CN113557713A (zh) | 情景感知监测 | |
JP7176868B2 (ja) | 監視装置 | |
EP2966592B1 (en) | Face recognition apparatus and method for recognizing face | |
KR101985773B1 (ko) | 건물의 실내 위치추적 시스템 및 방법 | |
JP2018019278A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN114076597A (zh) | 步行推定系统、步行推定方法及计算机可读介质 | |
JP6451418B2 (ja) | 注視対象判定装置、注視対象判定方法、および、注視対象判定プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20080513 |