JP4815208B2 - 人間追跡装置及び方法、その方法を行うためのプログラムが記録された記録媒体とその装置を備えた移動型電子機器 - Google Patents

人間追跡装置及び方法、その方法を行うためのプログラムが記録された記録媒体とその装置を備えた移動型電子機器 Download PDF

Info

Publication number
JP4815208B2
JP4815208B2 JP2005359745A JP2005359745A JP4815208B2 JP 4815208 B2 JP4815208 B2 JP 4815208B2 JP 2005359745 A JP2005359745 A JP 2005359745A JP 2005359745 A JP2005359745 A JP 2005359745A JP 4815208 B2 JP4815208 B2 JP 4815208B2
Authority
JP
Japan
Prior art keywords
position information
tracking
foot
candidate
mobile electronic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005359745A
Other languages
English (en)
Other versions
JP2006221610A (ja
Inventor
映 晋 洪
相 ▲民▼ 尹
炯 機 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2006221610A publication Critical patent/JP2006221610A/ja
Application granted granted Critical
Publication of JP4815208B2 publication Critical patent/JP4815208B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Data Mining & Analysis (AREA)
  • Image Analysis (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Steering Controls (AREA)
  • Studio Devices (AREA)
  • Manipulator (AREA)

Description

本発明は、移動型電子機器における人間追跡技術に係り、特に、前方カメラと構造化光(SL:Structured Light)を利用する人間追跡装置及び方法、その方法を行うためのプログラムが記録された記録媒体とその装置を備える移動型電子機器に関する。
移動型ロボット(以下、「ロボット」という)は、人間の代わりに単純な作業を反復して行う移動型電子機器である。
しかし、さらに知能的なロボットが要求されるにつれ、ロボットと人間との相互作用に関連した多くの技術が研究されている。ロボットと人間との円滑な相互作用のために、優先的に要求される課題は、ロボットが人間を追跡できねばならないということである。
既に提案された人間追跡技術として、背景映像と入力映像との間の差映像を利用して物体の動きを検出する方法がある。しかし、前記差映像を利用する方法は、同じ背景を有する映像の場合には効果的であるが、異なる背景を有する映像の場合には効果的ではない。ロボットは、主に異なる背景を有する映像を使用するので、前記差映像を利用する方法によって人間を追跡する場合に、ロボットの運用は、非効果的になってしまう。
また、テンプレートマッチングを介して全方向(omni-directional)カメラから検出された人間領域とレーザレインジファインダ(laser rangefinder)のプロファイルデータとを比較し、ロボットと人間との相手位置によってモータを制御する人間追跡方法がある。しかし、この方法は、全方向カメラ映像で、テンプレートマッチングが失敗した場合に、追跡対象を失い、人ではない類似パターンを追跡してしまうことにもなる。
さらに、磁石を利用した発信装置のような装置をユーザが携帯し、ロボットが前記発信装置を感知してユーザを追跡する方法がある。しかし、この方法は、ユーザが別途の発信装置を常に携帯しなければならないという面倒さがある。
また、前記した既存の人間追跡方法は、障害物を考慮しておらず、ロボットが障害物を回避しながら人間を追跡することができず、さらに、ほとんどのユーザの顔を基に追跡するので、ユーザの後ろ姿を基とした追跡が不可能である。
本発明が解決しようとする技術的課題は、前方カメラとSLとを利用してユーザを追跡できる装置及び方法と、その方法を行うためのプログラムが記録された記録媒体とを提供することである。
また、本発明が解決しようとする他の技術的課題は、ユーザの上体と足とを対象にユーザを追跡できる装置及び方法と、その方法を行うためのプログラムが記録された記録媒体とを提供することである。
さらに、本発明が解決しようとする他の技術的課題は、ユーザを追跡しつつ障害物回避が可能なユーザ追跡装置及び方法と、その方法を行うためのプログラムが記録された記録媒体とを提供することである。
また、本発明が解決しようとする他の技術的課題は、ユーザが別途の発信装置を携帯せずとも、移動型電子機器によるユーザ追跡を可能にするユーザ追跡装置及び方法と、その方法を行うためのプログラムが記録された記録媒体とを提供することである。
さらに、本発明が解決しようとする他の技術的課題は、前記人間追跡装置を有する移動型電子機器を提供することである。
前記技術的課題を解決するために本発明は、人間の少なくとも1つの上体位置情報を検出する上体位置情報検出モジュールと、前記人間の少なくとも1つの足位置情報を検出する足位置情報検出モジュールと、前記少なくとも1つの上体位置情報と前記少なくとも1つの足位置情報とを基に、追跡対象を選択する追跡対象選択モジュールと、前記追跡対象選択モジュールにより選択された追跡対象を追跡するために人間追跡装置を駆動する駆動モジュールとを備える人間追跡装置を提供する。
前記技術的課題を解決するために本発明は、人間の少なくとも1つの上体位置情報を検出する上体位置情報検出モジュールと、前記人間の少なくとも1つの足位置情報を検出する足位置情報検出モジュールと、前記少なくとも1つの上体位置情報と前記少なくとも1つの足位置情報とを基に、追跡対象を選択する追跡対象選択モジュールと、前記追跡対象選択モジュールで選択された追跡対象を追跡するための前記移動型電子機器の追跡速度及び方向を計算する追跡速度及び方向計算部と、前記移動型電子機器を駆動するためのモータと、前記追跡速度及び方向計算部で計算された結果を基に、前記モータを制御するモータ制御部とを備える人間追跡装置を提供する。
前記人間追跡装置は、前記追跡対象選択モジュールで選択された追跡対象の位置情報と前記足位置情報検出モジュールで検出された位置情報とを基に障害物を検出し、検出された障害物を登録する障害物登録部をさらに備えることが望ましい。また、前記足位置情報検出モジュールで検出された位置情報は、取得されたレーザライン映像に含まれているSL(Structured Light)レーザラインパターンを基にした情報であることが望ましい。さらに、前記追跡速度及び方向計算部は、前記選択された追跡対象の位置情報と前記障害物登録部に登録された障害物の位置情報とを利用し、前記追跡速度及び方向を計算することが望ましい。
前記技術的課題を解決するために本発明は、人間の少なくとも1つの上体位置情報と少なくとも1つの足位置情報とを検出するステップと、前記少なくとも1つの上体位置情報と前記少なくとも1つの足位置情報とを基に、追跡対象を選択するステップと、前記選択された追跡対象を追跡するステップとを含む人間追跡方法を提供する。
前記技術的課題を解決するために本発明は、人間の少なくとも1つの上体位置情報と少なくとも1つの足位置情報とを検出するステップと、前記少なくとも1つの上体位置情報と前記少なくとも1つの足位置情報とを基に、追跡対象を選択するステップと、前記選択された追跡対象を追跡するために、前記移動型電子機器の追跡速度及び方向を計算するステップと、前記計算された追跡速度及び方向を基に、前記移動型電子機器の駆動を制御するステップとを含む人間追跡方法を提供する。
前記技術的課題を解決するために本発明は、移動型電子機器により使用される人間追跡方法を行うためのプログラムが記録された記録媒体であって、前記人間追跡方法は、人間の少なくとも1つの上体位置情報と少なくとも1つの足位置情報とを検出するステップと、前記少なくとも1つの上体位置情報と前記少なくとも1つの足位置情報とを基に、追跡対象を選択するステップと、前記選択された追跡対象を追跡するために、前記移動型電子機器の追跡速度及び方向を計算するステップと、前記計算された追跡速度及び方向を基に、前記移動型電子機器の駆動を制御するステップとを含む記録媒体を提供する。
前記技術的課題を解決するために本発明は、少なくとも1つの上体位置情報を検出する上体位置情報検出モジュールと、少なくとも1つの足位置情報を検出する足位置情報検出モジュールと、前記少なくとも1つの上体位置情報と前記少なくとも1つの足位置情報とを基に、追跡対象を選択する追跡対象選択モジュールと、前記追跡対象選択モジュールで選択された追跡対象を追跡するための前記移動型電子機器の追跡速度及び方向を計算する追跡速度及び方向計算部と、前記移動型電子機器を駆動するモータと、前記追跡速度及び方向計算部で計算された結果を基に、前記モータを制御するモータ制御部とを備える移動型電子機器を提供する。
本発明によれば、人間(ユーザ)が別途の発信装置を携帯せずとも、移動型電子機器(ロボット)が人間を追跡できる。また、移動型電子機器が人間の正面、背面、及び側面をいずれも考慮して上体映像を追跡するので、人間がいかなる姿勢で移動しても、移動型電子機器による人間の追跡が可能である。
また、追跡対象と障害物の検出結果を利用し、移動型電子機器の追跡速度及び方向を制御することにより、人間を追跡しつつ障害物回避が可能である移動型電子機器を提供できる。そして、人間の上体及び足を追跡した結果を利用することにより、移動型電子機器の誤追跡を防止できる。
以下、添付された図面を参照し、本発明による望ましい実施形態を詳細に説明する。
図1は、本発明の一実施形態による人間追跡装置の機能ブロック図である。図1に示すように、人間追跡装置Hは、上体位置情報検出モジュール100、足位置情報検出モジュール110、追跡対象選択モジュール130、障害物登録部140、追跡速度及び方向計算部150、モータ制御部160、及びモータ170を備える。図1に示した人間追跡装置Hは、ロボットのような移動型電子機器に含まれうる。
上体位置情報検出モジュール100は、人間の少なくとも1つの上体位置情報を検出するために、第1カメラ101、上体映像取得部102、及び上体候補検出部103を備える。
第1カメラ101は、所定の撮像手段によって撮像した映像を出力するものであり、人間を撮像できるものであれば、いかなる形態のカメラであってもよい。第1カメラ101は、ユーザが追跡開始を指示すれば、事前に設定された撮影距離の前を撮影する。前記事前に設定された撮影距離は、本発明による人間追跡装置Hを備えた移動型電子機器が前記ユーザの上体を撮影できる距離である。前記事前に設定された撮影距離は、実験的な結果を基に決定できるが、ユーザの追跡開始指示を基にしても決定できる。例えば、前記移動型電子機器が、人間の音声または拍手の音を利用した追跡開始指示を認識するように具現された場合、受信された音声または拍手の音を基に算出されたユーザと移動型電子機器との間の距離を、前記事前に設定された撮影距離と決定できる。前記事前に設定された撮影距離は、例えば1メートル(m)と設定できる。
上体映像取得部102は、第1カメラ101から出力される映像で事前に設定された領域の映像を上体映像として取得する。すなわち、第1カメラ101から入力映像が提供されれば、例えば、図2の領域201の映像を上体映像として取得する。
図2は、図1に示した上体映像取得部102により取得される上体映像領域の例示図である(適宜図1参照)。領域201は、事前に設定された上体映像領域であり、第1カメラ101により撮影された映像に含まれている上体映像がユーザの正面にしろ、背面にしろ、左側面にしろ、右側面にしろ、前記上体映像を検出できる領域である。領域201に対する二次元座標情報は、実験的な結果を基に事前に設定される。
上体映像取得部102は、取得された領域201内の上体映像についてのカラーヒストグラムを利用し、領域201内の色相数を定量化した数値を上体候補検出部103に提供する。
上体候補検出部103は、初期フレームの場合に、事前に設定された領域201の二次元座標情報を上体候補(または上体候補映像)の位置情報(または相対座標値)として出力する。
初期フレーム以外のフレームの場合に、上体候補検出部103は、上体映像取得部102から提供された上体映像についての色相数の定量化された数値を基に、第1カメラ101から提供される入力映像についてパーチクルフィルタリング(particle-filtering)及び平均移動追跡を行い、少なくとも1つの上体候補を検出する。
図3は、図1に示した上体候補検出部103による上体候補の検出方法を示すフローチャートである。以下、図3を参照しながら,上体候補の検出方法について説明する(適宜図1参照)。
図3に示したように、上体候補検出部103は、第1カメラ101から提供される現在フレーム映像にいくつかのパーチクル(点)を振りまき、前記パーチクルを中心にいくつかのウィンドー(領域201と同様の長方形の領域)を形成する(ステップ301)。もし10個のパーチクルがまかれれば、前記10個のウィンドーが形成される。前記ウィンドーは、前記領域201と同じサイズおよび形を有する。
上体候補検出部103は、各ウィンドーについてのカラーヒストグラムを利用し、ウィンドー内の色相数を定量化する(ステップ302)。
上体候補検出部103は、各ウィンドーについて定量化された数値をバタリア係数(Bhattacharyya coefficient)に変換し、以前映像での追跡対象ウィンドーと前記現在フレーム映像に形成された各ウィンドーとの間の類似度を比較する(ステップ303)。以前映像での追跡対象ウィンドーについての情報は、上体映像取得部102で取得した領域201映像についての定量化された数値である。
上体候補検出部103は、前記現在フレーム映像に形成された各ウィンドーのうち、前記以前映像での追跡対象ウィンドーと類似度の高いウィンドーとに、さらに多くの加重値を与え、前記類似度が高いウィンドーの位置にパーチクルを集め、現在フレーム映像での上体映像についての候補領域を検出する(ステップ304)。
上体候補検出部103は、平均移動追跡方式を利用し、前記検出された候補領域(または、パーチクル)のうち、1つの候補領域を検出する。すなわち、上体候補検出部103は、上体映像取得部102で取得された上体映像を基準モデルとして、前記候補領域のうち前記上体映像取得部102で取得した上体映像と最も隣接し、かつ類似度の高い候補領域を検索し、検索された候補領域の位置を検出された上体候補の位置と決定し、この決定された上体候補の位置情報を出力する(ステップ305)。前記位置情報は、第1カメラ101を介して入力される映像での二次元座標値を相対座標値とする。前記上体映像の位置情報は、上体の方向(orientation θ)と表現可能である。前記上体映像追跡部103で出力される上体映像の位置情報は、追跡対象選択モジュール130に提供される。
一方、図1に示すように、足位置情報検出モジュール110は、人間の少なくとも1つの足位置情報を検出するために、レーザ発振部111、第2カメラ112、足映像取得部113、映像歪曲補償部114、及び足候補検出部115を備える。
ユーザが追跡開始を指示すれば、足映像取得部113は、レーザ発振部111を制御し、レーザを水平方向にプロジェクション(投射)する。前記プロジェクションされたレーザ光は、SL(Structured Light)という。前記レーザは、赤外線レーザを使用できる。
第2カメラ112は、レーザ発振部111が赤外線レーザを発振させるように構成された場合に、赤外線フィルタを装着したカメラを使用する。第2カメラ112は、レーザ発振部111からのSLレーザラインを撮像した映像を出力する。特に、第2カメラ112は、さらに広い領域を撮影するために魚眼レンズを装着してもよい。
足映像取得部113は、レーザ発振部111を制御し、第2カメラ112から撮像された入力映像から足映像を取得する。前記取得される足映像は、プロジェクションフレーム映像である。足映像取得部113で取得される足映像は、第2カメラ112から出力される映像と同一である。
しかし、足映像取得部113は、上体映像取得部102と同様に、第2カメラ112で撮影された映像について、事前に設定された特定領域を足映像として取得するように具現できる。
映像歪曲補償部114は、足映像取得部113で取得されたプロジェクションフレーム映像の歪曲を補償する。前記映像の歪曲は、第2カメラ112に装着されたレンズ(図示せず)による幾何学的映像歪曲である。従って、前記第2カメラ112に魚眼レンズが装着された場合に、映像歪曲補償部114は、プロジェクションフレーム映像についての放射状方向の歪曲と接線方向の歪曲とをいずれも補償する。従って、映像歪曲補償部114から出力されるプロジェクション映像は、図4に示したように、レンズによる映像歪曲が補償された映像である。図4は、図1に示した映像歪曲補償部で補償された足映像の例示図である(詳細は後記)。
足候補検出部115は、映像歪曲補償部114から歪曲が補償されたプロジェクション映像が入力されれば、入力されたプロジェクション映像に含まれているSLレーザラインを基に、反射体の各画素の距離を求める。
レーザ発振部111と第2カメラ112及びSLにより形成されるプロジェクション面間の関係は、図5に示したように定義できる。図5で、X,Y,Zは、レーザ発振部111のフレームであり、X,Y,Zは、第2カメラ112のフレームであり、αは、第2カメラ112のフレームとレーザ発振部111のフレームとの間のX軸を中心にした回転角である。Pは、第2カメラ112のフレームとレーザ発振部111のフレームとの間のY軸方向へのオフセットである。前記フレームX,Y,Zと前記フレームX,Y,Zとの関係は数式(1)のように定義される。
前記数式(1)に定義されたようなレーザ発振部111、第2カメラ112及びSLプロジェクション面の関係式により、足候補検出部115は、取得された足映像に含まれているSLレーザラインそれぞれと本願発明による人間追跡装置Hを備えた移動型電子機器との間の距離Zと、前記移動型電子機器とSLレーザラインとの間の左右距離Xとを求める。
すなわち、SLレーザプロジェクション面上のYが0であるとき、第2カメラ112のフレームX,Y,Zは、数式(2)のように定義されうる。
数式(2)で、(Xs,Ys)は、物体の映像座標であり、S/f、S/fは、前記物体の映像座標(Xs,Ys)を空間座標に変換するためのスケール定数である。
SLレーザプロジェクション面上のYp=0である条件と数式(2)とを利用すれば、数式(3)のような値を得ることができる。
数式(1)、数式(2)及び数式(3)から、前記SLレーザラインそれぞれと本願発明による人間追跡装置Hを備えた移動型電子機器との間の距離Zと、前記移動型電子機器とSLレーザラインとの間の左右距離Xとを数式(4)のように求めることができる。
このように、移動型電子機器と人間の足との間の距離Zと移動型電子機器と足との間の左右距離Xとが求められれば、足候補検出部115は、求められたZとXを二次元マッピングする。
従って、足候補検出部115は、図6に示したようなSLレーザラインパターンの含まれている二次元映像を得る。
図6は、図4に示したプロジェクションフレーム映像に相応するSLレーザラインパターンの含まれている二次元映像である(適宜図1参照)。
足候補検出部115は、画素間の距離により、図6に示したように、二次元マッピングされた映像をグルーピング及びクラスタリングして足候補を検出する。すなわち、二次元マッピングされた映像について、前記のグルーピング及びクラスタリングを行えば、図6の領域610から領域611、領域612を得る。領域610は、二次元マッピングされた映像を拡大して図示したものである。
足候補検出部115は、前記領域611、領域612の対角線長さlを検出し、検出された対角線長さlと、事前に設定された足パターンサイズについての特性値とを比較して足候補を検出する。これは、前記グルーピング及びクラスタリングにより設定された領域の対角線長さlと足パターンサイズに対する特性値とが近似した値を有するためである。
前記の足パターンサイズは、最適の足パターンの属性として定義できる。前記足パターンサイズは、移動型電子機器が人間を正面、背面、側面(左右面)に見たとき、1メートル(m)と3メートル(m)とで測定された多数の成人男女の足パターンのサイズを基に設定されうる。
このように、足候補検出部115で検出された足候補の二次元座標値(相対座標値)は、追跡対象選択モジュール130に伝送される。
追跡対象選択モジュール130は、上体候補検出部103から提供された上体候補の二次元座標値と、足候補検出部115から提供された足候補の二次元座標値とを利用して追跡対象を選択する。
追跡対象選択モジュール130は、追跡候補検出部131及び追跡対象選択部132を備える。
追跡候補検出部131は、最初のフレーム映像に対する追跡対象選択時には、足候補検出部115から提供される足候補と、上体候補検出部103から提供された位置情報を基にした上体候補とをいずれも追跡候補として検出する。しかし、第二のフレーム映像で、追跡候補検出部131は、以前フレームで追跡対象として選択された足候補の位置を中心座標とした探索範囲を設定する。
図7の(a)及び(b)は、最初のフレーム映像で検出された追跡対象を基にした探索範囲設定の例示図である(適宜図1参照)。図7(a)に示したプロジェクションフレーム映像で検出された追跡対象が、図7(b)に示した符号701及び符号702で表わされたものであるとき、探索範囲は、領域703のように設定されうる。前記探索領域は、成人男女が前に歩く場合と横に歩く場合の平均歩幅、平均速度、移動型電子機器の反応速度などを考慮して決定されうる。
図1に示すように、追跡候補検出部131は、前記設定された探索領域に含まれるあらゆる足候補を追跡候補として検出する。
また、追跡候補検出部131は、上体候補検出部103から提供された上体候補の位置情報(または、二次元座標情報)が、前記探索領域内に含まれているか否かチェックする。もし、上体候補の位置情報が前記探索領域の外に外れれば、追跡候補検出部131は、前記上体候補の位置情報を無視する。これは、上体候補の位置情報を誤って検出することによる誤追跡を防止するためのものである。
探索領域外に追跡上体映像の位置情報が外れれば、追跡候補検出部131は、ユーザを呼び出すか、またはそれ以外の方法で追跡対象の消失をユーザに通報可能である。
前記探索領域が入力された足候補の位置を含んでいないとき、追跡候補検出部131は、ユーザに追跡対象の消失を知らせることができる。
上体候補検出部103から上体候補の位置情報が提供されていないか、または足候補検出部115から足候補の位置情報が提供されていない場合にも、追跡候補検出部131は、ユーザを呼び出すか、またはそれ以外の方法で追跡対象の消失をユーザに通報できる。
追跡候補検出部131は、検出された追跡候補の位置情報を追跡対象選択部132に出力する。
追跡対象選択部132は、追跡候補検出部131から追跡候補と判断された上体候補の位置情報と、追跡候補と決定された足候補の位置情報とを受信し、受信された位置情報を利用して最適の追跡対象を選択する。
図8は、図1の追跡対象選択部132での追跡対象選択過程を説明するための図面である(適宜図1参照)。図8に示すように、追跡対象選択部132が以前の追跡対象位置801を基に設定された探索領域800に含まれる複数の足候補802,803,804,805についての位置情報と、上体候補811の位置情報とを受信すれば、追跡対象選択部132は、上体候補811の位置と最も近い距離に位置した足候補804を追跡対象として選択するか、または以前の追跡対象位置801から最も近い足パターン候補の位置を追跡対象として選択するか、または以前の追跡対象位置801から、上体候補の位置の異なった足パターン候補の位置より近い場合に、上体候補の位置を追跡対象として選択することができる。
足候補の位置と上体候補の位置とが一致しない場合に、追跡対象選択部132は、以前の追跡位置で最も変位量の小さな位置を追跡対象として選択できる。
このように、追跡対象を選択するために、追跡対象選択部132は、足候補の二次元座標値を利用して方向誤差と距離誤差とを求め、上体候補の二次元座標値を利用して方向誤差を求める。前記方向誤差及び距離誤差は、数式(5)により求めることができる。
数式(5)で、DOは、移動型電子機器と人間との間の追跡維持間隔であり、x、yは、図10で足1001の位置間の中央に表示された二次元座標値(x,y)に該当する。
数式(5)により求められた方向誤差及び距離誤差値を利用し、探索範囲内の各足候補、上体候補、及び以前追跡対象間の位置関係を把握できる。
追跡対象が選択されれば、追跡対象選択部132は、選択された追跡対象の位置情報を障害物登録部140と、追跡速度及び方向計算部150とに提供する。
障害物登録部140は、SLレーザラインパターンを基にした足候補検出部115から提供される足映像の位置情報と、追跡対象選択部132から提供される追跡対象の位置情報とを比較する。前記SLレーザラインパターンを基にした足映像の位置情報は、足候補検出部115で足候補として検出されたSLレーザラインパターンの位置情報と、足候補として検出されていないSLレーザラインパターンの位置情報とをいずれも含む。
比較した結果、前記追跡対象の位置情報以外のSLレーザラインパターンの位置情報が検出されれば、障害物登録部140は、前記検出されたSLレーザラインパターンの位置情報のうち、移動型電子機器と最も近いところの位置情報を有するSLレーザラインパターンを移動型電子機器が避ける障害物として認識する。
従って、障害物登録部140は、前記移動型電子機器と最も近いところに位置したSLレーザラインパターンを障害物として選択し、選択された障害物の位置情報を登録する。障害物として選択されるSLレーザラインパターンの位置情報は、SLレーザラインパターンをグルーピング及びクラスタリングにより得られた位置情報でありうる。
図9は、追跡速度と障害物回避速度との関係を説明するための図面である(適宜図1参照)。図9に示すように、追跡速度及び方向計算部150は、追跡対象選択部132から追跡対象の位置情報を、障害物登録部140から障害物の位置情報を受信し、人間900と移動型電子機器901との間の引力と障害物902と移動型電子機器901との間の斥力とのベクトル和を利用し、移動型電子機器901の最終追跡方向及び速度を決定する。
図10は、図1に示した追跡速度及び方向計算部150で、移動型電子機器の左右回転速度の決定過程を説明するための図面である(適宜図1参照)。図10に示すように、追跡速度及び方向計算部150は、選択された追跡対象の足1001と移動型電子機器1002との間の距離dと方向θの相対誤差を基に、移動型電子機器1002の左右の輪1003,1004の回転速度を決定する。このとき、追跡速度及び方向計算部150は、障害物の位置と逆方向に移動型電子機器1002を移動させるように移動型電子機器1002の左右の輪1003,1004の回転速度を決定できる。左右の輪1003,1004の回転速度を決定する方法としては、PID(Proportional integral Derivative)制御アルゴリズムなどを活用できる。
モータ制御部160は、前記のように計算された追跡速度及び方向により、移動型電子機器に装着されたモータ170の回転方向及び速度を制御する。前記モータ170は、図10に示したような、移動型電子機器1002に装着された左右の輪1003,1004を回転させるモータである。
追跡速度及び方向計算部150、モータ制御部160及びモータ170は、選択された追跡対象を追跡するために、人間追跡装置Hを駆動する駆動モジュールと定義可能である。しかし、選択された追跡対象を追跡するために、人間追跡装置Hは、固定された位置で追跡方向だけを計算し、計算された追跡方向を基に、追跡対象を追跡するように具現できる。
図11は、本発明の他の実施形態による人間追跡方法のフローチャートである(適宜図1参照)。図1と図11に示すように、ユーザの音声または拍手音による追跡開始指示(信号)が受信されれば(ステップ1101で「はい」)、移動型電子機器は、第1カメラ101を制御して所定距離前方を撮影する。移動型電子機器は、撮影された映像からユーザの上体映像を取得する(ステップ1102)。上体映像は、図1の上体映像取得部102と同じ方法で取得される。従って、撮影された映像がユーザの前面、背面、側面であるか否かに関係なく、撮影された映像から上体映像を取得することができる。
移動型電子機器は、前記取得された上体映像を基に、次のフレーム映像での上体候補(または、上体候補映像)を検出する(ステップ1103の前半)。上体候補検出は、図1の上体候補検出部103の場合と同様に、パーチクルフィルタリング及び平均移動追跡方式により行われる。移動型電子機器は、検出された上体候補の位置情報を検出する(1103の後半)。前記位置情報は、二次元座標情報でありうる。
一方、移動型電子機器は、レーザ発振部111を制御してレーザを発振し、第2カメラ112を介してSLレーザラインを含むプロジェクション映像を足映像として取得する(ステップ1104)。
次に、移動型電子機器は、取得された足映像の歪曲を補償する(ステップ1105)。補償される映像歪曲は、第2カメラ112に装着されたレンズによる歪曲である。移動型電子機器は、歪曲が補償された映像で、図1の足候補検出部115の場合とと同様に、歪曲が補償された映像のSLレーザラインパターンを利用して足候補を検出し、検出された足候補の位置情報を検出する(ステップ1106)。足候補の位置情報は、二次元座標情報である。
移動型電子機器は、ステップ1103で検出された上体候補の位置情報と、第1106ステップで検出された足候補の位置情報とを利用して追跡候補を検出する。追跡候補は、図1の追跡候補検出部131の場合と同様に検出する(1107)。ステップ1103で、上体候補の位置情報が検出されていないか、またはステップ1106で、足候補の位置情報が検出されていないか、または検出された上体候補の位置情報または足候補の位置情報が以前の追跡対象を基に設定された探索領域を外れれば、移動型電子機器は、追跡対象の消失をユーザに知らせることができる。
移動型電子機器は、検出された追跡候補から追跡対象を選択する(ステップ1108)。追跡対象は、図1の追跡対象選択部132の場合と同様に選択される。
追跡対象が選択されれば、移動型電子機器は、選択された追跡対象の位置情報と、ステップ1106で、足候補を検出するために利用されたSLレーザラインパターンを基とした位置情報とを利用して障害物を登録する(ステップ1109)。すなわち、図1の障害物登録部140の場合と同様に、移動型電子機器は、前記SLレーザラインパターンを基とした位置情報で、前記選択された追跡対象の位置情報を除外し、前記選択された追跡対象の位置情報が除外されたSLレーザラインパターンの位置情報のうち、移動型電子機器に最も近いところの位置情報を有するSLレーザラインパターンを障害物として登録する。登録情報は、SLレーザラインパターンの位置情報である。前記SLレーザラインパターンの位置情報は、グルーピング及びクラスタリングにより得られた位置情報でありうる。
ステップ1108から選択された追跡対象の位置情報と、ステップ1109で登録された障害物の位置情報とを利用し、移動型電子機器は、追跡速度及び方向を図1の追跡速度及び方向計算部150の場合と同様に計算する(ステップ1110)。
移動型電子機器は、計算された追跡速度及び方向を基に、移動型電子機器の移動を制御するモータ(図示せず)を制御する(ステップ1111)。移動型電子機器は、ユーザによる追跡終了命令を受信すれば(ステップ1112で「はい」)、上体候補及び足候補追跡作業を終了する。しかし、移動型電子機器は、ユーザによる追跡終了命令を受信しなければ(ステップ1112で「いいえ」)、ステップ1102及びステップ1104に戻って前記の過程を繰り返す。
本願発明による移動型電子機器において、ユーザ追跡方法を行うためのプログラムは、コンピュータで読み取り可能な記録媒体にコンピュータで読み取り可能なコードとして具現することができる。コンピュータで読み取り可能な記録媒体は、コンピュータシステムによって読み込み可能なデータが保存されるあらゆる種類の保存装置のいずれであってもよい。コンピュータで読み取り可能な記録媒体の例としては、ROM(Read Only Memory)、RAM(Random Access Memory)、CD−ROM、磁気テープ、フレキシブルディスク、光データ保存装置などがあり、またキャリアウェーブ(例えば、インターネットを介した伝送)の形で具現されるものも含む。
また、コンピュータで読み取り可能な記録媒体は、ネットワークに連結されたコンピュータシステムに分散され、分散方式でコンピュータで読み取り可能なコードが保存されて実行されてもよい。そして、前記ユーザ追跡方法を具現するための機能的なプログラム、コード及びコードセグメントは、本発明が属する技術分野のプログラマらにより容易に推論可能である。
以上、本発明についてその望ましい実施形態を中心に説明した。本発明の属する技術分野における当業者は、本発明が本発明の本質的な特性を外れない範囲で変形された形に具現可能であることを理解できるであろう。従って、開示された実施形態は、限定的な観点ではなくして説明的な観点で考慮されねばならない。本発明の範囲は、以上の説明ではなく、特許請求の範囲に示されており、それと同等な範囲内にあるあらゆる差異点は、本発明に含まれていると解釈されるものである。
本発明の一実施形態による人間追跡装置の機能ブロックである。 図1に示した上体映像取得部により取得される上体映像領域の例示図である。 図1に示した上体候補検出部のフローチャートである。 図1に示した映像歪曲補償部で補償された足映像の例示図である。 図1に示したレーザ発振部、第2カメラ及びSLにより形成されるプロジェクション面間の関係を説明する図面である。 図4に相応するSLレーザラインパターンを含む二次元映像を示した図面である。 (a)は、最初のフレーム映像で検出された追跡対象を基にした探索範囲設定の例示図であり、(b)は、最初のフレーム映像で検出された追跡対象を基にした探索範囲設定の例示図である。 図1の追跡対象選択部での追跡対象選択過程を説明するための図面である。 追跡速度と障害物回避速度との関係を説明するための図面である。 図1に示した追跡速度及び方向計算部での移動型電子機器の左右回転速度の決定過程を説明するための図面である。 本発明の他の実施形態による人間追跡方法のフローチャートである。
符号の説明
100 上体位置情報検出モジュール
101 第1カメラ
102 上体映像取得部
103 上体候補検出部
110 足位置情報検出モジュール
111 レーザ発振部
112 第2カメラ
113 足映像取得部
114 映像歪曲補償部
115 足候補検出部
130 追跡対象選択モジュール
131 追跡候補検出部
132 追跡対象選択部
140 障害物登録部
150 追跡速度及び方向計算部
160 モータ制御部
170 モータ
H 人間追跡装置

Claims (18)

  1. 移動型電子機器に利用される人間追跡装置であって、
    第1カメラにより撮影された上体映像から人間の少なくとも1つの上体位置情報を検出する上体位置情報検出モジュールと、
    第2カメラにより撮影された足映像から前記人間の少なくとも1つの足位置情報を検出する足位置情報検出モジュールと、
    前記少なくとも1つの上体位置情報と前記少なくとも1つの足位置情報とを基に、追跡対象を選択する追跡対象選択モジュールと、
    前記追跡対象選択モジュールで選択された追跡対象を追跡するための、前記移動型電子機器の追跡速度及び方向を計算する追跡速度及び方向計算部と、
    前記移動型電子機器を駆動するモータと、
    前記追跡速度及び方向計算部で計算された結果を基に、前記モータを制御するモータ制御部と、
    を備え、
    前記追跡対象選択モジュールは、
    前記少なくとも1つの上体位置情報と前記少なくとも1つの足位置情報のうちから、所定の探索範囲に含まれる上体位置情報と足位置情報とを追跡候補情報として検出する追跡候補検出部と、
    前記追跡候補検出部で検出された追跡候補情報に含まれている足位置情報が複数個ならば、前記追跡候補情報に含まれている上体位置情報に近接した足位置情報を追跡対象情報として選択する追跡対象選択部とを備え
    前記追跡候補検出部は、
    前記所定の探索範囲を、以前フレームで追跡対象として選択された足候補の位置を中心座標とし、成人男女の前に歩く場合と横に歩く場合の平均歩幅、平均速度、及び前記移動型電子機器の反応速度を基に決定することを特徴とする人間追跡装置。
  2. 前記追跡候補検出部は、
    前記所定の探索範囲に少なくとも1つの上体位置情報が含まれていないか、または少なくとも1つの足位置情報が含まれていなければ、追跡対象の消失を知らせる信号を出力することを特徴とする請求項1に記載の人間追跡装置。
  3. 前記足位置情報検出モジュールは、
    レーザを発振させるレーザ発振部と、
    前記レーザ発振部から発生したレーザラインを撮像する前記第2カメラと、
    前記第2カメラを介して撮像されたレーザライン映像を足映像として取得する足映像取得部と、
    前記足映像取得部で取得された足映像から、前記少なくとも1つの足位置情報を足候補として検出する足候補検出部と、
    を備えることを特徴とする請求項1に記載の人間追跡装置。
  4. 前記足候補検出部は、
    前記移動型電子機器と前記レーザラインとの間の距離と、前記移動型電子機器と前記レーザラインとの間の左右距離とを求め、
    前記求められた距離を利用して二次元マッピングした映像を得て、
    前記二次元マッピングされた映像に対してグルーピング及びクラスタリングを行い、
    前記クラスタリングにより設定された映像領域の対角線長さと事前に設定された足パターン属性とを比較し、前記少なくとも1つの足位置情報を検出する
    ことを特徴とする請求項に記載の人間追跡装置。
  5. 前記足パターン属性は、前記移動型電子機器が人間を正面、背面、側面に見たとき、所定距離で測定された多数の成人男女の足パターンのサイズを基に設定されたことを特徴とする請求項に記載の人間追跡装置。
  6. 前記追跡対象選択モジュールで選択された追跡対象の位置情報と前記足位置情報検出モジュールで検出された位置情報とを基に障害物を検出し、前記検出された障害物の位置情報を登録する障害物登録部をさらに備える
    ことを特徴とする請求項に記載の人間追跡装置。
  7. 前記障害物登録部は、
    前記足位置情報検出モジュールで検出された位置情報で、前記選択された追跡対象の位置情報を除外した位置情報のうちから、前記移動型電子機器と最も近いところの位置情報を前記検出された障害物の位置情報として登録することを特徴とする請求項に記載の人間追跡装置。
  8. 前記足位置情報検出モジュールで検出された位置情報は、前記レーザライン映像に含まれているレーザラインパターンを基にした情報であることを特徴とする請求項に記載の人間追跡装置。
  9. 前記追跡速度及び方向計算部は、
    前記選択された追跡対象の位置情報と前記障害物登録部に登録された障害物の位置情報とを利用し、前記追跡速度及び方向を計算することを特徴とする請求項に記載の人間追跡装置。
  10. 前記追跡速度及び方向計算部は、
    前記選択された追跡対象の位置情報と前記障害物登録部に登録された障害物の位置情報とを基にした前記人間と前記人間追跡装置との間の引力及び前記障害物と前記移動型電子機器との間の斥力のベクトル和を利用して前記追跡速度及び方向を決定することを特徴とする請求項に記載の人間追跡装置。
  11. 前記追跡対象選択モジュールで選択された追跡対象の位置情報と前記足位置情報検出モジュールで検出された位置情報とを基に障害物を検出し、前記検出された障害物の位置情報を登録する障害物登録部をさらに備える
    ことを特徴とする請求項1に記載の人間追跡装置。
  12. 前記上体位置情報検出モジュールは、
    前記人間の正面、背面、側面を考慮した領域を基に前記第1カメラを利用して撮像された映像から、前記少なくとも1つの上体位置情報を検出することを特徴とする請求項1に記載の人間追跡装置。
  13. 移動型電子機器により使用される人間追跡方法であって、
    第1カメラにより撮影された上体映像から人間の少なくとも1つの上体位置情報と、第2カメラにより撮影された足映像から少なくとも1つの足位置情報とを検出するステップと、
    前記少なくとも1つの上体位置情報と前記少なくとも1つの足位置情報とを基に、追跡対象を選択するステップと、
    前記選択された追跡対象を追跡するために、前記移動型電子機器の追跡速度及び方向を計算するステップと、
    前記計算された追跡速度及び方向を基に、前記移動型電子機器の駆動を制御するステップと、
    を含み、
    前記追跡対象を選択するステップは、
    前記少なくとも1つの上体位置情報と前記少なくとも1つの足位置情報のうちから、所定探索範囲に含まれる上体位置情報と足位置情報とを追跡候補の位置情報として検出するステップと、
    前記検出された追跡候補の位置情報に含まれている足位置情報が複数個ならば、前記追跡候補情報に含まれている上体位置情報に近接した足位置情報を追跡対象情報として選択するステップと、
    を含み、
    前記所定の探索範囲は、以前フレームで追跡対象として選択された足候補の位置を中心座標とし、成人男女の前に歩く場合と横に歩く場合の平均歩幅、平均速度、及び前記移動型電子機器の反応速度を基に決定されることを特徴とする人間追跡方法。
  14. 前記足位置情報を検出するために取得された足映像で検出された位置情報で、前記選択された追跡対象の位置情報を除外した位置情報のうちから、前記移動型電子機器と最も近接した位置情報を障害物の位置情報として検出して障害物位置情報として登録するステップをさらに含むことを特徴とする請求項1に記載の人間追跡方法。
  15. 前記取得された足映像は、レーザラインパターンを有し、前記取得された足映像で検出された位置情報は、前記レーザラインパターンを基とすることを特徴とする請求項1に記載の人間追跡方法。
  16. 前記追跡速度及び方向は、前記選択された追跡対象の位置情報と前記障害物位置情報とを基に決定されることを特徴とする請求項1に記載の人間追跡方法。
  17. 移動型電子機器により使用される人間追跡方法を実行するためのプログラムが記録された記録媒体であって、
    前記人間追跡方法は、
    第1カメラにより撮影された上体映像から人間の少なくとも1つの上体位置情報と、第2カメラにより撮影された足映像から少なくとも1つの足位置情報とを検出するステップと、
    前記少なくとも1つの上体位置情報と前記少なくとも1つの足位置情報とを基に、追跡対象を選択するステップと、
    前記選択された追跡対象を追跡するために、前記移動型電子機器の追跡速度及び方向を計算するステップと、
    前記計算された追跡速度及び方向を基に、前記移動型電子機器の駆動を制御するステップと、
    を含み、
    前記追跡対象を選択するステップは、
    前記少なくとも1つの上体位置情報と前記少なくとも1つの足位置情報のうちから、所定探索範囲に含まれる上体位置情報と足位置情報とを追跡候補の位置情報として検出するステップと、
    前記検出された追跡候補の位置情報に含まれている足位置情報が複数個ならば、前記追跡候補情報に含まれている上体位置情報に近接した足位置情報を追跡対象情報として選択するステップと、
    を含み、
    前記所定の探索範囲は、以前フレームで追跡対象として選択された足候補の位置を中心座標とし、成人男女の前に歩く場合と横に歩く場合の平均歩幅、平均速度、及び前記移動型電子機器の反応速度を基に決定されることを特徴とする記録媒体。
  18. 第1カメラにより撮影された上体映像から人間の少なくとも1つの上体位置情報を検出する上体位置情報検出モジュールと、
    第2カメラにより撮影された足映像から前記人間の少なくとも1つの足位置情報を検出する足位置情報検出モジュールと、
    前記少なくとも1つの上体位置情報と前記少なくとも1つの足位置情報とを基に、追跡対象を選択する追跡対象選択モジュールと、
    前記追跡対象選択モジュールで選択された追跡対象を追跡するための、前記移動型電子機器の追跡速度及び方向を計算する追跡速度及び方向計算部と、
    前記移動型電子機器を駆動するモータと、
    前記追跡速度及び方向計算部で計算された結果を基に、前記モータを制御するモータ制御部と、
    を備え、
    前記追跡対象選択モジュールは、
    前記少なくとも1つの上体位置情報と前記少なくとも1つの足位置情報のうちから、所定の探索範囲に含まれる上体位置情報と足位置情報とを追跡候補情報として検出する追跡候補検出部と、
    前記追跡候補検出部で検出された追跡候補情報に含まれている足位置情報が複数個ならば、前記追跡候補情報に含まれている上体位置情報に近接した足位置情報を追跡対象情報として選択する追跡対象選択部と、を有する人間追跡装置を備え
    前記追跡候補検出部は、
    前記所定の探索範囲を、以前フレームで追跡対象として選択された足候補の位置を中心座標とし、成人男女の前に歩く場合と横に歩く場合の平均歩幅、平均速度、及び前記移動型電子機器の反応速度を基に決定することを特徴とする移動型電子機器。

JP2005359745A 2004-12-14 2005-12-14 人間追跡装置及び方法、その方法を行うためのプログラムが記録された記録媒体とその装置を備えた移動型電子機器 Expired - Fee Related JP4815208B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020040105650A KR100790860B1 (ko) 2004-12-14 2004-12-14 사람 추적 장치 및 방법, 그 방법을 수행하기 위한프로그램이 저장된 기록매체와 그 장치를 포함하는 이동형전자기기
KR10-2004-0105650 2004-12-14

Publications (2)

Publication Number Publication Date
JP2006221610A JP2006221610A (ja) 2006-08-24
JP4815208B2 true JP4815208B2 (ja) 2011-11-16

Family

ID=35811646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005359745A Expired - Fee Related JP4815208B2 (ja) 2004-12-14 2005-12-14 人間追跡装置及び方法、その方法を行うためのプログラムが記録された記録媒体とその装置を備えた移動型電子機器

Country Status (4)

Country Link
US (1) US7330567B2 (ja)
EP (1) EP1672584B1 (ja)
JP (1) JP4815208B2 (ja)
KR (1) KR100790860B1 (ja)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7450735B1 (en) * 2003-10-16 2008-11-11 University Of Central Florida Research Foundation, Inc. Tracking across multiple cameras with disjoint views
KR100647321B1 (ko) * 2005-02-07 2006-11-23 삼성전자주식회사 사용자 위치 추적 방법 및 장치
EP2743728B1 (de) 2006-01-13 2017-05-03 Leica Geosystems AG Tracking-Verfahren und Messsystem mit Lasertracker
US8068935B2 (en) * 2006-10-18 2011-11-29 Yutaka Kanayama Human-guided mapping method for mobile robot
KR101312625B1 (ko) * 2006-11-03 2013-10-01 삼성전자주식회사 동작 추적 장치 및 방법
JP5187878B2 (ja) * 2007-01-31 2013-04-24 国立大学法人 東京大学 物体測定システム
US7974460B2 (en) * 2007-02-06 2011-07-05 Honeywell International Inc. Method and system for three-dimensional obstacle mapping for navigation of autonomous vehicles
JP4315991B2 (ja) * 2007-04-20 2009-08-19 本田技研工業株式会社 車両周辺監視装置、車両周辺監視方法、車両周辺監視プログラム
JP4631036B2 (ja) * 2007-10-29 2011-02-16 東日本旅客鉄道株式会社 通行人行動解析装置及び通行人行動解析方法並びにそのプログラム
US8654197B2 (en) * 2009-03-04 2014-02-18 Raytheon Company System and method for occupancy detection
JP2010237872A (ja) * 2009-03-30 2010-10-21 Sogo Keibi Hosho Co Ltd 人物領域検出装置、人物領域検出方法、及び人物領域検出プログラム
JP5370009B2 (ja) * 2009-08-31 2013-12-18 株式会社メガチップス 監視システム
AU2009243528B2 (en) 2009-12-04 2013-08-01 Canon Kabushiki Kaisha Location-based signature selection for multi-camera object tracking
KR101014531B1 (ko) 2009-12-30 2011-02-14 고려대학교 산학협력단 거리 센서를 이용한 다리 추출 방법, 이를 이용한 이동 로봇의 사람 추종 주행 방법 및 이동 로봇
KR101054736B1 (ko) * 2010-05-04 2011-08-05 성균관대학교산학협력단 3차원 물체 인식 및 자세 추정 방법
KR101103923B1 (ko) * 2010-10-20 2012-01-12 성균관대학교산학협력단 동영상을 촬영하는 카메라 로봇 및 카메라 로봇을 이용한 동영상 촬영 방법
US8520080B2 (en) 2011-01-31 2013-08-27 Hand Held Products, Inc. Apparatus, system, and method of use of imaging assembly on mobile terminal
US9321173B2 (en) 2012-06-22 2016-04-26 Microsoft Technology Licensing, Llc Tracking and following people with a mobile robotic device
JP6003942B2 (ja) * 2014-04-24 2016-10-05 トヨタ自動車株式会社 動作制限装置及び動作制限方法
KR101573620B1 (ko) 2014-07-09 2015-12-02 고려대학교 산학협력단 Sjpdaf기법을 기반으로 하는 다리 추종 방법
US9943046B2 (en) 2014-09-29 2018-04-17 International Business Machines Corporation Targeted irrigation using a central pivot irrigation system with a sensor network
CN105652895A (zh) * 2014-11-12 2016-06-08 沈阳新松机器人自动化股份有限公司 基于激光传感器的移动机器人人体跟踪系统及跟踪方法
US9623560B1 (en) * 2014-11-26 2017-04-18 Daniel Theobald Methods of operating a mechanism and systems related therewith
US10044988B2 (en) * 2015-05-19 2018-08-07 Conduent Business Services, Llc Multi-stage vehicle detection in side-by-side drive-thru configurations
FR3048406B1 (fr) 2016-03-07 2019-08-16 Effidence Robot autonome avec guidage en mode poussee
TW201805598A (zh) * 2016-08-04 2018-02-16 鴻海精密工業股份有限公司 自主移動設備及建立導航路徑的方法
KR101932200B1 (ko) * 2016-11-07 2018-12-28 경일대학교산학협력단 이미지 인식을 이용한 보행자 보조 신호 제공 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
KR101907548B1 (ko) 2016-12-23 2018-10-12 한국과학기술연구원 휴먼 추종을 위한 이동로봇의 주행 및 탐색방법
KR102021833B1 (ko) * 2017-09-26 2019-09-17 엘지전자 주식회사 인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법
TWI695180B (zh) * 2018-07-24 2020-06-01 國立交通大學 機器人導引方法
JP7318190B2 (ja) * 2018-09-28 2023-08-01 株式会社ニコン 形状測定装置、形状測定方法及び形状測定プログラム
JP7351083B2 (ja) * 2018-12-28 2023-09-27 富士フイルムビジネスイノベーション株式会社 自律移動装置およびプログラム
FR3091609A1 (fr) 2019-01-04 2020-07-10 Balyo Système de robot-compagnon comprenant un engin à guidage autonome
JP7192563B2 (ja) * 2019-02-21 2022-12-20 新東工業株式会社 自律移動ロボット

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3062383B2 (ja) * 1994-01-31 2000-07-10 沖電気工業株式会社 人物認識方法
JPH0973543A (ja) * 1995-09-06 1997-03-18 Toshiba Corp 画像処理装置
JPH0990026A (ja) * 1995-09-27 1997-04-04 Honda Motor Co Ltd 物体検出装置およびその方法
JP3577875B2 (ja) * 1997-03-06 2004-10-20 松下電器産業株式会社 移動物体抽出装置
JPH1196376A (ja) * 1997-09-24 1999-04-09 Oki Electric Ind Co Ltd 移動物体追跡装置及び方法
US6795567B1 (en) * 1999-09-16 2004-09-21 Hewlett-Packard Development Company, L.P. Method for efficiently tracking object models in video sequences via dynamic ordering of features
JP2001155164A (ja) * 1999-11-26 2001-06-08 Ntt Communications Kk 移動物体追跡装置
JP4531897B2 (ja) 1999-12-27 2010-08-25 パナソニック株式会社 人物追跡装置、人物追跡方法及びそのプログラムを記録した記録媒体
US6629028B2 (en) * 2000-06-29 2003-09-30 Riken Method and system of optical guidance of mobile body
JP3681620B2 (ja) * 2000-07-26 2005-08-10 株式会社デンソー 車両用障害物認識装置
US20020100884A1 (en) * 2001-01-29 2002-08-01 Maddock Brian L.W. Digital 3-D model production method and apparatus
JP3738694B2 (ja) * 2001-02-28 2006-01-25 株式会社日本自動車部品総合研究所 可動型ケース
JP3416666B2 (ja) * 2001-09-14 2003-06-16 三菱電機株式会社 頭部姿勢計測装置およびcgキャラクタ制御装置
JP2003346159A (ja) 2002-05-28 2003-12-05 Oki Electric Ind Co Ltd 人物追跡方法及び人物追跡装置
KR20050063401A (ko) * 2003-12-22 2005-06-28 한국전자통신연구원 인체 루트 위치 검출 방법

Also Published As

Publication number Publication date
EP1672584B1 (en) 2016-04-27
US7330567B2 (en) 2008-02-12
JP2006221610A (ja) 2006-08-24
KR100790860B1 (ko) 2008-01-03
EP1672584A3 (en) 2009-07-15
KR20060066975A (ko) 2006-06-19
US20060140450A1 (en) 2006-06-29
EP1672584A2 (en) 2006-06-21

Similar Documents

Publication Publication Date Title
JP4815208B2 (ja) 人間追跡装置及び方法、その方法を行うためのプログラムが記録された記録媒体とその装置を備えた移動型電子機器
JP3978938B2 (ja) 映像投射装置及び方法
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US8090193B2 (en) Mobile robot
JP4871160B2 (ja) ロボットおよびその制御方法
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
Tapu et al. A smartphone-based obstacle detection and classification system for assisting visually impaired people
CN100369487C (zh) 物体检测装置、物体检测服务器以及物体检测方法
JP4355341B2 (ja) 深度データを用いたビジュアルトラッキング
KR101784183B1 (ko) ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US20130338525A1 (en) Mobile Human Interface Robot
JP4644992B2 (ja) 距離画像を用いた人体検知方法
US11348276B2 (en) Mobile robot control method
Feyrer et al. Detection, tracking, and pursuit of humans with an autonomous mobile robot
KR20150144727A (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
JP5892588B2 (ja) 人物誘導ロボット
JP5001930B2 (ja) 動作認識装置及び方法
KR102560462B1 (ko) 이동 로봇
WO2003098922A1 (en) An imaging system and method for tracking the motion of an object
JP2016057720A (ja) 移動体制御装置及び移動体
CN109313822B (zh) 基于机器视觉的虚拟墙构建方法及装置、地图构建方法、可移动电子设备
Jean et al. Body tracking in human walk from monocular video sequences
JP2012198802A (ja) 侵入物検出システム
JP2006146551A (ja) ロボット
Stronger et al. Selective visual attention for object detection on a legged robot

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20061026

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20061027

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110111

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110411

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110802

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110829

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140902

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees