JP2010169521A - 位置検出装置、位置検出方法及びプログラム - Google Patents
位置検出装置、位置検出方法及びプログラム Download PDFInfo
- Publication number
- JP2010169521A JP2010169521A JP2009011992A JP2009011992A JP2010169521A JP 2010169521 A JP2010169521 A JP 2010169521A JP 2009011992 A JP2009011992 A JP 2009011992A JP 2009011992 A JP2009011992 A JP 2009011992A JP 2010169521 A JP2010169521 A JP 2010169521A
- Authority
- JP
- Japan
- Prior art keywords
- position detection
- person
- cluster
- space
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
Abstract
【課題】プライバシー問題に影響されることなく計算コストを抑制しながら空間内における人の位置と向きを検出可能な位置検出装置を提供する。
【解決手段】 位置検出装置10は、空間に設置され、空間内に位置する人との距離を非接触で測定する複数の距離センサ11〜14と、複数の距離センサ11〜14から所定の時間間隔で取得される距離情報に基づき、空間内における人の位置および向きを所定の演算により検出する演算制御装置16とを含む。
【選択図】 図1
【解決手段】 位置検出装置10は、空間に設置され、空間内に位置する人との距離を非接触で測定する複数の距離センサ11〜14と、複数の距離センサ11〜14から所定の時間間隔で取得される距離情報に基づき、空間内における人の位置および向きを所定の演算により検出する演算制御装置16とを含む。
【選択図】 図1
Description
本発明は、空間に設置された複数の距離センサにより人の位置と向きとを検出する位置検出装置、位置検出方法及びプログラムに関するものである。
近年、センサの小型化や通信技術の進歩により、ユビキタスコンピューティングに関する研究が盛んに行われるようになった。
これに伴ない人の行動支援を行う多くのシステムの研究がなされ、人の位置や向きの検出が重要な研究課題になってきている。この分野では、既に、カメラ画像等のセンサを用いることにより空間内における人の位置を検出し、かつ、顔の特徴点を利用して顔の向きを検出する技術が知られている。
これに伴ない人の行動支援を行う多くのシステムの研究がなされ、人の位置や向きの検出が重要な研究課題になってきている。この分野では、既に、カメラ画像等のセンサを用いることにより空間内における人の位置を検出し、かつ、顔の特徴点を利用して顔の向きを検出する技術が知られている。
また、人の向きを検出するための関連技術としては、非特許文献1で示される、慶応義塾大学で開発が行われた「Catch Me」や、非特許文献2で示される、カーネギメロン大学で開発された「A Social Robot Stand in the
Line」(非特許文献2)が知られている。
非特許文献1には、人の目や鼻などの顔の特徴点を抽出し、それらの位置から幾何学的に人の顔の向きを求める方法が開示されている。また、非特許文献2には、人の体の形状が概略楕円であるという身体的特徴から検出された人の胴体周りの輪郭を人の体の形状に近似した楕円によりテンプレートマッチングし、人の向きを求める方法が開示されている。
Line」(非特許文献2)が知られている。
非特許文献1には、人の目や鼻などの顔の特徴点を抽出し、それらの位置から幾何学的に人の顔の向きを求める方法が開示されている。また、非特許文献2には、人の体の形状が概略楕円であるという身体的特徴から検出された人の胴体周りの輪郭を人の体の形状に近似した楕円によりテンプレートマッチングし、人の向きを求める方法が開示されている。
一方、人ではなく、物体の向きを検出する技術に関して多くの関連技術が存在する。例えば、特許文献1には、静翼長軸を中心として回動可能な圧縮機静翼と同期して回動する測定面が付設された圧縮機静翼の角度位置を検出する装置であって、少なくとも2個の距離センサを有する測定・評価装置を備え、両距離センサがそれぞれ基準位置から離れる方向に回動される測定面への距離を検出し、これにより、基準位置に対する測定面の角度位置が測定・評価装置によって決定される圧縮機静翼の角度位置検出装置に関する関連技術が記載されている。
駒木亮伯 他"公共空間における人の位置と向き取得に関する研究"慶応義塾大学学部卒業論文、<インターネットURL>http://WWW.stc.wide.ad.jp/thesis/2004/bachelor/akinori_paper.pdf(2008年12月12日閲覧)
「ASocial Robot Stand in the Line」Carnegie Melon University学術論文<インターネットURL>http://hri.iit.tsukubaac.jp/publication/AR_12.3 pdf(2008年12月12日閲覧)
しかしながら、上記した非特許文献1に開示された技術によれば、顔が見えない状況では向きを検出することができず、サングラスやマスクなども検出に影響を及ぼす懸念がある。また、非特許文献2に開示された技術によれば、テンプレートマッチングを行うため細かい精度で角度を検出することができず(15度程度)、正確なサービスを行うのが困難になる場合が想定される。更に、特許文献1に開示された技術は、固定形状の物体の検出を目的としたものであり移動により形状が変化する人の向きの検出への流用は困難である。
一方で、人の位置・向きを検出する場合にカメラを使用するとプライバシーが問題視される。過去には警察による監視カメラの自動的撮影、録画に対する訴訟などが数件起こっている。訴訟問題に限らず、無秩序なカメラの使用はその設置だけでも人に不快感を与えることがアンケートから実証済みであり、プライバシー問題は必ず取り組んでいかなければならない問題である。また、カメラを用いて人の位置や向きを検出する場合、距離を求める際に三次元画像処理によって距離測定を行うため計算コストが大きかった。
(発明の目的)
本発明の目的は、プライバシー問題に影響されることなく計算コストを抑制しながら空間内における人の位置と向きを検出可能な位置検出装置、位置検出方法及びプログラムを提供することにある。
本発明の目的は、プライバシー問題に影響されることなく計算コストを抑制しながら空間内における人の位置と向きを検出可能な位置検出装置、位置検出方法及びプログラムを提供することにある。
本発明による位置検出装置は、空間に設置され、空間内に位置する人との距離を非接触で測定する複数の距離センサと、複数の距離センサから所定の時間間隔で取得される距離情報に基づき、空間内における人の位置および向きを所定の演算により検出する演算制御装置とを含む。
本発明による位置検出方法は、空間に設置され、空間内に位置する人との距離を非接触で測定する複数の距離センサを介し、人の位置および向きとを検出する位置検出方法であって、複数の距離センサから所定の時間間隔で距離情報を取得する第1のステップと、取得した距離情報から空間内における人の位置および向きを所定の演算により認識する第2のステップとを含む。
本発明による位置検出プログラムは、空間に設置され、空間内における人との距離を非接触で測定する複数の距離センサを介し、人の位置および向きとを検出する位置検出装置に用いられる位置検出プログラムであって、複数の距離センサから所定の時間間隔で距離情報を取得する第1の処理と、取得した距離情報から空間における人の位置および向きを所定の演算により認識する第2の処理と、を位置検出装置が備える演算制御装置に実行させる。
本発明によれば、プライバシー問題に影響されることなく計算コストを抑制しながら空間内における人の位置と向きを検出可能な位置検出装置を提供することができる。
その理由は、演算制御装置が、複数の距離センサから所定の時間間隔で取得される距離情報のみで演算により空間における人の位置および向きを検出するためである。
(第1の実施の形態)
次に、第1の実施の形態について図面を参照して詳細に説明する。
次に、第1の実施の形態について図面を参照して詳細に説明する。
(第1の実施の形態の構成)
図1は、本実施の形態による位置検出装置10の内部構成を示すブロック図であり、図2は、図1に示した本実施の形態による位置検出装置10の構成の一つである演算制御装置16が実行するプログラムの構造を機能展開して示したブロック図である。
図1は、本実施の形態による位置検出装置10の内部構成を示すブロック図であり、図2は、図1に示した本実施の形態による位置検出装置10の構成の一つである演算制御装置16が実行するプログラムの構造を機能展開して示したブロック図である。
図1を参照すると、本実施の形態による位置検出装置10は、距離センサ11〜14と、入出力装置15と、演算制御装置16と、記憶装置17と、を備えている。
距離センサ11〜14は、例えば、光源にレーザ光を使用し、2点間の距離を非接触で位相差により測定する距離測定器である。
ここでは、人が移動する空間の四隅にそれぞれ設置されるものとし、距離センサ11〜14で囲まれた空間が測定可能範囲である。
ここでは、人が移動する空間の四隅にそれぞれ設置されるものとし、距離センサ11〜14で囲まれた空間が測定可能範囲である。
入出力装置15は、ユーザによる人の位置と向きの検出開始操作(開始コマンドの発行)に基づき演算制御装置16による位置検出プログラムの実行を起動し、ユーザが検出終了操作(終了コマンドの発行)を行うまでの間、位置検出プログラムの実行を継続し、最終的に、空間内において検出した人の位置と向きを出力する、例えば、キーボードディスプレイにより構成される。
演算制御装置16は、入出力装置15からの開始コマンドに基づき、記憶装置17に記憶された位置検出プログラムを逐次読み出し実行することにより、複数の距離センサ11〜14から所定の時間間隔で取得される距離情報に基づき、空間内における人の位置および向きを演算により検出する機能を有する。演算制御装置16は、ユーザが入出力装置15を操作して終了コマンドを発行するまでの間、人の位置や向きを入出力装置15に出力し続けることが可能である。
このため、演算制御装置16が実行する位置検出プログラムは、図2に示されるように、入出力インタフェース部161と、補正ファイル生成部162と、距離情報取得部163と、二次元座標変換部164と、統合マップ生成部165と、クラスタ検出部166と、向き認識部167と、補正ファイル168と、統合マップ169とを含む。
入出力インタフェース部161は、入出力装置15とのインタフェースを担い、入出力装置15から本実施の形態による位置検出プログラムの起動、もしくは終了指示である、開始コマンド、もしくは終了コマンド取得し、また、入出力装置15に対し、位置検出プログラムの実行結果である人の位置と向きに関する情報を表示のために出力する機能を有する。
補正ファイル生成部162は、空間に対する距離センサ11〜14間の位置ずれによる人の絶対位置空間のずれを補正するキャリブレーション処理を実行することにより補正ファイル168を生成する機能を有する。
距離情報取得部163は、複数の距離センサ11〜14により測定される距離情報を所定の時間間隔で取得して二次元座標変換部164に供給する機能を有する。
二次元座標変換部164は、距離情報取得部163により取得される人との距離情報を二次元座標値に変換して統合マップ生成部165に供給する機能を有する。
統合マップ生成部165は、補正ファイル168に格納されたデータを参照して二次元座標変換部164により供給される二次元座標値を空間上にマッピングし、唯一個の統合マップ169を生成する機能を有する。
クラスタ検出部166は、統合マップ169にマッピングされたデータに対してラベリング処理を行い、人の輪郭を形成する画素の集合であるクラスタを検出する機能を有する。ラベリング処理とは、周知のように画像上の画素の集合に番号を付与することで画素を分類する処理のことである。
向き認識部167は、クラスタ検出部166により検出されたクラスタに対して主成分分析を行い、当該クラスタの重心を人の位置として人の向きを認識する機能を有する。
向き認識部167は、後述するように、ある時刻におけるあるクラスタに対して直前の時刻における同じクラスタの有無を判定し、同じクラスタが存在する場合は各位置の差分から向きを認識し、同じクラスタが存在しない場合は前記ある時刻のクラスタ情報を保存して直後の時刻における人との距離情報を取得する処理を全てのクラスタに対し順次実行する。
向き認識部167は、後述するように、ある時刻におけるあるクラスタに対して直前の時刻における同じクラスタの有無を判定し、同じクラスタが存在する場合は各位置の差分から向きを認識し、同じクラスタが存在しない場合は前記ある時刻のクラスタ情報を保存して直後の時刻における人との距離情報を取得する処理を全てのクラスタに対し順次実行する。
(第1の実施の形態の動作)
図3は、第1の実施の形態による位置検出装置10の基本動作を示すフローチャートであり、図4、図5は、距離情報の統合前後において測定空間に二次元座標値がプロットされたデータイメージを示す図である。
まず、図3のフローチャート、および図4、図5のデータイメージ図を参照しながら、図1に示す本実施の形態による位置検出装置10の基本動作から説明する。
図3は、第1の実施の形態による位置検出装置10の基本動作を示すフローチャートであり、図4、図5は、距離情報の統合前後において測定空間に二次元座標値がプロットされたデータイメージを示す図である。
まず、図3のフローチャート、および図4、図5のデータイメージ図を参照しながら、図1に示す本実施の形態による位置検出装置10の基本動作から説明する。
まず、ユーザが入出力装置14を操作して開始コマンドを入力することにより演算制御装置16により位置検出プログラムが起動される(ステップS301)。
位置検出プログラムが起動されると、演算制御装置16は、補正ファイル168の有無を判定する。演算制御装置16は、各距離センサ11〜14から取得される距離情報を変換することにより生成される位置座標の他に、この位置座標を統合する統合マップ169を有している。補正ファイル168は、各距離センサ11〜14から見える統合マップ169にマッピングされた位置座標のずれを補正するテキストデータファイルである。
位置検出プログラムが起動されると、演算制御装置16は、補正ファイル168の有無を判定する。演算制御装置16は、各距離センサ11〜14から取得される距離情報を変換することにより生成される位置座標の他に、この位置座標を統合する統合マップ169を有している。補正ファイル168は、各距離センサ11〜14から見える統合マップ169にマッピングされた位置座標のずれを補正するテキストデータファイルである。
補正ファイル168が無い場合、演算制御装置16は、各距離センサ11〜14から見える測定範囲のずれを補正するためにキャリブレーション処理を実行し、各距離センサ11〜14から取得した距離情報から補正ファイル168を作成する(ステップS302)。
図4に、空間内に人が3名位置する状態において、右上に配置された距離センサ13により人が検出された場合のデータイメージが示されている。
図4に、空間内に人が3名位置する状態において、右上に配置された距離センサ13により人が検出された場合のデータイメージが示されている。
補正ファイル168が存在する場合、演算制御装置16は、各距離センサ11〜14から距離情報を取得し、その距離情報を二次元座標値(x,y)に変換した後、その二次元座標値を補正ファイル168により、ずれが補正された統合マップ169上に統合する(ステップS303)。図5にずれが補正された統合された統合マップ169のデータイメージが示されている。図5に示す統合マップ169のデータイメージに基づき、複数の距離センサ11〜14から取得される距離情報を統合することによって人の輪郭がはっきり検出されていることがわかる。
次に、演算制御装置16は、統合したデータの中でどの点が同一の人間であるかを判定するためにラベリング処理を行い、人の輪郭を形成する点の集合であるクラスタを検出する(ステップS304)。
続いて、演算制御装置16は、検出したクラスタの重心から人の体の位置を求め、検出された各クラスタに主成分分析を行うことにより人の体の角度を求める。人の体の角度を求めると、演算制御装置16は、直前の時刻t−1において検出した、同一と考えられるクラスタの位置・向きの差分から人の向きを認識し、入出力装置15に出力する(ステップS305)。ここでは、人の角度を0〜180度と定義し、人の向きを0〜360度と定義する。
続いて、演算制御装置16は、検出したクラスタの重心から人の体の位置を求め、検出された各クラスタに主成分分析を行うことにより人の体の角度を求める。人の体の角度を求めると、演算制御装置16は、直前の時刻t−1において検出した、同一と考えられるクラスタの位置・向きの差分から人の向きを認識し、入出力装置15に出力する(ステップS305)。ここでは、人の角度を0〜180度と定義し、人の向きを0〜360度と定義する。
人の向きを出力した後、演算制御装置16は、再び各距離センサ11〜14から距離情報を取得し、入出力装置15を介して終了コマンドが入力されるまで上記同様の動作を繰り返し実行する(ステップS306)。
図6は、本実施の形態による位置検出装置10(演算制御装置16)の詳細な動作を示すフローチャートであり、図7〜図10は、その動作を補足する意味で示した図である。
以下、図6のフローチャート、および図7〜図10を参照しながら、図2に示す演算制御装置16の処理動作について詳細に説明する。
以下、図6のフローチャート、および図7〜図10を参照しながら、図2に示す演算制御装置16の処理動作について詳細に説明する。
ここでは、例えば、図7に示されるように、空間内を矢印Aに沿って人が歩く走行路を想定する。図7中、×印で示す位置は人の停止位置である。
図6のフローチャートによれば、まず、ユーザが入出力装置15を操作することにより開始コマンドが発行され、演算制御装置16が入出力インタフェース部161を介してこれを受信(ステップS601“Yes”)することにより、本実施の形態による位置検出プログラムが起動される。
図6のフローチャートによれば、まず、ユーザが入出力装置15を操作することにより開始コマンドが発行され、演算制御装置16が入出力インタフェース部161を介してこれを受信(ステップS601“Yes”)することにより、本実施の形態による位置検出プログラムが起動される。
位置検出プログラムが起動されると、演算制御装置16は、まず、補正ファイル生成部162が補正ファイル168の有無を判定する(ステップS602)。
補正ファイル168がない場合(ステップS602“No”)、補正ファイル生成部162は、キャリブレーション処理を実行して(ステップS603)、例えば、空間内に置かれた静止物との距離を測定し(ステップS604)、どの空間内に設置されたどの距離センサ11〜14からも静止物が同様の位置に検出されるような補正値を算出し、補正ファイル168を生成する(ステップS605)。
補正ファイル168がない場合(ステップS602“No”)、補正ファイル生成部162は、キャリブレーション処理を実行して(ステップS603)、例えば、空間内に置かれた静止物との距離を測定し(ステップS604)、どの空間内に設置されたどの距離センサ11〜14からも静止物が同様の位置に検出されるような補正値を算出し、補正ファイル168を生成する(ステップS605)。
図8は、空間内に3個の静止物体を設置し、キャリブレーションを行った結果生成される距離情報のデータメージを示す図である。
図8のデータイメージを参照すれば、xは、キャリブレーション処理実行前に検出された静止物体の輪郭であり、統合マップ169において各距離センサ11〜14からは位置がずれて見えていることがわかる。このずれをキャリブレーション処理によって補正した後の検出点がyである。キャリブレーション処理実行によって、どの距離センサ11〜14から見ても、統合マップ169において静止物体が本来の位置からずれることなく検出されていることがわかる。
図8のデータイメージを参照すれば、xは、キャリブレーション処理実行前に検出された静止物体の輪郭であり、統合マップ169において各距離センサ11〜14からは位置がずれて見えていることがわかる。このずれをキャリブレーション処理によって補正した後の検出点がyである。キャリブレーション処理実行によって、どの距離センサ11〜14から見ても、統合マップ169において静止物体が本来の位置からずれることなく検出されていることがわかる。
説明を図6のフローチャートに戻す。補正ファイル168が存在する場合(ステップS602“Yes”)、距離情報取得部163は、各距離センサ11〜14から空間内における人との距離情報を取得して二次元座標変換部164へ供給する(ステップS606)。
二次元座標変換部164は、距離情報取得部163を介して取得した距離情報を二次元座標値に変換し、統合マップ生成部165により二次元座標値を空間にマッピングし、例えば、図5に示すずれが補正された唯一個の統合マップ169を生成する(ステップS607)。
二次元座標変換部164は、距離情報取得部163を介して取得した距離情報を二次元座標値に変換し、統合マップ生成部165により二次元座標値を空間にマッピングし、例えば、図5に示すずれが補正された唯一個の統合マップ169を生成する(ステップS607)。
続いて、クラスタ検出部166は、図4に示すデータイメージにラベリング処理を実行し、統合マップ169にマッピングされた点のうち、隣接する点が、例えば20cm以内であった場合、それを同一のクラスタとして認識する(ステップS608)。この方法によりクラスタリングされた点の集合が人の体を表している。
次に、向き認識部167は、クラスタ検出部166で検出したクラスタに対し、主成分分析を行うことにより人の角度(0〜180度)を算出する(ステップS609)。ここで、人の角度算出の際に使用する人の位置に関してはクラスタの重心位置とする。
但し、角度だけを算出しても、人の前面と背面の2通りが特定されるにすぎないため、向き認識部167は、人が移動する方向(向き)を時系列に算出する。
但し、角度だけを算出しても、人の前面と背面の2通りが特定されるにすぎないため、向き認識部167は、人が移動する方向(向き)を時系列に算出する。
ここでは、向き認識部167は、人の位置および向きを検出するために、例えば、図9のクラスタ定義図に示されるように、「出現」、「向きの認識」、「向きの維持」、「消失」の4つのパターンを定義し、管理することとする。
具体的に向き認識部167は、ある時刻tと、直前の時刻t-1の間に同一のクラスタが存在しなかった場合のうち、時刻tにおいて新たにクラスタが現れた場合を「出現」、時刻t−1において存在していたクラスタが時刻tにおいて存在しなくなった場合を「消失」と判定する。
具体的に向き認識部167は、ある時刻tと、直前の時刻t-1の間に同一のクラスタが存在しなかった場合のうち、時刻tにおいて新たにクラスタが現れた場合を「出現」、時刻t−1において存在していたクラスタが時刻tにおいて存在しなくなった場合を「消失」と判定する。
このことから、向き認識部167は、時刻tと時刻t−1の間に同一のクラスタが存在した場合に、時刻t−1のクラスタが時刻tにおいていずれの向きに移動したかを示す位置の差分から人の向きの認識を行う。図9のクラスタ定義図において、楕円枠はクラスタ、矢印実線は人の向きを示し、クラスタaは「出現」、bは「向きの認識」、cは「向きの維持」、dは「消失」、をそれぞれ示す。
そのため、向き認識部167は、時刻tのあるクラスタに対して直前の時刻t−1において同一のクラスタがあるか否かを判定し(ステップS509)、「同一クラスタあり」と判定されれば(ステップS610“Yes”)、それぞれの位置の差分からクラスタの向きを認識し(ステップS611)、「同一クラスタ無し」と判定されれば(ステップS610“No”)、向きを認識することができないため、内蔵するメモリに時刻tのクラスタ情報を保存し、ステップS606の距離情報取得処理に戻り、距離情報取得部163を制御して直後の時刻t+1における距離情報を取得する。
上記した動作は、空間内に存在する全てのクラスタにおいて実行され、ここで検出された向きに関する情報は入出力装置15に出力され、表示される(ステップS612)。
上記した動作は、空間内に存在する全てのクラスタにおいて実行され、ここで検出された向きに関する情報は入出力装置15に出力され、表示される(ステップS612)。
図10は、図7に示した空間において実線矢印Aで示した歩行線上を実際に歩行した場合の人の位置と向きを入出力装置15に出力した結果を示した図である。
図10では、人の形を楕円形で表示し、人の向きは実線矢印Bで表示されている。なお、楕円内部に示された()内の数値は、測定時刻(上記した時刻t、t−1)であり、例えば、0.3秒間隔で取得される。
図10では、人の形を楕円形で表示し、人の向きは実線矢印Bで表示されている。なお、楕円内部に示された()内の数値は、測定時刻(上記した時刻t、t−1)であり、例えば、0.3秒間隔で取得される。
図10において、図7に示したクラスタの定義と照らし合わせてみると、時刻(1)の時点では、時刻t−1において同一のクラスタが存在しなかったため向きは検出されておらず、時刻(2)からは、時刻t−1におけるクラスタが存在したため位置の差分から向きを認識することに成功している。
この動作は、入出力装置15から終了コマンドが到来(ステップS613“Yes”)するまで、ステップS606の距離情報取得処理から繰り返し実行される。
この動作は、入出力装置15から終了コマンドが到来(ステップS613“Yes”)するまで、ステップS606の距離情報取得処理から繰り返し実行される。
(第1の実施の形態の効果)
以上説明のように本実施の形態による位置検出装置10によれば、プライバシーによる問題を意識することなく、安価に人の位置と向きを検出可能な位置検出装置を提供することができる。
以上説明のように本実施の形態による位置検出装置10によれば、プライバシーによる問題を意識することなく、安価に人の位置と向きを検出可能な位置検出装置を提供することができる。
その理由は、カメラを使用することなく安価な距離センサ11〜14を用い、演算制御装置16が、距離センサ11〜14から所定の時間間隔で取得される距離情報に基づき測定空間における人の位置および向きを演算のみで検出するからである。このとき、三次元の画像情報によらず、距離センサ1114による二次元の距離情報で空間における人の位置および向きが検出可能となるため、演算制御装置16の負荷が軽減され、計算コストが小さくなる。
また、本実施の形態による位置検出装置10によれば、複数の距離センサ11〜14から取得した距離情報を唯一個のマップ(統合マップ169)に統合することにより、より信頼性の高い位置検出装置を提供することができる。
その理由は、各距離センサ11〜14から取得される距離情報だけでは、物影に隠れ、正確な検出ができないオクルージョンによって、誤った結果を表示してしまうことが考えられるが、キャリブレーション実行により補正した唯一個のマップに統合することで、単体の距離センサによる距離情報だけでなく複数の距離センサにより人を検出できるため、死角も見逃しにくいからである。
更に、本実施の形態による位置検出装置10によれば、高い角度分解能により信頼性の高い位置検出装置を提供することができる。
その理由は、演算制御装置16が、統合マップ169にマッピングされたデータに対してラベリング処理を行ってクラスタを検出し、当該クラスタに対して主成分分析を行うことで1度単位の細かい精度で人の角度を検出することができるためである。
なお、上記した本実施の形態による位置検出装置10によれば、距離センサを4個使用する場合を例示したが、複数であればその数に制限が無く、また、使用する数が多いほど高い精度で空間における人の位置と向きを検出することができる。
また、本実施の形態による位置検出装置10によれば、光源にレーザ光を使用して2点間の距離を位相差により測定するタイプの距離センサ11〜14を例示したが、PSD(Position
Sensitive Detector)により光の重心位置を求め、三角測量により位置を割り出すタイプ、もしくは、超音波センサを使用して人との距離情報を取得しても同様、人の位置と向きを高い精度で検出することができる。更に、これらセンサを適宜組み合わせ使用する環境においても利用が可能である。
また、本実施の形態による位置検出装置10によれば、光源にレーザ光を使用して2点間の距離を位相差により測定するタイプの距離センサ11〜14を例示したが、PSD(Position
Sensitive Detector)により光の重心位置を求め、三角測量により位置を割り出すタイプ、もしくは、超音波センサを使用して人との距離情報を取得しても同様、人の位置と向きを高い精度で検出することができる。更に、これらセンサを適宜組み合わせ使用する環境においても利用が可能である。
また、本実施の形態による位置検出装置10によれば、距離センサ11〜14が演算制御装置15に接続されるスタンドアロン構成の位置検出装置について説明したが、各空間に設置された距離センサ11〜14がそれぞれ接続されるステーションからネットワーク経由で位置検出要求を受信し、サーバで一括処理して応答する構成に適用しても同様の効果が得られる。
なお、図2に示す本実施の形態による位置検出装置10の演算制御装置16が有する機能は、全てをソフトウェアによって実現しても、あるいはその少なくとも一部をハードウェアで実現してもよい。例えば、演算制御装置16が、複数の距離センサから所定の時間間隔で取得される距離情報に基づき、空間内における人の位置および向きを所定の演算により検出するデータ処理は、1または複数のプログラムによりコンピュータ上で実現してもよく、また、その少なくとも一部をハードウェアで実現してもよい。
以上、好ましい実施の形態をあげて本発明を説明したが、本発明は必ずしも上記実施の形態に限定されるものでなく、その技術的思想の範囲内において様々に変形して実施することができる。
本実施の形態による位置検出装置10は、多様なサービス業種への適用が考えられる。例えば、人の位置を認識し、人がいる場所にロボットアームなどにより物を運ぶサービス、ロボットによる製品認識分野への適用等が考えられる。また、人の向きを認識して人が必要としている物を目の前に運ぶサービス、人が向いた方向に対し情報のディスプレイ表示を行うか、機器の制御を行うサービス等が考えられる。これらサービスは、今後深刻になってくる高齢化社会における老人の支援にも大きな役割を果たすことが期待できる。
10:位置検出装置
11〜14:距離センサ
15:入出力装置
16:演算制御装置
17:記憶装置
161:入出力インタフェース部
162:補正ファイル生成部
163:距離情報取得部
164:二次元座標変換部
165:統合マップ生成部
166:クラスタ検出部
167:向き認識部
168:補正ファイル
169:統合マップ
11〜14:距離センサ
15:入出力装置
16:演算制御装置
17:記憶装置
161:入出力インタフェース部
162:補正ファイル生成部
163:距離情報取得部
164:二次元座標変換部
165:統合マップ生成部
166:クラスタ検出部
167:向き認識部
168:補正ファイル
169:統合マップ
Claims (18)
- 空間に設置され、空間内に位置する人との距離を非接触で測定する複数の距離センサと、
前記複数の距離センサから所定の時間間隔で取得される距離情報に基づき、前記空間内における人の位置および向きを所定の演算により検出する演算制御装置と、
を備えたことを特徴とする位置検出装置。 - 前記演算制御装置は、
前記空間に設置された距離センサ間の位置ずれによる人の絶対位置空間のずれを補正するキャリブレーション処理を実行して補正ファイルを生成することを特徴とする請求項1に記載の位置検出装置。 - 前記演算制御装置は、
前記複数の距離センサから所定の時間間隔で取得される距離情報を二次元座標値に変換し、前記補正ファイルを参照して前記二次元座標値を前記空間上にマッピングして唯一個の統合マップを生成することを特徴とする請求項2から請求項3のいずれか1項に記載の位置検出装置。 - 前記演算制御装置は、
前記統合マップにマッピングされたデータに対してラベリング処理を行い、人の輪郭を形成する画素の集合であるクラスタを検出することを特徴とする請求項1から請求項3のいずれか1項に記載の位置検出装置。 - 前記演算制御装置は、
前記クラスタに対して主成分分析を行い、前記クラスタの重心を人の位置として人の向きを認識することを特徴とする請求項4に記載の位置検出装置。 - 前記演算制御装置は、
ある時刻におけるあるクラスタに対して直前の時刻における同じクラスタの有無を判定し、同じクラスタが存在する場合は各位置の差分から向きを認識し、同じクラスタが存在しない場合は前記ある時刻のクラスタ情報を保存して直後の時刻における人との距離情報を取得する処理を全てのクラスタに対し順次実行することを特徴とする請求項5に記載の位置検出装置。 - 空間に設置され、前記空間内に位置する人との距離を非接触で測定する複数の距離センサを介し、人の位置および向きとを検出する位置検出方法であって、
前記複数の距離センサから所定の時間間隔で距離情報を取得する第1のステップと、
前記取得した距離情報から前記空間内における人の位置および向きを所定の演算により認識する第2のステップと、
を有することを特徴とする位置検出方法。 - 前記第2のステップは、
前記空間に対する前記距離センサ間の位置ずれによる人の絶対位置空間のずれを補正するキャリブレーション処理を実行して補正ファイルを生成することを特徴とする請求項7に記載の位置検出方法。 - 前記第2のステップは、
前記複数の距離センサから所定の時間間隔で取得される距離情報を二次元座標値に変換するサブステップと、
前記補正ファイルを参照して前記二次元座標値を前記空間上にマッピングし、唯一個の統合マップを生成するサブステップと、
を有することを特徴とする請求項請求項7または請求項8に記載の位置検出方法。 - 前記第2のステップは、
前記統合マップにマッピングされたデータに対してラベリング処理を行い、人の輪郭を形成する画素の集合であるクラスタを検出するサブステップ、
を有することを特徴とする請求項請求項7から請求項9のいずれか1項に記載の位置検出方法。 - 前記第2のステップは、
前記クラスタに対して主成分分析を行い、前記クラスタの重心を人の位置として向きを認識するサブステップ、
を有することを特徴とする請求項7から請求項10のいずれか1項に記載の位置検出方法。 - 前記第2のステップは、
ある時刻におけるあるクラスタに対して直前の時刻における同じクラスタの有無を判定するサブステップと、
同じクラスタが存在する場合は各位置の差分から向きを認識し、同じクラスタが存在しない場合は前記ある時刻のクラスタ情報を保存して直後の時刻における前記人との距離情報を取得するサブスップと、
を有することを特徴とする請求項11に記載の位置検出方法。 - 空間に設置され、前記空間内における人との距離を非接触で測定する複数の距離センサを介し、人の位置および向きとを検出する位置検出装置に用いられる位置検出プログラムであって、
前記複数の距離センサから所定の時間間隔で距離情報を取得する第1の処理と、
前記取得した距離情報から前記空間における人の位置および向きを所定の演算により認識する第2の処理と、
を前記位置検出装置が備える演算制御装置に実行させる位置検出プログラム。 - 前記第2の処理は、
前記空間内に設置された距離センサ間の位置ずれによる人の絶対位置空間のずれを補正するキャリブレーション処理を実行して補正ファイルを生成する機能を実行することを特徴とする請求項13に記載の位置検出プログラム。 - 前記第2の処理は、
前記複数の距離センサから所定の時間間隔で取得される距離情報を二次元座標値に変換し、前記補正ファイルを参照して前記二次元座標値を前記空間上にマッピングして唯一個の統合マップを生成する機能を実行することを特徴とする請求項13または請求項14に記載の位置検出プログラム。 - 前記第2の処理は、
前記統合マップにマッピングされたデータに対してラベリング処理を行い、人の輪郭を形成する画素の集合であるクラスタを検出する機能を実行することを特徴とする請求項13から請求項15のいずれか1項に記載の位置検出プログラム。 - 前記第2の処理は、
前記クラスタに対して主成分分析を行い、前記クラスタの重心を人の位置とした人の向きを認識する機能を実行することを特徴とする請求項13から請求項16のいずれか1項に記載の位置検出プログラム。 - 前記第2の処理は、
ある時刻におけるあるクラスタに対して直前の時刻における同じクラスタの有無を判定し、同じクラスタが存在する場合は各位置の差分から向きを認識し、同じクラスタが存在しない場合は前記ある時刻のクラスタ情報を保存して直後の時刻における人との距離情報を取得する処理を全てのクラスタに対し順次実行することを特徴とする請求項17に記載の位置検出プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009011992A JP2010169521A (ja) | 2009-01-22 | 2009-01-22 | 位置検出装置、位置検出方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009011992A JP2010169521A (ja) | 2009-01-22 | 2009-01-22 | 位置検出装置、位置検出方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010169521A true JP2010169521A (ja) | 2010-08-05 |
Family
ID=42701814
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009011992A Pending JP2010169521A (ja) | 2009-01-22 | 2009-01-22 | 位置検出装置、位置検出方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010169521A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011081634A (ja) * | 2009-10-07 | 2011-04-21 | Sogo Keibi Hosho Co Ltd | 人体向き推定装置及び人体向き推定方法 |
JPWO2017141454A1 (ja) * | 2016-05-13 | 2018-02-22 | 株式会社日立製作所 | 混雑状況可視化装置、混雑状況可視化システム、混雑状況可視化方法、および混雑状況可視化プログラム |
WO2018180503A1 (ja) | 2017-03-30 | 2018-10-04 | 株式会社エクォス・リサーチ | 身体向推定装置および身体向推定プログラム |
CN109683487A (zh) * | 2018-12-29 | 2019-04-26 | 珠海格力电器股份有限公司 | 电器控制方法、电器及计算机可读存储介质 |
WO2019188865A1 (ja) | 2018-03-26 | 2019-10-03 | 株式会社エクォス・リサーチ | 身体向推定装置および身体向推定プログラム |
CN110992358A (zh) * | 2019-12-18 | 2020-04-10 | 北京机科国创轻量化科学研究院有限公司 | 纱笼的纱杆的定位方法、装置、存储介质和处理器 |
CN113048960A (zh) * | 2021-04-13 | 2021-06-29 | 广州得尔塔影像技术有限公司 | 一种空间位置检测装置及位置调整方法 |
-
2009
- 2009-01-22 JP JP2009011992A patent/JP2010169521A/ja active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011081634A (ja) * | 2009-10-07 | 2011-04-21 | Sogo Keibi Hosho Co Ltd | 人体向き推定装置及び人体向き推定方法 |
JPWO2017141454A1 (ja) * | 2016-05-13 | 2018-02-22 | 株式会社日立製作所 | 混雑状況可視化装置、混雑状況可視化システム、混雑状況可視化方法、および混雑状況可視化プログラム |
US10607356B2 (en) | 2016-05-13 | 2020-03-31 | Hitachi, Ltd. | Congestion analysis device, congestion analysis method, and congestion analysis program |
WO2018180503A1 (ja) | 2017-03-30 | 2018-10-04 | 株式会社エクォス・リサーチ | 身体向推定装置および身体向推定プログラム |
WO2019188865A1 (ja) | 2018-03-26 | 2019-10-03 | 株式会社エクォス・リサーチ | 身体向推定装置および身体向推定プログラム |
JP2019168394A (ja) * | 2018-03-26 | 2019-10-03 | 株式会社エクォス・リサーチ | 身体向推定装置および身体向推定プログラム |
CN111164376A (zh) * | 2018-03-26 | 2020-05-15 | 株式会社爱考斯研究 | 身体朝向推断装置以及身体朝向推断程序 |
CN109683487A (zh) * | 2018-12-29 | 2019-04-26 | 珠海格力电器股份有限公司 | 电器控制方法、电器及计算机可读存储介质 |
CN110992358A (zh) * | 2019-12-18 | 2020-04-10 | 北京机科国创轻量化科学研究院有限公司 | 纱笼的纱杆的定位方法、装置、存储介质和处理器 |
CN110992358B (zh) * | 2019-12-18 | 2023-10-20 | 北京机科国创轻量化科学研究院有限公司 | 纱笼的纱杆的定位方法、装置、存储介质和处理器 |
CN113048960A (zh) * | 2021-04-13 | 2021-06-29 | 广州得尔塔影像技术有限公司 | 一种空间位置检测装置及位置调整方法 |
CN113048960B (zh) * | 2021-04-13 | 2024-04-12 | 广州得尔塔影像技术有限公司 | 一种空间位置检测装置及位置调整方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210190497A1 (en) | Simultaneous location and mapping (slam) using dual event cameras | |
US10304248B2 (en) | Apparatus and method for providing augmented reality interaction service | |
EP2989481B1 (en) | Localization systems and methods | |
US10937191B2 (en) | Predictive simultaneous localization and mapping system using prior user session positional information | |
TWI574223B (zh) | 運用擴增實境技術之導航系統 | |
JP2010169521A (ja) | 位置検出装置、位置検出方法及びプログラム | |
JP6621836B2 (ja) | 光パターンの強度変動を利用した体積内の物体の深さマッピング | |
US20170330031A1 (en) | Fusing device and image motion for user identification, tracking and device association | |
US9978147B2 (en) | System and method for calibration of a depth camera system | |
US20130142384A1 (en) | Enhanced navigation through multi-sensor positioning | |
CN108700946A (zh) | 用于并行测距和建图的故障检测和恢复的系统和方法 | |
TW201911133A (zh) | 用於多個自由度之控制器追蹤 | |
JP2015127664A (ja) | キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム | |
JP2015532077A (ja) | 少なくとも1つの画像を撮影する撮影装置に関連する装置の位置及び方向の決定方法 | |
US11150318B2 (en) | System and method of camera-less optical motion capture | |
US20180247150A1 (en) | Information processing device, information processing method, and article manufacturing method | |
JP7420135B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US20180200614A1 (en) | 6DoF Inside-Out Tracking Game Controller | |
Mitsugami et al. | Estimation of 3D gazed position using view lines | |
US9594967B2 (en) | Method and apparatus for identifying a person by measuring body part distances of the person | |
US20170220133A1 (en) | Accurately positioning instruments | |
JP2012181063A (ja) | 計算装置、計算方法及び計算プログラム | |
JP2013196221A (ja) | タグ位置推定システム、タグ位置推定方法、及びタグ位置推定プログラム | |
WO2020070856A1 (ja) | 座標値統合装置、座標値統合システム、座標値統合方法、及び座標値統合プログラム | |
US20230011093A1 (en) | Adjustment support system and adjustment support method |