JP2019086365A - 位置推定システム - Google Patents

位置推定システム Download PDF

Info

Publication number
JP2019086365A
JP2019086365A JP2017213942A JP2017213942A JP2019086365A JP 2019086365 A JP2019086365 A JP 2019086365A JP 2017213942 A JP2017213942 A JP 2017213942A JP 2017213942 A JP2017213942 A JP 2017213942A JP 2019086365 A JP2019086365 A JP 2019086365A
Authority
JP
Japan
Prior art keywords
subject
distance
position information
information server
estimation system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017213942A
Other languages
English (en)
Inventor
味松 康行
Yasuyuki Ajimatsu
康行 味松
克行 中村
Katsuyuki Nakamura
克行 中村
俊夫 上村
Toshio Kamimura
俊夫 上村
昭信 渡邊
Akinobu Watanabe
昭信 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2017213942A priority Critical patent/JP2019086365A/ja
Priority to CN201811167302.2A priority patent/CN109754419B/zh
Priority to US16/167,565 priority patent/US10878228B2/en
Publication of JP2019086365A publication Critical patent/JP2019086365A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces

Abstract

【課題】位置推定システムにおいて、被写体位置の推定精度を向上させる。【解決手段】位置情報サーバ104は、距離センサ102〜103から被写体107〜109の位置情報を受信し、受信した位置情報に基づいて距離センサ102〜103が実行すべき位置情報生成処理を決定して位置情報生成処理に関する指示情報を距離センサ102〜103に送信する。【選択図】図1

Description

本発明は、位置推定システムに関する。
TOF(Time of flight)カメラやステレオカメラなどの距離センサで撮影した距離画像から被写体の位置を推定する技術が知られている。
例えば、特許文献1には、距離センサで撮影した人体の距離画像の各ピクセルについて、ピクセルが身体の各部位と関連している確率を計算し、被写体の関節位置を推定する方法が記載されている。
米国特許8503720号公報
被写体を撮影する距離センサが複数存在する場合、複数の距離センサとネットワークで接続された位置情報サーバに位置情報を集約し、位置情報サーバから様々なアプリケーションに位置情報を提供することが一般的に行われている。
しかし、被写体との距離の測定を距離センサで行い、複数の距離センサから送られる距離画像の集約と関節位置の推定を位置情報サーバで行う場合には、多数の距離センサが送る距離画像データがネットワーク帯域を圧迫し、位置推定のために利用できる情報量が減少して被写体位置の推定精度が低下してしまう。
また、一般に距離センサのコンピューティングリソースは位置情報サーバと比べてはるかに少ないため、位置推定に利用できるリソースが限定されてしまい被写体位置の推定精度が低下してしまう。
特許文献1では、複数の距離センサから送られる距離画像の集約と関節位置の推定を位置情報サーバで行う場合に生じる被写体位置の推定精度の低下の問題については考慮されていない。
本発明の目的は、位置推定システムにおいて、被写体位置の推定精度を向上させることにある。
本発明の一態様の位置推定システムは、少なくとも一つの距離センサと位置情報サーバとがネットワークを介して接続された位置推定システムであって、前記距離センサは、被写体との距離を測定して前記被写体の位置に関する情報を生成し、生成した前記位置情報を位置情報サーバに送信し、前記位置情報サーバは、前記距離センサから前記被写体の前記位置情報を受信し、受信した前記位置情報に基づいて前記距離センサが実行すべき位置情報生成処理を決定して、決定した前記位置情報生成処理に関する指示情報を前記距離センサに送信することを特徴とする。
本発明の一態様によれば、位置推定システムにおいて、被写体位置の推定精度を向上させることができる。
位置推定システムの全体構成を示す図である。 実施例1の位置情報サーバの構成を示す図である。 実施例1のTOFセンサの構成を示す図である。 実施例1の位置情報サーバ制御プログラムの構成を示す図である。 実施例1のセンサ表の構成を示す図である。 実施例1の監視領域表の構成を示す図である。 実施例1のTOFセンサ制御プログラムの構成を示す図である。 実施例1のTOFセンサの撮影パラメータの構成を示す図である。 実施例1の位置情報サーバ制御プログラムのフローチャートを示す図である。 実施例1のTOFセンサ制御プログラムのフローチャートを示す図である。 距離画像の構成を示す図である。 送信領域を2次元指定の範囲に限定した距離画像を示す図である。 撮影領域を3次元指定の範囲に限定した距離画像を示す図である。 送信領域を3次元指定の範囲に限定した距離画像を示す図である。 実施例2の位置情報サーバ制御プログラムの構成を示す図である。 実施例2のセンサ表の構成を示す図である。 実施例2の位置情報サーバの構成を示す図である。 実施例2の被写体モデル表の構成を示す図である。 実施例2の推定パラメータ表の構成を示す図である。 実施例2の関節位置表の構成を示す図である。 実施例2の位置情報サーバ制御プログラムのフローチャートを示す図である。 実施例2のTOFセンサの構成を示す図である。 実施例2のTOFセンサ制御プログラムの構成を示す図である。 実施例2のTOFセンサの推定パラメータの構成を示す図である。 実施例2のTOFセンサ制御プログラムのフローチャートを示す図である。 実施例2の被写体表の構成を示す図である。
被写体との距離の測定を距離センサで行い、複数の距離センサから送られる距離画像の集約と関節位置の推定を位置情報サーバで行う場合には、多数のセンサが送る距離画像データがネットワーク帯域を圧迫する。
例えば、距離画像サイズが640×480、1画素あたりの情報量が16bit、フレームレートが30fpsの場合、距離センサ1台あたり非圧縮で約147Mbpsの帯域が必要となる。
そのため、通信遅れによりリアルタイムでの解析ができなくなる、あるいは、ネットワーク帯域を確保するために設備コストが増大するという問題がある。また、通信量を削減するために距離画像の情報量(解像度、フレームレート)を減らすと、位置推定のために利用できる情報量が減少し、推定精度が落ちるという問題がある。
被写体との距離の測定と関節位置の推定を距離センサで行い、複数のセンサから送られる関節位置の集約を位置情報サーバで行う場合には、一般にセンサ機器のコンピューティングリソースはサーバと比べてはるかに少ないため、関節位置推定に利用できるリソースが限定される。
例えば、ごく一般的なサーバのCPU駆動周波数、CPUコア数、搭載メモリ量はそれぞれ数GHz、10コア以上、数十GB以上であるのに対して、センサ機器ではそれぞれ1GHz程度、1−数コア、数百MB〜1GB程度である。そのため、リアルタイムで複雑な推定処理を行うことができず、推定精度が低下するという問題がある。
実施形態は、距離センサから位置情報サーバに送信するデータ量を削減しつつ、被写体位置の推定精度を維持して向上させる。
また、実施形態では、被写体位置の推定結果に基づき、位置推定処理に必要となる可能性の高い被写体に近辺の領域を特定し、その領域に該当する画素のみを距離画像に含めることにより、距離センサから位置情報サーバに送信される距離画像のサイズを小さくする。
また、実施形態では、被写体位置の推定結果に基づき、被写体の特徴に合わせて調整されたより精度の高い推定方法を特定し、距離センサ内での推定方法を変更することにより推定精度を向上させる。
以下、図面を参照して、実施例について説明する。
実施例1は、被写体との距離の測定を距離センサで行い、複数の距離センサから送られる距離画像の集約と関節位置の推定を位置情報サーバで行う位置推定システムである。
図1を参照して、実施例1の位置推定システムの全体構成について説明する。
距離センサ(TOFセンサ)101、102、103と、位置情報サーバ104及び行動分析サーバ105はネットワークを介して接続されている。TOFセンサ101、102、103は、被写体107、108、109の距離画像をネットワーク106を介して位置情報サーバ104に送信する。ネットワーク通信プロトコルとしては、例えば、TCP/IPを用いることができる。
TOFセンサ101、102、103が送信する距離画像の各画素は、TOFセンサ101、102、103と被写体107、108、109との距離を持つ。画素のピクセル座標と被写体107、108、109との距離がわかると、一般的な変換方法により、各画素の空間内での3次元座標を求めることができる。
例えば、センサ設置位置を原点として、水平方向、垂直方向、奥行き方向をそれぞれX軸、Y軸、Z軸とした3次元座標を各画素に対して求めることができる。3次元座標は、位置情報サーバ104が受信した距離画像に基づいて生成することもできるし、TOFセンサ101、102、103が生成して距離画像の一部として位置情報サーバに送ることもできる。実施例1では、特に断りのない限り、TOFセンサ101、102、103が距離画像の一部として各画素の3次元座標を生成して送信するものとして説明する。
位置情報サーバ104は、受信した距離画像に基づいて被写体107、108、109の関節位置を推定する。行動分析サーバ105は、位置情報サーバ104に被写体107、108、109の関節位置を要求し、ネットワーク106経由で各被写体107、108、109の関節位置を受信する。関節位置に基づいて、行動分析サーバ105では被写体107、108、109の姿勢や動きを認識して分析する。また、位置情報サーバ104は、推定した関節位置に基づいて、TOFセンサ101、102、103の処理を制御する。
図2を参照して、位置情報サーバ104の構成について説明する。
位置情報サーバ104は、TOFセンサ101、102、103や行動分析サーバ105と通信するためのネットワークインタフェース201、制御プログラムを実行するためのCPU202、プログラムや各種データを保持するためのメモリ203、メモリ203に保持した状態を管理者に提供し管理者から変更指示を受けるためのユーザインタフェース207を備える。
ユーザインタフェース207は、例えば、情報を表示するためのディスプレイや印刷するためのプリンタ、ユーザが指示を入力するためのキーボードやマウスなどが利用できる。メモリ203は、CPU202で実行される位置情報サーバ制御プログラム204、接続されているセンサに関する情報を保持するセンサ表205、被写体の立ち入りを監視する領域に関する情報を保持する監視領域表206、各被写体の関節位置を保持する被写体表208を格納する。
特に示さないが、位置情報サーバ制御プログラム204は、起動直後に各表を適切なデフォルト値で初期化する。
位置情報サーバ制御プログラム204は、図4に示す各機能を持つ。
画像データ受信機能401は、TOFセンサ101、102、103から送られた距離画像データをネットワークインタフェース201経由で受信する。点集合取得機能402は、受信した距離画像に含まれる各画素に対応する点群、すなわち、センサが視野空間内で検出した被写体表面の点群の位置を取得する。
関節位置推定機能403は、取得した被写体107、108、109の点群からさまざまな関節の3次元座標を推定する。撮影パラメータ選択機能404は、被写体107、108、109の関節位置の推定結果に基づいて、その被写体107、108、109を撮影するTOFセンサ101、102、103に適する各種の撮影パラメータを選択する。
撮影パラメータ送信機能405は、選択したパラメータをネットワークインタフェース201経由でTOFセンサ101、102、103に送信する。関節位置提供機能406は、行動分析サーバ105からの要求に応じて、被写体表208に記録されている関節位置をネットワークインタフェース201経由で送信する。
管理機能407は、ユーザインタフェース207を通じて、管理者にセンサ表205、監視領域表206、被写体表208の内容を提供するとともに、管理者の指示に従ってセンサ表205、監視領域表206を指定された値に変更する。例えば、TOFセンサ101、102、103の視野領域や監視領域の範囲、被写体が監視領域に入った場合に適用する解像度やフレームレートを指定された値に設定する。
センサ表205は、各TOFセンサ101、102、103に対して、図5に示す要素を含む。
実施例1では、撮影範囲506、距離モード508、解像度509、フレームレート510、被写体番号511の各値は位置情報サーバプログラム204が生成し、それ以外の各要素は管理者が指定する。
センサ番号501は、管理者がセンサを特定するために使用する一意なセンサ識別子である。IPアドレス502は、ネットワーク通信のために必要なアドレスである。視野領域503は、各センサの視野空間の範囲を表す。空間の範囲は、一般にさまざまな形式で表現することができる。例えば、視野領域が直方体の場合は、対角に位置する2つの頂点の3次元座標で表すことができる。視野領域が球形の場合は、中心点の3次元座標と半径で表すことができる。センサ機器の視野角と撮影距離範囲が位置情報サーバ制御プログラムから参照できる場合は、管理者は視野範囲特定に必要となるセンサの設置座標と設置角度だけ指定してもよい。
位置基準504と撮影領域サイズ505は、撮影領域を視野全体ではなく被写体周辺空間に限定する際の撮影領域の範囲を表す。位置基準504として、例えば、管理者が関節の種別(頭、腰、など)を指定し、撮影領域サイズ505としてX軸、Y軸、Z軸方向それぞれの長さを指定することにより、指定された関節位置を中心としてその指定された距離の直方体が撮影領域となる。
位置情報サーバ制御プログラムは指定された位置基準504と撮影領域サイズ505に基づき、撮影範囲506を生成する。撮影範囲506は、視野領域503と同様、さまざまな形式で表すことができる。時間間隔507は、各TOFセンサが視野全体を撮影した距離画像を定期的に送信する時間間隔である。
撮影モード508は、被写体の推定位置に応じて位置情報サーバ制御プログラムが決めるTOFセンサ101、102、103の撮影モードである。一般に、センサ機器は複数の撮影モードを持ち、被写体の状況に応じて適切な撮影モードを選択することにより、より正確な撮影データを得ることができる。たとえば、遠くの被写体を撮影する遠距離モード、近距離の被写体に特化した近距離モード、その中間の中間モードといった撮影モードが選択できることがある。
実施例1では、各TOFセンサ101、102、103の撮影モードは、位置情報サーバ制御プログラムがセンサと被写体107、108、109との距離に応じて指定する。解像度509は、作成する距離画像の解像度である。フレームレート510は、距離画像をTOFセンサ101、102、103が位置情報サーバ104に距離画像を送信する頻度である。
被写体番号511は、各TOFセンサ101、102、103が写している被写体107、108、109の識別子である。監視領域表206には、管理者が、行動分析の観点で興味のある空間領域と、その領域の内外に被写体107、108、109が存在するときの撮影パラメータを指定する。領域番号601は、管理者が監視領域を特定するために使用する一意な領域識別子である。
領域範囲602は、各領域の範囲を指定する。範囲を表す形式は、センサ表205の視野領域503や撮影範囲506と同様、さまざまな形式で表すことができる。デフォルト解像度603とデフォルトフレームレート604は、それぞれ領域範囲602内に被写体107、108、109が存在しない場合にTOFセンサ101、102、103が選択すべき距離画像の解像度とフレームレートである。監視解像度605と監視フレームレート606は、それぞれ領域範囲602内に被写体107、108、109が存在する場合にTOFセンサ101、102、103が選択すべき距離画像の解像度とフレームレートである。
被写体表208は、検出された各被写体107、108、109に対して図20に示す要素を含む。被写体番号2001は、各被写体を一意に識別する識別子である。それ以外の要素2002〜2007は、各被写体107、108、109の各種関節の推定位置を表す。関節位置は、3次元座標で表される。位置情報サーバ制御プログラム204の関節位置提供機能406は、行動分析サーバ105からの要求に応じて被写体表208の内容の一部または全部を送信する。
図3にTOFセンサ101、102、103の構成を示す。
各TOFセンサ101、102、103は、位置情報サーバ104と通信するためのネットワークインタフェース301、時刻を取得するための時計208、制御プログラムを実行するためのCPU302、プログラムや各種データを保持するためのメモリ303、現在の時刻を取得するための時計306、距離画像を作成するために被写体107、108、109との距離を計測する撮像モジュール307を備える。
メモリ303は、CPU302で実行されるTOFセンサ制御プログラム304、位置情報サーバ104に送信する距離画像データを作成するために使用する撮影パラメータ305を格納する。
TOFセンサ制御プログラム304は、図7に示す各機能を持つ。距離画像作成機能701は、撮像モジュール307で計測した被写体107、108、109との距離に基づき、各画素がTOFセンサ101、102、103と被写体107、108、109との距離および空間内での位置を表す3次元座標を持つ距離画像を作成する。
距離画像圧縮機能は、距離画像の中で不要な部分のデータを無効値に置き換えまたは削除し、一般的なデータ圧縮技術を用いて全体のサイズを小さくする。距離画像送信昨日703は、圧縮後の距離画像をネットワークインタフェース301経由で位置情報サーバに送信する。
撮影パラメータ受信機能704は、位置情報サーバ104から送られた撮影パラメータをネットワークインタフェース301経由で受信し、撮影パラメータ305としてメモリ303内に保持する。
撮影パラメータ305は、図8に示す各要素を含む。解像度801およびフレームレート802は、作成・送信する距離画像の解像度およびフレームレートである。撮影範囲803、時間間隔804、距離モード805は、位置情報サーバのセンサ表205で該当するTOFセンサ101、102、103に対して記録されている値である。
全体画像送信時刻805は、一番最近に視野全体を撮影した距離画像を位置情報サーバに送信した時刻である。画像送信時刻807は、一番最近に、視野全体化範囲限定化にかかわらず距離画像を送信した時刻である。全体画像送信時刻806以外は位置情報サーバ104から指定された値を保持する。全体画像送信時刻806および距離画像送信時刻807は、TOFセンサ制御プログラム304が生成した値を記録する。
位置情報サーバ制御プログラム204が、TOFセンサ101、102、103からの通信量を削減し、また被写体107、108、109の位置推定の精度を向上させるために、TOFセンサ101、102、103に処理変更を指示する流れを図9に示す。
プログラムの実行が開始されると、位置情報サーバ制御プログラム204はTOFセンサ101、102、103から距離画像を受信する(ステップ902)。
距離画像を送信したTOFセンサ101、102、103は、送信元のIPアドレスとセンサ表を照らし合わせることにより識別できる。次に、受信した距離画像から各画素に対応する点群を取り出す(ステップ903)。
受信した距離画像が圧縮されている場合は伸張処理を行う。距離画像が画素の3次元座標を含む場合は、それらの座標群がそのまま点群となる。位置情報サーバで3次元座標を生成する場合は、距離画像から点群の座標を生成する。
次に、取り出した点群に基づいて被写体の関節位置を推定し、推定結果と被写体を撮影したTOFセンサ番号を被写体表208に格納する。また、位置推定した被写体107、108、109の被写体番号をセンサ表205の被写体番号509に記録する。
推定結果に基づき、TOFセンサ101、102、103の撮影パラメータを選択する(ステップ905)。被写体107、108、109が検出された場合、まず、センサ表205の位置基準504で指定された関節の推定結果位置と撮影領域サイズ505で指定された範囲から、以降の距離画像で位置推定する際に必要となる被写体周辺の領域を撮影範囲として選択する。
また、その領域とTOFセンサ101、102、103の距離に基づいて、適切な撮影モードを決める。さらに、推定した関節位置が監視領域表206に指定されたいずれかの監視領域の範囲602に該当するか確認する。もし該当すれば、その領域に指定された監視解像度および監視フレームレートを選択する。
いずれの領域範囲にも該当しなければ、TOFセンサ101、102、103の視野領域503で指定される範囲と各監視領域の範囲の重複を比較し、該当する監視領域のデフォルト解像度およびデフォルトフレームレートを選択する。複数の監視領域に該当する場合は、最も高いデフォルト解像度とフレームレートを選択する。
被写体107、108、109が検出されなかった場合、視野全体を撮影範囲として、あらかじめ決められたデフォルトの撮影モードを撮影モードとして選択する。解像度とフレームレートは、被写体位置がいずれの監視領域にも該当しない場合と同様に選択する。
ただし、視野領域に最も近い位置に存在する被写体を被写体表208から探し、その被写体107、108、109の位置が視野領域外だが、視野領域との最短距離が短い場合(例えば、20cm以下の場合)、その被写体107、108、109が直後に視野に入ってくる場合を想定し、被写体位置に近い視野領域部分に合わせて撮影モードを選択する。
また、その視野領域部分が監視領域表206に指定されたいずれかの監視領域の範囲602に該当するか確認する。もし該当すれば、その領域に指定された監視解像度および監視フレームレートを選択する。いずれの領域範囲にも該当しなければ、被写体107、108、109が検出された場合と同様にデフォルト解像度およびデフォルトフレームレートを選択する。
選択した撮影範囲、撮影モード、解像度、フレームレートをセンサ表205に記録された値と比較する(ステップ906)。もし、一致しないものがあれば、撮影パラメータを更新するためにTOFセンサ101、102、103に選択した撮影パラメータを時間間隔507とともに送信する(ステップ907)。
ただし、一致しない場合でも、場合によっては差異がある程度小さい場合は新しい撮影パラメータを送信しないこともできる。たとえば、撮影範囲の大きさに被写体を包含する十分な余裕があり、撮影範囲が数cmだけ移動した場合は、これまでの撮影範囲で撮影し続けても被写体全体を捉えることができるため、撮影範囲を更新する必要性は低い。
このように、従来の値と選択した値の差分が閾値を上回る場合のみ撮影パラメータを送信することにより、通信量およびTOFセンサ101、102、103のパラメータ更新処理負荷を削減することもできる。送信した撮影パラメータは、センサ表205の撮影範囲506、撮影モード508、解像度509、フレームレート510に記録する。
管理者からユーザインタフェース207を介してプログラムの終了指示があった場合は、プログラムの実行を終了する(ステップ908)。そうでなければ、新しい距離画像を受信するためにステップ902に戻る。
TOFセンサ制御プログラム304が、位置情報サーバ104への通信量を削減し、また、被写体107、108、109の位置推定の精度を向上させるために、位置情報サーバ104からの指示に従って処理を変更する流れを図10に示す。
まず、位置情報サーバ104からの撮影パラメータ指定がネットワークインタフェース301で受信されているか確認し(ステップ1002)、受信されていれば指定されたパラメータを撮影パラメータ305の解像度801、フレームレート802、撮影範囲803、撮影モード805に記録する(ステップ1003)。
次に、時計306から取得した現在の時刻と画像送信時刻807から、前回の距離画像送信からの経過時間を計算し、フレームレート802から計算できるフレーム送信間隔と比較する。前回の送信からの時間間隔が短すぎる場合は、時間が経過するのを待つ(ステップ1008)。
例えば、フレームレートから計算できる間隔の半分が経過するまで待つ。フレームレートに対して適切な時間が経過したら、撮影モード805で指定されたモードで、撮像モジュール307により被写体との距離を計測し、距離画像を作成する(ステップ1004)。被写体107、108、109の推定位置に基づいて指定された撮影モードを使用することにより、より正確な距離画像を作成することができる。
次に、全体画像送信時刻806と現在の時刻から、前回の全体画像送信からの経過時間を計算し、時間間隔804と比較する(ステップ1005)。もし時間間隔804で指定された値よりも長い時間経過であれば、全体画像送信時刻806を現在時刻に更新し、全体画像を送信する(ステップ1007)。
そうでなければ、撮影範囲803で指定される範囲の画素だけを含む部分画像を送信するために距離画像を圧縮すし(1006)、圧縮した距離画像を位置情報サーバに送信する(ステップ1007)。どちらの場合でも、距離画像送信の際には画像送信時刻807に現在時刻を記録する。
距離画像の圧縮は、一般的なデータ圧縮技術によるデータ量削減に加え、指定された範囲以外の画素を削除することによる情報量の削減を行う。範囲指定やデータ量削減法には、下記で説明するようにいくつかの方法がある。図11は視野の平面1101を横640、縦480の画素に区切った距離画像を示している。
一般的に、X軸、Y軸、Z軸の3方向の広がりを持つ3次元空間に存在する点を平面に投影し、XYピクセル座標により視野平面内の位置を、画素ごとに持つ被写体との距離値により奥行を表す距離画像が作成できる。視野全体を対象とした距離画像1101は640×480の有効画素を持つが、一部の範囲の画素のみが必要な場合は、画像のピクセル座標範囲を指定することにより画素数を減らすことができる。
例えば図12で、ピクセル位置(200,100)の画素1204を基点に横200ピクセル、縦300ピクセルの範囲のみが必要な場合、1202に示す範囲だけが有効な画素となる。指定範囲以外の部分1203の画素には一様な無効値(たとえばすべて0)を指定することにより、データ圧縮が効きやすくなるため画像データサイズが小さくなる。
また、無効な画素を除外し、必要な範囲1202の画素のみを持つ200×300の距離画像を作成し、距離画像のサイズ自体を小さくすることもできる。この場合、その距離画像の画素が圧縮前の距離画像のどの部分に該当するかを示すメタデータを画像データのヘッダや別個のデータとして提供する。
図12の例では距離画像に含める画素の範囲を画像上のピクセル座標で表したが、図13は3次元空間座標で表した例である。
図13では、直方体1302として指定された領域の中に存在する被写体107、108、109に対応する画素のみが距離画像1301に含まれる。それ以外の領域の被写体107、108、109は存在しない場合と同じ扱いとなり、対応する画素には無効値が設定される。
図12の場合、距離画像の指定範囲には必ず有効画素が含まれるが、図13のように3次元空間の領域で範囲指定した場合は、そうとは限らない。例えば、直方体領域1302の手前に直方体全体を隠すほど大きな被写体がある場合、指定範囲内には被写体が検出されないため距離画像にはまったく有効画素が含まれない。このように一様な値を持つ無効画素が多くなることでデータ圧縮が効きやすくなり、画像データサイズが小さくなる。
3次元区間座標で範囲を指定した場合も、図14のように有効画素部分1402を包含する矩形を小さな距離画像1401として切り出すことで、画像サイズそのものを小さくすることもできる。この場合、指定範囲以外の領域に相当する画素部分1403、1404には無効値が設定される。また、その距離画像の画素が圧縮前の距離画像のどの部分に該当するかを示すメタデータを画像データのヘッダや別個のデータとして提供する。
以上のように、実施例1によれば、TOFセンサ101、102、103から位置情報サーバ104に送信される距離画像に被写体付近の画素情報のみを持たせることにより通信量を削減し、ネットワーク帯域のひっ迫を緩和することができる。
同時に、定期的に視野全体の距離画像を送ることにより、既存の被写体位置から離れた位置に現れた新しい被写体107、108、109の検出を可能としている。さらに、被写体位置に応じて適切な撮影モードを使用することにより、より正確な距離画像を取得し、位置推定精度を向上させることができる。
また、他のTOFセンサ101、102、103で検出された視野外の被写体107、108、109の推定位置に基づいて、その被写体107、108、109が視野に入ってきたときに備えて、あらかじめ適切な撮影モード、解像度、フレームレートを設定しておく。これにより、将来視野に入ってくる被写体107、108、109の位置推定の精度を向上させることができる。
実施例2は、被写体107、108、109との距離の測定と関節位置の推定をTOFセンサ101、102、103で行い、複数のTOFセンサ101、102、103から送られる関節位置の集約を位置情報サーバ104で行う位置推定システムである。以下、図面を参照して、実施例1と異なる部分のみ説明する。
図17を参照して、実施例2の位置情報サーバ104の構成について説明する。
位置情報サーバ104のメモリ203には、位置情報サーバ制御プログラム1701、センサ表1702、被写体モデル表1703、推定パラメータ表1704、被写体表1705が格納される。時計1706は、実施例1における時計306と同様、現在の時刻を提供する。
位置情報サーバ制御プログラム1701は図15に示す各機能を持つ。実施例2では、TOFセンサ101、102、103から距離画像の代わりに被写体107、108、109の推定関節位置が送られる。関節位置受信機能1501は、TOFセンサ101、102、103が推定した被写体107、108、109の関節位置を受信する。
被写体モデル選択機能1502は、受信した関節位置に基づき、体格、姿勢など、被写体107、108、109の特徴を選択する。推定パラメータ選択機能1503は、選択した特徴の被写体の関節位置を推定するために適切な推定パラメータを選択する。推定パラメータ送信機能1504は、選択した推定パラメータをTOFセンサ101、102、103に送信する。関節位置提供機能1505および管理機能1506は実施例1と同様の機能である。
センサ表1702は、各TOFセンサ101、102、103に対して、図16に示す要素を含む。
推定用被写体モデル番号1604は、現時点で被写体位置の推定に使用している被写体モデルの番号を保持する。検出被写体モデル1605は、被写体モデル選択機能で選択した被写体モデルの番号を保持する。被写体モデル検出時刻1606は、連続して同じ被写体モデルを選択した場合の最初の検出時刻を保持する。切り替え間隔1607は、推定用被写体モデルを切り替えるまでに同じ検出被写体モデルの選択が継続する時間として管理者が指定した値を保持する。
被写体モデル表1703は、あらかじめ定義された被写体モデルごとの特徴を記録し、各被写体モデルに対して図18に示す要素を含む。
被写体モデル番号1601は、被写体モデルを一意に識別する識別子である。最小肩幅1802および最大肩幅1803は、その被写体モデルにおける両肩関節間の距離のそれぞれ最小値と最大値である。頭と床の最小距離1804および頭と床の最大距離1805は、その被写体モデルにおける頭と床の距離のそれぞれ最小値及び最大値である。
人数1806は、その被写体モデルにおける被写体の数である。人数は厳密な人数ではなく、N人以上あるいはN人以下という指定の場合もある。密集度1807は、その被写体モデルにおける被写体107、108、109の近さを示し、例えば、被写体間の平均距離の範囲で表される。
推定パラメータ表1704は、被写体モデルごとにあらかじめ定義された適切な推定パラメータを記録し、各被写体モデルに対して図19に示す要素を含む。
被写体モデル番号1901は、被写体モデルを一意に識別する識別子である。最小肩肘距離1902および最大肩肘距離1903は、その被写体モデルにおける肩関節と肘関節の距離(上腕の長さ)の最小値と最大値である。推定器1904は、その被写体モデルに合わせて機械学習した関節位置推定器である。
被写体107、108、109に合わせて推定パラメータを限定することにより、推定精度を向上させることができる。例えば、大人から子供まで幅広い被写体107、108、109を対象とする推定処理の場合は、肩肘距離の範囲を広くとる必要がある。そのため、大人の被写体107、108、109に対して子供用の肩肘距離を適用して関節位置を推定し、推定結果を誤る可能性がある。
被写体107、108、109が大人であることがわかっている場合は、大人用の肩肘距離の閾値を適用することにより、そのような誤推定を排除することができる。同様に、特定の特徴を持つ被写体107、108、109に対して深く学習した推定器1904は、幅広い被写体107、108、109を対象に浅く学習した推定器よりも精度良く推定することができる。図26に示すように、被写体表1705は実施例1と同様の構成要素に加え、各被写体の被写体モデル番号2607を記録する。
図22を参照して、TOFセンサ101、102、103の構成について説明する。
各TOFセンサ101、102、103のメモリ303は、TOFセンサ制御プログラム2201、推定パラメータ2202を格納する。TOFセンサ制御プログラム2201は、図23に示す各機能を持つ。
距離画像作成機能2301、点集合取得機能2302、関節位置推定機能2303は、それぞれ実施例1の対応する機能701、402、403と同様の機能である。ただし、関節位置推定機能2303は、後述のように推定時に位置情報サーバから受信した推定パラメータを使用する点で実施例1と異なる。
関節位置送信機能2304は、推定した関節位置を位置情報サーバ104に送信する。推定パラメータ受信機能2305は、位置情報サーバ104から送られた推定パラメータを受信し、推定パラメータ2202としてメモリ303内に保持する。
推定パラメータ2202は、図24に示す要素を含む。最小肩肘距離2401、最大肩肘距離2402、推定器2403は、それぞれ推定パラメータ表1704の最小肩肘距離1902、最大肩肘距離1903、推定器1904として記録されている値である。
位置情報サーバ制御プログラム2201が、被写体107、108、109の位置推定の精度を向上させるためにTOFセンサ101、102、103に処理変更を指示する流れを図21に示す。
プログラムの実行が開始されると、位置情報サーバ制御プログラム204はTOFセンサ101、102、103から被写体107、108、109の推定関節位置を受信し、被写体107、108、109が検出されていれば、その関節位置を被写体表1705に記録する(ステップ2102)。
受信した関節位置を被写体モデル表で定義される各モデルの特徴と比較し、該当する被写体モデルを1つ選択し、被写体表1705の被写体モデル番号2607に記録する(ステップ2103)。例えば、両肩関節の推定位置の距離を肩幅として計算し、その値よりも最小肩幅1802が小さく、最大肩幅1803が大きいモデルが該当する。同様に、様々な関節位置の推定結果から頭と床の距離、被写体人数、密集度についても、被写体モデル表で定義された値と比較する。
もし、該当する被写体モデルが1つもない場合は、あらかじめ汎用モデルとして決められたデフォルトの被写体モデルを選択する。また、被写体107、108、109が検出されていない場合も同様にデフォルトの被写体モデルを選択する。ただし、視野領域に最も近い位置に存在する被写体107、108、109を被写体表1705から探し、その被写体107、108、109の位置が視野領域外だが、視野領域との最短距離が短い場合は、その被写体107、108、109が直後に視野に入ってくる場合を想定し、その被写体107、108、109の被写体モデルを選択する。
選択した被写体モデルの番号が検出被写体モデル番号1605に記録されている番号と異なる場合は(ステップ2104)、検出被写体モデル番号1605に選択したモデル番号を記録し、被写体モデル検出時刻1606に現在の時刻を記録する(ステップ2109)。そうでない場合、現在の時刻と被写体検出時刻1606に記録された値の差分から、検出した被写体モデルがどのくらいの時間持続しているか計算し、切り替え間隔1607に記録された値と比較する(ステップ2105)。
選択した被写体モデル番号が推定用被写体モデル番号と異なり、持続時間が切り替え間隔として指定された時間を超えていれば、推定用被写体モデル番号1604を選択した被写体モデル番号に更新し(ステップ2106)、被写体モデル番号に対応した推定用パラメータを推定パラメータ表1704から選択する(ステップ2107)。最後に、選択した推定パラメータをTOFセンサ101、102、103に送信する(ステップ2108)。
TOFセンサ制御プログラム2201が被写体107、108、109の位置推定の精度を向上させるために、位置情報サーバ104からの指示に従って処理を変更する流れを図25に示す。
まず、位置情報サーバからの推定パラメータ指定が受信されているか確認し(ステップ2502)、受信されていれば指定されたパラメータを推定パラメータ2202として記録する(ステップ2203)。
次に、実施例1と同様、距離画像を作成し(ステップ2504)、関節位置推定のために点集合を取得する(ステップ2505)。さらに、推定パラメータ2202に記録されている肩肘距離の範囲2401、2402および推定器2403を用いて被写体の関節位置を推定する(ステップ2506)。
最後に、推定結果を位置情報サーバに送信する(ステップ2507)。
以上のように、実施例2によれば、関節位置の推定結果から被写体の特徴を認識し、その特徴に適した推定パラメータを使用することにより、位置推定精度を向上させることができる。
また、他のTOFセンサ101、102、103で検出された視野外の被写体107、108、109の推定位置とその被写体107、108、109の特徴に基づいて、その被写体107、108、109が視野に入ってきたときに備えて、あらかじめ適切な推定パラメータを設定しておく。これにより、将来視野に入ってくる被写体107、108、109の位置推定の精度を向上させることができる。
101、102、103 TOFセンサ
104 位置情報サーバ
105 行動分析サーバ
106 ネットワーク
107、108、109 被写体

Claims (13)

  1. 少なくとも一つの距離センサと位置情報サーバとがネットワークを介して接続された位置推定システムであって、
    前記距離センサは、
    被写体との距離を測定して前記被写体の位置に関する情報を生成し、生成した前記位置情報を位置情報サーバに送信し、
    前記位置情報サーバは、
    前記距離センサから前記被写体の前記位置情報を受信し、受信した前記位置情報に基づいて前記距離センサが実行すべき位置情報生成処理を決定して、決定した前記位置情報生成処理に関する指示情報を前記距離センサに送信することを特徴とする位置推定システム。
  2. 前記距離センサが送信する前記位置情報は距離画像を含み、
    前記位置情報サーバは、前記距離画像に基づいて前記被写体の各部の位置を推定することを特徴とする請求項1に記載の位置推定システム。
  3. 前記位置情報サーバが送信する前記位置情報生成処理に関する前記指示情報は、前記距離画像の撮影対象となる3次元空間の範囲に関する情報を含み、
    前記距離センサは、送信する前記距離画像に対して、前記指示情報で指定された前記3次元空間の範囲の外に存在する前記被写体に対応する画素に無効値を設定することを特徴とする請求項2に記載の位置推定システム。
  4. 前記位置情報サーバは、受信した前記距離画像の各画素の前記3次元空間内での分布に基づいて、前記距離センサの前記撮影対象となる前記3次元空間の範囲を決定することを特徴とする請求項3に記載の位置推定システム。
  5. 前記位置情報サーバは、受信した前記距離画像から推定した前記被写体の推定位置に基づいて、前記距離センサの前記撮影対象となる前記3次元空間の範囲を決定すること特徴とする請求項3に記載の位置推定システム。
  6. 前記位置情報サーバが送信する前記位置情報生成処理に関する前記指示情報は、前記距離センサが前記被写体を撮影するために使用する撮影モードを含み、
    前記距離センサは、前記撮影モードで撮影した距離データに基づいて前記距離画像を作成して前記位置情報サーバに送信することを特徴とする請求項2に記載の位置推定システム。
  7. 前記位置情報サーバが送信する前記位置情報生成処理に関する前記指示情報は、前記距離画像を送信する間隔を指定する情報を含み、
    前記距離センサは、指定された前記間隔で前記距離画像を前記位置情報サーバに送信することを特徴とする請求項2に記載の位置推定システム。
  8. 前記位置情報サーバが送信する前記位置情報生成処理に関する前記指示情報は、前記距離画像の解像度を指定する情報を含み、
    前記距離センサは、指定された前記解像度に基づいて前記距離画像を作成して前記位置情報サーバに送信することを特徴とする請求項2に記載の位置推定システム。
  9. 前記距離センサが送信する前記位置情報は、前記被写体の推定位置を含むこと特徴とする請求項1に記載の位置推定システム。
  10. 前記位置情報サーバが送信する前記位置情報生成処理に関する前記指示情報は、前記距離センサが前記被写体の位置を推定するために利用する推定パラメータを指定する情報を含み、
    前記距離センサは、指定された前記推定パラメータを用いて前記被写体の位置を推定することを特徴とする請求項9に記載の位置推定システム。
  11. 前記位置情報サーバは、受信した前記被写体の推定位置に基づき、前記距離センサが前記被写体の位置を推定するために利用する推定パラメータを決定することを特徴とする請求項10に記載の位置推定システム。
  12. 前記位置情報サーバが送信する前記推定パラメータは、前記被写体の身体構造に関する閾値を含むことを特徴とする請求項10に記載の位置推定システム。
  13. 前記被写体の身体構造に関する前記閾値は、前記被写体の前記身体構造として少なくとも最小肩肘距離と最大肩肘距離を含むことを特徴とする請求項12に記載の位置推定システム。
JP2017213942A 2017-11-06 2017-11-06 位置推定システム Pending JP2019086365A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017213942A JP2019086365A (ja) 2017-11-06 2017-11-06 位置推定システム
CN201811167302.2A CN109754419B (zh) 2017-11-06 2018-10-08 位置推测系统
US16/167,565 US10878228B2 (en) 2017-11-06 2018-10-23 Position estimation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017213942A JP2019086365A (ja) 2017-11-06 2017-11-06 位置推定システム

Publications (1)

Publication Number Publication Date
JP2019086365A true JP2019086365A (ja) 2019-06-06

Family

ID=66327321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017213942A Pending JP2019086365A (ja) 2017-11-06 2017-11-06 位置推定システム

Country Status (3)

Country Link
US (1) US10878228B2 (ja)
JP (1) JP2019086365A (ja)
CN (1) CN109754419B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3663801B1 (en) * 2018-12-07 2022-09-28 Infineon Technologies AG Time of flight sensor module, method, apparatus and computer program for determining distance information based on time of flight sensor data
CN112415529A (zh) * 2020-10-30 2021-02-26 浙江大华技术股份有限公司 一种闸机
CN113038028B (zh) * 2021-03-24 2022-09-23 浙江光珀智能科技有限公司 一种图像生成方法及系统

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8577538B2 (en) * 2006-07-14 2013-11-05 Irobot Corporation Method and system for controlling a remote vehicle
US8503720B2 (en) * 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
JP5462662B2 (ja) * 2010-02-25 2014-04-02 キヤノン株式会社 位置姿勢計測装置、物体識別装置、位置姿勢計測方法及びプログラム
US9432361B2 (en) * 2013-03-13 2016-08-30 Lookout, Inc. System and method for changing security behavior of a device based on proximity to another device
JP6052399B2 (ja) * 2013-04-26 2016-12-27 富士通株式会社 画像処理プログラム、画像処理方法及び情報端末
FR3016464B1 (fr) * 2014-01-10 2017-06-23 Rodolphe Carlus Systeme de diffusion d'informations visuelles et bagage pour un tel systeme
US20170017839A1 (en) * 2014-03-24 2017-01-19 Hitachi, Ltd. Object detection apparatus, object detection method, and mobile robot
KR101531530B1 (ko) * 2014-12-31 2015-06-25 (주)스타넥스 이미지 분석 방법, 장치 및 컴퓨터로 판독가능한 장치
JP6623568B2 (ja) * 2015-06-05 2019-12-25 カシオ計算機株式会社 撮像装置、撮像制御方法及びプログラム
JP6480824B2 (ja) * 2015-07-27 2019-03-13 株式会社日立製作所 距離画像センサのパラメータ調整方法、パラメータ調整装置、およびエレベータシステム
JP6723061B2 (ja) * 2016-04-15 2020-07-15 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム

Also Published As

Publication number Publication date
CN109754419A (zh) 2019-05-14
US10878228B2 (en) 2020-12-29
CN109754419B (zh) 2023-03-10
US20190138800A1 (en) 2019-05-09

Similar Documents

Publication Publication Date Title
KR102060761B1 (ko) 기계 학습을 활용한 rf 기반의 낙상 판단 시스템 및 그의 낙상 판단 방법
JP6942488B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
US7825948B2 (en) 3D video conferencing
KR102365721B1 (ko) 모바일 기기를 이용한 3차원 얼굴 모델 생성 장치 및 방법
US9697415B2 (en) Recording medium, image processing method, and information terminal
CN109754419B (zh) 位置推测系统
EP3764630B1 (en) Method and apparatus for adjusting scanning status
EP3553739B1 (en) Image recognition system and image recognition method
JP5067477B2 (ja) 撮像パラメータ取得装置、撮像パラメータ取得方法、及び、プログラム
JP2019190974A (ja) キャリブレーション装置、キャリブレーション方法、及びプログラム
EP3249919A1 (en) Image processing apparatus, image processing method, and program
JP2019211337A (ja) 情報処理装置、システム、情報処理方法及びプログラム
CN113056904A (zh) 图像传输方法、可移动平台及计算机可读存储介质
WO2019090904A1 (zh) 确定距离的方法、装置、设备及存储介质
JP2017103564A (ja) 制御装置、制御方法、およびプログラム
CN111935389B (zh) 拍摄对象切换方法、装置、拍摄设备及可读存储介质
US20230306636A1 (en) Object three-dimensional localizations in images or videos
WO2013067906A1 (zh) 一种获取视觉角度的方法、装置及系统
KR102374357B1 (ko) 밀집 통제를 위한 영상 감시 장치
JP7437930B2 (ja) 移動体及び撮像システム
JP2013098588A (ja) 画像処理装置、画像処理方法
JP6483326B2 (ja) 監視システムおよび端末装置
KR20150050224A (ko) 비정상 배회 탐지 장치 및 방법
JP6741008B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2022081112A (ja) データ処理装置、データ処理方法、及びデータ処理プログラム