JP4022249B2 - 物体検出装置、物体検出方法、及び、物体検出用コンピュータプログラム - Google Patents

物体検出装置、物体検出方法、及び、物体検出用コンピュータプログラム Download PDF

Info

Publication number
JP4022249B2
JP4022249B2 JP2007509778A JP2007509778A JP4022249B2 JP 4022249 B2 JP4022249 B2 JP 4022249B2 JP 2007509778 A JP2007509778 A JP 2007509778A JP 2007509778 A JP2007509778 A JP 2007509778A JP 4022249 B2 JP4022249 B2 JP 4022249B2
Authority
JP
Japan
Prior art keywords
image data
data
time
information
human
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007509778A
Other languages
English (en)
Other versions
JPWO2007074671A1 (ja
Inventor
堅司 近藤
知宣 成岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Application granted granted Critical
Publication of JP4022249B2 publication Critical patent/JP4022249B2/ja
Publication of JPWO2007074671A1 publication Critical patent/JPWO2007074671A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V15/00Tags attached to, or associated with, an object, in order to enable detection of the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/04Systems determining presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/74Systems using reradiation of radio waves, e.g. secondary radar systems; Analogous systems
    • G01S13/76Systems using reradiation of radio waves, e.g. secondary radar systems; Analogous systems wherein pulse-type signals are transmitted
    • G01S13/78Systems using reradiation of radio waves, e.g. secondary radar systems; Analogous systems wherein pulse-type signals are transmitted discriminating between different kinds of targets, e.g. IFF-radar, i.e. identification of friend or foe

Description

本発明は、家屋内やオフィス内等にある物体のID情報及び位置を検出する技術に係り、特に、RFIDタグ及びカメラなどの撮像装置の連携により、物体のID情報及び位置を検出する物体検出装置、物体検出方法、及び、物体検出用コンピュータプログラムに関する。
近年、物品を非接触で管理するためのRFIDタグ技術の進歩により、物流などの業務分野を中心に物品管理の自動化が進んでいる。
RFIDタグを利用した物品管理の従来技術として、特許文献1が提案されている。特許文献1では、物品にRFIDタグ(以下、タグ)を付与し、環境に前記タグの読み取り装置(以下、タグリーダ)を密に設置する。物品検索を行う端末から検索対象の物品を指定すると、各タグリーダが、物品に付与されたタグと通信を行う。タグからの返信を受けたタグリーダの場所を、探している物品の場所とするものである。
また、RFIDタグを利用した他の従来技術として、特許文献2が提案されている。特許文献2においても、物品にタグを付与し、環境にタグリーダを設置する。特許文献2では、タグリーダを疎に設置できるように、タグとタグリーダの通信距離が長い、電池内蔵型のアクティブタグを使用し、複数のタグリーダで受信した、タグからの電波の強度を利用して、空間内における物品の位置を決定するものである。
一方、画像(フレーム間差分)を利用して人が移動、放置する物体を検出する技術として、非特許文献1が提案されている。
非特許文献1では、人が物体を動かし始めてから動かし終わるまでは身体の運動が連続して行われ、動画像においてフレーム間差分が閾値以上となるフレームが継続する、と仮定している。即ち、フレーム間差分領域の増大と減少を、人が物体を移動させるイベントの開始、終了と捉える。その後、背景画像として保存した、移動イベントの開始前の画像と、移動イベントの終了後の画像との差分を計算し、移動された物体を特定する。
また、特許文献3には、人などの存在の有無を検出するRFIDと、画像認識用のカメラとを備え、かつ、RFIDの検知範囲とカメラの撮像範囲とを互いに関係付けて、RFIDとカメラとからの情報に基づいて、人などの通行量などを分析し、分析した情報を配信するものが提案されている。
特開平07−146362号公報 特開2000−357251号公報 特開2000−011057号公報 渡辺崇 他,"人が移動,放置する物体の検出",2005年3月7日発行、 電子情報通信学会2005総合大会の大会論文集 D-12-37, pp.187
特許文献1では、物品の設置された場所を詳細に決定しようとすると、タグリーダを空間的に密に設置する必要がある。従って、ある程度の設置コストが許容されるような、物流などの業務用途では導入し易いが、家庭用途には導入しづらい。
特許文献2では、タグに内蔵された電池の消耗を抑えるため、タグからの発信を、例えば1日1回のように設定している。このため、システムから得られる物品の位置は、最後にタグが発信を行った位置となる。最後に発信した位置から物品が移動している場合は、現在の物品の位置を正しく得ることができない。
非特許文献1では、人の移動イベントを特定するため、フレーム毎にフレーム間差分を計算する必要があり、演算コストがかかるという問題がある。加えて、フレーム間差分領域が閾値以上となる区間内で人が物体を移動させているとは限らないため、物体の移動を確実に検出する必要があるという問題がある。
特許文献3では、RFIDとカメラとを使用しているが、RFIDとカメラとの検知範囲を単に関係付けているだけであって、検知範囲内を移動する人の、より正確な位置を検出することはできない。
従って、本発明の目的は、前記問題を解決することにあって、タグリーダを空間的に密に設置する必要がなく、かつ、フレーム毎にフレーム間差分を計算する必要もなく、無線タグリーダの検知範囲外であっても、物体のID情報及び現在の位置を正しく確実に検出することができる物体検出装置、物体検出方法、及び、物体検出用コンピュータプログラムを提供することにある。
前記目的を達成するために、本発明は以下のように構成する。
本発明の第1態様によれば、物体を探索する空間において、無線タグが付与された物体の物体ID情報に関するデータを検知する、1個以上の無線タグリーダと、
前記空間において前記物体を取り扱う人の位置を計測する、1個以上の人位置センサと、
前記空間の一部又は全体を撮影する、1個以上の撮像装置と、
前記無線タグリーダが検知した物体ID情報に関するデータ、前記人位置センサが計測した人位置データ、及び、前記撮像装置が撮影した画像データを、前記データの各々の取得時刻と関連づけて蓄積する記憶手段と、
前記記憶手段に蓄積した前記物体ID情報に関するデータ、前記人位置データ、及び、前記画像データに基づき、前記物体のID情報及び位置を検出する物体検出手段とを備え、
前記物体検出手段は、前記人位置センサが計測した人位置が前記無線タグリーダの検知範囲に含まれる、前記物体ID情報に関するデータのうち、前記人位置データを取得した第1の時刻及び第2の時刻にそれぞれ対応する、第1の物体ID情報に関するデータと第2の物体ID情報に関するデータとが互いに異なると判断した場合、前記第1の時刻及び前記第2の時刻にそれぞれ対応する、第1の画像データと第2の画像データとの差分を計算するとともに、この差分の際、前記第1の時刻から前記第2の時刻までの前記人位置データに基づいて決定した領域について差分を計算し、次いで、画像データにおける前記差分領域の位置、又は、前記位置を前記物体を探索する空間における位置に変換した位置を前記物体の位置として検出することを特徴とする物体検出装置を提供する。
本発明の第2態様によれば、物体を探索する空間において、無線タグが付与された物体の物体ID情報に関するデータを検知する、1個以上の無線タグリーダと、
前記空間において前記物体を取り扱う人の位置を計測する、1個以上の人位置センサと、
各々が前記空間の一部又は全体を撮影する、2個以上の撮像装置と、
前記無線タグリーダが検知した物体ID情報に関するデータ、前記人位置センサが計測した人位置データ、及び、前記撮像装置が撮影した画像データを、前記データの各々の取得時刻と関連づけて蓄積する記憶手段と、
前記記憶手段に蓄積した前記物体ID情報に関するデータ、前記人位置データ、及び、前記画像データに基づき、前記物体のID情報及び位置を検出する物体検出手段とを備え、
前記物体検出手段は、前記人位置センサが計測した人位置が前記無線タグリーダの検知範囲に含まれる、前記人位置データを取得した第1の時刻及び第2の時刻にそれぞれ対応する、第1の物体ID情報に関するデータ及び第2の物体ID情報に関するデータが互いに異なると判断した場合、前記第1の時刻から前記第2の時刻までの前記人位置データに基づいて決定した領域を撮影視野として有する前記撮像装置、又は、前記第1の時刻及び前記第2の時刻にそれぞれ対応する第1の画像データ及び第2の画像データのそれぞれにおいて、前記領域が人を含む他の物体により隠蔽されないような、視点を有する前記撮像装置を、前記2個以上の撮像装置の中から特定し、前記特定された撮像装置によって撮影された、前記第1の時刻及び前記第2の時刻にそれぞれ対応する、第1の画像データと第2の画像データとの差分を計算し、画像データにおける前記差分領域の位置、又は、前記位置を前記物体を探索する空間における位置に変換した位置を前記物体の位置として検出することを特徴とする物体検出装置を提供する。
本発明の第3態様によれば、物体を探索する空間において、無線タグが付与された物体の物体ID情報に関するデータを検知する、1個以上の無線タグリーダと、
前記空間において前記無線タグリーダの検知範囲に人が存在するか否かを検知する、1個以上の人検知センサと、
前記空間の一部又は全体を撮影する、1個以上の撮像装置と、
前記無線タグリーダが検知した物体ID情報に関するデータ、前記人検知センサが検知した人検知データ、及び、前記撮像装置が撮影した画像データを、前記データの各々の取得時刻と関連づけて蓄積する記憶手段と、
前記記憶手段に蓄積した前記物体ID情報に関するデータ、前記人検知データ、及び、前記画像データに基づき、前記物体のID情報及び位置を検出する物体検出手段とを備え、
前記物体検出手段は、前記人が存在することを示す前記人検知データを取得した第1の時刻及び第2の時刻にそれぞれ対応する、第1の物体IDデータ及び第2の物体ID情報に関するデータが互いに異なると判断した場合、前記第1の時刻及び前記第2の時刻にそれぞれ対応する、第1の画像データと第2の画像データとの差分を計算し、前記画像データにおける差分領域の位置、又は、前記差分領域の位置を前記物体を探索する前記空間における位置に変換した位置を前記物体の位置として検出する、ことを特徴とする物体検出装置を提供する。
本発明の第7態様によれば、各々の取得時刻と関連づけて蓄積された、無線タグが付与された物体の物体ID情報に関するデータを検知する、1個以上の無線タグリーダが検知した物体ID情報に関するデータと、前記無線タグリーダの検知範囲に人が存在するか否かを検知する、1個以上の前記人検知センサが検知した人検知データと、前記物体を探索する空間の一部又は全体を撮影する、1個以上の撮像装置が撮影した画像データとを用いて、前記物体のID情報及び位置を検出する物体検出方法であって、
前記人検知データを取得した第1の時刻及び第2の時刻にそれぞれ対応する、第1の物体ID情報に関するデータ及び第2の物体ID情報に関するデータとを比較し、
前記第1の時刻及び前記第2の時刻にそれぞれ対応する、第1の画像データと第2の画像データを選択し、
前記画像データ選択で選択された、前記第1の画像データと前記第2の画像データとの差分を計算し、画像データにおける前記差分領域の位置、又は、前記位置を前記物体を探索する空間における位置に変換した位置を前記物体の位置として検出して、
前記物体IDデータ比較での前記比較の結果、前記物体ID情報に関するデータが一致していないとき、前記画像データ選択と前記物体検出とを実行することを特徴とする物体検出方法を提供する。
本発明の第8態様によれば、各々の取得時刻と関連づけて蓄積された、無線タグが付与された物体の物体ID情報に関するデータを検知する、1個以上の無線タグリーダが検知した物体ID情報に関するデータと、前記物体を取り扱う人の位置を計測する、1個以上の人位置センサが計測した人位置データと、前記空間の一部又は全体を撮影する、1個以上の撮像装置が撮影した画像データとを用いて、前記物体のID情報及び位置を検出する物体検出方法であって、
前記人位置センサが計測した人位置が前記無線タグリーダの検知範囲に含まれる、前記人位置データを取得した第1の時刻及び第2の時刻にそれぞれ対応する、第1の物体ID情報に関するデータ及び第2の物体ID情報に関するデータとを比較し、
前記第1の時刻及び前記第2の時刻にそれぞれ対応する、第1の画像データと第2の画像データを選択し、
前記画像データ選択で選択された、前記第1の画像データと前記第2の画像データとの差分を計算し、画像データにおける前記差分領域の位置、又は、前記位置を前記物体を探索する空間における位置に変換した位置を物体の位置として検出し、前記差分の際、前記第1の時刻から前記第2の時刻までの前記人位置データに基づいて決定した領域について差分を計算して、
前記物体ID比較での前記比較の結果、前記物体ID情報に関するデータが一致していないとき、前記画像データ選択と前記物体検出とを実行することを特徴とする物体検出方法を提供する。
本発明の第9態様によれば、各々の取得時刻と関連づけて蓄積された、無線タグが付与された物体の物体ID情報に関するデータを検知する、1個以上の無線タグリーダが検知した物体ID情報に関するデータと、前記物体を取り扱う人の位置を計測する、1個以上の人位置センサが計測した人位置データと、各々が前記空間の一部又は全体を撮影する、2個以上の撮像装置が撮影した画像データとを用いて、前記物体のID情報及び位置を検出する物体検出方法であって、
前記人位置センサが計測した人位置が前記無線タグリーダの検知範囲に含まれる、前記人位置データを取得した第1の時刻及び第2の時刻にそれぞれ対応する、第1の物体ID情報に関するデータ及び第2の物体ID情報に関するデータとを比較し、
前記第1の時刻から前記第2の時刻までの前記人位置データに基づいて決定した領域を撮影視野として有する撮像装置、又は、前記第1の時刻及び前記第2の時刻にそれぞれ対応する第1の画像データ及び第2の画像データのそれぞれにおいて、前記領域が人を含む他の物体により隠蔽されないような、視点を有する撮像装置を、前記2個以上の撮像装置の中から特定し、前記特定された撮像装置によって撮影された、前記第1の時刻及び前記第2の時刻にそれぞれ対応する、第1の画像データと第2の画像データを選択し、
前記撮像装置・画像データ選択で選択された、前記第1の画像データと前記第2の画像データとの差分を計算し、画像データにおける前記差分領域の位置、又は、前記位置を前記物体を探索する空間における位置に変換した位置を前記物体の位置として検出して、
前記物体ID比較での前記比較の結果、物体ID情報に関するデータが一致していないとき、前記撮像装置・画像データ選択、及び、前記物体検出とを実行することを特徴とする物体検出方法を提供する。
本発明の第10態様によれば、各々の取得時刻と関連づけて蓄積された、無線タグが付与された物体の物体ID情報に関するデータを検知する、1個以上の無線タグリーダが検知した物体IDデータと、前記無線タグリーダの検知範囲に人が存在するか否かを検知する、1個以上の前記人検知センサが検知した人検知データと、前記物体を探索する空間の一部又は全体を撮影する、1個以上の撮像装置が撮影した画像データとを用いて、コンピュータを使用して前記物体のID情報及び位置を検出する、物体検出用コンピュータプログラムであって、
前記人検知データを取得した第1の時刻及び第2の時刻にそれぞれ対応する、第1の物体ID情報に関するデータ及び第2の物体ID情報に関するデータとを比較する物体ID比較手段と、
前記物体ID比較手段での前記比較の結果、前記物体ID情報に関するデータ同士が一致していないとき、前記第1の時刻及び前記第2の時刻にそれぞれ対応する、第1の画像データと第2の画像データを選択する画像データ選択手段と、
前記画像データ選択手段で選択された、前記第1の画像データと前記第2の画像データとの差分を計算し、画像データにおける前記差分領域の位置、又は、前記位置を前記物体を探索する空間における位置に変換した位置を前記物体の位置として検出する物体検出手段と、
を備えることを特徴とする物体検出用コンピュータプログラムを提供する。
本発明の第11態様によれば、各々の取得時刻と関連づけて蓄積された、無線タグが付与された物体の物体ID情報に関するデータを検知する、1個以上の無線タグリーダが検知した物体ID情報に関するデータと、前記物体を取り扱う人の位置を計測する、1個以上の人位置センサが計測した人位置データと、前記空間の一部又は全体を撮影する、1個以上の撮像装置が撮影した画像データとを用いて、コンピュータを使用して前記物体のID情報及び位置を検出する、物体検出用コンピュータプログラムであって、
前記コンピュータに、
前記人位置センサが計測した人位置が前記無線タグリーダの検知範囲に含まれる、前記人位置データを取得した第1の時刻及び第2の時刻にそれぞれ対応する、第1の物体ID情報に関するデータ及び第2の物体ID情報に関するデータとを比較する物体ID比較手段と、
前記物体ID比較手段での前記比較の結果、物体ID情報に関するデータが一致していないとき、前記第1の時刻及び前記第2の時刻にそれぞれ対応する、第1の画像データと第2の画像データを選択する画像データ選択手段と、
前記画像データ選択手段で選択された、前記第1の画像データと前記第2の画像データとの差分を計算し、画像データにおける前記差分領域の位置、又は、前記位置を前記物体を探索する空間における位置に変換した位置を前記物体の位置として検出し、前記差分の際、前記第1の時刻から前記第2の時刻までの前記人位置データに基づいて決定した領域について差分を計算する物体検出手段と、
を実行させるための物体検出用コンピュータプログラムを提供する。
本発明の第12態様によれば、各々の取得時刻と関連づけて蓄積された、無線タグが付与された物体の物体ID情報に関するデータを検知する、1個以上の無線タグリーダが検知した物体ID情報に関するデータと、前記物体を取り扱う人の位置を計測する、1個以上の人位置センサが計測した人位置データと、各々が前記空間の一部又は全体を撮影する、2個以上の撮像装置が撮影した画像データとを用いて、コンピュータを使用して前記物体のID情報及び位置を検出する、物体検出用コンピュータプログラムであって、
前記コンピュータに、
前記人位置センサが計測した人位置が前記無線タグリーダの検知範囲に含まれる、前記人位置データを取得した第1の時刻及び第2の時刻にそれぞれ対応する、第1の物体ID情報に関するデータ及び第2の物体ID情報に関するデータとを比較する物体ID比較手段と、
前記第1の時刻から前記第2の時刻までの前記人位置データに基づいて決定した領域を撮影視野として有する撮像装置、又は、前記第1の時刻及び前記第2の時刻にそれぞれ対応する第1の画像データ及び第2の画像データのそれぞれにおいて、前記領域が人を含む他の物体により隠蔽されないような、視点を有する撮像装置を、前記2個以上の撮像装置の中から特定し、前記特定された撮像装置によって撮影された、前記第1の時刻及び前記第2の時刻にそれぞれ対応する、第1の画像データと第2の画像データを選択する撮像装置・画像データ選択手段と、
前記撮像装置・画像データ選択手段で選択された、前記第1の画像データと前記第2の画像データとの差分を計算し、画像データにおける前記差分領域の位置、又は、前記位置を前記物体を探索する空間における位置に変換した位置を前記物体の位置として検出する物体検出手段とを実行させるとき、
前記物体ID比較手段での前記比較の結果、物体ID情報に関するデータが一致していないとき、前記撮像装置・画像データ選択手段、及び、前記物体検出とを実行させるための物体検出用コンピュータプログラムを提供する。
本発明によると、無線タグリーダと撮像装置例えばカメラを併用することにより、無線タグリーダの設置を空間的に疎にした場合でも、画像を利用して物体の位置を決定することができる。また、異なる2つの時刻で無線タグリーダにより検知した物体ID情報が互いに異なるという情報を利用して、人が物体の取扱いを確実に行った時刻を含む時間帯を決定することができるので、撮像装置で撮像された全ての画像データのフレーム毎に差分を計算する必要がなく、演算量の削減が可能となる。
本発明の記述を続ける前に、添付図面において同じ部品については同じ参照符号を付している。
以下、図面を参照して本発明における実施形態を詳細に説明する前に、本発明の種々の態様について説明する。
以下に、本発明にかかる実施の形態を図面に基づいて詳細に説明する。
以下、図面を参照して本発明における実施形態を詳細に説明する前に、本発明の種々の態様について説明する。
本発明の第1態様によれば、物体を探索する空間において、無線タグが付与された物体の物体ID情報に関するデータを検知する、1個以上の無線タグリーダと、
前記空間において前記物体を取り扱う人の位置を計測する、1個以上の人位置センサと、
前記空間の一部又は全体を撮影する、1個以上の撮像装置と、
前記無線タグリーダが検知した物体ID情報に関するデータ、前記人位置センサが計測した人位置データ、及び、前記撮像装置が撮影した画像データを、前記データの各々の取得時刻と関連づけて蓄積する記憶手段と、
前記記憶手段に蓄積した前記物体ID情報に関するデータ、前記人位置データ、及び、前記画像データに基づき、前記物体のID情報及び位置を検出する物体検出手段とを備え、
前記物体検出手段は、前記人位置センサが計測した人位置が前記無線タグリーダの検知範囲に含まれる、前記物体ID情報に関するデータのうち、前記人位置データを取得した第1の時刻及び第2の時刻にそれぞれ対応する、第1の物体ID情報に関するデータと第2の物体ID情報に関するデータとが互いに異なると判断した場合、前記第1の時刻及び前記第2の時刻にそれぞれ対応する、第1の画像データと第2の画像データとの差分を計算するとともに、この差分の際、前記第1の時刻から前記第2の時刻までの前記人位置データに基づいて決定した領域について差分を計算し、次いで、画像データにおける前記差分領域の位置、又は、前記位置を前記物体を探索する空間における位置に変換した位置を前記物体の位置として検出することを特徴とする物体検出装置を提供する。
本発明の第2態様によれば、物体を探索する空間において、無線タグが付与された物体の物体ID情報に関するデータを検知する、1個以上の無線タグリーダと、
前記空間において前記物体を取り扱う人の位置を計測する、1個以上の人位置センサと、
各々が前記空間の一部又は全体を撮影する、2個以上の撮像装置と、
前記無線タグリーダが検知した物体ID情報に関するデータ、前記人位置センサが計測した人位置データ、及び、前記撮像装置が撮影した画像データを、前記データの各々の取得時刻と関連づけて蓄積する記憶手段と、
前記記憶手段に蓄積した前記物体ID情報に関するデータ、前記人位置データ、及び、前記画像データに基づき、前記物体のID情報及び位置を検出する物体検出手段とを備え、
前記物体検出手段は、前記人位置センサが計測した人位置が前記無線タグリーダの検知範囲に含まれる、前記人位置データを取得した第1の時刻及び第2の時刻にそれぞれ対応する、第1の物体ID情報に関するデータ及び第2の物体ID情報に関するデータが互いに異なると判断した場合、前記第1の時刻から前記第2の時刻までの前記人位置データに基づいて決定した領域を撮影視野として有する前記撮像装置、又は、前記第1の時刻及び前記第2の時刻にそれぞれ対応する第1の画像データ及び第2の画像データのそれぞれにおいて、前記領域が人を含む他の物体により隠蔽されないような、視点を有する前記撮像装置を、前記2個以上の撮像装置の中から特定し、前記特定された撮像装置によって撮影された、前記第1の時刻及び前記第2の時刻にそれぞれ対応する、第1の画像データと第2の画像データとの差分を計算し、画像データにおける前記差分領域の位置、又は、前記位置を前記物体を探索する空間における位置に変換した位置を前記物体の位置として検出することを特徴とする物体検出装置を提供する。
本発明の第3態様によれば、物体を探索する空間において、無線タグが付与された物体の物体ID情報に関するデータを検知する、1個以上の無線タグリーダと、
前記空間において前記無線タグリーダの検知範囲に人が存在するか否かを検知する、1個以上の人検知センサと、
前記空間の一部又は全体を撮影する、1個以上の撮像装置と、
前記無線タグリーダが検知した物体ID情報に関するデータ、前記人検知センサが検知した人検知データ、及び、前記撮像装置が撮影した画像データを、前記データの各々の取得時刻と関連づけて蓄積する記憶手段と、
前記記憶手段に蓄積した前記物体ID情報に関するデータ、前記人検知データ、及び、前記画像データに基づき、前記物体のID情報及び位置を検出する物体検出手段とを備え、
前記物体検出手段は、前記人が存在することを示す前記人検知データを取得した第1の時刻及び第2の時刻にそれぞれ対応する、第1の物体IDデータ及び第2の物体ID情報に関するデータが互いに異なると判断した場合、前記第1の時刻及び前記第2の時刻にそれぞれ対応する、第1の画像データと第2の画像データとの差分を計算し、前記画像データにおける差分領域の位置、又は、前記差分領域の位置を前記物体を探索する前記空間における位置に変換した位置を前記物体の位置として検出する、ことを特徴とする物体検出装置を提供する。
本発明の第4態様によれば、前記撮像装置はカメラであり、前記物体検出手段は、前記第1の画像データと前記第2の画像データとの差分を計算する際に、前記人検知センサの検知範囲をカメラ座標系に変換した領域を、前記第1の画像データと前記第2の画像データとの差分を計算する差分対象領域から除外して、除外された領域において、前記差分を計算することを特徴とする第3の態様に記載の物体検出装置を提供する。
本発明の第5態様によれば、前記物体検出手段は、
前記第1の時刻に基づいて、取得時刻が互いに異なる第1の画像データ及び第3の画像データを選択し、前記第2の時刻に基づいて、取得時刻が互いに異なる第2の画像データ及び第4の画像データを選択する画像データ選択部と、
前記画像データ選択部で選択された前記第1の画像データと前記第3の画像データとの差分を計算することによって、第1のマスク領域を決定し、前記画像データ選択部で選択された前記第2の画像データと前記第4の画像データとの差分を計算することによって、第2のマスク領域を決定し、前記第1の画像データと前記第2の画像データとの差分を計算する際に、前記第1のマスク領域及び前記第2のマスク領域を、差分の対象領域から除外したのち、前記第1の画像データと前記第2の画像データとの差分を計算する物体検出部とを備えることを特徴とする第3の態様に記載の物体検出装置を提供する。
本発明の第6態様によれば、前記物体検出手段は、前記第1の画像データと前記第2の画像データとの差分を計算する際、前記第1の物体ID情報に関するデータ及び前記第2の物体ID情報に関するデータにおいて、差異のある物体ID情報を特定し、差異のある前記物体ID情報に対応づけられた、物体の色、大きさ、形状の情報のうち少なくとも1つの情報を利用して前記差分を計算することを特徴とする、第1から5の態様のいずれか1つに記載の物体検出装置を提供する。
本発明の第7態様によれば、各々の取得時刻と関連づけて蓄積された、無線タグが付与された物体の物体ID情報に関するデータを検知する、1個以上の無線タグリーダが検知した物体ID情報に関するデータと、前記無線タグリーダの検知範囲に人が存在するか否かを検知する、1個以上の前記人検知センサが検知した人検知データと、前記物体を探索する空間の一部又は全体を撮影する、1個以上の撮像装置が撮影した画像データとを用いて、前記物体のID情報及び位置を検出する物体検出方法であって、
前記人検知データを取得した第1の時刻及び第2の時刻にそれぞれ対応する、第1の物体ID情報に関するデータ及び第2の物体ID情報に関するデータとを比較し、
前記第1の時刻及び前記第2の時刻にそれぞれ対応する、第1の画像データと第2の画像データを選択し、
前記画像データ選択で選択された、前記第1の画像データと前記第2の画像データとの差分を計算し、画像データにおける前記差分領域の位置、又は、前記位置を前記物体を探索する空間における位置に変換した位置を前記物体の位置として検出して、
前記物体IDデータ比較での前記比較の結果、前記物体ID情報に関するデータが一致していないとき、前記画像データ選択と前記物体検出とを実行することを特徴とする物体検出方法を提供する。
本発明の第8態様によれば、各々の取得時刻と関連づけて蓄積された、無線タグが付与された物体の物体ID情報に関するデータを検知する、1個以上の無線タグリーダが検知した物体ID情報に関するデータと、前記物体を取り扱う人の位置を計測する、1個以上の人位置センサが計測した人位置データと、前記空間の一部又は全体を撮影する、1個以上の撮像装置が撮影した画像データとを用いて、前記物体のID情報及び位置を検出する物体検出方法であって、
前記人位置センサが計測した人位置が前記無線タグリーダの検知範囲に含まれる、前記人位置データを取得した第1の時刻及び第2の時刻にそれぞれ対応する、第1の物体ID情報に関するデータ及び第2の物体ID情報に関するデータとを比較し、
前記第1の時刻及び前記第2の時刻にそれぞれ対応する、第1の画像データと第2の画像データを選択し、
前記画像データ選択で選択された、前記第1の画像データと前記第2の画像データとの差分を計算し、画像データにおける前記差分領域の位置、又は、前記位置を前記物体を探索する空間における位置に変換した位置を物体の位置として検出し、前記差分の際、前記第1の時刻から前記第2の時刻までの前記人位置データに基づいて決定した領域について差分を計算して、
前記物体ID比較での前記比較の結果、前記物体ID情報に関するデータが一致していないとき、前記画像データ選択と前記物体検出とを実行することを特徴とする物体検出方法を提供する。
本発明の第9態様によれば、各々の取得時刻と関連づけて蓄積された、無線タグが付与された物体の物体ID情報に関するデータを検知する、1個以上の無線タグリーダが検知した物体ID情報に関するデータと、前記物体を取り扱う人の位置を計測する、1個以上の人位置センサが計測した人位置データと、各々が前記空間の一部又は全体を撮影する、2個以上の撮像装置が撮影した画像データとを用いて、前記物体のID情報及び位置を検出する物体検出方法であって、
前記人位置センサが計測した人位置が前記無線タグリーダの検知範囲に含まれる、前記人位置データを取得した第1の時刻及び第2の時刻にそれぞれ対応する、第1の物体ID情報に関するデータ及び第2の物体ID情報に関するデータとを比較し、
前記第1の時刻から前記第2の時刻までの前記人位置データに基づいて決定した領域を撮影視野として有する撮像装置、又は、前記第1の時刻及び前記第2の時刻にそれぞれ対応する第1の画像データ及び第2の画像データのそれぞれにおいて、前記領域が人を含む他の物体により隠蔽されないような、視点を有する撮像装置を、前記2個以上の撮像装置の中から特定し、前記特定された撮像装置によって撮影された、前記第1の時刻及び前記第2の時刻にそれぞれ対応する、第1の画像データと第2の画像データを選択し、
前記撮像装置・画像データ選択で選択された、前記第1の画像データと前記第2の画像データとの差分を計算し、画像データにおける前記差分領域の位置、又は、前記位置を前記物体を探索する空間における位置に変換した位置を前記物体の位置として検出して、
前記物体ID比較での前記比較の結果、物体ID情報に関するデータが一致していないとき、前記撮像装置・画像データ選択、及び、前記物体検出とを実行することを特徴とする物体検出方法を提供する。
本発明の第10態様によれば、各々の取得時刻と関連づけて蓄積された、無線タグが付与された物体の物体ID情報に関するデータを検知する、1個以上の無線タグリーダが検知した物体IDデータと、前記無線タグリーダの検知範囲に人が存在するか否かを検知する、1個以上の前記人検知センサが検知した人検知データと、前記物体を探索する空間の一部又は全体を撮影する、1個以上の撮像装置が撮影した画像データとを用いて、コンピュータを使用して前記物体のID情報及び位置を検出する、物体検出用コンピュータプログラムであって、
前記人検知データを取得した第1の時刻及び第2の時刻にそれぞれ対応する、第1の物体ID情報に関するデータ及び第2の物体ID情報に関するデータとを比較する物体ID比較手段と、
前記物体ID比較手段での前記比較の結果、前記物体ID情報に関するデータ同士が一致していないとき、前記第1の時刻及び前記第2の時刻にそれぞれ対応する、第1の画像データと第2の画像データを選択する画像データ選択手段と、
前記画像データ選択手段で選択された、前記第1の画像データと前記第2の画像データとの差分を計算し、画像データにおける前記差分領域の位置、又は、前記位置を前記物体を探索する空間における位置に変換した位置を前記物体の位置として検出する物体検出手段と、
を備えることを特徴とする物体検出用コンピュータプログラムを提供する。
本発明の第11態様によれば、各々の取得時刻と関連づけて蓄積された、無線タグが付与された物体の物体ID情報に関するデータを検知する、1個以上の無線タグリーダが検知した物体ID情報に関するデータと、前記物体を取り扱う人の位置を計測する、1個以上の人位置センサが計測した人位置データと、前記空間の一部又は全体を撮影する、1個以上の撮像装置が撮影した画像データとを用いて、コンピュータを使用して前記物体のID情報及び位置を検出する、物体検出用コンピュータプログラムであって、
前記コンピュータに、
前記人位置センサが計測した人位置が前記無線タグリーダの検知範囲に含まれる、前記人位置データを取得した第1の時刻及び第2の時刻にそれぞれ対応する、第1の物体ID情報に関するデータ及び第2の物体ID情報に関するデータとを比較する物体ID比較手段と、
前記物体ID比較手段での前記比較の結果、物体ID情報に関するデータが一致していないとき、前記第1の時刻及び前記第2の時刻にそれぞれ対応する、第1の画像データと第2の画像データを選択する画像データ選択手段と、
前記画像データ選択手段で選択された、前記第1の画像データと前記第2の画像データとの差分を計算し、画像データにおける前記差分領域の位置、又は、前記位置を前記物体を探索する空間における位置に変換した位置を前記物体の位置として検出し、前記差分の際、前記第1の時刻から前記第2の時刻までの前記人位置データに基づいて決定した領域について差分を計算する物体検出手段と、
を実行させるための物体検出用コンピュータプログラムを提供する。
本発明の第12態様によれば、各々の取得時刻と関連づけて蓄積された、無線タグが付与された物体の物体ID情報に関するデータを検知する、1個以上の無線タグリーダが検知した物体ID情報に関するデータと、前記物体を取り扱う人の位置を計測する、1個以上の人位置センサが計測した人位置データと、各々が前記空間の一部又は全体を撮影する、2個以上の撮像装置が撮影した画像データとを用いて、コンピュータを使用して前記物体のID情報及び位置を検出する、物体検出用コンピュータプログラムであって、
前記コンピュータに、
前記人位置センサが計測した人位置が前記無線タグリーダの検知範囲に含まれる、前記人位置データを取得した第1の時刻及び第2の時刻にそれぞれ対応する、第1の物体ID情報に関するデータ及び第2の物体ID情報に関するデータとを比較する物体ID比較手段と、
前記第1の時刻から前記第2の時刻までの前記人位置データに基づいて決定した領域を撮影視野として有する撮像装置、又は、前記第1の時刻及び前記第2の時刻にそれぞれ対応する第1の画像データ及び第2の画像データのそれぞれにおいて、前記領域が人を含む他の物体により隠蔽されないような、視点を有する撮像装置を、前記2個以上の撮像装置の中から特定し、前記特定された撮像装置によって撮影された、前記第1の時刻及び前記第2の時刻にそれぞれ対応する、第1の画像データと第2の画像データを選択する撮像装置・画像データ選択手段と、
前記撮像装置・画像データ選択手段で選択された、前記第1の画像データと前記第2の画像データとの差分を計算し、画像データにおける前記差分領域の位置、又は、前記位置を前記物体を探索する空間における位置に変換した位置を前記物体の位置として検出する物体検出手段とを実行させるとき、
前記物体ID比較手段での前記比較の結果、物体ID情報に関するデータが一致していないとき、前記撮像装置・画像データ選択手段、及び、前記物体検出手段とを実行させるための物体検出用コンピュータプログラムを提供する。
以下、本発明の実施の形態について、図面を参照して説明する。
(第1実施形態)
以下、図面を参照して本発明における第1実施形態にかかる物体検出装置及び方法を詳細に説明する。
図1Aは、本発明の第1実施形態に係る物体検出装置の構成を示すブロック図である。部屋RMは、物体検出装置を設置した部屋RMを上方から透視した概略形状(この例では長方形枠)で表現している。
前記物体検出装置は、詳しくは後述するが、入出力部700と、物体検出手段500と、タイマ手段600と、記憶手段400と、撮像装置の一例としてのカメラ300と、3個の無線タグリーダ101〜103と、3個の人検知センサ201〜203とで大略構成されている。
部屋RM内には、前記3個の無線タグリーダ101〜103、3個の無線タグリーダ101〜103の3個のアンテナ111〜113、前記3個の人検知センサ201〜203が設置されている。無線タグリーダ101〜103の検知範囲を、アンテナ111〜113をその中心とする、点線で描かれた円90a、90b、90cでそれぞれ表現している。特に無線タグリーダ101は、検知範囲が部屋RMの出入口GW付近となるように設置されている。人検知センサ201〜203は、検知範囲が、それぞれ無線タグリーダ101〜103の検知範囲とほぼ等しくなるように設置されている。各々の無線タグリーダ101〜103及び人検知センサ201〜203は、1回/秒の頻度で読み取りを行い、読み取り結果を記憶手段400に送信している。
なお、無線タグリーダ101〜103のアンテナ111〜113は、出入口GWや収納庫、書棚、食器棚、サイドテーブル、冷蔵庫、又は、作業机やテーブルやキッチンシステムの前方など、人の通過頻度の大きい場所に設置することが望ましい。家具の配置などにより人の通過範囲が限定される場合には、通路となる場所に、無線タグリーダ101〜103のアンテナ111〜113を設置するとよい。アンテナ111〜113の設置場所を選ぶ際に、数日程度、人の動線(移動軌跡)を計測し、動線が集中している場所をアンテナ111〜113の設置場所としてもよい。
なお、図1Aでは、1つのタグリーダの検知範囲が出入口GW付近になるように設置されているが、必ずしもその必要はない。図1Bのように出入口GW付近に無線タグリーダ102,103の検知範囲90b,90cを設けなくてもよいし、図1Cのように2箇所存在する出入口GW1,GW2にそれぞれ無線タグリーダ101,102,103,104の検知範囲90a,90b,90c,90dを設けても良く、部屋RMの広さ、要望する検知性能、人の動線の多様さ等に合わせて適宜設定すればよい。各部屋RMの出入口GW付近のみに無線タグリーダの検知範囲を設けてもよい。
なお、読み取り頻度は毎秒1回である必要はなく、物体を移動させる人の移動速度等に合わせて、最適な頻度に設定すればよい。例えば、速い移動速度に対応させる場合、読み取り頻度を多くすればよい。
無線タグリーダ101〜104は、検知範囲90a〜90d内にあるタグ付き物体全てのID情報を読み取る。無線タグリーダ101〜104としては、UHF帯(950MHz付近、電波式)のものを用いるとする。UHF帯の特徴として、電波到達距離が最大4m程度と比較的大きいことが挙げられる。また、UHF帯の無線タグリーダ101〜104は、同じく電波式の2.45GHz帯と比べ、波長が長いために回折により、障害物の後方に電波が回り込み易いという利点がある。また、UHF帯の無線タグリーダ101〜104は、2.45GHz帯と比べ、水に吸収されにくいという利点がある。UHF帯の無線タグリーダ101〜104では電波の到達距離が4m程度ということから、部屋RMの天井裏にアンテナ111,112,113,114を設置して鉛直方向の下向きに電波を放射する、又は、部屋RMの床下にアンテナ111,112,113,114を設置して鉛直方向の上向きに電波を放射することで、無線タグリーダ101〜104の下、又は、上を通過する場合、人が所有している無線タグ付物体のID情報を読み取ることができる。図1Dは、天井CLの裏に無線タグリーダのアンテナ11xを設置した例である。アンテナ11xから鉛直方向の下向きに電波の放射した場合、領域TAが検知範囲となる。FLは床面である。
もちろん、13.56MHz帯(電磁誘導式)、2.45GHz帯(電波式)などの他のパッシブ型無線タグやアクティブ型無線タグも用いることができる。13.56MHz帯の方式の場合、読み取り距離が最大80cm程度と短いため、比較的狭い通路の側面などにアンテナを複数配置し、水平方向に磁界を発生させる等、通過する人物が所有する無線タグが安定して読み取れるような対策が必要である。2.45GHz帯の場合、読み取り距離が最大2m程度であるため、鉛直方向に電波を放射する場合、天井CLと床下の両方にアンテナを設置する等の対策を講じればよい。
本発明のこの第1実施形態には、検知範囲の狭いパッシブ型無線タグを用いた場合でも、カメラと連携させることにより、パッシブ型無線タグの検知範囲外でも物体のID情報及び位置情報を検出可能という効果があるが、検知範囲の広いアクティブ型無線タグを用いた場合、アクティブ型無線タグでさえも全域を検知できないような広域の監視に用いることができる。
人検知センサ201〜203は、検知範囲90a,90b,90c内における人の存在の有無を二値情報で出力する。人検知センサ201〜203の例としては、床圧力センサや、赤外線センサなどを用いることができる。予め無線タグリーダ101〜104の検知範囲を測定した後、人検知センサ201〜203の検知範囲をそれに合わせて設定しておく。図1Dは、無線タグリーダのアンテナ11Xの検知範囲TAと合わせて床圧力センサを設置した例である。円形の斜線部分は、床面FLに設置された床圧力センサ(人検知センサの一例)20Xの検知範囲である。
また、物体だけでなく人にもタグが付与されている場合、無線タグリーダ101〜103が人に付与されたタグを検知することで、人検知センサ201〜203の代用としてもよい。
カメラ300は、その視野に部屋RMの床面FL全体が含まれるように設置されている。例えば、図1Eのように、部屋RMの中央付近の天井CLに、光軸が鉛直方向の下向きになるように、広角カメラ300を設置することで実現できる。カメラ300は、例えばフレームレート30fpsで画像を撮影し、撮影画像を記憶手段400に送信する。
記憶手段400は、無線タグリーダ101〜103の読み取り結果のデータと、人検知センサ201〜203の読み取り結果のデータと、カメラ300の撮影画像のデータとを、タイマ手段600を利用することにより、タイマ手段600から得られた各データの取得時刻と対応づけて蓄積する。なお、記憶手段400には、後述するように、記憶手段400内のデータを管理する記憶手段管理部507を接続するようにしてもよい。
なお、カメラ300のフレームレートは必ずしも30fpsである必要はなく、物体を移動させる人の移動速度等に合わせて、入出力部700を介して最適な頻度に設定すればよい。
図1Aでは、無線タグリーダの数は3個、人検知センサの数は3個、カメラの数は1個であったが、もちろん他の数でもよい。
次に、記憶手段400に蓄積される、無線タグリーダ101〜103と人検知センサ201〜203とカメラ300などの各種センサの検知データについて説明する。物体を取り扱う人が、図2における、動線MLのように部屋RM内を移動した場合について考える。人は、物体Aを所持した状態で出入口GWを通って部屋RM内に入室し、途中、場所L1にて物体Aを場所L1付近のテーブルTb上に置くことで手放し、その後、場所L2にて新たに物体Bを床から拾い、出入口GWを通って部屋RMから退出したとする。
この時得られた無線タグリーダ101,102,103及び人検知センサ201,202,203の出力を図3に示す。前述した通り、無線タグリーダ101,102,103と人検知センサ201,202,203は1回/秒の頻度で読み取りを行っている。図3では無線タグリーダ101,102,103と人検知センサ201,202,203の読み取りタイミングは同期しているが、必ずしも同期していなくてもよい。同期していない場合は、読み取り時刻が最も近いデータと関連付けを行えばよい。
図3では、時刻0〜2(単位:秒)の間、人検知センサ201により人の存在が検知され、同時に無線タグリーダ101により物体Aが検知されている。
時刻14〜17秒の間、人検知センサ202により人の存在が検知されている。ここで、無線タグリーダ102と人検知センサ202の検知範囲は互いに等しくなるように設置されているため、時刻14〜17秒の間に人が物体Aを所持していれば、無線タグリーダ102は物体Aを検知するはずである。ところが、時刻14〜17秒では、物体Aが無線タグリーダ102では検知されていないので、時刻13秒以前に、人が物体Aを手放したと解釈することができる。
その後、時刻31〜33秒の間、人検知センサ203により人の存在が検知され、同時に無線タグリーダ103により物体Bが検知されている。
時刻41〜42秒の間、人検知センサ201により人の存在が検知され、同時に無線タグリーダ101により物体Bが検知されている。よって、人が物体Bを持ったまま部屋RMから退出したと解釈することができる。
以上から、図3のようなデータが得られた場合、人は、時刻3〜13秒の間のある時刻に、所持していた物体Aを手放し、時刻18〜30秒の間のある時刻に、部屋RMのどこかから物体Bを拾ったと物体検出手段500により解釈することができる。
物体検出手段500は、記憶手段400に蓄積された、各種センサの検知データを利用して物体を検出する。物体検出手段500は、連続して人の存在を検知している時間帯及び時間帯の総数Nを特定する時間帯特定部501と、時間帯に対応する物体ID情報に関するデータを取得する物体ID取得部502と、物体ID取得部502で取得した物体ID情報に関するデータを比較して一致しているかどうかを判断する物体ID比較部503と、物体位置を検出するために用いる画像データの選択を行う画像データ選択部504と、画像データ選択部504で選択さたれ複数の画像の差分を計算して物体の位置を検出する物体検出部505と、インデックスの管理を行うインデックス管理部506とにより構成される。
図4は、本第1実施形態の物体検出装置における物体検出手段500で行われる物体検出方法を示すフローチャートである。
以下、図4のフローチャートに従って、本第1実施形態に係る物体検出装置及び物体検出方法にかかる物体検出処理について説明する。
まず、時間帯特定部501により実行されるステップSA0では、単一の人検知センサが、連続して人の存在を検知している時間帯及び時間帯の総数Nを時間帯特定部501により特定する。図3のデータでは、時刻0〜2秒、時刻14〜17秒、時刻31〜33秒、時刻41〜42秒において、それぞれ特定の人位置センサが連続して人の存在を検知していると時間帯特定部501により特定することができる。よって、時刻0〜2秒を時間帯TZ1、時刻14〜17秒を時間帯TZ2、時刻31〜33秒を時間帯TZ3、時刻41〜42秒を時間帯TZ4とする。この結果、図3のデータでは、時間帯の総数Nは、N=4である。
次いで、インデックス管理部506により実行されるステップSA1、SA2では、比較する2つの時間帯を示すインデックスi,jの初期化をそれぞれインデックス管理部506により行う。すなわち、ステップSA1では、インデックスi=1とし、ステップSA2では、インデックスj=i+1とする。
次いで、物体ID取得部502により実行されるステップSA3では、時間帯TZi、TZj(初回は、それぞれTZ1及びTZ2)に対応する物体ID情報に関するデータ(の組み合わせ)を物体ID取得部502により取得する。図3のデータから、時間帯TZ1において、無線タグリーダ101は物体AのID情報に関するデータ(例えば、ID情報があるというデータと、ID情報自体を意味するデータ)を検知しており、時間帯TZ2において、無線タグリーダ102は何も検知していないという物体ID情報に関するデータ(例えば、ID情報が無いというデータ)が物体ID取得部502により得られる。
次いで、物体ID比較部503により実行されるステップSA4では、ステップSA3で物体ID取得部502により取得した2つの物体ID情報に関するデータを比較し、一致しているかどうかを物体ID比較部503により判断する。この場合、2つの物体ID情報に関するデータは一致していない(すなわち、2つの物体ID情報に関するデータが互いに異なる)と物体ID比較部503により判断されるので、画像データ選択ステップSA7に進む。
もし2つの物体IDに関するデータが一致していると物体ID比較部503により判断される場合は、時間帯TZ1からTZ2の間に物体の取扱いがなかったとして、画像データ選択及び物体検出(ステップSA7及びSA8)を行わない。即ち、ステップSA5において、インデックスjがN以上であるかのチェックをインデックス管理部506により行った後、インデックスjがN未満であるとインデックス管理部506により判断されれば、ステップSA6においてインデックスjを1だけインデックス管理部506によりインクリメントし(無線タグリーダの別の時間帯における検知結果を用いて)、再びステップSA3及びステップSA4を行う。ステップSA5において、インデックスjがN以上であるとインデックス管理部506により判断されれば、前記物体検出処理を終了する。
ステップSA3で物体ID取得部502により取得した、物体ID情報に関するデータが複数である場合について、図5の例を用いて説明する。時間帯TZiでは、無線タグリーダは4つの物体A,B,C,Dを検出しており、時間帯TZjでは、無線タグリーダは3つの物体A,B,Dを検出している。この場合、物体の組み合わせが異なるとして、画像データ選択及び物体検出(ステップSA7及びSA8)を行う。
次いで、画像データ選択部504により実行されるステップSA7では、物体位置を検出するために用いる画像データの選択を行う。図3のデータから、時間帯TZ1において無線タグリーダ101は物体AのID情報に関するデータを検知しており、時間帯TZ2において無線タグリーダ102は物体のID情報を何も検知していないという物体ID情報に関するデータを検知していることが物体ID比較部503により判断される。即ち、時間帯TZ1において、無線タグリーダ101の検知範囲90a内に置かれていた、又は、無線タグリーダ101の検知範囲90a内で人が所持していた物体Aが、時刻3秒から13秒までの間に、無線タグリーダの検知範囲外に移動したと物体ID比較部503により推定できる。
即ち、図6Aのように、時間帯TZ1内の時刻(例えば時刻2秒)にカメラ300により撮影された画像Iaでは、物体A(図では、OAで示す。)は人(図では、HMで示す。)と共に人検知センサ201及び無線タグリーダ101の検知範囲90a内に存在し、時間帯TZ2内の時刻(例えば時刻14秒)にカメラ300により撮影された画像Ibでは、物体Aは無線タグリーダ101,102,103の検知範囲90a,90b,90c外に存在すると物体ID比較部503により判断できる。ステップSA7では、このような画像Ia及び画像Ibを、記憶手段400の中から画像データ選択部504により選択する。
次いで、物体検出部505により実行されるステップSA8では、画像Iaと画像Ibとの差分を計算することで、物体Aの位置を決定する。例えば、差分で得られた領域の重心を、物体Aの位置として物体検出部505により決定する。カメラ300がモノクロカメラの場合、輝度情報を用いて物体検出部505により差分を行う。カメラ300がカラーカメラの場合、輝度情報を用いて差分を物体検出部505により行っても良いし、RGBいずれかの値を用いて差分を物体検出部505により行っても良い。この際、物体AのID情報に対応付けられた、色情報、大きさ情報、又は形状情報などがあれば、それらのいずれか1つ又は複数を利用して、差分の計算を物体検出部505により行っても良い。物体のID情報に対応付けられた各種情報は、例えば図6Bのようなテーブル形式のデータベースにて管理することができる。図6Bにおける「分光反射率(色)XXX」は、例えば、図7Bのようなグラフを連続関数として、あるいは、離散関数として保持することで表現できる。図6Bにおける「形状YYY」は、コンピュータグラフィクス等における一般的な3次元モデルを利用して表現できる。また、図6Bのようなテーブル形式のデータベース、言い換えれば、物体情報データベース(物体情報DB)2000は、図6Cのようにインターネット、専用線、公衆回線などのネットワーク網2001を介して前記物体検出装置1000と接続できる。もちろん、物体検出装置1000と物体情報DB2000とは直接接続されていてもよい。
例えば、図7Aのような分光感度を有したカラーカメラを前記カメラ300として使用しており(図7Aの符号「B」、「G」、「R」はそれぞれ青色の分光感度、緑色の分光感度、赤色の分光感度に対応。)、図7Bのような分光反射率を有した(緑色の)被写体を、図7Cのような分光反射率を有した(黄色の)背景の中から分離する場合について考える。通常の白色照明を用いた場合、カラーカメラのB(青色)成分又はG(緑色)成分を用いて物体検出部505により差分を行っても、輝度差があまり生じないため物体をうまく検出できないが、R(赤色)成分を用いると輝度差が生じるため物体をうまく検出できる。カラーカメラの各チャンネルにてどのような輝度で撮影されるかは、(数1)のように、照明光の分光エネルギー特性E(λ)、カラーカメラのチャンネル毎の分光感度特性S(λ)、S(λ)、S(λ)、被写体の分光反射特性R(λ)で決まる。
Figure 0004022249
ここで、cは定数である。
よって、照明光の分光特性、カメラの分光感度特性、背景の分光反射率を予め取得又は計測しておき、物体のID情報とその分光反射率が予め対応付けられて記憶手段400に記憶されていれば、検出したい物体のID情報から差分に有効なカラーチャンネルを物体検出部505により決定できる。
被写体上の1点の分光反射率を得たい場合には、市販の分光測色計などを用いることができる。また、被写体上の複数点の分光反射率を得たい場合には、カメラ300を用いた、以下の方法が使用できる。
差分に有効なカラーチャンネルを決定するという本目的の場合、分光反射率の絶対値を得る必要はなく、最大が1であるような分光反射率の相対値を得ることができればよい。そのような分光反射率を得るためには、分光エネルギー特性(例えば、図8AのE(λ))が既知の光源、及び、分光感度特性(例えば、図8BのS(λ))が既知のカメラを前記カメラ300として用いて、波長毎に被写体(ここでは部屋RMの背景)の輝度を計測する。
Figure 0004022249
ここで、kは定数である。
その結果、図8Cのx(λ)を得た後、物体検出部505により、(数2)のように、計測した輝度x(λ)をE(λ)、S(λ)で除算することにより、被写体の分光反射率の相対値R(λ)を得る。波長毎に被写体の輝度を計測するには、カメラの前に、電気的に通過波長域を変化可能な液晶チューナブルフィルタ等を設置し、通過波長をシフトさせながら、使用する通過波長域の数だけ、同一被写体を撮影することによって行うことができる。
同様に、物体ID情報から実物の大きさ情報が得られる場合、カメラの設置位置及び部屋RMの形状などから撮影画像に映される物体の大きさ(画素数)が推定できるので、差分により複数の物体が検出されたとき、大きさ(画素数)を用いて検出対象のID情報を有する物体を物体検出部505により絞り込むことができる。例えば、図9のように、テーブルTbの設置された部屋RMに物体A及び物体Bが置かれており、上方からカメラ300により撮影を行っている場合を考える。図9のカメラ300で撮影した画像の差分の例を、図10に示す。物体検出部505による画像の差分により、領域xと領域yが抽出されているとする。領域x、yの形状は、双方とも一辺50画素の正方形とする。無線タグリーダの出力から、物体A,Bが部屋RM内に置かれていることが判っている場合、領域x、yと、物体A,Bの対応付けが必要となる。ここで、図10の差分画像だけの情報では対応付けが難しいが、部屋RMの形状(テーブルTbの大きさ、高さ、設置位置を含む)が判っている場合(例えば、テーブルTbの大きさ、高さ、設置位置などの部屋RMの形状のデータ、RFIDタグに関連付けられた物体の大きさの情報、及び、物体ID情報に対応付けられた情報(例えば物体の色、大きさ、及び形状情報)などが記憶手段400に記憶されている場合)、RFIDタグに関連付けられた物体の大きさから画像における物体の大きさが物体検出部505により推定できる。床面FLからの高さにより画像平面に投影される大きさが決定されるという、最も単純な近似を用いると、図9においてテーブルTbの高さをH、カメラ300のレンズ中心LCと床面FLとの距離を3Hとしたとき、テーブルTbの上面に相当する領域RTではその他の領域に比べて物体の大きさが1.5倍になる。例えば、実際の長さが10cmである被写体が、図10の画像平面において、テーブルTbの上面に相当する領域RTでは75画素、床面FLの領域では50画素に投影される。物体ID情報に対応付けられた大きさ及び形状情報から、物体Aの上面が一辺15cmの正方形、物体Bの上面が一辺10cmの正方形であるということが判った場合、領域xが物体Aであり、領域yが物体Bであることが物体検出部505により推定できる。
同様に、物体ID情報から物体の形状情報が得られる場合、差分により複数の物体が検出されたとき、形状を用いて物体を物体検出部505により絞り込むことができる。この方法は、撮影画像における物体の形状が、実世界における物体の姿勢によって変化しない、球のような物体に対して、特に有効である。
なお、差分計算の際、人検知センサの検知範囲を除いて差分を物体検出部505により計算してもよい。差分を物体検出部505により計算すると、検出したい物体以外にそれを取り扱う人も検出される場合がある。部屋RMの中で十分に高い場所にカメラ300を設置し、光軸を鉛直方向の下向きにして撮影する場合、人検知センサが検知している時間帯内の画像を用いると、図6Aのように、人は人検知センサの検知範囲内に存在する。そこで、図11A〜図11Dのように、人検知センサ201,202,203の検知範囲90a,90b,90cを除いて、即ち、画像Icのマスク画像を用いて差分を物体検出部505により行うことで、画像Idのように物体のみを物体検出部505により検出できる。ここで、図11Aは、物体A(図では、OAで示す。)が人(図では、HMで示す。)と共に無線タグリーダ101及び人検知センサ201の検知範囲90a内に存在している画像Iaを示している。図11Bは、物体Aが検知範囲90aと検知範囲90bとの間の床面に放置され、人のみが無線タグリーダ102及び人検知センサ202の検知範囲90b内に存在している画像Ibを示している。図11Cは、人検知センサ201,202,203の検知範囲90a,90b,90c(図11Cの黒色部分)をマスクした画像Icを示す。図11Dは、画像Icの黒色部分であるマスク領域を利用して得られた、画像Iaと画像Ibとの差分画像Idであって、物体Aのみを検出している画像を示している。
なお、人検知センサの検知範囲90a,90b,90cを除いて差分を物体検出部505により計算する代わりに以下の処理を物体検出部505により行ってもよい。
差分計算の際、図12A〜図12Cのように、時間帯TZ1から取得時刻が互いに異なる2個の画像Ia,Icを選択した後、両者の差分により変化領域を物体検出部505により求めることにより、第1のマスク領域MR1を物体検出部505により決定する。ここで、図12Aは、物体A(図では、OAで示す。)が人(図では、HMで示す。)と共に無線タグリーダ101及び人検知センサ201の検知範囲90a内に存在している画像Iaを示している。図12Bは、物体A(図では、OAで示す。)が人(図では、HMで示す。)と共に無線タグリーダ101及び人検知センサ201の検知範囲90a内に存在している画像Icを示している。図12Cは、画像Iaと画像Icとの差分により得られた第1マスク領域MR1(マスク部分(図12Aの物体Aと人の部分及び図12Bの物体Aと人の部分)を黒色で示す。)を示す。
また、図13A〜図13Cのように、時間帯TZ2から取得時刻が互いに異なる2個の画像Ib,Idを選択した後、両者の差分により変化領域を物体検出部505により求めることにより、第2のマスク領域MR2を物体検出部505により決定する。ここで、図13Aは、物体A(図では、OAで示す。)が検知範囲90aと検知範囲90bとの間の床面に放置され、人(図では、HMで示す。)のみが無線タグリーダ102及び人検知センサ202の検知範囲90b内に存在している画像Ibを示している。図13Bは、物体Aが検知範囲90aと検知範囲90bとの間の床面に放置され、人のみが無線タグリーダ102及び人検知センサ202の検知範囲90b内に存在している画像Idを示している。図13Cは、画像Ibと画像Idとの差分により得られた第2マスク領域MR2(マスク部分(図13Aの人の部分及び図13Bの人の部分)を黒色で示す。)を示す。
画像Ia(又はIc)と画像Ib(又はId)の差分を計算する際、第1のマスク領域MR1及び第2のマスク領域MR2を除外して差分を物体検出部505により計算することで、物体Aのみを検出できる。
ステップSA9では、インデックスjがN以上であるかどうかのチェックをインデックス管理部506により行い、インデックスjがN以上であるとインデックス管理部506により判断されれば、前記物体検出処理を終了する。
インデックスjがN未満であるとインデックス管理部506により判断されれば、ステップSA10にて、インデックスiの値を現在のインデックスjの値にインデックス管理部506によりセットし、再度ステップSA2を行う。このようにして、ステップSA0にて特定した全ての時間帯について、前記物体検出処理を行う。
なお、物体検出ステップSA8を終えた時点で、時間帯TZjより前の時刻のセンサデータを記憶手段管理部507により記憶手段400から消去してもよい。各センサデータが物体のID情報及び位置を特定する目的のみに用いられる場合、物体検出部505による物体検出を終えた後、処理済のセンサデータを記憶手段管理部507により記憶手段400から消去することで、記憶手段400の容量を削減できる。特に、画像データのような情報量が多いデータを扱う場合に有効である。
入出力部700は、操作者と本物体検出装置とのインタフェースとして利用される。操作者がある物体例えばある物品の位置を探したい場合には、キーボード、マウス、又はマイク(音声認識)などにより、その物品の名前を入力する。また、物体検出手段500にて検出された物品の位置は、ディスプレイモニタ、又はスピーカーなどにより、操作者に通知される。また、将来、家庭内に自走式ロボットが導入された場合は、前記ロボットに物品の位置情報を送信し、ロボットが部屋RM内を走行して、操作者の元に、探している物品を搬送するというようなサービスも可能となる。
以上のように、第1実施形態の物体検出装置及び方法によれば、物体を探索する空間において、無線タグが付与された物体OAの物体ID情報に関するデータを検知する、1個以上の無線タグリーダ101〜104と、前記空間において前記無線タグリーダ101〜104の検知範囲90a、90b、90c、90dに人HMが存在するか否かを検知する、1個以上の人検知センサ201〜203と、前記空間の一部又は全体を撮影するカメラ300と、前記無線タグリーダ101〜104が検知した物体ID情報に関するデータ、前記人検知センサ201〜203が検知した人検知データ、及び、前記カメラ300が撮影した画像データを、前記データの各々の取得時刻と関連づけて蓄積する記憶手段400と、前記記憶手段400に蓄積した前記物体ID情報に関するデータ、前記人検知データ、及び、前記画像データに基づき、前記物体OAのID情報及び位置を検出する物体検出手段500とを備えている。そして、前記物体検出手段500は、前記人HMが存在することを示す前記人検知データを取得した第1の時刻及び第2の時刻にそれぞれ対応する、第1の物体IDデータ及び第2の物体ID情報に関するデータが互いに異なると判断した場合、前記第1の時刻及び前記第2の時刻にそれぞれ対応する、第1の画像データと第2の画像データとの差分を計算し、前記画像データにおける差分領域の位置、又は、前記差分領域の位置を前記物体OAを探索する前記空間における位置に変換した位置を前記物体OAの位置として検出するように構成している。従って、無線タグリーダ101〜104の検知範囲外にある物体OAであっても、物体OAのID情報及び位置を決定することができる。また、人検知センサ201〜203及び無線タグリーダ101〜104の出力を基にして、差分を行う画像を物体検出手段500により選択するため、全ての画像に対して差分を行う必要はなく、演算量を削減できる。
なお、本発明者らは、以下のような技術も同時に提案中であるが、以下のような課題が残されている。
図14のように、物体のID情報を識別する無線タグリーダTGRを、居間、書斎、寝室、浴室、トイレなどの各部屋RMの出入口GW及び玄関である出入口GWに設け、RFIDタグを付与した物体を所持した人が各部屋RMの出入口GWを通過する場合、物体のID情報に関するデータと検出時刻をデータベース(例えば記憶手段400)に記録する。また、物体の取扱いを行う人の位置を検出する人検知センサ201〜203により、家屋内での人の移動軌跡を、図15の(b)のように得ると同時に、人の単位時間あたりの移動距離、すなわち、速度の情報も図15の(a)のように得る。
例えば、RFIDタグを付与した物体Aを所持した人が図15の(b)の部屋RMに入室する場合、入室時には出入口GWに設置されたタグリーダTGRにて物体Aが検知される。その後、しばらく部屋RMに留まった後、退室し、退出時には、タグリーダTGRにて物体Aが検知されなかったとする。この場合、物体Aは部屋RMの中のどこかに置かれたと判断することが可能である。
物体の置かれた場所は人の移動軌跡付近であり、人が物体の取扱いをする場合、人の移動速度が小さくなり、その場付近に留まる時間が長くなるという仮定を用いれば、図15にて物体Aが置かれた可能性が大きい場所は、本棚BSの前、又は、冷蔵庫Rf・キッチンシステムKSの前であると推定できる。同時に、物体の取扱いを行った時刻も推定できる。
しかしながら、以上の技術では、物体の置かれた場所及び時刻を特定できず、物体の置かれた可能性の大きい場所及び時刻を推定することしかできない。このことに対し、物体検索を行う環境を撮影する撮像装置の一例としてのカメラ300と、カメラ300で撮影された画像情報を蓄積する画像データベースの一例としての記憶手段400をさらに備え、前述の通り推定された物体の場所及び時刻に基づいて、記憶手段400の中から対応する画像を検索し、その画像を表示し、物体を検索している人に物体の有無の判断を委ねるという更なる対策をとることが考えられている。しかし、この場合でも、人が画像を目視により確認する必要があり、手間がかかるという課題が残っている。
そこで、本発明の前記第1実施形態では、前記物体検出手段500により、前記人HMが存在することを示す前記人検知データを取得した第1の時刻及び第2の時刻にそれぞれ対応する、第1の物体IDデータ及び第2の物体ID情報に関するデータが互いに比較して異なると判断した場合、前記第1の時刻及び前記第2の時刻にそれぞれ対応する、第1の画像データと第2の画像データとの差分を計算し、前記画像データにおける差分領域の位置、又は、前記差分領域の位置を前記物体OAを探索する前記空間における位置に変換した位置を前記物体OAの位置として検出することにより、前記残された前記課題も解決することができる。
(第2実施形態)
以下、図面を参照して本発明における第2実施形態にかかる物体検出装置及び方法を詳細に説明する。
図16は、本発明の第2実施形態に係る物体検出装置の構成を示すブロック図である。部屋RMは、物体検出装置を設置した部屋RMを上方から透視した概略形状(この例では長方形枠)で表現している。
前記物体検出装置は、入出力部700と、物体検出手段500と、タイマ手段600と、記憶手段400と、カメラ300と、3個の無線タグリーダ101〜103と、人位置センサ210とで大略構成されている。第1実施形態と大きく異なる点は、人検知センサ201〜203の代わりに人位置センサ210を備えていることである。
第1実施形態と同様に、部屋RM内には、前記3個の無線タグリーダ101〜103及び3個の無線タグリーダ101〜103の3個のアンテナ111〜112が設置されている。無線タグリーダ101〜103の検知範囲を、点線で描かれた円90a、90b、90cで表現している。特に無線タグリーダ101は、検知範囲90aが部屋RMの出入口GW付近となるように設置されている。無線タグリーダ101〜103及びアンテナ111〜112については、第1実施形態と同様であるので、詳細な説明を省略する。
人位置センサ210は、部屋RM内に存在する人の2次元位置(又は3次元位置)を検出する。人位置センサ210の例として、超音波センサや床圧力センサを利用することができる。超音波センサの場合、図17のように人HMが携行した超音波発信機93aから発する超音波93bを、天井CL等に備えられた3個以上の超音波受信機93cで受信し、到達時間を利用した3点測量を行うことにより、人HMの3次元位置を計測する。床圧力センサの場合、図18Aのように圧力センサユニット94を2次元アレイ状に複数並べたものを床面FLに設置し、圧力を検知した圧力センサユニット94の2次元アレイにおける位置により、人HMの2次元位置を計測する。無線タグリーダ101〜103、及び、人位置センサ210としての多数の超音波受信機93c及び超音波発信機93aを備えた部屋RMの様子を図18Bに示す。無線タグリーダ101〜103、及び、人位置センサ210としての多数の床圧力センサユニット94を備えた部屋RMの様子を図18Cに示す。第1実施形態における人検知センサ201〜203は、検知範囲内に人が存在するか否かの二値情報の時系列データを出力していたが、本第2実施形態における人位置センサ210は、人の2次元位置(又は3次元位置)の時系列データを出力する。本第2実施形態では、人位置センサ210として超音波センサを利用する。超音波センサのデータ取得は1回/秒の頻度で行われ、読み取り結果は記憶手段400に送信される。超音波センサの発信機93aは、例えば人HMの腰など、人の体の中心付近に固定するものとする。超音波センサを利用すると、発信機93aの、世界座標系における3次元位置(X,Y,Z)が取得できる。ただし、本第2実施形態では、そのうちのX座標値及びY座標値を記憶手段400に送信するものとする。座標系の取り方は図19の通りである。すなわち、X方向と、X方向と直交するY方向により床面を定義し、X方向とY方向の両方向と直交するZ方向により高さ方向を定義する。
なお、読み取り頻度は秒1回である必要はなく、物体を移動させる人の移動速度等に合わせて、最適な頻度に設定すればよい。例えば、速い移動速度に対応させる場合、読み取り頻度を多くすればよい。
カメラ300については、第1実施形態と同様であるので、詳細な説明を省略する。
記憶手段400は、無線タグリーダ101〜103の読み取り結果のデータと、人位置センサ210の読み取り結果のデータと、カメラ300の撮影画像のデータとを、タイマ手段600を利用することにより、タイマ手段600から取得された各データの取得時刻と対応づけて蓄積する。
次に、記憶手段400に蓄積される、無線タグリーダ101〜103、人位置センサ210、カメラ300などの各種センサの検知データについて説明する。物体を取り扱う人が、図20における、動線MLのように部屋RM内を移動した場合について考える。人は、物体Aを所持した状態で出入口GWを通って部屋RM内に入室し、途中、場所L1にて物体Aを付近のテーブル上に置くことで物体Aを手放し、その後、場所L2にて新たに物体Bを床から拾い、出入口GWを通って部屋RMから退出したとする。
この時、得られた無線タグリーダ101〜103及び人位置センサ210の出力を図21に示す。人位置センサ210の出力は図19の座標系におけるX,Y座標値であり、原点は図20のように部屋RMを表す矩形の左上点とする。単位はmmである。
前述した通り、無線タグリーダ101〜103と人位置センサ210は1回/秒の頻度で読み取りを行っている。図21では、無線タグリーダ101〜103と人位置センサ210の読み取りタイミングは同期しているが、必ずしも同期していなくてもよい。同期していない場合は、読み取り時刻が最も近いデータ同士の関連付けを行えばよい。
物体検出手段500は、記憶手段400に蓄積された、各種センサの検知データを利用して物体を検出する。物体検出手段500は、前記第1実施形態と同様に、人位置センサ210の出力座標値が、無線タグリーダ101〜103の検知範囲90a,90b,90c内に連続して含まれる時間帯TZn及び時間帯の総数Nを特定する時間帯特定部501と、物体ID取得部502と、物体ID比較部503と、画像データ選択部504と、物体検出部505とより構成される。図22は、本第2実施形態の物体検出装置における物体検出手段500で行われる物体検出方法を示すフローチャートである。
以下、図22のフローチャートに従って、本第2実施形態に係る物体検出装置及び物体検出方法にかかる物体検出処理について説明する。
まず、時間帯特定部501により実行されるステップSB0では、人位置センサ210の出力座標値が、無線タグリーダ101〜103の検知範囲90a,90b,90c内に連続して含まれる時間帯TZn及び時間帯の総数Nを時間帯特定部501により特定する。人位置センサ210の出力座標値が無線タグリーダ101〜103の検知範囲90a,90b,90c内に含まれるかどうかは、図23のように予め計測しておいた各無線タグリーダ101〜103の検知範囲90a,90b,90cと、人位置センサ210の出力座標値を用いることにより判断できる。なお、図24のように、検知範囲90a,90b,90cが円で近似できる場合、無線タグリーダ101〜103のアンテナの設置位置(X,Y)と検知距離(円の半径)Rを利用して、前記判断を時間帯特定部501により行ってもよい。ここで、人位置センサ210の出力座標値を(x, y)とすると、
Figure 0004022249
のときは、(x, y)は無線タグリーダの検知範囲に含まれる。
Figure 0004022249
のときは、 (x, y)は無線タグリーダの検知範囲に含まれない。
ステップSB0で得られた結果を図21のデータと併記したものを図25に示す。図25では、人位置センサ210の出力座標値が、無線タグリーダ101〜103の検知範囲90a,90b,90c内に含まれる場合に○印を付与している。そして、人位置センサ210の出力座標値が無線タグリーダ101〜103の検知範囲90a,90b,90c内に連続して含まれる時間帯を特定する。図25のデータでは、時刻0〜2秒を時間帯TZ1、時刻14〜17秒を時間帯TZ2、時刻31〜33秒を時間帯TZ3、時刻41〜42秒を時間帯TZ4とする。この結果、図25のデータでは、時間帯の総数Nは、N=4である。
次のステップSA1からSA6までは第1実施形態のステップSA1からSA6までと同様であるので説明を省略する。
画像データ選択部504により実行されるステップSA7では、物体位置を検出するために用いる画像データの選択を行う。図25のデータから、時間帯TZ1において無線タグリーダ101は物体AのID情報に関するデータを検知しており、時間帯TZ2において無線タグリーダ102は物体のID情報を何も検知していないという物体ID情報に関するデータを検知していることが画像データ選択部504により判断される。即ち、時間帯TZ1において、無線タグリーダ101の検知範囲90a内に置かれていた、又は、無線タグリーダ101の検知範囲90a内で人(図では、HMで示す。)が所持していた物体Aが、時刻3から13秒までの間に、無線タグリーダの検知範囲外に移動したと画像データ選択部504により推定できる。
即ち、図26のように、時間帯TZ1内の時刻(例えば時刻2秒)にカメラ300により撮影された画像Iaでは、物体A(図では、OAで示す。)は無線タグリーダ101の検知範囲90a内に存在し、時間帯TZ2内の時刻(例えば時刻14秒)にカメラ300により撮影された画像Ibでは、物体Aは無線タグリーダの検知範囲外に存在すると画像データ選択部504により判断できる。ステップSA7では、このような画像Ia及び画像Ibを、記憶手段400の中から画像データ選択部504により選択する。
次いで、物体検出部505により実行されるステップSB8では、画像Ia及び画像Ibの差分を物体検出部505により計算することで、物体Aの位置を物体検出部505により決定する。例えば、物体検出部505により差分で得られた領域の重心を、物体Aの位置として決定する。本第2実施形態では、人位置センサ210により各時刻における人HMの位置が得られているため、人位置センサ210の出力座標値をカメラ座標系に物体検出部505により変換することで、図27A及び図27Bのように撮影画像Ia、Ibにおいて人HMが写っている位置を物体検出部505により計算することができる。人HMの大きさが既知である場合、撮影画像Ia、Ibに写っている人HMの領域も物体検出部505により推定できる。
具体的には、人HMの世界座標系での2次元位置(XHM,YHM)を、カメラ座標系での位置(xHM,yHM)に変換した後、撮影画像において、位置(xHM,yHM)の周囲にて予め定めた領域を、人HMの領域であると、物体検出部505により推定する。前記予め定めた領域としては、例えば、位置(xHM,yHM)を中心として所定半径の円の領域を用いることができる。なお、人位置センサ210の出力座標値(世界座標系)をカメラ座標系に物体検出部505により変換するためには、カメラ300が校正済である必要がある。カメラ300が校正済であるとは、カメラ300の3次元位置及び3次元姿勢などの外部パラメータ、及び、焦点距離などの内部パラメータが求められて、記憶手段400などに記憶されていることである。撮影画像において人HMの領域が推定できれば、次に説明する方法にて差分計算対象の領域を求めた後、人HMの領域を除いて差分を物体検出部505により行えばよい。
また、時刻2秒と時刻14秒の間に物体Aを部屋RM内に置いたということが物体検出部505により推定できており、かつ、人位置センサ210により各時刻における人HMの位置が得られているため、人HMが物体を操作可能な距離Dを予め仮定して記憶手段400などに記憶しておくと、人HMの移動軌跡(動線ML)から物体Aの存在する領域を物体検出部505により推定できる。例えば、この第2実施形態のように、部屋RMの中央付近の天井CLに、その光軸が鉛直方向下向きになるようにカメラ300が設置されている場合は、図28のように、人HMの移動軌跡(動線ML)の進行方向に直交する長さ2Dの線分が通過する領域として、簡易的に、物体の存在する領域を定義することができる。人HMが物体を操作可能な距離Dは、例えば人HMの手の長さを基に決定することができ、図28の場合、一例として、D=70(cm)とする。以上の処理から、物体検出部505により、差分計算対象の領域が図29のように得られる。
以上の例では、位置情報として2次元情報を用いた簡易的な計算方法について示している。以下に、3次元情報を用いた例について説明する。
前提条件として、部屋RMの3次元形状は既知、カメラ300は校正済であるとする。ここで、部屋RM内に存在し位置が固定されている家具等も部屋RMの3次元形状に含まれるものとする。また、カメラ300が校正済であるとは、カメラ300の3次元位置及び3次元姿勢などの外部パラメータ、焦点距離などの内部パラメータが求められて、記憶手段400などに記憶されていることである。
まず、ある時刻における人HMの3次元位置を基にした、人が物体を操作する(置く、又は、取る)ことが可能な3次元領域を定義して記憶手段400などに記憶する。3次元領域の例として、円柱領域を設定して記憶手段400などに記憶する場合について説明する。なお、以下の説明において単位は全て[cm]である。図37のように、人HMの世界座標系における3次元位置の位置座標を(XHM,YHM,ZHM)とすると、中心の位置座標を(XHM,YHM,0)、半径をDとする円を底面とし、かつ、Z方向にHの高さを持つ円柱領域を、ある一時刻において位置(XHM,YHM,ZHM)に存在する人HMが、物体を操作可能な領域であると定義して記憶手段400などに記憶する。ここで半径Dは人HMの手の長さを基に決定され、高さHは人HMの身長を基に決定されるとする。ここで、人HMは上方に手を伸ばせば、身長よりも高い位置に手が届くため、高さHは人HMの身長よりも大きい値を設定して記憶手段400などに記憶する。
次に、時刻2秒と時刻14秒の間に移動する人HMの3次元位置を結んだ曲線(若しくは、折れ線)を考え、その曲線(若しくは、折れ線)上の複数点を基準として前記説明した円柱領域をそれぞれ考え、それらの複数の円柱領域(内部領域も含む)の和の領域を、物体操作可能空間VOとして図38のように定義して記憶手段400などに記憶する。人位置のサンプリング間隔が十分に密である場合は、前記複数点として、計測点を物体検出部505によりそのまま利用すればよい。人位置のサンプリング間隔が粗である場合は、物体検出部505により、計測点を補間した後、補間後の曲線(若しくは、折れ線)上の点を、計測点と合わせて物体検出部505により使用すればよい。
実際には物体が宙に浮いて存在していることは無いため、前記物体操作可能空間VOに含まれる水平面を、物体存在候補領域AOとして物体検出部505により決定する。物体操作空間VO内に、テーブル及び棚の一部が含まれている場合の物体存在候補領域AOの例を、それぞれ、図39、図40に示す。物体操作空間VO内に家具などの立体物が無い場合は、物体存在候補領域AOは床面のみとなる。
なお、人が物体を操作することが可能な3次元領域の別の例として、人HMの世界座標系における3次元位置座標(XHM,YHM,ZHM)を基に計算した3次元位置を中心とした、所定半径の球を定義して記憶手段400などに記憶するようにしてもよい。3次元位置座標(XHM,YHM,ZHM)は人位置センサが検出した人の位置である。人位置センサとして、超音波発信機93aを利用する場合は、検出した人の位置は、超音波発信機93aの位置となる。超音波発信機93aを人がその腰に携帯する場合は、腰の位置から両肩を結ぶ中点への変換関数を予め作成して記憶手段400などに記憶させておき、計測した3次元位置(XHM,YHM,ZHM)に前記変換関数を物体検出部505により適用して計算し、計算により求められた3次元位置を中心として球を定義し、定義された球を、人が物体を操作することが可能な3次元領域として、記憶手段400などに記憶させればよい。
物体存在候補領域AOを3次元世界座標系において求めた後は、この物体存在候補領域AOを、2次元カメラ座標系に物体検出部505により投影する。投影は、物体検出部505により、部屋RMの3次元形状(3次元モデル)及び2次元カメラの外部パラメータ及び内部パラメータを用いて、コンピュータグラフィックスにおけるレンダリング技術を用いて実現できる。2次元カメラ座標系に投影後の物体存在候補領域をAO´で表す。この第2実施形態のように、部屋RMの中央付近の天井CLに、その光軸が鉛直方向下向きになるようにカメラ300が設置されている場合、物体存在候補領域AO´は図41のようになる。
同様な方法で、人HMによって隠蔽される領域についても物体検出部505により求めることができる。その目的は、画像Ia(撮影された時刻:2秒)及び画像Ib(撮影された時刻:14秒)の差分計算を、物体存在候補領域AO´に関して行う際、さらに、人HMによって隠蔽されている可能性がある領域を差分計算対象領域から除外することである。撮影画像における人HMの領域を物体検出部505により推定するためには、物体存在候補領域AO´を求めた場合と同様、3次元世界座標系において人の3次元モデルを設定して記憶手段400などに記憶しておき、物体検出部505により、2次元カメラ座標系に投影(レンダリング)すればよい。ここでは、人の3次元モデルを図42のように円柱形状で表現する。人位置センサによる計測値が(XHM,YHM,ZHM)である場合、中心(XHM,YHM,0)かつ半径RHMである円を底面とし、かつ、Z方向への高さがHHMである円柱とする。ここで、パラメータである半径RHM及び高さHHMは、人の平均的なサイズ(平均的な手の長さ及び平均的な身長)から予め求めて記憶手段400などに記憶させておけばよい。また、人毎にパラメータの値を設定して記憶手段400などに記憶しておき、人のIDに応じて異なった値をパラメータとして物体検出部505により用いてもよい。
図41の物体存在候補領域AO´から、人により隠蔽される領域を除いた領域を図43に示す。以後は、撮影画像Ia及びIbにおいて、図43の領域に対して差分を物体検出部505により計算すればよい。
この第2実施形態では、カメラの数は1個であり、かつ、カメラは天井CLにその光軸が鉛直方向下向きになるように設置されているため、物体の存在候補領域AO´と、人により隠蔽される領域とが重なっていても、物体の存在候補領域AO´から人により隠蔽される領域を除外するしか、対処方法はない。しかし、複数のカメラが存在する場合は、物体存在候補領域AO及び人HMの領域を、3次元世界座標系にてそれぞれ物体検出部505により求めた後、カメラ毎のカメラ座標系にそれらを物体検出部505によりレンダリングすることで、撮影画像において、物体存在候補領域と人領域が重なっているか否かを物体検出部505により判断することができる。これにより、両者が重なっていない、又は、重なりが少ないカメラを物体検出部505により選択することにより、物体位置が高精度に検出できるようになる。また、天井にカメラが1台だけ備えられている場合は、図39におけるテーブル下の物体存在候補領域AOはカメラで撮影することができないが、複数のカメラが存在し、かつ、テーブルの真上以外から撮影しているカメラが存在する場合は、テーブル下の物体存在候補領域AOが、カメラ座標系にレンダリング可能なカメラを物体検出部505により選択することで、テーブル下に置かれた物体も検出可能である。
複数のカメラを用いる場合については次の第3実施形態にて説明を行う。
なお、人HMの身につける超音波発信機のID情報に関するデータから人HMが特定できる場合には、人毎に手の長さのデータベース(例えば記憶手段400又は記憶手段400とは別の記憶手段)を用意しておき、特定された人の手の長さを物体検出部505により用いて、人毎に物体の存在領域を物体検出部505により決定することができる。もちろん、人位置センサ210の例として床圧力センサを使用する場合でも、人の歩行情報を解析することで人が特定できるならば、人毎に歩行情報のデータベース(例えば記憶手段400又は記憶手段400とは別の記憶手段)を用意しておき、物体検出部505によりデータベースに記憶された歩行情報を用いて人を特定し、特定された人の手の長さを用いて物体の存在領域を物体検出部505により決定してもよい。
よって、図29のように、物体検出部505による差分計算の際、人の領域を物体検出部505により確実に除外することができると共に、差分を計算する領域を物体検出部505により限定することができて、演算量を少なくすることができる。さらに、カメラ300の視野内において他の人物が存在しており他の人物が他の物体を動かしている場合でも、差分を計算する領域を物体検出部505により限定することで、他の人物や動かされた他の物体が差分領域として抽出される影響を回避又は軽減することができる。
この際、物体AのID情報に対応付けられた、色情報、大きさ情報、形状情報などがあれば、それを利用して差分を物体検出部505により行っても良い。これらの利用については、第1実施形態のステップSA8で述べているため、説明を省略する。
次いで、ステップSA9では、インデックスjがN以上であるかどうかのチェックをインデックス管理部506により行い、インデックスjがN以上であるとインデックス管理部506により判断されれば、前記物体検出処理を終了する。
インデックスjがN未満であるとインデックス管理部506により判断されれば、ステップSA10にて、インデックスiの値を現在のインデックスjの値にインデックス管理部506によりセットし、再度ステップSA2を行う。このようにして、ステップSB0にて特定した全ての時間帯について、前記物体検出処理を行う。
なお、入出力部700については、第1実施形態と同様であるので説明を省略する。
以上のように、本第2実施形態の物体検出装置及び方法によれば、物体OAを探索する空間において、無線タグが付与された物体OAの物体ID情報に関するデータを検知する、1個以上の無線タグリーダ101〜103と、前記空間において前記物体OAを取り扱う人HMの位置を計測する、1個以上の人位置センサ210と、前記空間の一部又は全体を撮影する、撮像装置の一例としてのカメラ300と、前記無線タグリーダ101〜104が検知した物体ID情報に関するデータ、前記人位置センサ210が計測した人位置データ、及び、前記カメラ300が撮影した画像データを、前記データの各々の取得時刻と関連づけて蓄積する記憶手段400と、前記記憶手段400に蓄積した前記物体ID情報に関するデータ、前記人位置データ、及び、前記画像データに基づき、前記物体のID情報及び位置を検出する物体検出手段500とを備えている。そして、前記物体検出手段500は、前記人位置センサ210が計測した人位置が前記無線タグリーダ101〜104の検知範囲に含まれる、前記物体ID情報に関するデータのうち、前記人位置データを取得した第1の時刻及び第2の時刻にそれぞれ対応する、第1の物体ID情報に関するデータと第2の物体ID情報に関するデータとが互いに異なると前記物体検出手段500により判断した場合、前記第1の時刻及び前記第2の時刻にそれぞれ対応する、第1の画像データと第2の画像データとの差分を計算するとともに、この差分の際、前記第1の時刻から前記第2の時刻までの前記人位置データに基づいて決定した領域について差分を計算し、次いで、画像データにおける前記差分領域の位置、又は、前記位置を前記物体OAを探索する空間における位置に変換した位置を物体OAの位置として検出するように構成している。従って、無線タグリーダ101〜103の検知範囲外にある物体であっても、物体のID情報及び位置を決定することができる。また、人位置センサ210及び無線タグリーダ101〜103の出力を基にして、差分を行う画像を画像データ選択部504により選択するため、全ての画像データに対して(言い換えれば、毎フレームごとに)差分を物体検出部505により行う必要はなく、演算量を削減できる。また、物体検出部505による差分計算の際、人位置センサ210の出力を基にして、人HMの領域を確実に除外することができると共に、差分を計算する領域を限定できるため、演算量を少なくすることができる。
(第3実施形態)
以下、図面を参照して本発明における第3実施形態にかかる物体検出装置及び方法を詳細に説明する。
図30は、本発明の第3実施形態に係る物体検出装置の構成を示すブロック図である。部屋RMは、物体検出装置を設置した部屋RMを上方から透視した概略形状(この例では長方形枠)で表現している。
前記物体検出装置は、入出力部700と、物体検出手段500と、タイマ手段600と、記憶手段400と、複数個のカメラ301、302、303、…と、3個の無線タグリーダ101〜103と、人位置センサ210とで大略構成されている。第2実施形態と大きく異なる点は、カメラ300の代わりに複数個のカメラ301、302、303、…を備えていることである。
第1実施形態と同様に、部屋RM内には、前記3個の無線タグリーダ101〜103、3個の無線タグリーダ101〜103の3個のアンテナ111〜112、人位置センサ210、及び複数個のカメラ301、302、303、…が設置されている。これらの無線タグリーダ101〜103、人位置センサ210、カメラ301、302、303、…などのセンサから出力されたデータは、タイマ手段600を利用することにより、タイマ手段600から取得された各データの取得時刻と対応づけられて記憶手段400に蓄積される。
また、物体検出手段500は、記憶手段400に蓄積されかつセンサから出力されたデータを利用して、部屋RM内に存在する物体OAのID情報及び位置を検出する。無線タグリーダ101〜103及び人位置センサ210については、第2実施形態と同様であるため説明を省略する。第2実施形態との差異は、カメラ301、302、303、…が複数個、設置されていることであり、図30におけるそれぞれのカメラ301、302、303、…の位置と部屋RMとの位置関係は、実際の位置関係を反映させたものではない。位置関係については、以下で説明する。
複数のカメラ301、302、303、…は、複数又は単体で部屋RM全体を見渡せるように設置される。前者の例として、図31Bのように、9台のカメラ301、302、303、304、305、306、307、308、309の光軸を鉛直方向の下向きとして、天井CLに分散設置した場合について考える。このとき、部屋RMの床面FLは、図31Aのように9台のカメラ301、302、303、304、305、306、307、308、309の視野(1)〜(9)で覆われる。
なお、カメラの台数は9台以外の任意の台数であってもよいし、カメラの視野の重複を許してもよい。特に、図31B(図31A)のように部屋RMの床面FLにおいて視野の重複がない場合は、床面FLから上方に離れると、どのカメラの視野にも含まれない領域が生じる。よって、テーブルや家具など床面FLから離れた場所に物体を置く場合は、物体を置く可能性がある場所について死角がないように隣接配置するカメラの視野を重複させるなどして設定することが望ましい。
図32は、本第3実施形態の物体検出装置における物体検出手段500で行われる物体検出方法を示すフローチャートである。
以下、図32のフローチャートに従って、本第3実施形態に係る物体検出装置及び物体検出方法にかかる物体検出処理について説明する。
ステップSB0、SA1からSA6までの処理は第2実施形態と同様であるため、説明を省略し、ステップSC7から以降について説明する。
画像データ選択部504により実行されるステップSC7では、物体位置を検出するために適した画像を撮影しているカメラ301〜309、及び、物体位置を検出するための画像の選択を行う。第2実施形態と同じ図21のセンサからのデータが得られている場合、第2実施形態と同様の処理を行うことで図29のように、物体Aの存在領域を限定する。本第3実施形態では、部屋RMを図31Aのように9個のカメラ301〜309で撮影を行っている。よって、図29の物体OAの存在領域と各カメラ301〜309の視野領域との関係から、物体OAを検出するためには、視野(1)、(2)、(3)を有する3個のカメラ301、302、303を画像データ選択部504により選択すればよいことが判る。カメラ301、302、303を画像データ選択部504により選択すれば、第2実施形態と同様な方法を用いて、記憶手段400から、選択したカメラ301、302、303における時刻2秒と時刻14秒の画像データを画像データ選択部504により選択する。
この例では、平面状の物体の存在領域を、単一のカメラにてカバーすることができないため、3個のカメラを選択している。それ以外の例として、第2実施形態にて説明した図39、図40のように、物体の存在領域(物体存在候補領域AO)が平面でない場合に、単一のカメラからは隠蔽が生じる場合がある。このような場合でも、複数のカメラがさまざまな位置/角度から部屋内を撮影している場合であれば、物体存在候補領域AOの全ての領域をカバーするように複数のカメラを物体検出部505により選択することで、隠蔽にロバストな物体検出を行うことが可能となる。
物体検出部505により実行されるステップSB8では、ステップSC7で画像データ選択部504により選択された画像データを利用し、差分を行うことで物体の位置を検出する。選択されたカメラが複数であれば、カメラ毎に2個の画像データ間の差分を物体検出部505により行い、差分領域が検出されたカメラの結果を採用する。また、物体検出部505により差分を計算する際、第2実施形態と同様、図29の斜線領域を利用して、物体検出部505により、人の領域を確実に除外することができると共に、差分を計算する領域を限定できる。
次いで、ステップSA9では、インデックスjがN以上であるかどうかのチェックをインデックス管理部506により行い、インデックスjがN以上であるとインデックス管理部506により判断されれば、前記物体検出処理を終了する。
インデックスjがN未満であるとインデックス管理部506により判断されれば、ステップSA10にて、インデックスiの値を現在のインデックスjの値にインデックス管理部506によりセットし、再度ステップSA2を行う。このようにして、ステップSB0にて特定した全ての時間帯について、前記物体検出処理を行う。
なお、入出力部700については、第1実施形態と同様であるので説明を省略する。
以上のように、本第3実施形態の物体検出方法及び装置によれば、物体OAを探索する空間において、無線タグが付与された物体OAの物体ID情報に関するデータを検知する、1個以上の無線タグリーダ101〜103と、前記空間において前記物体OAを取り扱う人HMの位置を計測する、1個以上の人位置センサ210と、各々が前記空間の一部又は全体を撮影する、2個以上の撮像装置の一例としてのカメラ301〜309と、前記無線タグリーダ101〜103が検知した物体ID情報に関するデータ、前記人位置センサ210が計測した人位置データ、及び、前記カメラ301〜309が撮影した画像データを、前記データの各々の取得時刻と関連づけて蓄積する記憶手段400と、前記記憶手段400に蓄積した前記物体ID情報に関するデータ、前記人位置データ、及び、前記画像データに基づき、前記物体のID情報及び位置を検出する物体検出手段500とを備えている。そして、前記物体検出手段500は、前記人位置センサ210が計測した人位置が前記無線タグリーダ101〜103の検知範囲に含まれる、前記人位置データを取得した第1の時刻及び第2の時刻にそれぞれ対応する、第1の物体ID情報に関するデータ及び第2の物体ID情報に関するデータが互いに異なると判断した場合、前記第1の時刻から前記第2の時刻までの前記人位置データに基づいて決定した領域を撮影視野として有する撮像装置、又は、前記第1の時刻及び前記第2の時刻にそれぞれ対応する第1の画像データ及び第2の画像データのそれぞれにおいて、前記領域が人を含む他の物体により隠蔽されないような、視点を有するカメラ(カメラ301〜309のいずれか1つのカメラ又は複数のカメラ)を特定し、前記特定されたカメラによって撮影された、前記第1の時刻及び前記第2の時刻にそれぞれ対応する、第1の画像データと第2の画像データとの差分を計算し、画像データにおける前記差分領域の位置、又は、前記位置を前記物体を探索する空間における位置に変換した位置を前記物体の位置として検出する。従って、無線タグリーダ101〜103の検知範囲外にある物体OAであっても、物体のID情報及び位置を決定することができる。また、人位置センサ201及び無線タグリーダ101〜103の出力を基にして、カメラを特定し、かつ、前記特定されたカメラにより各時刻に撮影された画像データ中から差分を行う対象画像データを画像データ選択部504により選択する。よって、全てのカメラ301〜309で全ての時刻に撮影された各画像データに対して差分を物体検出部505により行う必要はなく、演算量を削減できる。また、物体検出部505による差分計算の際、人位置センサ210の出力を基にして、人の領域を確実に除外することができると共に、差分を計算する領域を限定できる。
(第3実施形態の変形例)
本第3実施形態の変形例では、前記第3実施形態と同様に、図30のブロック図、図32のフローチャートを用いる。図30のブロック図については、第3実施形態と同様であるため説明を省略する。
第3実施形態の変形例においては、図31B(図31A)のように、9台のカメラ301〜309の視野(1)〜(9)を合わせて部屋RMの床面FL全域を覆うようにカメラ301〜309を設置したが、本第3実施形態の変形例においては、図33のように4台のカメラ301〜304を天井CLの四隅にそれぞれ配置する。すなわち、部屋RMの天井CLの四隅上方に4台のカメラ301〜304を設置し、各カメラ301〜304から、部屋RMの床面FLの全領域を撮影可能なように設置している。
以下、図32のフローチャートに従って、本第3実施形態の変形例に係る物体検出装置及び物体検出方法にかかる物体検出処理について説明する。
ステップSB0、SA1からSA6までの処理は第2実施形態と同様であるため、説明を省略し、ステップSC7から以降について説明する。
画像データ選択部504により実行されるステップSC7では、4台のカメラ301〜304の中から、物体位置を検出するために適した画像を撮影しているカメラ、及び、物体位置を検出するための画像データの選択を画像データ選択部504により行う。第2実施形態と同じ図21のセンサからのデータが得られている場合、第2実施形態と同様の処理を行うことで図29のように、物体Aの存在領域を限定する。ここで、カメラ302の、時刻2秒及び時刻14秒における撮影画像を図34A及び図34Bにそれぞれ示す。このカメラ位置の場合、時刻14秒に撮影した画像では、図29における物体Aの存在領域と人の姿が重なってしまっており、差分を計算する際の障害になる。一方、カメラ304の、時刻2秒及び時刻14秒における撮影画像を図35A及び図35Bにそれぞれ示す。このカメラ位置では、図29における物体OAの存在領域と人HMの姿が重なることがなく、差分計算が問題なく実施できる。人位置センサ210により人の位置が計測されている場合、人の3次元形状を画像データ選択部504により仮定することで撮影画像データにおける人の領域が画像データ選択部504により計算可能であり、このことを利用して、図29で示すような物体の存在領域が人により隠蔽されていない、カメラ(視点)の位置を画像データ選択部504により選択できる。物体の存在領域が人により隠蔽されているか否かに関しては、第2実施形態で説明した通り、部屋の3次元形状モデル、人の3次元形状モデル、及び、校正済のカメラを用いて物体検出部505により判定することが可能である。そして、カメラを画像データ選択部504により選択すれば、第2実施形態と同様の方法を用いて、記憶手段400から、選択したカメラにおける時刻2秒と時刻14秒の画像を画像データ選択部504により選択する。
物体検出部505により実行されるステップSB8では、ステップSC7で画像データ選択部504により選択された画像を利用し、前記第3実施形態で説明したように差分を行うことで物体OAの位置を検出する。
また、カメラ(視点)の位置を変えるのではなく、撮影された時刻を変えるように画像データ選択部504により選択することにより、物体の存在領域が人により隠蔽されていない撮影画像を、物体検出部505による差分に用いてもよい。図25のデータからは、物体Aが、時刻3秒から時刻13秒の間に、前記時刻間に人が存在した位置付近(物体存在候補領域)のどこかに置かれたことを示している。時刻14秒以降の時刻においても、前記物体存在候補領域に人が再度近づく前の時刻であれば、物体Aの位置は動かされることはないため、差分に用いることができる。図36は、カメラ302の、時刻23秒における撮影画像である。この撮影時刻では、図29における物体の存在位置と人の姿が重なっておらず、かつ、この撮影時刻は人が物体存在候補領域に再度近づく前である。よって、図34Aで表される画像と図36で表される画像データを画像データ選択部504により選択して、これらの画像データの差分を物体検出部505により計算することにより、物体Aの位置を検出することができる。
次いで、ステップSA9では、インデックスjがN以上であるかどうかのチェックをインデックス管理部506により行い、インデックスjがN以上であるとインデックス管理部506により判断されれば、前記物体検出処理を終了する。
インデックスjがN未満であるとインデックス管理部506により判断されれば、ステップSA10にて、インデックスiの値を現在のインデックスjの値にインデックス管理部506によりセットし、再度ステップSA2を行う。このようにして、ステップSB0にて特定した全ての時間帯について、前記物体検出処理を行う。
なお、入出力部700については、第1実施形態と同様であるので説明を省略する。
以上のように、本第3実施形態の変形例の物体検出方法及び装置によれば、9台のカメラ301〜309の視野(1)〜(9)を合わせて部屋RMの床面FL全域を覆うようにカメラ301〜309を設置する代わりに、部屋RMの床面FLの全領域をそれぞれ撮影可能な4台のカメラ301〜304を設置して、カメラ(視点)の位置を変えることにより画像データを画像データ選択部504で選択して、物体の存在領域が人により隠蔽されていない撮影画像を物体検出部505による差分に用いるように構成している。又は、カメラ(視点)の位置を変えるのではなく、撮影された時刻を変えるように画像データを画像データ選択部504で選択して、物体の存在領域が人により隠蔽されていない撮影画像を、物体検出部505による差分に用いるように構成している。従って、無線タグリーダ101〜103の検知範囲外にある物体OAであっても、物体のID情報及び位置を決定することができる。また、人位置センサ210及び無線タグリーダ101〜103の出力を基にして、カメラを特定し、かつ、前記カメラの撮影画像の中から差分を行う画像を選択するため、全てのカメラで全ての時刻に撮影した画像に対して差分を行う必要はなく、演算量を削減できる。また、差分計算の際、人位置センサ210の出力を基にして、人の領域を確実に除外することができると共に、差分を計算する領域を限定できる。
なお、本発明は前記種々の実施形態に限定されるものではなく、その他種々の態様で実施できる。
例えば、前記第1,2,3実施形態の物体検出処理のそれぞれのステップを有するコンピュータプログラムとして、記憶装置(ハードディスク等)などの記録媒体に読み取り可能に記憶させ、そのコンピュータプログラムをコンピュータの一時記憶装置(半導体メモリ等)に読み込んでCPUを用いて実行することにより、前記した各処理を実行することができる。
なお、前記様々な実施形態のうちの任意の実施形態を適宜組み合わせることにより、それぞれの有する効果を奏するようにすることができる。
本発明に係る物体検出装置、物体検出方法及び物体検出用コンピュータプログラムは、一般家屋やオフィス内などにある物体を管理するための装置、方法、プログラムを提供できる。特に一般家屋内に存在する日用品や、オフィスで使用する各種物体のID情報及び位置を無線タグ技術などを用いて管理することができ、ユーザが探し物を問い合わせた時に前記探し物の位置を適切に提示したり、ロボットに前記探し物を搬送させるなどの生活/業務支援が可能となる。
本発明は、添付図面を参照しながら好ましい実施形態に関連して充分に記載されているが、この技術の熟練した人々にとっては種々の変形や修正は明白である。そのような変形や修正は、添付した請求の範囲による本発明の範囲から外れない限りにおいて、その中に含まれると理解されるべきである。
本発明のこれらと他の目的と特徴は、添付された図面についての好ましい実施形態に関連した次の記述から明らかになる。
図1Aは、本発明の第1実施形態に係る物体検出装置の構成例を示すブロック図である。 図1Bは、本発明の第1実施形態に係る物体検出装置の無線タグリーダ設置例を示す図である。 図1Cは、本発明の第1実施形態に係る物体検出装置の無線タグリーダ設置の他の例を示す図である。 図1Dは、本発明の第1実施形態の物体検出装置において、無線タグリーダのアンテナ及び人検知センサの設置を示す図である。 図1Eは、本発明の第1実施形態の物体検出装置において、カメラの設置を示す図である。 図2は、本発明の第1実施形態に係る物体検出装置との関係で、人の動線(移動履歴)を示す図である。 図3は、本発明の第1実施形態に係る物体検出装置において、人検知センサの出力及び無線タグリーダの出力を示す図である。 図4は、本発明の第1実施形態の物体検出装置の物体検出手段で行われる物体検出方法を示すフローチャートである。 図5は、無線タグリーダで取得した物体ID情報に関するデータが複数の場合の、無線タグリーダの出力例を示す図である。 図6Aは、本発明の第1実施形態において、時刻2秒及び時刻14秒に撮影された画像Ia,Ibを示す図である。 図6Bは、本発明の第1実施形態の物体検出装置が利用する、物体のID情報に対応づけられた各種情報を格納するデータベースのエントリを示す図である。 図6Cは、本発明の第1実施形態の物体検出装置が利用する、物体のID情報に対応づけられた各種情報を格納するデータベースと物体検出装置との接続を示す図である。 図7Aは、カラーカメラの分光感度、被写体の分光反射率、及び、背景の分光反射率を示すグラフである。 図7Bは、カラーカメラの分光感度、被写体の分光反射率、及び、背景の分光反射率を示すグラフである。 図7Cは、カラーカメラの分光感度、被写体の分光反射率、及び、背景の分光反射率を示すグラフである。 図8Aは、分光反射率を算出するために必要な、複数の波長特性を示すグラフである。 図8Bは、分光反射率を算出するために必要な、複数の波長特性(センサの分光感度特性(色フィルタの透過率込み。正規化後))を示すグラフである。 図8Cは、分光反射率を算出するために必要な、複数の波長特性(背景上の1点を、図8Bの分光感度を持つセンサにより計測した輝度の分光特性)を示すグラフである。 図9は、床面とテーブルの上にそれぞれ設置された物体を上方から撮影する様子を示した図である。 図10は、図9のカメラが撮影した画像の差分を表す図である。 図11Aは、人検知センサの検知範囲をマスク領域として、差分画像を計算する様子を示す図である。 図11Bは、人検知センサの検知範囲をマスク領域として、差分画像を計算する様子を示す図である。 図11Cは、人検知センサの検知範囲をマスク領域として、差分画像を計算する様子を示す図である。 図11Dは、人検知センサの検知範囲をマスク領域として、差分画像を計算する様子を示す図である。 図12Aは、時間帯TZ1から取得時刻が異なる2枚の画像を利用して人の領域を検出する方法を示す図である。 図12Bは、時間帯TZ1から取得時刻が異なる2枚の画像を利用して人の領域を検出する方法を示す図である。 図12Cは、時間帯TZ1から取得時刻が異なる2枚の画像を利用して人の領域を検出する方法を示す図である。 図13Aは、時間帯TZ2から取得時刻が異なる2枚の画像を利用して人の領域を検出する方法を示す図である。 図13Bは、時間帯TZ2から取得時刻が異なる2枚の画像を利用して人の領域を検出する方法を示す図である。 図13Cは、時間帯TZ2から取得時刻が異なる2枚の画像を利用して人の領域を検出する方法を示す図である。 図14は、発明者らが提案中の別手法における、タグリーダの配置を示す図である。 図15は、発明者らが提案中の別手法における、人の時間あたりの移動距離と人の動線(移動履歴)を示す図である。 図16は、本発明の第2実施形態に係る画像処理装置の構成例を示すブロック図である。 図17は、超音波センサにより人の位置を計測する様子を示す図である。 図18Aは、床圧力センサにより人の位置を計測する様子を示す図である。 図18Bは、本発明の第2実施形態の物体検出装置において、無線タグリーダのアンテナ及び人検知センサ(超音波センサ)の設置を示す図である。 図18Cは、本発明の第2実施形態の物体検出装置において、無線タグリーダのアンテナ及び人検知センサ(床圧力センサ)の設置を示す図である。 図19は、世界座標系の取り方を示す図である。 図20は、本発明の第2実施形態に係る、人の動線(移動履歴)を示す図である。 図21は、本発明の第2実施形態に係る、人位置センサの出力及び無線タグリーダの出力を示す図である。 図22は、本発明の第2実施形態の物体検出手段で行われる物体検出方法を示すフローチャートである。 図23は、人位置センサの出力座標値が、実測した無線タグリーダの検知範囲に含まれるか否かを判断する様子を示した図である。 図24は、人位置センサの出力座標値が、円でモデル化した無線タグリーダの検知範囲に含まれるか否かを判断する様子を示した図である。 図25は、図21のセンサ出力に、人位置センサの出力座標値が実測した無線タグリーダの検知範囲に含まれるか否かの判断結果を併記した図である。 図26は、本発明の第2実施形態において、時刻2秒及び時刻14秒に撮影された画像Ia,Ibを示す図である。 図27Aは、人位置センサの出力から、撮影画像において、人が存在する位置を推定する様子を示した図である。 図27Bは、人位置センサの出力から、撮影画像において、人が存在する位置を推定する様子を示した図である。 図28は、物体の存在する領域を推定する方法の例を示す図である。 図29は、撮影画像において、差分を計算する領域を示す図である。 図30は、本発明の第3実施形態に係る画像処理装置の構成例を示すブロック図である。 図31Aは、本発明の第3実施形態において使用する9個のカメラの視野を示す図である。 図31Bは、本発明の第3実施形態の物体検出装置において、9台のカメラを天井に分散配置した様子を示す図である。 図32は、本発明の第3実施形態の物体検出手段で行われる物体検出方法を示すフローチャートである。 図33は、本発明の第3実施形態の変形例において使用する4個のカメラの配置を示す図である。 図34Aは、図33のカメラ302の、時刻2秒及び時刻14秒における撮影画像を示す図である。 図34Bは、図33のカメラ302の、時刻2秒及び時刻14秒における撮影画像を示す図である。 図35Aは、図33のカメラ304の、時刻2秒及び時刻14秒における撮影画像を示す図である。 図35Bは、図33のカメラ304の、時刻2秒及び時刻14秒における撮影画像を示す図である。 図36は、図33のカメラ302の、時刻23秒における撮影画像を示す図である。 図37は、人HMが物体を操作可能な領域の一例としての円柱領域の説明図である。 図38は、人HMが移動するときの物体操作可能空間VOの説明図である。 図39は、図38の物体操作空間VO内にテーブルの一部が含まれている場合の物体存在候補領域AOの例を示す図である。 図40は、図38の物体操作空間VO内に棚の一部が含まれている場合の物体存在候補領域AOの例を示す図である。 図41は、部屋RMの中央付近の天井CLに、その光軸が鉛直方向下向きになるようにカメラが設置されている場合の、物体存在候補領域AO´を示す説明図である。 図42は、人HMによって隠蔽される領域を求めるとき、人の3次元モデルを示す一例としての円柱形状の説明図である。 図43は、図41の物体存在候補領域AO´から、人により隠蔽される領域を除いた領域を示す説明図である。

Claims (12)

  1. 物体を探索する空間において、無線タグが付与された物体の物体ID情報に関するデータを検知する、1個以上の無線タグリーダと、
    前記空間において前記物体を取り扱う人の位置を計測する、1個以上の人位置センサと、
    前記空間の一部又は全体を撮影する、1個以上の撮像装置と、
    前記無線タグリーダが検知した物体ID情報に関するデータ、前記人位置センサが計測した人位置データ、及び、前記撮像装置が撮影した画像データを、前記データの各々の取得時刻と関連づけて蓄積する記憶手段と、
    前記記憶手段に蓄積した前記物体ID情報に関するデータ、前記人位置データ、及び、前記画像データに基づき、前記物体のID情報及び位置を検出する物体検出手段とを備え、
    前記物体検出手段は、前記人位置センサが計測した人位置が前記無線タグリーダの検知範囲に含まれる、前記物体ID情報に関するデータのうち、前記人位置データを取得した第1の時刻及び第2の時刻にそれぞれ対応する、第1の物体ID情報に関するデータと第2の物体ID情報に関するデータとが互いに異なると判断した場合、前記第1の時刻及び前記第2の時刻にそれぞれ対応する、第1の画像データと第2の画像データとの差分を計算するとともに、この差分の際、前記第1の時刻から前記第2の時刻までの前記人位置データに基づいて決定した領域について差分を計算し、次いで、画像データにおける前記差分領域の位置、又は、前記位置を前記物体を探索する空間における位置に変換した位置を前記物体の位置として検出する物体検出装置。
  2. 物体を探索する空間において、無線タグが付与された物体の物体ID情報に関するデータを検知する、1個以上の無線タグリーダと、
    前記空間において前記物体を取り扱う人の位置を計測する、1個以上の人位置センサと、
    各々が前記空間の一部又は全体を撮影する、2個以上の撮像装置と、
    前記無線タグリーダが検知した物体ID情報に関するデータ、前記人位置センサが計測した人位置データ、及び、前記撮像装置が撮影した画像データを、前記データの各々の取得時刻と関連づけて蓄積する記憶手段と、
    前記記憶手段に蓄積した前記物体ID情報に関するデータ、前記人位置データ、及び、前記画像データに基づき、前記物体のID情報及び位置を検出する物体検出手段とを備え、
    前記物体検出手段は、前記人位置センサが計測した人位置が前記無線タグリーダの検知範囲に含まれる、前記人位置データを取得した第1の時刻及び第2の時刻にそれぞれ対応する、第1の物体ID情報に関するデータ及び第2の物体ID情報に関するデータが互いに異なると判断した場合、前記第1の時刻から前記第2の時刻までの前記人位置データに基づいて決定した領域を撮影視野として有する前記撮像装置、又は、前記第1の時刻及び前記第2の時刻にそれぞれ対応する第1の画像データ及び第2の画像データのそれぞれにおいて、前記領域が人を含む他の物体により隠蔽されないような、視点を有する前記撮像装置を、前記2個以上の撮像装置の中から特定し、前記特定された撮像装置によって撮影された、前記第1の時刻及び前記第2の時刻にそれぞれ対応する、第1の画像データと第2の画像データとの差分を計算し、画像データにおける前記差分領域の位置、又は、前記位置を前記物体を探索する空間における位置に変換した位置を前記物体の位置として検出する物体検出装置。
  3. 物体を探索する空間において、無線タグが付与された物体の物体ID情報に関するデータを検知する、1個以上の無線タグリーダと、
    前記空間において前記無線タグリーダの検知範囲に人が存在するか否かを検知する、1個以上の人検知センサと、
    前記空間の一部又は全体を撮影する、1個以上の撮像装置と、
    前記無線タグリーダが検知した物体ID情報に関するデータ、前記人検知センサが検知した人検知データ、及び、前記撮像装置が撮影した画像データを、前記データの各々の取得時刻と関連づけて蓄積する記憶手段と、
    前記記憶手段に蓄積した前記物体ID情報に関するデータ、前記人検知データ、及び、前記画像データに基づき、前記物体のID情報及び位置を検出する物体検出手段とを備え、
    前記物体検出手段は、前記人が存在することを示す前記人検知データを取得した第1の時刻及び第2の時刻にそれぞれ対応する、第1の物体IDデータ及び第2の物体ID情報に関するデータが互いに異なると判断した場合、前記第1の時刻及び前記第2の時刻にそれぞれ対応する、第1の画像データと第2の画像データとの差分を計算し、前記画像データにおける差分領域の位置、又は、前記差分領域の位置を前記物体を探索する前記空間における位置に変換した位置を前記物体の位置として検出する、物体検出装置。
  4. 前記撮像装置はカメラであり、前記物体検出手段は、前記第1の画像データと前記第2の画像データとの差分を計算する際に、前記人検知センサの検知範囲をカメラ座標系に変換した領域を、前記第1の画像データと前記第2の画像データとの差分を計算する差分対象領域から除外して、除外された領域において、前記差分を計算する請求項3に記載の物体検出装置。
  5. 前記物体検出手段は、
    前記第1の時刻に基づいて、取得時刻が互いに異なる第1の画像データ及び第3の画像データを選択し、前記第2の時刻に基づいて、取得時刻が互いに異なる第2の画像データ及び第4の画像データを選択する画像データ選択部と、
    前記画像データ選択部で選択された前記第1の画像データと前記第3の画像データとの差分を計算することによって、第1のマスク領域を決定し、前記画像データ選択部で選択された前記第2の画像データと前記第4の画像データとの差分を計算することによって、第2のマスク領域を決定し、前記第1の画像データと前記第2の画像データとの差分を計算する際に、前記第1のマスク領域及び前記第2のマスク領域を、差分の対象領域から除外したのち、前記第1の画像データと前記第2の画像データとの差分を計算する物体検出部とを備える請求項3に記載の物体検出装置。
  6. 前記物体検出手段は、前記第1の画像データと前記第2の画像データとの差分を計算する際、前記第1の物体ID情報に関するデータ及び前記第2の物体ID情報に関するデータにおいて、差異のある物体ID情報を特定し、差異のある前記物体ID情報に対応づけられた、物体の色、大きさ、形状の情報のうち少なくとも1つの情報を利用して前記差分を計算する、請求項1から5のいずれか1つに記載の物体検出装置。
  7. 各々の取得時刻と関連づけて蓄積された、無線タグが付与された物体の物体ID情報に関するデータを検知する、1個以上の無線タグリーダが検知した物体ID情報に関するデータと、前記無線タグリーダの検知範囲に人が存在するか否かを検知する、1個以上の前記人検知センサが検知した人検知データと、前記物体を探索する空間の一部又は全体を撮影する、1個以上の撮像装置が撮影した画像データとを用いて、前記物体のID情報及び位置を検出する物体検出方法であって、
    前記人検知データを取得した第1の時刻及び第2の時刻にそれぞれ対応する、第1の物体ID情報に関するデータ及び第2の物体ID情報に関するデータとを比較し、
    前記第1の時刻及び前記第2の時刻にそれぞれ対応する、第1の画像データと第2の画像データを選択し、
    前記画像データ選択で選択された、前記第1の画像データと前記第2の画像データとの差分を計算し、画像データにおける前記差分領域の位置、又は、前記位置を前記物体を探索する空間における位置に変換した位置を前記物体の位置として検出して、
    前記物体IDデータ比較での前記比較の結果、前記物体ID情報に関するデータが一致していないとき、前記画像データ選択と前記物体検出とを実行する物体検出方法。
  8. 各々の取得時刻と関連づけて蓄積された、無線タグが付与された物体の物体ID情報に関するデータを検知する、1個以上の無線タグリーダが検知した物体ID情報に関するデータと、前記物体を取り扱う人の位置を計測する、1個以上の人位置センサが計測した人位置データと、前記空間の一部又は全体を撮影する、1個以上の撮像装置が撮影した画像データとを用いて、前記物体のID情報及び位置を検出する物体検出方法であって、
    前記人位置センサが計測した人位置が前記無線タグリーダの検知範囲に含まれる、前記人位置データを取得した第1の時刻及び第2の時刻にそれぞれ対応する、第1の物体ID情報に関するデータ及び第2の物体ID情報に関するデータとを比較し、
    前記第1の時刻及び前記第2の時刻にそれぞれ対応する、第1の画像データと第2の画像データを選択し、
    前記画像データ選択で選択された、前記第1の画像データと前記第2の画像データとの差分を計算し、画像データにおける前記差分領域の位置、又は、前記位置を前記物体を探索する空間における位置に変換した位置を物体の位置として検出し、前記差分の際、前記第1の時刻から前記第2の時刻までの前記人位置データに基づいて決定した領域について差分を計算して、
    前記物体ID比較での前記比較の結果、前記物体ID情報に関するデータが一致していないとき、前記画像データ選択と前記物体検出とを実行する物体検出方法。
  9. 各々の取得時刻と関連づけて蓄積された、無線タグが付与された物体の物体ID情報に関するデータを検知する、1個以上の無線タグリーダが検知した物体ID情報に関するデータと、前記物体を取り扱う人の位置を計測する、1個以上の人位置センサが計測した人位置データと、各々が前記空間の一部又は全体を撮影する、2個以上の撮像装置が撮影した画像データとを用いて、前記物体のID情報及び位置を検出する物体検出方法であって、
    前記人位置センサが計測した人位置が前記無線タグリーダの検知範囲に含まれる、前記人位置データを取得した第1の時刻及び第2の時刻にそれぞれ対応する、第1の物体ID情報に関するデータ及び第2の物体ID情報に関するデータとを比較し、
    前記第1の時刻から前記第2の時刻までの前記人位置データに基づいて決定した領域を撮影視野として有する撮像装置、又は、前記第1の時刻及び前記第2の時刻にそれぞれ対応する第1の画像データ及び第2の画像データのそれぞれにおいて、前記領域が人を含む他の物体により隠蔽されないような、視点を有する撮像装置を、前記2個以上の撮像装置の中から特定し、前記特定された撮像装置によって撮影された、前記第1の時刻及び前記第2の時刻にそれぞれ対応する、第1の画像データと第2の画像データを選択し、
    前記撮像装置・画像データ選択で選択された、前記第1の画像データと前記第2の画像データとの差分を計算し、画像データにおける前記差分領域の位置、又は、前記位置を前記物体を探索する空間における位置に変換した位置を前記物体の位置として検出して、
    前記物体ID比較での前記比較の結果、物体ID情報に関するデータが一致していないとき、前記撮像装置・画像データ選択、及び、前記物体検出とを実行する物体検出方法。
  10. 各々の取得時刻と関連づけて蓄積された、無線タグが付与された物体の物体ID情報に関するデータを検知する、1個以上の無線タグリーダが検知した物体IDデータと、前記無線タグリーダの検知範囲に人が存在するか否かを検知する、1個以上の前記人検知センサが検知した人検知データと、前記物体を探索する空間の一部又は全体を撮影する、1個以上の撮像装置が撮影した画像データとを用いて、コンピュータを使用して前記物体のID情報及び位置を検出する、物体検出用コンピュータプログラムであって、
    前記人検知データを取得した第1の時刻及び第2の時刻にそれぞれ対応する、第1の物体ID情報に関するデータ及び第2の物体ID情報に関するデータとを比較する物体ID比較手段と、
    前記物体ID比較手段での前記比較の結果、前記物体ID情報に関するデータ同士が一致していないとき、前記第1の時刻及び前記第2の時刻にそれぞれ対応する、第1の画像データと第2の画像データを選択する画像データ選択手段と、
    前記画像データ選択手段で選択された、前記第1の画像データと前記第2の画像データとの差分を計算し、画像データにおける前記差分領域の位置、又は、前記位置を前記物体を探索する空間における位置に変換した位置を前記物体の位置として検出する物体検出手段と、
    を備える、物体検出用コンピュータプログラム。
  11. 各々の取得時刻と関連づけて蓄積された、無線タグが付与された物体の物体ID情報に関するデータを検知する、1個以上の無線タグリーダが検知した物体ID情報に関するデータと、前記物体を取り扱う人の位置を計測する、1個以上の人位置センサが計測した人位置データと、前記空間の一部又は全体を撮影する、1個以上の撮像装置が撮影した画像データとを用いて、コンピュータを使用して前記物体のID情報及び位置を検出する、物体検出用コンピュータプログラムであって、
    前記コンピュータに、
    前記人位置センサが計測した人位置が前記無線タグリーダの検知範囲に含まれる、前記人位置データを取得した第1の時刻及び第2の時刻にそれぞれ対応する、第1の物体ID情報に関するデータ及び第2の物体ID情報に関するデータとを比較する物体ID比較手段と、
    前記物体ID比較手段での前記比較の結果、物体ID情報に関するデータが一致していないとき、前記第1の時刻及び前記第2の時刻にそれぞれ対応する、第1の画像データと第2の画像データを選択する画像データ選択手段と、
    前記画像データ選択手段で選択された、前記第1の画像データと前記第2の画像データとの差分を計算し、画像データにおける前記差分領域の位置、又は、前記位置を前記物体を探索する空間における位置に変換した位置を前記物体の位置として検出し、前記差分の際、前記第1の時刻から前記第2の時刻までの前記人位置データに基づいて決定した領域について差分を計算する物体検出手段と、
    を実行させるための物体検出用コンピュータプログラム。
  12. 各々の取得時刻と関連づけて蓄積された、無線タグが付与された物体の物体ID情報に関するデータを検知する、1個以上の無線タグリーダが検知した物体ID情報に関するデータと、前記物体を取り扱う人の位置を計測する、1個以上の人位置センサが計測した人位置データと、各々が前記空間の一部又は全体を撮影する、2個以上の撮像装置が撮影した画像データとを用いて、コンピュータを使用して前記物体のID情報及び位置を検出する物体検出用コンピュータプログラムであって、
    前記コンピュータに、
    前記人位置センサが計測した人位置が前記無線タグリーダの検知範囲に含まれる、前記人位置データを取得した第1の時刻及び第2の時刻にそれぞれ対応する、第1の物体ID情報に関するデータ及び第2の物体ID情報に関するデータとを比較する物体ID比較手段と、
    前記第1の時刻から前記第2の時刻までの前記人位置データに基づいて決定した領域を撮影視野として有する撮像装置、又は、前記第1の時刻及び前記第2の時刻にそれぞれ対応する第1の画像データ及び第2の画像データのそれぞれにおいて、前記領域が人を含む他の物体により隠蔽されないような、視点を有する撮像装置を、前記2個以上の撮像装置の中から特定し、前記特定された撮像装置によって撮影された、前記第1の時刻及び前記第2の時刻にそれぞれ対応する、第1の画像データと第2の画像データを選択する撮像装置・画像データ選択手段と、
    前記撮像装置・画像データ選択手段で選択された、前記第1の画像データと前記第2の画像データとの差分を計算し、画像データにおける前記差分領域の位置、又は、前記位置を前記物体を探索する空間における位置に変換した位置を前記物体の位置として検出する物体検出手段とを実行させるとき、
    前記物体ID比較手段での前記比較の結果、物体ID情報に関するデータが一致していないとき、前記撮像装置・画像データ選択手段、及び、前記物体検出手段とを実行させるための物体検出用コンピュータプログラム。
JP2007509778A 2005-12-28 2006-12-18 物体検出装置、物体検出方法、及び、物体検出用コンピュータプログラム Active JP4022249B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005377462 2005-12-28
JP2005377462 2005-12-28
PCT/JP2006/325198 WO2007074671A1 (ja) 2005-12-28 2006-12-18 物体検出装置、物体検出方法、及び、物体検出用コンピュータプログラム

Publications (2)

Publication Number Publication Date
JP4022249B2 true JP4022249B2 (ja) 2007-12-12
JPWO2007074671A1 JPWO2007074671A1 (ja) 2009-06-04

Family

ID=38217890

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007509778A Active JP4022249B2 (ja) 2005-12-28 2006-12-18 物体検出装置、物体検出方法、及び、物体検出用コンピュータプログラム

Country Status (4)

Country Link
US (1) US7852217B2 (ja)
JP (1) JP4022249B2 (ja)
CN (1) CN101213476B (ja)
WO (1) WO2007074671A1 (ja)

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008211717A (ja) * 2007-02-28 2008-09-11 Brother Ind Ltd 通信装置
JP5110425B2 (ja) 2007-07-18 2012-12-26 ブラザー工業株式会社 無線タグ情報読み取り装置、及び無線タグ情報読み取りシステム
US9068836B2 (en) * 2007-10-18 2015-06-30 Carlos Arteaga Real-time location information system using multiple positioning technologies
TW200941395A (en) * 2007-11-30 2009-10-01 Japan Tobacco Inc Data processing system
JP4984164B2 (ja) * 2008-01-30 2012-07-25 ブラザー工業株式会社 無線タグ情報読み取り装置
JP4980260B2 (ja) * 2008-02-05 2012-07-18 東芝テック株式会社 動線認識システム
JP4422792B1 (ja) * 2008-07-08 2010-02-24 パナソニック株式会社 物品推定装置及び物品位置推定装置、物品推定方法、並びに、物品推定プログラム
JP5273146B2 (ja) * 2008-08-27 2013-08-28 村田機械株式会社 ピッキングシステムおよびピッキング方法
WO2010095437A1 (ja) * 2009-02-19 2010-08-26 パナソニック株式会社 物体位置推定システム、物体位置推定装置、物体位置推定方法、及び物体位置推定プログラム
KR101593573B1 (ko) * 2009-06-19 2016-02-12 삼성전자주식회사 단말기의 카메라를 이용한 컨텐츠 제작 방법 및 장치
US10248697B2 (en) * 2009-07-24 2019-04-02 Raytheon Company Method and system for facilitating interactive review of data
JP5403355B2 (ja) * 2009-11-20 2014-01-29 清水建設株式会社 建物内の検知対象の位置検知、行動認知システム
JP5037643B2 (ja) * 2010-03-23 2012-10-03 東芝テック株式会社 動線認識システム
CN102238320A (zh) * 2010-04-29 2011-11-09 鸿富锦精密工业(深圳)有限公司 摄像装置及其摄像方法
US9107565B2 (en) 2010-08-16 2015-08-18 Fujitsu Limited Identifying an event occurrence from sensor data streams
US9386359B2 (en) * 2010-08-16 2016-07-05 Fujitsu Limited Selecting metadata for sensor data streams
JP5691547B2 (ja) * 2010-08-20 2015-04-01 富士ゼロックス株式会社 画像の変更箇所抽出装置、画像の変更箇所表示装置及びプログラム
JP2013253779A (ja) * 2010-10-01 2013-12-19 Panasonic Corp 物体位置推定システム、物体位置推定方法、及び物体位置推定プログラム
WO2012098853A1 (ja) * 2011-01-20 2012-07-26 日本電気株式会社 動線検出処理データ分散システム、動線検出処理データ分散方法およびプログラム
US8279500B2 (en) * 2011-01-27 2012-10-02 Seiko Epson Corporation System and method for integrated pair-wise registration of images using image based information and sensor coordinate and error information
US9354310B2 (en) * 2011-03-03 2016-05-31 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for source localization using audible sound and ultrasound
US8599009B2 (en) 2011-08-16 2013-12-03 Elwha Llc Systematic distillation of status data relating to regimen compliance
US9367770B2 (en) 2011-08-30 2016-06-14 Digimarc Corporation Methods and arrangements for identifying objects
US11288472B2 (en) 2011-08-30 2022-03-29 Digimarc Corporation Cart-based shopping arrangements employing probabilistic item identification
WO2014024599A1 (ja) * 2012-08-06 2014-02-13 日本電気株式会社 配置情報登録装置、配置情報登録方法および配置情報登録プログラム
WO2014102929A1 (ja) * 2012-12-26 2014-07-03 三菱電機株式会社 線量分布測定装置
US20140278260A1 (en) 2013-03-15 2014-09-18 Leeo, Inc. Environmental measurement display system and method
US20140277625A1 (en) 2013-03-15 2014-09-18 Leeo, Inc. Environmental monitoring device
US10860976B2 (en) 2013-05-24 2020-12-08 Amazon Technologies, Inc. Inventory tracking
US10949804B2 (en) 2013-05-24 2021-03-16 Amazon Technologies, Inc. Tote based item tracking
US10984372B2 (en) 2013-05-24 2021-04-20 Amazon Technologies, Inc. Inventory transitions
US10176456B2 (en) 2013-06-26 2019-01-08 Amazon Technologies, Inc. Transitioning items from a materials handling facility
US10268983B2 (en) 2013-06-26 2019-04-23 Amazon Technologies, Inc. Detecting item interaction and movement
US10176513B1 (en) 2013-06-26 2019-01-08 Amazon Technologies, Inc. Using gestures and expressions to assist users
WO2015009350A1 (en) 2013-07-16 2015-01-22 Leeo, Inc. Electronic device with environmental monitoring
US20150185161A1 (en) * 2013-07-16 2015-07-02 Leeo, Inc. Electronic device with environmental monitoring
US9116137B1 (en) 2014-07-15 2015-08-25 Leeo, Inc. Selective electrical coupling based on environmental conditions
US10353982B1 (en) 2013-08-13 2019-07-16 Amazon Technologies, Inc. Disambiguating between users
CN103776133A (zh) * 2014-01-08 2014-05-07 中铁建设集团有限公司 一种基于压力传感器的空调系统控制装置
JP6314712B2 (ja) * 2014-07-11 2018-04-25 オムロン株式会社 部屋情報推定装置、部屋情報推定方法、および空気調和装置
US9170625B1 (en) 2014-07-15 2015-10-27 Leeo, Inc. Selective electrical coupling based on environmental conditions
US9372477B2 (en) 2014-07-15 2016-06-21 Leeo, Inc. Selective electrical coupling based on environmental conditions
US9213327B1 (en) 2014-07-15 2015-12-15 Leeo, Inc. Selective electrical coupling based on environmental conditions
US9092060B1 (en) 2014-08-27 2015-07-28 Leeo, Inc. Intuitive thermal user interface
US20160070276A1 (en) 2014-09-08 2016-03-10 Leeo, Inc. Ecosystem with dynamically aggregated combinations of components
US9582976B2 (en) 2014-10-16 2017-02-28 Elwha Llc Systems and methods for detecting and reporting hazards on a pathway
US9311802B1 (en) 2014-10-16 2016-04-12 Elwha Llc Systems and methods for avoiding collisions with mobile hazards
US9445451B2 (en) 2014-10-20 2016-09-13 Leeo, Inc. Communicating arbitrary attributes using a predefined characteristic
US10026304B2 (en) 2014-10-20 2018-07-17 Leeo, Inc. Calibrating an environmental monitoring device
CN106303400B (zh) * 2015-05-12 2019-06-18 杭州海康威视数字技术股份有限公司 车载摄像机的监控方法和装置
US10482361B2 (en) 2015-07-05 2019-11-19 Thewhollysee Ltd. Optical identification and characterization system and tags
US10805775B2 (en) 2015-11-06 2020-10-13 Jon Castor Electronic-device detection and activity association
US9801013B2 (en) 2015-11-06 2017-10-24 Leeo, Inc. Electronic-device association based on location duration
CN105425308A (zh) * 2015-12-18 2016-03-23 同方威视技术股份有限公司 物品跟踪系统和方法
WO2018014326A1 (zh) * 2016-07-22 2018-01-25 绿仕科技控股有限公司 安全系统及方法
WO2018051507A1 (ja) * 2016-09-16 2018-03-22 株式会社日立情報通信エンジニアリング 物体識別システム及び物体識別方法
EP3298874B1 (en) * 2016-09-22 2020-07-01 Honda Research Institute Europe GmbH Robotic gardening device and method for controlling the same
US20190034735A1 (en) * 2017-07-25 2019-01-31 Motionloft, Inc. Object detection sensors and systems
JP7155711B2 (ja) * 2018-07-27 2022-10-19 日本製鉄株式会社 入退場管理システム及び入退場管理方法
WO2020032157A1 (ja) * 2018-08-09 2020-02-13 日本電気通信システム株式会社 物品位置推定システム及び物品位置推定方法
JP7022040B2 (ja) * 2018-09-26 2022-02-17 Kddi株式会社 オブジェクト識別装置、方法およびプログラム
FR3089671B1 (fr) * 2018-12-11 2020-11-06 Psa Automobiles Sa Procédé de détermination d’une valeur courante d’un paramètre d’occupation relatif à une portion d’un espace situé à proximité d’un véhicule terrestre à moteur
WO2020261318A1 (ja) * 2019-06-24 2020-12-30 三菱電機株式会社 位置推定システム、情報処理装置、プログラム及び情報処理方法
US20220365604A1 (en) * 2019-07-03 2022-11-17 Telefonaktiebolaget Lm Ericsson (Publ) Computing device and method for tracking objects
US11328565B2 (en) * 2019-11-26 2022-05-10 Ncr Corporation Asset tracking and notification processing
JP7414551B2 (ja) * 2020-01-24 2024-01-16 キヤノン株式会社 制御装置および制御方法
US11971957B2 (en) 2020-08-08 2024-04-30 Analog Devices International Unlimited Company Aggregating sensor profiles of objects

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07146362A (ja) * 1993-11-25 1995-06-06 Nippon Dry Chem Co Ltd 物品探索システム
US5682142A (en) * 1994-07-29 1997-10-28 Id Systems Inc. Electronic control system/network
JP2000011057A (ja) * 1998-06-25 2000-01-14 Kawasaki Steel Corp 形鋼余剰在庫製品の処理システム
JP3187383B2 (ja) * 1999-02-05 2001-07-11 ローム株式会社 タグ検知システム並びに検知機およびicタグ
JP2000357251A (ja) 1999-06-14 2000-12-26 Sharp Corp 物品管理システム
US6600418B2 (en) * 2000-12-12 2003-07-29 3M Innovative Properties Company Object tracking and management system and method using radio-frequency identification tags
JP3561490B2 (ja) 2001-08-22 2004-09-02 日本電信電話株式会社 リアルタイム映像発信システム
EP1499129B1 (en) * 2002-04-25 2011-12-28 Panasonic Corporation Object detection device, object detection server, and object detection method
JP3690368B2 (ja) 2002-06-12 2005-08-31 大成建設株式会社 セキュリティ管理システム
US7151454B2 (en) * 2003-01-02 2006-12-19 Covi Technologies Systems and methods for location of objects
US6998987B2 (en) * 2003-02-26 2006-02-14 Activseye, Inc. Integrated RFID and video tracking system
JP2004289433A (ja) * 2003-03-20 2004-10-14 Fuji Photo Film Co Ltd 撮影システム
JP4286074B2 (ja) 2003-06-19 2009-06-24 三菱電機株式会社 空間情報配信装置
US20050116821A1 (en) * 2003-12-01 2005-06-02 Clifton Labs, Inc. Optical asset tracking system
JP4459735B2 (ja) * 2004-06-30 2010-04-28 本田技研工業株式会社 商品説明ロボット
US7362219B2 (en) * 2004-07-28 2008-04-22 Canon Kabushiki Kaisha Information acquisition apparatus
US20060071791A1 (en) * 2004-09-29 2006-04-06 Honeywell International Inc. Enhanced RFID vehicle presence detection system
JP4006471B2 (ja) 2005-04-01 2007-11-14 松下電器産業株式会社 物品位置推定装置、物品位置推定方法、物品検索システム、及び物品位置推定用プログラム
DE102005029003A1 (de) * 2005-06-21 2006-12-28 ASTRA Gesellschaft für Asset Management mbH & Co. KG Anlage und Verfahren zur Überwachung des Transfers von mit Identifikationsträgern versehenen Gütern

Also Published As

Publication number Publication date
JPWO2007074671A1 (ja) 2009-06-04
WO2007074671A1 (ja) 2007-07-05
US7852217B2 (en) 2010-12-14
CN101213476B (zh) 2011-07-13
US20090066513A1 (en) 2009-03-12
CN101213476A (zh) 2008-07-02

Similar Documents

Publication Publication Date Title
JP4022249B2 (ja) 物体検出装置、物体検出方法、及び、物体検出用コンピュータプログラム
US10455364B2 (en) System and method of personalized navigation inside a business enterprise
US11774249B2 (en) System and method of personalized navigation inside a business enterprise
US9270952B2 (en) Target localization utilizing wireless and camera sensor fusion
US7154395B2 (en) Interactive wireless tag location and identification system
US9129181B1 (en) Object detection, location, and/or tracking with camera and lighting system
US20210304577A1 (en) Integrated Camera and Ultra-Wideband Location Devices and Related Systems
CN104702852A (zh) 用于高动态范围成像的使用照相机阵列的差异估计的技术
CN110533553A (zh) 服务提供方法和装置
US11755030B2 (en) Mapping and tracking system for robots
WO2012024516A2 (en) Target localization utilizing wireless and camera sensor fusion
CN207067803U (zh) 一种用于处理任务区域的任务的移动电子设备
JP2006270456A (ja) 情報提示システム
Yu et al. An intelligent space location identification system based on passive RFID tags
KR101752586B1 (ko) 객체 모니터링 장치 및 그 방법
KR20080041932A (ko) 영상정보와 무선 센서네트워크를 이용한 사물 인식 및 측위방법 그리고 그 장치
JP6741877B2 (ja) タグ情報を用いた物品管理システム
WO2021080933A1 (en) System and method of personalized navigation inside a business enterprise
JP2022045755A (ja) 画像処理装置、画像処理方法、及びプログラム
KR101708664B1 (ko) 위치 추적 시스템과 그의 위치 엔진 및 그의 위치 정보 수집 방법
TW201947458A (zh) 物體身分辨識系統及其自動辨識物體身分的方法
IES85733Y1 (en) Method and system for detecting the movement of objects

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070928

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101005

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4022249

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111005

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121005

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131005

Year of fee payment: 6