JP2005115649A - 認識処理システム - Google Patents

認識処理システム Download PDF

Info

Publication number
JP2005115649A
JP2005115649A JP2003348980A JP2003348980A JP2005115649A JP 2005115649 A JP2005115649 A JP 2005115649A JP 2003348980 A JP2003348980 A JP 2003348980A JP 2003348980 A JP2003348980 A JP 2003348980A JP 2005115649 A JP2005115649 A JP 2005115649A
Authority
JP
Japan
Prior art keywords
master
sensing
recognition
space
node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003348980A
Other languages
English (en)
Other versions
JP4306397B2 (ja
Inventor
Hiroaki Kano
裕明 鹿野
Naohiko Irie
直彦 入江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2003348980A priority Critical patent/JP4306397B2/ja
Priority to US10/876,596 priority patent/US7340078B2/en
Publication of JP2005115649A publication Critical patent/JP2005115649A/ja
Application granted granted Critical
Publication of JP4306397B2 publication Critical patent/JP4306397B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】 複数センシングノードの連携によりユーザ個々の行動や置かれている空間的、時間的状況を「場」として認識することで、ユーザの要求を認知し、その結果を元に個々のユーザに合わせ自律的に応答するシステムを構築する。
【解決手段】 複数センシングノード10a〜10d及び自律応答機器12を認識対象空間1に設置して、当該空間1を認識するためのセンシングノード・ネットワークを構成し、複数認識手段にてユーザの置かれた空間的・時間的な「場」の認識を実現する。また、統合処理部(マスタ)を当該センシングノード10a〜10dから動的に決定することで、負荷の分散及び、複数ユーザが存在した場合、個々のユーザの要求に特化した認識処理を行う。
【選択図】 図1

Description

本発明は、空間におけるユーザの行動やユーザがおかれている状況を複数の処理装置により認識する、認識処理システムに関するものである。
ユビキタス時代が到来する中、我々の取り巻くあらゆる場所に、周囲の状況を認識可能とする多くのセンシングノードを配置することが考えられており、例えばICタグや、RFタグの実現により物流におけるトラッキングを可能している。その結果、従来は人間の能動的な指示に対してのみIT(Information Technology)が処理結果を返すのみであったが、IT側が我々の周囲状況を把握することが可能となり、ITが自律的に人間に対し応答を行うことが可能となる。
また、周囲の状況を把握する技術として、認識装置の存在がある。従来の一般的な認識装置は、単一の目的、例えば顔認証を行う、人を検知する、等、を実現するために、カメラなどの単一の入力手段により、単一の認識アルゴリズムを単一の情報処理機器に固定的に実装することで処理を行っている。また、空間内における人の位置や人の動線追跡・管理を行うために、カメラなどの入力手段を複数持ち、情報処理装置を階層的に構成することで効率的に処理する装置が、例えば特許文献1や特許文献2に開示されている。
特開平11−15981号公報
特開平7−306012号公報
本願発明者等は、本願発明をするにあたって、各センシングノードが画像認識や、音声認識、知能処理ができるほどインテリジェントなノードの集合体を形成し、それぞれのノードが連携して現実世界を認識することで、これまでとはまったく違ったサービスの提供が可能となることを思いついた。
しかしながら、上記のICタグやRFタグでは、一意に定めた数百桁のID番号といった数百バイト規模のROMデータを持っているに過ぎない。従って、各ノードの機能が単純であり、現実世界におけるごく一部の情報しかセンスできていない。また、例えば特許文献1や特許文献2に記載されるような従来の認識装置では、所定空間内における物体や人の位置検出を行うこと等の単一の目的を達成するために設けられた装置であるため、人を取り巻く周囲状況を把握し、空間内における物理的情報のみならず、空間内で起こっている時間軸的な「場」を認識することは困難であることに気が付いた。
そこで、本願発明の一つの目的は、複数のセンシングノードの連携により人間の行動、状況をより多角的に認識すること、つまりユーザ個々の行動や置かれている空間的、時間的状況を「場」として認識することで、ユーザの要求や状況を認知し、その結果を元にシステムが個々のユーザに合わせ自律的に応答するシステムを構築することにある。
この発明の前記ならびにそのほかの目的と新規な特徴は、本明細書の記述および添付図面から明らかになるであろう。
上述の課題を解決するために本願において開示される発明のうち代表的なものの概要を簡単に説明すれば以下の通りである。
カメラを含む複数のセンシングモジュールと、応答機器とを具備する情報処理システムであって、前記複数のセンシングモジュールの夫々は、所定の空間内の動物体を複数の認識手法を用いて認識し、前記複数のセンシングモジュールのうちマスタとされたセンシングモジュールに認識結果を送信し、前記マスタとされたセンシングモジュールは、当該認識結果に応じて前記応答機器に所定の動作をさせるためのコマンドを送信し、前記応答機器は、前記コマンドに応じた行動を起こす。
更に望ましくは、前記マスタとされたセンシングモジュールは、当該空間における状況が変化したことを認識した際に、前記複数のセンシングモジュールに対して当該空間における状況にあわせた認識手段、アルゴリズム又は、前記複数のセンシングモジュールの組み合わせを変化させる。
または、前記マスタとされたセンシングモジュールは、当該空間における状況が変化したことを認識した際に、当該変化後の空間における状況にあわせたマスタを前記複数のセンシングモジュールの中から一つ選択する。
または、前記マスタとされたセンシングモジュールは、認識対象が前記所定の空間内から離れることを認識した際に、当該認識対象が移動した先に存在するシステムに制御を受け渡す。
または、前記複数のセンシングモジュールの夫々は、前記カメラによって撮影された動画像の前後フレームの差分により動きを持つ複数物体を検出し、前記マスタとされたセンシングモジュールに検出データを送信し、前記マスタとされたセンシングモジュールは、前記複数のセンシングモジュールから送信された前記検出データから3点測位することで、複数動物体の位置を検出する。
または、前記複数のセンシングモジュールの夫々は、被写体となる人物のジェスチャを認識し、認識結果を前記マスタとされたセンシングモジュールに送信し、前記マスタとされたセンシングモジュールは、前記認識結果に基づいてジェスチャの意味を認識し、時間軸における状況変化を認知することが可能であるように構成する。
本発明により、空間的・時間的な場の認識が可能となる。または、これまでのサーバ・クライアント型システムと比較して、システム全体の負荷低減が期待できる。
本発明の実施形態の代表例として、展示会などの説明ブースにおける説明員支援システムを挙げ、以下説明する。図1に当該展示ブース空間(3メートル×3メートル四方)の空間見取り図を示す。認識対象空間(1)に情報処理装置を具備したカメラ4台をセンシングノード(10a〜10d)(以下、単にノードという)として、当該対象空間が見渡せる位置に設置する。なお当該ノードは、認識率の向上を図りたい、音声の認識といった機能的に新たな認識を行わせたい、等、その目的によって任意の個数を取りうる。また、これら当該ノードは認識目的に合わせ、カメラの以外にもマイクフォン、温度、湿度、圧力、振動、などの各種センサのいずれの組み合わせで構成しても良い。
本システムでは、ノード(10a)とノード(10b)を説明ブースにおけるパネル側に同一直線上に配置し、ノード(10c)をパネルとは空間を挟み逆方向の中心に配置する。また、ノード(10d)はパネル正面に配置する。すべてのノードにおいてカメラの中心線が、空間内の中心点(15)と一致するように、カメラ方向を決定する。これら複数のノードによる協調認識処理により、本システムでは、認識内容である説明員(11)や来会者(13a、13b)の位置、来会者(13a)の顔部、及び説明員(11)のジェスチャを検出し、その結果に基づき、自律応答機器(12)(ペットロボット、携帯電話など)が説明員、来会者に対し行動を起こす。
本実施例では、例えば、”来会者がパネルに興味を示した”、”説明員の説明を待っている”又は”説明を受けている”などのパネル付近の来会者の行動や説明員のジェスチャを認識することを一つの目的としている。即ち、来会者の顔部や説明員のジェスチャ等は、パネル付近でのみ認識すればよい。そこで、ノード(10a〜10c)を図1に示すように3点に配置することにより説明員(11)や来会者(13a、13b)の位置を検出し、ノード(10d)をパネル(14)付近に配置することにより来会者(13a)の顔部、及び説明員(11)のジェスチャを検出するように機能を分割している。これにより一つのノードに必要な機能が制限されるため各ノード(10a〜10d)の処理負担を軽減することが可能となる。
さらに上記認識に際して、説明員を中心とするその時々の状況、例えば「来会者待ち」、「説明待ち」、「説明中」といった時間軸方向で分割される状況を「場」と定義する。言い換えれば、ある時間を指定した場合に対象となる空間における状況を一つの「場」と定義する。即ち、「場」は、ある時間を指定した場合に対象となる空間における状況とその時間以前の「場」から定められる。また、「場」は、認識対象者がその時間において必要としているサービスに応じた状況ということも可能である。例えば、来会者がパネル(14)付近にいる場合に、「説明を受けたい」という状況の「場」や「説明を受けている」という状況の「場」である。このような認識対象空間におけるその時々の「場」によって使用するセンシングノード、認識手段・方法や自律応答を変えることで、ユーザ(本システムでは説明員及び来会者)に対し最適な情報提供を行うことを可能とする。例えば、パネル14付近に来会者がいないことをセンシングノード(10a〜10c)で検出した場合は、「説明待機中」の場として認識し、自律応答機器11(例えばロボット)に来会者に対してパネル14に興味を持たせるような行動をさせることが可能となる。また、「説明中」の場として認識している時に、他の来会者がパネルに興味を持ったことをセンシングノード(10d)で検出した場合は、自動応答機器11(例えばロボット)に、当該来会者に対して「お待ちください」等の声を掛けさせると共に、この場にはいない他の説明員の携帯電話等にメール送付し、直ぐにパネル14前に戻るように指示することも可能である。
図2に本システムの構成図を示す。各センシングノード(認識処理装置)RPU(10a〜10d)は、カメラ等のセンサSENSOR(100)及び、当該カメラにて撮影した動画像に対し認識処理を行う情報処理装置PU1(101a)で構成される。また、これらの複数のセンシングノードRPUは、ロボット、携帯電話等の携帯機器といった人間に対し直接自律応答する応答機器APP(12)と共にネットワーク(103)を介して接続される。なお、ネットワークはUSBやイーサーネット等の有線のネットワークであっても、無線LANやBlue Tooth等の無線のネットワークであっても構わない。自律応答機器APP(12)は、ディスプレイやスピーカ、モータ、LED、といったユーザに対し情報提示をする手段となるヒューマン・インタフェースHIF(102)と、コマンドのデコード並びに当該ヒューマン・インタフェースHIF(102)の自律制御を行う情報処理装置PU2(101b)、から構成される。これらの情報処理装置PU1,PU2(101a、101b)は、夫々、センシングノードRPU及び自動応答機器APPの中に内蔵されるのが好ましい。センシングノードRPU(10a〜10d)や自動応答機器APP(12)の中に内蔵することにより一つのセンシングノードを小さく構成することができ、一つの空間内により多くのセンシングノードを配置することが可能となる。但、内蔵させることが処理性能等のため困難な場合は、パーソナルコンピュータ等の既存の情報処理装置を利用しても構わない。
本システムでは、センシングノードRPU(10a〜10d)及び自律応答機器APP(12)を制御するサーバは別途設けず、当該複数のセンシングノード及び自律応答機器間から、統合制御処理を行うマスタを動的に決定し、マスタとなったノードまたは機器は統合制御処理も同時に行う。また、例えば各々対象ユーザに一番近い機器をマスタにし、周辺ノードとのネットワークを動的に構成することで、対象ユーザに対して必要な情報を他のセンシングノードから受取ることが可能となり、当該ユーザが所望のサービスを別個に受けることが可能となる。但、説明会場ブースのように認識対象空間が固定されており、また、想定ユーザをパネル(14)の近い位置にいることが明確な説明員のみとしている場合のように想定ユーザが固定されている場合は、マスタを動的に変化させる必要はない。
図3・図4を用いて、本システムの処理フローを説明する。図3は、システムの処理フローを示しており、図4は、「場」の遷移を示している。なお、ここでは、理解しやすくするために一人の想定ユーザに対する本システムの処理フローについて説明する。処理開始(200)と共にセンシングノード(10a〜10d)及び自律応答機器(12)は初期状態における動作手順を示した初期プロファイルを設定(201)する。本システムの初期状態は、図4で示す「来会者無し」(34)に当る。なお、ここで「来会者無し」とは、認識対象空間に来会者がいない、即ち、対象ユーザがいない状況とする。当該プロファイルにはマスタの位置、認識対象空間(1)に存在するセンシングノード(10a〜10d)及び自律応答機器(12)の位置、動作手順、認識プログラム本体が定義されている。続いてマスタの決定(202)を行う。処理開始時には、認識対象空間(1)には、入り口を見渡せるセンシングノード(10a)をマスタとする。マスタ決定後、当該プロファイルに定義されている認識動作に必要なセンシングノード及び自律応答機器の利用予約を行い(203)、当該センシングノード及び当該自律応答機器とでネットワークを構成する(204)。本システムでは、対象空間(1)に存在するすべての機器にてネットワークを構成する。また、本実施例における空間では、入り口が一つしかなく、来会者は常に入り口から入場するため、入り口を監視しているノード(10a)以外のセンシングノード(10b〜10d)を待機状態として、低電力化を図ることも可能である。
以上で初期設定は終了し、空間認識処理を開始(205)する。「来会者無し」の状況においては、当該処理では、センシングノード(10a〜10d)にて、来会者(13a)の検出を行う。来会者が入り口から入場するというアクションが起こると同時に、マスタであるセンシングノード(10a)はその状況を認識する。ここで、来会者(13a)が入り口(16)から入場すると、「来会者待ち」(30)の場が発生する(変化する)。「来会者待ち」の「場」は、認識対象空間(1)に来会者(13a)は存在するが、サービス対象であるパネル(14)付近に来会者(10a)がいない状態とする。言い換えれば、来会者(10a)は、認識対象空間(1)内において、どのようなサービスを受けることができるかという情報を必要としている「場」ということができる。ここで、マスタであるノード(10a)は、他のノード(10b〜10d)に対して、「来会者待ち」(30)への場の変化にあわせたコマンドを発行し(209)、各ノード(10a〜d)は、「来会者待ち」(30)の場に対応したプロファイルを読み込み、更新する(210)プロファイルの更新には、「来会者待ち」(30)の場に必要な機能モジュール、即ち、位置検出モジュールの読み込みも含まれる。また、処理フロー(209)において、自動応答機器(11)に対し来会者(13a)にパネル(14)でどのような説明を行う予定かを伝えるようなアクションを起こさせるコマンドを発行してもよい。次に、「場」が終了したかを判断する(211)。「場」の終了に関しては後に詳述するが、現在は、来会者が認識空間内にいるため「場」は終了せず、処理フロー(214)に戻り、マスタの決定を行う(202)。現在の「場」は、「来会者待ち」であり、来会者(13a)がパネルに近づくか否かを検出する。即ち、マスタは、位置検出を行うノード(10a〜10c)のいずれかとすればよいが、ここでは、来会者に最も近いノード(10c)をマスタとする。その後、リソースの予約と入手をし(203)、ネットワークの構築を行った後、空間認識を行う(205)。上述の通り、「来会者待ち」の「場」においては、来会者(13a)の位置検出を行う。
ここで、来会者(13a)がパネル(14)の付近に移動した場合、システムは、図4に示す「説明待ち」(31)に「場」が遷移する。「説明待ち」の「場」は、来会者がパネルの近くに来ているが説明員が説明を行っていない状態とする。言い換えれば、来会者(13a)は、パネル(14)に掲載される情報について説明を必要としている「場」であるということができる。ここで、マスタであるノード(10c)は、自律応答機器(12)に対し、アクションコマンドを送信(209)する。そのアクションコマンドに応じて、自動応答機器(12)は、アクションを起こす。例えば、来会者がパネル(14)が見える位置まで移動し止まった場合は、「いらっしゃいませ」と、来会者がパネル付近にいるがパネル(14)が見える位置よりも遠方で止まった場合は「パネルの近くにお越しください」といったメッセージを流す。このような「場」の変化を促す行動が認識された場合、場の変化に合わせプロファイルに定義されたコマンドも発行(209)される。例えば、本システムで「来会者待ち」(30)から「説明待ち」(31)の場に遷移するコマンドが発行され、「説明待ち」(31)という「場」のプロファイルを各センシングノード(10a〜10d)が読み込む(210)。ここで、プロファイルには、来会者(13a)がパネル(14)近傍に居つづけるかを検出ための位置検出モジュールと、来会者(13a)がパネル(14)に興味を持っているか(見ているか)を検出するための顔部検出モジュールと、説明員(12)が説明を始めたかを検出するためのジェスチャ検出モジュールが含まれる。
次に、処理フロー(214)に戻り、来会者がパネルを見ているか否かを判断するためセンシングノード(10d)がマスタとして決定され、リソースの予約と入手をし(203)、ネットワークの構築(204)を行った後、説明員(12)や来会者(13a)の位置検出、来会者(13a)の顔部の検出、説明員(12)のジェスチャの認識等を行う(205)。
ここで、説明員が所定のジェスチャを行ったことを認識すると「場」が「説明中」(32)に遷移する。「説明中」の「場」は、説明員(12)が来会者(13a)に対して説明をしている「場」である。言い換えれば、来会者(13a)がサービスを受けている「場」ということもできる。そこで、マスタであるノード(10d)は、自律応答機器(12)にコマンドを発行し、例えば、「名刺を渡す」といったアクションを起こさせる(209)。それと並行して、「説明中」(32)という「場」に遷移するためのコマンドが発行され、各センシングノードは、「説明中」(32)の「場」に関するプロファイルを読み込み(210)、処理フロー(214)に遷移する。当該プロファイルには、「説明中」(32)の場において、既に来会者(13a)はパネル(14)を見ているため、顔部検出モジュールは含まれず、位置検出モジュール及びジェスチャ検出モジュールが含まれる。続いて、再度、マスタの決定がされるが、来会者は、パネル14の近くにいるためマスタは、ノード(10d)まま変更はない。
更に、使用するセンシングノード及び自律応答機器の再予約(203)及びネットワーク構築(204)を行う。上述の通り、「説明中」の「場」では、パネルを見る来会者の顔をノード(10d)にて検知する必要はないので、これまで動作中であったノード(10d)における顔検出モジュールの動作は停止され、リソースの負荷を減らすことが可能となる。当該場では、位置検出及びジェスチャ検出モジュールの動作は継続される。但、「場」の変化を正確に検知するために、位置検出によって説明員(12)が所定の位置にいる場合のみ、ジェスチャ認識モジュールを動作させるようにしても良い。このようにすることにより説明員(12)が所定の位置で説明終了のジェスチャを行った場合のみジェスチャ検出することになるため、システムの誤作動を防止することが可能となる。空間認識において(205)、説明員(12)が説明終了のジェスチャをしたことを検出した場合は、「場」は当初の「来会者待ち」(30)に遷移(322)し、当該応答機器(11)は来会者(13a)に対し「さようなら」といったメッセージを発する。ここで、来会者(13a)は、パネル(14)付近にいると考えられるため、来会者(13a)の位置関係を見ると「説明待ち」(31)の「場」になると考えられる。しかし、「説明中」(32)の「場」から遷移している、即ち、既に説明を受け終わっていると考えられるため、「説明待ち」(31)の「場」でなく、「来会者待ち」(30)の「場」に遷移する。このように本実施例では、次の「場」に遷移する際に、遷移する前の「場」の状況を考慮して、遷移すべき「場」を判断する。
「来会者待ち」(30)の「場」において、来会者(13a)が認識対象空間(1)から離れた場合、当該「場」は終了し、「来会者無し」(34)の状態となる。なお、広大な空間を認識対象人物が移動した場合、各々の認識空間において「場」の変化を、近接した認識空間対象としたシステムに引き継ぐ必要がある。つまり「場」を、当該人物を中心とした物理的空間とした場合、「場」のハンドオーバー(212)が必要となる。当該人物が移動したことで、当該認識対象空間における「場」が終了した場合(211)、即ち、認識対象(来会者)が対象空間から隣接の空間に移動した場合、当該空間のマスタは、隣接空間のシステムのマスタに対し、「場」の引継ぎを行うことで、広大な空間における複数システムの連携を可能とする。
以上、「場」の変化に伴う処理フローを説明したが、本システムのように「場」の認識を行う場合、「場」の変化は起こらないが、認識対象空間(1)の明るさなどの環境変化や、認識対象人物の移動により、センシングノード(10a〜10d)における認識処理方法自体を変更したい場合が考えられる。そのような状況変化においても、使用する認識モジュールを変更したり、停止したり、といったリソースの再調整やマスタの変更を行う(208)ことで、状況変化に対しシステムが柔軟に対応することを可能とする。
続いて、図5に本システムのマスタ処理部MSP(41)、スレーブ処理部SLPの処理概要を示す。各センシングノード(10a〜10d)はスレーブ処理部として認識処理を行う。また、マスタとして割り当てられたセンシングノードは、マスタ処理部としても働く。即ち、各センシングノード(10a〜10d)は、マスタ処理部MSP(41)・スレーブ処理部SLPの両方の動作が可能とされ、実際には、マスタとして割り当てられたセンシングノードがマスタ処理部MSP(41)として動作する。スレーブ処理部SLPにおいて、カメラCAM(401)により得た画像データはA/D変換ADC(402)され、さらにYUV→RGB色変換及びフィルタ処理CCR(403)が行われ、動物体検出、顔部検出、特定色検出、といった特徴点抽出FPE(404)が行われる。その後、求められた特徴点から動物体の重心点や、顔部のカメラ上の座標、ジェスチャの種別認識処理RP(405)が行われ、マスタ処理部の状況テーブルSTBL(411)にその情報が随時更新される形で書き込まれていく(43)。スレーブ側で行われる補正、特徴点抽出、認識処理の各処理モジュールはプロファイルとして予め制御テーブルに格納されており、その動作はマスタ側から制御され、マスタが当該制御テーブルSTBL(411)に書き込んだ動作モジュール情報(43)を元に、動作モジュールの設定や、不必要なモジュールの停止制御が可能となる。また、各センシングノード(10a〜10b)で特徴点の抽出を行っているためマスタ処理部へのデータ転送量が画像データそのものを転送する場合と比較して少なくてすむ。更に、比較的処理量の多い画像処理を各センシングノード(10a〜10d)に分散しているため、画像データをそのままマスタ処理部に転送する場合と比較してマスタ処理部における負荷の軽減をすることができる。
マスタ処理部MSP(21)では各センシングノード(10a〜10d)からの認識処理結果を制御テーブルSTBL(411)に保持し、当該テーブルから結果を引き出すことで所望の認識処理を行う。例えば、各ノードから得られた動物体の位置情報から動物体の空間内における位置決定PDを行う(412)。また決定された位置情報及び、当該ノードにてジェスチャ認識により識別されたジェスチャ情報、また当該ノードにて行われた顔部検出結果を元に、状況データベースSDB(413)のルールデータに基づいて、場の変化や空間内での状況変化の検知といった状況判断SJGを行い(414)、その結果を元に自律応答機器APP(12)に対しアクションコマンドの発行(44)を行う。コマンドは、当該自律応答機器に対応した行動ルールデータベースADB(417)の情報を元に、当該応答機器での詳細な動作が定義されたオブジェクトとして構築される。
以上、来会者が一人の場合について説明したが、来会者が複数になったとしても同様に処理することが可能である。例えば、来会者(13a)が説明を受けている状況で他の来会者(13b)が入場した場合は、図6のように来会者(13a)に対応した処理フロー(613a)と来会者(13b)に対応した処理フロー(613b)とを並行して実行すればよい。なお、各ノードの情報処理装置PU1が複数のプロセッサを有するマルチプロセッサであれば処理フロー(613a、614b)を異なるプロセッサに割り当てることで並列処理をすることが可能である。また、各ノードの情報処理装置PU1がプロセッサを一つしか有していない場合は、夫々の処理フロー(613a,613b)を一つのタスクとし、時分割的に切り換えて処理を行えばよい。このように複数の処理フローを並行して実行する場合、マスタを動的に切り換えることで、処理フロー(613a)においてマスタとされるノードと処理フロー(613b)においてマスタとされるノードとを異ならせることが可能となるため、システム全体の負荷軽減を図ることができる。
以上のように、複数のセンシングノード(10a〜10d)を配置し、当該ノード間にて複数認識手段を協調的に用いることで、これまでにない空間的・時間的な「場」の認識が可能となる。また、ユーザの置かれた環境によって、又は、ユーザの望む認識目的によって、認識処理を協調して行うセンシングノード・ネットワークを自律構成し、統合処理部(マスタ)を動的に決定することで個々のユーザに対して最適な認識処理を行うことが可能となると同時に、これまでのサーバ・クライアント型システムと比較して、システム全体の負荷低減が期待できる。その結果、例えば、個々の人を取り巻くさまざまな状況を認識し、差し迫る危険や要求を察知し、それを元にITが自律的に情報提供するサービスが実現することが可能となる。例えば、店舗におけるコンシェルジェ型サービスの一例として、お客様の当該店舗におけるショッピングを「場」としたとき、手にとっている商品の詳細情報を配信したり、当該商品に強い興味を持つ場合その商品に詳しい店員を呼び出したり、また当該商品に関連する他の商品を紹介したり、などお客様個々の嗜好、状況に応じた情報提供サービスが実現する。なお、言うまでもないが、空間認識をするための機能モジュールは、上述の機能モジュールに限定されることはなく、そのサービスに必要な機能モジュールを各ノードに用意することになる。
続いて、複数動物体の位置検出を複数センシングノードのマスタ・スレーブ協調処理により求める手順を説明する。図7は当該センシングノードにおける動物体抽出フローを示している。マスタにより動物体抽出モジュールが動作設定されている場合(215)、まずカメラから画像が取得され(402)、まずYUV→RGB色変換、フィルタ(ぼかし)補正(403)が掛けられ、フレームメモリに画像が保持される(418)。続いてフレーム間の差分を取ることで動き検出を(419)、動きオブジェクトとして切り出し、カメラとオブジェクトの中心点の水平方向における角度θを求め(420)、角度情報はマスタ処理部へ送信される(421)。
図8は、フレーム差分による動き検出から角度算出までのフロー(45)の詳細を示している。フレームメモリ上に保持されている、現フレーム画像をフレームA、前フレーム画像をフレームB、前々フレーム画像をフレームCとすると、まずフレームA及びフレームBの対応する各画素の差分と、フレームB及びフレームCの対応する各画素の差分を求める(451)。次に、各差分値が定められた閾値よりも下回っている場合、つまり前後フレームの対応する画素が同一とみなされる場合、黒でマスクし、差分値が閾値を上回っている場合、つまり動きがあるとみなすことができる画素は白でマスクし、動きの2値画像を生成(452)する。続いて、フレームA、B及びフレームB、Cそれぞれの差分画像のANDを取る(453)ことで、動きを持つオブジェクトが形として抽出される。
抽出されたオブジェクトの輪郭抽出(455)を行い、当該オブジェクトの面積を算出(455)する。前記面積がある一定以上のオブジェクトのみ、角度算出対象とする(456)ことで、ノイズによって生じた動きオブジェクトを取り除くことができる。動きオブジェクトの輪郭座標から、中心点を算出し、カメラの中心線とオブジェクトの中心点が水平方向でなす角θを算出する。オブジェクトが複数ある場合は、動きオブジェクトがなくなる(459)まで、上記の処理を繰り返す。最終的に、検出された面積一定以上のオブジェクトの数及び、当該オブジェクトのθを算出し、図9のフォーマットに従ってマスタへ送信される。
図9は各センシングノードで検出された動きオブジェクトの角度情報を送信する際のフォーマットである。(430)はマスタのアドレス、(431)は当該センシングノードのアドレス、(432)はマスタ方向へのデータの流れを示すフラグ、(433)はデータの種類(ここでは角度情報であるというフラグ)、(434)は検出された動きオブジェクト数、(435a〜)は複数当該オブジェクトのθである。動きオブジェクトの個数及び各々の角度情報及びは、マスタに送られ、マスタ内の状況テーブルに保持される。
図10はマスタにおける空間位置検出動作フローを示している。マスタでは、状況テーブルに書き込まれた角度情報(423)を元に、各カメラの空間内における位置関係はすでに既知なので、各カメラから角度情報が到着した時点(424)で3点測位の原理で動物体の位置決定(425)を行う。
図11は本位置決定の方法を示している。動物体(440)の位置決定は、以下のように行われる。まず、センシングノード(10a)から得る角度情報(442)をθ1、当該ノード(10b)から得る角度情報(443)をθ2とし、当該ノード(10a)の空間位置を原点とし、当該ノード(10a)と同(10b)間の距離(444)をdとする。当該ノードと直線(444)の成す角(441)θ’、及びdは既知であるため、θ1、θ2により動物体(440)の位置は三角関数にて決定される。
しかしながら、上記方法による位置検出では対象となる動物体(440)が2体以上となると、対応点が最大4点以上表れることになり、複数動物体の位置同時決定はできない。そこで、上記θ1、θ2による位置決定の後に、センシングノード(10c)で得られる角度情報(445)θ3を用いることで、複数対応点から、当該動物体の位置を絞り込み決定する。つまり、当該対応点の座標データ、当該ノード(10c)の空間位置、角度θ3により、当該座標データの整合性を確認することで、最終位置を決定する。位置情報は、30cm精度のグリッド単位で、マスタの位置管理テーブルに書き込まれる。なお、前記3台のセンシングノードに加え、第4、第5と複数のノードを、障害物などで死角となる領域をカバーするように配置することで、位置認識精度を高めることができる。本位置決定方式では、フレーム差分動き抽出を用いているが、近隣3フレームのみに注目した処理であるため環境変化に対しロバスト性が高く、また3台以上のカメラを用いることで複数動物体の位置検出を同時に行うことができる。
続いて、ジェスチャ認識処理手順について説明する。図12はスレーブ処理部のセンシングノードにおけるジェスチャ認識処理フローを示している。本認識では説明員(11)の手にピンク色のマーカーを付け、色検出によりマーカーをトラッキングすることで、ジェスチャを判別する。マスタによりジェスチャ認識モジュールが動作設定されている場合(215)、カメラにて取り込まれた画像をHSV(Hue Saturation Brightness)系へ色変換し、色相(Hue)からピンク領域を抽出(461)する。ノイズ除去のため検出されたピンク領域の面積が一定以上の場合(462)のみ、領域の中心点座標を算出し、フレーム毎にピンク領域の移動ベクトルを求める(463)。このベクトルの時間的な変化の組み合わせを定義することにより、例えばピンク領域が上下に移動したなど、ジェスチャパターンとして認識(464)する。また、ピンク領域の軌跡を求め、円などの図形とのパタンマッチングにより、ジェスチャパターンとすることも可能である。なお、ジェスチャパターンの種別はスレーブ側、マスタ側共に共有し、図13に示すフォーマットで、ジェスチャの種類(466)をマスタ側に通知する。
続いて、顔検出処理手順について説明する。図14はスレーブ処理部のセンシングノードにおける顔検出処理フローを示している。標準顔をテンプレートとして定義しておき、複数のサイズにて画面上をテンプレートマッチングすることにより、顔部を検出する。マスタによりジェスチャ認識モジュールが動作設定されている場合(215)、カメラにて取り込まれた画像に対し、予め定義した標準顔テンプレートをサイズ別に数種類生成(471)、当該画像を操作することで、標準テンプレートとのパタンマッチングを行う。マッチング結果に基づき、顔数のカウント(475)を行い、図15に示すフォーマットにてマスタに対し、検出顔数(476)、当該顔部の座標(477a〜)を通知する。
このように、本実施例では、例えば、同じ動作検出である動物体検出モジュールとジェスチャ認識モジュールとを分けているように空間認識モジュールを細分化している。このように細分化することにより、一つの空間認識モジュールが小さくなると共に、動物体検出モジュールを動作させたまま、ジェスチャ認識モジュールを停止させる等の細かい制御が可能となり、システム負荷の低減が可能となる。
以上、実施例に基づいて説明してきたが、本願の目的に逸脱しない範囲での種々の変更が可能である。例えば、位置検出・ジェスチャ検出・顔検出等に関して、本願で示した以外の方式を採用しても良いし、機能モジュールは位置検出モジュール、ジェスチャ検出モジュール、顔部検出モジュール以外を組み合わせても問題ない。また、本実施例では、ノード(10a〜10c)を位置検出に、ノード(10d)を顔部検出・ジェスチャ検出と機能を分けて用いたが、すべての機能をノードに持たせても良い。例えば、広い展示会場に複数のパネルが存在する空間のように、夫々のパネルにカメラを設置することが困難な場合は、設置された複数のノードが同じ機能を有し、その「場」の状況に応じて各ノードの役割を変更することにより設置するノードの数を減らすことが可能となる。
本発明は、「場」を認識して自立的に応答するシステムに広く適用することができる。
本発明の代表例である展示会説明員支援システムの構成図である。 展示支援システムの装置構成を示すブロック図である。 協調認識処理の動作フローチャートを説明する図である。 展示説明における「場」の遷移図である。 展示支援システムにおけるマスタ・スレーブ処理部の機能構成図である。 複数の認識対象者がいた場合における協調認識処理の動作フローチャートを説明する図である。 スレーブ処理側における空間位置検出動作のフローチャートを説明する図である。 スレーブ処理側における動物体抽出のフローチャートを説明する図である。 マスタへ送信する空間位置検出結果のフォーマットを示す図である。 マスタ処理側における空間位置検出動作のフローチャートを説明する図である。 マスタ処理側における空間位置検出方法を説明する図である。 スレーブ処理側におけるジェスチャ認識動作のフローチャートを説明する図である。 マスタへ送信するジェスチャ認識結果のフォーマットを示す図である。 スレーブ処理側における顔部抽出動作のフローチャートを説明する図である。 マスタへ送信する顔部抽出結果のフォーマットを示す図である。
符号の説明
1…認識対象空間、10a、10b、10c、10d…センシングノード、11…説明員、12…自律応答機器、13a、13b…来会者、14…展示パネル、15…空間の中心点、16…入り口、100…センサ(カメラ)、101a、101b…情報処理装置、102…ヒューマン・インタフェース、103…ネットワーク、200…開始点、201、202、203、204、205、207、208、209…処理、210、212…処理、206、211…判別処理、213…終了点、214…合流点、30、31、32…状態、301、302、311、312、321、322…遷移グラフ、41…マスタ処理部、42…マスタ制御データ、43…スレーブ処理データ、44…アクションコマンド、401…カメラ、402…A/D変換、403…色補正、404…特徴点抽出、405…認識処理、406…制御テーブル、411…状況テーブル、412…位置決定部、413…状況データベース、414…状況判断部、415…行動決定部、417…行動コマンドデータベース、45…動物体オブジェクト抽出処理、418、419、420、421…処理、451、452、453、454、455、457、458…処理、456、459…判別処理、430…マスタのIPアドレス、431…自身のIPアドレス、432…マスタ方向へのデータの流れを示すフラグ、433…処理の種別、434…抽出された動物体の数、435a、435b、435c…角度、422、423、425、426…処理、424…判別処理、440…動物体、441、442、443、445…角度、444…直線距離、461、463、464、465…処理、462…判別処理、466…ジェスチャの種別、471、472、474、475…処理、473…判別処理、476…抽出された顔数、477a、477b…抽出された顔部の座標データ、613a,614b…処理フロー。

Claims (6)

  1. カメラを含む複数のセンシングノードと、応答機器とを具備する情報処理システムであって、
    前記複数のセンシングノードの夫々は、所定の空間内の動物体を複数の認識手法を用いて認識し、前記複数のセンシングノードのうちマスタとされたセンシングノードに認識結果を送信し、
    前記マスタとされたセンシングノードは、当該認識結果に応じて前記応答機器に所定の動作をさせるためのコマンドを送信し、
    前記応答機器は、前記コマンドに応じた行動を起こすことを特徴とする情報処理システム。
  2. 請求項1において、
    前記マスタとされたセンシングノードは、当該空間における状況が変化したことを認識した際に、前記複数のセンシングノードに対して当該空間における状況にあわせた認識手段、アルゴリズム又は、前記複数のセンシングノードの組み合わせを変化させることを特徴とする情報処理システム。
  3. 請求項1において、
    前記マスタとされたセンシングノードは、当該空間における状況が変化したことを認識した際に、当該変化後の空間における状況にあわせたマスタを前記複数のセンシングノードの中から一つ選択することを特徴とする情報処理システム。
  4. 請求項1において、
    前記マスタとされたセンシングノードは、認識対象が前記所定の空間内から離れることを認識した際に、当該認識対象が移動した先に存在するシステムに制御を受け渡すことを特徴とする情報処理システム。
  5. 請求項1において、
    前記複数のセンシングノードの夫々は、前記カメラによって撮影された動画像の前後フレームの差分により動きを持つ複数物体を検出し、前記マスタとされたセンシングノードに検出データを送信し、
    前記マスタとされたセンシングノードは、前記複数のセンシングノードから送信された前記検出データから3点測位することで、複数動物体の位置を検出することを特徴とする情報処理システム
  6. 請求項1において、
    前記複数のセンシングノードの夫々は、被写体となる人物のジェスチャを認識し、認識結果を前記マスタとされたセンシングノードに送信し、
    前記マスタとされたセンシングノードは、前記認識結果に基づいてジェスチャの意味を認識し、時間軸における状況変化を認知することが可能であることを特徴とする情報処理システム。
JP2003348980A 2003-10-08 2003-10-08 認識処理システム Expired - Fee Related JP4306397B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003348980A JP4306397B2 (ja) 2003-10-08 2003-10-08 認識処理システム
US10/876,596 US7340078B2 (en) 2003-10-08 2004-06-28 Multi-sensing devices cooperative recognition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003348980A JP4306397B2 (ja) 2003-10-08 2003-10-08 認識処理システム

Publications (2)

Publication Number Publication Date
JP2005115649A true JP2005115649A (ja) 2005-04-28
JP4306397B2 JP4306397B2 (ja) 2009-07-29

Family

ID=34419680

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003348980A Expired - Fee Related JP4306397B2 (ja) 2003-10-08 2003-10-08 認識処理システム

Country Status (2)

Country Link
US (1) US7340078B2 (ja)
JP (1) JP4306397B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008001550A1 (fr) * 2006-06-27 2008-01-03 Murata Kikai Kabushiki Kaisha Appareil de guidage audio, procédé de guidage audio, et programme de guidage audio
JP2009230565A (ja) * 2008-03-24 2009-10-08 Laurel Bank Mach Co Ltd 行動管理装置

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8582032B2 (en) * 2006-09-07 2013-11-12 Texas Instruments Incorporated Motion detection for interlaced video
TWI334993B (en) * 2007-06-08 2010-12-21 Tatung Co Method and system for showing an image
US9417700B2 (en) * 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
US8467599B2 (en) 2010-09-02 2013-06-18 Edge 3 Technologies, Inc. Method and apparatus for confusion learning
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
JP5668587B2 (ja) * 2011-04-19 2015-02-12 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
JP5800616B2 (ja) * 2011-07-15 2015-10-28 オリンパス株式会社 マニピュレータシステム
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
US9711036B2 (en) 2012-09-21 2017-07-18 Google Inc. Leveraging neighborhood to handle potential visitor at a smart-home
US9600645B2 (en) 2012-09-21 2017-03-21 Google Inc. Smart invitation handling at a smart-home
US10332059B2 (en) 2013-03-14 2019-06-25 Google Llc Security scoring in a smart-sensored home
US9953514B2 (en) 2012-09-21 2018-04-24 Google Llc Visitor feedback to visitor interaction with a doorbell at a smart-home
US9881474B2 (en) 2012-09-21 2018-01-30 Google Llc Initially detecting a visitor at a smart-home
US9626841B2 (en) * 2012-09-21 2017-04-18 Google Inc. Occupant notification of visitor interaction with a doorbell at a smart-home
US10735216B2 (en) 2012-09-21 2020-08-04 Google Llc Handling security services visitor at a smart-home
US9978238B2 (en) 2012-09-21 2018-05-22 Google Llc Visitor options at an entryway to a smart-home
US9652912B2 (en) 2012-09-21 2017-05-16 Google Inc. Secure handling of unsupervised package drop off at a smart-home
US9960929B2 (en) 2012-09-21 2018-05-01 Google Llc Environmental sensing with a doorbell at a smart-home
US9640055B2 (en) 2012-09-21 2017-05-02 Google Inc. Interacting with a detected visitor at an entryway to a smart-home
US9959727B2 (en) 2012-09-21 2018-05-01 Google Llc Handling visitor interaction at a smart-home in a do not disturb mode
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
US10002173B1 (en) 2013-09-16 2018-06-19 Nutanix, Inc. System and methods for dynamically adjusting between asynchronous and synchronous data replication policies in a networked virtualization environment
US9971785B1 (en) * 2013-09-05 2018-05-15 Nutanix, Inc. System and methods for performing distributed data replication in a networked virtualization environment
US10853366B2 (en) * 2015-12-01 2020-12-01 Microsoft Technology Licensing, Llc Cooperative expression visitors
US10599730B2 (en) * 2016-03-25 2020-03-24 International Business Machines Corporation Guided search via content analytics and ontology
US10606814B2 (en) * 2017-01-18 2020-03-31 Microsoft Technology Licensing, Llc Computer-aided tracking of physical entities
US10924670B2 (en) 2017-04-14 2021-02-16 Yang Liu System and apparatus for co-registration and correlation between multi-modal imagery and method for same
KR101979247B1 (ko) * 2018-08-09 2019-05-16 주식회사 에프에스 지능적 공간 안전 모니터링 장치 및 그 시스템

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000331170A (ja) * 1999-05-21 2000-11-30 Atr Media Integration & Communications Res Lab 手振り認識装置
JP2001319236A (ja) * 2000-05-10 2001-11-16 Nippon Hoso Kyokai <Nhk> 動き物体の形状抽出方法と装置
JP2002290962A (ja) * 2001-03-27 2002-10-04 Mitsubishi Electric Corp 侵入者自動追尾方法および装置並びに画像処理装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3631266B2 (ja) 1994-05-13 2005-03-23 株式会社応用計測研究所 移動物体の計測装置
JP3577895B2 (ja) 1997-06-19 2004-10-20 松下電器産業株式会社 広域監視装置及び広域監視システム
US6359647B1 (en) * 1998-08-07 2002-03-19 Philips Electronics North America Corporation Automated camera handoff system for figure tracking in a multiple camera system
US6501515B1 (en) * 1998-10-13 2002-12-31 Sony Corporation Remote control system
US7358985B2 (en) * 2001-02-16 2008-04-15 Fuji Xerox Co., Ltd. Systems and methods for computer-assisted meeting capture
JP4624577B2 (ja) * 2001-02-23 2011-02-02 富士通株式会社 複数のセンサによるヒューマンインタフェースシステム
US20050012817A1 (en) * 2003-07-15 2005-01-20 International Business Machines Corporation Selective surveillance system with active sensor management policies

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000331170A (ja) * 1999-05-21 2000-11-30 Atr Media Integration & Communications Res Lab 手振り認識装置
JP2001319236A (ja) * 2000-05-10 2001-11-16 Nippon Hoso Kyokai <Nhk> 動き物体の形状抽出方法と装置
JP2002290962A (ja) * 2001-03-27 2002-10-04 Mitsubishi Electric Corp 侵入者自動追尾方法および装置並びに画像処理装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
内海 章: "非同期多視点画像を用いた物体追跡", 情報処理学会研究報告 VOL.2002 NO.2, vol. 第2002巻 第2号, JPN6009001520, 18 January 2002 (2002-01-18), JP, ISSN: 0001228241 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008001550A1 (fr) * 2006-06-27 2008-01-03 Murata Kikai Kabushiki Kaisha Appareil de guidage audio, procédé de guidage audio, et programme de guidage audio
JP4947439B2 (ja) * 2006-06-27 2012-06-06 村田機械株式会社 音声ガイダンス装置と音声ガイダンス方法、音声ガイダンスプログラム
JP2009230565A (ja) * 2008-03-24 2009-10-08 Laurel Bank Mach Co Ltd 行動管理装置

Also Published As

Publication number Publication date
JP4306397B2 (ja) 2009-07-29
US7340078B2 (en) 2008-03-04
US20050078854A1 (en) 2005-04-14

Similar Documents

Publication Publication Date Title
JP4306397B2 (ja) 認識処理システム
JP4369326B2 (ja) 施設内情報提供システム及び施設内情報提供方法
CN108724178B (zh) 特定人自主跟随方法及装置、机器人、设备和存储介质
CN110579215B (zh) 基于环境特征描述的定位方法、移动机器人和存储介质
CN103999020A (zh) 用于姿势控制的方法,姿势服务器设备与传感器输入设备
CN104335562A (zh) 从移动设备传送启动细节
CN112005281A (zh) 智能设备上的功率管理的系统和方法
Crowley Context driven observation of human activity
US20220048733A1 (en) Contactless Elevator Service for an Elevator Based on Augmented Datasets
Turaga et al. Diamond sentry: Integrating sensors and cameras for real-time monitoring of indoor spaces
CN110248144B (zh) 视频会议的控制方法、装置、设备及计算机可读存储介质
JP2018169787A (ja) 自律型モビリティシステムおよび自律型モビリティの制御方法
CN107610260B (zh) 一种基于机器视觉的智能考勤系统及考勤方法
JP7107596B2 (ja) 駅監視システム及び駅監視方法
KR20180036205A (ko) 시뮬레이션용 스마트 테이블 장치
EP4071728A1 (en) Artificial intelligence model integration and deployment for providing a service
CN114659450B (zh) 机器人跟随方法、装置、机器人及存储介质
Kool et al. Visual machine intelligence for home automation
CN115061380A (zh) 设备控制方法、装置、电子设备及可读存储介质
CN114419658A (zh) 信息关联方法、电子设备及存储介质
KR102142455B1 (ko) 차량 승하차 관리 방법 및 그 장치
US11855932B2 (en) Method for adjusting a device behavior based on privacy classes
JP2018106339A (ja) 情報処理装置、システム、情報処理方法及びプログラム
JP2022117761A (ja) センサシステム、画像センサ、サーバ装置、センシング方法、およびプログラム
WO2019142566A1 (ja) 被監視者監視支援システムおよび被監視者監視支援方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060124

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090414

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090427

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120515

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120515

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130515

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees