JP6600740B2 - 制御システムおよび制御装置 - Google Patents

制御システムおよび制御装置 Download PDF

Info

Publication number
JP6600740B2
JP6600740B2 JP2018510193A JP2018510193A JP6600740B2 JP 6600740 B2 JP6600740 B2 JP 6600740B2 JP 2018510193 A JP2018510193 A JP 2018510193A JP 2018510193 A JP2018510193 A JP 2018510193A JP 6600740 B2 JP6600740 B2 JP 6600740B2
Authority
JP
Japan
Prior art keywords
person
moving body
camera
processor
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018510193A
Other languages
English (en)
Other versions
JPWO2017175360A1 (ja
Inventor
義崇 平松
貴志 住吉
真人 戸上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2017175360A1 publication Critical patent/JPWO2017175360A1/ja
Application granted granted Critical
Publication of JP6600740B2 publication Critical patent/JP6600740B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • G05D1/0282Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal generated in a local control room
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、移動体を制御する制御システム、移動体、および移動体を制御する制御装置に関する。
近年、対話と移動の両方を行うロボットの製品開発が盛んである。例えば、特許文献1は、特定人物に随伴して移動する際、特定人物の視野域と共通する視野域が得られる位置に自律的に移動する自律移動型ロボットを開示する。この自律移動型ロボットは、モビルロボットが特定人物に随伴して移動する際、モビルロボットが特定人物の視線を観測可能な視線観測位置を算出し、走行装置1のホイールインモータを制御してモビルロボットを視線観測位置に向けて移動させ、特定人物の視線方向を検出し、特定人物の視野域を推定する。そして、自律移動型ロボットは、推定された特定人物の視野域と共通する視野域が得られる視野域可視位置を算出し、走行装置1のホイールインモータを制御してモビルロボットを視野域可視位置に向けて移動させる。
特開2007−229814号公報
しかしながら、上述した従来技術の自律移動型ロボットは、自律移動型ロボットが観測した範囲でのみ、特定人物を検出する。このため、自律移動型ロボットが観測できない範囲に特定人物が存在する場合、随伴できないことになる。また、たとえば、防犯システムでは、自律移動型ロボットが不審者の視野に入った場合、自律移動型ロボットは、当該不審者に気づかれてしまう。
本発明は、上記のような課題を解決するためになされたものであり、移動体が所定の行動をする人物への移動体の行動の改善を図ることを目的とする。
本願において開示される発明の一側面となる制御システムは、領域内を移動する移動体と、前記移動体を制御する制御装置と、を有する制御システムである。前記移動体は、第1プログラムを実行する第1プロセッサと、前記第1プログラムを記憶する第1記憶デバイスと、前記制御装置と通信する第1インタフェースと、前記移動体を移動させる移動装置と、前記領域内の人物を撮影する第1カメラと、を有する。前記第1プロセッサは、前記第1カメラによって撮影された前記人物の顔画像の有無に基づいて、前記人物の顔が向いている顔方向を決定する決定処理と、前記移動体が前記制御装置から送信された経路情報にしたがって移動するように前記移動装置を制御する移動制御処理と、を実行する。前記制御装置は、第2プログラムを実行する第2プロセッサと、前記第2プログラムを記憶する第2記憶デバイスと、前記移動体と通信する第2インタフェースと、前記領域内の前記人物および前記移動体を撮影する第2カメラと、を有する。前記第2プロセッサは、前記第2カメラによって撮影された前記領域の画像に基づいて、前記領域内における前記人物の位置および前記移動体の位置を検出する検出処理と、前記検出処理によって検出された前記人物の位置および前記移動体の位置と、前記決定処理によって決定された前記第1インタフェースから送信された前記顔方向の情報と、に基づいて、前記移動体が、前記人物の視界外でかつ前記人物を中心とする所定範囲外から前記視界内でかつ前記所定範囲内を経由せずに前記所定範囲内でかつ前記人物の視界内の位置に到達する経路を示す前記経路情報を算出する算出処理と、前記算出処理によって算出された前記経路情報を前記移動体に送信する送信処理と、を実行する。
本願において開示される発明の他の側面となる制御システムは、領域内を移動する移動体と、前記移動体を制御する制御装置と、を有する制御システムである。前記移動体は、第1プログラムを実行する第1プロセッサと、前記第1プログラムを記憶する第1記憶デバイスと、前記制御装置と通信する第1インタフェースと、前記移動体を移動させる移動装置と、を有する。前記第1プロセッサは、前記移動体が前記制御装置から送信された経路情報にしたがって移動するように前記移動装置を制御する移動制御処理と、を実行し、前記制御装置は、第2プログラムを実行する第2プロセッサと、前記第2プログラムを記憶する第2記憶デバイスと、前記移動体と通信する第2インタフェースと、前記領域内の人物および前記移動体を撮影する第2カメラと、を有する。前記第2プロセッサは、前記検出処理によって検出された前記人物の時系列な位置で特定される移動経路が指し示す方向に基づいて、前記人物の顔が向いている顔方向を決定する決定処理と、前記検出処理によって検出された前記人物の位置および前記移動体の位置と、前記決定処理によって決定された前記顔方向と、に基づいて、前記移動体が、前記人物の視界外でかつ前記人物を中心とする所定範囲外から前記視界内でかつ前記所定範囲内を経由せずに前記所定範囲内でかつ前記人物の視界内の位置に到達する経路を示す前記経路情報を算出する算出処理と、前記算出処理によって算出された前記経路情報を前記移動体に送信する送信処理と、を実行する。
本発明の代表的な実施の形態によれば、移動体が所定の行動をする人物への移動体の行動の改善を図ることができる。前述した以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。
図1は、制御システムによる制御例を示す説明図である。 図2は、制御装置と移動体と人物との配置関係を示す説明図である。 図3は、実施例1にかかる制御システムのシステム構成例を示すブロック図である。 図4は、実施例1にかかる制御システムの機能的構成例を示すブロック図である。 図5は、制御装置の特定部による挙動特定例を示す説明図である。 図6は、制御装置の生成部による旋回制御コマンドの生成例を示す説明図である。 図7は、移動体の決定部による顔方向の決定例を示す説明図である。 図8は、制御装置の算出部による経路情報の算出例を示す説明図である。 図9は、制御装置の算出部による経路情報の算出例を示す説明図である。 図10は、実施例1にかかる制御システムによる制御処理手順例を示すフローチャートである。 図11は、図10に示した制御装置における特定処理(ステップS1012)の詳細な処理手順例を示すフローチャートである。 図12は、図10に示した制御装置における設定処理(ステップS1013)の詳細な処理手順例を示すフローチャートである。 図13は、図10に示した制御装置における生成処理(ステップS1014)の詳細な処理手順例を示すフローチャートである。 図14は、図10に示した移動体における決定処理(ステップS1025)の詳細な処理手順例を示すフローチャートである。 図15は、図10に示した算出処理(ステップS1015)の詳細な処理手順例を示すフローチャートである。 図16は、実施例2にかかる制御システムの機能的構成例を示すブロック図である。 図17は、実施例2にかかる制御システムによる制御処理手順例を示すフローチャートである。
実施例1は、領域内を移動する移動体と、移動体を制御する制御装置と、を有する制御システムについて説明する。実施例1では、移動体が所定の行動をする人物を、移動体ではなく制御装置が設定し、制御装置が、移動体に当該人物に所定の行動をするように制御する。これにより、移動体は、所定の行動をする人物を設定しなくてもよい。したがって、制御装置は、移動体から観測できる人物のほか、移動体から観測できない人物や、移動体から人物が観測できてもその顔が検出できない人物、移動体にあらかじめ設定された特定人物以外の人物についても、移動体に所定の行動をさせることができる。なお、移動体の所定の行動には、たとえば、人物との対話、人物への情報提供、人物からの情報収集、防犯システムでの人物の行動の抑止処理がある。以下、実施例1について説明する。
図1は、制御システムによる制御例を示す説明図である。図1は、移動する移動体Rが、人物Hへ移動する例を示す。移動体Rは、たとえば、ロボットである。ロボットの場合、移動体Rは、車輪により走行してもよく、複数の脚により歩行または走行してもよい。また、移動体Rは、飛行するドローンでもよい。実施例1では、一例として、移動体Rは、車輪で走行するロボットとする。
移動体Rは、監視対象となる領域100に配置される。領域100は、たとえば、イベントホール、催事場、交通施設、工場、美術館、博物館、広場、住宅のような人が存在する場所である。また、移動体Rは、1台以上の第1カメラを有する。第1カメラC1は、移動体Rから領域を撮影する。第1カメラC1は、固定でもよく、移動体Rに対し水平方向に回転可能(すなわち、鉛直軸周りに回転可能)に支持されてもよい。また、移動体Rは、音声を出力することにより人物と対話可能な構成でもよく、また、画面により情報を表示する構成でもよい。
図1において、(A)は、移動体Rを人物Hの視界VH内の位置に接近させる例である。移動体Rを制御する制御装置は、移動体Rの位置と、人物Hの位置と、を検出する。移動体Rは、第1カメラC1からの画像から人物Hの顔が向いている方向(以下、顔方向)を決定し、顔方向の情報を制御装置に送信する。制御装置は、移動体Rの位置、人物Hの位置、および顔方向から、経路情報raを算出する。
経路情報raの目標地点G1は、人物Hから所定範囲(たとえば、人物Hを中心とする半径dの円)内で、かつ、人物Hの視界VH内の位置である。dは、たとえば、あらかじめ設定される距離であり、人物Hと移動体Rとが対話または接触可能な範囲とする。視界VHは、人物Hから見える視野を想定した範囲であり、たとえば、人物Hが両目で見える範囲(たとえば、120度)とする。
制御装置は、経路情報raを移動制御コマンドとして移動体Rに送信する。移動体は、受信した経路情報raに従って、目標地点G1に移動する。これにより、人物Hは、移動体Rに気づくことができる。換言すれば、移動体Rが人物Hに接近しても気づかれなかった状況が改善される。また、移動体Rは、目標地点G1において、移動体Rの正面が人物Hと対向するように旋回する。これにより、移動後に、人物Hと移動体Rとが対面した状態で対話などの所定の行動が可能となる。
図1において、(B)は、移動体Rを人物Hの視界VH外の位置に接近させる例である。移動体Rを制御する制御装置は、移動体Rの位置と、人物Hの位置と、を検出する。移動体Rは、第1カメラC1からの画像から人物Hの顔方向を決定し、顔方向の情報を制御装置に送信する。制御装置は、移動体Rの位置、人物Hの位置、および顔方向から、経路情報rbを算出する。
経路情報rbの目標地点G2は、人物Hから所定範囲(たとえば、人物Hを中心とする半径dの円)内で、かつ、人物Hの視界VHの位置である。制御装置は、経路情報rbを移動制御コマンドとして移動体Rに送信する。移動体は、受信した経路情報rbに従って、目標地点G2に移動する。これにより、移動体Rは、人物Hに気付かれないように接近することができる。換言すれば、移動体Rが人物Hに接近する場合に気付かれる状況が改善される。
このように、(A)および(B)では、実施例1では、移動体Rが所定の行動をする人物Hを、移動体Rではなく制御装置が設定し、制御装置が、移動体Rに当該人物Hに所定の行動をするように制御する。これにより、制御装置は、移動体Rから観測できる人物Hのほか、移動体Rから観測できない人物Hや、移動体Rから顔が検出できない人物H、移動体Rにあらかじめ設定された特定人物以外の人物Hについても、移動体Rに所定の行動をさせることができる。したがって、移動体Rが所定の行動をする人物Hへの移動体Rの行動が改善される。
図2は、制御装置と移動体と人物との配置関係を示す説明図である。制御システム200は、領域100内を移動する移動体Rと、移動体Rを制御する制御装置201と、を有する。制御装置201は、第2カメラC2を有する。第2カメラC2は、領域100を、たとえば、天井210から撮影する。第2カメラC2の設置位置は、領域100を俯瞰する位置であれば、天井210以外でもよい。また、1台の第2カメラC2で領域100のすべてを網羅する必要はなく、複数台の第2カメラC2で領域100内の担当領域を撮影してもよい。また、制御装置201は、通信機器202に接続される。通信機器202は、たとえば、天井210に配置され、移動体Rと通信可能である。また、1台の通信機器202で領域100のすべてを網羅する必要はなく、複数台の通信機器202で領域100を網羅してもよい。
<システム構成例>
図3は、実施例1にかかる制御システム200のシステム構成例を示すブロック図である。移動体Rは、第1プロセッサ311と、第1記憶デバイス312と、第1入力デバイス313と、第1出力デバイス314と、第1通信インタフェース(第1通信I/F315)と、第1画像処理回路316と、移動装置317と、第1カメラC1と、を有する。これらは、バス318で接続される。なお、測距センサ319を有してもよい。
第1プロセッサ311は、移動体Rを制御する。第1記憶デバイス312は、第1プロセッサ311の作業エリアとなる。また、第1記憶デバイス312は、各種プログラムやデータを記憶する非一時的なまたは一時的な記録媒体である。第1記憶デバイス312としては、たとえば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、フラッシュメモリがある。第1入力デバイス313は、データを入力する。第1入力デバイス313としては、たとえば、タッチパネル、テンキー、マイクがある。第1出力デバイス314は、データを出力する。第1出力デバイス314としては、たとえば、ディスプレイ、スピーカがある。第1通信I/F315は、制御装置201と接続し、データを送受信する。
第1カメラC1は、移動体Rの周囲を撮影する。第1カメラC1は、たとえば、被写体までの距離を計測可能な3次元カメラでもよい。第1画像処理回路316は、第1カメラC1で撮影された画像を処理する。移動装置317は、移動体Rを移動させる機構である。たとえば、車輪を有する移動装置である。また、複数の脚を有する歩行/走行機構でもよい。測距センサ319は、被写体までの距離を計測するセンサである。第1カメラC1が3次元カメラである場合は、不要である。
制御装置201は、第2プロセッサ321と、第2記憶デバイス322と、第2入力デバイス323と、第2出力デバイス324と、第2通信インタフェース(第2通信I/F325)と、第2画像処理回路326と、第2カメラC2と、を有する。
第2プロセッサ321は、制御装置201を制御する。第2記憶デバイス322は、第2プロセッサ321の作業エリアとなる。また、第2記憶デバイス322は、各種プログラムやデータを記憶する非一時的なまたは一時的な記録媒体である。第2記憶デバイス322としては、たとえば、ROM、RAM、HDD、フラッシュメモリがある。第2入力デバイス323は、データを入力する。第2入力デバイス323としては、たとえば、キーボード、マウス、タッチパネル、テンキー、スキャナがある。第2出力デバイス324は、データを出力する。第2出力デバイス324としては、たとえば、ディスプレイがある。第2通信I/F325は、移動体Rと接続し、データを送受信する。第2通信I/F325は、図2に示した通信機器202に相当する。第2カメラC2は、領域100を俯瞰して撮影する。第2画像処理回路326は、第2カメラC2で撮影された画像を処理する。
<制御システムの機能的構成例>
図4は、実施例1にかかる制御システム200の機能的構成例を示すブロック図である。移動体Rは、決定部411と、移動制御部412と、旋回制御部413と、第1送受信部414と、管理部415と、を有する。決定部411、移動制御部412、旋回制御部413および管理部415は、具体的には、たとえば、第1記憶デバイス312に記憶されたプログラムを第1プロセッサ311が実行することにより実現される。第1送受信部414は、具体的には、たとえば、第1通信I/F315により実現される。
決定部411は、第1カメラC1によって撮影された人物Hの顔画像の有無に基づいて、人物Hの顔が向いている顔方向を決定する。具体的には、たとえば、決定部411は、既知の顔画像検出技術により、第1カメラC1の撮影画像について、人物の顔画像の検出を試行する。顔画像が検出された場合、決定部411は、第1カメラC1の撮影方向の逆方向を顔方向に決定する。
顔画像が検出されなかった場合、決定部411は、第1カメラC1の撮影方向を顔方向に決定する。一方、顔画像が検出された場合、決定部411は、顔画像内の顔を構成する部位の位置に基づいて、顔方向を決定してもよい。顔画像内の顔を構成する部位とは、目、鼻、耳、口、眉毛といった顔のパーツである。たとえば、顔画像内の縦の中心線に対し左右対称に目や耳、眉毛が検出された場合、決定部411は、第1カメラC1の撮影方向の逆方向を顔方向に決定する。
また、顔を構成する部位が中心線から左右いずれかに偏っている場合、決定部411は、その偏り度合に応じた角度分、第1カメラC1の撮影方向の逆方向から水平方向に旋回した方向を、顔方向に決定する。決定部411は、第1カメラC1の撮影方向の逆方向を基準として、この隔たり度合に応じた角度を計算により求める。また、第1記憶デバイス312に、顔を構成する部位の位置を示すテンプレートと、顔方向と、を対応付けた対応情報を記憶させておき、決定部411が、検出した顔画像とテンプレートとのマッチングを行い、該当するテンプレートに対応する顔方向を対応情報から取得してもよい。
移動制御部412は、制御装置201からの経路情報にしたがって、移動体Rが経路情報の到達地点まで移動するように、移動装置317を制御する。具体的には、たとえば、図1に示したように、移動制御部412は、経路情報ra,rbに従って目標地点G1,G2まで移動体Rを移動させる。
旋回制御部413は、制御装置201からの旋回制御情報に基づいて、第1カメラC1を旋回する。旋回制御情報は、旋回を制御するコマンド(旋回制御コマンド)であり、移動体Rから人物Hへの方向を示す情報(ベクトル)が含まれる。旋回制御部413は、具体的には、たとえば、現在の第1カメラC1の撮影方向から、旋回制御情報に含まれる人物Hへの方向への旋回角度を算出する。そして、旋回制御部413は、旋回角度を用いて、第1カメラC1の撮影方向を、人物Hへの方向に旋回する。
すなわち、第1カメラC1が移動体に固定されている場合、旋回制御部413は、移動装置317により移動体Rを人物Hへの方向に旋回させることで、第1カメラC1の撮影方向を旋回する。また、第1カメラC1が移動体において旋回可能である場合、旋回制御部413は、第1カメラC1を人物Hへの方向に旋回する。なお、第1カメラC1が移動体において旋回可能であっても、旋回制御部413は、移動体を旋回させることで、第1カメラC1を固定したまま、第1カメラC1の撮影方向を旋回してもよい。
第1送受信部414は、第1通信I/F315により、制御装置201に顔方向の情報や移動体Rの状態情報を制御装置201に送信したり、制御装置201から旋回制御情報を受信したりする。また、第1送受信部414は、第1通信I/F315により、移動体Rの状態情報を定期的に制御装置201に送信する。
管理部415は、移動体Rの挙動を監視し、その状態情報を管理する。状態情報は、たとえば、図1に示したように、移動体Rが、すでにある人物Hについて対応中である場合は、「対応中」というステータスであり、そうでない場合は、「非対応」というステータスである。「対応中」とは、所定の行動の期間中、すなわち、移動体Rが対象人物となった人物Hに移動を開始して、当該人物Hについて対話などの所定の行動が完了するまでの期間をいう。所定の行動が完了すると、移動体Rは、状態情報を「非対応」に更新する。
制御装置201は、検出部421と、算出部422と、生成部423と、特定部424と、設定部425と、第2送受信部426と、を有する。検出部421、算出部422、生成部423、特定部424、および設定部425は、具体的には、たとえば、第2記憶デバイス322に記憶されたプログラムを第2プロセッサ321が実行することにより実現される。第2送受信部426は、具体的には、たとえば、第2通信I/F325により実現される。
検出部421は、第2カメラC2によって撮影された領域100の画像に基づいて、領域100内における人物Hの位置および移動体Rの位置を検出する。制御装置201は、領域100に関するグローバル座標系を有しており、グローバル座標系での撮影範囲やグローバル座標系での第2カメラC2の位置を有する。制御装置201は、グローバル座標系を用いて、第2カメラC2の撮影画像から、人物Hの画像をテンプレートマッチングで検出し、撮影画像上における移動体Rの位置や人物Hの位置を検出する。
算出部422は、検出部421によって検出された人物Hの位置および移動体Rの位置と、決定部411によって決定された第1通信I/F315からの顔方向の情報と、に基づいて、移動体Rが、人物Hから所定範囲d内で、かつ、人物Hの視界VH内または視界VH外のうちいずれか一方の範囲内の位置(目標地点G1,G2)に到達する経路情報を算出する。
具体的には、たとえば、算出部422は、人物Hの位置を起点として、人物Hの顔方向を中心として(たとえば、視界VHの範囲を120度とした場合は、左右それぞれ60度となるように)、人物Hの視界VHを特定する。また、人物Hの視界VH内または視界VH外のうちいずれを選択するかは、あらかじめ設定される。算出部422は、人物Hの視界VH内に設定された場合、算出部422は、図1の(A)に示したように経路情報raを算出する。人物Hの視界VH外に設定された場合、算出部422は、図1の(B)に示したように経路情報rbを算出する。この場合、算出部422は、経路情報rbの各位置が、人物Hの視界VH外となるように、経路情報rbを算出するのが好ましい。なお、経路情報の探索は、既知の探索アルゴリズムが用いられる。
生成部423は、人物Hの位置および移動体Rの位置に基づいて、第1カメラC1の撮影方向を人物Hが撮影可能な方向に旋回させる旋回制御情報を生成する。旋回制御情報には、移動体Rから人物Hへの方向を示す情報が含まれる。この情報は、たとえば、グローバル座標系におけるベクトルである。旋回制御情報を移動体Rに送信することにより、第1カメラC1の撮影方向は人物Hの方向に向く。したがって、第2カメラC2で検出した人物Hを、第1カメラC1で撮影することができる。
特定部424は、第2カメラC2からの撮影画像に基づいて、人物Hの挙動を特定する。具体的には、たとえば、特定部424は、検出部421で検出された撮影画像を用いて、人物Hの画像を後続の撮影画像で追跡し、当該人物Hが停止しているか移動しているかという挙動を特定する。
設定部425は、特定部424によって特定された人物Hの挙動と、移動体Rの状態と、に基づいて、人物Hを移動体Rが所定の行動をする対象人物に設定する。具体的には、たとえば、設定部425は、特定部424によって特定された人物Hの挙動が「停止」であり、かつ、移動体Rの状態が、他の人物Hに対応中でない場合、すなわち、状態情報が「非対応」である場合、当該人物Hを、対象人物に設定する。これにより、旋回制御部413は、第1カメラC1の撮影方向を、対象人物に設定された人物Hが撮影可能な方向に旋回させる旋回制御コマンドを生成する。
第2送受信部426は、移動体Rから状態情報を受信したり、移動体Rに旋回制御コマンドを送信したりする。また、第2送受信部426は、経路情報を含む移動制御コマンドを移動体Rに送信する。
<特定部424による挙動特定例>
図5は、制御装置201の特定部424による挙動特定例を示す説明図である。(A)は、グローバル座標系500における第2カメラC2からの領域100の撮影画像a1を示す。(A)では、人物画像ha1が検出される。人物画像ha1の位置pa1を中心として人物画像ha1を包含する領域画像ga1が規定される。人物画像ha1の人物は、撮影画像a1で新規に撮影された人物である。
(B)は、(A)の撮影タイミングの次の撮影タイミングで撮影された、グローバル座標系500における第2カメラC2からの領域100の撮影画像a2を示す。(B)では、位置pa1から位置pa2に移動した人物画像ha1が検出される。人物画像ha1の位置pa2を中心として人物画像ha1を包含する領域画像ga2が規定される。特定部424は、(A)での位置pa1を中心とする所定範囲において、領域画像ga1を追跡する。そして、領域画像ga1と一致または所定の許容範囲内で類似する領域画像が検出された場合、当該領域画像を領域画像ga2として特定する。経路L12は、位置pa1から位置pa2へのベクトルである。
(C)は、(B)の撮影タイミングの次の撮影タイミングで撮影された、グローバル座標系500における第2カメラC2からの領域100の撮影画像a3を示す。(C)では、位置pa2から位置pa3に移動した人物画像ha1が検出される。人物画像ha1の位置pa3を中心として人物画像ha1を包含する領域画像ga3が規定される。特定部424は、(B)での位置pa2を中心とする所定範囲において、領域画像ga2を追跡する。そして、領域画像ga2と一致または所定の許容範囲内で類似する領域画像が検出された場合、当該領域画像を領域画像ga3として特定する。経路L23は、位置pa2から位置pa3へのベクトルである。また、(C)では、人物画像hb3の位置pb3を中心として人物画像hb3を包含する領域画像gb3が規定される。人物画像hb3の人物は、撮影画像a3で新規に撮影された人物である。
特定部424は、時系列な撮影画像a1,a2,a3,…において、同一の人物画像の各位置が、人物Hが停止しているとみなせる程度の許容範囲内であれば、当該人物Hの挙動は「停止」と判断する。そうでなければ、特定部424は、当該人物Hの挙動は「移動」と判断する。
<生成部423による旋回制御コマンドの生成例>
図6は、制御装置201の生成部423による旋回制御コマンドの生成例を示す説明図である。図6では、第2カメラC2からのある撮影画像aを示す。検出部421が、撮影画像aから移動体Rの位置prと人物H(人物画像h)の位置phとを検出すると、生成部423は、位置prから位置phへのベクトルvcrを生成する。この場合、生成部423は、位置prと位置phとの間に障害物600が存在しても考慮しない。生成部423は、第2送受信部426により、ベクトルvcrを含む旋回制御コマンドを移動体Rに送信する。
<決定部411による顔方向の決定例>
図7は、移動体Rの決定部411による顔方向の決定例を示す説明図である。(A)は、第1カメラC1の撮影画像701において、人物Hの画像h内で顔画像10が検出された例であり、(B)は、第1カメラC1の撮影画像702において、人物Hの画像h内で顔画像が検出されなかった例である。(A)では、顔画像710内の縦の中心線711に対し目や鼻、口、眉毛が左側に偏って検出されている。第1カメラC1の撮影方向を示すベクトルvcrは、旋回制御コマンドに含まれるベクトルである。決定部411は、ベクトルvcrの逆方向の線分から左側に、隔たりに応じた角度θ分、位置phを中心に旋回した方向を示すベクトルvchを特定する。このベクトルvchが指し示す方向が顔方向となる。(B)の撮影画像702では顔画像が検出されないため、決定部411は、ベクトルvcrが指し示す撮影方向を顔方向に決定する。
<算出部422による経路情報の算出例>
図8は、制御装置201の算出部422による経路情報の算出例を示す説明図である。図8では、移動体Rから人物Hの顔画像が検出された場合に、移動体Rの位置prから人物Hの視界VH内の目標地点Gに到達する経路情報raを算出する例である。算出部422は、障害物600を回避し、かつ、最短経路となるように経路情報raを算出する。具体的には、たとえば、算出部422は、半径dの円900の円周上で、かつ、視界VH内の弧901上において、最短経路となる目標地点Gを特定し、経路情報raを算出する。
図9は、制御装置201の算出部422による経路情報の算出例を示す説明図である。図9では、移動体Rから人物Hの顔画像が検出されなかった場合に、移動体Rの位置prから人物Hの視界VH内の目標地点Gに到達する経路情報raを算出する例である。算出部422は、障害物910を回避し、かつ、最短経路となるように経路情報raを算出する。具体的には、たとえば、算出部422は、半径dの円900の円周上で、かつ、視界VH内の弧901上において、最短経路となる目標地点Gを特定し、経路情報raを算出する。
なお、図8および図9のいずれの場合においても、移動体Rの位置prから人物Hの視界VH外の目標地点Gに到達する経路情報を算出する場合は、算出部422は、目標地点Gを円900の円周上の弧902上に目標地点Gを設定して、経路情報を算出すればよい。
<制御システムによる制御処理手順例>
図10は、実施例1にかかる制御システムによる制御処理手順例を示すフローチャートである。左側のフローチャートは、制御装置201の処理手順例を示しており、右側のフローチャートは、移動体Rの処理手順例を示している。また、両フローチャート間の点線矢印は、データの送信を示している。まず、制御装置201のフローチャートについて説明する。
まず、制御装置201は、検出部421により、検出処理を実行する(ステップS1011)。これにより、対象人物に設定された人物Hの位置と、移動体Rの位置と、が検出される。
つぎに、制御装置201は、図5に示したように、特定部424により特定処理を実行する(ステップS1012)。特定処理(ステップS1012)の詳細な処理手順例については後述するが、これにより、人物Hの挙動が特定される。
つぎに、制御装置201は、移動体Rから状態情報を受信すると、設定部425により、人物Hの挙動情報と、移動体Rの状態情報と、に基づいて、設定処理を実行する(ステップS1013)。設定処理(ステップS1013)の詳細な処理手順例については後述するが、これにより、人物Hが、移動体Rが所定の行動をすべき対象人物に設定される。なお、設定処理(ステップS1013)では、制御装置201は、移動体Rを停止させるための停止制御コマンドを移動体Rに送信する場合がある。
つぎに、制御装置201は、図6に示したように、生成部423により、生成処理を実行する(ステップS1014)。生成処理(ステップS1014)の詳細な処理手順例については後述するが、これにより、移動体Rから対象人物に設定された人物Hへのベクトルvcrが生成され、第2送受信部426により、旋回制御コマンドとして移動体Rに送信される。
最後に、制御装置201は、移動体Rから顔方向の情報を受信すると、図8および図9に示したように、算出部422により、算出処理を実行する(ステップS1015)。算出処理(ステップS1015)の詳細な処理手順例については後述するが、これにより、移動体Rから対象人物に設定された人物Hへの経路情報が算出され、第2送受信部426により、移動制御コマンドとして移動体Rに送信される。つぎに、移動体Rのフローチャートについて説明する。
まず、移動体Rは、第1送受信部414により、移動体Rの状態情報を制御装置201に送信する(ステップS1021)。つぎに、移動体Rは、制御装置201から送信されてきたコマンドの種別を判別する(ステップS1022)。受信したコマンドの種別が停止制御コマンドである場合(ステップS1022:停止)、移動体Rは、停止制御コマンドにより移動装置317を制御して停止する(ステップS1023)。これにより、移動体Rの処理は終了する。
一方、受信したコマンドの種別が旋回制御コマンドである場合(ステップS1022:旋回)、移動体Rは、旋回制御コマンドに含まれるベクトルvcrと、第1カメラC1の撮影方向を示すベクトルとのなす角度を旋回角度として算出し、第1カメラC1の旋回角度分旋回する(ステップS1024)。これにより、第1カメラC1が撮影するスルー画像に、制御装置201の設定部425で対象人物に設定された人物Hが映り、当該人物Hが撮影される。
つぎに、移動体Rは、図7に示したように、決定部411により、決定処理を実行する(ステップS1025)。決定処理(ステップS1025)の詳細な処理手順例については後述するが、これにより、人物Hの顔方向が決定され、第1送受信部414により、制御装置201に送信される。
最後に、移動体Rは、経路情報を含む移動制御コマンドを制御装置201から受信すると、移動装置317を制御して、経路情報に従って目標地点に移動する(ステップS1206)。これにより、移動体Rが対応する人物Hへの移動体Rの行動が改善される。
<特定処理(ステップS1012)>
図11は、図10に示した制御装置201における特定処理(ステップS1012)の詳細な処理手順例を示すフローチャートである。本フローチャートは、第2カメラC2から撮影画像が取得される都度実行される。なお、本フローチャートでは、便宜的に、検出部421による人物Hの画像の検出処理(ステップS1011)を含めた処理として説明する。特定部424は、第2カメラC2から撮影画像を取得すると(ステップS1101)、検出済み人物画像がすでにあるか否かを判断する(ステップS1102)。検出済み人物画像とは、1つ前のタイミングで取得された撮影画像で検出された人物画像である。たとえば、図5において、今回ステップS1101で取得された撮影画像をa2とすると、1つ前のタイミングで取得された撮影画像はa1であり、検出済みの人物画像は、ha1となる。
検出済み人物画像がない場合(ステップS1102:No)、ステップS1105に移行する。一方、ある場合(ステップS1102:Yes)、特定部424は、ステップS1101の撮影画像内で、検出済み画像を追跡する(ステップS1103)。具体的には、たとえば、特定部424は、撮影画像a2内で、撮影画像a1での検出済み画像ha1の位置pa1を中心とした所定範囲内で、検出済み画像ha1を含む領域画像ga1と一致または所定の許容範囲内で類似する領域画像ga2を、既知の類似画像検索技術を用いて特定する。
つぎに、特定部424は、検出済み人物画像の人物の状態を判定する(ステップS1104)。具体的には、たとえば、特定部424は、検出済み人物画像の時系列な位置により、その人物Hが停止しているか移動しているかを判定する。同一の人物画像の各位置が、人物が停止しているとみなせる程度の許容範囲内であれば、特定部424は、当該人物の挙動は「停止」と判定する。そうでなければ、特定部424は、当該人物の挙動は「移動」と判定する。
つぎに、特定部424は、ステップS1101の撮影画像内で、テンプレートマッチングによる人物画像の検出を試行する(ステップS1105)。これにより、ある撮影タイミングでの特定処理(ステップS1012)が終了する。
<設定処理(ステップS1013)>
図12は、図10に示した制御装置201における設定処理(ステップS1013)の詳細な処理手順例を示すフローチャートである。まず、設定部425は、特定部424によって特定された人物Hの挙動の情報を取得する(ステップS1201)。つぎに、設定部425は、ステップS1021で移動体Rの状態情報を待ち受ける(ステップS1202:No)。移動体Rの状態情報を受信した場合(ステップS1202:Yes)、設定部425は、受信した移動体Rの状態情報を参照して、移動体Rが人物Hに対応中であるか否かを判断する(ステップS1203)。
対象人物に対応中である場合(ステップS1203:Yes)、設定部425は、撮影画像を参照して、移動体Rの現在位置が、対象人物の位置を中心とする対話可能距離内であるか否かを判断する(ステップS1204)。対話可能距離とは、人物Hと移動体Rとの間で対話が可能な距離としてあらかじめ設定された距離である。対話可能距離内である場合(ステップS1204:Yes)、移動体Rは所定の行動を継続するため、設定部425は設定処理(ステップS1013)を終了する。
対話可能距離内でない場合(ステップS1204:No)、設定部425は、挙動情報を参照して、対象人物が移動したか否かを判断する(ステップS1205)。移動していない場合(ステップS1205:No)、移動体Rは所定の行動を継続するため、設定部425は設定処理(ステップS1013)を終了する。移動した場合(ステップS1205:Yes)、移動体Rの対象人物への所定の行動は終了したことになるため、設定部425は、停止制御コマンドを生成する(ステップS1206)。停止制御コマンドに替えて、あらかじめ設定した初期位置に戻る移動制御コマンドでもよい。
つぎに、設定部425は、第2送受信部426により停止制御コマンドを移動体Rに送信する(ステップS1207)。この場合、対象人物の設定を行わずに、設定部425は、設定処理(ステップS1013)を終了する。
一方、ステップS1203において、移動体Rが対象人物に対応中でない場合(ステップS1203:No)、設定部425は、挙動情報を参照して、停止中の人物Hの人物画像が撮影画像内に存在するか否かを判断する(ステップS1208)。存在しない場合(ステップS1208:No)、対象人物の設定を行わずに、設定部425は、設定処理(ステップS1013)を終了する。
一方、存在する場合(ステップS1208:Yes)、設定部425は、挙動情報が得られた人物Hを対象人物に設定する(ステップS1209)。なお、挙動情報が得られた人物Hが複数存在する場合、設定部425は、移動体Rに最も近い位置に存在する人物Hを対象人物に設定する。これにより、移動体Rは最短経路で対象人物に接近することができる。このあと、設定部425は、設定処理(ステップS1013)を終了する。
<生成処理(ステップS1014)>
図13は、図10に示した制御装置201における生成処理(ステップS1014)の詳細な処理手順例を示すフローチャートである。生成部423は、図6に示したように、移動体Rの現在位置から対象人物の位置までの方向を示すベクトルを算出する(ステップS1301)。つぎに、生成部423は、算出したベクトルを含む旋回制御コマンドを生成し(ステップS1302)、第2送受信部426により、旋回制御コマンドを移動体Rに送信する(ステップS1303)。これにより、生成部423は、生成処理(ステップS1014)を終了する。
<決定処理(ステップS1025)>
図14は、図10に示した移動体Rにおける決定処理(ステップS1025)の詳細な処理手順例を示すフローチャートである。決定部411は、第2カメラC2からの撮影画像を取得する(ステップS1401)。つぎに、決定部411は、撮影画像から顔画像の検出を試行する(ステップS1402)。具体的には、たとえば、図7の(A)に示したように、決定部411は、撮影画像701から顔画像710を検出する。図7の(B)の場合は、顔画像は検出されない。
つぎに、決定部411は、検出された顔画像があるか否かを判断する(ステップS1403)。顔画像がある場合(ステップS1403:Yes)、決定部411は、図7の(A)に示したように顔方向を算出する(ステップS1404)。これにより、顔方向検出の高精度化を図ることができる。なお、単に、ベクトルvcrの逆方向を顔方向としてもよい。これにより、顔方向検出の簡略化を図ることができる。
一方、顔画像が検出されなかった場合(ステップS1403:No)、決定部411は、ベクトルvcrの方向を顔方向に決定する(ステップS1405)。これにより、顔画像が検出されなくても顔方向を推定することができる。最後に、決定部411は、顔方向を示すベクトルvchを顔方向情報として制御装置201に送信する(ステップS1406)。これにより、決定部411は、決定処理(ステップS1025)を終了する。
<算出処理(ステップS1015)>
図15は、図10に示した算出処理(ステップS1015)の詳細な処理手順例を示すフローチャートである。まず、算出部422は、移動体から顔方向情報の受信を待ち受ける(ステップS101:No)。顔方向情報を受信した場合(ステップS1501:Yes)、算出部422は、図8または図9に示したように、経路情報を算出する(ステップS1502)。つぎに、算出部422は、経路情報を含む移動制御コマンドを生成して(ステップS1503)、第2送受信部426により移動制御コマンドを移動体Rに送信する(ステップS1504)。これにより、算出部422は、算出処理(ステップS1015)を終了する。
このように、実施例1では、制御装置201は、移動体Rから観測できる人物Hのほか、移動体Rから観測できない人物Hや、移動体Rから顔が検出できない人物H、移動体Rにあらかじめ設定された特定人物以外の人物Hについても、移動体Rに所定の行動をさせることができる。したがって、移動体Rが所定の行動をする人物Hへの移動体Rの行動が改善される。具体的には、移動体Rを人物Hの視界VH内の位置に接近させる場合、移動体Rが人物Hに接近しても気づかれなかった状況が改善される。また、移動体Rを人物Hの視界VH外の位置に接近させる場合、移動体Rは、人物Hに気付かれないように接近することができ、移動体Rが人物Hに接近する場合に気付かれる状況が改善される。
また、顔方向の決定に際し、顔画像が検出された場合に第1カメラC1の撮影方向とは逆方向を顔方向に決定することにより、顔方向の決定の容易化を図ることができる。また、顔を構成する部位の位置に基づいて、顔方向を決定することにより、顔方向の高精度化を図ることができる。また、顔画像が検出されない場合、第1カメラC1の撮影方向を顔方向に決定することにより、顔画像がなくても顔方向を推定することができる。このように、顔方向を決定することができるため、移動体Rの人物Hの視界VH内外の位置への接近方法に応じて、目標地点を設定することができる。
また、第1カメラC1を対象人物の方向に旋回させることにより、第2カメラC2で特定した人物Hを、第1カメラC1に撮影させることができる。したがって、移動体Rによる人物Hの捕捉精度の向上を図ることができる。また、人物Hの挙動や移動体Rの状態に応じて対象人物を設定することにより、人物Hの絞り込み精度の向上を図ることができる。
なお、図14のステップS1403において、顔画像がない場合(ステップS1403:No)、移動体Rは、第1カメラC1の撮影方向を顔方向に決定することとしたが(ステップS1405)、顔方向を決定せずに、ステップS1406で顔方向の決定不可通知を制御装置201に返してもよい。この場合、制御装置201は、ステップS1502において経路情報を算出する際、人物Hの時系列な位置により構成される移動軌跡に基づいて、移動体Rの目標地点を算出してもよい。
具体的には、たとえば、制御装置201は、移動体Rの現在地点が人物Hの移動軌跡から外れている場合、人物Hの移動軌跡上の最短で移動可能な地点を目標地点として、経路情報を算出する。これにより、人物Hの顔方向が得られない場合であっても、人物Hの移動軌跡を移動体Rに捕捉させることができる。
一方、移動体Rの現在地点が人物Hの移動軌跡上である場合、制御装置201は、人物Hの現在地点を目標地点として、当該移動軌跡を経路情報に設定する。この場合、経路情報の算出は不要となるため、人物Hの顔方向が得られない場合であっても、移動体Rを人物Hに接近させることができる。また、このように、人物Hの移動軌跡上を移動体Rに追跡させることにより、人物Hが振り向いた場合には、移動体Rは顔画像を検出することができる。
実施例2について説明する。実施例1では、人物Hの顔方向の決定処理(ステップS1025)を移動体Rに実行させた例について説明したが、実施例2では、人物Hの顔方向の決定処理(ステップS1025)を制御装置201で実行する例である。
実施例2の場合、移動体Rでは人物Hの顔方向の決定処理(ステップS1025)を実行しないため、第1カメラC1は不要である。したがって、第1カメラC1を搭載しない移動体Rでも、実施例1と同等の制御処理を実現することができる。また、移動体Rに第1カメラC1が不要であるため、旋回制御も不要となる。すなわち、生成処理(ステップS1014)を実行する必要がないため、制御装置201での処理の高速化を図ることができる。
また、移動体Rで決定処理(ステップS1025)を実行する必要がないため、移動体Rでの処理負荷の低減を図ることができる。また、制御装置201が決定処理(ステップS1025)を実行するため、実施例1のように移動体Rから顔方向情報の受信を待つ必要がなく、移動体Rでの処理の高速化を図ることができる。また、第1カメラC1が不要であるため、移動体Rの低廉化を図ることができる。
なお、実施例2では、実施例1との相違点を中心に説明し、実施例1と共通する部分については同一符号を付し、その説明を省略する。
<制御システムの機能的構成例>
図16は、実施例2にかかる制御システムの機能的構成例を示すブロック図である。実施例1との違いは、実施例1では、図4において、移動体Rに決定部411を設けたのに対し、実施例2では、移動体Rから決定部411を取り除き、制御装置201に決定部1600を設けた点である。
決定部1600は、図7に示したような顔方向の決定を行わない。その代わり、決定部1600は、図5において、人物Hの時系列な移動経路が特定された場合、その人物Hが向いている方向を顔方向に決定する。たとえば、図5の(B)では、決定部1600は、1つ前のタイミングで取得された撮影画像a1での人物画像ha1の位置pa1から今回のタイミングで取得された撮影画像a2での人物画像ha1の位置pa2への経路L12が指し示す方向を、当該人物Hの顔方向に決定する。同様に、図5の(C)では、決定部1600は、1つ前のタイミングで取得された撮影画像a2での人物画像ha1の位置pa2から今回のタイミングで取得された撮影画像a3での人物画像ha1の位置pa3への経路L23が指し示す方向を、当該人物Hの顔方向に決定する。
<制御システム200による制御処理手順例>
図17は、実施例2にかかる制御システム200による制御処理手順例を示すフローチャートである。左側のフローチャートでは、制御装置201は、検出処理(ステップS1011)のあと、決定部1600による顔方向決定処理を実行する(ステップS1714)。そして、制御装置201は、決定した顔方向情報を移動体Rに送信することなく、算出処理(ステップS1015)を実行する。
また、右側のフローチャートでは、移動体Rは、状態情報を送信(ステップS1021)してから一定期間内に停止制御コマンドを受信したか否かを判断する(ステップS1722)。受信した場合(ステップS1722:Yes)、移動体Rは移動を停止する(ステップS1023)。一方、受信しなかった場合(ステップS1722:No)、移動体Rは、移動制御コマンドを受信すると、経路情報に従って移動する(ステップS1026)。
このように、実施例2によれば、実施例1と同様、制御装置201は、移動体Rから観測できる人物Hのほか、移動体Rから観測できない人物Hや、移動体Rから顔が検出できない人物H、移動体Rにあらかじめ設定された特定人物以外の人物Hについても、移動体Rに所定の行動をさせることができる。したがって、移動体Rが所定の行動をする人物Hへの移動体Rの行動が改善される。具体的には、移動体Rを人物Hの視界VH内の位置に接近させる場合、移動体Rが人物Hに接近しても気づかれなかった状況が改善される。また、移動体Rを人物Hの視界VH外の位置に接近させる場合、移動体Rは、人物Hに気付かれないように接近することができ、移動体Rが人物Hに接近する場合に気付かれる状況が改善される。
また、上述したように、移動体Rでは第1カメラC1は不要であるため、第1カメラC1を搭載しない移動体Rでも、実施例1と同等の制御処理を実現することができる。また、移動体Rに第1カメラC1が不要であるため、生成処理(ステップS1014)を実行する必要がなく、制御装置201での処理の高速化を図ることができる。
また、移動体Rで決定処理(ステップS1025)を実行する必要がないため、移動体Rでの処理負荷の低減を図ることができる。また、制御装置201が決定処理(ステップS1714)を実行するため、実施例1のように移動体Rから顔方向情報の受信を待つ必要がなく、移動体Rでの処理の高速化を図ることができる。また、第1カメラC1が不要であるため、移動体Rの低廉化を図ることができる。
なお、本発明は前述した実施例に限定されるものではなく、添付した特許請求の範囲の趣旨内における様々な変形例及び同等の構成が含まれる。例えば、前述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに本発明は限定されない。また、ある実施例の構成の一部を他の実施例の構成に置き換えてもよい。また、ある実施例の構成に他の実施例の構成を加えてもよい。また、各実施例の構成の一部について、他の構成の追加、削除、または置換をしてもよい。
また、前述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等により、ハードウェアで実現してもよく、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することにより、ソフトウェアで実現してもよい。
各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記憶装置、又は、IC(Integrated Circuit)カード、SDカード、DVD(Digital Versatile Disc)の記録媒体に格納することができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要な全ての制御線や情報線を示しているとは限らない。実際には、ほとんど全ての構成が相互に接続されていると考えてよい。

Claims (10)

  1. 領域内を移動する移動体と、前記移動体を制御する制御装置と、を有する制御システムであって、
    前記移動体は、
    第1プログラムを実行する第1プロセッサと、前記第1プログラムを記憶する第1記憶デバイスと、前記制御装置と通信する第1インタフェースと、前記移動体を移動させる移動装置と、前記領域内の人物を撮影する第1カメラと、を有し、
    前記第1プロセッサは、
    前記第1カメラによって撮影された前記人物の顔画像の有無に基づいて、前記人物の顔が向いている顔方向を決定する決定処理と、
    前記移動体が前記制御装置から送信された経路情報にしたがって移動するように前記移動装置を制御する移動制御処理と、を実行し、
    前記制御装置は、
    第2プログラムを実行する第2プロセッサと、前記第2プログラムを記憶する第2記憶デバイスと、前記移動体と通信する第2インタフェースと、前記領域内の前記人物および前記移動体を撮影する第2カメラと、を有し、
    前記第2プロセッサは、
    前記第2カメラによって撮影された前記領域の画像に基づいて、前記領域内における前記人物の位置および前記移動体の位置を検出する検出処理と、
    前記検出処理によって検出された前記人物の位置および前記移動体の位置と、前記決定処理によって決定された前記第1インタフェースから送信された前記顔方向の情報と、に基づいて、前記移動体が、前記人物の視界外でかつ前記人物を中心とする所定範囲外から前記視界内でかつ前記所定範囲内を経由せずに前記所定範囲内でかつ前記人物の視界内の位置に到達する経路を示す前記経路情報を算出する算出処理と、
    前記算出処理によって算出された前記経路情報を前記移動体に送信する送信処理と、
    を実行することを特徴とする制御システム。
  2. 請求項1に記載の制御システムであって、
    前記決定処理では、前記第1プロセッサは、前記顔画像がある場合、前記第1カメラの撮影方向の逆方向を前記顔方向に決定することを特徴とする制御システム。
  3. 請求項1に記載の制御システムであって、
    前記決定処理では、前記第1プロセッサは、前記顔画像がある場合、前記顔画像内の顔を構成する部位の位置に基づいて、前記顔方向を決定することを特徴とする制御システム。
  4. 請求項1に記載の制御システムであって、
    前記決定処理では、前記第1プロセッサは、前記顔画像がない場合、前記第1カメラの撮影方向を前記顔方向に決定することを特徴とする制御システム。
  5. 請求項1に記載の制御システムであって、
    前記第2プロセッサは、
    前記人物の位置および前記移動体の位置に基づいて、前記第1カメラの撮影方向を前記人物が撮影可能な方向に旋回させる旋回制御情報を生成する生成処理を実行し、
    前記送信処理では、前記第2プロセッサは、前記生成処理によって生成された前記旋回制御情報を前記移動体に送信し、
    前記第1プロセッサは、
    前記第1インタフェースによって受信された前記制御装置から送信された前記旋回制御情報に基づいて、前記第1カメラを旋回する旋回制御処理を実行し、
    前記決定処理では、前記第1プロセッサは、前記旋回制御処理による旋回後における前記第1カメラによって撮影された前記人物の顔画像の有無に基づいて、前記顔方向を決定することを特徴とする制御システム。
  6. 請求項5に記載の制御システムであって、
    前記第2プロセッサは、
    前記第2カメラから撮影した画像に基づいて、前記人物の挙動を特定する特定処理と、
    前記特定処理によって特定された前記人物の挙動と、前記移動体の状態と、に基づいて、前記人物を、前記移動体が所定の行動をする対象人物に設定する設定処理と、
    を実行し、
    前記生成処理では、前記第2プロセッサは、前記対象人物に設定された前記人物の位置および前記移動体の位置に基づいて、前記第1カメラの撮影方向を前記人物が撮影可能な方向に旋回させる旋回制御情報を生成することを特徴とする制御システム。
  7. 領域内を移動する移動体と、前記移動体を制御する制御装置と、を有する制御システムであって、
    前記移動体は、
    第1プログラムを実行する第1プロセッサと、前記第1プログラムを記憶する第1記憶デバイスと、前記制御装置と通信する第1インタフェースと、前記移動体を移動させる移動装置と、を有し、
    前記第1プロセッサは、
    前記移動体が前記制御装置から送信された経路情報にしたがって移動するように前記移動装置を制御する移動制御処理を実行し、
    前記制御装置は、
    第2プログラムを実行する第2プロセッサと、前記第2プログラムを記憶する第2記憶デバイスと、前記移動体と通信する第2インタフェースと、前記領域内の人物および前記移動体を撮影する第2カメラと、を有し、
    前記第2プロセッサは、
    前記第2カメラによって撮影された前記領域の画像に基づいて、前記領域内における前記人物の位置および前記移動体の位置を検出する検出処理と、
    前記検出処理によって検出された前記人物の時系列な位置で特定される移動経路が指し示す方向に基づいて、前記人物の顔が向いている顔方向を決定する決定処理と、
    前記検出処理によって検出された前記人物の位置および前記移動体の位置と、前記決定処理によって決定された前記顔方向と、に基づいて、前記移動体が、前記人物の視界外でかつ前記人物を中心とする所定範囲外から前記視界内でかつ前記所定範囲内を経由せずに前記所定範囲内でかつ前記人物の視界内の位置に到達する経路を示す前記経路情報を算出する算出処理と、
    前記算出処理によって算出された前記経路情報を前記移動体に送信する送信処理と、
    を実行することを特徴とする制御システム。
  8. 請求項7に記載の制御システムであって、
    前記移動体は、
    前記領域内の前記人物を撮影する第1カメラを有し、
    前記第2プロセッサは、
    前記人物の位置および前記移動体の位置に基づいて、前記第1カメラの撮影方向を前記人物が撮影可能な方向に旋回させる旋回制御情報を生成する生成処理を実行し、
    前記送信処理では、前記第2プロセッサは、前記生成処理によって生成された前記旋回制御情報を前記移動体に送信し、
    前記第1プロセッサは、
    前記第1インタフェースによって受信された前記制御装置から送信された前記旋回制御情報に基づいて、前記第1カメラを旋回する旋回制御処理を実行することを特徴とする制御システム。
  9. 請求項8に記載の制御システムであって、
    前記第2プロセッサは、
    前記第2カメラから撮影した画像に基づいて、前記人物の挙動を特定する特定処理と、
    前記特定処理によって特定された前記人物の挙動と、前記移動体の状態と、に基づいて、前記人物を前記移動体が所定の行動をする対象人物に設定する設定処理と、を実行し、
    前記生成処理では、前記第2プロセッサは、前記対象人物に設定された前記人物の位置および前記移動体の位置に基づいて、前記第1カメラの撮影方向を前記人物が撮影可能な方向に旋回させる旋回制御情報を生成することを特徴とする制御システム。
  10. 領域内を撮影する第1カメラを有し、当該領域内を移動する移動体を制御する制御装置であって、
    プログラムを実行するプロセッサと、前記プログラムを記憶する記憶デバイスと、前記移動体と通信するインタフェースと、前記領域内の人物および前記移動体を撮影する第2カメラと、を有し、
    前記プロセッサは、
    前記第2カメラによって撮影された前記領域の画像に基づいて、前記領域内における前記人物の位置および前記移動体の位置を検出する検出処理と、
    前記検出処理によって検出された前記人物の位置および前記移動体の位置に基づいて、前記第1カメラの撮影方向を前記人物が撮影可能な方向に旋回させる旋回制御情報を生成する生成処理と、
    前記生成処理によって生成された前記旋回制御情報を前記移動体に送信する第1送信処理と、
    前記第1送信処理によって前記旋回制御情報を前記移動体に送信した結果、前記人物の顔が向いている顔方向の情報を前記移動体から受信した場合、前記人物の位置および前記移動体の位置と、前記顔方向と、に基づいて、前記移動体が、前記人物の視界外でかつ前記人物を中心とする所定範囲外から前記視界内でかつ前記所定範囲内を経由せずに前記所定範囲内でかつ前記人物の視界内の位置に到達する経路を示す経路情報を算出する算出処理と、
    前記算出処理によって算出された前記経路情報を前記移動体に送信する第2送信処理と、
    を実行することを特徴とする制御装置。
JP2018510193A 2016-04-07 2016-04-07 制御システムおよび制御装置 Active JP6600740B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/061429 WO2017175360A1 (ja) 2016-04-07 2016-04-07 制御システムおよび制御装置

Publications (2)

Publication Number Publication Date
JPWO2017175360A1 JPWO2017175360A1 (ja) 2018-06-07
JP6600740B2 true JP6600740B2 (ja) 2019-10-30

Family

ID=60000953

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018510193A Active JP6600740B2 (ja) 2016-04-07 2016-04-07 制御システムおよび制御装置

Country Status (3)

Country Link
US (1) US10732643B2 (ja)
JP (1) JP6600740B2 (ja)
WO (1) WO2017175360A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018112775A (ja) * 2017-01-06 2018-07-19 富士ゼロックス株式会社 自律移動ロボット
JP6824838B2 (ja) * 2017-07-07 2021-02-03 株式会社日立製作所 作業データ管理システム及び作業データ管理方法
CN108415434B (zh) * 2018-03-29 2021-05-25 五邑大学 一种机器人调度方法
US11906968B2 (en) * 2018-09-05 2024-02-20 Sony Group Corporation Mobile device, mobile device control system, method, and program
US10926416B2 (en) * 2018-11-21 2021-02-23 Ford Global Technologies, Llc Robotic manipulation using an independently actuated vision system, an adversarial control scheme, and a multi-tasking deep learning architecture
WO2020152778A1 (ja) * 2019-01-22 2020-07-30 本田技研工業株式会社 同行移動体
DE102019101569A1 (de) * 2019-01-23 2020-07-23 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum fahrerlosen Umsetzen eines Fahrzeugs über eine Strecke innerhalb eines abgeschlossenen Geländes
KR20210137049A (ko) * 2019-02-11 2021-11-17 643에이아이 엘티디. 다수의 자율 주행 차량을 관리하기 위한 시스템 및 방법
JP7281306B2 (ja) * 2019-03-06 2023-05-25 パナソニックホールディングス株式会社 移動体管理装置、及び、移動体管理方法
US11574515B2 (en) 2019-04-05 2023-02-07 The Government of the United States of America, as represented by the Secretary of Homeland Security Fully-automated self-divesting screening system and method
US11373387B2 (en) * 2019-04-05 2022-06-28 The Government of the United States of America, as represented by the Secretary of Homeland Security Fully-automated self-divesting screening system and method
WO2021161374A1 (ja) * 2020-02-10 2021-08-19 三菱電機株式会社 制御装置及び学習装置
JP7467400B2 (ja) 2021-09-22 2024-04-15 Kddi株式会社 移動店舗管理システム、移動店舗管理装置、移動店舗管理方法及びコンピュータプログラム
CN114092822B (zh) * 2022-01-24 2022-07-26 广东皓行科技有限公司 图像处理方法、移动控制方法以及移动控制系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4940698B2 (ja) * 2006-02-27 2012-05-30 トヨタ自動車株式会社 自律移動型ロボット
JP4949969B2 (ja) * 2007-08-20 2012-06-13 国立大学法人埼玉大学 コミュニケーションロボットとその動作方法
JP5088875B2 (ja) * 2008-01-23 2012-12-05 株式会社Ihi 移動ロボット及び移動ロボットの行動制御方法
JP5674307B2 (ja) * 2009-12-17 2015-02-25 グローリー株式会社 対象者検出システムおよび対象者検出方法
JP5730518B2 (ja) * 2010-08-27 2015-06-10 株式会社日立国際電気 特定人物検知システムおよび特定人物検知方法
US10409292B2 (en) * 2015-12-10 2019-09-10 Panasonic Intellectual Property Corporation Of America Movement control method, autonomous mobile robot, and recording medium storing program

Also Published As

Publication number Publication date
US10732643B2 (en) 2020-08-04
US20180246525A1 (en) 2018-08-30
WO2017175360A1 (ja) 2017-10-12
JPWO2017175360A1 (ja) 2018-06-07

Similar Documents

Publication Publication Date Title
JP6600740B2 (ja) 制御システムおよび制御装置
US11112261B2 (en) Navigation methods and apparatus for the visually impaired
KR101776621B1 (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US10144135B2 (en) System, method and computer program product for handling humanoid robot interaction with human
KR20140031316A (ko) 이동하는 개체를 이동 로봇을 이용하여 추적 및 추종하는 기법
US10890600B2 (en) Real-time visual-inertial motion tracking fault detection
KR20180022568A (ko) 정보 처리장치 및 그 방법과, 컴퓨터 판독가능한 기억매체
EP2998934B1 (en) Image processing device, image processing method, and program
JP2017054475A (ja) 遠隔操作装置、方法及びプログラム
US9829708B1 (en) Method and apparatus of wearable eye pointing system
US11801602B2 (en) Mobile robot and driving method thereof
KR102560462B1 (ko) 이동 로봇
CN109465819A (zh) 人体识别系统及人体识别方法
JP2018078514A (ja) 撮像装置及び自動制御システム
WO2016039158A1 (ja) 移動体制御装置及び移動体
JP2016070762A (ja) 対象物の三次元位置を検出する検出方法および検出装置
JP2023502239A (ja) 広視野角のステレオカメラ装置およびこれを利用した深度画像処理方法
JP6677474B2 (ja) 周辺認識装置
JP2018169787A (ja) 自律型モビリティシステムおよび自律型モビリティの制御方法
US11589001B2 (en) Information processing apparatus, information processing method, and program
US11423545B2 (en) Image processing apparatus and mobile robot including same
WO2022091787A1 (ja) コミュニケーションシステム、ロボット、及び記憶媒体
JP2018085579A (ja) 撮像装置、制御方法、及び情報処理プログラム
JP6845121B2 (ja) ロボットおよびロボット制御方法
US20180065247A1 (en) Configuring a robotic camera to mimic cinematographic styles

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191007

R150 Certificate of patent or registration of utility model

Ref document number: 6600740

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150