JP2023133343A - ロボット、方向制御方法及びプログラム - Google Patents

ロボット、方向制御方法及びプログラム Download PDF

Info

Publication number
JP2023133343A
JP2023133343A JP2023114802A JP2023114802A JP2023133343A JP 2023133343 A JP2023133343 A JP 2023133343A JP 2023114802 A JP2023114802 A JP 2023114802A JP 2023114802 A JP2023114802 A JP 2023114802A JP 2023133343 A JP2023133343 A JP 2023133343A
Authority
JP
Japan
Prior art keywords
image
robot
change
detection
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023114802A
Other languages
English (en)
Inventor
哲司 牧野
Tetsuji Makino
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2023114802A priority Critical patent/JP2023133343A/ja
Publication of JP2023133343A publication Critical patent/JP2023133343A/ja
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D3/00Control of position or direction
    • G05D3/12Control of position or direction using feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】負荷を抑えつつも、画像全体から検知を行う。【解決手段】画像処理装置120は、取得部130と、顔検出部140と、変化検出部150とを備える。取得部130は、撮像部105によって連続して撮像された画像を取得する。顔検出部140は、取得された画像の中央領域から所定の対象(人物の顔)を検出する検出処理(顔検出処理)を実行する。変化検出部150は、取得された画像の中央領域の周りの周辺領域における経時的な変化を検出する。【選択図】図3

Description

本発明は、画像処理装置、ロボット、画像処理方法及びプログラムに関する。
撮像された画像から人物の顔を検出する顔検出処理が知られている。特許文献1には、顔検出処理の負荷を抑えるために、撮像された画像の中央領域のみを対象に顔検出処理を行う方法が記載されている。
特開2009-20163号公報
特許文献1に記載の方法では、画像の中央領域の周りの周辺領域に対しては顔検出処理が実行されない。そのため、特許文献1に記載の方法では、画像の範囲外から周辺領域に人物が入ってきたような場合には、その旨を検知することができない。
本発明は上記実情に鑑みてなされたものであり、負荷を抑えつつも、画像全体から検知を行うことができる画像処理装置、ロボット、画像処理方法及びプログラムを提供することを目的とする。
上記目的を達成するため、本発明に係る画像処理装置は、
連続して撮像された画像を取得する取得手段と、
前記取得された画像の中央領域から所定の対象を検出する第1検出処理を実行する対象検出手段と、
前記取得された画像の前記中央領域以外の他の領域における経時的な変化を、前記第1検出処理よりも負荷が小さい第2検出処理を実行することにより検出する変化検出手段と、
を備えることを特徴とする。
本発明によれば、負荷を抑えつつも、画像全体から検知を行うことが可能となる。
本発明の実施形態に係るロボットの外観を示す図である。 実施形態に係るロボットのハードウェア構成を示すブロック図である。 実施形態に係るロボットの機能的な構成を示すブロック図である。 実施形態に係るロボットによって実行されるロボット制御処理の流れを示すフローチャートである。 実施形態に係るロボットによって実行されるロボット制御処理の具体例を説明するための図である(その1)。 実施形態に係るロボットによって実行されるロボット制御処理の具体例を説明するための図である(その2)。 実施形態に係るロボットによって実行されるロボット制御処理の具体例を説明するための図である(その3)。 実施形態に係るロボットによって実行されるロボット制御処理の具体例を説明するための図である(その4)。 実施形態に係るロボットによって実行されるロボット制御処理の具体例を説明するための図である(その5)。 実施形態に係るロボットによって実行されるロボット制御処理の具体例を説明するための図である(その6)。
以下、本発明の実施形態について、図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付す。
図1に、本発明の実施形態1に係るロボット100の外観を示す。ロボット100は、主に家庭や展示場等で使用され、ユーザとコミュニケーションすることが可能なコミュニケーションロボットである。ロボット100は、予め規定された動作プログラムに従って自律的に動作する。
図1に示すように、ロボット100は、外観的には略人型の立体的な形状を有する。ロボット100は、例えばプラスチック等の硬質合成樹脂を主たる材料として作製されている。ロボット100は、頭部101と、胴体部102と、手部103と、足部104と、を備える。
頭部101、手部103及び足部104は、ロボット100に内蔵された駆動部材によって動かすことができる部位である。例えば、頭部101は、首に設けられた首の関節によって、ピッチ、ロール及びヨーの3方向に回転可能に胴体部102に取り付けられている。また、頭部101には、ロボット100の前方を撮像する撮像部105が設けられている。
図2に、ロボット100のハードウェア構成を示す。図2に示すように、ロボット100は、撮像部105と、制御部106と、記憶部107と、バッテリ108と、駆動ドライバ109と、可動部110と、無線通信部111と、表示部112と、音声入力部113と、音声出力部114と、を備える。
制御部106は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)を備える。CPUは、例えばマイクロプロセッサ等であって、様々な処理や演算を実行する中央演算処理部である。制御部106において、CPUが、ROMに記憶されている制御プログラムを読み出して、RAMをワークメモリとして用いながら、自装置(ロボット100)全体の動作を制御する。
また、制御部106は、例えばGPU(Graphics Processing Unit)等のような画像処理用のプロセッサと、各種のバッファメモリと、を含む。制御部106は、画像処理用のプロセッサにより、周知の画像認識の手法を用いて、撮像部105により撮像された画像の中央領域から人の顔を検出する顔検出処理や、画像の中央領域以外の他の領域(以下、周辺領域)の経時的な変化を検出する処理を実行する。
記憶部107は、フラッシュメモリ、ハードディスク等の不揮発性メモリである。記憶部107は、OS(Operating System)及びアプリケーションプログラムを含む、制御部106が各種処理を行うために使用するプログラム及びデータを記憶する。例えば、記憶部107は、撮像部105が撮像した画像から、中央領域と周辺領域とを特定するためのデータを記憶する。例えば、中央領域を撮像した画像の中心から、画像全体の40パーセントを占める長方形の領域、周辺領域を当該画像における中央領域以外の領域として定義すればよい。なお、中央領域、周辺領域をどのように定義するかは任意であり、上述した例とは異なる割合で中央流域、周辺領域を定義してもよいし、画像中央の円形や楕円形等の領域を中央領域としてもよい。また、記憶部107は、制御部106が各種処理を行うことにより生成又は取得するデータを記憶する。
バッテリ108は、電気エネルギーを蓄電し、ロボット100の各部に電力を供給する蓄電池である。バッテリ108は、ロボット100が充電ステーションに帰還した場合に、充電ステーションによって充電される。
駆動ドライバ109は、ロボット100の可動部110を駆動するモータ、アクチュエータ等の駆動部材と、これらの駆動部材を駆動する駆動回路と、を備える。可動部110とは、可動する部位であって、具体的には頭部101、手部103及び足部104である。制御部106は、動作プログラムに基づいて、駆動回路に制御信号を送信する。駆動回路は、制御部106から送信された制御信号に従って、駆動部材に駆動用のパルス信号を供給する。駆動部材は、駆動回路から供給されたパルス信号に従って、可動部110を駆動する。
ロボット100は、駆動ドライバ109が可動部110を駆動することによって、様々に動作することができる。例えば、ロボット100は、足部104を動かすことによって、前方又は後方に移動することができ、自装置の向きを変えることができる。また、駆動ドライバ109が頭部101を駆動することにより、頭部101に設置されている撮像部105の撮像方向を変化させることができる。
撮像部105は、いわゆるカメラであって頭部101に設置されている。撮像部105は、頭部101が向いている方向を撮像する。撮像部105は、所定の時間毎(例えば、1/60秒毎)に撮像を行っている。撮像部105は、撮像手段として機能する。
無線通信部111は、外部の機器と無線で通信するためのインタフェースを備える。無線通信部111は、制御部106の制御の下、例えばWi-Fi(Wireless Fidelity)等の無線LAN(Local Area Network)、Bluetooth(登録商標)、NFC(Near Field Communication)等の通信規格に従って、ロボット100を充電するための充電ステーション、クラウドサーバ等の外部の機器と無線通信をする。無線通信部111は、通信手段として機能する。
表示部112は、例えば液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、LED(Light Emitting Diode)等の表示デバイスである。表示部112は、図示しない表示駆動回路による制御のもと、状況に応じて様々な画像を表示する。表示部112は、表示手段として機能する。
音声入力部113は、頭部101に設置されており、ユーザから発せられた音声、周囲の環境音等を検知(取得)し、制御部106に出力する。ロボット100は、図示しないが、音声入力部113として頭部101を囲むように複数のマイクロフォンを備えており、四方で発生した音を効率良く検知することができる。音声入力部113は、音声取得手段として機能する。
音声出力部114は、スピーカと音声出力インタフェースとを備え、制御部106によって生成された音声データを音声に変換して外部に出力する。スピーカは、頭部101に設置されている。音声出力部114は、動物の鳴き声及び人間の言葉を含む様々な音声を出力する。例えば、ロボット100は、音声入力部113でコミュニケーション対象の音声を収集し、コミュニケーション対象の発話内容に対応する音声を音声出力部114から出力する。これにより、コミュニケーション対象と簡単な会話をすることができる。
次に、図3を参照して、本発明に関するロボット100の機能的な構成について説明する。図3に示すように、ロボット100は、機能的に、取得部130と、顔検出部140と、変化検出部150と、判別部160と、撮像方向制御部170と、を備える。これら各部は、制御部106において、CPUがROMに記憶されたプログラムをRAMに読み出して、読み出されたプログラムを実行して制御することにより機能する。なお、上述した取得部130、顔検出部140、変化検出部150及び撮像方向制御部170は、ロボット100に含まれる画像処理装置120の機能に相当する。
取得部130は、撮像部105が連続して撮像した画像を取得する。取得部130は、取得手段として機能する
顔検出部140は、公知の手法を用いて、取得部130が取得した画像から人物の顔を検出する顔検出処理を実行する。この際、顔検出部140は、取得した画像の中央領域のみを対象に顔検出処理を実行する。例えば、顔検出部140は、人物の顔のテンプレートとなるデータや顔の特徴を示すデータを記憶部107に格納しておき、これらのデータを参照して、中央領域から人間の顔を検出すればよい。顔検出部140は、所定の対象を検出する対象検出手段として機能する。顔検出部140が実行する顔検出処理は、本発明の第1検出処理の一例である。
変化検出部150は、取得部130が取得した画像の中央領域の周りの周辺領域(即ち、中央領域以外の領域)における経時的な変化を検出する。変化検出部150は、変化検出手段として機能する。なお、変化検出部150は変化のみを検出し、検出した変化が具体的に何であるかまでは特定しない。そのため、変化検出部150が行う処理は、顔検出部140が行う顔検出処理よりも負荷が小さい。変化検出部150が実行する処理は、本発明の第2検出処理の一例である。
例えば、変化検出部150は、取得部130が取得した画像の周辺領域内の特徴点に基づいて、周辺領域における経時的な変化を検出する。具体的には、変化検出部150は、まず、撮像部105が連続的に撮像した複数の画像それぞれについて、周辺領域から特徴点を検出する。そして、変化検出部150は、検出した特徴点の画像間での移動量(移動ベクトル)を求め、閾値以上の移動量であれば、最新の画像における当該特徴点の位置を、変化のあった部分として検出する。
若しくは、変化検出部150は、連続して撮像された画像間における周辺領域の差分に基づいて、周辺領域における経時的な変化を検出してもよい。具体的には、変化検出部150は、撮像部105が連続的に撮像した複数の画像の周辺領域について、画素毎に画素値の差分を算出する。そして、変化検出部150は、算出した差分が閾値以上の画素があれば、その画素の部分を変化のあった部分として検出する。
なお、上述した変化検出部150による変化の検出の手法は一例であり、他の手法によって画像の周辺領域から変化を検出してもよい。
判別部160は、所定の条件が成立しているか否かを判別する。判別部160は、判別手段として機能する。
撮像方向制御部170は、駆動ドライバ109を制御して頭部101を駆動することで、頭部101に設けられた撮像部105の撮像方向を変化させる。例えば、撮像方向制御部170は、判別部160が所定の条件が成立していると判別している場合において、変化検出部150により、画像の周辺領域における経時的な変化が検出されたときに、当該変化があった部分が撮像部105の撮像範囲の中央に位置するように、撮像部105の撮像方向を制御する。撮像方向制御部170は、制御手段として機能する。なお、頭部101に撮像部105を移動可能に取り付けた場合、撮像方向制御部170は、撮像部105を移動させることで撮像方向を変化させてもよい。
以上のように構成されるロボット100において実行される処理の流れについて、図4に示すフローチャートを参照して、説明する。
図4に示すロボット制御処理は、ロボット100の電源が投入され、且つ、バッテリ108が充電されることによって、ロボット100が正常に動作可能な状態になると開始される。
ロボット制御処理が開始されると、まず、制御部106は、取得部130として機能し、撮像部105が連続して撮像した最新の画像を取得する(ステップS10)。
続いて、制御部106は、顔検出部140として機能し、取得した画像の中央領域から人物の顔を検出する顔検出処理を実行する(ステップS20)。
顔検出処理で顔が検出できた場合(ステップS30;Yes)、制御部106は、判別部160として機能し、所定の条件が成立しているか否かを判別する(ステップS40)。
なお、ここでは様々な条件を、ステップS40の「所定の条件」として採用可能である。例えば、制御部106は、自装置(ロボット100)が検出できた顔の人物とコミュニケーションしていない場合に、所定の条件が成立していると判別してもよい。
若しくは、制御部106は、公知の手法を用いて、視線方向等から検出した顔が自装置を向いているか否かを判別する。そして、顔が自装置を向いていない場合に、所定の条件が成立していると判別してもよい。
若しくは、制御部106は、顔検出処理で検出している顔の大きさが所定の閾値よりも小さい場合に、所定の条件が成立していると判別してもよい。また、制御部106は、音声入力部113が予め定めた期間、当該顔の人物から音声を継続して受信していない場合に、所定の条件が成立していると判別してもよい。
若しくは、所定頻度以上ロボット100とコミュニケーションした人物の顔や、ユーザから設定された顔を「お気に入り」として登録しておく機能をロボット100に内蔵させる。そして、制御部106は、顔検出処理で検出した顔が「お気に入り」として登録されていない場合に、所定の条件が成立していると判別してもよい。
所定の条件が成立していないと判別された場合(ステップS40;No)、制御部106は、撮像方向制御部170として機能し、当該顔が撮像部105の撮像範囲の中央に位置するように、駆動ドライバ109を制御する(ステップS50)。駆動ドライバ109は、制御部106からの指示に従って頭部101を駆動する。これにより、撮像範囲の中央に検出した顔が位置するように、頭部101に設置された撮像部105の向きが調整される。なお、制御部106は、足部104を駆動させることにより、撮像部105の位置や向きを調整してもよい。そして処理は、ステップS10に戻る。
一方、顔検出処理で顔が検出できなかった場合(ステップS30;No)、若しくは、顔は検出できたが所定の条件が成立していると判別された場合(ステップS30;Yes、ステップS40;Yes)、制御部106は、変化検出部150として機能し、取得した画像の周辺領域における経時的な変化の有無を検出する(ステップS60)。
例えば、制御部106は、今回のステップS10で取得した最新の画像の周辺領域と、それより1つ前のステップS10で取得した画像(前回取得した画像)の周辺領域とを比較して、変化の有無を検出すればよい。なお、制御部106は、撮像部105が連続して撮像したより多くの画像を用いて、周辺領域の変化を検出してもよい。
ステップS60で変化を検出した場合(ステップS70;Yes)、制御部106は、撮像方向制御部170として機能し、検出した変化があった部分が撮像部105の撮像範囲の中央に位置するように、駆動ドライバ109を制御する(ステップS80)。駆動ドライバ109は、制御部106からの指示に従って頭部101を駆動する。これにより、撮像範囲の中央に検出した変化があった部分が位置するように、頭部101に設置された撮像部105の向きが調整される。そして、処理はステップS10に戻る。
一方、ステップS60で変化を検出しなかった場合(ステップS70;No)、処理はステップS10に戻る。
続いて、例を挙げて、上述したロボット制御処理について説明する。
図5Aに示すように、ロボット100の正面に人物Paが位置する場合を考える。この場合、撮像部105が撮像する画像の中央領域で顔検出処理が実行され(ステップS20)、図5Bに示すそのときに撮像された画像から、人物Paの顔が検出される(ステップS30;Yes)。そして、この人物Paの顔は、ロボットを向いているため所定条件が成立していないと判別され(ステップS40;No)、撮像範囲の中央に顔が位置するように撮像部105の撮像方向が調整される(ステップS50)。
そして、その後、図6Aに示すように、図面における右側から別の人物Pbが人物Paに接近するとともに、人物Paは横を向いてロボットから視線を外した場合を考える。
この場合、図6Bに示すように、人物Pbの顔は撮像部105が撮像する画像の周辺領域に位置しており、中央領域には位置しない。そのため、顔検出処理の対象外となり、人物Pbの顔は検出されない。
一方、現在顔検出処理で検出している人物Paの顔がロボットを向かなくなったため所定条件が成立していると判別され(ステップS40;Yes)、周辺領域の変化の有無が判別され(ステップS60)、人物Pbが周辺領域に新たに入ってきたことが変化として検出される(ステップS70;Yes)。そのため、図7Aに示すように、変化として検出された人物Pbの方向(図面における右方向)に撮像部105の撮像方向が制御される(ステップS80)。これにより、図7Bに示すように、人物Pbが画像の中心となる。
以上説明したように、本実施形態に係るロボット100及び画像処理装置120は、比較的負荷が大きい顔検出処理(第1検出処理)については、画像の中央領域のみを対象に実行する一方、画像の中央領域以外の他の領域については、顔検出処理よりは負荷が小さい経時的な変化の検出処理(第2検出処理)のみを実行する。そのため、負荷を抑えつつも、画像全体から検知を行うことが可能となる。
また、本実施形態に係るロボット100は、撮像部105を備え、画像の周辺領域で経時的な変化が検出された場合、当該変化があった部分が撮像範囲の中央に位置するように、撮像部105の撮像方向を制御する。これにより、ロボット100は、画角内に入ってきたあらゆる動きに連動して動作することが可能となる。例えば、ロボット100は、周囲で揺れるカーテンを変化として検出し、それに反応するなどの動物的な動作を実行することが可能となる。
また、本実施形態に係るロボット100は、顔検出処理で顔を検出している間は、当該顔が自装置を向いてない等のような、所定条件が成立している場合に限って、周辺領域の変化に反応する制御が可能となる。そのため、ロボット100が検出している顔の人物と会話をしている際に、画像の周辺領域の変化に応答して会話を阻害するような動作をしてしまうことを防ぐことができる。
(変形例)
なお、本発明は、上記実施形態に限定されず、本発明の要旨を逸脱しない部分での種々の修正は勿論可能である。
例えば、上記実施形態において、ロボット100及び画像処理装置120は、人物の顔を検出する顔検出処理を実行したが、顔検出処理に替えて、動物等のような人物の顔以外の所定の対象を検出する検出処理を実行してもよい。
また、ロボット制御処理において、顔検出処理で顔を検出している間であっても、周辺領域で変化が検出されれば、無条件で当該変化部分に撮像方向を変化させてもよい。この場合は、ロボット100は、常に周囲の変化に敏感に反応するようになり、より動物的な動きをすることが可能となる。また、ロボット制御処理において、顔検出処理で顔を検出している間は、常に、当該顔が画像の中央になるように撮像部105の向きを調整する制御を行ってもよい。
また、ロボット制御処理において、周辺領域に変化が検出された場合、制御部106は、変化部分が撮像部105の撮像範囲の中央に位置するように撮像方向を制御する処理(ステップS80)を行ったが、これに限らず、周辺領域で変化が検出された場合に様々な所定の処理を実行してもよい。例えば、周辺領域で変化が検出された場合に、制御部106は、撮像部105の画角(撮像範囲)を広げる、又は、狭める(例えばそのときの周辺領域内の被写体が撮像範囲から外れるように狭める)ような制御を実行して、撮像部105の撮影を制御したり、撮像画像から周辺領域(その全体又はその変化部分のみ)をトリミング(切り出し)して拡大する、又は、撮像画像から中央領域をトリミングして拡大して、撮像画像に所定の画像処理を実行したりしてもよい。また、ロボット制御処理において、顔検出処理で顔を検出できていない場合や所定の条件が成立していない場合に、中央領域をトリミングする画像処理を行って周辺領域を削除する画像処理を行ってもよい。
また、撮像部105が撮像した画像のうち、どの領域を中央領域、周辺領域とするかは任意であり、ユーザが適宜設定できるようにしてもよい。例えば、頭部101(撮像部105)が水平方向(ヨー方向)にのみしか駆動しない場合は、画像の左右の領域のみを周辺領域としてもよい。
また、本発明の「ロボット」は、図1に示すようなユーザとのコミュニケーションを目的とするロボットに限定されない。例えば、監視カメラ等の撮像装置と、コンピュータと、駆動機構とを備え、コンピュータで撮像装置が撮像した画像の中央領域から人物の顔を検出し、撮像画像の周辺領域における経時的な変化を検出し、変化を検出した際には駆動機構を制御して当該変化が撮像範囲の中央に来るように撮像装置の撮像方向を制御するセキュリティロボット、セキュリティシステム、監視システム等も、本発明の「ロボット」に含まれる。
なお、本発明に係る機能を実現するための構成を予め備えた画像処理装置又はロボットとして提供できることはもとより、プログラムの適用により、既存の情報処理装置等を、本発明に係る画像処理装置又はロボットとして機能させることもできる。すなわち、上記実施形態で例示した画像処理装置120又はロボット100による各機能構成を実現させるためのプログラムを、既存の情報処理装置等を制御するCPU等が実行できるように適用することで、本発明に係る画像処理装置又はロボットとして機能させることができる。
また、このようなプログラムの適用方法は任意である。プログラムを、例えば、フレキシブルディスク、CD(Compact Disc)-ROM、DVD(Digital Versatile Disc)-ROM、メモリカード等のコンピュータ読み取り可能な記憶媒体に格納して適用できる。さらに、プログラムを搬送波に重畳し、インターネットなどの通信媒体を介して適用することもできる。例えば、通信ネットワーク上の掲示板(BBS:Bulletin Board System)にプログラムを掲示して配信してもよい。そして、このプログラムを起動し、OS(Operating System)の制御下で、他のアプリケーションプログラムと同様に実行することにより、上記の処理を実行できるように構成してもよい。
以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲とが含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
(付記1)
連続して撮像された画像を取得する取得手段と、
前記取得された画像の中央領域から所定の対象を検出する第1検出処理を実行する対象検出手段と、
前記取得された画像の前記中央領域以外の他の領域における経時的な変化を、前記第1検出処理よりも負荷が小さい第2検出処理を実行することにより検出する変化検出手段と、
を備えることを特徴とする画像処理装置。
(付記2)
前記変化検出手段は、前記第2検出処理の実行により、前記他の領域内の特徴点に基づいて、前記他の領域における経時的な変化を検出する、
ことを特徴とする、付記1に記載の画像処理装置。
(付記3)
前記変化検出手段は、前記第2検出処理の実行により、前記連続して撮像された画像間における前記他の領域の差分に基づいて、前記他の領域における経時的な変化を検出する、
ことを特徴とする、付記1に記載の画像処理装置。
(付記4)
前記所定の対象は、人物の顔である、
ことを特徴とする、付記1から3のいずれか1つに記載の画像処理装置。
(付記5)
前記取得手段は、撮像手段により連続して撮像された画像を取得し、
前記対象検出手段による検出結果、及び、前記変化検出手段による検出結果の少なくとも一方に応じて、所定の処理を実行する制御手段をさらに備える、
ことを特徴とする、付記1から4のいずれか1つに記載の画像処理装置。
(付記6)
付記5に記載の画像処理装置と、
前記撮像手段と、
を備えるロボット。
(付記7)
前記撮像手段は、前記取得手段が取得する画像を所定の撮像範囲で撮像可能に構成され、
前記制御手段は、前記変化検出手段により前記他の領域における経時的な変化が検出されたときに、当該変化があった部分が前記撮像範囲の中央に位置するように、前記撮像手段の撮像方向を制御する、
ことを特徴とする付記6に記載のロボット。
(付記8)
所定の条件が成立しているか否かを判別する判別手段をさらに備え、
前記制御手段は、前記第1検出処理で前記所定の対象を検出している間は、前記判別手段により前記所定の条件が成立していると判別された場合にのみ、前記撮像方向を制御可能である、
ことを特徴とする付記7に記載のロボット。
(付記9)
自装置はコミュニケーションすることが可能であり、
前記判別手段は、前記自装置が前記所定の対象に対応する対象物とコミュニケーションしていない場合に前記所定の条件が成立していると判別する、
ことを特徴とする付記8に記載のロボット。
(付記10)
前記判別手段は、前記所定の対象が自装置を向いていない場合に前記所定の条件が成立していると判別する、
ことを特徴とする付記8に記載のロボット。
(付記11)
前記判別手段は、前記所定の対象の大きさが所定の閾値以下である場合に前記所定の条件が成立していると判別する、
ことを特徴とする付記8に記載のロボット。
(付記12)
音声取得手段をさらに備え、
前記判別手段は、前記音声取得手段が前記所定の対象から予め定めた期間、音声を継続して取得していない場合に前記所定の条件が成立していると判別する、
ことを特徴とする付記8に記載のロボット。
(付記13)
撮像された画像の中央領域から所定の対象を検出する第1検出処理を実行し、
前記画像の前記中央領域以外の他の領域における経時的な変化を、前記第1検出処理よりも負荷が小さい第2検出処理を実行することにより検出する、
画像処理方法。
(付記14)
コンピュータを、
連続して撮像された画像を取得する取得手段、
前記取得された画像の中央領域から所定の対象を検出する第1検出処理を実行する対象検出手段、
前記取得された画像の前記中央領域以外の他の領域における経時的な変化を、前記第1検出処理よりも負荷が小さい第2検出処理を実行することにより検出する変化検出手段、
として機能させるプログラム。
100…ロボット、101…頭部、102…胴体部、103…手部、104…足部、105…撮像部、106…制御部、107…記憶部、108…バッテリ、109…駆動ドライバ、110…可動部、111…無線通信部、112…表示部、113…音声入力部、114…音声出力部、120…画像処理装置、130…取得部、140…顔検出部、150…変化検出部、160…判別部、170…撮像方向制御部
本発明は、ロボット、方向制御方法及びプログラムに関する。
本発明は上記実情に鑑みてなされたものであり、負荷を抑えつつも、画像全体から検知を行うことができるロボット、方向制御方法及びプログラムを提供することを目的とする。
上記目的を達成するため、本発明に係るロボットは、頭部の向きが前記頭部に設けられた撮像部による撮像方向に設定されたロボットであって、前記撮像部による撮像により連続的に取得される画像のそれぞれを、領域内に当該画像の中央が含まれる中央領域と領域内に前記中央領域の周辺が含まれる周辺領域とに分割し、前記中央領域を対象にして人物の顔を検出する第1検出処理により前記人物の顔が非検出とされた場合に、前記第1検出処理に代えて、前記周辺領域を対象にして画像間での画像変化を検出する第2検出処理を開始し、前記第2検出処理により画像間での画像変化が検出された場合に当該画像変化が検出された位置を第1位置として特定する画像処理手段と、前記画像処理手段により前記第1位置が特定された場合に、前記第1位置が画像の中央となるように前記頭部の向きを変化させる駆動制御手段と、を備えることを特徴とする。
また、本発明に係る方向制御方法は、頭部の向きが前記頭部に設けられた撮像部による撮像方向に設定されたロボットが実行する方向制御方法であって、前記撮像部による撮像により連続的に取得される画像のそれぞれを、領域内に当該画像の中央が含まれる中央領域と領域内に前記中央領域の周辺が含まれる周辺領域とに分割し、前記中央領域を対象にして人物の顔を検出する第1検出処理により前記人物の顔が非検出とされた場合に、前記第1検出処理に代えて、前記周辺領域を対象にして画像間での画像変化を検出する第2検出処理を開始し、前記第2検出処理により画像間での画像変化が検出された場合に当該画像変化が検出された位置を第1位置として特定する画像処理ステップと、前記画像処理ステップにより前記第1位置が特定された場合に、前記第1位置が画像の中央となるように前記頭部の向きを変化させる駆動制御ステップと、を有することを特徴とする。
また、本発明に係るプログラムは、頭部の向きが前記頭部に設けられた撮像部による撮像方向に設定されたロボットのコンピュータを、前記撮像部による撮像により連続的に取得される画像のそれぞれを、領域内に当該画像の中央が含まれる中央領域と領域内に前記中央領域の周辺が含まれる周辺領域とに分割し、前記中央領域を対象にして人物の顔を検出する第1検出処理により前記人物の顔が非検出とされた場合に、前記第1検出処理に代えて、前記周辺領域を対象にして画像間での画像変化を検出する第2検出処理を開始し、前記第2検出処理により画像間での画像変化が検出された場合に当該画像変化が検出された位置を第1位置として特定する画像処理手段、前記画像処理手段により前記第1位置が特定された場合に、前記第1位置が画像の中央となるように前記頭部の向きを変化させる駆動制御手段、として機能させることを特徴とする。

Claims (14)

  1. 連続して撮像された画像を取得する取得手段と、
    前記取得された画像の中央領域から所定の対象を検出する第1検出処理を実行する対象検出手段と、
    前記取得された画像の前記中央領域以外の他の領域における経時的な変化を、前記第1検出処理よりも負荷が小さい第2検出処理を実行することにより検出する変化検出手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記変化検出手段は、前記第2検出処理の実行により、前記他の領域内の特徴点に基づいて、前記他の領域における経時的な変化を検出する、
    ことを特徴とする、請求項1に記載の画像処理装置。
  3. 前記変化検出手段は、前記第2検出処理の実行により、前記連続して撮像された画像間における前記他の領域の差分に基づいて、前記他の領域における経時的な変化を検出する、
    ことを特徴とする、請求項1に記載の画像処理装置。
  4. 前記所定の対象は、人物の顔である、
    ことを特徴とする、請求項1から3のいずれか1項に記載の画像処理装置。
  5. 前記取得手段は、撮像手段により連続して撮像された画像を取得し、
    前記対象検出手段による検出結果、及び、前記変化検出手段による検出結果の少なくとも一方に応じて、所定の処理を実行する制御手段をさらに備える、
    ことを特徴とする、請求項1から4のいずれか1項に記載の画像処理装置。
  6. 請求項5に記載の画像処理装置と、
    前記撮像手段と、
    を備えるロボット。
  7. 前記撮像手段は、前記取得手段が取得する画像を所定の撮像範囲で撮像可能に構成され、
    前記制御手段は、前記変化検出手段により前記他の領域における経時的な変化が検出されたときに、当該変化があった部分が前記撮像範囲の中央に位置するように、前記撮像手段の撮像方向を制御する、
    ことを特徴とする請求項6に記載のロボット。
  8. 所定の条件が成立しているか否かを判別する判別手段をさらに備え、
    前記制御手段は、前記第1検出処理で前記所定の対象を検出している間は、前記判別手段により前記所定の条件が成立していると判別された場合にのみ、前記撮像方向を制御可能である、
    ことを特徴とする請求項7に記載のロボット。
  9. 自装置はコミュニケーションすることが可能であり、
    前記判別手段は、前記自装置が前記所定の対象に対応する対象物とコミュニケーションしていない場合に前記所定の条件が成立していると判別する、
    ことを特徴とする請求項8に記載のロボット。
  10. 前記判別手段は、前記所定の対象が自装置を向いていない場合に前記所定の条件が成立していると判別する、
    ことを特徴とする請求項8に記載のロボット。
  11. 前記判別手段は、前記所定の対象の大きさが所定の閾値以下である場合に前記所定の条件が成立していると判別する、
    ことを特徴とする請求項8に記載のロボット。
  12. 音声取得手段をさらに備え、
    前記判別手段は、前記音声取得手段が前記所定の対象から予め定めた期間、音声を継続して取得していない場合に前記所定の条件が成立していると判別する、
    ことを特徴とする請求項8に記載のロボット。
  13. 撮像された画像の中央領域から所定の対象を検出する第1検出処理を実行し、
    前記画像の前記中央領域以外の他の領域における経時的な変化を、前記第1検出処理よりも負荷が小さい第2検出処理を実行することにより検出する、
    画像処理方法。
  14. コンピュータを、
    連続して撮像された画像を取得する取得手段、
    前記取得された画像の中央領域から所定の対象を検出する第1検出処理を実行する対象検出手段、
    前記取得された画像の前記中央領域以外の他の領域における経時的な変化を、前記第1検出処理よりも負荷が小さい第2検出処理を実行することにより検出する変化検出手段、
    として機能させるプログラム。
JP2023114802A 2018-10-01 2023-07-13 ロボット、方向制御方法及びプログラム Pending JP2023133343A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023114802A JP2023133343A (ja) 2018-10-01 2023-07-13 ロボット、方向制御方法及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018186685A JP7374581B2 (ja) 2018-10-01 2018-10-01 ロボット、画像処理方法及びプログラム
JP2023114802A JP2023133343A (ja) 2018-10-01 2023-07-13 ロボット、方向制御方法及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018186685A Division JP7374581B2 (ja) 2018-10-01 2018-10-01 ロボット、画像処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2023133343A true JP2023133343A (ja) 2023-09-22

Family

ID=69947075

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018186685A Active JP7374581B2 (ja) 2018-10-01 2018-10-01 ロボット、画像処理方法及びプログラム
JP2023114802A Pending JP2023133343A (ja) 2018-10-01 2023-07-13 ロボット、方向制御方法及びプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018186685A Active JP7374581B2 (ja) 2018-10-01 2018-10-01 ロボット、画像処理方法及びプログラム

Country Status (3)

Country Link
US (1) US11400607B2 (ja)
JP (2) JP7374581B2 (ja)
CN (1) CN110971815B (ja)

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1375084A4 (en) * 2001-03-09 2009-10-21 Japan Science & Tech Agency AUDIOVISUAL ROBOT SYSTEM
JP2004288100A (ja) * 2003-03-25 2004-10-14 Minolta Co Ltd 撮像装置及び移動体カメラ
JP4692006B2 (ja) * 2005-02-15 2011-06-01 トヨタ自動車株式会社 画像処理装置及び画像処理方法
JP4650381B2 (ja) * 2006-09-08 2011-03-16 日本ビクター株式会社 電子機器
JP2008075360A (ja) * 2006-09-22 2008-04-03 Saxa Inc 自動ドア用センサ
JP2010530086A (ja) * 2006-12-19 2010-09-02 創太 清水 イメージングモデル及び画像処理装置
JP4998122B2 (ja) 2007-07-10 2012-08-15 カシオ計算機株式会社 撮像装置及びそのプログラム
JP2011152593A (ja) 2010-01-26 2011-08-11 Nec Corp ロボット操作装置
US8818556B2 (en) * 2011-01-13 2014-08-26 Microsoft Corporation Multi-state model for robot and user interaction
US9259842B2 (en) * 2011-06-10 2016-02-16 Microsoft Technology Licensing, Llc Interactive robot initialization
JP2013164834A (ja) * 2012-01-13 2013-08-22 Sony Corp 画像処理装置および方法、並びにプログラム
JP5910209B2 (ja) * 2012-03-16 2016-04-27 富士通株式会社 ロボット制御装置、ロボットシステム、ロボット制御方法、及びロボット制御プログラム
JP5966778B2 (ja) * 2012-09-05 2016-08-10 カシオ計算機株式会社 撮像装置、撮像方法及びプログラム
JP5472506B2 (ja) * 2013-03-19 2014-04-16 住友電気工業株式会社 複数の移動対象物の追跡撮影システム及び撮影制御方法
CN103400157B (zh) 2013-07-23 2017-02-08 青岛海信网络科技股份有限公司 一种基于视频分析的道路行人及非机动车检测方法
EP2933064A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics System, method and computer program product for handling humanoid robot interaction with human
EP2988248B1 (en) * 2014-07-22 2019-09-18 Canon Kabushiki Kaisha Image processing apparatus, image processing method, information processing apparatus, information processing method, and program
JP6577738B2 (ja) * 2015-04-09 2019-09-18 キヤノン株式会社 焦点検出装置及びその制御方法、プログラム、記憶媒体
CN105957300B (zh) * 2016-07-18 2019-04-30 四川君逸数码科技股份有限公司 一种智慧金睛识别可疑张贴遮蔽报警方法和装置
JP6715463B2 (ja) * 2016-09-30 2020-07-01 パナソニックIpマネジメント株式会社 画像生成装置、画像生成方法、プログラムおよび記録媒体
CN108073271A (zh) * 2016-11-18 2018-05-25 北京体基科技有限公司 基于预定区域识别手部区域的方法及装置
WO2018177561A1 (en) * 2017-03-31 2018-10-04 Intel Corporation Management of human-machine dialogue involving multiple parties
JP6817557B2 (ja) * 2017-05-22 2021-01-20 パナソニックIpマネジメント株式会社 通信制御方法、通信制御装置、及び通信制御プログラム
JP6642523B2 (ja) * 2017-06-19 2020-02-05 カシオ計算機株式会社 表情判定装置、表情判定方法及びプログラム
CN108230366B (zh) 2017-12-28 2021-09-07 厦门市美亚柏科信息股份有限公司 一种目标物的追踪方法
US20190246038A1 (en) * 2018-02-02 2019-08-08 Essel-T Co., Ltd. Camera having subject maintenance function
CN108447303B (zh) * 2018-03-20 2021-01-15 武汉理工大学 基于人眼视觉与机器视觉耦合的外周视野危险识别方法

Also Published As

Publication number Publication date
JP7374581B2 (ja) 2023-11-07
CN110971815A (zh) 2020-04-07
CN110971815B (zh) 2021-07-30
US20200101630A1 (en) 2020-04-02
JP2020057149A (ja) 2020-04-09
US11400607B2 (en) 2022-08-02

Similar Documents

Publication Publication Date Title
US11257223B2 (en) Systems and methods for user detection, identification, and localization within a defined space
US10905944B2 (en) Method and apparatus for preventing a collision between subjects
CA2945896C (en) System, method and computer program product for handling humanoid robot interaction with human
US9662788B2 (en) Communication draw-in system, communication draw-in method, and communication draw-in program
US10169880B2 (en) Information processing apparatus, information processing method, and program
KR102463806B1 (ko) 이동이 가능한 전자 장치 및 그 동작 방법
WO2018028200A1 (zh) 电子机器设备
US11748968B2 (en) Target tracking method and system, readable storage medium, and mobile platform
US11931906B2 (en) Mobile robot device and method for providing service to user
US20180376069A1 (en) Erroneous operation-preventable robot, robot control method, and recording medium
US10809715B2 (en) Apparatus, robot, method, and recording medium
JP2009166184A (ja) ガイドロボット
US20180085924A1 (en) Communication device
EP3819747A1 (en) Human computer interaction system and human computer interaction method
JP2015011404A (ja) 動作認識処理装置
JP7374581B2 (ja) ロボット、画像処理方法及びプログラム
KR102613040B1 (ko) 영상 통화 방법 및 이를 구현하는 로봇
KR102360857B1 (ko) 특정인을 추적하는 로봇시스템
JP2020092370A (ja) 撮影制御装置、撮影システム及び撮影制御方法
CN110448435B (zh) 一种提示方法及受控运动设备
US20160260353A1 (en) Object recognition for the visually impaired
KR102373462B1 (ko) 대상체들 사이의 충돌을 방지하는 방법 및 장치.
KR20160098737A (ko) 운전 행동 개선 방법 및 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230725

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230725