JP2020109926A - ロボット制御装置、ロボット制御方法、ロボット制御プログラム及びロボット制御システム - Google Patents
ロボット制御装置、ロボット制御方法、ロボット制御プログラム及びロボット制御システム Download PDFInfo
- Publication number
- JP2020109926A JP2020109926A JP2019000764A JP2019000764A JP2020109926A JP 2020109926 A JP2020109926 A JP 2020109926A JP 2019000764 A JP2019000764 A JP 2019000764A JP 2019000764 A JP2019000764 A JP 2019000764A JP 2020109926 A JP2020109926 A JP 2020109926A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- unit
- display
- head
- captured image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
- Closed-Circuit Television Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
【課題】ロボットを制御する際に、ユーザの操作を受け付けてから、ユーザの操作が反映された後の向きの画像をユーザに提供するまでに掛かる時間を短縮できるようにする。【解決手段】本発明の一実施形態に係るロボット制御装置1は、撮像部が撮像したロボットの周囲の撮像画像を取得する画像取得部151と、ユーザの操作を受け付ける操作受付部153と、撮像画像の中で操作に対応する位置を特定し、特定した位置を含む撮像画像の一部の表示領域を表示部に表示させる表示制御部152と、ロボットの頭部を、表示制御部が特定した位置に対応する向きに向くように動作させる動作制御部155と、を有する。【選択図】図3
Description
本発明は、ロボットを制御するためのロボット制御装置、ロボット制御方法、ロボット制御プログラム及びロボット制御システムに関する。
ユーザがロボットを遠隔で操作し、ロボットが有するカメラが撮像した撮像画像をユーザに提供する技術の開発が進んでいる。特許文献1には、ユーザが装着しているヘッドマウントディスプレイの動きに連動して、カメラを有するロボットの筐体を動かすシステムが記載されている。このようなシステムによれば、ユーザは、ロボットのカメラの向きを所望の向きに変えるとともに、向きの変わったカメラが撮像した画像を見ることができる。
特許文献1に記載のシステムおいて、ユーザがヘッドマウントディスプレイを動かす操作をすると、操作内容を示す信号がロボットに送られる。その後、ロボットは、受信した信号に基づいて筐体を動かし、向きが変わったカメラが撮像した画像をユーザのヘッドマウントディスプレイへ送信する。そのため、ユーザの操作を受け付けてから、ユーザの操作が反映された後の向きの画像をユーザに提供するまでに、長い時間が掛かるという問題があった。
本発明はこれらの点に鑑みてなされたものであり、ロボットを制御する際に、ユーザの操作を受け付けてから、ユーザの操作が反映された後の向きの画像をユーザに提供するまでに掛かる時間を短縮できるロボット制御装置、ロボット制御方法、ロボット制御プログラム及びロボット制御システムを提供することを目的とする。
本発明の第1の態様に係るロボット制御装置は、撮像部が撮像したロボットの周囲の撮像画像を取得する取得部と、ユーザの操作を受け付ける受付部と、前記撮像画像の中で前記操作に対応する位置を特定し、前記位置を含む前記撮像画像の一部の表示領域を表示部に表示させる表示制御部と、前記ロボットの頭部を、前記表示制御部が特定した前記位置に対応する向きに向くように動作させる動作制御部と、を有し、前記表示制御部は、前記動作制御部が前記頭部を動作させる時点よりも前に、前記表示部に前記表示領域を表示させる。
前記取得部は、前記表示領域に対応する撮像範囲よりも広い範囲を撮像した前記撮像画像を取得してもよい。
前記取得部は、前記ロボットに接続された撮像部又は前記ロボット上に設けられた撮像部が撮像した前記撮像画像を取得してもよい。
前記動作制御部は、前記撮像画像の中心点に対する前記表示領域の中心点の位置と、前記ロボットの頭部の向きとの関係とに基づいて決定した前記向きに向くように、前記頭部を動作させてもよい。
前記動作制御部は、前記位置を含む所定範囲内に前記位置が滞在した時間を測定し、測定した前記時間が所定値以上である場合に、前記頭部を動作させてもよい。
前記動作制御部は、前記位置の所定時間内の変化量が所定値以下である場合に、前記頭部を動作させてもよい。
前記表示制御部は、前記位置を含む所定範囲内に前記位置が滞在した時間を測定し、測定した前記時間が所定値以上である場合に、前記表示部に前記表示領域を表示させてもよい。
前記表示制御部は、前記位置の所定時間内の変化量が所定値以下である場合に、前記表示部に前記表示領域を表示させてもよい。
本発明の第2の態様に係るロボット制御方法は、プロセッサが、撮像部が撮像したロボットの周囲の撮像画像を取得するステップと、ユーザの操作を受け付けるステップと、前記撮像画像の中で前記操作に対応する位置を特定し、前記位置を含む前記撮像画像の一部の表示領域を表示部に表示させるステップと、前記ロボットの頭部を、前記表示させるステップが特定した前記位置に対応する向きに向くように動作させるステップと、を実行し、前記表示させるステップは、前記動作させるステップが前記頭部を動作させる時点よりも前に、前記表示部に前記表示領域を表示させる。
本発明の第3の態様に係るロボット制御プログラムは、コンピュータに、撮像部が撮像したロボットの周囲の撮像画像を取得するステップと、ユーザの操作を受け付けるステップと、前記撮像画像の中で前記操作に対応する位置を特定し、前記位置を含む前記撮像画像の一部の表示領域を表示部に表示させるステップと、前記ロボットの頭部を、前記表示させるステップが特定した前記位置に対応する向きに向くように動作させるステップと、を実行させ、前記表示させるステップは、前記動作させるステップが前記頭部を動作させる時点よりも前に、前記表示部に前記表示領域を表示させる。
本発明の第4の態様に係るロボット制御システムは、ロボットと、ロボット制御装置とを備え、前記ロボットは、向きが変わるように動作可能な頭部を有し、前記ロボット制御装置は、撮像部が撮像した前記ロボットの周囲の撮像画像を取得する取得部と、ユーザの操作を受け付ける受付部と、前記撮像画像の中で前記操作に対応する位置を特定し、前記位置を含む前記撮像画像の一部の表示領域を表示部に表示させる表示制御部と、前記ロボットの前記頭部を、前記表示制御部が特定した前記位置に対応する向きに向くように動作させる動作制御部と、を有し、前記表示制御部は、前記動作制御部が前記頭部を動作させる時点よりも前に、前記表示部に前記表示領域を表示させる。
本発明によれば、ロボットを制御する際に、ユーザの操作を受け付けてから、ユーザの操作が反映された後の向きの画像をユーザに提供するまでに掛かる時間を短縮できるという効果を奏する。
[ロボット制御システムSの概要]
図1は、本実施形態に係るロボット制御システムSの模式図である。ロボット制御システムSは、ロボット制御装置1と、通信端末2と、ロボット3とを含む。ロボット制御システムSは、その他のサーバ、端末等の機器を含んでもよい。
図1は、本実施形態に係るロボット制御システムSの模式図である。ロボット制御システムSは、ロボット制御装置1と、通信端末2と、ロボット3とを含む。ロボット制御システムSは、その他のサーバ、端末等の機器を含んでもよい。
ロボット制御装置1は、表示部11及び操作部12を有するコンピュータである。ロボット制御装置1は、例えばパーソナルコンピュータ又はサーバである。ロボット制御装置1は、インターネット、ローカルエリアネットワーク等のネットワークNを介して、通信端末2と通信する。表示部11は、ユーザに対して各種情報を表示する表示装置を含む。操作部12は、ユーザの操作を受け付ける操作装置を含む。
ロボット制御装置1は、後述するロボット制御方法によって、ロボットの周囲の撮像画像を表示部11に表示させるとともに、操作部12を介してユーザから受け付けた操作に基づいてロボットを制御する。
通信端末2は、撮像部21を有するコンピュータである。通信端末2は、例えばスマートフォン、タブレット端末等の携帯端末である。通信端末2は、ネットワークNを介してロボット制御装置1と通信する。撮像部21は、所定の範囲を撮像する撮像装置を含む。
ロボット3は、ロボット制御装置1からの制御情報に従って動作する装置である。ロボット3は、それぞれ向きが変わるように動作可能な頭部31及び2つの腕部32を有する。本実施形態に係るロボット3は人型の装置であるが、少なくとも1つの頭部31を有するその他の形状の装置であってもよい。
ロボット3は、Bluetooth(登録商標)、無線LAN(Local Area Network)等による近距離無線通信、又はケーブルによる有線で、通信端末2と接続されている。ロボット3は、通信端末2を介してロボット制御装置1から受け取った制御情報に従って、頭部31及び腕部32を動作させる。
[ロボット制御方法の概要]
図2は、本実施形態に係るロボット制御方法の模式図である。まずロボット3の設置者は、ロボット3の周囲を撮像可能な位置に通信端末2を配置する。そして設置者は、通信端末2に、撮像部21による撮像を開始させる(a)。撮像部21は、ロボット3の周囲として、少なくともロボット3の頭部31から正面へ向かう向きを含む所定の範囲を撮像する。
図2は、本実施形態に係るロボット制御方法の模式図である。まずロボット3の設置者は、ロボット3の周囲を撮像可能な位置に通信端末2を配置する。そして設置者は、通信端末2に、撮像部21による撮像を開始させる(a)。撮像部21は、ロボット3の周囲として、少なくともロボット3の頭部31から正面へ向かう向きを含む所定の範囲を撮像する。
通信端末2は、撮像部21が撮像した撮像画像を所定の時間間隔で、ロボット制御装置1へ送信する(b)。通信端末2は、1つ又は複数の静止画像を撮像画像として送信してもよく、動画像を撮像画像として送信してもよい。
ロボット制御装置1は、撮像部21が撮像した撮像画像の一部の領域を、表示領域として表示部11に表示させる(c)。撮像画像は、例えば、ロボット制御装置1の表示部11が表示可能な表示領域に対応する撮像範囲よりも広い範囲が撮像された画像である。撮像画像は、例えば全方位カメラによりロボット3の周囲360度の範囲が撮像された画像である。ロボット制御装置1は、ロボット3の操作者であるユーザから、操作部12を介してロボット3に対する操作を受け付ける(d)。ロボット制御装置1は、ユーザから受け付けた操作に対応する撮像画像中の表示領域の位置を特定し、特定した位置に基づいて表示部11上に表示された表示領域を更新する。ロボット制御装置1は、操作の受け付けと、表示領域の更新とを繰り返す。
表示領域の更新と並行して、ロボット制御装置1は、ユーザから受け付けた操作に対応する表示領域の位置に基づいて、ロボット3の頭部31の向きを決定する(e)。例えばロボット制御装置1は、ユーザが撮像画像中で表示領域を左に動かした場合に、ロボット3の頭部31の向きを現在の向きよりも左に変更する。ロボット制御装置1は、決定した向きにロボット3の頭部を向かせる動作を示す動作情報を生成し、通信端末2へ送信する(f)。
ロボット3は、ロボット制御装置1からの動作情報を、通信端末2を介して受け取る。そしてロボット3は、受け取った動作情報に従って、頭部31を動作させる(g)。これにより、ロボット3の頭部31は、ユーザが見ている撮像画像中の表示領域に対応する向きに向くように動作する。
このようにロボット制御システムSは、ロボット制御装置1の表示部11が表示可能な表示領域に対応する撮像範囲よりも広い範囲の撮像画像の一部である表示領域を、ユーザの操作に対応する位置に更新する。それと並行して、ロボット制御システムSは、ロボット3の頭部31を、更新された表示領域に対応する向きに向くように動作させる。これにより、ロボット制御システムSは、ユーザの操作に対応する向きの撮像画像を短時間で表示できるとともに、ロボット3の頭部31をユーザの操作に対応する向きに向かせることができる。
また、ロボット制御システムSによれば、ユーザが見ている撮像画像とロボット3の動作との間の時間差を小さくできるため、ロボット3の動作は、ユーザがどこを見ているかをより正確に反映する。したがって、ロボット3の操作者であるユーザと、ロボット3の周囲にいる人との間のコミュニケーションを円滑化できる。
[ロボット制御システムSの構成]
図3は、本実施形態に係るロボット制御システムSのブロック図である。図3において、矢印は主なデータの流れを示しており、図3に示したもの以外のデータの流れがあってよい。図3において、各ブロックはハードウェア(装置)単位の構成ではなく、機能単位の構成を示している。そのため、図3に示すブロックは単一の装置内に実装されてよく、あるいは複数の装置内に別れて実装されてよい。ブロック間のデータの授受は、データバス、ネットワーク、可搬記憶媒体等、任意の手段を介して行われてよい。
図3は、本実施形態に係るロボット制御システムSのブロック図である。図3において、矢印は主なデータの流れを示しており、図3に示したもの以外のデータの流れがあってよい。図3において、各ブロックはハードウェア(装置)単位の構成ではなく、機能単位の構成を示している。そのため、図3に示すブロックは単一の装置内に実装されてよく、あるいは複数の装置内に別れて実装されてよい。ブロック間のデータの授受は、データバス、ネットワーク、可搬記憶媒体等、任意の手段を介して行われてよい。
通信端末2は、撮像部21と、通信部22とを有する。撮像部21は、CCD(Charge Coupled Device)センサ、CMOS(Complementary Metal Oxide Semiconductor)センサ等の撮像素子を有する撮像装置を含む。撮像部21は、複数の撮像装置を含んでもよい。撮像部21は、撮像した撮像画像をロボット制御装置1に送信する。
通信部22は、ロボット制御装置1及びロボット3との間で通信をするための通信インタフェースである。通信部22は、通信を行うためのプロセッサ、コネクタ、アンテナ等を含む。通信部22は、ロボット制御装置1又はロボット3から受信した通信信号に所定の処理を行ってデータを取得する。また、通信部22は、外部に送信すべきデータに所定の処理を行って通信信号を生成し、生成した通信信号をロボット制御装置1又はロボット3に送信する。
ロボット3は、上述の頭部31及び腕部32に加えて、駆動部33と、通信部34とを有する。駆動部33は、頭部31及び腕部32をそれぞれ駆動するモータ、アクチュエータ等の駆動機構を含む。頭部31及び腕部32は、駆動部33が発生させる動力によって動作する。
通信部34は、通信端末2との間で通信をするための通信インタフェースである。通信部34は、通信を行うためのプロセッサ、コネクタ、アンテナ等を含む。通信部34は、通信端末2から受信した通信信号に所定の処理を行ってデータを取得する。また、通信部34は、外部に送信すべきデータに所定の処理を行って通信信号を生成し、生成した通信信号を通信端末2に送信する。
本実施形態に係るロボット3は、通信端末2を介してロボット制御装置1からの制御情報を受け取っているが、ロボット制御装置1と直接通信することによって制御情報を受け取ってもよい。
ロボット制御装置1は、表示部11と、操作部12と、記憶部13と、通信部14と、制御部15とを有する。制御部15は、画像取得部151と、表示制御部152と、操作受付部153と、向き決定部154と、動作制御部155とを有する。
表示部11は、各種情報を表示するための、液晶ディスプレイ等の表示装置を含む。表示部11は、制御部15から受け取った信号に従って情報を表示する。操作部12は、ユーザの操作を受け付けるための、キーボード、マウス等の操作装置を含む。操作部12は、ユーザの操作を示す信号を、制御部15に入力する。表示部11としてユーザによる接触の位置を検出可能なタッチスクリーンを用いることによって、表示部11と操作部12とを一体に構成してもよい。
表示部11は、ヘッドマウントディスプレイ(HMD)であってもよい。この場合に、ヘッドマウントディスプレイである表示部11は、ユーザの頭部に装着可能であり、ユーザに対して情報を表示するとともに、ユーザの頭部の向きを検出する。ヘッドマウントディスプレイである表示部11は、検出したユーザの頭部の向きを示す信号をユーザの操作を示す信号として出力することによって、操作部12としても機能する。これにより、ユーザは自身の頭部を動かすことによって、表示領域を変更できるとともに、ロボット3の頭部31を動かすことができる。
操作部12は、ユーザの目を含む領域を撮像する撮像装置を含んでもよい。この場合に、操作部12の撮像装置は、ユーザの目を含む撮像画像を撮像し、ユーザの操作を示す信号として出力する。制御部15は、操作部12の撮像装置が撮像した撮像画像に基づいて、ユーザの視線の向きを特定し、特定した視線の向きをユーザの操作として受け付ける。制御部15は、撮像画像からユーザの視線の向きを特定するために、既知の技術を用いることができる。これにより、ユーザは自身の視線を動かすことによって、表示領域を変更できるとともに、ロボット3の頭部31を動かすことができる。
記憶部13は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクドライブ等を含む記憶媒体である。記憶部13は、制御部15が実行するプログラムを予め記憶している。また、記憶部13は、通信端末2から受信した撮像画像を記憶する。記憶部13は、ロボット制御装置1の外部に設けられてもよく、その場合に通信部14を介して制御部15との間でデータの授受を行ってもよい。
通信部14は、通信端末2との間で通信をするための通信インタフェースである。通信部14は、ロボット3との間で通信をしてもよい。通信部14は、通信を行うためのプロセッサ、コネクタ、アンテナ等を含む。通信部14は、通信端末2から受信した通信信号に所定の処理を行ってデータを取得する。また、通信部14は、外部に送信すべきデータに所定の処理を行って通信信号を生成し、生成した通信信号を通信端末2に送信する。
制御部15は、例えばCPU(Central Processing Unit)等のプロセッサであり、記憶部13に記憶されたプログラムを実行することにより、画像取得部151、表示制御部152、操作受付部153、向き決定部154及び動作制御部155として機能する。画像取得部151、表示制御部152、操作受付部153、向き決定部154及び動作制御部155の機能については、図4〜図7を用いて後述する。制御部15の機能の少なくとも一部は、電気回路によって実行されてもよい。また、制御部15の機能の少なくとも一部は、ネットワーク経由で実行されるプログラムによって実行されてもよい。
本実施形態に係るロボット制御システムSは、図3に示す具体的な構成に限定されない。例えばロボット制御装置1、通信端末2及びロボット3は、それぞれ1つの装置に限られず、2つ以上の物理的に分離した装置が有線又は無線で接続されることにより構成されてもよい。例えばロボット制御装置1は、制御部15を有するサーバと、表示部11及び操作部12を有する端末とに分けて構成されてもよい。
[ロボット制御方法の説明]
図4〜図7を用いて、ロボット制御システムSが実行するロボット制御方法を以下に説明する。図4(a)〜図4(c)は、本実施形態に係るロボット3の正面図である。図4(a)のロボット3は有線又は無線で通信端末2と接続されている。すなわち、図4(a)の例では、通信端末2の撮像部21を、ロボット3の周囲を撮像するために利用する。通信端末2は、ロボット3上に固定されてもよく、あるいは三脚等を用いて地面等に設置されてもよい。
図4〜図7を用いて、ロボット制御システムSが実行するロボット制御方法を以下に説明する。図4(a)〜図4(c)は、本実施形態に係るロボット3の正面図である。図4(a)のロボット3は有線又は無線で通信端末2と接続されている。すなわち、図4(a)の例では、通信端末2の撮像部21を、ロボット3の周囲を撮像するために利用する。通信端末2は、ロボット3上に固定されてもよく、あるいは三脚等を用いて地面等に設置されてもよい。
通信端末2の撮像部21上には広角レンズが設けられているため、撮像部21は表示部11の表示領域が表示可能な範囲よりも広い範囲を撮像可能である。広角レンズは、クリップや粘着剤を用いて撮像部21上に固定されている。広角レンズは、60度以上の画角を有しており、180度以上の画角を有することが望ましい。
図4(a)のように、通信端末2が有する撮像部21をロボット3の周囲を撮像するために利用することによって、ロボット3に撮像部21を設ける必要がないため、本実施形態に係るロボット制御システムSを実装することが容易になる。また、スマートフォン等の通信端末2は高性能な撮像部21を有していることが多いため、そのような高性能な撮像部21を本実施形態に係るロボット制御方法に流用できる。
図4(b)のロボット3は有線又は無線で通信端末2と接続されており、さらに通信端末2は有線又は無線で撮像部21と接続されている。撮像部21は、ロボット3と接続されてもよい。すなわち、図4(b)の例では、通信端末2又はロボット3の外部に接続された撮像部21を、ロボット3の周囲を撮像するために利用する。撮像部21は、広角カメラであり、表示領域に対応する撮像範囲よりも広い範囲を撮像可能である。広角カメラは、60度以上の画角を有しており、180度以上の画角を有することが望ましい。広角カメラは、ロボット3の周囲360度の範囲を撮像可能であることがさらに望ましい。これにより、ユーザがロボット3の周囲のどの方位を見たい場合であっても、撮像部21を動かす必要がない。
図4(b)のように、通信端末2又はロボット3の外部に接続された撮像部21をロボット3の周囲を撮像するために利用することによって、ロボット3に撮像部21を設ける必要がないため、本実施形態に係るロボット制御システムSを実装することが容易になる。また、通信端末2及びロボット3の形状によらず撮像部21を設置できるため、設置の自由度が高い。
図4(c)のロボット3は、撮像部21を備える。この場合に、図3における通信端末2の機能は、ロボット3に内蔵される。すなわち、図4(c)の例では、ロボット3の撮像部21を、ロボット3の周囲を撮像するために利用する。撮像部21は、例えばロボット3の胴体に固定される。
図4(c)のように、ロボット3上に設けられた撮像部21をロボット3の周囲を撮像するために利用することによって、本実施形態に係るロボット制御方法を実行する際に、通信端末2をロボット3に接続する手間を削減できる。
本実施形態に係るロボット制御システムSは、図4(a)〜図4(c)のうちいずれか1つの撮像部21を備えてもよく、図4(a)〜図4(c)のうち複数の撮像部21を備えてもよい。
図5(a)、図5(b)は、本実施形態に係るロボット制御装置1の画像取得部151が取得する撮像画像Pの模式図である。図5(a)、図5(b)は、撮像部21と撮像画像Pとの関係を模式的に表している。
図5(a)の例では、広角レンズが設けられた撮像部21又は広角カメラである撮像部21が、表示領域に対応する撮像範囲よりも広い範囲を撮像し、撮像画像をロボット制御装置1へ送信する。画像取得部151は、受信した撮像画像を、撮像画像Pとして記憶部13に記憶させる。これにより、1つの撮像部21によって表示領域に対応する撮像範囲よりも広い範囲の撮像画像Pを取得できる。
図5(b)の例では、複数の撮像部21が異なる範囲を撮像し、複数の撮像画像をロボット制御装置1へ送信する。1つの撮像部21が回転しながら異なる範囲を撮像することによって、複数の撮像画像をロボット制御装置1へ送信してもよい。そして画像取得部151は、受信した複数の撮像画像を合成することによって、表示領域に対応する撮像範囲よりも広い範囲の撮像画像Pを生成し、記憶部13に記憶させる。これにより、撮像部21上に広角レンズを設ける必要がなく、また撮像部21として広角カメラを用いる必要がない。
複数の撮像部21が撮像するために、図4(a)の例においてロボット3に複数の通信端末2を接続してもよく、図4(b)の例において通信端末2又はロボット3に複数の撮像部21を接続してもよく、図4(c)の例においてロボット3が複数の撮像部21を備えてもよい。
図6(a)、図6(b)は、撮像画像Pと表示領域Rとの関係を示す模式図である。図6(a)、図6(b)では、撮像画像Pの中心点P1が円形で表されており、表示領域Rの中心点R1が矩形で表されているが、中心点P1及び中心点R1は表示部11に表示されなくてもよい。単一の撮像部21を用いる場合には、中心点P1は撮像部21の光軸の向きと一致する。
表示制御部152は、画像取得部151が取得した撮像画像Pの一部を、表示領域Rとして表示部11に表示させる。表示領域Rの大きさは、表示部11の大きさに応じて、予めロボット制御装置1に設定される。
具体的には、まず表示制御部152は、撮像画像Pの表示を開始した際に、撮像画像Pの中央に表示領域Rが位置するように(すなわち中心点R1が中心点P1に一致するように)、表示領域Rの初期位置を特定する。図6(a)は、撮像画像Pの表示を開始した際の表示領域Rの初期位置を表している。そして表示制御部152は、撮像画像Pの一部である、初期位置を含む所定の大きさの領域を、表示領域Rとして表示部11に表示させる。
操作受付部153は、操作部12を介して、ユーザが表示領域Rを移動させる操作を受け付ける。上述のように、ユーザは、キーボード、マウス等の操作装置に対して操作してもよく、ヘッドマウントディスプレイの向きによって操作してもよく、ユーザの視線によって操作してもよい。ユーザは、表示領域Rを移動させる向きを指定してもよく、あるいは表示領域Rの撮像画像P上の位置を指定してもよい。
操作受付部153がユーザから表示領域Rを移動させる操作を受け付けた場合に、表示制御部152は、ユーザの操作に対応する表示領域Rの移動後の位置を特定する。例えば表示制御部152は、ユーザの操作が表示領域Rを移動させる向きを指定している場合に、移動前の位置から指定された向きへ所定量移動した位置を、移動後の位置として特定する。表示制御部152は、ユーザの操作が表示領域Rの撮像画像P上の位置を指定している場合に、指定された位置を、移動後の位置として特定する。そして表示制御部152は、撮像画像Pの一部である、移動後の位置を含む所定の大きさの領域を、表示領域Rとして表示部11に表示させる。これにより、ユーザの操作に対応する位置に表示領域Rが更新される。
表示制御部152は、移動後の位置を特定した際に、撮像画像Pの中で移動前の位置から移動後の位置まで表示領域Rを移動させながら表示部11に表示させてもよく、撮像画像Pの中で移動前の位置の表示領域Rから移動後の位置の表示領域Rにすぐに切り替えて表示部11に表示させてもよい。
このように、表示制御部152は、撮像画像Pの中でユーザの操作に応じて表示領域Rを移動させるため、ロボット3が頭部31を動作させる時点よりも前に表示領域Rを更新でき、ユーザの操作に対するレスポンスが向上する。
表示制御部152がユーザの操作に対応する表示領域Rの移動後の位置を特定した際に、表示制御部152が表示領域Rを更新するのと並行して、向き決定部154は、表示領域Rの移動後の位置に対応するロボット3の頭部31の向きを決定する。例えば向き決定部154は、撮像画像Pの中心点P1に対する表示領域Rの中心点R1の位置を特定する。向き決定部154は、例えば、撮像画像Pの平面上における中心点P1と中心点R1との距離、及び中心点P1に対する中心点R1の向き(例えば、表示領域Rの水平方向に対する角度)を算出することにより、中心点P1に対する中心点R1の位置を特定する。
そして向き決定部154は、算出した距離及び向きに基づいて、ロボット3の頭部31の向きを決定する。撮像画像Pの中心点P1に対する表示領域Rの中心点R1の位置と、ロボット3の頭部31の向きとの関係は、予めロボット制御装置1に設定される。ロボット3の頭部31を動かす方位は中心点P1に対する中心点R1の向きに対応し、ロボット3の頭部31を動かす量は中心点P1と中心点R1との距離に対応する。
動作制御部155は、向き決定部154が決定した向きにロボット3の頭部31を向かせる動作を示す動作情報を生成し、通信端末2へ送信する。動作情報は、駆動部33が頭部31をどのように駆動するかを示す情報である。駆動部33は、通信端末2を介してロボット制御装置1から受け取った動作情報が示す動作に従って、頭部31を駆動する。
また、動作制御部155は、向き決定部154が決定した向きを示す動作情報を、通信端末2へ送信してもよい。この場合に、ロボット3は、通信端末2を介してロボット制御装置1から受け取った動作情報が示す向きに頭部31を向かせる動作を決定する。駆動部33は、ロボット3が決定した動作に従って、頭部31を駆動する。
動作制御部155は、頭部31に加えて、腕部32を動作させるための動作情報を、通信端末2へ送信してもよい。この場合に、ロボット3は、通信端末2を介してロボット制御装置1から受け取った動作情報に基づいて、頭部31及び腕部32を動作させる。
ヘッドマウントディスプレイの向きや視線の向きを用いてユーザの操作を受け付ける場合に、ユーザの身体はある程度無意識に動くため、ユーザの操作をそのまま反映するとロボット3の頭部31が不規則に動いてしまう。そこで動作制御部155は、表示領域Rの位置を含む所定範囲内に表示領域Rの位置が滞在した時間を測定してもよい。そして動作制御部155は、測定した時間が所定値以上である場合に、ロボット3の頭部31を動作させる。
これにより、動作制御部155は、ユーザの操作に基づいて特定された表示領域Rの位置がほぼ停止した場合にロボット3の頭部31を動作させるため、ロボット3の頭部31が不規則に動くことを抑制できる。
また、表示制御部152は、表示領域Rの位置を含む所定範囲内に表示領域Rの位置が滞在した時間が所定値以上である場合に、移動後の位置の表示領域Rを表示部11に表示させてもよい。これにより、表示制御部152は、ユーザの操作に基づいて特定された表示領域Rの位置がほぼ停止した場合に表示領域Rを更新するため、表示領域Rが不規則に動くことを抑制できる。
ヘッドマウントディスプレイの向きや視線の向きを用いてユーザの操作を受け付ける場合に、反射等によってユーザの身体が動いてしまうことがあり、このような異常な動きをロボット3の頭部31に反映する必要はない。そこで動作制御部155は、表示領域Rの位置の所定時間内の変化量(すなわち移動速度)を算出してもよい。そして動作制御部155は、算出した所定時間内の変化量が所定値以下である場合に、ロボット3の頭部31を動作させる。
これにより、動作制御部155は、ユーザの操作に基づいて特定された表示領域Rの位置の移動速度が小さい場合にロボット3の頭部31を動作させるため、ユーザの異常な動きに基づいてロボット3の頭部31が動くことを抑制できる。
また、表示制御部152は、表示領域Rの位置の所定時間内の変化量が所定値以下である場合に、移動後の位置の表示領域Rを表示部11に表示させてもよい。これにより、表示制御部152は、ユーザの操作に基づいて特定された表示領域Rの位置の移動速度が小さい場合に表示領域Rを更新するため、ユーザの異常な動きに基づいて表示領域Rが動くことを抑制できる。
図7は、本実施形態に係るロボット3の動作を示す模式図である。図7の上図は、ロボット3が正面を向いている状態を表している。この状態で、ユーザが図6(b)のように表示領域Rを左に動かす操作をした場合に、動作制御部155は、ロボット3の頭部31を左に向かせる動作を示す動作情報を送信する。そして図7の下図のように、ロボット3は、ロボット制御装置1から受け取った動作情報が示す動作に従って、頭部31をロボット3から見て左に動かす。
このように、表示制御部152が表示領域Rを更新するのと並行して動作制御部155がロボット3の頭部31を動作させることによって、ロボットの操作者であるユーザが見ている表示領域Rとロボット3の動作との間の時間差を小さくできるため、ユーザとロボット3の周囲にいる人との間のコミュニケーションを円滑化できる。
[ロボット制御方法のフローチャート]
図8は、本実施形態に係るロボット制御方法のフローチャートを示す図である。図8のフローチャートは、例えばユーザがロボット制御装置1に対して所定の開始操作をすることによって開始される。まずロボット3の設置者は、ロボット3の周囲を撮像可能な位置に通信端末2を配置する。そして設置者は、通信端末2に、撮像部21による撮像を開始させる。
図8は、本実施形態に係るロボット制御方法のフローチャートを示す図である。図8のフローチャートは、例えばユーザがロボット制御装置1に対して所定の開始操作をすることによって開始される。まずロボット3の設置者は、ロボット3の周囲を撮像可能な位置に通信端末2を配置する。そして設置者は、通信端末2に、撮像部21による撮像を開始させる。
ロボット制御装置1の画像取得部151は、撮像部21が撮像した、表示部11が表示可能な表示領域に対応する撮像範囲よりも広い範囲の撮像画像を取得し、記憶部13に記憶させる(S11)。以降の処理では、画像取得部151は、撮像部21が撮像した撮像画像を定期的に取得し、記憶部13に記憶されている撮像画像を更新する。
表示制御部152は、撮像画像の中央に表示領域Rが位置するように、表示領域の初期位置を特定し、撮像画像の中で初期位置を含む所定の大きさの領域を、表示領域として表示部11に表示させる(S12)。
操作受付部153は、操作部12を介して、ユーザが行った操作を受け付ける(S13)。表示領域を移動させる操作を操作受付部153が受け付けていない場合に(S14のNO)、操作受付部153はステップS13〜S14を繰り返す。表示領域を移動させる操作を操作受付部153が受け付けた場合に(S14のYES)、表示制御部152は、ユーザの操作に対応する表示領域の移動後の位置を特定する(S15)。
表示制御部152は、撮像画像の中で移動後の位置を含む所定の大きさの領域を、表示領域として表示部11に表示させる(S16)。ステップS16と並行して、向き決定部154は、表示領域の移動後の位置に対応するロボット3の頭部31の向きを決定する(S17)。動作制御部155は、向き決定部154が決定した向きにロボット3の頭部31を向かせる動作を示す動作情報を生成する(S18)。
そして動作制御部155は、生成した動作情報を、通信端末2を介してロボット3へ送信することによって、ロボット3の頭部31を動作させる(S19)。ロボット3の駆動部33は、ロボット制御装置1から受け取った動作情報が示す動作に従って、頭部31を駆動する。
ステップS16は、ステップS17〜S19よりも前に行われることが望ましい。これにより、ロボット制御装置1は、ロボット3の頭部31が動作するのを待たずに表示領域の向きを変えられるため、ユーザの操作に対するレスポンスが向上する。
所定の終了条件(例えばユーザがロボット制御装置1に対して所定の終了操作をすること)が満たされていない場合に(S20のNO)、ロボット制御装置1はステップS13に戻って処理を繰り返す。所定の終了条件が満たされた場合に(S20のYES)、ロボット制御装置1は処理を終了する。
[実施形態の効果]
本実施形態に係るロボット制御システムSは、ロボット制御装置1の表示部11が表示可能な表示領域に対応する撮像範囲よりも広い範囲の撮像画像の一部である表示領域を、ユーザの操作に対応する位置に更新する。それと並行して、ロボット制御システムSは、ロボット3の頭部31を、更新された表示領域に対応する向きに向くように動作させる。これにより、ロボット制御システムSは、ユーザの操作に対応する向きの撮像画像を短時間で表示できるとともに、ロボット3の頭部31をユーザの操作に対応する向きに向かせることができる。
本実施形態に係るロボット制御システムSは、ロボット制御装置1の表示部11が表示可能な表示領域に対応する撮像範囲よりも広い範囲の撮像画像の一部である表示領域を、ユーザの操作に対応する位置に更新する。それと並行して、ロボット制御システムSは、ロボット3の頭部31を、更新された表示領域に対応する向きに向くように動作させる。これにより、ロボット制御システムSは、ユーザの操作に対応する向きの撮像画像を短時間で表示できるとともに、ロボット3の頭部31をユーザの操作に対応する向きに向かせることができる。
また、ロボット制御システムSによれば、ユーザが見ている撮像画像とロボット3の動作との間の時間差を小さくできるため、ロボット3の動作は、ユーザがどこを見ているかをより正確に反映する。したがって、ロボット3の操作者であるユーザと、ロボット3の周囲にいる人との間のコミュニケーションを円滑化できる。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の分散・統合の具体的な実施の形態は、以上の実施の形態に限られず、その全部又は一部について、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を合わせ持つ。
ロボット制御装置1のプロセッサは、図8に示すロボット制御方法に含まれる各ステップ(工程)の主体となる。すなわち、ロボット制御装置1のプロセッサは、図8に示すロボット制御方法を実行するためのプログラムを記憶部から読み出し、当該プログラムを実行してロボット制御システムSの各部を制御することによって、図8に示すロボット制御方法を実行する。図8に示すロボット制御方法に含まれるステップは一部省略されてもよく、ステップ間の順番が変更されてもよく、複数のステップが並行して行われてもよい。
S ロボット制御システム
1 ロボット制御装置
11 表示部
15 制御部
151 画像取得部
152 表示制御部
153 操作受付部
155 動作制御部
21 撮像部
3 ロボット
31 頭部
1 ロボット制御装置
11 表示部
15 制御部
151 画像取得部
152 表示制御部
153 操作受付部
155 動作制御部
21 撮像部
3 ロボット
31 頭部
Claims (11)
- 撮像部が撮像したロボットの周囲の撮像画像を取得する取得部と、
ユーザの操作を受け付ける受付部と、
前記撮像画像の中で前記操作に対応する位置を特定し、前記位置を含む前記撮像画像の一部の表示領域を表示部に表示させる表示制御部と、
前記ロボットの頭部を、前記表示制御部が特定した前記位置に対応する向きに向くように動作させる動作制御部と、
を有し、
前記表示制御部は、前記動作制御部が前記頭部を動作させる時点よりも前に、前記表示部に前記表示領域を表示させる、ロボット制御装置。 - 前記取得部は、前記表示領域に対応する撮像範囲よりも広い範囲を撮像した前記撮像画像を取得する、請求項1に記載のロボット制御装置。
- 前記取得部は、前記ロボットに接続された撮像部又は前記ロボット上に設けられた撮像部が撮像した前記撮像画像を取得する、請求項1又は2に記載のロボット制御装置。
- 前記動作制御部は、前記撮像画像の中心点に対する前記表示領域の中心点の位置と、前記ロボットの頭部の向きとの関係とに基づいて決定した前記向きに向くように、前記頭部を動作させる、請求項1から3のいずれか一項に記載のロボット制御装置。
- 前記動作制御部は、前記位置を含む所定範囲内に前記位置が滞在した時間を測定し、測定した前記時間が所定値以上である場合に、前記頭部を動作させる、請求項1から4のいずれか一項に記載のロボット制御装置。
- 前記動作制御部は、前記位置の所定時間内の変化量が所定値以下である場合に、前記頭部を動作させる、請求項1から5のいずれか一項に記載のロボット制御装置。
- 前記表示制御部は、前記位置を含む所定範囲内に前記位置が滞在した時間を測定し、測定した前記時間が所定値以上である場合に、前記表示部に前記表示領域を表示させる、請求項1から6のいずれか一項に記載のロボット制御装置。
- 前記表示制御部は、前記位置の所定時間内の変化量が所定値以下である場合に、前記表示部に前記表示領域を表示させる、請求項1から7のいずれか一項に記載のロボット制御装置。
- プロセッサが、
撮像部が撮像したロボットの周囲の撮像画像を取得するステップと、
ユーザの操作を受け付けるステップと、
前記撮像画像の中で前記操作に対応する位置を特定し、前記位置を含む前記撮像画像の一部の表示領域を表示部に表示させるステップと、
前記ロボットの頭部を、前記表示させるステップが特定した前記位置に対応する向きに向くように動作させるステップと、
を実行し、
前記表示させるステップは、前記動作させるステップが前記頭部を動作させる時点よりも前に、前記表示部に前記表示領域を表示させる、ロボット制御方法。 - コンピュータに、
撮像部が撮像したロボットの周囲の撮像画像を取得するステップと、
ユーザの操作を受け付けるステップと、
前記撮像画像の中で前記操作に対応する位置を特定し、前記位置を含む前記撮像画像の一部の表示領域を表示部に表示させるステップと、
前記ロボットの頭部を、前記表示させるステップが特定した前記位置に対応する向きに向くように動作させるステップと、
を実行させ、
前記表示させるステップは、前記動作させるステップが前記頭部を動作させる時点よりも前に、前記表示部に前記表示領域を表示させる、ロボット制御プログラム。 - ロボットと、ロボット制御装置とを備え、
前記ロボットは、向きが変わるように動作可能な頭部を有し、
前記ロボット制御装置は、
撮像部が撮像した前記ロボットの周囲の撮像画像を取得する取得部と、
ユーザの操作を受け付ける受付部と、
前記撮像画像の中で前記操作に対応する位置を特定し、前記位置を含む前記撮像画像の一部の表示領域を表示部に表示させる表示制御部と、
前記ロボットの前記頭部を、前記表示制御部が特定した前記位置に対応する向きに向くように動作させる動作制御部と、
を有し、
前記表示制御部は、前記動作制御部が前記頭部を動作させる時点よりも前に、前記表示部に前記表示領域を表示させる、ロボット制御システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019000764A JP2020109926A (ja) | 2019-01-07 | 2019-01-07 | ロボット制御装置、ロボット制御方法、ロボット制御プログラム及びロボット制御システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019000764A JP2020109926A (ja) | 2019-01-07 | 2019-01-07 | ロボット制御装置、ロボット制御方法、ロボット制御プログラム及びロボット制御システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020109926A true JP2020109926A (ja) | 2020-07-16 |
Family
ID=71570183
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019000764A Pending JP2020109926A (ja) | 2019-01-07 | 2019-01-07 | ロボット制御装置、ロボット制御方法、ロボット制御プログラム及びロボット制御システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020109926A (ja) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002046088A (ja) * | 2000-08-03 | 2002-02-12 | Matsushita Electric Ind Co Ltd | ロボット装置 |
JP2002135641A (ja) * | 2000-10-27 | 2002-05-10 | Nippon Telegr & Teleph Corp <Ntt> | 視点・視線自由移動カメラシステム |
JP2012175136A (ja) * | 2011-02-17 | 2012-09-10 | Nec Corp | カメラシステムおよびその制御方法 |
JP2012244480A (ja) * | 2011-05-20 | 2012-12-10 | Toshiba Teli Corp | 全方位監視画像表示処理システム |
JP2017107535A (ja) * | 2015-12-11 | 2017-06-15 | 富士ゼロックス株式会社 | テレプレゼンス及びロボット遠隔操作のためのフォーカスアンドコンテクストビューのシステム及び方法、第1の機器、第1の機器のための方法、及び非一時的コンピュータ読み取り可能媒体 |
JP2017126942A (ja) * | 2016-01-15 | 2017-07-20 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2017201742A (ja) * | 2016-05-02 | 2017-11-09 | 株式会社ソニー・インタラクティブエンタテインメント | 処理装置および画像決定方法 |
JP2018067785A (ja) * | 2016-10-19 | 2018-04-26 | 前川 博文 | コミュニケーションロボットシステム |
WO2019003889A1 (ja) * | 2017-06-26 | 2019-01-03 | ソニー株式会社 | 生成装置および生成方法、並びに、再生装置および再生方法 |
-
2019
- 2019-01-07 JP JP2019000764A patent/JP2020109926A/ja active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002046088A (ja) * | 2000-08-03 | 2002-02-12 | Matsushita Electric Ind Co Ltd | ロボット装置 |
JP2002135641A (ja) * | 2000-10-27 | 2002-05-10 | Nippon Telegr & Teleph Corp <Ntt> | 視点・視線自由移動カメラシステム |
JP2012175136A (ja) * | 2011-02-17 | 2012-09-10 | Nec Corp | カメラシステムおよびその制御方法 |
JP2012244480A (ja) * | 2011-05-20 | 2012-12-10 | Toshiba Teli Corp | 全方位監視画像表示処理システム |
JP2017107535A (ja) * | 2015-12-11 | 2017-06-15 | 富士ゼロックス株式会社 | テレプレゼンス及びロボット遠隔操作のためのフォーカスアンドコンテクストビューのシステム及び方法、第1の機器、第1の機器のための方法、及び非一時的コンピュータ読み取り可能媒体 |
JP2017126942A (ja) * | 2016-01-15 | 2017-07-20 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2017201742A (ja) * | 2016-05-02 | 2017-11-09 | 株式会社ソニー・インタラクティブエンタテインメント | 処理装置および画像決定方法 |
JP2018067785A (ja) * | 2016-10-19 | 2018-04-26 | 前川 博文 | コミュニケーションロボットシステム |
WO2019003889A1 (ja) * | 2017-06-26 | 2019-01-03 | ソニー株式会社 | 生成装置および生成方法、並びに、再生装置および再生方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10523871B2 (en) | Imaging system and imaging control method with display of image with vertical alignment | |
US10572143B2 (en) | Imaging system and imaging control method with pan/tilt control | |
US11228737B2 (en) | Output control apparatus, display terminal, remote control system, control method, and non-transitory computer-readable medium | |
CN108763998B (zh) | 条形码识别方法以及终端设备 | |
JP2020005146A (ja) | 出力制御装置、表示端末、情報処理装置、移動体、遠隔制御システム、出力制御方法、プログラムおよび撮影制御装置 | |
US9743048B2 (en) | Imaging apparatus, camera unit, display unit, image-taking method, display method and computer readable recording medium recording program thereon | |
CN110825333A (zh) | 显示方法、装置、终端设备及存储介质 | |
CN114762314A (zh) | 用于控制相机运动的电子装置和方法 | |
US10771707B2 (en) | Information processing device and information processing method | |
CN111031246A (zh) | 拍摄方法及电子设备 | |
CN111385525B (zh) | 视频监控方法、装置、终端及系统 | |
JP5771508B2 (ja) | 表示装置、撮像装置、および映像表示システム | |
WO2017029776A1 (en) | Image pickup apparatus | |
JP2020109926A (ja) | ロボット制御装置、ロボット制御方法、ロボット制御プログラム及びロボット制御システム | |
JP2014192745A (ja) | 撮像装置、情報処理装置及びそれらの制御方法、プログラム | |
US20200327867A1 (en) | Head mounted display system capable of displaying a virtual scene and a map of a real environment in a picture-in-picture mode, related method and related non-transitory computer readable storage medium | |
CN108712604B (zh) | 一种全景拍摄方法及移动终端 | |
JP2004363987A (ja) | 画像提示システム | |
JP2012194492A (ja) | ヘッドマウントディスプレイ及びヘッドマウントディスプレイのためのコンピュータプログラム | |
KR102549631B1 (ko) | 신체 일부의 자세 및 장치의 기울기를 이용한 실시간 작업 장치 및 카메라 제어 방법 및 장치 | |
CN111158791A (zh) | 配置文件更新方法、装置及系统、存储介质 | |
CN111344776A (zh) | 信息处理装置、信息处理方法和程序 | |
WO2017168622A1 (ja) | 撮像画像共有システム、撮像画像共有方法及びプログラム | |
KR102196683B1 (ko) | 3d 투어 촬영 장치 및 방법 | |
EP4290308A1 (en) | Camera device and camera system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221025 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221026 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230425 |