JP2012175136A - Camera system and control method of the same - Google Patents

Camera system and control method of the same Download PDF

Info

Publication number
JP2012175136A
JP2012175136A JP2011031945A JP2011031945A JP2012175136A JP 2012175136 A JP2012175136 A JP 2012175136A JP 2011031945 A JP2011031945 A JP 2011031945A JP 2011031945 A JP2011031945 A JP 2011031945A JP 2012175136 A JP2012175136 A JP 2012175136A
Authority
JP
Japan
Prior art keywords
camera
image
unit
image processing
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011031945A
Other languages
Japanese (ja)
Inventor
Kazuyoshi Katsuta
和義 割田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2011031945A priority Critical patent/JP2012175136A/en
Publication of JP2012175136A publication Critical patent/JP2012175136A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a camera system capable of reducing occurrence of erroneous communication while securing high operability.SOLUTION: An image processing part 16 subjects an image taken by a camera 11 to image processing of processing a prescribed region within the image, thereby generating a processed image. A display part displays the processed image. An operation part receives an operation command indicating the orientation of the camera. A motor control part 18 adjusts the orientation of the camera 11 according to the operation command.

Description

本発明は、カメラシステムおよびその制御方法に関し、特には、遠隔地に配置されたロボット装置を用いたカメラシステムおよびその制御方法に関する。   The present invention relates to a camera system and a control method thereof, and more particularly, to a camera system using a robot apparatus disposed in a remote place and a control method thereof.

近年、伝染病によるパンデミック対策、CO2削減および経費節減などのために、移動が制限されることが多くなっていることに伴って、遠隔地にいる人とコミュニケーションを行う遠隔地コミュニケーションのニーズが高まっている。 In recent years, there has been a need for remote communication to communicate with people in remote areas as movements are increasingly restricted due to pandemic measures due to infectious diseases, CO 2 reduction and cost reduction. It is growing.

遠隔地コミュニケーションを行うための手段としては、電話装置のような音声でコミュニケーションを行う音声デバイスや、音声および画像でコミュニケーションを行うTV会議システムなどが利用されている。しかしながら、音声デバイスだけでは、表情や振る舞いなどのような、言語に依存しないノンバーバルコミュニケーションを行うことができないため、正確な意図が伝わらないミスコミュニケーションが多くなる。また、TV会議システムの場合、ある程度のノンバーバルコミュニケーションを行うことができるが、TV会議の参加者同士の視線が合わないことが多く、情報が誰に向かって発せられたのかが明確ではなく、参加者に違和感を与えることがある。   As means for performing remote communication, an audio device such as a telephone device that communicates by voice, a TV conference system that communicates by voice and images, and the like are used. However, non-verbal communication that does not depend on language such as facial expressions and behaviors cannot be performed with a voice device alone, and thus miscommunications that do not convey accurate intentions increase. In the case of a TV conference system, a certain degree of non-verbal communication can be performed, but there are many cases where the gazes of the participants in the TV conference do not match, and it is not clear who the information was sent to. May feel uncomfortable.

これに対して、音声デバイスとロボットを用いることで、音声を使用したコミュニケーションとノンバーバルコミュニケーションとを両立することが可能なロボットシステムが提案されている。ロボットシステムは、ノンバーバルコミュニケーションの中でも重要とされる、視線の向きや頷きなどをロボットに再生させることで、TV会議システムを使用するコミュニケーションよりも正確なコミュニケーションを目指している。   On the other hand, a robot system has been proposed that can achieve both voice communication and non-verbal communication by using a voice device and a robot. The robot system aims at more accurate communication than the communication using the TV conference system by causing the robot to reproduce the direction of the line of sight and the whispering, which are important in non-verbal communication.

ロボットシステムでは、通常、ロボットとは別の場所にいる遠隔地利用者が、ロボットに備わったカメラで撮像された映像を見ながらロボットを操作する(特許文献1参照)。このようなロボットシステムにおいて、人型のロボットの頭部にカメラが設けられていれば、遠隔地利用者は、ロボットの頭部の向きを動かして、自身の注目箇所にカメラを向けることで、ロボットの視線を注目箇所に向けることができる。このため、注目箇所をロボットの視線(ロボットの頭部の向き)を通じて対話相手に把握させることができる。   In a robot system, a remote user who is in a different location from the robot usually operates the robot while watching an image captured by a camera provided in the robot (see Patent Document 1). In such a robot system, if a camera is provided on the head of a humanoid robot, a remote user can move the direction of the head of the robot and point the camera at his or her attention point, The robot's line of sight can be directed to the point of interest. For this reason, a conversation partner can be grasped | ascertained through the robot's eyes | visual_axis (robot head direction).

しかしながら、ロボットに備わったカメラで撮像した映像と、実際にロボットの場所にいる人間の目に映る映像とには、見え方に差異があり、その差異がロボットの操作に影響を与え、正確な意図がロボットを通じて対話相手に伝わらないことがある。   However, there is a difference in the appearance between the image captured by the camera equipped with the robot and the image actually seen by the human being at the robot's location, and the difference affects the operation of the robot and is accurate. The intention may not be transmitted to the conversation partner through the robot.

例えば、通常、ロボットの操作性を高くするためにカメラの視野角は広くなっているので、カメラで撮像された映像は、人間の目にはぼやけて映ったり、または映らなかったりする端の方まで鮮明に見えてしまう。このため、遠隔地利用者がロボットの視線が向いていない箇所に注目してしまうことがある。この場合、対話相手は遠隔地利用者の注目箇所が分からないので、遠隔地利用者の意図を把握できず、ミスコミュニケーションが発生することがある。   For example, since the viewing angle of the camera is usually wide to improve the operability of the robot, the image captured by the camera is blurred or not visible to the human eye. It looks very clear. For this reason, a remote user may pay attention to a part where the robot's line of sight is not facing. In this case, the conversation partner does not know the location of the user at the remote location, so the intention of the remote location user cannot be grasped and miscommunication may occur.

これに対して特許文献2には、遠隔地利用者がカメラの視野角を調整することができるロボット装置が記載されている。このロボット装置を用いて、カメラで撮像した映像と人間の目に映る映像とが一致するように視野角が調整されれば、遠隔地利用者がロボットの視線が向いていない箇所に注目することを軽減することができる。   On the other hand, Patent Document 2 describes a robot apparatus that allows a remote user to adjust the viewing angle of a camera. Using this robotic device, if the viewing angle is adjusted so that the image captured by the camera matches the image seen by the human eye, the remote user should pay attention to where the robot's line of sight is not facing Can be reduced.

特開2004−255552号公報JP 2004-255552 A 特開2002−46088号公報JP 2002-46088 A

しかしながら、特許文献2に記載のロボット装置を用いてカメラの視野角が調整されて狭くなると、遠隔地利用者は視野角外の状況を把握することが困難になるため、ロボットの操作性が低くなるという問題がある。このため、高操作性を確保しつつ、ミスコミュニケーションの発生を軽減することができない。   However, if the viewing angle of the camera is adjusted and narrowed by using the robot apparatus described in Patent Document 2, it becomes difficult for a remote user to grasp the situation outside the viewing angle, so the operability of the robot is low. There is a problem of becoming. For this reason, the occurrence of miscommunication cannot be reduced while ensuring high operability.

本発明の目的は、上記の課題である、高操作性を確保しつつ、ミスコミュニケーションの発生を軽減することができないという問題を解決することが可能なカメラシステムおよびその制御方法を提供することである。   An object of the present invention is to provide a camera system and a control method therefor that can solve the above-mentioned problem that it is impossible to reduce the occurrence of miscommunication while ensuring high operability. is there.

本発明によるカメラシステムは、カメラと、前記カメラで撮像された撮像画像に対して、当該撮像画像内の所定領域を加工する画像処理を行った加工画像を生成する画像処理部と、前記加工画像を表示する表示部と、前記カメラの向きを示すコマンドを受け付ける操作部と、前記コマンドに応じて前記カメラの向きを調整する調整部と、を有する。   The camera system according to the present invention includes a camera, an image processing unit that generates a processed image obtained by performing image processing for processing a predetermined area in the captured image on the captured image captured by the camera, and the processed image. A display unit that displays a command, an operation unit that receives a command indicating the orientation of the camera, and an adjustment unit that adjusts the orientation of the camera according to the command.

本発明によるカメラシステムの制御方法は、カメラを備えたカメラシステムの制御方法であって、前記カメラで撮像された撮像画像に対して、当該撮像画像内の所定領域を加工する画像処理を行った加工画像を生成し、前記加工画像を表示し、前記カメラの向きを示すコマンドを受け付け、前記コマンドに応じて前記カメラの向きを調整する。   A control method for a camera system according to the present invention is a control method for a camera system including a camera, and performs image processing for processing a predetermined area in the captured image on a captured image captured by the camera. A processed image is generated, the processed image is displayed, a command indicating the orientation of the camera is received, and the orientation of the camera is adjusted according to the command.

本発明によれば、高操作性を確保しつつ、ミスコミュニケーションの発生を軽減することが可能になる。   According to the present invention, it is possible to reduce the occurrence of miscommunication while ensuring high operability.

本発明の第1の実施形態のカメラシステムを示す図である。It is a figure which shows the camera system of the 1st Embodiment of this invention. ロボットの外形の一例を示す正面図である。It is a front view which shows an example of the external shape of a robot. ロボットの機能的な構成の一例を示す図である。It is a figure which shows an example of the functional structure of a robot. ユーザ端末の機能的な構成の一例を示す図である。It is a figure which shows an example of a functional structure of a user terminal. カメラシステムの動作の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of operation | movement of a camera system. 元画像と加工画像とを比較するための図である。It is a figure for comparing an original image and a processed image. カメラシステムの動作の他の例を説明するためのフローチャートである。It is a flowchart for demonstrating the other example of operation | movement of a camera system. ロボットの機能的な構成の他の例を示す図である。It is a figure which shows the other example of a functional structure of a robot.

以下、本発明の実施形態について図面を参照して説明する。なお、以下の説明では、同じ機能を有するものには同じ符号を付け、その説明を省略する場合がある。   Embodiments of the present invention will be described below with reference to the drawings. In the following description, components having the same function may be denoted by the same reference numerals and description thereof may be omitted.

図1は、本発明の第1の実施形態のカメラシステムを示す図である。図1において、カメラシステムは、ロボット1と、ユーザ端末2とを有する。また、ロボット1およびユーザ端末2は、インターネットなどの通信網3を介して相互に通信可能に接続されている。   FIG. 1 is a diagram showing a camera system according to a first embodiment of the present invention. In FIG. 1, the camera system includes a robot 1 and a user terminal 2. The robot 1 and the user terminal 2 are connected to each other via a communication network 3 such as the Internet so that they can communicate with each other.

ロボット1は、人型のロボット装置であり、図2で示すように、回転可能な頭部10を有し、カメラ11の向きがロボット1の視線の向きと一致するように、頭部10の目に当たる箇所にカメラ11が設けられている。なお、頭部10は、胴体部10’の上に設けられている。   The robot 1 is a humanoid robot device. As shown in FIG. 2, the robot 1 has a rotatable head 10, and the direction of the camera 11 matches the direction of the line of sight of the robot 1. A camera 11 is provided at a place where it hits the eyes. The head portion 10 is provided on the body portion 10 '.

ユーザ端末2は、ロボット1を操作するための端末装置である。   The user terminal 2 is a terminal device for operating the robot 1.

以下では、ロボット1は、会議室に配置され、ユーザ端末2は、会議室で行われる会議の遠隔参加者であるユーザ4の自宅に配置されているものとする。また、ユーザ4は、ユーザ端末2を用いてロボット1を操作して、会議の室内参加者である複数人(図1では3人)の対話相手5〜7とコミュニケーションを行うものとする。   In the following, it is assumed that the robot 1 is disposed in a conference room, and the user terminal 2 is disposed at the home of a user 4 who is a remote participant of a conference held in the conference room. In addition, the user 4 operates the robot 1 using the user terminal 2 to communicate with a plurality of (three in FIG. 1) conversation partners 5 to 7 who are indoor participants in the conference.

図3は、ロボット1の機能的な構成を示す図である。図3において、ロボット1は、頭部10と、カメラ11と、モータ12と、頭角度検出部13と、メモリ書き込み制御部14と、画像メモリ15と、画像処理部16と、情報送受信部17と、モータ制御部18とを有する。   FIG. 3 is a diagram illustrating a functional configuration of the robot 1. In FIG. 3, the robot 1 includes a head 10, a camera 11, a motor 12, a head angle detection unit 13, a memory write control unit 14, an image memory 15, an image processing unit 16, and an information transmission / reception unit 17. And a motor control unit 18.

頭部10は、所定の軸を中心として回転可能な回転動作体である。所定の軸は、特に限定されない。本実施形態では、所定の軸は、頭部10から胴体部10’に向かう方向に延伸された軸であるとする。この場合、頭部10は左右に動作することになる。   The head 10 is a rotary operation body that can rotate around a predetermined axis. The predetermined axis is not particularly limited. In the present embodiment, it is assumed that the predetermined axis is an axis that extends in a direction from the head 10 toward the body portion 10 ′. In this case, the head 10 moves left and right.

カメラ11は、周囲を撮像する撮像部である。なお、カメラ11としては、視野角の広い広角カメラが使用されているものとする。   The camera 11 is an imaging unit that images the surroundings. As the camera 11, a wide-angle camera with a wide viewing angle is used.

モータ12は、頭部10を回転させる駆動部である。モータ12が頭部10を回転させると、その回転に応じてカメラ11の向きが変化する。   The motor 12 is a drive unit that rotates the head 10. When the motor 12 rotates the head 10, the orientation of the camera 11 changes according to the rotation.

頭角度検出部13は、ロボット1の頭部10の回転角度を検出する。   The head angle detector 13 detects the rotation angle of the head 10 of the robot 1.

メモリ書き込み制御部14は、カメラ11で撮像された撮像画像に、頭角度検出部13で検出された回転角度を付加して画像メモリ15に記録する。   The memory writing control unit 14 adds the rotation angle detected by the head angle detection unit 13 to the captured image captured by the camera 11 and records it in the image memory 15.

画像処理部16は、画像メモリ15に記録された撮像画像に対して、その撮像画像内の所定領域を加工する画像処理を行って、撮像画像から加工画像を生成する。所定領域は、撮像画像の中央部を除いた左右の領域や、撮像画像の中央部を除いた左右および上下の領域などである。   The image processing unit 16 performs image processing for processing a predetermined area in the captured image on the captured image recorded in the image memory 15, and generates a processed image from the captured image. The predetermined areas are left and right areas excluding the central part of the captured image, left and right and upper and lower areas excluding the central part of the captured image, and the like.

画像処理としては、例えば、所定領域の鮮明度を下げて所定領域内をぼやかす処理や、所定領域に半透明のマスクを合成する処理などが挙げられる。   Examples of the image processing include processing for reducing the sharpness of a predetermined area and blurring the inside of the predetermined area, and processing for synthesizing a translucent mask in the predetermined area.

また、画像処理は、所定領域に対して画像認識処理を行い、所定領域内の予め定められた対象物(例えば、人間など)を特定し、その対象物を変化させる処理でもよい。対象物を変化させる処理としては、例えば、対象物を輪郭のみにする処理や、対象物をデフォルメまたは抽象化する処理などが挙げられる。また、対象物のデフォルメまたは抽象化する方法としては、対象物の輪郭の曲線部を直線で近似する方法などが挙げられる。   Further, the image processing may be processing for performing image recognition processing on a predetermined area, specifying a predetermined object (for example, a human) in the predetermined area, and changing the object. Examples of the process for changing the object include a process for making the object only an outline and a process for deforming or abstracting the object. Moreover, as a method of deforming or abstracting the object, a method of approximating the curved portion of the contour of the object with a straight line can be cited.

さらに、画像処理は、所定領域内の対象物の位置を示す位置情報を作成し、所定領域内に位置情報のみを示すようにする処理などでもよい。また、画像処理は、上記の例を組み合わせたものでもよい。   Further, the image processing may be processing that creates position information indicating the position of an object in a predetermined area and shows only position information in the predetermined area. The image processing may be a combination of the above examples.

情報送受信部17は、画像処理部16にて生成された加工画像をユーザ端末2に送信する。また、情報送受信部17は、ユーザ端末2から、ロボットを操作するための操作コマンドを受信する。操作コマンドは、より具体的には、頭部10の回転角度、つまり、カメラ11の向きを示す。   The information transmission / reception unit 17 transmits the processed image generated by the image processing unit 16 to the user terminal 2. Further, the information transmitting / receiving unit 17 receives an operation command for operating the robot from the user terminal 2. More specifically, the operation command indicates the rotation angle of the head 10, that is, the direction of the camera 11.

モータ制御部18は、情報送受信部17が受信した操作コマンドに応じて、頭部10を回転させてカメラ11の向き(ロボット1の視線)を調整する。より具体的には、モータ制御部18は、操作コマンドが示す回転角度だけ頭部10が回転するようにモータ12を駆動して、カメラ11の向きを調整する。したがって、モータ12およびモータ制御部18は、操作コマンドに応じてカメラ11の向きを調整する調整部を構成することになる。   The motor control unit 18 adjusts the direction of the camera 11 (the line of sight of the robot 1) by rotating the head 10 according to the operation command received by the information transmitting / receiving unit 17. More specifically, the motor control unit 18 adjusts the orientation of the camera 11 by driving the motor 12 so that the head 10 rotates by the rotation angle indicated by the operation command. Therefore, the motor 12 and the motor control unit 18 constitute an adjustment unit that adjusts the orientation of the camera 11 in accordance with the operation command.

図4は、ユーザ端末2の機能的な構成を示す図である。図4において、ユーザ端末2は、情報送受信部21と、表示処理部22と、表示部23と、操作部24と、入力処理部25とを有する。   FIG. 4 is a diagram illustrating a functional configuration of the user terminal 2. In FIG. 4, the user terminal 2 includes an information transmission / reception unit 21, a display processing unit 22, a display unit 23, an operation unit 24, and an input processing unit 25.

情報送受信部21は、ロボット1から加工画像を受信する。   The information transmitting / receiving unit 21 receives the processed image from the robot 1.

表示処理部22は、情報送受信部21が受信した加工画像を表示部23に表示する。   The display processing unit 22 displays the processed image received by the information transmitting / receiving unit 21 on the display unit 23.

操作部24は、ユーザから操作コマンドを受け付ける。   The operation unit 24 receives an operation command from the user.

入力処理部25は、操作部24が受け付けた操作コマンドを、情報送受信部21を介してロボット1に送信する。   The input processing unit 25 transmits the operation command received by the operation unit 24 to the robot 1 via the information transmission / reception unit 21.

次に動作を説明する。   Next, the operation will be described.

図5は、カメラ11で撮像された撮像画像を表示部23に表示する際のカメラシステムの動作の一例を説明するためのフローチャートである。   FIG. 5 is a flowchart for explaining an example of the operation of the camera system when displaying the captured image captured by the camera 11 on the display unit 23.

先ず、ロボット1の頭部10に備わったカメラ11が周囲を撮像して撮像画像を取得し、その撮像画像をメモリ書込み制御部14に出力する(ステップS51)。   First, the camera 11 provided in the head 10 of the robot 1 captures the surroundings to acquire a captured image, and outputs the captured image to the memory write control unit 14 (step S51).

メモリ書込み制御部14は、撮像画像を受け付けると、頭部10の回転角度を頭角度検出部13から取得して撮像画像に付加し、その回転角度が付加された撮像画像を画像メモリ15に書き込む(ステップS52)。   When receiving the captured image, the memory writing control unit 14 acquires the rotation angle of the head 10 from the head angle detection unit 13 and adds the rotation angle to the captured image, and writes the captured image with the rotation angle added to the image memory 15. (Step S52).

画像処理部16は、画像メモリ15に撮像画像が書き込まれたことを検出し、画像メモリ15から撮像画像を取得する。画像処理部16は、その撮像画像に対して画像処理を行い、その画像処理を行った撮像画像である加工画像を情報送受信部17に出力する(ステップS53)。   The image processing unit 16 detects that the captured image has been written in the image memory 15 and acquires the captured image from the image memory 15. The image processing unit 16 performs image processing on the captured image, and outputs a processed image, which is the captured image on which the image processing has been performed, to the information transmitting / receiving unit 17 (step S53).

図6は、画像処理前の撮像画像である元画像と、画像処理後の撮像画像である加工画像との一例を示す図である。なお、画像処理としては、所定領域に半透明のマスクを付加する処理が用いられている。   FIG. 6 is a diagram illustrating an example of an original image that is a captured image before image processing and a processed image that is a captured image after image processing. As the image processing, processing for adding a translucent mask to a predetermined area is used.

図6で示したように、元画像61では、横に並んだ対話相手5〜7が全て鮮明に映されているが、加工画像62では、対話相手5〜7のうち、中央にいる対話相手6は鮮明に映っているが、所定領域63内に映っている対話相手5および7は、ぼやけている。   As shown in FIG. 6, in the original image 61, all the conversation partners 5 to 7 arranged side by side are clearly shown, but in the processed image 62, the conversation partner in the center among the conversation partners 5 to 7. 6 is clearly shown, but the conversation partners 5 and 7 shown in the predetermined area 63 are blurred.

図5の説明に戻る。情報送受信部17は、加工画像を受け付けると、その加工画像を通信網3を介してユーザ端末2の情報送受信部21に送信する(ステップS54)。   Returning to the description of FIG. When receiving the processed image, the information transmitting / receiving unit 17 transmits the processed image to the information transmitting / receiving unit 21 of the user terminal 2 via the communication network 3 (step S54).

情報送受信部21は、加工画像を受信すると、その加工画像を表示処理部22に出力する。表示処理部22は、加工画像を受け付けると、その加工画像を表示部23に表示する(ステップS55)。   When receiving the processed image, the information transmitting / receiving unit 21 outputs the processed image to the display processing unit 22. Upon receiving the processed image, the display processing unit 22 displays the processed image on the display unit 23 (step S55).

図7は、ロボット1の操作に係るカメラシステムの動作の一例を説明するためのフローチャートである。   FIG. 7 is a flowchart for explaining an example of the operation of the camera system related to the operation of the robot 1.

先ず、入力処理部25は、操作部24に対して操作コマンドの入力操作があったか否かを確認する(ステップS71)。   First, the input processing unit 25 checks whether or not an operation command input operation has been performed on the operation unit 24 (step S71).

入力操作があった場合、入力処理部25は、その操作コマンドを情報送受信部21に出力する。情報送受信部21は、操作コマンドを受け付けると、その操作コマンドを通信網3を介してロボット1の情報送受信部17に送信する(ステップS72)。   When there is an input operation, the input processing unit 25 outputs the operation command to the information transmitting / receiving unit 21. When receiving the operation command, the information transmitting / receiving unit 21 transmits the operation command to the information transmitting / receiving unit 17 of the robot 1 via the communication network 3 (step S72).

情報送受信部17は、操作コマンドを受信すると、その操作コマンドをモータ制御部18に出力する。モータ制御部18は、操作コマンドを受け付けると、その操作コマンドが示す回転角度だけ頭部10が回転するようにモータ12を駆動する(ステップS73)。このモータ12の駆動によって頭部10が回転し、カメラ11の向きが変化する(ステップS74)。   When receiving the operation command, the information transmitting / receiving unit 17 outputs the operation command to the motor control unit 18. When receiving the operation command, the motor control unit 18 drives the motor 12 so that the head 10 rotates by the rotation angle indicated by the operation command (step S73). The head 10 is rotated by the drive of the motor 12, and the orientation of the camera 11 is changed (step S74).

以上説明したように本実施形態によれば、画像処理部16は、カメラ11で撮像された撮像画像に対して、その撮像画像内の所定領域を加工する画像処理を行って、加工画像を生成する。また、表示部23は、加工画像を表示する。操作部24は、カメラの向きを示す操作コマンドを受け付ける。モータ制御部18は、操作コマンドに応じてカメラ11の向きを調整する。   As described above, according to the present embodiment, the image processing unit 16 generates a processed image by performing image processing for processing a predetermined region in the captured image on the captured image captured by the camera 11. To do. The display unit 23 displays the processed image. The operation unit 24 receives an operation command indicating the direction of the camera. The motor control unit 18 adjusts the orientation of the camera 11 according to the operation command.

したがって、撮像画像内の所定領域が加工された加工画像が表示されるので、ユーザ4が所定領域内に映っている人物の表情などを正確に把握することが困難になる。このため、ユーザ4は、所定領域に映っている人物の表情を見る場合には、操作コマンドを入力してカメラ11の向きを所定領域内に映っている人物に向ける必要がある。したがって、カメラ11がユーザ4の注目箇所に向くことになり、対話相手はユーザ4の注目箇所をカメラ11の向きから把握することが可能になる。このため、ミスコミュニケーションの発生を軽減することができる。   Therefore, since the processed image obtained by processing the predetermined area in the captured image is displayed, it is difficult for the user 4 to accurately grasp the facial expression of the person shown in the predetermined area. For this reason, when the user 4 sees the facial expression of the person shown in the predetermined area, the user 4 needs to input an operation command to point the camera 11 toward the person shown in the predetermined area. Therefore, the camera 11 faces the user 4's attention location, and the conversation partner can grasp the user 4's attention location from the direction of the camera 11. For this reason, the occurrence of miscommunication can be reduced.

また、光学的なフィルターなどを用いて、カメラ11の視野角を調整する場合とは異なり、ユーザ4は所定領域内の人間の存在の有無や大まかな動きなどを把握することができる。このため、所定領域が人間の周辺視野のような役割を果たし、所定領域内の変化に合わせてカメラ11を動かすことなどができるため、高操作性を確保することが可能になる。   Further, unlike the case where the viewing angle of the camera 11 is adjusted using an optical filter or the like, the user 4 can grasp the presence / absence of a human being in a predetermined area and a rough movement. For this reason, the predetermined area plays a role like a human peripheral vision, and the camera 11 can be moved in accordance with a change in the predetermined area, so that high operability can be ensured.

また本実施形態では、カメラ11がロボット1の頭部10に設けられているので、カメラ11の向きとロボットの視線とを合わせることができる。このため、対話相手は、容易かつ直感的にユーザ4が注目している箇所を把握することができる。   In this embodiment, since the camera 11 is provided on the head 10 of the robot 1, the direction of the camera 11 and the line of sight of the robot can be matched. For this reason, the conversation partner can easily and intuitively grasp the part that the user 4 is paying attention to.

次に本発明の第2の実施形態について説明する。   Next, a second embodiment of the present invention will be described.

図8は、本実施形態のロボット1の機能的な構成を示す図である。図8で示されたロボット1は、図1で示した構成に加えて、音声取得部81と、音声処理部82とをさらに有する。   FIG. 8 is a diagram illustrating a functional configuration of the robot 1 according to the present embodiment. The robot 1 shown in FIG. 8 further includes a voice acquisition unit 81 and a voice processing unit 82 in addition to the configuration shown in FIG.

音声取得部81は、周囲の音声を音声データとして取得する。   The sound acquisition unit 81 acquires surrounding sound as sound data.

音声処理部82は、音声取得部81が取得した音声データに基づいて、音声データが示す音声の音源の方向である音源方向を特定する。   Based on the audio data acquired by the audio acquisition unit 81, the audio processing unit 82 specifies the sound source direction that is the direction of the audio source indicated by the audio data.

例えば、音声取得部81は複数の位置のそれぞれに設けられた複数のマイクを有し、音声処理部82は、各マイクで取得された各音声データの時間差を算出し、その時間差に基づいて、音源方向を特定する。   For example, the sound acquisition unit 81 has a plurality of microphones provided at each of a plurality of positions, and the sound processing unit 82 calculates a time difference between the sound data acquired by each microphone, and based on the time difference, Specify the sound source direction.

モータ制御部18は、音声処理部82で特定された音源方向に応じてモータ12を駆動させることで、頭部10を回転させて、カメラ11の向きを調整する。   The motor control unit 18 adjusts the direction of the camera 11 by rotating the head 10 by driving the motor 12 according to the sound source direction specified by the sound processing unit 82.

例えば、モータ制御部18は、音源方向と頭部10の回転角度との対応関係を示すテーブルを予め保持しておく。なお、音源方向と頭部10の回転角度との対応関係は、カメラ11の向きが音源方向を向くように決定されているものとする。   For example, the motor control unit 18 holds in advance a table indicating the correspondence between the sound source direction and the rotation angle of the head 10. It is assumed that the correspondence between the sound source direction and the rotation angle of the head 10 is determined so that the orientation of the camera 11 faces the sound source direction.

そして、モータ制御部18は、テーブルを用いて、音源方向に対応する回転角度を求め、その回転角度だけ頭部10が回転するようにモータ12を駆動して、カメラ11を音源方向に向ける。   And the motor control part 18 calculates | requires the rotation angle corresponding to a sound source direction using a table, drives the motor 12 so that the head 10 rotates only the rotation angle, and points the camera 11 to a sound source direction.

以上説明したように本実施形態では、音源方向に応じてカメラ11の向きを調整されるので、カメラ11をユーザ4が注目することが多い発言者の顔などに向けることが可能になる。このため、ユーザ4が操作コマンドを入力しなくても、カメラ11の向きを調整することができるので、操作性を向上させることが可能になる。   As described above, in the present embodiment, since the orientation of the camera 11 is adjusted according to the sound source direction, the camera 11 can be directed to the face of a speaker who is often watched by the user 4. For this reason, since the direction of the camera 11 can be adjusted without the user 4 inputting an operation command, the operability can be improved.

また、画像処理部16は、撮像画像に対して画像認識処理行い、撮像画像内の予め定められた検出対象物(例えば、人間の顔など)の位置を特定する。そして、モータ制御部18は、その検出対象物の位置に応じて、モータ12を駆動させることで頭部10を回転させて、カメラ11向きを調整してもよい。   In addition, the image processing unit 16 performs image recognition processing on the captured image, and specifies the position of a predetermined detection target (for example, a human face) in the captured image. Then, the motor control unit 18 may adjust the direction of the camera 11 by rotating the head 10 by driving the motor 12 according to the position of the detection target.

例えば、画像処理部16は、撮像画像の中心点からの検出対象物までの距離と方向とを検出対象物の位置として示すコマンドをモータ制御部18に出力する。モータ制御部18は、そのコマンドが示す距離および方向に基づいて、カメラ11が検出対象物を向くような回転角度を求め、その回転角度だけ頭部10が回転するようにモータ12を駆動して、カメラ11を検出対象物に向ける。   For example, the image processing unit 16 outputs a command indicating the distance and direction from the center point of the captured image to the detection target as the position of the detection target to the motor control unit 18. Based on the distance and direction indicated by the command, the motor control unit 18 obtains a rotation angle at which the camera 11 faces the detection target, and drives the motor 12 so that the head 10 rotates by the rotation angle. The camera 11 is directed toward the detection target.

この場合、検出対象物の位置に応じてカメラの向きが調整されるので、カメラ11をユーザ4が注目することが多い対話相手の顔などに向けることが可能になる。このため、ユーザ4が操作コマンドを入力しなくても、カメラ11の向きを調整することができるので、操作性を向上させることが可能になる。   In this case, since the orientation of the camera is adjusted according to the position of the detection target object, the camera 11 can be directed to the face of the conversation partner who the user 4 often pays attention to. For this reason, since the direction of the camera 11 can be adjusted without the user 4 inputting an operation command, the operability can be improved.

以上説明した各実施形態において、図示した構成は単なる一例であって、本発明はその構成に限定されるものではない。   In each embodiment described above, the illustrated configuration is merely an example, and the present invention is not limited to the configuration.

例えば、カメラ11は、広角カメラの代わりに、複数のカメラ装置で構成されてもよい。この場合、画像処理部16は、例えば、各カメラ装置で撮像された複数の撮像画像を合成して大きな画像を生成し、その大きな画像に対して画像処理を行って加工画像を生成する。   For example, the camera 11 may be composed of a plurality of camera devices instead of the wide-angle camera. In this case, for example, the image processing unit 16 generates a large image by combining a plurality of captured images captured by each camera device, and performs image processing on the large image to generate a processed image.

また、画像メモリ15が過去の撮像画像をさらに記録し、画像処理部16は、画像メモリ15内の過去の撮像画像と現在の撮像画像を合成してもよい。このとき、撮像画像のみをリアルタイムに更新し、過去の撮像画像は一定にしておいたり、周期的に変更したりしてもよい。   The image memory 15 may further record past captured images, and the image processing unit 16 may combine the past captured images in the image memory 15 with the current captured images. At this time, only the captured image may be updated in real time, and the past captured image may be kept constant or may be periodically changed.

また、画像処理部16はユーザ端末2に備わっていてもよい。   Further, the image processing unit 16 may be provided in the user terminal 2.

1 ロボット
2 ユーザ端末
3 通信網
10 頭部
10’ 胴体部
11 カメラ
12 モータ
13 頭角度検出部
14 メモリ書き込み制御部
15 画像メモリ
16 画像処理部
17、21 情報送受信部
18 モータ制御部
22 表示処理部
23 表示部
24 操作部
25 入力処理部
81 音声取得部
82 音声処理部
DESCRIPTION OF SYMBOLS 1 Robot 2 User terminal 3 Communication network 10 Head 10 'Torso part 11 Camera 12 Motor 13 Head angle detection part 14 Memory write control part 15 Image memory 16 Image processing part 17, 21 Information transmission / reception part 18 Motor control part 22 Display processing part 23 display unit 24 operation unit 25 input processing unit 81 voice acquisition unit 82 voice processing unit

Claims (9)

カメラと、
前記カメラで撮像された撮像画像に対して、当該撮像画像内の所定領域を加工する画像処理を行って、加工画像を生成する画像処理部と、
前記加工画像を表示する表示部と、
前記カメラの向きを示すコマンドを受け付ける操作部と、
前記コマンドに応じて前記カメラの向きを調整する調整部と、を有するカメラシステム。
A camera,
An image processing unit that performs image processing on a captured image captured by the camera to process a predetermined area in the captured image, and generates a processed image;
A display unit for displaying the processed image;
An operation unit for receiving a command indicating the orientation of the camera;
An adjustment unit that adjusts the orientation of the camera in response to the command.
前記画像処理は、前記所定領域の鮮明度を下げる処理を含む、請求項1に記載のカメラシステム。   The camera system according to claim 1, wherein the image processing includes a process of reducing a definition of the predetermined area. 前記画像処理は、前記所定領域に映されている予め定められた対象物を変化させる処理を含む、請求項1または2に記載のカメラシステム。   The camera system according to claim 1, wherein the image processing includes a process of changing a predetermined object displayed in the predetermined area. 前記画像処理は、前記所定領域にマスクを合成する処理を含む、請求項1ないし3のいいずれか1項に記載のカメラシステム。   The camera system according to any one of claims 1 to 3, wherein the image processing includes a process of combining a mask with the predetermined area. 胴体部と、前記胴体部の上に設けられた回転可能な頭部と、を有するロボット装置をさらに有し、
前記カメラは、前記頭部に設けられ、
前記調整部は、前記頭部を回転させて前記カメラの向きを調整する、請求項1ないし4のいずれか1項に記載のカメラシステム。
A robot apparatus having a body part, and a rotatable head provided on the body part;
The camera is provided on the head;
The camera system according to claim 1, wherein the adjustment unit adjusts the orientation of the camera by rotating the head.
前記ロボット装置と通信可能な端末装置を更に有し、
前記ロボット装置は、前記調整部および前記画像処理部を有し、
前記端末装置は、前記操作部と前記表示部とを有する、請求項5に記載のカメラシステム。
A terminal device capable of communicating with the robot device;
The robot apparatus includes the adjustment unit and the image processing unit,
The camera system according to claim 5, wherein the terminal device includes the operation unit and the display unit.
前記ロボット装置は、音声取得部と、音声処理部とをさらに有し、
前記音声取得部は、周囲の音声を音声データとして取得し、
前記音声処理部は、前記音声データに基づいて、前記音声の音源の方向を特定し、
前記調整部は、前記音源の方向に応じて、前記カメラの向きを調整する、請求項5または6に記載のカメラシステム。
The robot apparatus further includes a voice acquisition unit and a voice processing unit,
The voice acquisition unit acquires surrounding voice as voice data,
The sound processing unit specifies a direction of a sound source of the sound based on the sound data,
The camera system according to claim 5, wherein the adjustment unit adjusts a direction of the camera according to a direction of the sound source.
前記画像処理部は、前記撮像画像内の予め定められた検出対象物の位置を特定し、
前記調整部は、前記検出対象物の位置に応じて、前記カメラの向きを調整する、請求項1ないし7のいずれか1項に記載のカメラシステム。
The image processing unit specifies a position of a predetermined detection target in the captured image,
The camera system according to claim 1, wherein the adjustment unit adjusts a direction of the camera according to a position of the detection target.
カメラを備えたカメラシステムの制御方法であって、
前記カメラで撮像された撮像画像に対して、当該撮像画像内の所定領域を加工する画像処理を行った加工画像を生成し、
前記加工画像を表示し、
前記カメラの向きを示すコマンドを受け付け、
前記コマンドに応じて前記カメラの向きを調整する、カメラシステムの制御方法。
A control method for a camera system including a camera,
For a captured image captured by the camera, a processed image is generated by performing image processing for processing a predetermined area in the captured image,
Displaying the processed image;
Accepts a command indicating the direction of the camera,
A method of controlling a camera system, wherein the direction of the camera is adjusted in accordance with the command.
JP2011031945A 2011-02-17 2011-02-17 Camera system and control method of the same Pending JP2012175136A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011031945A JP2012175136A (en) 2011-02-17 2011-02-17 Camera system and control method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011031945A JP2012175136A (en) 2011-02-17 2011-02-17 Camera system and control method of the same

Publications (1)

Publication Number Publication Date
JP2012175136A true JP2012175136A (en) 2012-09-10

Family

ID=46977668

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011031945A Pending JP2012175136A (en) 2011-02-17 2011-02-17 Camera system and control method of the same

Country Status (1)

Country Link
JP (1) JP2012175136A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5967848B1 (en) * 2015-03-25 2016-08-10 株式会社アルブレイン Conference system
JP2017164854A (en) * 2016-03-17 2017-09-21 カシオ計算機株式会社 Robot and program
JP2019110535A (en) * 2017-12-15 2019-07-04 株式会社電通国際情報サービス Communication device and remote communication system
WO2019176236A1 (en) * 2018-03-13 2019-09-19 ソニー株式会社 Information processing device, information processing method, and recording medium
JP2020048158A (en) * 2018-09-21 2020-03-26 国立大学法人電気通信大学 Communication support system, robot, moving image processor, and moving image processing program
JP2020109926A (en) * 2019-01-07 2020-07-16 株式会社オリィ研究所 Robot control device, robot control method, robot control program, and robot control system
WO2021184561A1 (en) * 2020-03-17 2021-09-23 深圳优艾智合机器人科技有限公司 Ultraviolet inspection robot
WO2022220208A1 (en) * 2021-04-14 2022-10-20 Telexistence株式会社 Data processing device, data processing method, program, and data processing system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0851611A (en) * 1994-08-05 1996-02-20 Canon Inc Image processor and image processing method
JP2002046088A (en) * 2000-08-03 2002-02-12 Matsushita Electric Ind Co Ltd Robot device
JP2003230049A (en) * 2002-02-06 2003-08-15 Sharp Corp Camera control method, camera controller and video conference system
JP2009194687A (en) * 2008-02-15 2009-08-27 Sony Corp Image processing apparatus, camera device, communication system, image processing method, and program
JP2010529738A (en) * 2007-05-31 2010-08-26 イーストマン コダック カンパニー Home video communication system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0851611A (en) * 1994-08-05 1996-02-20 Canon Inc Image processor and image processing method
JP2002046088A (en) * 2000-08-03 2002-02-12 Matsushita Electric Ind Co Ltd Robot device
JP2003230049A (en) * 2002-02-06 2003-08-15 Sharp Corp Camera control method, camera controller and video conference system
JP2010529738A (en) * 2007-05-31 2010-08-26 イーストマン コダック カンパニー Home video communication system
JP2009194687A (en) * 2008-02-15 2009-08-27 Sony Corp Image processing apparatus, camera device, communication system, image processing method, and program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5967848B1 (en) * 2015-03-25 2016-08-10 株式会社アルブレイン Conference system
JP2017164854A (en) * 2016-03-17 2017-09-21 カシオ計算機株式会社 Robot and program
JP2019110535A (en) * 2017-12-15 2019-07-04 株式会社電通国際情報サービス Communication device and remote communication system
JP7189406B2 (en) 2017-12-15 2022-12-14 株式会社電通国際情報サービス Communication device and remote communication system
WO2019176236A1 (en) * 2018-03-13 2019-09-19 ソニー株式会社 Information processing device, information processing method, and recording medium
US11417296B2 (en) 2018-03-13 2022-08-16 Sony Corporation Information processing device, information processing method, and recording medium
JP2020048158A (en) * 2018-09-21 2020-03-26 国立大学法人電気通信大学 Communication support system, robot, moving image processor, and moving image processing program
JP7257022B2 (en) 2018-09-21 2023-04-13 国立大学法人電気通信大学 Communication support system, robot, video processing device and video processing program
JP2020109926A (en) * 2019-01-07 2020-07-16 株式会社オリィ研究所 Robot control device, robot control method, robot control program, and robot control system
WO2021184561A1 (en) * 2020-03-17 2021-09-23 深圳优艾智合机器人科技有限公司 Ultraviolet inspection robot
WO2022220208A1 (en) * 2021-04-14 2022-10-20 Telexistence株式会社 Data processing device, data processing method, program, and data processing system

Similar Documents

Publication Publication Date Title
JP2012175136A (en) Camera system and control method of the same
US10816807B2 (en) Interactive augmented or virtual reality devices
US10013805B2 (en) Control of enhanced communication between remote participants using augmented and virtual reality
CN109952759B (en) Improved method and system for video conferencing with HMD
JP4257298B2 (en) Device for displaying facial features
US11487354B2 (en) Information processing apparatus, information processing method, and program
WO2017183319A1 (en) Robot and housing
US20220066207A1 (en) Method and head-mounted unit for assisting a user
WO2017051570A1 (en) Information processing device, information processing method, and program
US20210278671A1 (en) Head wearable device with adjustable image sensing modules and its system
TW201707444A (en) Eye gaze correction (1)
JP2011152593A (en) Robot operation device
US11810219B2 (en) Multi-user and multi-surrogate virtual encounters
WO2017183294A1 (en) Actuator device
JP6969577B2 (en) Information processing equipment, information processing methods, and programs
JP2005117285A (en) Information input device, communication terminal and communication method
EP3040893A1 (en) Display of private content
WO2012008553A1 (en) Robot system
WO2023124972A1 (en) Display state switching method, apparatus and system, electronic device and storage medium
WO2017183292A1 (en) Processing device and image determination method
JP5656809B2 (en) Conversation video display system
JP6615716B2 (en) Robot and enclosure
JP4329300B2 (en) Multi-window display method
KR20180058199A (en) Electronic apparatus for a video conference and operation method therefor
US20240104859A1 (en) User interfaces for managing live communication sessions

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130530

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131022