JP2023014867A - Communication system and information processor - Google Patents

Communication system and information processor Download PDF

Info

Publication number
JP2023014867A
JP2023014867A JP2021119052A JP2021119052A JP2023014867A JP 2023014867 A JP2023014867 A JP 2023014867A JP 2021119052 A JP2021119052 A JP 2021119052A JP 2021119052 A JP2021119052 A JP 2021119052A JP 2023014867 A JP2023014867 A JP 2023014867A
Authority
JP
Japan
Prior art keywords
target
camera
remote
user
remote location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021119052A
Other languages
Japanese (ja)
Inventor
ともえ 大築
Tomoe Otsuki
真一 塩津
Shinichi Shiozu
幹 小島
Motoki Kojima
和真 橋本
Kazuma Hashimoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2021119052A priority Critical patent/JP2023014867A/en
Publication of JP2023014867A publication Critical patent/JP2023014867A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a communication system and an information processor, capable of implementing realistic communication.SOLUTION: A communication system comprises a remote location device and a target location device. The remote location device is disposed at a remote location apart from a target location and includes a first camera for imaging the remote location and a first display unit. The target location device is a mobile body that is disposed at the remote location and includes a second camera for imaging the target location and a second display unit. The target location device displays first video information imaged by the first camera of the remote location device on the second display unit and, on the basis of information detected from a user existing at the remote location, moves or actuates the second camera. The remote location device displays second video information imaged by the second camera of the target location device on the first display unit.SELECTED DRAWING: Figure 3

Description

本発明は、コミュニケーションシステムおよび情報処理装置に関する。 The present invention relates to communication systems and information processing apparatuses.

従来、例えば、VR(Virtual Reality)等の技術を用いて、離れたユーザ同士がリアリティのある対話を行う技術が提案されている(例えば、特許文献1参照)。 Conventionally, for example, technology such as VR (Virtual Reality) has been proposed to allow remote users to interact with each other in a realistic manner (see, for example, Patent Literature 1).

特表2019-537087号公報Japanese Patent Publication No. 2019-537087

しかしながら、従来の技術では、コミュニケーションのリアリティを向上させる点で更なる改善の余地があった。 However, the conventional technology has room for further improvement in terms of improving the reality of communication.

本発明は、上記に鑑みてなされたものであって、リアリティのあるコミュニケーションを実現できるコミュニケーションシステムおよび情報処理装置を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a communication system and an information processing apparatus capable of realizing communication with reality.

上述した課題を解決し、目的を達成するために、本発明に係るコミュニケーションシステムは、遠隔地装置と、対象地装置とを備える。前記遠隔地装置は、対象地から離れた遠隔地に配置され、前記遠隔地を撮像する第1カメラと、第1表示部とを有する。前記対象地装置は、前記対象地に配置され、前記対象地を撮像する第2カメラと、第2表示部とを有する移動体である。前記対象地装置は、前記遠隔地装置の前記第1カメラで撮像された第1映像情報を前記第2表示部に表示するとともに、前記遠隔地に存在するユーザから検出される情報に基づいて、移動または前記第2カメラを動作させ、前記遠隔地装置は、前記対象地装置の前記第2カメラで撮像された第2映像情報を前記第1表示部に表示する。 To solve the above problems and achieve the object, a communication system according to the present invention comprises a remote device and a target device. The remote device is arranged at a remote location away from a target location, and has a first camera that captures an image of the remote location, and a first display unit. The target site device is a moving body that is arranged at the target site and has a second camera that captures an image of the target site and a second display unit. The target device displays, on the second display unit, first video information captured by the first camera of the remote device, and based on information detected by the user at the remote location, By moving or operating the second camera, the remote device displays second image information captured by the second camera of the target device on the first display unit.

本発明によれば、リアリティのあるコミュニケーションを実現できる。 According to the present invention, communication with reality can be realized.

図1は、実施形態に係るコミュニケーションシステムの動作例を示す図である。FIG. 1 is a diagram showing an operation example of a communication system according to an embodiment. 図2は、対象地装置の外観を示す図である。FIG. 2 is a diagram showing the appearance of the target device. 図3は、実施形態に係るコミュニケーションシステムの機能構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a functional configuration example of the communication system according to the embodiment; 図4は、実施形態に係るコミュニケーションシステムが実行する処理の処理手順を示すシーケンス図である。FIG. 4 is a sequence diagram illustrating a processing procedure of processing executed by the communication system according to the embodiment;

以下、添付図面を参照して、本願の開示するコミュニケーションシステムおよび情報処理装置の実施形態を詳細に説明する。なお、以下に示す実施形態により本発明が限定されるものではない。 Hereinafter, embodiments of a communication system and an information processing apparatus disclosed in the present application will be described in detail with reference to the accompanying drawings. In addition, this invention is not limited by embodiment shown below.

まず、図1を用いて、コミュニケーションシステムの動作例について説明する。図1は、実施形態に係るコミュニケーションシステムの動作例を示す図である。 First, an operation example of the communication system will be described with reference to FIG. FIG. 1 is a diagram showing an operation example of a communication system according to an embodiment.

図1に示すように、実施形態に係るコミュニケーションシステムSは、遠隔地P1に配置される遠隔地装置1と、対象地P2に配置される対象地装置100とを含む。ここで、遠隔地P1は、例えば、ユーザU1が存在する所定の空間(例えば、自宅の部屋)であり、対象地P2から離れた場所である。対象地P2は、ユーザU1の対話対象であるユーザU2が存在する空間(図1では遊園地)である。 As shown in FIG. 1, a communication system S according to the embodiment includes a remote device 1 located at a remote location P1 and a target location device 100 located at a target location P2. Here, the remote location P1 is, for example, a predetermined space (for example, a room at home) where the user U1 exists, and is a location away from the target location P2. The target site P2 is a space (an amusement park in FIG. 1) where the user U2 who is the dialogue target of the user U1 exists.

実施形態に係るコミュニケーションシステムSでは、遠隔地P1に存在するユーザU1が、あたかも対象地P2に存在してユーザU2と対話したり、対象地P2の景色を楽しんだりできるシステムである。 The communication system S according to the embodiment is a system in which a user U1 existing at a remote location P1 can interact with a user U2 as if he/she exists at a target location P2 and enjoy the scenery of the target location P2.

具体的には、遠隔地装置1は、制御装置3と、第1カメラ21と、第1表示部4とを少なくとも備える。対象地装置100は、移動体であり、第2カメラ120(図2参照)と、第2表示部140とを少なくとも備える。 Specifically, the remote device 1 includes at least a control device 3 , a first camera 21 and a first display section 4 . The target device 100 is a mobile body, and includes at least a second camera 120 (see FIG. 2) and a second display section 140 .

遠隔地装置1および対象地装置100は互いに映像や音声を送受信することで、ユーザU1とユーザU2とのコミュニケーションを実現する。具体的には、遠隔地装置1は、ユーザU1の顔の向きを検出するとともに、移動体である対象地装置100を移動するための移動操作を操作部5を介して検出し、対象地装置100へ送信する。 The remote device 1 and the target device 100 realize communication between the user U1 and the user U2 by transmitting and receiving video and audio to each other. Specifically, the remote device 1 detects the orientation of the face of the user U1, detects a movement operation for moving the target device 100, which is a mobile body, via the operation unit 5, and detects the movement of the target device 100. 100.

そして、対象地装置100は、ユーザU1から検出される情報に基づいて、移動または第2カメラ120を動作させる。具体的には、対象地装置100は、ユーザU1の顔の向きに応じて第2カメラ120の向きを変更(動作)させるとともに、移動操作に応じて移動する。なお、対象地装置100の全体的な向きは、移動操作に応じて変わり、さらに、第2カメラ120は、ユーザU1の顔の向きに応じても変わるようにしてもよい。そして、対象地装置100は、第2カメラ120で撮像した映像情報(第2映像情報)を遠隔地装置1へ送信する。これにより、遠隔地装置1は、第2映像情報を第1表示部4に表示する。なお、遠隔地装置1の制御装置3は、スクリーンである第1表示部4に第2映像情報を投射するプロジェクターの機能を有する。このため、第1表示部4は、スクリーン等の設備であってもよく、遠隔地P1の壁等であってもよい。 Then, the target device 100 moves or operates the second camera 120 based on the information detected from the user U1. Specifically, the target device 100 changes (operates) the orientation of the second camera 120 according to the orientation of the face of the user U1, and moves according to the movement operation. Note that the overall orientation of the target device 100 may change according to the movement operation, and the second camera 120 may also change according to the orientation of the face of the user U1. Then, the target device 100 transmits video information (second video information) captured by the second camera 120 to the remote device 1 . As a result, the remote device 1 displays the second video information on the first display section 4 . Note that the control device 3 of the remote device 1 has a function of a projector that projects the second image information on the first display section 4, which is a screen. Therefore, the first display unit 4 may be a facility such as a screen, or may be a wall or the like at the remote location P1.

つまり、対象地装置100は、ユーザU1の目を第2カメラ120が担い、ユーザU1の足を移動機能が担う。これにより、ユーザU1は、対象地P2を自由に移動して見たい方向の映像を遠隔地P1で見ることができる。すなわち、ユーザU1に対してあたかも対象地P2に存在しているようなリアリティを感じることができる。 That is, in the target device 100, the second camera 120 serves as the eyes of the user U1, and the movement function serves as the feet of the user U1. As a result, the user U1 can freely move around the target site P2 and view the video in the desired direction from the remote site P1. That is, the user U1 can feel the reality as if the user U1 exists in the target site P2.

また、対象地装置100は、第2表示部140にユーザU1を表示するとともに、ユーザU2の位置(第2表示部140を見る方向)に応じたユーザU1の向きで第2表示部140に表示する。具体的には、対象地装置100は、ユーザU2と対象地装置100との位置関係を検出し、遠隔地装置1へ送信する。そして、遠隔地装置1は、ユーザU2および対象地装置100の位置関係と、ユーザU1および第1カメラ21との位置関係とが同じとなるように、第1カメラ21を移動させてユーザU1を撮像し、第1映像情報として対象地装置100へ送信する。これにより、対象地装置100は、第1映像情報を第2表示部140に表示する。 In addition, the target device 100 displays the user U1 on the second display unit 140, and displays the image on the second display unit 140 in the orientation of the user U1 according to the position of the user U2 (the direction in which the second display unit 140 is viewed). do. Specifically, the target device 100 detects the positional relationship between the user U2 and the target device 100 and transmits it to the remote device 1 . Then, the remote device 1 moves the first camera 21 so that the positional relationship between the user U2 and the target device 100 and the positional relationship between the user U1 and the first camera 21 are the same. An image is captured and transmitted to the target device 100 as the first image information. Accordingly, the target device 100 displays the first image information on the second display unit 140 .

つまり、遠隔地装置1は、ユーザU2がユーザU1(対象地装置100の第2表示部140に映ったユーザU1)を見ている方向から第1カメラ21でユーザU1を撮像し、第1映像情報として対象地装置100へ送信する。これにより、ユーザU2の位置から見えるユーザU1の向きの映像(第1映像情報)を見ることができる。すなわち、ユーザU2は、ユーザU1があたかも対象地装置100に存在しているようなリアリティを感じることができる。 That is, the remote device 1 captures an image of the user U1 with the first camera 21 from the direction in which the user U2 is looking at the user U1 (the user U1 displayed on the second display unit 140 of the target device 100), and the first image It is transmitted to the target site device 100 as information. Thereby, the image (first image information) directed to the user U1 seen from the position of the user U2 can be viewed. That is, the user U2 can feel the reality as if the user U1 exists in the target device 100. FIG.

上述したように、実施形態に係るコミュニケーションシステムSによれば、遠隔地P1のユーザU1と、対象地P2のユーザU2とがリアリティのあるコミュニケーションを実現できる。 As described above, according to the communication system S according to the embodiment, the user U1 at the remote site P1 and the user U2 at the target site P2 can realize communication with reality.

さらに、実施形態に係るコミュニケーションシステムSでは、対象地P2に複数の対象地装置100を配置し、遠隔地P1に存在するユーザU1が操作する対象地装置100を切り替えるようにしてもよいが、かかる点の詳細については後述する。 Furthermore, in the communication system S according to the embodiment, a plurality of target site devices 100 may be arranged at the target site P2, and the target site device 100 operated by the user U1 at the remote site P1 may be switched. Details of the points will be described later.

また、図1に示す例では、対象地装置100は、1つの第2表示部140を備える例を示したが、複数の第2表示部140を備え、各第2表示部140にそれぞれ異なる遠隔地装置1からの第1映像情報(異なるユーザU1)を表示するようにしてもよい。 In the example shown in FIG. 1, the target device 100 has one second display unit 140, but it has a plurality of second display units 140, each of which has a different remote display. The first image information (different user U1) from the local device 1 may be displayed.

次に、図2を用いて、対象地装置100の構成例について説明する。図2は、対象地装置100の外観を示す図である。図2に示すように、対象地装置100は、移動機能を有する移動部200を有する。 Next, a configuration example of the target site device 100 will be described with reference to FIG. FIG. 2 is a diagram showing the appearance of the target device 100. As shown in FIG. As shown in FIG. 2, the target device 100 has a moving unit 200 having a moving function.

本開示では、移動部200は、地面を走行する車両型の機器を示しているが、例えば、ドローン等の飛行体であってもよい。また、移動部200の内部には、図3で後述する通信部110や、制御部150、記憶部160等の電子部品が搭載される。 In the present disclosure, the moving unit 200 indicates a vehicle-type device that travels on the ground, but may be a flying object such as a drone, for example. In addition, electronic components such as a communication unit 110, a control unit 150, and a storage unit 160, which will be described later with reference to FIG.

また、移動部200の上部には、冶具210を介して第2表示部140が設置される。冶具210は、第2表示部140の高さを調整するための調整機能を有する。これにより、例えば、遠隔地P1に存在するユーザU1の身長に合わせて第2表示部140の高さを調整することができる。なお、かかる調整機能は、後述する制御部150の制御に従って自動で高さを調整してもよく、対象地P2に存在するユーザU2によって手動で高さを調整してもよい。 A second display unit 140 is installed above the moving unit 200 via a jig 210 . The jig 210 has an adjusting function for adjusting the height of the second display section 140 . Thereby, for example, the height of the second display unit 140 can be adjusted according to the height of the user U1 who is present at the remote location P1. In addition, such an adjustment function may automatically adjust the height according to the control of the control unit 150, which will be described later, or may manually adjust the height by the user U2 present at the target site P2.

本開示では、第2表示部140は、透過性を有するディスプレイとして構成される。これにより、対象地P2に存在するユーザU2が第2表示部140の表裏どちらからでも第1映像情報であるユーザU1を視認することができる。すなわち、ユーザU2が対象地装置100の後ろに存在する場合には、ユーザU1の後ろ姿を第2表示部140に表示することで、よりリアリティのある映像を表示できる。 In the present disclosure, the second display unit 140 is configured as a transmissive display. As a result, the user U2 present at the target site P2 can view the user U1, which is the first image information, from either the front or back of the second display unit 140. FIG. That is, when the user U2 exists behind the target device 100, by displaying the back view of the user U1 on the second display unit 140, a more realistic image can be displayed.

また、本開示では、第2表示部140は、スピーカ機能を有するディスプレイとして構成される。これにより、第2表示部140に映ったユーザU1から音声が出ているように聞こえるため、よりリアリティを高めることができる。 Also, in the present disclosure, the second display unit 140 is configured as a display having a speaker function. This makes it sound as if the user U1 appearing on the second display unit 140 is emitting a voice, so that the reality can be further enhanced.

また、図2に示すように、第2表示部140の上端には、第2カメラ120および第2マイク130が一体構成となったカメラユニットが備えられる。すなわち、カメラユニットは、第2表示部140に表示されるユーザU1の顔の近くに配置される。これにより、ユーザU1の目線近くから第2カメラ120で撮像でき、かつ、ユーザU1の耳近くから第2マイク130で集音できるため、遠隔地P1でユーザU1が見る映像や、聞こえる音声のリアリティを高めることができる。なお、第2カメラ120および第2マイク130は、遠隔地P1のユーザU1の顔の向きに応じて回転する。また、第2マイク130は、人の耳に似た指向性のものを用いる。これにより、遠隔地P1のユーザU1の顔の向きに応じて見える映像や聞こえる音を得ることができ、リアル性が向上する。 Further, as shown in FIG. 2, a camera unit in which the second camera 120 and the second microphone 130 are integrated is provided at the upper end of the second display section 140 . That is, the camera unit is arranged near the face of user U1 displayed on second display unit 140 . As a result, images can be captured by the second camera 120 near the eyes of the user U1, and sound can be collected by the second microphones 130 near the ears of the user U1. can increase Second camera 120 and second microphone 130 rotate according to the orientation of the face of user U1 at remote location P1. Also, the second microphone 130 uses a directional microphone similar to the human ear. As a result, it is possible to obtain images that can be seen and sounds that can be heard according to the orientation of the face of the user U1 at the remote location P1, thereby improving realism.

次に、図3を用いて、コミュニケーションシステムSの機能構成例について説明する。図3は、実施形態に係るコミュニケーションシステムSの機能構成例を示すブロック図である。 Next, a functional configuration example of the communication system S will be described with reference to FIG. FIG. 3 is a block diagram showing a functional configuration example of the communication system S according to the embodiment.

図3に示すように、実施形態に係るコミュニケーションシステムSは、遠隔地装置1と、対象地装置100とを備える。 As shown in FIG. 3, the communication system S according to the embodiment includes a remote device 1 and a target device 100. As shown in FIG.

遠隔地装置1は、移動体2と、制御装置3と、第1表示部4と、操作部5とを備える。移動体2は、制御装置3の制御に従って自律走行可能なラジコンカーや、ドローン等といった小型の移動体である。 The remote device 1 includes a mobile body 2 , a control device 3 , a first display section 4 and an operation section 5 . The moving object 2 is a small moving object such as a radio-controlled car or a drone that can travel autonomously under the control of the control device 3 .

移動体2は、第1カメラ21と、第1マイク22と、第1スピーカ23とを備える。 The moving body 2 includes a first camera 21 , a first microphone 22 and a first speaker 23 .

第1カメラ21は、遠隔地P1を撮像する撮像装置である。第1マイク22は、遠隔地P1の音を収集する集音装置である。第1スピーカ23は、制御装置3が対象地装置100から取得した音声を出力する出力装置である。 The first camera 21 is an imaging device that captures an image of the remote location P1. The first microphone 22 is a sound collecting device that collects sounds from the remote location P1. The first speaker 23 is an output device that outputs the sound that the control device 3 acquires from the target device 100 .

第1表示部4は、上記したように、例えば、プロジェクターが投射した映像情報を表示するスクリーンである。なお、第1表示部4は、液晶ディスプレイであってもよい。 The first display unit 4 is, for example, a screen that displays image information projected by a projector, as described above. Note that the first display unit 4 may be a liquid crystal display.

操作部5は、上記した移動操作を受け付ける端末装置であり、例えば、ジョイスティック、マウス、Gセンサ搭載のコントローラ、スマートフォン等である。 The operation unit 5 is a terminal device that receives the movement operation described above, and is, for example, a joystick, a mouse, a controller equipped with a G sensor, a smartphone, or the like.

制御装置3は、通信部31と、制御部32と、記憶部33と備える。通信部31は、通信インターフェースであり、移動体2や、対象地装置100との間で各種情報を送受信する。 The control device 3 includes a communication section 31 , a control section 32 and a storage section 33 . The communication unit 31 is a communication interface, and transmits and receives various information to and from the mobile unit 2 and the target device 100 .

ここで、制御装置3は、たとえば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ、入出力ポートなどを有するコンピュータや各種の回路を含む。 Here, the control device 3 includes, for example, a computer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a flash memory, an input/output port, and various circuits.

コンピュータのCPUは、たとえば、ROMに記憶されたプログラムを読み出して実行することによって、制御部32として機能する。 The CPU of the computer functions as the control unit 32 by reading and executing programs stored in the ROM, for example.

また、制御部32が有する機能のうち、少なくともいずれか一つまたは全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。 At least one or all of the functions of the control unit 32 can be configured by hardware such as ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array).

また、記憶部33は、RAMやフラッシュメモリに対応する。RAMやフラッシュメモリは、各種プログラムの情報等を記憶することができる。なお、制御装置3は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して上記したプログラムや各種情報を取得することとしてもよい。 Also, the storage unit 33 corresponds to a RAM or a flash memory. The RAM and flash memory can store information of various programs and the like. Note that the control device 3 may acquire the above-described programs and various information via other computers or portable recording media connected via a wired or wireless network.

次に、制御部32の機能について詳細に説明する。 Next, functions of the control unit 32 will be described in detail.

制御部32は、各種の制御処理を行う。例えば、制御部32は、第1カメラ21で撮像した映像情報(第1映像情報)と、第1マイク22が集音した音声情報(第1音声情報)とを通信部31を介して対象地装置100へ送信する。 The control unit 32 performs various control processes. For example, the control unit 32 transmits video information (first video information) captured by the first camera 21 and audio information (first audio information) collected by the first microphone 22 to the target area via the communication unit 31. Send to device 100 .

また、制御部32は、対象地装置100から取得した映像情報(第2映像情報)を第1表示部4に表示するとともに、対象地装置100から取得した音声情報(第2音声情報)を通信部31を介して第1スピーカ23から出力する。 Further, the control unit 32 displays the video information (second video information) acquired from the target device 100 on the first display unit 4, and communicates the audio information (second audio information) acquired from the target device 100. Output from the first speaker 23 via the unit 31 .

また、制御部32は、移動体2を移動させる制御を行う。具体的には、制御部32は、対象地装置100と対象地P2に存在するユーザU2との位置関係を示す情報を対象地装置100から取得し、かかる位置関係に基づいて移動体2を移動させる。 Further, the control unit 32 performs control to move the moving body 2 . Specifically, the control unit 32 acquires information indicating the positional relationship between the target site device 100 and the user U2 present in the target site P2 from the target site device 100, and moves the mobile body 2 based on the positional relationship. Let

より具体的には、制御部32は、遠隔地P1に存在するユーザU1と移動体2(第1カメラ21)との位置関係が、対象地装置100とユーザU2との位置関係と同じとなるように移動体2を移動させる。 More specifically, the control unit 32 makes the positional relationship between the user U1 at the remote location P1 and the moving body 2 (the first camera 21) the same as the positional relationship between the target device 100 and the user U2. The moving body 2 is moved as follows.

これにより、第1スピーカ23からユーザU2の第2音声情報を出力することで、ユーザU1は、ユーザU2がいる位置から話しかけられたように感じられるため、対話のリアリティを高めることができる。 Thus, by outputting the second voice information of the user U2 from the first speaker 23, the user U1 feels as if he/she is being spoken to from the position where the user U2 is, so that the reality of the dialogue can be enhanced.

さらに、上記の移動体2の位置から第1カメラ21でユーザU1を撮像して対象地装置100の第2表示部140で表示することで、ユーザU2から見えるユーザU1の姿を第2表示部140で見たり、ユーザU1の音声を聞いたりすることができる。 Further, by capturing an image of the user U1 with the first camera 21 from the position of the moving object 2 and displaying it on the second display unit 140 of the target device 100, the image of the user U1 seen from the user U2 is displayed on the second display unit. It can be seen at 140 and can be heard by user U1.

また、制御部32は、例えば、第1カメラ21の画像に基づいてユーザU1の顔の向きを検出する。すなわち、制御部32は、ユーザU1が第1表示部4のどの位置を見ているか(視線方向)を検出する。そして、制御部32は、ユーザU1の顔の向きの情報を対象地装置100へ送信する。詳細は後述するが、対象地装置100は、かかる顔の向きの情報に応じて第2カメラ120の向きを変更する。すなわち、対象地装置100は、遠隔地P1に存在するユーザU1から検出される情報に基づいて、第2カメラ120を動作させる。これにより、ユーザU1が実際に見ている(見たい)方向の第2映像情報を第2カメラ120が取得して第1表示部4に表示することができる。 Also, the control unit 32 detects the orientation of the face of the user U1 based on the image of the first camera 21, for example. That is, the control unit 32 detects which position of the first display unit 4 the user U1 is looking at (line-of-sight direction). Then, the control unit 32 transmits information on the orientation of the face of the user U1 to the target device 100 . Although the details will be described later, the target device 100 changes the orientation of the second camera 120 according to the face orientation information. That is, the target site device 100 operates the second camera 120 based on the information detected from the user U1 present at the remote site P1. This allows the second camera 120 to acquire the second image information in the direction in which the user U1 is actually looking (want to see) and display it on the first display unit 4 .

なお、第1カメラ21の画像に基づいてユーザU1の顔の向きを検出する場合に限らず、顔の向きを検出するための専用のカメラが遠隔地P1に別途配置されて、かかる専用のカメラの画像に基づいて顔の向きを検出してもよい。 It should be noted that not only the case of detecting the orientation of the face of the user U1 based on the image of the first camera 21, but also a dedicated camera for detecting the orientation of the face is separately arranged at the remote location P1. The orientation of the face may be detected based on the image of .

また、制御部32は、ユーザU1から対象地装置100の移動部200を移動させる移動操作を受け付けてもよい。具体的には、制御部32は、ユーザU1が有する操作部5に対する操作を移動操作として受け付け対象地装置100へ送信する。そして、対象地装置100は、かかる移動操作に応じて移動部200を移動させる。つまり、対象地装置100は、遠隔地P1に存在するユーザU1から検出される情報(移動操作)に基づいて移動部200を移動させる。これにより、遠隔地P1に存在するユーザU1が対象地P2を自由に移動することができるため、例えば、対象地P2で見たい第2映像情報を第1表示部4で見ることができる。 Further, the control unit 32 may receive a moving operation for moving the moving unit 200 of the target device 100 from the user U1. Specifically, the control unit 32 transmits an operation to the operation unit 5 of the user U1 to the receiving target device 100 as a movement operation. Then, the target device 100 moves the moving unit 200 according to the moving operation. In other words, the target device 100 moves the moving unit 200 based on the information (moving operation) detected from the user U1 present at the remote location P1. This allows the user U1 at the remote location P1 to freely move to the target location P2.

次に、対象地装置100は、移動部200と、第2カメラ120と、第2マイク130と、第2表示部140とを備える。 Next, the target device 100 includes a moving unit 200 , a second camera 120 , a second microphone 130 and a second display unit 140 .

第2カメラ120は、対象地P2を撮像する撮像装置である。第2マイク130は、対象地P2の音を収集する集音装置である。第2表示部140は、上記したように、音出力の機能を有する表示部、いわゆるディスプレイスピーカである。なお、第2表示部140は、映像を表示する表示部と、音を出力するスピーカとが別体で構成されてもよい。 The second camera 120 is an image capturing device that captures an image of the target land P2. The second microphone 130 is a sound collecting device that collects the sound of the target site P2. The second display unit 140 is, as described above, a display unit having a sound output function, a so-called display speaker. Note that the second display unit 140 may include a display unit that displays images and a speaker that outputs sound separately.

移動部200は、制御部150の制御に従って自律走行可能なラジコンカーや、ドローン等といった小型の移動体である。移動部200は、通信部110と、制御部150と、記憶部160とを備える。例えば、移動部200は、駆動用のモータを備え、不図示の蓄電池から供給される電力により駆動(移動)する。 The moving unit 200 is a small moving object such as a radio-controlled car or a drone that can autonomously travel under the control of the control unit 150 . Moving unit 200 includes communication unit 110 , control unit 150 , and storage unit 160 . For example, the moving unit 200 includes a driving motor and is driven (moved) by electric power supplied from a storage battery (not shown).

通信部110は、通信インターフェースであり、遠隔地装置1との間で各種情報を送受信する。 The communication unit 110 is a communication interface, and transmits and receives various information to and from the remote device 1 .

ここで、対象地装置100は、たとえば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ、入出力ポートなどを有するコンピュータや各種の回路を含む。 Here, the target device 100 includes, for example, a computer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a flash memory, an input/output port, and various circuits.

コンピュータのCPUは、たとえば、ROMに記憶されたプログラムを読み出して実行することによって、制御部150として機能する。 The CPU of the computer functions as control unit 150 by reading and executing programs stored in the ROM, for example.

また、制御部150が有する機能のうち、少なくともいずれか一つまたは全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。 At least one or all of the functions of the control unit 150 can be configured by hardware such as ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array).

また、記憶部160は、RAMやフラッシュメモリに対応する。RAMやフラッシュメモリは、各種プログラムの情報等を記憶することができる。なお、対象地装置100は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して上記したプログラムや各種情報を取得することとしてもよい。 Also, the storage unit 160 corresponds to a RAM or a flash memory. The RAM and flash memory can store information of various programs and the like. Note that the target device 100 may acquire the above-described programs and various information via another computer or portable recording medium connected via a wired or wireless network.

次に、制御部150の機能について詳細に説明する。 Next, functions of the control unit 150 will be described in detail.

制御部150は、各種の制御処理を行う。例えば、制御部150は、第2カメラ120で撮像した映像情報(第2映像情報)と、第2マイク130が集音した音声情報(第2音声情報)とを通信部110を介して遠隔地装置1へ送信する。 The control unit 150 performs various control processes. For example, the control unit 150 transmits video information (second video information) captured by the second camera 120 and audio information (second audio information) collected by the second microphone 130 to a remote location via the communication unit 110. Send to device 1.

また、制御部150は、遠隔地装置1から取得した映像情報(第1映像情報)を第2表示部140に表示するとともに、遠隔地装置1から取得した音声情報(第1音声情報)をディスプレイスピーカである第2表示部140から出力する。 Further, the control unit 150 displays the video information (first video information) acquired from the remote device 1 on the second display unit 140, and displays the audio information (first audio information) acquired from the remote device 1. Output from the second display unit 140, which is a speaker.

また、制御部150は、移動部200の移動制御を行う。具体的には、制御部150は、遠隔地装置1から取得したユーザU1の移動操作に応じて移動部200の移動制御を行う。 Also, the control unit 150 performs movement control of the moving unit 200 . Specifically, the control unit 150 performs movement control of the moving unit 200 according to the movement operation of the user U1 acquired from the remote device 1 .

なお、制御部150は、ユーザU1の手動(移動操作)により移動する手動モードに加え、例えば、対象地P2に存在するユーザU2に追従、また、予め決められた経路を走行するよう自動走行する自動走行モードを有してもよい。 In addition to the manual mode in which the user U1 moves manually (moving operation), the control unit 150 follows the user U2 existing in the target area P2 and automatically travels along a predetermined route. It may have an automatic driving mode.

また、制御部150は、対象地P2を移動する際、例えば、第2カメラ120の画像により障害物を検出し、かかる障害物を避ける制御を行ってもよい。 Further, when moving the target site P2, the control unit 150 may detect an obstacle from the image of the second camera 120, for example, and perform control to avoid the obstacle.

また、制御部150は、遠隔地装置1から取得したユーザU1の顔の向きの情報に応じて、第2カメラ120、第2マイク130および第2表示部140の向きを変更する。 In addition, the control unit 150 changes the orientations of the second camera 120, the second microphone 130, and the second display unit 140 according to information on the face orientation of the user U1 acquired from the remote device 1. FIG.

また、対象地P2に複数の対象地装置100が配置される場合、一の対象地装置100の制御部150は、所定の条件を満たした場合に、遠隔地装置1との通信接続を他の対象地装置100に切り替えてもよい。 Further, when a plurality of target device 100 are arranged in the target site P2, the control unit 150 of one target device 100, when a predetermined condition is satisfied, establishes a communication connection with the remote device 1 by another device. You may switch to the target place apparatus 100. FIG.

例えば、制御部150は、ユーザU1から遠隔地装置1を介して切替操作を受け付けた場合に、他の対象地装置100に切り替える。また、制御部150は、広大な対象地P2において、移動部200が予め割り当てられた第1領域から第2領域に出た場合に、第2領域に対応する他の対象地装置100に切り替える。 For example, the control unit 150 switches to another target device 100 when receiving a switching operation from the user U1 via the remote device 1 . Further, when the moving unit 200 moves from the pre-allocated first area to the second area in the vast target area P2, the control unit 150 switches to another target area device 100 corresponding to the second area.

また、制御部150は、対象地装置100の切替について、例えば、対象地装置100(移動部200)の走行用エネルギー(充電)が所定の駐車位置(例えば、充電装置)に戻れるだけの量まで低下した場合に他の対象地装置100に切り替えてもよい。なお、かかる場合、切替元の対象地装置100は、他の対象地装置100に切り替え後に、所定の駐車位置に自動で戻るようにする。 In addition, the control unit 150 controls the switching of the target device 100, for example, up to an amount that allows the target device 100 (moving unit 200) to return to a predetermined parking position (for example, charging device). You may switch to another target place apparatus 100, when it falls. In such a case, the switching source target device 100 automatically returns to a predetermined parking position after switching to another target device 100 .

これにより、一の対象地装置100の第2表示部140に表示されていた第1映像情報を他の対象地装置100の第2表示部140に表示されるようになる。これにより、ユーザU1が広大な対象地P2を移動したい場合に、通信接続される対象地装置100を切り替えるだけ移動が可能となるため、ユーザU1による対象地P2での移動を容易かつ迅速に行うことができる。 As a result, the first image information displayed on the second display unit 140 of one target device 100 is displayed on the second display unit 140 of another target device 100 . As a result, when the user U1 wants to move to the large target site P2, the user U1 can move by simply switching the target site device 100 that is connected for communication. be able to.

なお、複数の対象地装置100の切替は、各対象地装置100の制御部150間で行われてもよく、例えば、不図示のサーバ装置が一括して行ってもよい。 Note that switching among the plurality of target device 100 may be performed between the control units 150 of the respective target device 100, for example, may be performed collectively by a server device (not shown).

次に、図4を用いて、実施形態に係るコミュニケーションシステムSが実行する処理の処理手順について説明する。図4は、実施形態に係るコミュニケーションシステムSが実行する処理の処理手順を示すシーケンス図である。 Next, a processing procedure of processing executed by the communication system S according to the embodiment will be described with reference to FIG. FIG. 4 is a sequence diagram showing a processing procedure of processing executed by the communication system S according to the embodiment.

図4に示すように、遠隔地装置1および対象地装置100は、互いの通信接続を行う(ステップS101)。例えば、遠隔地装置1を起動すると、対象地P2の地図とその地図中に利用可能な対象地装置100(他の遠隔地装置1と通信接続されていない対象地装置100)が表示される。そして、遠隔地P1のユーザU1が希望する対象地装置100を地図上から選択すると、通信接続を行う。なお、遠隔地P1のユーザU1は、対象地装置100を選択する場合に限らず、対象地P2の特定の地点を選択し、かかる地点に最も近い対象地装置100と通信するようにしてもよい。つづいて、遠隔地装置1および対象地装置100は、互いに映像情報および音声情報を送受信する(ステップS102)。 As shown in FIG. 4, the remote device 1 and the target device 100 establish mutual communication connection (step S101). For example, when remote device 1 is activated, a map of target location P2 and available target device 100 (target device 100 not connected to other remote device 1 for communication) are displayed on the map. When the user U1 at the remote location P1 selects the desired target device 100 from the map, communication connection is established. Note that the user U1 at the remote location P1 may select a specific location in the target location P2 instead of selecting the target location device 100, and may communicate with the target location device 100 closest to that location. . Subsequently, the remote device 1 and the target device 100 exchange video information and audio information with each other (step S102).

つづいて、遠隔地装置1および対象地装置100は、受信した映像情報の表示および音声情報の出力を行う(ステップS103)。 Subsequently, the remote device 1 and the target device 100 display the received video information and output the audio information (step S103).

つづいて、遠隔地装置1は、対象地装置100における移動部200を移動する移動操作を受け付ける(ステップS104)。つづいて、対象地装置100は、移動操作に基づいて移動部200を移動させる(ステップS105)。 Subsequently, the remote device 1 receives a movement operation for moving the moving unit 200 of the target device 100 (step S104). Subsequently, the target device 100 moves the moving unit 200 based on the moving operation (step S105).

つづいて、遠隔地装置1は、遠隔地P1に存在するユーザU1の顔の向きを検出する(ステップS106)。つづいて、対象地装置100は、ユーザU1の顔の向きに応じて第2カメラ120の向きを変更する(ステップS107)。 Subsequently, the remote device 1 detects the orientation of the face of the user U1 at the remote location P1 (step S106). Subsequently, the target device 100 changes the orientation of the second camera 120 according to the orientation of the face of the user U1 (step S107).

なお、ステップS101~ステップS107で示した各処理は、各装置(遠隔地装置1および対象地装置100)においてユーザU1、U2の操作等のトリガとなる事象が発生した場合に、対応する処理が繰り返し行われる。 It should be noted that each process shown in steps S101 to S107 is performed when a trigger event such as an operation by the user U1 or U2 occurs in each device (remote device 1 and target device 100). Repeatedly.

また、遠隔地装置1でユーザU1が操作部5を介して終了操作を行うと、通信が切断され、表示等も停止する。また、対象地装置100は、通信が切断されると、所定の駐車(保管)位置に自動で戻る。なお、所定の駐車位置には充電装置が配置され、駐車中に充電される。 Further, when the user U1 performs a termination operation via the operation unit 5 on the remote device 1, the communication is disconnected and the display and the like are stopped. Further, the target device 100 automatically returns to a predetermined parking (storage) position when the communication is disconnected. A charging device is arranged at a predetermined parking position, and the vehicle is charged while the vehicle is parked.

上述してきたように、実施形態に係るコミュニケーションシステムSは、遠隔地装置1と、対象地装置100とを備える。遠隔地装置1は、対象地P2から離れた遠隔地P1に配置され、遠隔地P1を撮像する第1カメラ21と、第1表示部4とを有する。対象地装置100は、対象地P2に配置され、対象地P2を撮像する第2カメラ120と、第2表示部140とを有する移動体である。対象地装置100は、遠隔地装置1の第1カメラ21で撮像された第1映像情報を第2表示部140に表示するとともに、遠隔地P1に存在するユーザU1から検出される情報に基づいて、移動または第2カメラ120を動作させ、遠隔地装置1は、対象地装置100の第2カメラ120で撮像された第2映像情報を第1表示部4に表示する。これにより、リアリティのあるコミュニケーションを実現できる。 As described above, the communication system S according to the embodiment includes the remote device 1 and the target device 100 . The remote device 1 is located at a remote location P1 away from the target location P2 and has a first camera 21 that captures an image of the remote location P1 and a first display section 4 . The target site device 100 is a moving body that is arranged at the target site P2 and has a second camera 120 that captures an image of the target site P2 and a second display section 140 . The target device 100 displays the first image information captured by the first camera 21 of the remote device 1 on the second display unit 140, and based on the information detected from the user U1 who is present at the remote location P1. , moves or operates the second camera 120 , and the remote device 1 displays the second image information captured by the second camera 120 of the target device 100 on the first display section 4 . This makes it possible to realize communication with reality.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and modifications can be easily derived by those skilled in the art. Therefore, the broader aspects of the invention are not limited to the specific details and representative embodiments so shown and described. Accordingly, various changes may be made without departing from the spirit or scope of the general inventive concept defined by the appended claims and equivalents thereof.

1 遠隔地装置
2 移動体
3 制御装置
4 第1表示部
21 第1カメラ
22 第1マイク
23 第1スピーカ
31 通信部
32 制御部
33 記憶部
100 対象地装置
110 通信部
120 第2カメラ
130 第2マイク
140 第2表示部
150 制御部
160 記憶部
200 移動部
210 冶具
P1 遠隔地
P2 対象地
S コミュニケーションシステム
1 Remote device 2 Mobile object 3 Control device 4 First display unit 21 First camera 22 First microphone 23 First speaker 31 Communication unit 32 Control unit 33 Storage unit 100 Target device 110 Communication unit 120 Second camera 130 Second Microphone 140 Second display unit 150 Control unit 160 Storage unit 200 Moving unit 210 Jig P1 Remote site P2 Target site S Communication system

Claims (8)

対象地から離れた遠隔地に配置され、前記遠隔地を撮像する第1カメラと、第1表示部とを有する遠隔地装置と、
前記対象地に配置され、前記対象地を撮像する第2カメラと、第2表示部とを有する移動体である対象地装置と、
を備え、
前記対象地装置は、
前記遠隔地装置の前記第1カメラで撮像された第1映像情報を前記第2表示部に表示するとともに、前記遠隔地に存在するユーザから検出される情報に基づいて、移動または前記第2カメラを動作させ、
前記遠隔地装置は、
前記対象地装置の前記第2カメラで撮像された第2映像情報を前記第1表示部に表示すること
を特徴とするコミュニケーションシステム。
a remote device disposed at a remote location away from a target location and having a first camera that captures an image of the remote location and a first display;
a target site device, which is a moving object disposed at the target site and having a second camera that captures an image of the target site, and a second display unit;
with
The target device is
The first image information captured by the first camera of the remote device is displayed on the second display unit, and based on the information detected by the user present at the remote location, the second camera moves or moves. run the
The remote device comprises:
A communication system, wherein second image information captured by the second camera of the target device is displayed on the first display unit.
前記遠隔地装置は、
前記遠隔地に存在するユーザを前記第1カメラで撮像した前記第1映像情報を前記対象地装置へ送信すること
を特徴とする請求項1に記載のコミュニケーションシステム。
The remote device comprises:
2. The communication system according to claim 1, wherein said first image information obtained by imaging said remote user with said first camera is transmitted to said target site device.
前記遠隔地装置は、
前記遠隔地に存在するユーザの顔の向きを検出して前記対象地装置へ送信し、
前記対象地装置は、
前記ユーザの顔の向きに応じて前記第2カメラの向きを変更すること
を特徴とする請求項1または2に記載のコミュニケーションシステム。
The remote device comprises:
detecting the orientation of the face of the user at the remote location and transmitting it to the target device;
The target device is
3. The communication system according to claim 1, wherein the direction of said second camera is changed according to the direction of said user's face.
前記遠隔地装置は、
前記遠隔地に存在するユーザから前記対象地装置を移動させる移動操作を受け付け、
前記対象地装置は、
前記移動操作に応じて移動すること
を特徴とする請求項1~3のいずれか1つに記載のコミュニケーションシステム。
The remote device comprises:
Receiving a movement operation for moving the target device from the user at the remote location;
The target device is
4. The communication system according to any one of claims 1 to 3, wherein the mobile device moves according to the moving operation.
前記対象地装置は、
前記対象地に存在するユーザと、前記対象地装置との位置関係を検出して前記遠隔地装置へ送信し、
前記遠隔地装置は、
前記遠隔地に存在するユーザと前記第1カメラとの位置関係が、前記対象地に存在するユーザと前記対象地装置との位置関係と同じとなるように前記第1カメラを移動させること
を特徴とする請求項1~4のいずれか1つに記載のコミュニケーションシステム。
The target device is
detecting a positional relationship between a user existing at the target site and the target site device and transmitting the positional relationship to the remote site device;
The remote device comprises:
The first camera is moved so that the positional relationship between the user present at the remote location and the first camera is the same as the positional relationship between the user present at the target location and the target device. The communication system according to any one of claims 1 to 4, wherein
前記対象地装置は、
前記対象地に複数配置され、所定の条件を満たした場合に、前記遠隔地装置と通信接続する前記対象地装置が切り替わること
を特徴とする請求項1~5のいずれか1つに記載のコミュニケーションシステム。
The target device is
6. The communication according to any one of claims 1 to 5, characterized in that, when a plurality of devices are arranged in the target area and a predetermined condition is satisfied, the target site device connected for communication with the remote device is switched. system.
対象地から離れた遠隔地に配置される情報処理装置であって、
前記遠隔地を撮像する第1カメラと、
第1表示部と、
前記対象地に配置された情報処理装置を動作させるための情報を前記遠隔地に存在するユーザから検出する制御部と
を備えることを特徴とする情報処理装置。
An information processing device placed at a remote location away from a target location,
a first camera that captures an image of the remote location;
a first display unit;
and a control unit that detects information for operating the information processing apparatus located at the target location from the user existing at the remote location.
遠隔地から離れた対象地に配置される移動体である情報処理装置であって、
前記対象地を撮像する第2カメラと、
第2表示部と、
前記遠隔地に存在するユーザから検出された情報に基づいて、移動または前記第2カメラの動作を制御する制御部と
を備えることを特徴とする情報処理装置。
An information processing device, which is a moving object placed at a target location away from a remote location,
a second camera that captures an image of the target area;
a second display unit;
and a control unit that controls movement or operation of the second camera based on information detected from the user existing at the remote location.
JP2021119052A 2021-07-19 2021-07-19 Communication system and information processor Pending JP2023014867A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021119052A JP2023014867A (en) 2021-07-19 2021-07-19 Communication system and information processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021119052A JP2023014867A (en) 2021-07-19 2021-07-19 Communication system and information processor

Publications (1)

Publication Number Publication Date
JP2023014867A true JP2023014867A (en) 2023-01-31

Family

ID=85130421

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021119052A Pending JP2023014867A (en) 2021-07-19 2021-07-19 Communication system and information processor

Country Status (1)

Country Link
JP (1) JP2023014867A (en)

Similar Documents

Publication Publication Date Title
JP4512830B2 (en) Communication robot
JP2005117621A (en) Image distribution system
JP7346830B2 (en) Communication terminals, programs, display methods, recording media, systems
CN111462334A (en) Interactive exhibition hall system of intelligence
JP2019156298A (en) Vehicle remote control device and vehicle remote control method
JP2023164525A (en) Communication terminal, program, display method and recording medium
JP2018163461A (en) Information processing apparatus, information processing method, and program
JP2019161549A (en) Vehicle remote operation device and vehicle remote operation method
JP2023014867A (en) Communication system and information processor
US20220152836A1 (en) Robot
JP2019062568A (en) Mobile projection system and mobile projector device
CN112870712B (en) Method and device for displaying picture in virtual scene, computer equipment and storage medium
JP7402145B2 (en) Remote control systems, mobile robots, and operating terminals
JP7293991B2 (en) Server, playback device, content playback system, content playback method, and program
CN113727353A (en) Configuration method and device of entertainment equipment and entertainment equipment
JP2006067393A (en) Viewing system
TW202008092A (en) Panoramic live broadcast navigation robot enabling people without actual participation to have a first-person full-view experience and to interact through messages
JP2020150297A (en) Remote camera system, control system, video output method, virtual camera work system, and program
JP7402784B2 (en) Remote display systems, robots, and display terminals
US20240112422A1 (en) Communication management server, communication system, and method for managing communication
JPWO2019087577A1 (en) Information processing equipment, information processing methods and information processing programs
US20230308705A1 (en) Communication terminal, communication management system, remote operation method, processing method, and communication management method
WO2022024412A1 (en) Information processing device, information processing system, information processing method, and program
US20240087339A1 (en) Information processing device, information processing system, and information processing method
WO2022220306A1 (en) Video display system, information processing device, information processing method, and program