JP2014071777A - Vehicle, and remote control device - Google Patents

Vehicle, and remote control device Download PDF

Info

Publication number
JP2014071777A
JP2014071777A JP2012218859A JP2012218859A JP2014071777A JP 2014071777 A JP2014071777 A JP 2014071777A JP 2012218859 A JP2012218859 A JP 2012218859A JP 2012218859 A JP2012218859 A JP 2012218859A JP 2014071777 A JP2014071777 A JP 2014071777A
Authority
JP
Japan
Prior art keywords
vehicle
moving image
image
image data
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012218859A
Other languages
Japanese (ja)
Inventor
Yushi Kawakami
雄史 川上
Masao Kawai
正夫 川合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Equos Research Co Ltd
Original Assignee
Equos Research Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Equos Research Co Ltd filed Critical Equos Research Co Ltd
Priority to JP2012218859A priority Critical patent/JP2014071777A/en
Publication of JP2014071777A publication Critical patent/JP2014071777A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a vehicle and a remote control device, which are capable of providing an operator with a feeling of speed corresponding to the speed of a vehicle by displaying a moving image representing a surrounding of the vehicle for the operator remotely controlling the vehicle.SOLUTION: In a correction image data generation process, an image generated by deleting pixels from edges of a moving image toward the inside of the edges, out of a moving image representing a surrounding of a vehicle 1, captured by a camera 12, is generated as a frame image constituting the moving image to be displayed on a display 202 of an operation center 200, wherein a range of deletion is extended toward the inside, or retreated toward the edges, according to a travel section of the vehicle 1 indicated by information obtained from a navigation device 13. This causes the display 202 to display the moving image with a region near the edges made invisible depending upon a ratio of articles existing in the surrounding of the vehicle 1 assumed in the travel section of the vehicle 1.

Description

本発明は、車両および遠隔操作装置に関し、特に、車両を遠隔操作する操作者に対して車両の周辺を示す動画像を表示することで、操作者に車両の速度に応じた速度感覚を与えることのできる車両および遠隔操作装置に関するものである。   The present invention relates to a vehicle and a remote control device, and in particular, displays a moving image indicating the periphery of the vehicle to an operator who remotely operates the vehicle, thereby giving the operator a sense of speed according to the speed of the vehicle. The present invention relates to a vehicle and a remote control device that can be used.

遠隔地に設けられた遠隔操作装置から、走行のための操作が行われる車両が知られている。このような車両は、車両に設けられたカメラによって、車両の周辺を動画像として撮影し、撮影された動画像を画像信号に変換して、遠隔操作装置へ送信する。これにより、遠隔操作装置に設けたスクリーン(ディスプレイ)には、車両の周辺を示す動画像が映し出される。そして、遠隔操作装置にいる操作者が、スクリーンに表示される動画像で車両の周辺の状況を確認しながら、車両の駆動、制動または操舵に関する操作を行うことにより、その操作に応じた指令が遠隔操作装置から車両へ送信される。車両は、遠隔操作装置から受信した指令に応じて、走行を制御する(例えば、特許文献1)。   A vehicle in which an operation for traveling is performed from a remote control device provided in a remote place is known. Such a vehicle captures the periphery of the vehicle as a moving image using a camera provided in the vehicle, converts the captured moving image into an image signal, and transmits the image signal to the remote control device. As a result, a moving image showing the periphery of the vehicle is displayed on the screen (display) provided in the remote control device. Then, an operator in the remote control device performs an operation related to driving, braking, or steering of the vehicle while confirming a situation around the vehicle with a moving image displayed on the screen, so that a command corresponding to the operation is issued. Sent from the remote control device to the vehicle. The vehicle controls traveling according to a command received from the remote control device (for example, Patent Document 1).

このとき、操作者は、遠隔操作装置に設けたスクリーンに映し出される車両の周辺を示す動画像によって、車両がどの程度の速度で走行しているかを把握する(車両の速度感覚を得る)。より具体的には、スクリーンに表示される動画像において、車両の周辺に存在する路面や物体によって構成される景色が車両の進行方向とは反対方向に速く流れるほど、操作者は、車両が高速で走行している感覚を受ける。   At this time, the operator grasps how fast the vehicle is traveling (obtains a sense of vehicle speed) from a moving image showing the periphery of the vehicle displayed on a screen provided in the remote control device. More specifically, in the moving image displayed on the screen, the more the scenery composed of road surfaces and objects existing around the vehicle flows in the direction opposite to the traveling direction of the vehicle, the faster the operator Receive a sense of traveling.

特開2004−206218号公報JP 2004-206218 A

しかしながら、車両の走行する環境が異なると、スクリーンに表示される動画像によって操作者に与えられる車両の速度感覚が異なってしまう。例えば、走行路の側方に沿って設置された壁などの物体が存在する環境で車両を走行させる場合は、車両の周辺に何ら物体が存在しない環境で車両を走行させる場合よりも、遠隔操作装置のスクリーンに表示される動画像において、車両の走行に伴い物体が流れる様子が映し出される分だけ、速い速度感覚が動画像から操作者へ与えられる。   However, when the environment in which the vehicle travels is different, the speed sensation of the vehicle given to the operator differs depending on the moving image displayed on the screen. For example, when driving a vehicle in an environment where there is an object such as a wall installed along the side of the road, it is more remote control than when driving the vehicle in an environment where there is no object around the vehicle. In the moving image displayed on the screen of the apparatus, the speed feeling is given to the operator from the moving image by the amount that the object flows as the vehicle travels.

このように、操作者がスクリーン上の動画像を見ながら車両を操作する場合に、車両の速度が同じであっても、車両が走行する環境に応じて異なる速度感覚を与えてしまうため、スクリーン上の動画像を通じて、操作者に正確な車両の速度を把握させることが難しいという問題点があった。   Thus, when the operator operates the vehicle while watching the moving image on the screen, even if the vehicle speed is the same, a different speed sensation is given depending on the environment in which the vehicle travels. There is a problem that it is difficult for the operator to grasp the accurate vehicle speed through the above moving image.

本発明は、上記の問題点を解決するためになされたものであり、遠隔操作する操作者に対して車両の周辺を示す動画像を表示することで、操作者に車両の速度に応じた速度感覚を与えることのできる車両および遠隔操作装置を提供することを目的としている。   The present invention has been made to solve the above-described problems, and displays a moving image showing the periphery of the vehicle for a remotely operated operator, thereby allowing the operator to change the speed according to the vehicle speed. An object of the present invention is to provide a vehicle and a remote control device capable of giving a sense.

課題を解決するための手段および発明の効果Means for Solving the Problems and Effects of the Invention

この目的を達成するために請求項1記載の車両によれば、車両の撮像手段では、車両の周辺が動画像として撮像される。この車両の撮像手段によって撮像された動画像に基づく動画像情報が、車両の動画像情報生成手段によって生成され、その動画像情報が、車両の送信手段によって、車両の外部に設けられた遠隔操作装置に送信される。そして、遠隔操作装置の表示手段では、車両の送信手段より送信された動画像情報に基づいて動画像が表示される。この動画像によって、車両の周辺の状況を操作者に視認させて、視認させた状況に応じて、車両の駆動、制動または操舵に関する指示を、操作者から遠隔操作装置へ入力させる。遠隔操作装置によって受け付けられた車両の駆動、制動または操舵に関する操作者による指示を表す指示情報が、車両の受信手段によって受信されると、受信された指示情報に基づいて、車両の駆動、制動または操舵が、車両の走行制御手段により制御される。   In order to achieve this object, according to the vehicle of the first aspect, the periphery of the vehicle is imaged as a moving image by the imaging means of the vehicle. The moving image information based on the moving image captured by the vehicle imaging means is generated by the vehicle moving image information generating means, and the moving image information is remotely operated by the vehicle transmitting means provided outside the vehicle. Sent to the device. The display unit of the remote control device displays a moving image based on the moving image information transmitted from the vehicle transmission unit. With this moving image, the operator can visually recognize the situation around the vehicle, and according to the visually recognized situation, an instruction regarding driving, braking, or steering of the vehicle is input from the operator to the remote control device. When the instruction information representing the instruction by the operator regarding driving, braking or steering of the vehicle received by the remote control device is received by the receiving means of the vehicle, the driving, braking or braking of the vehicle is performed based on the received instruction information. Steering is controlled by the vehicle travel control means.

ここで、車両の撮像手段により撮像される動画像は、動画像の内側よりも動画像の外縁に近い領域ほど、車両の近くに存在するものをより大きく見せる遠近感が強く働く。この遠近感の働きにより、動画像の外縁に位置する領域では、動画像の中で最も速く路面や物体が流れる。動画像を見た操作者には、動画像において路面や物体が流れる速さに応じた速度感覚が与えられるので、動画像の外縁に位置する領域における路面や物体の流れが速いほど、その動画像は、操作者に対して、より速い速度感覚を与えるものとなる。   Here, the moving image picked up by the image pickup means of the vehicle has a greater sense of perspective that makes the area closer to the outer edge of the moving image closer to the outer edge of the moving image than the inner side of the moving image. Due to the perspective, the road surface and the object flow in the moving image the fastest in the region located at the outer edge of the moving image. The operator who sees the moving image is given a speed sensation according to the speed at which the road surface and objects flow in the moving image, so the faster the road surface and objects flow in the region located at the outer edge of the moving image, The image gives the operator a faster sense of speed.

車両の動画像情報生成手段によれば、情報取得手段によって取得された車両の周辺に存在する物体にかかわる情報に基づいて、動画像の外縁に位置する領域の少なくとも一部を視認不能とした動画像が生成され、その生成した動画像を遠隔操作装置の表示手段に表示させるための動画像情報が生成される。このとき、車両の動画像情報生成手段によって生成される動画像では、動画像の外縁に位置する領域の少なくとも一部が視認不能とされる。この視認不能とされる領域は、動画像において路面や物体の流れが最も速い領域なので、動画像の外縁に位置する領域の少なくとも一部を視認不能とした動画像では、車両の周辺に存在する物体が流れる速さが、視認不能とされる領域の分だけ抑制されたものとなる。よって、車両の周辺に存在する物体によって、操作者の速度感覚が、遠隔操作装置の表示手段に表示される動画像によって速められてしまうことを抑制できる。従って、車両が走行する環境に拘わらず、操作者に、車両の速度に応じた速度感覚を与えることができるという効果を奏する。   According to the moving image information generating means of the vehicle, a moving image in which at least a part of the region located at the outer edge of the moving image is not visible based on the information about the object existing around the vehicle acquired by the information acquiring means An image is generated, and moving image information for displaying the generated moving image on the display unit of the remote control device is generated. At this time, in the moving image generated by the moving image information generating unit of the vehicle, at least a part of the region located at the outer edge of the moving image is not visible. The invisible area is the area where the road surface and the flow of the object are the fastest in the moving image. Therefore, in the moving image in which at least a part of the area located on the outer edge of the moving image is invisible, it exists around the vehicle. The speed at which the object flows is suppressed by the amount of the region that cannot be visually recognized. Therefore, it is possible to suppress the speed sensation of the operator from being accelerated by the moving image displayed on the display unit of the remote control device due to the objects present around the vehicle. Therefore, regardless of the environment in which the vehicle travels, it is possible to give the operator a sense of speed according to the speed of the vehicle.

なお、請求項1において「動画像の外縁に位置する領域の少なくとも一部を視認不能とした動画像を生成」するとは、撮像手段によって撮像された動画像に対して、動画像情報生成手段が、その動画像の外縁に位置する領域の少なくとも一部を視認不能とする動画像を生成する場合だけでなく、動画像情報生成手段が撮像手段を制御して、動画像の外縁に位置する領域の少なくとも一部が視認不能とされた動画像を、撮像手段から出力させる場合についても含む概念である。   In addition, in claim 1, “generating a moving image in which at least a part of a region located at the outer edge of the moving image is invisible” means that the moving image information generating unit performs the moving image information generating unit on the moving image captured by the imaging unit. In addition to the case of generating a moving image in which at least a part of the region located at the outer edge of the moving image is not visible, the region located at the outer edge of the moving image by the moving image information generating unit controlling the imaging unit This is a concept that includes a case where a moving image in which at least a part of the image is invisible is output from the imaging unit.

請求項2記載の車両は、請求項1記載の車両の奏する効果に加え、次の効果を奏する。即ち、車両の情報取得手段によって、車両の周辺に存在する物体の車両に対する位置関係を示す情報が、車両の走行する環境において車両の周辺に存在する物体にかかわる情報として取得される。車両の動画像情報生成手段によって、動画像の外縁に位置する領域の少なくとも一部を視認不能とした動画像が生成される場合は、動画像情報生成手段の第1領域設定手段によって、その動画像において視認不能とされる領域が、情報取得手段によって取得された情報に基づいて、車両の周辺に存在する物体が存在する方向の動画像の外縁に位置する領域の一部に設定される。このため、情報取得手段で取得された情報によって車両との位置関係が示された物体については、動画像の外縁に位置する領域において高速で流れる様子を、遠隔操作装置の表示手段で表示させないので、車両の周辺に存在する物体によって、操作者の速度感覚が、遠隔操作装置の表示手段に表示される動画像によって速められてしまうことを防止できるという効果を奏する。   The vehicle according to claim 2 has the following effect in addition to the effect of the vehicle according to claim 1. That is, information indicating the positional relationship of an object existing in the vicinity of the vehicle with respect to the vehicle is acquired as information related to the object existing in the vicinity of the vehicle in the environment where the vehicle travels. When the moving image information generating unit of the vehicle generates a moving image in which at least a part of the region located at the outer edge of the moving image is invisible, the first region setting unit of the moving image information generating unit generates the moving image. The region that is not visible in the image is set as a part of the region located at the outer edge of the moving image in the direction in which the object existing around the vehicle exists based on the information acquired by the information acquisition unit. For this reason, the object whose positional relationship with the vehicle is indicated by the information acquired by the information acquisition unit is not displayed on the display unit of the remote control device as to how it flows at high speed in the region located at the outer edge of the moving image. There is an effect that it is possible to prevent the speed sensation of the operator from being accelerated by the moving image displayed on the display means of the remote control device due to the objects present around the vehicle.

請求項3記載の車両は、請求項1又は2記載の車両の奏する効果に加え、次の効果を奏する。即ち、本発明者は、遠隔操作装置の表示手段に表示される動画像において、物体の占める割合が高いほど、動画像における物体の流れが操作者の視覚を刺激して、その動画像を見た操作者の速度感覚が速くなってしまう傾向があることを見いだした。   The vehicle according to claim 3 has the following effect in addition to the effect produced by the vehicle according to claim 1 or 2. That is, the present inventor views the moving image by stimulating the operator's vision as the proportion of the object in the moving image displayed on the display unit of the remote control device increases. We found that the operator's sense of speed tends to increase.

これに対し、請求項3記載の車両によれば、車両の情報取得手段によって、車両が走行する環境において車両の撮像手段によって撮像される範囲に占める物体の割合に関する所定情報が、車両の走行する環境において車両の周辺に存在する物体にかかわる情報として取得される。そして、情報取得手段によって取得された所定情報に基づき、車両の撮像手段によって撮像される範囲に占める物体の割合が第1の割合である場合に動画像情報生成手段によって生成される動画像は、第1の割合よりも低い第2の割合である場合における視認不能とされる領域の範囲よりも、動画像の外縁から、より内側にまで設定されたものとなる。よって、情報取得手段によって取得された所定情報に基づき、車両の撮像手段によって撮像される範囲に占める物体の割合が高い場合ほど、動画像の外縁に位置する視認不能とされる領域を拡大して、動画像を流れる物体から操作者に与えられる速度感覚を遅くすることができる。これにより、車両の周辺を物体が占める割合に拘わらず、操作者の速度感覚が、遠隔操作装置の表示手段に表示される動画像によって速められてしまうことを防止できるという効果を奏する。   On the other hand, according to the vehicle of the third aspect, the vehicle information acquisition means causes the predetermined information regarding the proportion of the object in the range imaged by the vehicle imaging means in the environment where the vehicle travels to travel. It is acquired as information related to objects existing around the vehicle in the environment. Then, based on the predetermined information acquired by the information acquisition means, the moving image generated by the moving image information generation means when the proportion of the object in the range imaged by the imaging means of the vehicle is the first ratio is: It is set from the outer edge of the moving image to the inner side, rather than the range of the region that is not visible when the second ratio is lower than the first ratio. Therefore, based on the predetermined information acquired by the information acquisition means, the higher the proportion of objects in the range imaged by the imaging means of the vehicle, the larger the area that is not visible that is located at the outer edge of the moving image. The speed sensation given to the operator from the object flowing through the moving image can be slowed. Accordingly, there is an effect that it is possible to prevent the speed sensation of the operator from being accelerated by the moving image displayed on the display unit of the remote control device, regardless of the proportion of the object around the vehicle.

請求項4記載の車両によれば、請求項1から3のいずれかに記載の車両の奏する効果に加え、次の効果を奏する。即ち、動画像情報生成手段によって、動画像の外縁に位置する領域の少なくとも一部を視認不能とした動画像が生成される場合は、その動画像において視認不能とされる領域を、第1検出手段によって検出された物体が存在する領域については視認可能となるように設定する。第1検出手段によって検出される物体は、撮像手段によって動画像が撮像される範囲のうち、車両から所定距離以内の範囲に存在する物体である。それ故、遠隔操作装置の表示手段に表示される動画像によって、車両から所定距離以内の範囲に存在する物体については、操作者に視認させることができる。従って、車両の周辺に存在する物体によって操作者の速度感覚が速くなるのを抑制しつつも、車両から所定距離以内の範囲に存在する物体が車両の走行の妨げとなる場合には、物体を回避するための操作を操作者に行わせることができるという効果を奏する。   According to the vehicle of the fourth aspect, in addition to the effect produced by the vehicle according to any one of the first to third aspects, the following effect is produced. That is, when the moving image information generating unit generates a moving image in which at least a part of the region located on the outer edge of the moving image is invisible, the region that is invisible in the moving image is first detected. The region where the object detected by the means is present is set to be visible. The object detected by the first detection unit is an object that exists within a predetermined distance from the vehicle in a range where a moving image is captured by the imaging unit. Therefore, the operator can visually recognize an object existing within a predetermined distance from the vehicle by the moving image displayed on the display unit of the remote control device. Therefore, when an object existing in the vicinity of the vehicle suppresses an increase in the speed sensation of the operator and an object existing within a predetermined distance from the vehicle hinders the vehicle from running, There is an effect that the operator can perform an operation for avoiding it.

請求項5記載の車両によれば、請求項1から4のいずれかに記載の車両の奏する効果に加え、次の効果を奏する。即ち、動画像情報生成手段によって、動画像の外縁に位置する領域の少なくとも一部を視認不能とした動画像が生成される場合は、その動画像おいて視認不能とされる領域が、車両の第2検出手段によって検出された移動し得る物体が存在する領域については視認可能となるように、動画像情報生成手段の第3領域設定手段によって設定される。かかる場合は、遠隔操作装置の表示手段に表示される動画像によって、撮像手段によって撮像された移動し得る物体については、操作者に視認させることができる。よって、表示手段に表示させる動画像において視認不能となる領域を設定して、車両の周辺に存在する物体によって操作者の速度感覚が速くなるのを抑制しつつも、車両の周辺に存在する移動し得る物体が車両の走行の妨げとなる場合には、操作者に回避のための操作を行わせることができるという効果を奏する。   According to the vehicle of the fifth aspect, in addition to the effect produced by the vehicle according to any one of the first to fourth aspects, the following effect is produced. That is, when the moving image information generating unit generates a moving image in which at least a part of the region located at the outer edge of the moving image is not visible, the region that is not visible in the moving image is The area where the movable object detected by the second detection means is present is set by the third area setting means of the moving image information generation means so as to be visible. In such a case, the moving object displayed on the display unit of the remote control device can be viewed by the operator about the movable object imaged by the imaging unit. Therefore, a region that is invisible in the moving image displayed on the display means is set, and the movement that exists in the vicinity of the vehicle is suppressed while suppressing an increase in the speed sensation of the operator by an object that exists in the vicinity of the vehicle. In the case where a possible object hinders traveling of the vehicle, there is an effect that the operator can perform an operation for avoidance.

請求項6記載の車両によれば、請求項5記載の車両の奏する効果に加え、次の効果を奏する。即ち、第2検出手段では、オプティカルフロー算出手段によって、車両の撮像手段によって撮像された動画像から、その動画像の各領域におけるオプティカルフローが算出される。オプティカルフロー算出手段によって算出された各領域のオプティカルフローは、第2検出手段のオプティカルフロー比較手段によって、各領域の周囲の領域について算出されたオプティカルフローと比較される。そして、そのオプティカルフロー比較手段によって比較された周囲の領域について算出されたオプティカルフローの方向および大きさの少なくとも一方の分布に対して、方向および大きさの少なくとも一方が含まれないオプティカルフローが算出されている領域に、移動する物体が存在するものとして、第2検出手段による検出が行われる。ここで、オプティカルフロー算出手段によって算出された各領域についてのオプティカルフローは、各領域における路面や物体の流れに即したものとなる。このため、周囲の領域について算出されたオプティカルフローの方向および大きさの少なくとも一方の分布に対して、方向および大きさの少なくとも一方が含まれないオプティカルフローが算出されている領域を検出することで、路面や静止物体などの流れが一様な領域とは流れの異なる移動物体が存在する領域を確実に特定して、移動物体を検出することができるという効果を奏する。   According to the vehicle of the sixth aspect, in addition to the effect produced by the vehicle of the fifth aspect, the following effect is produced. That is, in the second detection means, the optical flow in each region of the moving image is calculated from the moving image captured by the imaging means of the vehicle by the optical flow calculation means. The optical flow of each area calculated by the optical flow calculation means is compared with the optical flow calculated for the area surrounding each area by the optical flow comparison means of the second detection means. Then, an optical flow that does not include at least one of the direction and the size is calculated with respect to at least one distribution of the direction and the size of the optical flow calculated for the surrounding regions compared by the optical flow comparison unit. The detection by the second detection means is performed assuming that a moving object exists in the area. Here, the optical flow for each area calculated by the optical flow calculation means is in accordance with the road surface and the flow of the object in each area. For this reason, by detecting a region where an optical flow that does not include at least one of the direction and the size is calculated with respect to at least one of the direction and the size of the optical flow calculated for the surrounding region. There is an effect that a moving object can be detected by reliably specifying a region where a moving object having a different flow from a region having a uniform flow such as a road surface or a stationary object exists.

請求項7記載の遠隔操作装置によれば、次の効果を奏する。即ち、遠隔操作装置の受信手段によって、車両に設けられた撮像手段により撮像された車両の周辺の動画像に基づいて生成された動画像情報を、車両より受信すると、表示手段によって、その受信手段により受信された動画像情報に基づいて動画像が表示される。この動画像によって、車両の周辺の状況を操作者に視認させて、認識した状況に応じて操作者が行う、車両の駆動、制動または操舵に関する指示を、受付手段によって受け付ける。そして、その受付手段により受け付けられた指示を表す指示情報が、送信手段によって、車両に対して送信される。このようにして、遠隔操作装置では、車両の外部から、車両の駆動、制動または操舵に関する操作が行われる。   According to the remote control device of the seventh aspect, the following effects are obtained. That is, when the moving image information generated based on the moving image around the vehicle imaged by the imaging unit provided in the vehicle is received from the vehicle by the receiving unit of the remote control device, the receiving unit receives the moving image information. A moving image is displayed based on the moving image information received by. With this moving image, the operator can visually recognize the situation around the vehicle, and an instruction relating to driving, braking, or steering of the vehicle, which is performed by the operator according to the recognized situation, is received by the receiving unit. Then, the instruction information representing the instruction received by the receiving unit is transmitted to the vehicle by the transmitting unit. In this way, in the remote control device, operations related to driving, braking or steering of the vehicle are performed from the outside of the vehicle.

遠隔操作装置の表示制御手段によれば、遠隔操作装置の受信手段によって受信された動画像情報が示す動画像に対し、情報取得手段によって取得された車両が走行する環境における車両の周辺に存在する物体にかかわる情報に基づいて、受信した動画像情報が示す動画像の外縁に位置する領域の少なくとも一部を視認不能とした動画像を生成し、その動画像を遠隔操作装置の表示手段へ表示させる。このとき、遠隔操作装置の表示制御手段によって生成された動画像では、動画像の外縁に位置する、動画像の中で最も速く路面や物体が流れる領域の少なくとも一部が視認不能とされるので、視認不能とされる領域の分だけ、動画像全体の物体や路面の流れを遅くして、動画像を見た操作者に与えられる速度感覚を遅くすることができる。よって、車両が走行する環境において車両の周辺に存在する物体によって、操作者の速度感覚が、遠隔操作装置の表示手段に表示される動画像によって速められてしまうことを防止できる。従って、車両が走行する環境に拘わらず、操作者に、車両の速度に応じた速度感覚を与えることができるという効果を奏する。   According to the display control unit of the remote operation device, the moving image indicated by the moving image information received by the receiving unit of the remote operation device exists around the vehicle in the environment where the vehicle acquired by the information acquisition unit travels. Based on the information related to the object, a moving image is generated in which at least a part of the region located at the outer edge of the moving image indicated by the received moving image information is invisible, and the moving image is displayed on the display unit of the remote control device Let At this time, in the moving image generated by the display control means of the remote control device, at least a part of the area where the road surface and the object flow are fastest in the moving image, which is located at the outer edge of the moving image, is not visible. Thus, it is possible to slow down the speed sensation given to the operator who viewed the moving image by slowing the flow of the object and the road surface of the entire moving image by the amount of the region that cannot be viewed. Therefore, it is possible to prevent the speed sensation of the operator from being accelerated by the moving image displayed on the display means of the remote control device due to objects existing around the vehicle in the environment where the vehicle is traveling. Therefore, regardless of the environment in which the vehicle travels, it is possible to give the operator a sense of speed according to the speed of the vehicle.

第1実施形態における車両および操作センターを模式的に示した模式図である。It is the schematic diagram which showed typically the vehicle and operation center in 1st Embodiment. (a)は、カメラの撮像範囲を示す模式図であり、(b)は、(a)の撮像範囲で撮像された動画像を示す模式図である。(A) is a schematic diagram which shows the imaging range of a camera, (b) is a schematic diagram which shows the moving image imaged in the imaging range of (a). 車両および操作センターの電気的構成を示したブロック図である。It is the block diagram which showed the electric structure of the vehicle and the operation center. 画角マップを模式的に図示した模式図である。It is the schematic diagram which illustrated the angle-of-view map typically. 最低フレームレートメモリを模式的に図示した模式図である。It is the schematic diagram which illustrated typically the minimum frame rate memory. 車側制御装置のCPUによって実行される画像送信処理を示すフローチャートである。It is a flowchart which shows the image transmission process performed by CPU of a vehicle side control apparatus. 車側制御装置のCPUによって実行される修正画像データ生成処理を示すフローチャートである。It is a flowchart which shows the correction image data generation process performed by CPU of a vehicle side control apparatus. 予測経路上の注視点から水平方向の中心位置角度を算出する方法を説明するための説明図である。It is explanatory drawing for demonstrating the method of calculating the center position angle of a horizontal direction from the gaze point on a prediction path | route. (a)は、車両が「その他」の走行区間を走行する場合に、修正画像データ生成処理によって生成されるフレーム画像Aを示す模式図であり、(b)は、車両が「市街地」を走行する場合に、修正画像データ生成処理によって生成されるフレーム画像Bを示す模式図であり、(c)は、車両が「トンネル」を走行する場合に、修正画像データ生成処理によって生成されるフレーム画像Cを示す模式図である。(A) is a schematic diagram showing a frame image A generated by the corrected image data generation process when the vehicle travels in the “other” travel section, and (b) is a diagram illustrating the vehicle traveling in the “urban area”. FIG. 7C is a schematic diagram showing a frame image B generated by the corrected image data generation process when the vehicle travels through the “tunnel” when the vehicle travels through the “tunnel”. FIG. 操作側制御装置のCPUによって実行される画像表示処理を示すフローチャートである。It is a flowchart which shows the image display process performed by CPU of an operation side control apparatus. 第2実施形態における車両および操作センターの電気的構成を示したブロック図である。It is the block diagram which showed the electric structure of the vehicle and operation center in 2nd Embodiment. 第2実施形態における車側制御装置のCPUによって実行される画像送信処理を示すフローチャートである。It is a flowchart which shows the image transmission process performed by CPU of the vehicle side control apparatus in 2nd Embodiment. 第2実施形態における操作側制御装置のCPUによって実行される画像表示処理を示すフローチャートである。It is a flowchart which shows the image display process performed by CPU of the operation side control apparatus in 2nd Embodiment. 第3実施形態における車両の電気的構成を示したブロック図である。It is the block diagram which showed the electric constitution of the vehicle in 3rd Embodiment. 第3実施形態における車側制御装置のCPUによって実行される修正画像データ生成処理を示すフローチャートである。It is a flowchart which shows the correction image data generation process performed by CPU of the vehicle side control apparatus in 3rd Embodiment. カメラで撮像された動画像のオプティカルフローを説明するための説明図である。It is explanatory drawing for demonstrating the optical flow of the moving image imaged with the camera.

以下、本発明を実施するための形態について添付図面を参照して説明する。まず、図1〜図10を参照し、第1実施形態として、本発明を車両1に適用した場合の一実施形態について説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described with reference to the accompanying drawings. First, with reference to FIGS. 1-10, one Embodiment at the time of applying this invention to the vehicle 1 is described as 1st Embodiment.

図1は、車両1とその車両1の操作を遠隔地から行うための操作設備(遠隔操作装置)である操作センター200とを模式的に示した模式図である。まず、図1を参照して、車両1および操作センター200の概略構成を説明する。車両1は、操作センター200から車両1を遠隔操作する操作者に対して車両1の周辺を示す動画像を表示することで、操作者に車両の速度に応じた速度感覚を与えることができるように構成されている。   FIG. 1 is a schematic diagram schematically showing a vehicle 1 and an operation center 200 which is an operation facility (remote operation device) for performing an operation of the vehicle 1 from a remote place. First, a schematic configuration of the vehicle 1 and the operation center 200 will be described with reference to FIG. The vehicle 1 can give the operator a sense of speed according to the speed of the vehicle by displaying a moving image showing the periphery of the vehicle 1 to an operator who remotely operates the vehicle 1 from the operation center 200. It is configured.

図1に示すように、車両1は、車両1に設けられる車側制御装置100と、操作センター200に設けられる操作側制御装置201との間で、中継局300を介した双方向の無線通信を行うものであり、車両1の周辺を撮像した動画像を、操作センター200に居る車両1の操作者に対して表示するために、車側制御装置100で行われる処理に基づいてその動画像を送信するものである。また、車両1は、操作側制御装置201から送信される指令に応じて、走行が制御される。車両1は、車側制御装置100の他に、複数(本実施形態では4輪)の車輪2FL,2FR,2RL,2RRと、それら複数の車輪2FL〜2RRの内の一部(本実施形態では、前輪2FL,2FR)を回転駆動する車輪駆動装置3と、複数の車輪2FL〜2RRの内の一部(本実施形態では、前輪2FL,2FR)を操舵駆動する操舵駆動装置5と、車両1の車両速度を検出するための速度センサ10と、車両1の操舵角を検出するための操舵角センサ11と、車両1の周辺を撮像するカメラ12と、ナビゲーション装置13と、通信装置14とを主に有している。   As shown in FIG. 1, the vehicle 1 is a two-way wireless communication via a relay station 300 between a vehicle-side control device 100 provided in the vehicle 1 and an operation-side control device 201 provided in the operation center 200. In order to display a moving image obtained by imaging the periphery of the vehicle 1 to the operator of the vehicle 1 in the operation center 200, the moving image is based on processing performed by the vehicle-side control device 100. Is to send. Further, traveling of the vehicle 1 is controlled in accordance with a command transmitted from the operation side control device 201. In addition to the vehicle-side control device 100, the vehicle 1 includes a plurality of (four wheels in this embodiment) wheels 2FL, 2FR, 2RL, 2RR and a part of these wheels 2FL to 2RR (in this embodiment). , Front wheel 2FL, 2FR), a wheel drive device 3 for rotating and driving, a steering drive device 5 for steering and driving a part of the plurality of wheels 2FL-2RR (in this embodiment, front wheels 2FL, 2FR), and vehicle 1 A speed sensor 10 for detecting the vehicle speed, a steering angle sensor 11 for detecting the steering angle of the vehicle 1, a camera 12 for imaging the periphery of the vehicle 1, a navigation device 13, and a communication device 14. Has mainly.

車側制御装置100は、通信装置14で受信した操作側制御装置201からの指令に応じて、車両1の走行を制御するコンピュータ装置である。また、車側制御装置100は、カメラ12で撮像される車両1の周辺の動画像に基づく画像データを、通信装置14を介して、操作センター200の操作側制御装置201へ送信するための制御が行われる。車側制御装置100の詳細については、図3を参照して後述する。   The vehicle-side control device 100 is a computer device that controls the traveling of the vehicle 1 in response to a command from the operation-side control device 201 received by the communication device 14. In addition, the vehicle-side control device 100 controls to transmit image data based on a moving image around the vehicle 1 captured by the camera 12 to the operation-side control device 201 of the operation center 200 via the communication device 14. Is done. Details of the vehicle-side control device 100 will be described later with reference to FIG.

車輪2FL,2FRは、車両1の前方側(図1紙面左側)に配置される左右の前輪であり、車輪駆動装置3によって回転駆動される駆動輪として構成されている。一方、車輪2RL,2RRは、車両1の後方側(図1紙面右側)に配置される左右の後輪であり、車両1の走行に伴って従動する従動輪として構成されている。   The wheels 2FL and 2FR are left and right front wheels disposed on the front side of the vehicle 1 (left side in FIG. 1), and are configured as drive wheels that are rotationally driven by the wheel drive device 3. On the other hand, the wheels 2RL and 2RR are left and right rear wheels disposed on the rear side of the vehicle 1 (the right side in FIG. 1), and are configured as driven wheels that are driven as the vehicle 1 travels.

車輪駆動装置3は、左右の前輪2FL,2FRに回転駆動力を付与するための装置である。車輪駆動装置3は、車側制御装置100から通知された、車両速度の目標値を示す制御信号に基づき、左右の前輪2FL,2FRに回転駆動力を付与する。これにより、車両1は、車側制御装置100から通知された車両速度に応じた速度で走行する。   The wheel driving device 3 is a device for applying a rotational driving force to the left and right front wheels 2FL, 2FR. The wheel driving device 3 applies a rotational driving force to the left and right front wheels 2FL, 2FR based on a control signal indicating the target value of the vehicle speed notified from the vehicle-side control device 100. Thereby, the vehicle 1 travels at a speed corresponding to the vehicle speed notified from the vehicle-side control device 100.

操舵駆動装置5は、左右の前輪2FL,2FRを操舵するための装置である。操舵駆動装置5は、車側制御装置100から通知された、目標とすべき操舵角を示す制御信号に基づき、左右の前輪2FL,2FRを操舵する。これにより、車両1は、車側制御装置100から指示された操舵角に、前輪2FL,2FRが操舵される。   The steering drive device 5 is a device for steering the left and right front wheels 2FL, 2FR. The steering drive device 5 steers the left and right front wheels 2FL and 2FR based on a control signal notified from the vehicle-side control device 100 and indicating a target steering angle. Thus, in the vehicle 1, the front wheels 2FL and 2FR are steered to the steering angle instructed from the vehicle side control device 100.

速度センサ10は、各車輪2FL〜2RRの車輪速を検出するセンサである。速度センサ10によって検出された各車輪2FL〜2RRの車輪速は、車側制御装置100に入力され、車側制御装置100において、この入力された車輪速に基づいて車両1の速度(車両速度)と加速度とが算出される。   The speed sensor 10 is a sensor that detects the wheel speed of each of the wheels 2FL to 2RR. The wheel speeds of the wheels 2FL to 2RR detected by the speed sensor 10 are input to the vehicle-side control device 100, and the vehicle-side control device 100 determines the speed of the vehicle 1 (vehicle speed) based on the input wheel speed. And acceleration are calculated.

操舵角センサ11は、車両1の操舵角を検出するセンサである。操舵角センサ11によって検出された車両1の操舵角は、車側制御装置100に入力される。   The steering angle sensor 11 is a sensor that detects the steering angle of the vehicle 1. The steering angle of the vehicle 1 detected by the steering angle sensor 11 is input to the vehicle side control device 100.

カメラ12は、車両1の周辺を動画像として撮像するための撮像装置であり、CCDイメージセンサや、CMOSイメージセンサなどの撮像素子が搭載されたデジタルカメラで構成されている。カメラ12は、車両1の前方側に配設され、車両1の進行方向となり得る車両前方(図1の紙面左方)を撮像する。ここで、カメラ12によって撮像される動画像について、図2(a),(b)を参照して説明する。   The camera 12 is an imaging device for capturing the periphery of the vehicle 1 as a moving image, and is configured by a digital camera on which an imaging element such as a CCD image sensor or a CMOS image sensor is mounted. The camera 12 is disposed on the front side of the vehicle 1 and captures an image of the front of the vehicle (left side in FIG. 1) that can be the traveling direction of the vehicle 1. Here, the moving image imaged by the camera 12 is demonstrated with reference to FIG. 2 (a), (b).

図2(a)は、カメラ12の撮像範囲を示す模式図であり、図2(b)は、図2(a)の撮像範囲で撮像された動画像を示す模式図である。   2A is a schematic diagram illustrating an imaging range of the camera 12, and FIG. 2B is a schematic diagram illustrating a moving image captured in the imaging range of FIG. 2A.

カメラ12は、そのカメラ12を中心として、水平画角120°、垂直画角70°の範囲を撮像可能に構成されている。   The camera 12 is configured to be able to image a range of a horizontal field angle of 120 ° and a vertical field angle of 70 ° with the camera 12 as a center.

図2(a)に示すように、車両1が走行する場合は、車両1の周辺の路面や、建物等の車両1の周辺に存在する物体(主として静止物体)が、カメラ12の撮像範囲(点線で囲まれる範囲)に含まれる。この図2(a)に示す範囲を、カメラ12によって撮像した動画像が、図2(b)に示す動画像である。   As shown in FIG. 2A, when the vehicle 1 travels, an object (mainly a stationary object) existing on the road surface around the vehicle 1 or around the vehicle 1 such as a building is captured by an imaging range ( It is included in the range surrounded by a dotted line. A moving image captured by the camera 12 in the range shown in FIG. 2A is the moving image shown in FIG.

図2(b)において、動画像のエッジE1〜E4から動画像中央の消失点(図示せず)に向けて伸びる複数の補助線mは、それぞれが平行な直線である。また、補助線mと直交する複数の補助線nも、それぞれが平行な直線であり、隣り合う補助線nの間隔は、いずれの補助線nについても、実空間における一定の距離に相当する。例えば、補助線m1において、隣り合う補助線nによって区切られた間隔aと、その間隔aよりも消失点側で隣り合う補助線nによって区切られた間隔bとは、実空間上では同じ距離となる。なお、図2(b)に示した全ての補助線mを収束させる消失点は、カメラ12の光軸上の無限遠点である。また、補助線m,nは、説明の便宜のためのものであり、ディスプレイ202には表示されない。   In FIG. 2B, the plurality of auxiliary lines m extending from the edges E1 to E4 of the moving image toward the vanishing point (not shown) at the center of the moving image are parallel straight lines. The plurality of auxiliary lines n orthogonal to the auxiliary line m are also parallel straight lines, and the interval between the adjacent auxiliary lines n corresponds to a certain distance in real space for any auxiliary line n. For example, in the auxiliary line m1, the interval a delimited by the adjacent auxiliary line n and the interval b delimited by the auxiliary line n adjacent on the vanishing point side from the interval a are the same distance in real space. Become. The vanishing point that converges all the auxiliary lines m shown in FIG. 2B is an infinite point on the optical axis of the camera 12. The auxiliary lines m and n are for convenience of explanation and are not displayed on the display 202.

図2(b)において、車両1の進行に伴って、カメラ12では、車両1が進行する方向とは反対方向に路面等が流れる動画像が撮像される。ここで、補助線m1上で同じ距離を示す間隔aと間隔bとの比較からわかるように、カメラ12で撮像される動画像は、エッジE1〜E4に近い領域ほど、車両1の近くにあるものが、より拡大されて見える。よって、エッジE1〜E4に近い領域と、その領域よりもエッジE1〜E4から離れた領域に存在する物体が、実空間上で同じ方向に、同じ速度で移動した場合、エッジE1〜E4に近い領域のほうが、見た目上の移動量が大きく、速く移動するように見える。このため、車両1が進行すると、見た目の大きさが最も拡大される動画像のエッジE1〜E4に位置する領域で、路面や物体等が最も速く流れ、エッジE1〜E4から動画像の内側に離れるほど、路面や物体等はゆっくりと流れる。   In FIG. 2B, as the vehicle 1 travels, the camera 12 captures a moving image in which the road surface or the like flows in a direction opposite to the direction in which the vehicle 1 travels. Here, as can be seen from the comparison between the distance a and the distance b indicating the same distance on the auxiliary line m1, the moving image captured by the camera 12 is closer to the vehicle 1 in the region closer to the edges E1 to E4. Things look more magnified. Therefore, when an object existing in a region close to the edges E1 to E4 and a region farther from the edges E1 to E4 than that region moves in the same direction in the real space at the same speed, it is close to the edges E1 to E4. The region has a larger amount of visual movement and appears to move faster. For this reason, when the vehicle 1 travels, the road surface, the object, etc. flow the fastest in the region located at the edges E1 to E4 of the moving image where the size of the appearance is maximized, and from the edges E1 to E4 to the inside of the moving image. The further away, the more slowly the road surface and objects flow.

カメラ12で撮像された動画像が、操作センター200に居る操作者に対して表示されると、操作者は、路面等の流れの速さによって、感覚的に車両1の速度を把握する(車両1の速度感覚を得る)。動画像において、路面等が速く流れる場合ほど、動画像から操作者に与えられる車両の速度感覚は速いものとなる。   When the moving image picked up by the camera 12 is displayed to the operator in the operation center 200, the operator sensuously grasps the speed of the vehicle 1 based on the speed of the flow on the road surface (vehicle). 1 speed sensation). In the moving image, the speed of the vehicle given to the operator from the moving image becomes faster as the road surface flows faster.

図1に戻って説明を続ける。カメラ12は、動画像の画像データを、フレーム画像単位で生成する。即ち、カメラ12は、時間毎に撮像したフレーム画像(静止画像)を、1枚ずつ画像データに変換して、車側制御装置100へ出力する。車側制御装置100では、このカメラ12から取得した画像データに基づいて、操作センター200で表示させる動画像の画像データを、通信装置14へ出力する。なお、一枚のフレーム画像の画像データには、少なくとも、フレーム画像を構成する各ピクセル(画素)についての色情報が含まれている。   Returning to FIG. 1, the description will be continued. The camera 12 generates moving image image data in units of frame images. In other words, the camera 12 converts frame images (still images) taken every time into image data one by one and outputs the image data to the vehicle-side control device 100. In the vehicle side control device 100, based on the image data acquired from the camera 12, image data of a moving image to be displayed at the operation center 200 is output to the communication device 14. Note that the image data of one frame image includes at least color information about each pixel (pixel) constituting the frame image.

ナビゲーション装置13は、GPSを利用して車両1の現在位置を取得すると共に、地図情報に照らして車両1が走行する区間に関する情報を取得するための装置であり、複数のGPS衛星から電波を受信して、車両1の現在位置や進行方向を取得する現在位置取得部(図示せず)と、道路に関するデータや交差点データ等が記録された地図情報を記憶する情報記憶部(図示せず)と、現在位置取得部により取得された車両1の現在位置や、その現在位置と情報記憶部に記憶されている地図情報とを処理して車両1が走行する区間を示す情報等を車側制御装置100へ出力する出力部(図示せず)と、を主に備えている。   The navigation device 13 is a device for acquiring the current position of the vehicle 1 using GPS and acquiring information related to the section in which the vehicle 1 travels in light of map information, and receives radio waves from a plurality of GPS satellites. A current position acquisition unit (not shown) for acquiring the current position and traveling direction of the vehicle 1, and an information storage unit (not shown) for storing map information in which data on roads, intersection data, and the like are recorded. The vehicle side control device displays the current position of the vehicle 1 acquired by the current position acquisition unit, the current position and the map information stored in the information storage unit, and information indicating the section in which the vehicle 1 travels. And an output unit (not shown) for outputting to 100.

本実施形態では、ナビゲーション装置13から出力される車両1が走行する区間を示す情報は、車両1が走行する区間において、車両1の周辺の建物や路上構造物などの物体の存在、および、その物体が車両1とどのような位置関係となるかを示すものである。本実施形態におけるかかる情報には、車両1の走行する区間が、車両1の上方と左右の側方に天井と壁を存在させる「トンネル」であることを示す情報と、車両1の左右方向の少なくとも一方に建物や路上構造物を物体として存在させる「市街地」であることを示す情報と、「その他」の走行区間であることを示す情報とを少なくとも含むものとする。ここでいう「トンネル」とは、ナビゲーション装置13の地図情報において走行路上にトンネルが設けられている区間であり、「市街地」とは、ナビゲーション装置13の地図情報において、「トンネル」以外の区間であって、走行路に隣接する土地に建物が存在する区間や、走行路の脇にフェンスや側壁が存在する区間を少なくとも含むものである。「その他」の走行区間としては、走行路に隣接する土地が田や畑となっている区間に例示される、車両の周辺に目立つ構造物や建物の無い拓けた区間である。   In the present embodiment, the information indicating the section in which the vehicle 1 travels output from the navigation device 13 is the presence of an object such as a building or a road structure around the vehicle 1 in the section in which the vehicle 1 travels, and It shows what positional relationship the object has with the vehicle 1. Such information in the present embodiment includes information indicating that the section in which the vehicle 1 travels is a “tunnel” in which a ceiling and a wall exist above and to the left and right sides of the vehicle 1, Information indicating that it is an “urban area” in which a building or a road structure exists as an object in at least one and information indicating that it is an “other” travel section are included. The “tunnel” here is a section where a tunnel is provided on the travel path in the map information of the navigation device 13, and the “urban area” is a section other than “tunnel” in the map information of the navigation device 13. Thus, it includes at least a section where a building exists on land adjacent to the traveling road and a section where fences and side walls exist on the side of the traveling road. The “other” traveling section is a section where there is no structure or building conspicuous around the vehicle, which is exemplified by a section in which the land adjacent to the traveling road is a rice field or a field.

一方、ナビゲーション装置13から車側制御装置100へ出力された車両1の現在位置は、通信装置14を介して操作センター200へ送信される。これにより、操作センター200において、車両1の現在位置を取得して、車両1の現在地から目的地までの道のりの案内を行わせることができる。   On the other hand, the current position of the vehicle 1 output from the navigation device 13 to the vehicle-side control device 100 is transmitted to the operation center 200 via the communication device 14. Thereby, in the operation center 200, the present position of the vehicle 1 can be acquired, and the guidance from the present location of the vehicle 1 to the destination can be performed.

通信装置14は、遠隔地の操作センター200と無線通信を行う装置である。通信装置14は、車側制御装置100から受け取った画像データや、車速データ、操舵角、ナビゲーション装置13からの出力を、中継局300を介して、操作センター200へ送信する。また、通信装置14は、操作センター200から送信された信号を受信し、車側制御装置100へ出力する。この通信装置14が利用する通信システムは、一般的な無線通信装置で利用されている通信システムの他、携帯電話や、PHSに使用されている通信システム(例えば、W−CDMA)や、無線LAN等の通信システムであってもよい。   The communication device 14 is a device that performs wireless communication with a remote operation center 200. The communication device 14 transmits the image data received from the vehicle side control device 100, the vehicle speed data, the steering angle, and the output from the navigation device 13 to the operation center 200 via the relay station 300. Further, the communication device 14 receives a signal transmitted from the operation center 200 and outputs it to the vehicle side control device 100. A communication system used by the communication device 14 includes a communication system used in a general wireless communication device, a mobile phone, a communication system (for example, W-CDMA) used for PHS, a wireless LAN, and the like. A communication system such as

図1に示すように、操作センター200は、その操作センター200に設けられる操作側制御装置201と、車両1の車側制御装置100との間で、中継局300を介した相互方向の無線通信を行う設備である。操作センター200は、車側制御装置100から送信された車両1の周辺が撮像された動画像を、操作者に対して表示すると共に、その動画像に基づいて操作者が行う車両1の操作を受け付けて、その操作に応じた指令を車両1に送信することで、車両1を遠隔地から操作するためのものである。   As shown in FIG. 1, the operation center 200 communicates wirelessly between the operation side control device 201 provided in the operation center 200 and the vehicle side control device 100 of the vehicle 1 via the relay station 300. It is equipment that performs. The operation center 200 displays a moving image in which the periphery of the vehicle 1 transmitted from the vehicle-side control device 100 is captured to the operator, and performs an operation of the vehicle 1 performed by the operator based on the moving image. It is for operating the vehicle 1 from a remote place by receiving and transmitting a command corresponding to the operation to the vehicle 1.

操作センター200には、操作側制御装置201の他に、ディスプレイ202と、ステアリング装置203と、アクセルペダル装置204と、ブレーキペダル装置205と、通信装置206とが設けられている。   In the operation center 200, in addition to the operation side control device 201, a display 202, a steering device 203, an accelerator pedal device 204, a brake pedal device 205, and a communication device 206 are provided.

操作側制御装置201は、通信装置206で受信した車側制御装置100からの画像データ(フレーム画像の画像データ)を、受信の度にディスプレイ202へ送信すると共に、ステアリング装置203、アクセルペダル装置204、ブレーキペダル装置205の各装置への入力に基づいて、車両1の走行を制御するための指令情報を生成するコンピュータ装置である。この操作側制御装置201の詳細構成については、図3を参照して後述する。   The operation side control device 201 transmits the image data (frame image image data) received from the vehicle side control device 100 by the communication device 206 to the display 202 each time it is received, as well as the steering device 203 and the accelerator pedal device 204. The computer device generates command information for controlling the travel of the vehicle 1 based on the input to each device of the brake pedal device 205. The detailed configuration of the operation side control device 201 will be described later with reference to FIG.

ディスプレイ202は、操作側制御装置201から出力された画像データに基づいて動画像を表示する表示装置である。このディスプレイ202は、ディスプレイ202を見る操作者を取り囲むような湾曲形状に構成されている。詳細は後述するが、ディスプレイ202は、操作側制御装置201から出力されたフレーム画像の画像データを受信する度に、ディスプレイ202の表示内容を、新たに受信した画像データが示すフレーム画像に切り替える。本実施形態では、車両1のカメラ12で撮像された車両1の周辺を示す動画像に基づく画像データが、操作側制御装置201から出力されるので、ディスプレイ202には、車両1の周辺を示す動画像が表示される。よって、ディスプレイ202には、車両1のカメラ12で撮像された動画像に基づき、路面や車両1の周辺の物体が、車両1の進行に伴い、車両1の進行方向とは反対方向へ流れていく様子が表示される。操作者は、この動画像を見ることで、車両1の周辺の状況を視認して、状況に応じた車両1の操作をステアリング装置203、アクセルペダル装置204又はブレーキペダル装置205に対して行う。   The display 202 is a display device that displays a moving image based on the image data output from the operation-side control device 201. The display 202 is configured in a curved shape so as to surround an operator who views the display 202. Although details will be described later, every time the display 202 receives the image data of the frame image output from the operation-side control device 201, the display 202 switches the display content of the display 202 to the frame image indicated by the newly received image data. In the present embodiment, image data based on a moving image indicating the periphery of the vehicle 1 captured by the camera 12 of the vehicle 1 is output from the operation-side control device 201, so that the display 202 indicates the periphery of the vehicle 1. A moving image is displayed. Therefore, on the display 202, an object on the road surface or around the vehicle 1 flows in a direction opposite to the traveling direction of the vehicle 1 as the vehicle 1 travels based on the moving image captured by the camera 12 of the vehicle 1. A state of going is displayed. By viewing this moving image, the operator visually recognizes the situation around the vehicle 1 and performs the operation of the vehicle 1 corresponding to the situation with respect to the steering device 203, the accelerator pedal device 204, or the brake pedal device 205.

また、操作者は、ディスプレイ202上の動画像で表示される路面等の流れによって、感覚的に車両1の速度を把握する(車両1の速度感覚を得る)。動画像において路面等が速く流れるほど、車両1が高速で走行しているとの速度感覚を得る。   Further, the operator grasps the speed of the vehicle 1 sensuously by the flow on the road surface or the like displayed as a moving image on the display 202 (obtains a sense of speed of the vehicle 1). As the road surface and the like flow faster in the moving image, a sense of speed that the vehicle 1 is traveling at a higher speed is obtained.

ステアリング装置203は、操作センター200内の操作者から回転操作が入力されることで、車両1の操舵方向の指示を受け付けるものである。ステアリング装置203は、操作者によって回転操作されると、操作に応じた回転角を操作側制御装置201へ送信する。なお、ステアリング装置203は、操作者によって回転操作された回転角速度を操作側制御装置201へ送信してもよい。そして、操作側制御装置201が、ステアリング装置203から取得した回転角速度を積分して、回転角を算出してもよい。   The steering device 203 receives an instruction on the steering direction of the vehicle 1 when a rotation operation is input from an operator in the operation center 200. When the steering device 203 is rotated by the operator, the steering device 203 transmits a rotation angle corresponding to the operation to the operation-side control device 201. Note that the steering device 203 may transmit the rotation angular velocity rotated by the operator to the operation-side control device 201. Then, the operation-side control device 201 may calculate the rotation angle by integrating the rotation angular velocity acquired from the steering device 203.

アクセルペダル装置204及びブレーキペダル装置205は、操作センター200内の操作者から、踏み込み操作が入力されることで、車両1の車両速度についての指示を受け付けるものである。アクセルペダル装置204には、車両1を前後方向に進行させるために操作者によって踏み込まれるペダルを備え、このペダルの踏み込み状態(踏み込み量、踏み込み速度など)に応じた指令値を、操作側制御装置201に送信する。操作側制御装置201は、この指令値に応じて、車両速度の目標値を算出する。一方、ブレーキペダル装置205は、車両1を制動(減速)させるために踏み込まれるペダルを備え、このペダルの踏み込み状態に応じた指令値を、操作側制御装置201に送信する。これにより、操作側制御装置201が管理する車両速度の目標値がブレーキペダル装置205におけるペダルの踏み込み状態に応じて減じられる。このアクセルペダル装置204及びブレーキペダル装置205の操作に応じて決定される車両速度の目標値に基づいて、車両1の駆動力や制動力が制御される。操作側制御装置201では、車両速度の目標値に基づく速度指令情報を、逐次生成し、通信装置206へ出力する。   The accelerator pedal device 204 and the brake pedal device 205 receive an instruction about the vehicle speed of the vehicle 1 when a stepping operation is input from an operator in the operation center 200. The accelerator pedal device 204 includes a pedal that is stepped on by an operator to advance the vehicle 1 in the front-rear direction, and a command value corresponding to the pedal depression state (stepping amount, stepping speed, etc.) is given to the operation side control device. To 201. The operation side control device 201 calculates a target value of the vehicle speed according to the command value. On the other hand, the brake pedal device 205 includes a pedal that is depressed to brake (decelerate) the vehicle 1, and transmits a command value corresponding to the depressed state of the pedal to the operation-side control device 201. Thereby, the target value of the vehicle speed managed by the operation side control device 201 is reduced according to the pedal depression state in the brake pedal device 205. The driving force and braking force of the vehicle 1 are controlled based on the target value of the vehicle speed determined according to the operation of the accelerator pedal device 204 and the brake pedal device 205. The operation side control device 201 sequentially generates speed command information based on the target value of the vehicle speed and outputs it to the communication device 206.

通信装置206は、車両1と無線通信を行う装置である。通信装置206は、操作側制御装置201から受け取った指令情報等の信号を、中継局300を介して、車両1へ送信する。また、通信装置206は、車両1から送信された画像データ等の信号を受信し、操作側制御装置201へ出力する。   The communication device 206 is a device that performs wireless communication with the vehicle 1. The communication device 206 transmits a signal such as command information received from the operation side control device 201 to the vehicle 1 via the relay station 300. The communication device 206 receives a signal such as image data transmitted from the vehicle 1 and outputs the signal to the operation side control device 201.

次いで、図3を参照して、車両1および操作センター200の詳細構成について説明する。図3は、車両1および操作センター200の電気的構成を示したブロック図である。   Next, detailed configurations of the vehicle 1 and the operation center 200 will be described with reference to FIG. FIG. 3 is a block diagram showing an electrical configuration of the vehicle 1 and the operation center 200.

まず、車両1について説明する。車両1の車側制御装置100は、CPU91、ROM92及びRAM93を有しており、それらがバスライン94を介して入出力ポート95に接続されている。入出力ポート95には、車輪駆動装置3、操舵駆動装置5、速度センサ10、操舵角センサ11、カメラ12、タイマ15、通信装置14、及び、その他の入出力装置99などが接続されている。   First, the vehicle 1 will be described. The vehicle side control device 100 of the vehicle 1 includes a CPU 91, a ROM 92, and a RAM 93, which are connected to an input / output port 95 via a bus line 94. The input / output port 95 is connected to the wheel drive device 3, the steering drive device 5, the speed sensor 10, the steering angle sensor 11, the camera 12, the timer 15, the communication device 14, and other input / output devices 99. .

CPU91は、入出力ポート95に接続された各センサ10,11や通信装置14などから送信された各種の情報に基づいて、車輪駆動装置3や操舵駆動装置5を制御すると共に、カメラ12や通信装置14などから送信された各種の情報に基づいて、操作センター200のディスプレイ202へ表示させる画像の画像データを生成する演算装置である。   The CPU 91 controls the wheel driving device 3 and the steering driving device 5 on the basis of various information transmitted from the sensors 10 and 11 connected to the input / output port 95, the communication device 14, and the like, as well as the camera 12 and the communication. The arithmetic device generates image data of an image to be displayed on the display 202 of the operation center 200 on the basis of various information transmitted from the device 14 or the like.

ROM92は、CPU91によって実行される制御プログラムや固定値データ等を記憶するための書き換え不能な不揮発性のメモリである。このROM92には、プログラムメモリ92aと、画角マップメモリ92bと、最低フレームレートメモリ92cとが設けられている。   The ROM 92 is a non-rewritable nonvolatile memory for storing a control program executed by the CPU 91, fixed value data, and the like. The ROM 92 is provided with a program memory 92a, a view angle map memory 92b, and a minimum frame rate memory 92c.

プログラムメモリ92aは、CPU91にて実行される各種のプログラムが格納されたROM92上の領域である。後述する図6のフローチャートに示す画像送信処理等の各種処理をCPU91にて実行させるための各プログラムは、このプログラムメモリ92aに格納されている。CPU91は、このプログラムメモリ92aに格納されたプログラムに従って処理を実行することで、操作センター200から車両1を遠隔操作する操作者に対して車両1の周辺を示す動画像を表示させ、これにより操作者に車両の速度に応じた速度感覚を与えるための制御を行う。   The program memory 92a is an area on the ROM 92 in which various programs executed by the CPU 91 are stored. Each program for causing the CPU 91 to execute various processes such as an image transmission process shown in the flowchart of FIG. 6 to be described later is stored in the program memory 92a. The CPU 91 executes processing in accordance with the program stored in the program memory 92a, thereby displaying a moving image showing the periphery of the vehicle 1 to an operator who remotely operates the vehicle 1 from the operation center 200, thereby performing the operation. Control is performed to give the person a sense of speed according to the speed of the vehicle.

画角マップメモリ92bは、操作者に実際の車両速度に応じた速度感覚を与える動画像のフレーム画像を生成するためのメモリである。画角マップメモリ92bには、ディスプレイ202に表示させる動画像の画角(水平画角)を規定する画角マップが格納されている。この画角マップでは、車両1の走行区間、ディスプレイ202に表示されている動画像のフレームレート(ディスプレイ202において時間当たりに表示される、カメラ12によって撮像された動画像に基づくフレーム画像の枚数)、および、速度センサ10から取得される車両速度に対応付けて、画角を規定している。この画角マップメモリ92bは、後述する画像送信処理(図6参照)においてカメラ12から取得した画像データに対し、CPU91が、その画像データが示すフレーム画像の画角を修正するために参照される。具体的には、カメラ12で撮像された動画像のフレーム画像を示す画像データに対して、画角マップメモリ92bから得た画角よりも広角側(外側)のピクセルを示すデータを削除することで、フレーム画像の画角が修正される。この画角が修正されたフレーム画像を示す修正画像データが操作センター200へ送信されることで、ディスプレイ202に、カメラ12から取得した動画像から表示範囲の一部を切り出した動画像が表示される。   The view angle map memory 92b is a memory for generating a frame image of a moving image that gives the operator a sense of speed according to the actual vehicle speed. The angle-of-view map memory 92b stores an angle-of-view map that defines the angle of view (horizontal angle of view) of the moving image displayed on the display 202. In this angle-of-view map, the travel rate of the vehicle 1 and the frame rate of the moving image displayed on the display 202 (the number of frame images based on the moving image captured by the camera 12 displayed per hour on the display 202). The angle of view is defined in association with the vehicle speed acquired from the speed sensor 10. The angle-of-view map memory 92b is referred to by the CPU 91 for correcting the angle of view of the frame image indicated by the image data acquired from the camera 12 in an image transmission process (see FIG. 6) described later. . Specifically, data indicating pixels on the wide angle side (outside) from the angle of view obtained from the angle of view map memory 92b is deleted from the image data indicating the frame image of the moving image captured by the camera 12. Thus, the angle of view of the frame image is corrected. When the corrected image data indicating the frame image with the corrected angle of view is transmitted to the operation center 200, a moving image obtained by cutting out a part of the display range from the moving image acquired from the camera 12 is displayed on the display 202. The

ここで、本発明者が見いだした、車両1で撮像した進行方向における車両1の周辺の景色を、操作センター200のディスプレイ202に表示させて、そのディスプレイ202を見る操作者に車両1の操作を行わせる場合に生じる問題点について説明する。   Here, the scenery around the vehicle 1 in the traveling direction imaged by the vehicle 1 found by the present inventor is displayed on the display 202 of the operation center 200, and the operator who views the display 202 is operated by the operator of the vehicle 1. A problem that occurs when the process is performed will be described.

前述したように、ディスプレイ202には、車両1のカメラ12で撮像した車両1の周辺を示す動画像が表示される。この動画像では、車両1の進行に伴って、路面や車両1の周辺の物体が車両1の進行方向とは反対方向に流れていく様子が映し出される。そして、ディスプレイ202を見ながら車両1を遠隔操作する操作者には、ディスプレイ202上で流れる路面等の速さに応じた車両1の速度感覚が与えられる。しかし、動画像のフレームレートが低い場合は、動画像として映し出される路面等の流れが滑らかでなくなってしまう。このような動画像は操作者に対して表示されると、操作者の速度感覚が、実際の車両速度に対して速くなってしまう傾向がある。   As described above, the display 202 displays a moving image showing the periphery of the vehicle 1 captured by the camera 12 of the vehicle 1. In this moving image, as the vehicle 1 travels, the road surface and objects around the vehicle 1 flow in a direction opposite to the traveling direction of the vehicle 1. An operator who remotely operates the vehicle 1 while looking at the display 202 is given a sense of speed of the vehicle 1 according to the speed of the road surface and the like flowing on the display 202. However, when the frame rate of the moving image is low, the flow on the road surface or the like displayed as the moving image is not smooth. When such a moving image is displayed to the operator, the operator's sense of speed tends to be higher than the actual vehicle speed.

なお、ディスプレイ202上に表示される動画像のフレームレートが低下する原因の一つとして、車両1の通信装置14から操作センター200の通信装置206へ画像データを伝送する伝送経路の通信速度が遅いことが挙げられる。この伝送経路における通信速度が遅いと、動画像のフレーム画像一枚を車両1の通信装置14から操作センター200の通信装置206へ送信するために必要な通信時間が長くなってしまうので、その分、操作センター200のディスプレイ202に映し出される動画像のフレームレートが、伝送経路の通信速度が十分にあるときと比べて低くなってしまうからである。   In addition, as one of the causes that the frame rate of the moving image displayed on the display 202 is lowered, the communication speed of the transmission path for transmitting the image data from the communication device 14 of the vehicle 1 to the communication device 206 of the operation center 200 is slow. Can be mentioned. If the communication speed on this transmission path is slow, the communication time required to transmit one frame image of the moving image from the communication device 14 of the vehicle 1 to the communication device 206 of the operation center 200 becomes long. This is because the frame rate of the moving image displayed on the display 202 of the operation center 200 is lower than when the communication speed of the transmission path is sufficient.

また、動画像の画角が一定(例えば、水平画角120°、垂直画角70°)であると、車両速度が速くなるにつれて、動画像の中で最も路面等が速く流れる動画像のエッジ付近において、車両速度に比べて路面等が高速で流れる様子が顕著なものとなってしまい、動画像を見た操作者に与える速度感覚が実際の車両速度に応じたものよりも速くなってしまう傾向がある。   Also, if the angle of view of the moving image is constant (for example, horizontal angle of view 120 °, vertical angle of view 70 °), the edge of the moving image that flows the fastest on the road surface among the moving images as the vehicle speed increases. In the vicinity, the road surface etc. will flow at a higher speed than the vehicle speed, and the speed sensation given to the operator who sees the moving image will be faster than that according to the actual vehicle speed. Tend.

しかも、動画像から受ける操作者の速度感覚は、動画像における路面や物体の流れの速さが影響しているので、動画像における物体の存在や、動画像において表示範囲に占める物体の割合、車両1と物体との距離、といった環境的な要因によって、速度感覚が異なってしまう。例えば、走行路の側方に走行路に沿って壁が配設された環境で車両1を走行させる場合は、車両1の走行に伴って撮像される動画像において、壁が流れる様子が映し出される分だけ、車両1の周辺に何ら物体が存在しない環境で車両1を走行させる場合よりも速い速度感覚が、動画像を見た操作者に与えられる。また、同じ壁であっても、車両1が、壁の近くを沿って走行する場合と、それよりも離れた位置で壁に沿って走行する場合とでは、壁の近くを沿って走行する場合の方が、動画像において、壁が拡大されて見えるため、動画像における壁の流れが速く、より速い速度感覚を操作者に与える。   Moreover, the speed sensation of the operator received from the moving image is affected by the speed of the road surface and the flow of the object in the moving image, so the presence of the object in the moving image, the proportion of the object in the display range in the moving image, The speed sensation varies depending on environmental factors such as the distance between the vehicle 1 and the object. For example, when the vehicle 1 is driven in an environment in which a wall is disposed along the travel path on the side of the travel path, a state in which the wall flows is displayed in a moving image captured as the vehicle 1 travels. Thus, a speed sensation faster than when the vehicle 1 is driven in an environment where no object exists around the vehicle 1 is given to the operator who has viewed the moving image. In addition, even when the vehicle is the same wall, when the vehicle 1 travels along the wall and when traveling along the wall at a position farther than that, the vehicle 1 travels along the wall. Since the wall appears to be enlarged in the moving image, the flow of the wall in the moving image is faster, giving a faster sense of speed to the operator.

このように、動画像のフレームレートや画角、車両1の走行する環境という要因によって、動画像が操作者に表示されても、動画像を通じて、操作者に正確な車両速度を把握させることが難しいという問題点があった。操作者の速度感覚が、実際の車両速度よりも速くなってしまうと、例えば、車両1の車両速度を、車両1の周辺に存在する他車両の車両速度に合わせて、他車両の流れに乗って走行しようとしても、他車両の流れに合わせた車両1の加減速操作が、操作者にとって困難なものとなってしまう。   Thus, even if a moving image is displayed to the operator due to factors such as the frame rate and angle of view of the moving image and the environment in which the vehicle 1 travels, the operator can grasp the accurate vehicle speed through the moving image. There was a problem that it was difficult. If the speed sensation of the operator becomes faster than the actual vehicle speed, for example, the vehicle speed of the vehicle 1 is matched with the vehicle speed of other vehicles existing around the vehicle 1 and rides on the flow of the other vehicle. Even if it is going to travel, the acceleration / deceleration operation of the vehicle 1 in accordance with the flow of other vehicles becomes difficult for the operator.

このような問題点に対し、本実施形態では、車両1の走行区間と、操作センター200のディスプレイ202で表示される動画像のフレームレートと、車両1の車両速度とに応じて、図4に示す画角マップに規定される画角で、車側制御装置100に、ディスプレイ202上に表示させる動画像を生成させるようにした。   With respect to such a problem, in the present embodiment, according to the traveling section of the vehicle 1, the frame rate of the moving image displayed on the display 202 of the operation center 200, and the vehicle speed of the vehicle 1, FIG. A moving image to be displayed on the display 202 is generated by the vehicle-side control device 100 at an angle of view defined by the angle of view map shown.

ここで、図4を参照して、画角マップを説明する。図4は、画角マップを模式的に図示した模式図である。図4に示すように、画角マップは、操作センター200のディスプレイ202で表示される動画像のフレームレートと、車両1の車両速度と、操作センター200に画像データとして送信する画像の画角(水平画角)との関係を、車両1の走行区間毎に示したマップである。横軸は、フレームレートを示し、縦軸は、画角を示している。また、画角マップは、車両速度が低速(例えば、0〜30km/h)、中速(30〜60km/h)、高速(60km/h〜)の各場合で、車両1の走行区間が「市街地」である場合と、「トンネル」である場合のそれぞれについての、フレームレートに対応する画角を規定している。   Here, the angle-of-view map will be described with reference to FIG. FIG. 4 is a schematic diagram schematically showing an angle-of-view map. As shown in FIG. 4, the view angle map is a frame rate of a moving image displayed on the display 202 of the operation center 200, a vehicle speed of the vehicle 1, and an angle of view of an image transmitted as image data to the operation center 200 ( 2 is a map showing a relationship with a horizontal angle of view) for each travel section of the vehicle 1. The horizontal axis indicates the frame rate, and the vertical axis indicates the angle of view. In addition, the view angle map indicates that the traveling section of the vehicle 1 is “when the vehicle speed is low (for example, 0 to 30 km / h), medium (30 to 60 km / h), and high (60 km / h)”. The angle of view corresponding to the frame rate is defined for each of “urban area” and “tunnel”.

車両速度やディスプレイ202表示される動画像のフレームレートに応じて画角マップメモリ92bが参照されるのは、車両1の走行区間が「トンネル」か「市街地」である場合であって、「その他」の走行区間を示す情報がナビゲーション装置13から取得された場合は、車両1のカメラ12から取得したフレーム画像の画像データを、ディスプレイ202に表示させる動画像の画像データとして、通信装置14へ出力される。   The view angle map memory 92b is referred to according to the vehicle speed or the frame rate of the moving image displayed on the display 202 when the traveling section of the vehicle 1 is “tunnel” or “city”. Is obtained from the navigation device 13, the image data of the frame image obtained from the camera 12 of the vehicle 1 is output to the communication device 14 as image data of a moving image to be displayed on the display 202. Is done.

図4に示すように、画角マップは、それぞれの走行区間および車両速度において、操作センター200から取得したディスプレイ202で表示される動画像のフレームレートが、車両速度毎に設定された閾値Nl,Nm,Nhを下回るまでは、一定の画角(基準画角)を示している。一方で、画角マップは、閾値Nl,Nm,Nhを下回るフレームレートでは、基準画角よりも小さな(狭い)画角を示している。なお、車両速度が低速、且つ、走行区間が「市街地」である場合に、閾値Nlを上回るフレームレートの範囲で示される基準画角は、カメラ12によって撮像される動画像の画角(水平画角120°、垂直画角70°)と同じ画角である。   As shown in FIG. 4, the angle-of-view map shows that the frame rate of the moving image displayed on the display 202 acquired from the operation center 200 in each travel section and vehicle speed is a threshold Nl, which is set for each vehicle speed. A constant angle of view (reference angle of view) is shown until it falls below Nm and Nh. On the other hand, the view angle map shows a view angle smaller (narrower) than the reference view angle at a frame rate below the threshold values Nl, Nm, and Nh. When the vehicle speed is low and the travel section is “urban area”, the reference angle of view indicated by the frame rate range exceeding the threshold Nl is the angle of view of the moving image (horizontal image) captured by the camera 12. The angle of view is the same as the angle 120 ° and the vertical angle 70 °.

この閾値Nl,Nm,Nhは、車両速度が低速、中速、高速のそれぞれの場合で、ディスプレイ202に表示させる動画像を見た操作者が、実際の車両速度よりも速い速度感覚を感じ始めるときの動画像のフレームレートである。走行実験において、車両速度が速い場合ほど、ディスプレイ202の動画像のフレームレートが高い段階で、実際の車両速度よりも速い速度感覚を操作者が感じてしまうことを見いだした。そこで、画角マップにおいて、フレームレートの閾値Nl,Nm,Nhは、車両速度が速い場合ほど、大きな値(Nl<Nm<Nh)が設定されている。   The thresholds Nl, Nm, and Nh are the cases where the vehicle speed is low, medium, and high, respectively, and the operator who sees the moving image displayed on the display 202 starts to feel a speed sensation faster than the actual vehicle speed. This is the frame rate of the moving image. In the running experiment, it was found that the operator feels a speed sensation faster than the actual vehicle speed when the frame rate of the moving image on the display 202 is higher as the vehicle speed is higher. Therefore, in the angle-of-view map, the frame rate thresholds Nl, Nm, and Nh are set to larger values (Nl <Nm <Nh) as the vehicle speed increases.

図4に示すように、画角マップは、ディスプレイ202で表示される動画像のフレームレートが閾値Nl,Nm,Nhを下回ると、フレームレートの低下に比例して小さな画角を示している。   As shown in FIG. 4, when the frame rate of the moving image displayed on the display 202 is below the threshold values Nl, Nm, and Nh, the view angle map shows a small view angle in proportion to the decrease in the frame rate.

また、画角マップは、ディスプレイ202で表示される動画像のフレームレートが同じであれば、車両速度が速いほど、小さな画角が設定されている。   In the view angle map, if the frame rate of the moving images displayed on the display 202 is the same, a smaller view angle is set as the vehicle speed increases.

また、画角マップは、車両速度とフレームレートが同じ条件であれば、車両1の走行区間が「トンネル」である場合は、車両1の走行区間が「市街地」である場合よりも、小さな画角が設定されている。   Further, if the vehicle speed and the frame rate are the same, the angle-of-view map is smaller when the traveling section of the vehicle 1 is “tunnel” than when the traveling section of the vehicle 1 is “urban area”. A corner is set.

また、詳細については図7を参照して後述するが、車両1の走行環境が「市街地」である場合は、カメラ12で撮像された画像に対して、左右のエッジ付近のピクセルのみを削除して、カメラ12で撮像された画像に対して水平画角が小さくされたフレーム画像を示す修正画像データが生成される。一方、車両1の走行環境が「トンネル」である場合は、カメラ12で撮像された画像に対して、上下左右のエッジ付近のピクセルを削除して、カメラ12で撮像された画像に対して垂直画角および水平画角が小さくされたフレーム画像を示す修正画像データが生成される。このフレーム画像の垂直画角は、画角マップに規定される水平画角に所定の比例定数(正の定数)を乗じることで、取得される。   Although details will be described later with reference to FIG. 7, when the traveling environment of the vehicle 1 is “urban area”, only pixels near the left and right edges are deleted from the image captured by the camera 12. Thus, modified image data indicating a frame image with a reduced horizontal angle of view with respect to the image captured by the camera 12 is generated. On the other hand, when the traveling environment of the vehicle 1 is “tunnel”, the pixels near the top, bottom, left, and right edges are deleted from the image captured by the camera 12 and the image captured by the camera 12 is perpendicular to the image. Corrected image data indicating a frame image with a reduced angle of view and horizontal angle of view is generated. The vertical angle of view of the frame image is acquired by multiplying the horizontal angle of view defined in the angle-of-view map by a predetermined proportionality constant (positive constant).

図3に戻り、説明を続ける。最低フレームレートメモリ92cは、ディスプレイ202で表示される動画像において最低限確保すべきフレームレート(最低フレームレート)が車両速度毎に対応付けて格納されているメモリである。この最低フレームレートメモリ92cは、後述する画像送信処理(図6参照)においてCPU91によって参照される。   Returning to FIG. 3, the description will be continued. The minimum frame rate memory 92c is a memory in which a minimum frame rate (minimum frame rate) to be secured in the moving image displayed on the display 202 is stored in association with each vehicle speed. The minimum frame rate memory 92c is referred to by the CPU 91 in an image transmission process (see FIG. 6) described later.

ここで、図5を参照して、最低フレームレートメモリを説明する。図5は、最低フレームレートメモリ92cを模式的に図示した模式図である。   Here, the minimum frame rate memory will be described with reference to FIG. FIG. 5 is a schematic diagram schematically showing the minimum frame rate memory 92c.

図5では、縦軸が、最低フレームレートを示し、横軸が、車両速度を示している。図5に示すように、最低フレームレートメモリ92cでは、車両速度が速いほど、最低フレームレートが大きくなることを示している。   In FIG. 5, the vertical axis indicates the minimum frame rate, and the horizontal axis indicates the vehicle speed. As shown in FIG. 5, the minimum frame rate memory 92c indicates that the minimum frame rate increases as the vehicle speed increases.

ディスプレイ202で表示される動画像のフレームレートが低下すると、その動画像を見た操作者の速度感覚が実際の車両速度よりも速いものとなってしまう。しかも、車両速度が速いほど、実際の車両速度に対する操作者の速度感覚との差は大きくなってしまう傾向がある。   When the frame rate of the moving image displayed on the display 202 is lowered, the speed sensation of the operator who sees the moving image becomes faster than the actual vehicle speed. In addition, as the vehicle speed increases, the difference between the actual vehicle speed and the operator's sense of speed tends to increase.

これに対し、詳細は後述するが、後述する画像送信処理(図6参照)において、ディスプレイ202で表示されている動画像のフレームレートが、この最低フレームレートを下回っている場合に、CPU91は、車両速度の目標値を低減させる。これにより、車両1が減速するので、実際の車両速度に対する操作者の速度感覚との差を小さくすることができる。   On the other hand, although details will be described later, in the image transmission processing (see FIG. 6) described later, when the frame rate of the moving image displayed on the display 202 is lower than the minimum frame rate, the CPU 91 Reduce the target vehicle speed. Thereby, since the vehicle 1 decelerates, the difference with the speed sensation of the operator with respect to the actual vehicle speed can be reduced.

また、ディスプレイ202で表示されている動画像のフレームレートが、最低フレームレートを下回る状況では、車両1から操作センター200へ画像データを送信する伝送経路おいて、通信障害が発生している可能性が高いので、車両1を減速させることで、通信障害から回復するまでの間、操作者に停車することを促すことができる。   Further, when the frame rate of the moving image displayed on the display 202 is lower than the minimum frame rate, there is a possibility that a communication failure has occurred in the transmission path for transmitting image data from the vehicle 1 to the operation center 200. Therefore, by decelerating the vehicle 1, it is possible to prompt the operator to stop until the vehicle 1 recovers from the communication failure.

図3に戻り説明を続ける。RAM93は、書き換え可能な揮発性のメモリであり、CPU91によって実行されるプログラムの実行時に各種のデータを一時的に記憶するためのメモリである。RAM93には、画像データメモリ93aと、送信画像バッファ93bと、送信許可フラグ93cと、タイムメモリ93dと、車速メモリ93eと、操舵角メモリ93fと、受信フレームレートメモリ93gとが少なくとも設けられている。   Returning to FIG. 3, the description will be continued. The RAM 93 is a rewritable volatile memory, and is a memory for temporarily storing various data when a program executed by the CPU 91 is executed. The RAM 93 includes at least an image data memory 93a, a transmission image buffer 93b, a transmission permission flag 93c, a time memory 93d, a vehicle speed memory 93e, a steering angle memory 93f, and a reception frame rate memory 93g. .

画像データメモリ93aは、カメラ12から取得した画像データを、一時的に記憶するために使用するメモリである。画像データメモリ93aは、2つの記憶領域を有している。画像データメモリ93aは、後述する画像送信処理(図6参照)において、送信許可フラグ93cがオンされた場合に、CPU91の指令によってカメラ12から転送される画像データを、一方の記憶領域で記憶する。このとき、他方の記憶領域において予め記憶する画像データが、後述する送信画像バッファ93cに対して転送される。後述する画像送信処理(図6参照)では、カメラ12で撮像された画像の転送先となる記憶領域と、送信画像バッファ93cに対して画像データが転送される記憶領域とを、送信許可フラグ93cがオンされる度に交互に切り替えて使用する。後述する図6の画像送信処理の説明においては、これらの2つの記憶領域を用いる処理の流れについては説明を省略する。   The image data memory 93a is a memory used for temporarily storing image data acquired from the camera 12. The image data memory 93a has two storage areas. The image data memory 93a stores, in one storage area, image data transferred from the camera 12 in response to a command from the CPU 91 when the transmission permission flag 93c is turned on in an image transmission process (see FIG. 6) described later. . At this time, image data stored in advance in the other storage area is transferred to a transmission image buffer 93c described later. In an image transmission process (see FIG. 6) to be described later, a transmission permission flag 93c includes a storage area that is a transfer destination of an image captured by the camera 12 and a storage area in which image data is transferred to the transmission image buffer 93c. Each time is turned on, it is used by switching alternately. In the description of the image transmission process of FIG. 6 to be described later, the description of the flow of processing using these two storage areas is omitted.

送信画像バッファ93bは、操作センター200へ送信する画像データ(修正画像データ)を一時的に格納するためのメモリである。送信画像バッファ93bは、2つの記憶領域を有している。送信画像バッファ93bは、後述する画像送信処理(図6参照)において、画像データメモリ93aから転送される画像データに基づく画像データ(修正画像データ)を、一方の記憶領域に格納する。このとき、他方の記憶領域において予め記憶する画像データ(修正画像データ)が、通信装置14に対して転送される。そして、送信画像バッファ93bから通信装置14へ出力された画像データ(修正画像データ)は、ディスプレイ202で表示される動画像のフレーム画像として、通信装置14から、中継局300を介して、操作センター200へと送信される。後述する画像送信処理(図6参照)では、画像データメモリ93aから転送される画像データ(修正画像データ)の転送先となる記憶領域と、送信画像バッファ93cに対して画像データが転送される記憶領域とを、送信許可フラグ93cがオンされる度に交互に切り替えて使用する。後述する図6の画像送信処理の説明においては、これらの2つの記憶領域を用いる処理の流れについては説明を省略する。   The transmission image buffer 93b is a memory for temporarily storing image data (corrected image data) to be transmitted to the operation center 200. The transmission image buffer 93b has two storage areas. The transmission image buffer 93b stores image data (corrected image data) based on the image data transferred from the image data memory 93a in one storage area in an image transmission process (see FIG. 6) described later. At this time, image data (corrected image data) stored in advance in the other storage area is transferred to the communication device 14. Then, the image data (corrected image data) output from the transmission image buffer 93 b to the communication device 14 is transmitted from the communication device 14 via the relay station 300 to the operation center as a moving image frame image displayed on the display 202. 200 is transmitted. In an image transmission process (see FIG. 6) described later, a storage area to which image data (corrected image data) transferred from the image data memory 93a is transferred and a storage in which the image data is transferred to the transmission image buffer 93c. The areas are alternately used each time the transmission permission flag 93c is turned on. In the description of the image transmission process of FIG. 6 to be described later, the description of the flow of processing using these two storage areas is omitted.

送信許可フラグ93cは、車側制御装置100から画像データ(修正画像データ)を通信装置14へ出力することが、通信装置14から許可されているか否かを示すフラグである。送信許可フラグ93dは、通信装置14からの許可を示す送信許可信号がCPU91に入力されたことを契機に発生する割込処理(図示せず)によってオンされる。ここで、通信許可信号は、フレーム画像1枚分の画像データ(修正画像データ)の操作センターへの送信が完了したタイミングで、通信装置14から送信される信号である。これは、通信装置14が画像データ(修正画像データ)を送信している途中で、別の画像データ(修正画像データ)が車側制御装置100から出力されることで、送信途中でデータが上書きされてしまうことを防ぐためである。送信許可フラグ93dがオン状態であると、後述する画像送信処理(図6参照)において、送信画像バッファ93bの画像データ(修正画像データ)が、通信装置14へ出力(転送)されると共に、送信許可フラグ93dがオフ状態にされる。一方、送信許可フラグ93dがオフ状態であると、画像送信処理において、通信装置14に対する画像データ(修正画像データ)の出力が待機される。   The transmission permission flag 93 c is a flag indicating whether or not the communication device 14 is permitted to output image data (corrected image data) from the vehicle-side control device 100 to the communication device 14. The transmission permission flag 93d is turned on by an interrupt process (not shown) that occurs when a transmission permission signal indicating permission from the communication device 14 is input to the CPU 91. Here, the communication permission signal is a signal transmitted from the communication device 14 at a timing when transmission of image data (corrected image data) for one frame image to the operation center is completed. This is because data is overwritten during transmission because another image data (corrected image data) is output from the vehicle-side control device 100 while the communication device 14 is transmitting image data (corrected image data). This is to prevent it from being done. When the transmission permission flag 93d is on, the image data (corrected image data) in the transmission image buffer 93b is output (transferred) to the communication device 14 and transmitted in an image transmission process (see FIG. 6) described later. The permission flag 93d is turned off. On the other hand, when the transmission permission flag 93d is in the OFF state, the image transmission process waits for the image data (corrected image data) to be output to the communication device 14.

タイムメモリ93dは、カメラ12で撮像された画像に基づく画像データを取得した日時を示すタイムスタンプを格納するためのメモリである。タイムメモリ93dに格納されるタイムスタンプは、後述のタイマ15から出力される日時情報である。画像送信処理(図6参照)において、カメラ12からの画像データが取得される度に、CPU91によって、タイマ15から出力される日時情報が取得され、その日時情報が、タイムメモリ93dに格納される。そして、タイムメモリ93dに格納されたタイムスタンプは、そのタイムスタンプが示す日時でCPU91に取得された画像に基づく画像データ(修正画像データ)と共に、通信装置14へ出力される。これにより、タイムスタンプは、そのタイムスタンプが示す日時に撮像された画像データ(修正画像データ)と共に、通信装置14を介して、操作センター200へと送信される。   The time memory 93d is a memory for storing a time stamp indicating the date and time when the image data based on the image captured by the camera 12 is acquired. The time stamp stored in the time memory 93d is date / time information output from the timer 15 described later. In the image transmission process (see FIG. 6), every time image data from the camera 12 is acquired, the CPU 91 acquires date / time information output from the timer 15 and stores the date / time information in the time memory 93d. . The time stamp stored in the time memory 93d is output to the communication device 14 together with image data (corrected image data) based on the image acquired by the CPU 91 at the date and time indicated by the time stamp. As a result, the time stamp is transmitted to the operation center 200 via the communication device 14 together with the image data (corrected image data) captured at the date and time indicated by the time stamp.

ここで、タイマ15について説明する。タイマ15は、デジタルタイマであり、ミリ秒単位で、現在の日時を示す情報を出力するものである。一方、本実施形態において、CPU91は、カメラ12からの画像を、1秒間に最大で60枚程度(約17ミリ秒に1枚)取得する。よって、タイマ15で生成された日時情報を利用することにより、CPU91は正確な日時を示すタイムスタンプを作成できる。   Here, the timer 15 will be described. The timer 15 is a digital timer and outputs information indicating the current date and time in milliseconds. On the other hand, in this embodiment, the CPU 91 acquires about 60 images from the camera 12 per second (about one image in about 17 milliseconds). Therefore, by using the date / time information generated by the timer 15, the CPU 91 can create a time stamp indicating the correct date / time.

次に、車速メモリ93eについて説明する。車速メモリ93eは、CPU91が速度センサ10の検出結果に基づいて算出した車両1の車両速度を示す速度データを一時的に格納するためのメモリである。車速メモリ93eに格納される速度データは、画像送信処理(図6参照)の実行毎に、CPU91が速度センサ10から新たに取得したものに更新される。そして、更新後の車速メモリ93eの値は、画像送信処理において、画角マップメモリ92bの値や最低フレームレートメモリ92cの値を取得するために、CPU91によって参照される。   Next, the vehicle speed memory 93e will be described. The vehicle speed memory 93e is a memory for temporarily storing speed data indicating the vehicle speed of the vehicle 1 calculated by the CPU 91 based on the detection result of the speed sensor 10. The speed data stored in the vehicle speed memory 93e is updated to data newly acquired by the CPU 91 from the speed sensor 10 every time the image transmission process (see FIG. 6) is executed. The updated value of the vehicle speed memory 93e is referred to by the CPU 91 in order to acquire the value of the view angle map memory 92b and the value of the minimum frame rate memory 92c in the image transmission process.

操舵角メモリ93fは、CPU91が操舵角センサ11から取得した車両1の操舵角を示す操舵角データを一時的に格納するためのメモリである。操舵角メモリ93fに格納される操舵角データは、画像送信処理(図6参照)の実行毎に、CPU91が操舵角センサ11から新たに取得したものに更新される。そして、更新後の操舵角メモリ93fの値は、画像送信処理(図6参照)において、修正画像データにおいて、元の画像データから削除する範囲を決定するために、CPU91によって参照される。   The steering angle memory 93 f is a memory for temporarily storing steering angle data indicating the steering angle of the vehicle 1 acquired by the CPU 91 from the steering angle sensor 11. The steering angle data stored in the steering angle memory 93f is updated to data newly acquired by the CPU 91 from the steering angle sensor 11 every time the image transmission process (see FIG. 6) is executed. Then, the updated value of the steering angle memory 93f is referred to by the CPU 91 in order to determine a range to be deleted from the original image data in the corrected image data in the image transmission process (see FIG. 6).

受信フレームレートメモリ93gは、操作センター200の操作側制御装置201において算出された、ディスプレイ202で表示される動画像のフレームレートを格納するメモリである。詳細は後述するが、ディスプレイ202で表示される動画像のフレームレートは、操作センター200によって算出され、操作センター200から車両1へ送信される。このフレームレートを通信装置14で受信される毎に発生するCPU91の割込処理(図示せず)によって、受信フレームレートメモリ93gの値は、新たに受信された値に更新される。また、受信フレームレートメモリ93gの値は、画像送信処理(図6参照)において、画角マップメモリ92bの値を取得するために、CPU91によって参照される。   The reception frame rate memory 93g is a memory for storing the frame rate of the moving image displayed on the display 202 calculated by the operation side control device 201 of the operation center 200. Although details will be described later, the frame rate of the moving image displayed on the display 202 is calculated by the operation center 200 and transmitted from the operation center 200 to the vehicle 1. The value of the reception frame rate memory 93g is updated to a newly received value by an interrupt process (not shown) of the CPU 91 that occurs each time the frame rate is received by the communication device 14. Further, the value of the reception frame rate memory 93g is referred to by the CPU 91 in order to acquire the value of the view angle map memory 92b in the image transmission process (see FIG. 6).

次に、操作センター200について説明する。操作センター200の操作側制御装置201は、CPU291、ROM292及びRAM293を有しており、それらがバスライン294を介して入出力ポート295に接続されている。入出力ポート295には、ディスプレイ202、ステアリング装置203、アクセルペダル装置204、ブレーキペダル装置205、通信装置206、その他の入出力装置299などが接続されている。   Next, the operation center 200 will be described. The operation side control device 201 of the operation center 200 includes a CPU 291, a ROM 292, and a RAM 293, which are connected to the input / output port 295 via the bus line 294. The input / output port 295 is connected to a display 202, a steering device 203, an accelerator pedal device 204, a brake pedal device 205, a communication device 206, other input / output devices 299, and the like.

CPU291は、入出力ポート295に接続されたステアリング装置203、アクセルペダル装置204、ブレーキペダル装置205、通信装置206などから送信された各種の情報に基づいて、車両1を制御する制御指令を生成したり、ディスプレイ202を制御したりする演算装置である。   The CPU 291 generates a control command for controlling the vehicle 1 based on various information transmitted from the steering device 203, the accelerator pedal device 204, the brake pedal device 205, the communication device 206, and the like connected to the input / output port 295. Or an arithmetic device that controls the display 202.

ROM292は、CPU291によって実行される制御プログラムや固定値データ等を記憶するための書き換え不能な不揮発性のメモリである。このROM292には、プログラムメモリ292aが設けられている。   The ROM 292 is a non-rewritable nonvolatile memory for storing a control program executed by the CPU 291 and fixed value data. The ROM 292 is provided with a program memory 292a.

プログラムメモリ292aは、CPU291にて実行される各種のプログラムが格納されたROM292上の領域である。後述する図10のフローチャートにそれぞれ示す画像表示処理等の各種処理をCPU291にて実行させるための各プログラムは、このプログラムメモリ292aに格納されている。CPU291は、このプログラムメモリ292aに格納されたプログラムに従って画像表示処理(図10参照)を実行することで、通信装置206で受信した画像データ(修正画像データ)を、ディスプレイ202に出力する。   The program memory 292a is an area on the ROM 292 in which various programs executed by the CPU 291 are stored. Each program for causing the CPU 291 to execute various processes such as an image display process shown in the flowchart of FIG. 10 described later is stored in the program memory 292a. The CPU 291 outputs image data (corrected image data) received by the communication device 206 to the display 202 by executing image display processing (see FIG. 10) according to the program stored in the program memory 292a.

RAM293は、書き換え可能な揮発性のメモリであり、CPU291によって実行されるプログラムの実行時に各種のデータを一時的に記憶するためのメモリである。RAM293には、受信画像メモリ293aと、受信タイムメモリ293bと、前回タイムメモリ293cとが少なくとも設けられている。   The RAM 293 is a rewritable volatile memory, and is a memory for temporarily storing various data when a program executed by the CPU 291 is executed. The RAM 293 is provided with at least a reception image memory 293a, a reception time memory 293b, and a previous time memory 293c.

受信画像メモリ293aは、ディスプレイ202に表示する動画像のフレーム画像を、画像データとして、一時的に格納するメモリである。受信画像メモリ293aに格納される画像データは、車両1の車側制御装置100で生成された画像データ(修正画像データ)である。受信画像メモリ293aの内容は、画像データ(修正画像データ)、および、その画像データ(修正画像データ)のタイムスタンプが、通信装置206で受信される度に発生する、割込処理(図示せず)によって更新される。この割込処理では、新たに受信された画像データ(修正画像データ)を通信装置206から取得して(転送させて)、その画像データ(修正画像データ)を、受信画像メモリ293aの内容に上書きする。また、CPU291は、画像表示処理(図10参照)において、受信画像メモリ293aに格納されている画像データ(修正画像データ)が更新されている場合は、その画像データ(修正画像データ)をディスプレイ202へ出力する。よって、車両1から新たな画像データ(修正画像データ)を受信する度に、ディスプレイ202に表示されるフレーム画像が更新され、これにより、ディスプレイ202に動画像を表示させることができる。   The received image memory 293a is a memory that temporarily stores a frame image of a moving image displayed on the display 202 as image data. The image data stored in the received image memory 293a is image data (corrected image data) generated by the vehicle side control device 100 of the vehicle 1. The content of the received image memory 293a includes an interrupt process (not shown) that occurs every time the image data (corrected image data) and the time stamp of the image data (corrected image data) are received by the communication device 206. ). In this interrupt process, newly received image data (corrected image data) is acquired (transferred) from the communication device 206, and the content of the received image memory 293a is overwritten with the image data (corrected image data). To do. In the image display process (see FIG. 10), when the image data (corrected image data) stored in the received image memory 293a is updated, the CPU 291 displays the image data (corrected image data) on the display 202. Output to. Therefore, every time new image data (corrected image data) is received from the vehicle 1, the frame image displayed on the display 202 is updated, whereby a moving image can be displayed on the display 202.

受信タイムメモリ293bは、ディスプレイ202で表示される動画像のフレームレートを算出するために用いられるメモリであり、受信画像メモリ293aに格納される画像データ(修正画像データ)のタイムスタンプを格納するメモリである。受信タイムメモリ293bの内容は、割込処理(図示せず)によって、受信画像メモリ293aと共に更新される。この割込処理では、CPU291が、新たに受信されたタイムスタンプを通信装置206から取得して、そのタイムスタンプを、受信タイムメモリ293bに上書きする。また、受信タイムメモリ293bの値は、画像表示処理(図10参照)において、CPU291により参照される。詳細は後述するが、このとき参照される受信タイムメモリ293bの値と前回タイムメモリ293cの値とから、ディスプレイ202で表示される動画像のフレームレートを算出する。   The reception time memory 293b is a memory used for calculating a frame rate of a moving image displayed on the display 202, and stores a time stamp of image data (corrected image data) stored in the reception image memory 293a. It is. The contents of the reception time memory 293b are updated together with the reception image memory 293a by an interrupt process (not shown). In this interrupt process, the CPU 291 acquires a newly received time stamp from the communication device 206, and overwrites the received time memory 293b with the time stamp. The value in the reception time memory 293b is referred to by the CPU 291 in the image display process (see FIG. 10). Although details will be described later, the frame rate of the moving image displayed on the display 202 is calculated from the value of the reception time memory 293b and the value of the previous time memory 293c referred to at this time.

前回タイムメモリ293cは、ディスプレイ202で表示される動画像のフレームレートを算出するために用いられるメモリであり、ディスプレイ202へ出力された、直前の画像データ(修正画像データ)のタイムスタンプを格納するメモリである。前回タイムメモリ293cは、受信画像メモリ293aの画像データ(修正画像データ)が、ディスプレイ202へ出力されるタイミングで、前回タイムメモリ293cに、受信タイムメモリ293bの値を書き込むことで更新される。また、CPU291は、前回タイムメモリ293cの値と、受信タイムメモリ293bの値とを参照することで、ディスプレイ202に続けて表示されるフレーム画像の生成日時(車側制御装置100において、カメラ12から画像データを取得した日時)を示す、2つのタイムスタンプを得ることができる。後述する画像表示処理(図10参照)では、この2つのタイムスタンプの差分を求め、その差分の逆数を、ディスプレイ202上で表示される動画像のフレームレートとして算出する。算出されたフレームレートは、CPU291によって、通信装置206へ出力される。これにより、通信装置206から車両1へ、ディスプレイ202で表示される動画像のフレームレートが送信される。   The previous time memory 293c is a memory used for calculating the frame rate of the moving image displayed on the display 202, and stores the time stamp of the immediately previous image data (corrected image data) output to the display 202. It is memory. The previous time memory 293c is updated by writing the value of the reception time memory 293b into the previous time memory 293c at the timing when the image data (corrected image data) of the reception image memory 293a is output to the display 202. Further, the CPU 291 refers to the value of the previous time memory 293c and the value of the reception time memory 293b, so that the generation date and time of the frame image displayed on the display 202 (from the camera 12 in the vehicle side control device 100). Two time stamps indicating the date and time when image data was acquired can be obtained. In an image display process (see FIG. 10) described later, the difference between the two time stamps is obtained, and the reciprocal of the difference is calculated as the frame rate of the moving image displayed on the display 202. The calculated frame rate is output to the communication device 206 by the CPU 291. Thereby, the frame rate of the moving image displayed on the display 202 is transmitted from the communication device 206 to the vehicle 1.

次に、図6から図9のフローチャートおよび説明図を参照して、車側制御装置100内のCPU91により実行される画像送信処理を説明する。図6は、画像送信処理を示すフローチャートである。この画像送信処理は、操作センター200から送信された遠隔操作の開始を示す信号が、通信装置14を介してCPU91で受信された場合に行われる処理であり、車両1のカメラ12で撮像される画像からディスプレイ202に表示させる動画像のフレーム画像を示す画像データ(修正画像データ)を生成し、生成した画像データを、通信装置14へ出力する処理である。   Next, image transmission processing executed by the CPU 91 in the vehicle control device 100 will be described with reference to the flowcharts and explanatory diagrams of FIGS. FIG. 6 is a flowchart showing image transmission processing. This image transmission process is a process performed when a signal indicating the start of remote operation transmitted from the operation center 200 is received by the CPU 91 via the communication device 14 and is captured by the camera 12 of the vehicle 1. In this process, image data (corrected image data) indicating a frame image of a moving image to be displayed on the display 202 is generated from the image, and the generated image data is output to the communication device 14.

画像送信処理がCPU91によって実行されると、CPU91は、まず、送信許可フラグ93cが、割込処理(図示せず)に基づいてオンされているか否かを判別する(S11)。送信許可フラグ93cがオンされている場合は(S11:Yes)、送信許可フラグ93cをオフして(S12)、カメラ12で撮像されている画像を示す画像データを、カメラ12から画像データメモリ93aに転送させて、画像データメモリ93aに格納する(S13)。   When the image transmission process is executed by the CPU 91, the CPU 91 first determines whether or not the transmission permission flag 93c is turned on based on an interrupt process (not shown) (S11). When the transmission permission flag 93c is turned on (S11: Yes), the transmission permission flag 93c is turned off (S12), and image data indicating an image captured by the camera 12 is transferred from the camera 12 to the image data memory 93a. And stored in the image data memory 93a (S13).

次に、CPU91は、タイマ15によって出力されている日時情報を取得することで、S1の処理で取得した画像データが生成された日時を示すタイムスタンプを取得して、タイムメモリ93dへ格納する(S14)。速度センサ10の出力から車両速度を算出し、算出した車両速度を車速メモリ93eへ格納すると共に(S15)、操舵角センサ11から車両1の操舵角を取得し、その操舵角を操舵角メモリ93fへ格納する(S16)。   Next, the CPU 91 obtains the date and time information output by the timer 15, thereby obtaining a time stamp indicating the date and time when the image data obtained in the process of S1 was generated, and stores it in the time memory 93d ( S14). The vehicle speed is calculated from the output of the speed sensor 10, the calculated vehicle speed is stored in the vehicle speed memory 93e (S15), the steering angle of the vehicle 1 is acquired from the steering angle sensor 11, and the steering angle is stored in the steering angle memory 93f. (S16).

S16の実行後は、修正画像データ生成処理(S17)を実行し、S13の処理によって画像データメモリに格納された画像データに基づいて、ディスプレイ202に表示させる動画像のフレーム画像を示す、画像データ(修正画像データ)を取得し、送信画像バッファ93bに格納させる。   After execution of S16, the corrected image data generation process (S17) is executed, and image data indicating a frame image of a moving image to be displayed on the display 202 based on the image data stored in the image data memory by the process of S13. (Corrected image data) is acquired and stored in the transmission image buffer 93b.

ここで、図7を参照して、車側制御装置100のCPU91によって実行される修正画像データ生成処理(S17)について説明する。   Here, with reference to FIG. 7, the corrected image data generation process (S17) performed by CPU91 of the vehicle side control apparatus 100 is demonstrated.

この修正画像データ生成処理では、ナビゲーション装置13から、車両1が走行する区間に関する情報を取得し(S31)、取得した情報に基づいて車両1が走行している走行区間を判定する(S32)。   In this corrected image data generation process, information related to the section in which the vehicle 1 travels is acquired from the navigation device 13 (S31), and the travel section in which the vehicle 1 is traveling is determined based on the acquired information (S32).

このS32の処理によって、車両1の走行区間が「市街地」であると判定された場合は(S32:「市街地」)、CPU91は、画角マップメモリ92bを参照して、本処理で生成するディスプレイ202に表示させるフレーム画像の画角を取得する(S33)。即ち、画角マップメモリ92bに格納される画角マップにおいて、走行区間が「市街地」である場合の、車速メモリ93eに格納される車両速度と、受信フレームレートメモリ93gに格納されるフレームレートとに対応する画角を取得する。   When it is determined that the travel section of the vehicle 1 is “urban area” by the process of S32 (S32: “urban area”), the CPU 91 refers to the view angle map memory 92b and generates the display generated in this process. The angle of view of the frame image displayed on 202 is acquired (S33). That is, in the view angle map stored in the view angle map memory 92b, the vehicle speed stored in the vehicle speed memory 93e and the frame rate stored in the reception frame rate memory 93g when the traveling section is “city”. Get the angle of view corresponding to.

次に、車速メモリ93eに格納された車両速度と操舵角メモリ93fに格納された車両1の操舵角とから、カメラ12の光軸(本実施形態ではy軸とする)と、カメラ12から、車両1走行が予測される予測経路の路面上に設定される注視点Qを結ぶ線とが成す角度φs(水平方向の中心位置角度φs)を求める(S34)。   Next, from the vehicle speed stored in the vehicle speed memory 93e and the steering angle of the vehicle 1 stored in the steering angle memory 93f, the optical axis of the camera 12 (in this embodiment, the y-axis), and the camera 12 An angle φs (horizontal central position angle φs) formed by a line connecting the gazing points Q set on the road surface of the predicted route on which the vehicle 1 is predicted to travel is obtained (S34).

ここで、図8を参照して、S34の処理によって、水平方向の中心位置角度φsを算出する方法の一例を説明する。図8は、予測経路上の注視点から水平方向の中心位置角度φを算出する方法を説明するための説明図である。ここでは、車両1の前後方向の中心軸をy軸とし、車両1の後輪軸をx軸として説明する。   Here, an example of a method of calculating the horizontal center position angle φs by the process of S34 will be described with reference to FIG. FIG. 8 is an explanatory diagram for explaining a method of calculating the horizontal center position angle φ from the gazing point on the predicted route. Here, the center axis in the front-rear direction of the vehicle 1 will be described as y-axis, and the rear wheel axis of the vehicle 1 will be described as x-axis.

車両1に対する車両速度(V)と、操舵角(δ)とから、車両の旋回曲率ρ(1/m)を与える式は、一般によく知られており、次式から算出できる。
ρ=δ/HN(1+AV) …(1)
なお、式(1)の中のHは、車両1のホイールベースであり、Nは、ステアリングギア比である。Aは、車両1について定められたスタビリティーファクタという正の定数である。
A formula that gives the turning curvature ρ (1 / m) of the vehicle from the vehicle speed (V) with respect to the vehicle 1 and the steering angle (δ) is generally well known and can be calculated from the following formula.
ρ = δ / HN (1 + AV 2 ) (1)
In Expression (1), H is the wheel base of the vehicle 1 and N is the steering gear ratio. A is a positive constant called a stability factor defined for the vehicle 1.

この式(1)から、旋回半径Rが、次式で定められる。
R=1/ρ …(2)
従って、車両1の予測経路は、図8に示すように、車両1から、車両1の前後方向(y軸方向)の垂直方向(x軸方向)に距離Rだけ離れた点(図8の場合は、車両1の左側に距離R離れた位置にある点)を中心とした、半径Rの円弧として予測される。
From this equation (1), the turning radius R is determined by the following equation.
R = 1 / ρ (2)
Therefore, as shown in FIG. 8, the predicted route of the vehicle 1 is a point separated from the vehicle 1 by a distance R in the vertical direction (x-axis direction) in the front-rear direction (y-axis direction) of the vehicle 1 (in the case of FIG. 8). Is predicted as an arc of radius R centered on a point at a distance R on the left side of the vehicle 1.

ここで、操作者が実際に車両1に搭乗して操作を行う場合に、車両1の操作者は、車両速度が速い場合ほど、車両1から離れた位置にある点を目標に定め、その目標の周囲を確認ながら車両1の操作を行う。そこで、注視点Qの位置を、車両1の基準点(x軸とy軸の交点)から、予測進路に沿って車両速度Vに比例する、次式の距離Lだけ離れた位置に定める。
L=aV+b(a、bは正の定数) …(3)
ここで、半径R、円弧をLとした場合に求められる扇形の中心角θ(θ=L/R)を用いて、注視点Qの位置座標をQ(−Rsinθ,R(1−cosθ))として求めることができる。
Here, when the operator actually gets on the vehicle 1 and performs an operation, the operator of the vehicle 1 sets a point at a position farther away from the vehicle 1 as the vehicle speed increases, and sets the target. The vehicle 1 is operated while checking the surroundings. Therefore, the position of the gazing point Q is determined at a position away from the reference point of the vehicle 1 (the intersection of the x-axis and the y-axis) by a distance L of the following equation that is proportional to the vehicle speed V along the predicted route.
L = aV + b (a and b are positive constants) (3)
Here, using the sector central angle θ (θ = L / R) obtained when the radius is R and the arc is L, the position coordinate of the gazing point Q is Q (−R sin θ, R (1−cos θ)). Can be obtained as

カメラ12の位置Pがxy座標でP(0,p)として与えられる場合、注視点Qと、カメラ12の位置Pの座標から、水平方向の中心位置角度φsは、次式で与えられる。
φs=tan−1{Rsinθ/(R−Rcosθ−p)} …(4)
この中心位置角度φsは、続くS35の処理で生成される修正画像データにおいて、その修正画像データが示すフレーム画像の水平方向の中心位置を示すものとなる。
When the position P of the camera 12 is given as P (0, p) in xy coordinates, the horizontal center position angle φs is given by the following expression from the gazing point Q and the coordinates of the position P of the camera 12.
φs = tan −1 {Rsin θ / (R−R cos θ−p)} (4)
The center position angle φs indicates the center position in the horizontal direction of the frame image indicated by the corrected image data in the corrected image data generated in the subsequent process of S35.

図7に戻って説明を続ける。S35の処理では、画像データメモリ93aの画像データから、その画像データが示すフレーム画像の左右の外縁(エッジ)に位置する領域のデータを削除して、修正画像データを生成する(S35)。ここで、S33の処理によって、画角マップメモリ92bから取得された水平画角をαとすると、画像データメモリ93aの画像データから、その画像データが示すフレーム画像において、φs−α/2≦φ≦φs+α/2(φは水平画角)の範囲よりも広角側(外側)に配置される各ピクセルのデータを削除する。そして、削除した残りのデータを、修正画像データとして生成する。これにより、修正画像データのデータ量は、S33の処理で取得された画角に応じたサイズとなる。   Returning to FIG. 7, the description will be continued. In the process of S35, the data of the region located at the left and right outer edges (edges) of the frame image indicated by the image data is deleted from the image data in the image data memory 93a to generate corrected image data (S35). Here, if the horizontal angle of view acquired from the angle-of-view map memory 92b by the processing of S33 is α, φs−α / 2 ≦ φ in the frame image indicated by the image data from the image data in the image data memory 93a. Data of each pixel arranged on the wide angle side (outside) from the range of ≦ φs + α / 2 (φ is a horizontal field angle) is deleted. Then, the remaining deleted data is generated as corrected image data. As a result, the data amount of the corrected image data becomes a size according to the angle of view acquired in the process of S33.

そして、S35の処理によって生成された修正画像データを、送信画像バッファ93bに格納し(S36)、修正画像データ生成処理を終了する。   Then, the corrected image data generated by the process of S35 is stored in the transmission image buffer 93b (S36), and the corrected image data generation process ends.

S32の処理に戻って説明を続ける。S32の処理において、車両1の走行区間が「トンネル」であると判定された場合は(S32:「トンネル」)、CPU91は、画角マップメモリ92bに格納される画角マップにおいて、走行区間が「トンネル」である場合の、車速メモリ93eに格納される車両速度と、受信フレームレートメモリ93gに格納されるフレームレートとに対応する画角を取得する(S37)。   Returning to the process of S32, the description will be continued. In the process of S32, when it is determined that the travel section of the vehicle 1 is “tunnel” (S32: “tunnel”), the CPU 91 determines that the travel section is in the view angle map stored in the view angle map memory 92b. In the case of “tunnel”, an angle of view corresponding to the vehicle speed stored in the vehicle speed memory 93e and the frame rate stored in the reception frame rate memory 93g is acquired (S37).

次に、車速メモリ93eに格納された車両速度と操舵角メモリ93fに格納された車両1の操舵角とから、車速メモリ93eに格納された車両速度と操舵角メモリ93fに格納された車両1の操舵角とから、カメラ12の光軸(本実施形態ではy軸とする)と、カメラ12から、車両1走行が予測される予測経路の路面上に設定される注視点Qを結ぶ線とが成す角度を求める(S38)。車両1の走行区間が「トンネル」である場合は、このS38に続いて実行されるS39の処理によって、画像データメモリ93の画像データから、画像の左右の外縁(エッジ)に位置するピクセルだけでなく、上下の外縁(エッジ)に位置するピクセルについても削除する。本実施形態では、左右の外縁(エッジ)に位置するピクセルを削る際に基準となる水平方向の中心位置角度φsについては、前述のS34の処理と同様にして求める。一方、上下の外縁(エッジ)に位置するピクセルを削る際に基準となる垂直方向の中心位置角度ωsについては、予め定めた固定値(例えば「0」)であるものとする。なお、垂直方向の中心位置角度ωsについても、カメラ12の光軸と、カメラ12と前述の注視点Qを結ぶ線とが成す垂直方向の角度を求め、その角度を中心位置角度ωsとして採用しても良い。   Next, from the vehicle speed stored in the vehicle speed memory 93e and the steering angle of the vehicle 1 stored in the steering angle memory 93f, the vehicle speed stored in the vehicle speed memory 93e and the vehicle 1 stored in the steering angle memory 93f. From the steering angle, there is a line connecting the optical axis of the camera 12 (y axis in this embodiment) and the gazing point Q set from the camera 12 on the road surface of the predicted route where the vehicle 1 is predicted to travel. The formed angle is obtained (S38). When the traveling section of the vehicle 1 is a “tunnel”, only the pixels located at the left and right outer edges (edges) of the image are obtained from the image data in the image data memory 93 by the process of S39 executed after S38. Instead, the pixels located at the upper and lower outer edges (edges) are also deleted. In the present embodiment, the horizontal center position angle φs, which serves as a reference when cutting pixels located on the left and right outer edges (edges), is obtained in the same manner as in the above-described processing of S34. On the other hand, the vertical center position angle ωs used as a reference when cutting pixels located on the upper and lower outer edges (edges) is a predetermined fixed value (for example, “0”). As for the vertical center position angle ωs, the vertical angle formed by the optical axis of the camera 12 and the line connecting the camera 12 and the gazing point Q described above is obtained, and the angle is adopted as the center position angle ωs. May be.

次に、画像データメモリ93の画像データから、その画像データが示すフレーム画像の上下左右の外縁(エッジ)に位置する領域のデータを削除して、修正画像データを生成する(S39)。ここで、画角マップメモリ92bから取得された水平画角をα、垂直画角をβとすると、画像データメモリ93の画像データから、その画像データが示すフレーム画像において、φs−α/2≦φ≦φs+α/2,ωs−β/2≦ω≦ωs+β/2(φは水平画角、ωは垂直画角)の範囲よりも広角側(外側)に配置される各ピクセルのデータを削除する。そして、削除した残りのデータを、修正画像データとして生成する。これにより、修正画像データのデータ量は、S37の処理で取得された画角に応じたサイズとなる。   Next, from the image data in the image data memory 93, the data of the area located at the upper, lower, left and right outer edges (edges) of the frame image indicated by the image data is deleted to generate corrected image data (S39). Here, assuming that the horizontal field angle acquired from the field angle map memory 92b is α and the vertical field angle is β, from the image data of the image data memory 93, φs−α / 2 ≦ in the frame image indicated by the image data. Delete data of each pixel arranged on the wide angle side (outside) from the range of φ ≦ φs + α / 2, ωs−β / 2 ≦ ω ≦ ωs + β / 2 (φ is the horizontal field angle, and ω is the vertical field angle) . Then, the remaining deleted data is generated as corrected image data. Thereby, the data amount of the corrected image data becomes a size according to the angle of view acquired in the process of S37.

次に、画像データメモリ93の画像データから、S38で算出された基準画角を中心とする、画角マップメモリ92bから取得された画角の範囲よりも外側に配置される各ピクセルのデータを削除し、残りのデータを、修正画像データとして生成する(S39)。生成された修正画像データは、送信画像バッファ93bに格納し(S36)、修正画像データ生成処理を終了する。   Next, from the image data in the image data memory 93, the data of each pixel arranged outside the range of the view angle obtained from the view angle map memory 92b, centered on the reference view angle calculated in S38. The data is deleted and the remaining data is generated as corrected image data (S39). The generated corrected image data is stored in the transmission image buffer 93b (S36), and the corrected image data generation process ends.

一方、S32の処理において、車両1の走行区間がその他の区間であると判定された場合は(S32:その他)、CPU91は、画像データメモリ93bの画像データを、送信画像バッファ93cに格納して、修正画像データ生成処理を終了する。   On the other hand, in the process of S32, when it is determined that the travel section of the vehicle 1 is another section (S32: Other), the CPU 91 stores the image data in the image data memory 93b in the transmission image buffer 93c. Then, the corrected image data generation process ends.

図6に戻って、画像送信処理の説明を続ける。   Returning to FIG. 6, the description of the image transmission process will be continued.

S17の処理によって、送信画像バッファ93bに画像データ(修正画像データ)が格納されると、CPU91は、送信画像バッファ93bに格納された画像データ(修正画像データ)と、タイムメモリ93dに格納されているタイムスタンプとを、通信装置14へ出力する(S18)。これにより、通信装置14を介して、S11〜S17の処理によって生成された画像データ(修正画像データ)とタイムスタンプとが、操作センター200へ送信される。   When image data (corrected image data) is stored in the transmission image buffer 93b by the process of S17, the CPU 91 stores the image data (corrected image data) stored in the transmission image buffer 93b and the time memory 93d. The current time stamp is output to the communication device 14 (S18). Thereby, the image data (corrected image data) and the time stamp generated by the processes of S11 to S17 are transmitted to the operation center 200 via the communication device 14.

次に、最低フレームレートメモリ92cにおいて、車両1の車両速度と対応する最低フレームレートを取得し(S19)、取得した最低フレームレートよりも、受信フレームレートメモリ93gに格納された値の方が大きな値であるかを判別する(S20)。   Next, the minimum frame rate corresponding to the vehicle speed of the vehicle 1 is acquired in the minimum frame rate memory 92c (S19), and the value stored in the reception frame rate memory 93g is larger than the acquired minimum frame rate. Whether it is a value or not is discriminated (S20).

S20の処理において、最低フレームレートよりも、受信フレームレートメモリ93gに格納された値の方が大きな値であると判別された場合は(S20:Yes)、そのまま、S11の処理に戻る。一方、S20の処理において、受信フレームレートメモリ93gに格納された値が最低フレームレート以下であると判別された場合は(S20:No)、減速処理を実行し、車輪駆動装置3へ指令する車両速度の目標値を低減させてから(S21)、S11の処理に戻る。このように、受信フレームレートメモリの値(即ち、ディスプレイ202で表示されている動画像のフレームレート)が、車両速度に応じて大きな値となる最低フレームレートを下回っている場合に(S20:No)、車両速度の目標値を落として(S21)、車両1を減速させるので、操作者の速度感覚を実際の車両速度に近づけることができる。   In the process of S20, when it is determined that the value stored in the reception frame rate memory 93g is larger than the minimum frame rate (S20: Yes), the process returns to S11 as it is. On the other hand, in the process of S20, when it is determined that the value stored in the reception frame rate memory 93g is equal to or lower than the minimum frame rate (S20: No), a deceleration process is executed, and the vehicle commanding the wheel drive device 3 After reducing the target speed value (S21), the process returns to S11. As described above, when the value of the reception frame rate memory (that is, the frame rate of the moving image displayed on the display 202) is lower than the minimum frame rate that becomes a large value according to the vehicle speed (S20: No). ) Since the target value of the vehicle speed is lowered (S21) and the vehicle 1 is decelerated, the speed sensation of the operator can be brought close to the actual vehicle speed.

S11の処理に戻って説明を続ける。S11の処理によって、送信許可フラグ93cがオンされていない(即ち、オフ状態である)と判断された場合は(S11:No)、送信許可フラグ93cがオン状態となるまで、S11の処理を繰り返して、S12以降の処理を待機させる。   Returning to the process of S11, the description will be continued. If it is determined by the processing of S11 that the transmission permission flag 93c is not turned on (that is, it is in an off state) (S11: No), the processing of S11 is repeated until the transmission permission flag 93c is turned on. Thus, the processing after S12 is made to wait.

以上の通り、S11の処理に戻った後は、S11〜S21の処理を繰り返す。処理が繰り返されることで、修正画像データ生成処理によって生成された画像データ(修正画像データ)とその画像データのタイムスタンプとが、時間毎に操作センター200へ送信されることとなる。これにより、画像データ(修正画像データ)が示すフレーム画像から構成される動画像を、操作センター200のディスプレイ202に表示させることができる。   As described above, after returning to the process of S11, the processes of S11 to S21 are repeated. By repeating the process, the image data (corrected image data) generated by the corrected image data generation process and the time stamp of the image data are transmitted to the operation center 200 every time. Thereby, the moving image comprised from the frame image which image data (corrected image data) shows can be displayed on the display 202 of the operation center 200. FIG.

ここで、図9を参照して、修正画像データ生成処理によって生成されたフレーム画像によって構成される動画像について説明する。図9(a)は、車両1が「その他」の走行区間を走行する場合に、修正画像データ生成処理によって生成されるフレーム画像Aを示す模式図であり、図9(b)は、車両1が「市街地」を走行する場合に、修正画像データ生成処理によって生成されるフレーム画像Bを示す模式図であり、図9(c)は、車両1が「トンネル」を走行する場合に、修正画像データ生成処理によって生成されるフレーム画像Cを示す模式図である。   Here, with reference to FIG. 9, the moving image comprised by the frame image produced | generated by the correction image data production | generation process is demonstrated. FIG. 9A is a schematic diagram showing the frame image A generated by the corrected image data generation process when the vehicle 1 travels in the “other” travel section, and FIG. FIG. 9C is a schematic diagram showing the frame image B generated by the corrected image data generation process when the vehicle 1 travels in the “city”, and FIG. 9C illustrates the corrected image when the vehicle 1 travels in the “tunnel”. It is a schematic diagram which shows the frame image C produced | generated by a data production | generation process.

図9(a)に示すフレーム画像Aは、車両1が「その他」の走行区間を走行する場合に、カメラ12で撮像された動画像を構成するフレーム画像データそのままの画像データによって示されるフレーム画像である(図7のS40参照)。つまり、フレーム画像Aは、図2(b)で説明した動画像のフレーム画像と同じものである。「その他」の走行区間、即ち、車両1の周囲に目立つ構造物や建物が存在しない拓けた区間では、表示範囲(画角)の最も広いフレーム画像Aからなる動画像がディスプレイ202に表示される。   The frame image A shown in FIG. 9A is a frame image indicated by the image data as it is of the frame image data constituting the moving image captured by the camera 12 when the vehicle 1 travels in the “other” travel section. (Refer to S40 in FIG. 7). That is, the frame image A is the same as the moving image frame image described with reference to FIG. In the “other” traveling section, that is, an opened section where there is no conspicuous structure or building around the vehicle 1, a moving image composed of the frame image A having the widest display range (angle of view) is displayed on the display 202. .

図9(b)に示す、フレーム画像Bは、車両1が「市街地」の走行区間を走行する場合に生成されるフレーム画像である。フレーム画像Bは、カメラ12で撮像された動画像のフレーム画像(フレーム画像A)に対して、左右のエッジE2,E4付近に配置されるピクセルが削除されている。詳細には、カメラ12の光軸に対する車両1の予測経路上の注視点Qの水平方向角度(水平方向の中心位置角度φs)を中心として画角マップメモリ92bから取得した水平方向の画角の範囲で確保される領域のエッジE5,E6から、左右のエッジE2,E4までの間に配置されるピクセルが削除されている(図7のS33〜S35参照)。ピクセルが削除された領域については、フレーム画像Bでは表示できないため、フレーム画像Bからなる動画像では、左右のエッジE2,E4付近のピクセルが削除された領域が表示されないものとなる。   A frame image B shown in FIG. 9B is a frame image generated when the vehicle 1 travels in a “city” traveling section. In the frame image B, pixels arranged in the vicinity of the left and right edges E2 and E4 are deleted from the frame image (frame image A) of the moving image captured by the camera 12. Specifically, the horizontal angle of view acquired from the angle-of-view map memory 92b centered on the horizontal angle of the gazing point Q on the predicted path of the vehicle 1 with respect to the optical axis of the camera 12 (horizontal center position angle φs). Pixels arranged between the edges E5 and E6 of the area secured in the range and the left and right edges E2 and E4 are deleted (see S33 to S35 in FIG. 7). Since the area from which the pixels have been deleted cannot be displayed in the frame image B, the area from which the pixels near the left and right edges E2 and E4 have been deleted is not displayed in the moving image formed by the frame image B.

図2(b)を参照して前述したように、カメラ12で撮像された動画像では、エッジE1〜E4に位置する領域に近いほど路面や物体の流れが速い。しかし、フレーム画像Bからなる動画像では、路面や物体の流れが最も速いエッジE2,E4からエッジE5,E6までの領域が削除されることで、削除される領域の分だけ、カメラ12で撮像された動画像と比べて、動画像全体の路面等の流れはゆっくりしたものとなる。よって、フレーム画像Bからなる動画像をディスプレイ202に表示させることで、カメラ12で撮像された動画像をそのまま表示させる場合よりも、遅い速度感覚を操作者に与えることができる。   As described above with reference to FIG. 2B, in the moving image captured by the camera 12, the road surface and the flow of the object are faster as the area is located at the edges E1 to E4. However, in the moving image composed of the frame image B, the areas from the edges E2 and E4 to the edges E5 and E6 with the fastest road surface and object flow are deleted, and the camera 12 captures only the area to be deleted. Compared with the moving image, the flow of the road surface or the like of the entire moving image becomes slower. Therefore, by displaying the moving image composed of the frame image B on the display 202, it is possible to give the operator a slower speed sensation than when the moving image captured by the camera 12 is displayed as it is.

ここで、「市街地」では、車両1の走行路に隣接する建物や走行路に沿って設けられた側壁等の物体が存在するため、カメラ12で撮像される動画像において、このような物体が車両1の側方を流れる様子が撮像されることがある。しかし、「市街地」を走行する場合は、カメラ12で撮像された動画像に対して、左右のエッジE2,E4からエッジE5,E6までの領域が削除された動画像をディスプレイ202へ表示させる。これにより、その動画像において、車両1の側方における物体の流れにより、操作者の速度感覚を速める働きを、動画像全体の路面や物体等の流れを遅くすることによって打ち消すことができる。しかも、「市街地」に存在し得る車両1の側方の物体が、左右のエッジE2,E4付近で最も速く流れる様子を表示させないので、ディスプレイ202の動画像に表示される車両1の側方を流れる物体によって、操作者の速度感覚が速められてしまうことを確実に抑制できる。   Here, in the “urban area”, there are buildings such as buildings adjacent to the traveling path of the vehicle 1 and side walls provided along the traveling path. The state of flowing through the side of the vehicle 1 may be imaged. However, when traveling in an “urban area”, a moving image in which areas from the left and right edges E2, E4 to E5, E6 are deleted from the moving image captured by the camera 12 is displayed on the display 202. Thereby, in the moving image, the action of increasing the speed sensation of the operator by the flow of the object on the side of the vehicle 1 can be canceled by slowing the flow of the road surface, the object, and the like of the entire moving image. Moreover, since the side object of the vehicle 1 that may exist in the “city” does not display the fastest flow around the left and right edges E2 and E4, the side of the vehicle 1 displayed in the moving image of the display 202 is displayed. It is possible to reliably suppress the speed sensation of the operator from being accelerated by the flowing object.

図9(c)に示す、フレーム画像Cは、車両1が「トンネル」の走行区間を走行する場合に生成されるフレーム画像である。フレーム画像Cは、カメラ12で撮像された動画像のフレーム画像(フレーム画像A)に対して、上下左右のエッジE1〜E4付近に配置されるピクセルが削除されている。詳細には、所定の中心位置角度ωsを中心として画角マップメモリ92bから取得した垂直方向の画角の範囲で確保される領域のエッジE7,E8から、上下のエッジE1,E3までの間に配置されるピクセルと、前述のエッジE5,E6から、左右のエッジE2,E4までの間に配置されるピクセルとが削除されている(図7のS37〜S39参照)。これにより、フレーム画像Cからなる動画像では、上下左右のエッジE1〜E4付近のピクセルが削除された領域が表示されない。このため、フレーム画像Cからなる動画像では、路面や物体の流れが最も速いエッジE1〜E4からエッジE5〜E8までの領域が削除されることで、削除される領域の分だけ、カメラ12で撮像された動画像と比べて、動画像全体の路面等の流れを遅くなる。よって、フレーム画像Bからなる動画像をディスプレイ202に表示させることで、カメラ12で撮像された動画像をそのまま表示させる場合よりも、遅い速度感覚を操作者に与えることができる。   A frame image C shown in FIG. 9C is a frame image generated when the vehicle 1 travels in a “tunnel” travel section. In the frame image C, pixels arranged near the top, bottom, left, and right edges E1 to E4 with respect to the frame image (frame image A) of the moving image captured by the camera 12 are deleted. More specifically, a region between edges E7 and E8 of the area secured in the range of the vertical angle of view acquired from the angle-of-view map memory 92b around the predetermined center position angle ωs and the upper and lower edges E1 and E3. The arranged pixels and the pixels arranged between the above-mentioned edges E5 and E6 and the left and right edges E2 and E4 are deleted (see S37 to S39 in FIG. 7). As a result, in the moving image composed of the frame image C, the area where the pixels near the top, bottom, left, and right edges E1 to E4 are deleted is not displayed. For this reason, in the moving image composed of the frame image C, the areas from the edges E1 to E4 to the edges E5 to E8 where the road surface and the flow of the object are the fastest are deleted. Compared with the captured moving image, the flow of the road surface or the like of the entire moving image is slowed down. Therefore, by displaying the moving image composed of the frame image B on the display 202, it is possible to give the operator a slower speed sensation than when the moving image captured by the camera 12 is displayed as it is.

ここで、「トンネル」では、車両1の上方と左右の側方に天井と壁とが存在するため、カメラ12で撮像される動画像において、これらの物体(天井と壁)が車両1の上方と側方を流れる様子が撮像される。しかし、「トンネル」を走行する場合は、カメラ12で撮像された動画像に対して、上下左右のエッジE1〜E4からエッジE5〜E8までの領域が削除されたフレーム画像Cからなる動画像をディスプレイ202へ表示させる。このため、その動画像において、路面や物体(天井と壁)の流れにより、操作者の速度感覚を速める働きを、動画像全体の路面や物体等の流れを遅くすることで打ち消すことができる。   Here, in the “tunnel”, a ceiling and a wall exist above the vehicle 1 and on the left and right sides. Therefore, in a moving image captured by the camera 12, these objects (ceiling and wall) are located above the vehicle 1. The state of flowing sideways is imaged. However, when traveling in a “tunnel”, a moving image composed of a frame image C in which the areas from the top and bottom edges E1 to E4 to the edges E5 to E8 are deleted from the moving image captured by the camera 12 is displayed. It is displayed on the display 202. For this reason, in the moving image, the action of increasing the speed sensation of the operator by the flow of the road surface and objects (ceiling and wall) can be canceled by slowing the flow of the road surface and objects in the entire moving image.

かかる動画像では、車両1の側方に存在する壁の流れによる操作者の速度感覚を速める働きを、その壁が左右のエッジE2,E4付近において最も速く流れる様子を表示させないことで抑制するうえ、車両1の上方における天井の流れと、車両1の下方における路面の流れによる操作者の速度感覚を速める働きを、それぞれ、上方のエッジE1付近、下方のエッジE3付近において最も速く流れる様子を表示させないことで抑制する。このため、「トンネル」に存在する車両1の路面や物体(天井と壁)の流れにより、操作者の速度感覚が速められてしまうことを確実に抑制できる。   In such a moving image, the action of increasing the speed sensation of the operator due to the flow of the wall existing on the side of the vehicle 1 is suppressed by not displaying the state in which the wall flows fastest in the vicinity of the left and right edges E2 and E4. The action of accelerating the speed sensation of the operator by the flow of the ceiling above the vehicle 1 and the flow of the road surface below the vehicle 1 is shown to flow fastest near the upper edge E1 and the lower edge E3, respectively. Suppress it by not letting it. For this reason, it is possible to reliably prevent the speed sensation of the operator from being accelerated due to the flow of the road surface and objects (ceiling and wall) of the vehicle 1 existing in the “tunnel”.

このように、車両1によれば、ナビゲーション装置13から取得される情報に基づいて、車両1の周辺に物体の存在が想定される走行区間(即ち、「市街地」、「トンネル」)を走行する場合に、カメラ12から取得される動画像から、エッジE1〜E4付近のピクセルを削除した動画像を、ディスプレイ202に表示させて動画像全体の路面や物体の流れを遅くする。このため、ディスプレイ202に表示される動画像に、車両1の走行区間に存在する物体の流れる様子が表示されることによって、操作者の速度感覚が速められてしまうこと抑制できる。   Thus, according to the vehicle 1, based on the information acquired from the navigation device 13, the vehicle 1 travels in a travel section in which the presence of an object is assumed around the vehicle 1 (that is, “urban area”, “tunnel”). In this case, a moving image obtained by deleting pixels near the edges E1 to E4 from the moving image acquired from the camera 12 is displayed on the display 202 to slow down the road surface and the flow of objects in the entire moving image. For this reason, it is possible to suppress the speed sensation of the operator from being accelerated by displaying the flow of the object existing in the travel section of the vehicle 1 in the moving image displayed on the display 202.

また、車両1によれば、ナビゲーション装置13から取得される情報に基づいて想定される、車両1と周囲の物体との位置関係に応じて、カメラ12から取得される動画像から、物体が存在すると想定される方向のエッジE1〜E4付近のピクセルを削除した動画像を、ディスプレイ202に表示させるので、車両1の周辺に存在する物体が、動画像のエッジE1〜E4付近で最も速く流れる様子を確実に表示させないようにして、操作者の速度感覚が、ディスプレイ202に表示される動画像によって速められてしまうことをより確実に防止できる。   Further, according to the vehicle 1, an object is present from a moving image acquired from the camera 12 in accordance with the positional relationship between the vehicle 1 and surrounding objects assumed based on information acquired from the navigation device 13. Then, since the moving image from which pixels in the vicinity of the edges E1 to E4 in the assumed direction are deleted is displayed on the display 202, an object existing around the vehicle 1 flows fastest near the edges E1 to E4 of the moving image. Can be reliably prevented from being accelerated by the moving image displayed on the display 202.

また、「トンネル」では、車両1の周辺に連続して物体が存在することが想定され、カメラ12で撮像される動画像において、車両1の進行と共に流れる物体の占める割合が大きいことが想定される。一方、「市街地」では、車両1の周辺に物体が点在することが想定され、それ故、カメラ12で撮像される動画像において、車両1の進行と共に流れる物体の占める割合が、「トンネル」に比して少ないことが想定される。カメラ12で撮像された動画像の中に、車両1の進行と共に流れる物体の占める割合が多いほど、操作者の速度感覚を速める働きをする対象が多くなるので、その割合に応じて、操作者の速度感覚がより速められてしまうおそれがある。   In the “tunnel”, it is assumed that there are objects continuously around the vehicle 1, and it is assumed that the moving image captured by the camera 12 accounts for a large proportion of the object that flows as the vehicle 1 travels. The On the other hand, in the “urban area”, it is assumed that objects are scattered around the vehicle 1. Therefore, in the moving image picked up by the camera 12, the proportion of the object flowing along with the traveling of the vehicle 1 is “tunnel”. It is assumed that it is less than In the moving image picked up by the camera 12, the more the proportion of the object that flows as the vehicle 1 travels, the more objects that work to speed up the operator's speed sense. The speed sensation may be further accelerated.

ここで、画角マップメモリ93bに格納された画角マップ(図4参照)によれば、車両速度およびディスプレイ202で表示される動画像のフレームレートが同じ条件であれば、「市街地」よりも「トンネル」の方が、小さな画角のフレーム画像が、修正画像データ生成処理(図7参照)によって生成されることが示されている。よって、車両1の走行区間が、カメラ12で車両1の進行と共に流れる物体が撮像され易い区間である場合ほど、修正画像データ生成処理(図7参照)では、エッジE1〜E4から、より内側にかけてピクセルが削除されたフレーム画像が、ディスプレイ202に表示される動画像のフレーム画像として生成される。これにより、ディスプレイ202に表示される動画像全体の流れを、カメラ12で撮像される動画像に占める物体の割合が多い走行区間を走行する場合ほど遅くするので、車両1の走行区間に拘わらず、操作者に実際の車両速度に応じた速度感覚を与えることができる。   Here, according to the angle-of-view map (see FIG. 4) stored in the angle-of-view map memory 93b, if the vehicle speed and the frame rate of the moving image displayed on the display 202 are the same, the “city” In the “tunnel”, a frame image having a smaller angle of view is generated by the corrected image data generation process (see FIG. 7). Therefore, in the corrected image data generation process (see FIG. 7), the more the traveling section of the vehicle 1 is a section in which the object flowing with the advance of the vehicle 1 is more easily captured by the camera 12, the edges from the edges E1 to E4 are further inward. A frame image from which pixels have been deleted is generated as a frame image of a moving image displayed on the display 202. This slows down the flow of the entire moving image displayed on the display 202 as the vehicle travels in a traveling section where the proportion of objects in the moving image captured by the camera 12 is large, regardless of the traveling section of the vehicle 1. The operator can be given a sense of speed according to the actual vehicle speed.

また、前述したように、動画像の画角に対して車両速度が速く、その動画像のエッジ付近の領域で車両速度に比べて路面等が高速で流れる様子が顕著になってしまうと、動画像を見た操作者に与えられる速度感覚が実際の車両速度よりも速くなってしまう傾向がある。これに対し、画角マップメモリ93bに格納された画角マップ(図4参照)によれば、走行区間が「市街地」又は「トンネル」である場合において、車両速度が速いときほど、小さな画角のフレーム画像が修正画像データ生成処理(図7参照)によって生成されることが示されている。このため、修正画像データ生成処理では、車両速度が速いときほど、エッジE1〜E4から、より内側にかけてピクセルが削除されたフレーム画像が、ディスプレイ202に表示される動画像のフレーム画像として生成される。よって、ディスプレイ202に表示させる動画像において、車両速度が速い場合ほど、ピクセルが削除される領域の範囲を、路面等の流れが最も速いエッジE1〜E4から路面等の流れが速い順に(即ち、より動画像の内側にかけて)拡大させるので、ディスプレイ202に表示される動画像全体の流れの速さを抑制することができる。これにより、車両速度に拘わらず、操作者の速度感覚を実際の車両速度に近づけることができる。   In addition, as described above, if the vehicle speed is high with respect to the angle of view of the moving image and the road surface or the like flows faster in the area near the edge of the moving image than the vehicle speed, There is a tendency that the speed sensation given to the operator who has seen the image becomes faster than the actual vehicle speed. On the other hand, according to the view angle map (see FIG. 4) stored in the view angle map memory 93b, when the traveling section is “urban area” or “tunnel”, the smaller the vehicle speed, the smaller the view angle. This frame image is generated by the modified image data generation process (see FIG. 7). For this reason, in the corrected image data generation process, as the vehicle speed increases, a frame image in which pixels are deleted from the edges E1 to E4 to the inner side is generated as a frame image of a moving image displayed on the display 202. . Therefore, in the moving image to be displayed on the display 202, as the vehicle speed increases, the range of the area from which the pixels are deleted is changed in order of the flow of the road surface from the edges E1 to E4 having the fastest flow of the road surface (i.e. Since the image is enlarged (to the inner side of the moving image), the flow speed of the entire moving image displayed on the display 202 can be suppressed. As a result, the speed sensation of the operator can be brought close to the actual vehicle speed regardless of the vehicle speed.

また、ディスプレイ202で表示される動画像のフレームレートが低い場合は、その動画像を見ながら車両1を操作する操作者の速度感覚が、実際の車両速度に対して速くなってしまうおそれある。   When the frame rate of the moving image displayed on the display 202 is low, the speed sensation of the operator who operates the vehicle 1 while viewing the moving image may be faster than the actual vehicle speed.

これに対し、画像マップメモリ92bに格納された画像マップ(図4参照)によれば、車両1の走行区間が「市街地」又は「トンネル」である場合において、ディスプレイ202で表示される動画像のフレームレートが車両速度に応じた閾値Nl,Nm,Nh未満であるときに、修正画像データ生成処理(図7参照)によって生成されるフレーム画像が、閾値Nl,Nm,Nh以上であるときの基準画角よりも小さな画角で生成されることが示されている。このため、フレームレートが車両速度に応じた閾値Nl,Nm,Nh未満である場合に生成されるフレーム画像は、そのフレームレートが閾値Nl,Nm,Nh以上である場合に生成される基準画角のフレーム画像に対して、エッジE1〜E4付近のピクセルが削除されたものとなる。よって、ディスプレイ202に表示させる動画像において、フレームレートが閾値Nl,Nm,Nh未満である場合は、フレームレートが閾値Nl,Nm,Nh以上である場合に基準画角で表示される動画像よりも、動画像において路面等の流れが速いエッジE1〜E4付近の領域を表示させないものとするので、ディスプレイ202に表示される動画像全体の流れの速さを抑制することができる。よって、ディスプレイ202に表示される動画像のフレームレートが低い場合に、操作者の速度感覚が実際の車両速度より速くなってしまうことを抑制できる。   On the other hand, according to the image map (see FIG. 4) stored in the image map memory 92b, the moving image displayed on the display 202 is displayed when the traveling section of the vehicle 1 is “urban area” or “tunnel”. Reference when the frame image generated by the modified image data generation process (see FIG. 7) is greater than or equal to the thresholds Nl, Nm, and Nh when the frame rate is less than the thresholds Nl, Nm, and Nh according to the vehicle speed It is shown that the image is generated with an angle of view smaller than the angle of view. For this reason, the frame image generated when the frame rate is less than the threshold value Nl, Nm, Nh corresponding to the vehicle speed is the reference field angle generated when the frame rate is equal to or greater than the threshold value Nl, Nm, Nh. In this frame image, pixels in the vicinity of the edges E1 to E4 are deleted. Therefore, in the moving image displayed on the display 202, when the frame rate is less than the threshold values Nl, Nm, and Nh, the moving image is displayed at the reference angle of view when the frame rate is equal to or greater than the threshold values Nl, Nm, and Nh. In addition, since the area near the edges E1 to E4 where the flow on the road surface is fast is not displayed in the moving image, the flow speed of the entire moving image displayed on the display 202 can be suppressed. Therefore, when the frame rate of the moving image displayed on the display 202 is low, it is possible to suppress the speed sensation of the operator from becoming faster than the actual vehicle speed.

また、ディスプレイ202で表示される動画像のフレームレートが低下するほど、操作者の速度感覚は実際の車両速度よりも速くなる傾向がある。   Further, as the frame rate of the moving image displayed on the display 202 decreases, the speed sensation of the operator tends to be faster than the actual vehicle speed.

これに対し、図4に示すように、画角マップは、ディスプレイ202で表示される動画像のフレームレートが車両速度に応じた閾値Nl,Nm,Nhを下回ると、フレームレートの低下に比例して、画角マップメモリ92bから取得する画角が小さくなることを示している。ディスプレイ202で表示される動画像のフレームレートが車両速度に応じた閾値Nl,Nm,Nhを下回っている場合は、フレームレートが低いときほど、エッジE1〜E4から、より内側にかけてピクセルが削除されたフレーム画像が、修正画像データ生成処理(図7参照)によって生成される。よって、ディスプレイ202に表示させる動画像において、フレームレートが遅い場合ほど、ピクセルが削除される領域の範囲を、路面等の流れが最も速いエッジE1〜E4から路面等の流れが速い順に(即ち、より動画像の内側に)拡大させるので、フレームレートが低い場合ほど、ディスプレイ202に表示される動画像全体の流れの速さを抑制することができる。これにより、ディスプレイ202で表示される動画像のフレームレートに拘わらず、操作者の速度感覚を、実際の車両速度に近づけることができる。   On the other hand, as shown in FIG. 4, the view angle map is proportional to the decrease in the frame rate when the frame rate of the moving image displayed on the display 202 falls below the thresholds Nl, Nm, and Nh corresponding to the vehicle speed. Thus, the view angle acquired from the view angle map memory 92b is reduced. When the frame rate of the moving image displayed on the display 202 is lower than the threshold values Nl, Nm, and Nh corresponding to the vehicle speed, the pixels are deleted from the edges E1 to E4 to the inner side as the frame rate is lower. The frame image is generated by the corrected image data generation process (see FIG. 7). Therefore, in the moving image to be displayed on the display 202, the slower the frame rate, the smaller the range of the area where the pixels are deleted from the edges E1 to E4 where the flow on the road surface and the like is the fastest (ie, the flow on the road surface is the fastest). Therefore, as the frame rate is lower, the flow speed of the entire moving image displayed on the display 202 can be suppressed. Thereby, irrespective of the frame rate of the moving image displayed on the display 202, the speed sensation of the operator can be brought close to the actual vehicle speed.

また、車両速度が速いほど、ディスプレイ202に表示される動画像を見て車両1を操作する操作者の速度感覚が、実際の車両速度よりも速くなる傾向は、顕著なものとなってしまう。具体的には、車両速度が速いほど、ディスプレイ202に表示される動画像におけるわずかなフレームレートの低下で、操作者が実際の車両速度よりも速い速度感覚を感じてしまう。   In addition, as the vehicle speed increases, the tendency of an operator who operates the vehicle 1 to see the moving image displayed on the display 202 becomes faster than the actual vehicle speed becomes more prominent. Specifically, as the vehicle speed increases, the operator feels a speed sensation faster than the actual vehicle speed due to a slight decrease in the frame rate in the moving image displayed on the display 202.

これに対し、図4に示すように、画角マップは、車両速度が速いほど、フレームレートの閾値Nl,Nm,Nhが、大きな値となっている。このため、ディスプレイ202で表示される動画像のフレームレートが低下したときは、車両速度が速いほど、車側制御装置100の画像送信処理において、CPU91により、基準画角よりも小さな画角が画角マップメモリ92bから取得され易くなる。よって、車両速度が速くなり、操作者の速度感覚が、フレームレートの低下に伴って高まり易くなった状況下では、積極的にディスプレイ202へ表示させる動画像の画角を小さくして、操作者の速度感覚を抑制できる。従って、車両速度に拘わらず、ディスプレイ202で表示される動画像から、実際の車両速度に近い速度感覚を操作者へ与えることができる。   On the other hand, as shown in FIG. 4, in the angle-of-view map, the frame rate thresholds Nl, Nm, and Nh become larger as the vehicle speed increases. For this reason, when the frame rate of the moving image displayed on the display 202 decreases, the CPU 91 displays a smaller angle of view than the reference angle of view in the image transmission process of the vehicle-side control device 100 as the vehicle speed increases. It becomes easy to obtain from the corner map memory 92b. Therefore, in a situation where the vehicle speed increases and the operator's sense of speed is likely to increase as the frame rate decreases, the angle of view of the moving image displayed on the display 202 is actively reduced, and the operator The speed sensation can be suppressed. Therefore, it is possible to give the operator a sense of speed close to the actual vehicle speed from the moving image displayed on the display 202 regardless of the vehicle speed.

また、修正画像データ生成処理(図7参照)において、画角が確保される領域の中心を、車両1の進行が予測される、車両1の予測経路上にある注視点Qにしている。よって、ディスプレイ202に表示される動画像において、操作者に対して実際の車両速度よりも速い速度感を与えてしまう領域については、操作者は視認しないようにしつつも、車両の進行方向については確実に視認させることができる。   Further, in the corrected image data generation process (see FIG. 7), the center of the region where the angle of view is secured is set to the gazing point Q on the predicted route of the vehicle 1 where the travel of the vehicle 1 is predicted. Therefore, in the moving image displayed on the display 202, the region that gives the operator a sense of speed faster than the actual vehicle speed is not viewed by the operator, but the traveling direction of the vehicle is It can be surely visually recognized.

また、かかる動画像が表示されたディスプレイ202において、操作者が視認する領域の中心である注視点Qは、車両1の予測経路上の点なので、操作者の意識を車両1の予測経路に向かせることができる。   In addition, in the display 202 on which such a moving image is displayed, the gazing point Q, which is the center of the region visually recognized by the operator, is a point on the predicted route of the vehicle 1, so You can make it.

しかも、操作者が実際に車両1に搭乗して車両1の操作を行う場合、操作者は、車両速度が速い場合ほど、車両1から離れた点に走行目標を定め、走行目標とする点の周辺を見ながら操作を行う。ここで、注視点Qは、車両1の予測経路において、車両1から車両速度と比例した距離だけ離れた位置に予測される点である。従って、操作センター200から車両1を操作する操作者の注意を、操作者が実際に車両1に搭乗する場合と同じ領域に向かせながら、車両1の操作を行わせることができる。   Moreover, when the operator actually gets on the vehicle 1 and operates the vehicle 1, the operator sets a travel target at a point farther away from the vehicle 1 as the vehicle speed increases, Operate while looking at the surroundings. Here, the gazing point Q is a point predicted on the predicted route of the vehicle 1 at a position away from the vehicle 1 by a distance proportional to the vehicle speed. Therefore, the operation of the vehicle 1 can be performed while directing the attention of the operator who operates the vehicle 1 from the operation center 200 to the same area as when the operator actually gets on the vehicle 1.

前述したように、車両1から操作センター200のへ画像データ(修正画像データ)を伝送する伝送経路の通信速度が遅く、フレーム画像1枚を車両1から操作センター200へ送信するために必要な通信時間が長くなってしまうと、その分、操作センター200のディスプレイ202に映し出される動画像のフレームレートが低下してしまう。   As described above, the communication speed of the transmission path for transmitting the image data (corrected image data) from the vehicle 1 to the operation center 200 is low, and communication necessary for transmitting one frame image from the vehicle 1 to the operation center 200. If the time becomes longer, the frame rate of the moving image displayed on the display 202 of the operation center 200 is reduced accordingly.

これに対し、本実施形態では、修正画像データ生成処理(図7参照)において、修正画像データを、カメラ12で撮像された1枚のフレーム画像の画像データから、画角マップメモリ92bから取得される画角よりも広角側に位置するピクセルのデータを削除することによって生成する。ディスプレイ202で表示されている動画像のフレームレートが車両速度に応じた閾値Nl,Nm,Nh未満であるときは、修正画像データ生成処理(図7参照)において、そのフレームレートが閾値Nl,Nm,Nh以上であるときの基準画角よりも小さな画角が、画角マップメモリ92bから取得される。このため、フレームレートが車両速度に応じた閾値Nl,Nm,Nh未満であるときの修正画像データによって示されるフレーム画像1枚あたりのデータ量は、フレームレートが閾値Nl,Nm,Nh以上であるときよりも小さくなる。このため、前述の伝送経路における通信速度が遅くなって、フレームレートが閾値Nl,Nm,Nh未満となった場合に、フレームレートが閾値Nl,Nm,Nh以上である場合よりもフレーム画像1枚あたりのデータ量を落とした画像データを生成し、車両1から操作センター200へ送信するので、車両1から操作センター200へ送信される時間当たりのフレーム画像の数が少なくなることを抑制できる。これにより、通信速度の低下に基づいて、操作センター200のディスプレイ202に、フレームレートが低下した動画像が表示されることを防止できる。よって、ディスプレイ202にフレームレートの低い動画像が表示されることで、操作者の速度感覚が実際の車両速度よりも高まってしまうことを抑制できる。   On the other hand, in the present embodiment, in the corrected image data generation process (see FIG. 7), the corrected image data is acquired from the view angle map memory 92b from the image data of one frame image captured by the camera 12. It is generated by deleting data of pixels located on the wide-angle side from the angle of view. When the frame rate of the moving image displayed on the display 202 is less than the threshold value Nl, Nm, Nh corresponding to the vehicle speed, the frame rate is set to the threshold value Nl, Nm in the modified image data generation process (see FIG. 7). , Nh or more, the angle of view smaller than the reference angle of view when it is equal to or greater than Nh is acquired from the angle-of-view map memory 92b. Therefore, the data amount per frame image indicated by the corrected image data when the frame rate is less than the threshold values Nl, Nm, and Nh corresponding to the vehicle speed is such that the frame rate is equal to or greater than the threshold values Nl, Nm, and Nh. Smaller than when. For this reason, when the communication speed in the transmission path is slow and the frame rate is less than the threshold values Nl, Nm, and Nh, one frame image is used as compared with the case where the frame rate is equal to or greater than the threshold values Nl, Nm, and Nh. Since image data with a reduced per-data amount is generated and transmitted from the vehicle 1 to the operation center 200, it is possible to suppress a reduction in the number of frame images per time transmitted from the vehicle 1 to the operation center 200. Accordingly, it is possible to prevent a moving image having a reduced frame rate from being displayed on the display 202 of the operation center 200 based on a reduction in communication speed. Therefore, by displaying a moving image with a low frame rate on the display 202, it is possible to suppress the speed sensation of the operator from becoming higher than the actual vehicle speed.

また、フレームレートが閾値Nl,Nm,Nh未満である場合は、フレームレートが低いときほど、画角マップメモリ92bから取得される画角が小さくなるので、その画角に応じて、修正画像データ生成処理によって生成される修正画像データのデータ量も小さくなる。このため、画像データ(修正画像データ)を伝送する伝送経路の通信速度の低下に基づく、ディスプレイ202で表示される動画像のフレームレートの低下をより好適に抑制できる。   When the frame rate is less than the threshold values Nl, Nm, and Nh, the angle of view acquired from the angle-of-view map memory 92b becomes smaller as the frame rate is lower, so that the corrected image data depends on the angle of view. The data amount of the corrected image data generated by the generation process is also reduced. For this reason, the fall of the frame rate of the moving image displayed on the display 202 based on the fall of the communication speed of the transmission path which transmits image data (correction image data) can be suppressed more suitably.

次に、図10のフローチャートを参照して、操作センター200に設けられた操作側制御装置201のCPU291により実行される画像表示処理について説明する。図10は、画像表示処理を示すフローチャートである。この画像表示処理は、操作センター200において、車両1を遠隔操作する場合に実行される処理であり、通信装置206によって受信された画像データ(修正画像データ)を、受信の度にディスプレイ202へ出力することによって、車両1の周辺の動画像をディスプレイ202上に表示させる処理である。   Next, image display processing executed by the CPU 291 of the operation side control device 201 provided in the operation center 200 will be described with reference to the flowchart of FIG. FIG. 10 is a flowchart showing image display processing. This image display process is a process executed when the vehicle 1 is remotely operated in the operation center 200. The image data (corrected image data) received by the communication device 206 is output to the display 202 every time it is received. This is a process for displaying a moving image around the vehicle 1 on the display 202.

この画像表示処理では、まず、受信タイムメモリ293bと、前回タイムメモリ293cとのそれぞれに格納されたタイムスタンプを比較し、受信タイムメモリ293bのタイムスタンプの方が後の日時を示しているかを判別する(S61)。ここで、受信タイムメモリ293bの値は、車側制御装置100から送信された画像データ(修正画像データ)とタイムスタンプとが通信装置206で受信されたタイミングで発生する割込処理(図示せず)において、通信装置206で受信されたタイムスタンプを、CPU291が書き込んだものである。また、前回タイムメモリ293cの値は、予め行われている後述のS65の処理において、受信タイムメモリ293bの値が書き込まれたものである。   In this image display process, first, the time stamps stored in the reception time memory 293b and the previous time memory 293c are respectively compared to determine whether the time stamp in the reception time memory 293b indicates a later date and time. (S61). Here, the value of the reception time memory 293b is an interrupt process (not shown) that occurs at the timing when the image data (corrected image data) and the time stamp transmitted from the vehicle control device 100 are received by the communication device 206. ), The time stamp received by the communication device 206 is written by the CPU 291. The value of the previous time memory 293c is the value written in the reception time memory 293b in the later-described processing of S65 described later.

よって、前回のS65の処理が行われた後に、新たな画像データ(修正画像データ)とタイムスタンプとが通信装置206で受信されていなければ、割込処理が発生せず、受信タイムメモリ293bのタイムスタンプと、前回タイムメモリ293cのタイムスタンプとは、同じ日時を示す。このため、S61の処理において、受信タイムメモリ293bのタイムスタンプの方が後の日時を示しているとは判別されない(S61:No)。かかる場合は、新たな画像データ(修正画像データ)とタイムスタンプとが通信装置206で受信され、割込処理によって受信タイムメモリ293bの値が更新されるまで、S61の処理を繰り返し実行する。   Therefore, if new image data (corrected image data) and a time stamp have not been received by the communication device 206 after the previous processing of S65, no interrupt processing occurs and the reception time memory 293b The time stamp and the time stamp of the previous time memory 293c indicate the same date and time. For this reason, in the process of S61, it is not determined that the time stamp of the reception time memory 293b indicates a later date and time (S61: No). In such a case, the process of S61 is repeatedly executed until new image data (corrected image data) and a time stamp are received by the communication device 206 and the value of the reception time memory 293b is updated by the interrupt process.

一方、新たな画像データ(修正画像データ)とタイムスタンプとが通信装置206で受信されていると、S61の処理において、受信タイムメモリ293bのタイムスタンプの方が、前回タイムメモリ293cのタイムスタンプよりも後の日時を示していると判断され(S61:Yes)、S62〜S65の処理を実行する。   On the other hand, if new image data (corrected image data) and a time stamp are received by the communication device 206, the time stamp in the reception time memory 293b is more time-sensitive than the time stamp in the previous time memory 293c in the process of S61. Is determined to indicate a later date and time (S61: Yes), and the processing of S62 to S65 is executed.

S62の処理では、受信タイムメモリ293bのタイムスタンプが示す、受信画像メモリ293aに格納される画像データ(修正画像データ)の生成日時と、前回タイムメモリ293cのタイムスタンプが示す、直前にディスプレイ202に出力された画像データ(修正画像データ)の生成日時との差分から、それら2つの画像データが生成された時間間隔を算出する。そして、その時間間隔の逆数を、ディスプレイ202で表示される動画像のフレームレートとして算出する。S62の処理によって算出されたフレームレートは、通信装置206へ出力される(S63)。これにより、通信装置206を介して、操作側制御装置201から車側制御装置100に対して、ディスプレイ202上で表示される動画像のフレームレートが送信される。   In the process of S62, the generation date and time of the image data (corrected image data) stored in the reception image memory 293a indicated by the time stamp of the reception time memory 293b and the time stamp of the previous time memory 293c indicate on the display 202 immediately before. From the difference between the output date and time of the output image data (corrected image data), the time interval at which the two image data are generated is calculated. Then, the reciprocal of the time interval is calculated as the frame rate of the moving image displayed on the display 202. The frame rate calculated by the process of S62 is output to the communication device 206 (S63). Thereby, the frame rate of the moving image displayed on the display 202 is transmitted from the operation side control device 201 to the vehicle side control device 100 via the communication device 206.

次に、CPU291は、受信画像メモリ293aに格納されている画像データ(修正画像データ)を、ディスプレイ202へ出力する(S64)。これにより、画像データに基づいてディスプレイ202で表示されるフレーム画像が更新される。   Next, the CPU 291 outputs the image data (corrected image data) stored in the received image memory 293a to the display 202 (S64). Thereby, the frame image displayed on the display 202 is updated based on the image data.

次に、前回タイムメモリ293cに記憶されている値を、受信タイムメモリ293bに記憶されているタイムスタンプに書き換え(S65)、S61の処理に戻る。そして、S61〜S65までの処理を繰り返し実行する。これにより、ディスプレイ202で表示されるフレーム画像を、逐次更新して、動画像を表示させることができる。   Next, the value stored in the previous time memory 293c is rewritten to the time stamp stored in the reception time memory 293b (S65), and the process returns to S61. Then, the processes from S61 to S65 are repeatedly executed. Thereby, the frame image displayed on the display 202 can be sequentially updated to display a moving image.

次いで、図11〜図13を参照して、第2実施形態として、本発明を操作センター200に適用した場合の一実施形態について説明する。上述の第1実施形態では、車両1の制御装置100に、車両1のカメラ12で撮像された動画像のうち、操作センター200のディスプレイ202に表示させる範囲(画角)を求めさせ、その範囲に含まれる動画像を表示させるための画像データ(修正画像データ)を、操作センター200の操作側制御装置201へ送信させるように構成した。   Next, with reference to FIGS. 11 to 13, an embodiment in which the present invention is applied to the operation center 200 will be described as a second embodiment. In the first embodiment described above, the control device 100 of the vehicle 1 is caused to obtain a range (view angle) to be displayed on the display 202 of the operation center 200 among the moving images captured by the camera 12 of the vehicle 1, and the range. Image data (corrected image data) for displaying a moving image included in the operation center 200 is transmitted to the operation-side control device 201 of the operation center 200.

これに対し、第2実施形態では、車側制御装置100では、車両1のカメラ12で撮像された動画像に基づく画像データを、そのまま操作側制御装置201へ送信させるように構成し、且つ、操作側制御装置201では、車両制御装置100から受信した画像データに基づいてディスプレイ202に表示させる動画像の表示範囲(画角)を求めさせ、求めた表示範囲で、ディスプレイ202に動画像を表示させるように構成した。以下、第1実施形態と同一の要素には同一の符号を付し、その図示と説明を省略する。   In contrast, in the second embodiment, the vehicle-side control device 100 is configured to transmit image data based on a moving image captured by the camera 12 of the vehicle 1 to the operation-side control device 201 as it is, and The operation-side control device 201 obtains a display range (angle of view) of a moving image to be displayed on the display 202 based on the image data received from the vehicle control device 100, and displays a moving image on the display 202 within the obtained display range. It was configured to make it. Hereinafter, the same reference numerals are given to the same elements as those in the first embodiment, and illustration and description thereof are omitted.

まず、図11を参照して、車両1及び操作センター200の詳細構成について説明する。図11は、車両1及び操作センター200の電気的構成を示したブロック図である。   First, with reference to FIG. 11, the detailed structure of the vehicle 1 and the operation center 200 is demonstrated. FIG. 11 is a block diagram showing the electrical configuration of the vehicle 1 and the operation center 200.

まず、車両1について説明する。第2実施形態における車両1の電気的構成において、第1実施形態と異なる点は、車側制御装置100のROM92およびRAM93である。   First, the vehicle 1 will be described. The electrical configuration of the vehicle 1 in the second embodiment is different from the first embodiment in the ROM 92 and the RAM 93 of the vehicle side control device 100.

ROM92には、プログラムメモリ92aが設けられている。プログラムメモリ92aには、第1実施形態とは処理が一部異なる、画像送信処置を実行するためのプログラムが格納されている。詳細については、図12を参照して後述するが、カメラ12で撮像された画像のうち、操作センター200のディスプレイ202に表示させる範囲(画角)を、第1実施形態のように求めることなく、カメラ12で撮像された画像を示す画像データを、そのまま操作側制御装置201へ送信する処理についてのプログラムが、プログラムメモリ92aに格納されている。   The ROM 92 is provided with a program memory 92a. The program memory 92a stores a program for executing image transmission processing, which is partly different from the processing in the first embodiment. Details will be described later with reference to FIG. 12, but the range (view angle) to be displayed on the display 202 of the operation center 200 among the images captured by the camera 12 is not obtained as in the first embodiment. A program for processing for transmitting image data indicating an image captured by the camera 12 to the operation-side control device 201 as it is is stored in the program memory 92a.

また、第1実施形態では、ROM92に画角マップメモリ92bを設け、車側制御装置100において、操作センター200のディスプレイ202に表示させる動画像の画角を、画角マップメモリ92bを参照して求める場合を説明したが、第2実施形態のROM92には、画角マップメモリ92bは設けられていない。詳細は後述するが、第2実施形態では、操作側制御装置201において、ディスプレイ202に表示させる動画像の画角を決定するため、第1実施形態のように、車側制御装置100のROM92に画角マップメモリ92bを設ける必要が無いためである。   In the first embodiment, an angle-of-view map memory 92b is provided in the ROM 92, and the angle of view of the moving image displayed on the display 202 of the operation center 200 in the vehicle side control device 100 is referred to the angle-of-view map memory 92b. Although the case where it calculates | requires was demonstrated, the angle-of-view map memory 92b is not provided in ROM92 of 2nd Embodiment. Although details will be described later, in the second embodiment, the operation-side control device 201 determines the angle of view of the moving image to be displayed on the display 202, so that it is stored in the ROM 92 of the vehicle-side control device 100 as in the first embodiment. This is because it is not necessary to provide the view angle map memory 92b.

また、第1実施形態のROM92では、最低フレームレートメモリ92cを設け、車側制御装置100において、ディスプレイ202上で表示されている動画像のフレームレートが、最低フレームレートを下回っていると判断された場合に、車両1を減速させる場合を説明したが、第2実施形態のROM92には、最低フレームレートメモリ92cは設けられていない。詳細は後述するが、第2実施形態では、操作側制御装置201において、ディスプレイ202上で表示されている動画像のフレームレートと、予め定められた最低フレームレートとを比較して、車両1の減速指令を生成する処理を行うので、第1実施形態のように、車側制御装置100のROM92に最低フレームレートメモリ92cを設ける必要が無いためである。   In the ROM 92 of the first embodiment, the minimum frame rate memory 92c is provided, and the vehicle-side control apparatus 100 determines that the frame rate of the moving image displayed on the display 202 is lower than the minimum frame rate. However, the ROM 92 of the second embodiment is not provided with the minimum frame rate memory 92c. Although details will be described later, in the second embodiment, the operation-side control device 201 compares the frame rate of the moving image displayed on the display 202 with a predetermined minimum frame rate to determine the vehicle 1 This is because the process for generating the deceleration command is performed, and therefore it is not necessary to provide the minimum frame rate memory 92c in the ROM 92 of the vehicle control device 100 as in the first embodiment.

第2実施形態のRAM93には、第1実施形態と同様に、画像データメモリ93aと、送信許可フラグ93cと、タイムメモリ93dと、車速メモリ93eと、操舵角メモリ93fとが設けられている。一方で、第2実施形態のRAM93には、第1実施形態のRAM93に設けられていた送信画像バッファ93bと、受信フレームレートメモリ93gとが設けられていない。   Similar to the first embodiment, the RAM 93 of the second embodiment includes an image data memory 93a, a transmission permission flag 93c, a time memory 93d, a vehicle speed memory 93e, and a steering angle memory 93f. On the other hand, the RAM 93 of the second embodiment is not provided with the transmission image buffer 93b and the reception frame rate memory 93g provided in the RAM 93 of the first embodiment.

第2実施形態のRAM93に、送信画像バッファ93bが設けられていないのは、次の理由による。即ち、詳細は後述するが、第2実施形態の画像送信処理(図12参照)では、画像データメモリ93aに格納された画像データを、第1実施形態のように修正画像データに修正すること無く、そのまま操作側制御装置201へ送信する。このため、第2実施形態においては、第1実施形態のように、送信画像バッファ93bを設けて、修正画像データを一時的に格納する必要が無いためである。   The reason why the transmission image buffer 93b is not provided in the RAM 93 of the second embodiment is as follows. That is, although details will be described later, in the image transmission process (see FIG. 12) of the second embodiment, the image data stored in the image data memory 93a is not corrected to the corrected image data as in the first embodiment. Then, it is transmitted to the operation side control device 201 as it is. For this reason, in the second embodiment, unlike the first embodiment, it is not necessary to provide the transmission image buffer 93b and temporarily store the corrected image data.

第2実施形態のRAM93に、受信フレームレートメモリ93gが設けられていないのは、次の理由による。即ち、操作センター200のディスプレイ202に表示される動画像のフレームレートに基づき、画角や車両1の車両速度の目標値を、車側制御装置100にて求めていたが、第2実施形態では、それらを操作側制御装置201にて求める。このように、第2実施形態では、車側制御装置100において、操作側制御装置201から受信したフレームレートに基づく処理が行われないためである。   The reason why the reception frame rate memory 93g is not provided in the RAM 93 of the second embodiment is as follows. That is, based on the frame rate of the moving image displayed on the display 202 of the operation center 200, the vehicle-side control device 100 determines the angle of view and the target value of the vehicle speed of the vehicle 1, but in the second embodiment. These are obtained by the operation side control device 201. Thus, in 2nd Embodiment, it is because the process based on the frame rate received from the operation side control apparatus 201 is not performed in the vehicle side control apparatus 100. FIG.

次に、操作センター200について説明する。第2実施形態における操作センター200の電気的構成において、第1実施形態と異なる点は、操作側制御装置201のROM292およびRAM293である。   Next, the operation center 200 will be described. In the electrical configuration of the operation center 200 in the second embodiment, the difference from the first embodiment is the ROM 292 and the RAM 293 of the operation side control device 201.

ROM292には、プログラムメモリ292aと、画角マップメモリ392bと、最低フレームレートメモリ392cとが設けられている。プログラムメモリ292aには、第1実施形態とは処理が一部異なる、画像表示処置を実行するためのプログラムが格納されている。詳細については、図13を参照して後述するが、車側制御装置100から画像データを受信した場合に、受信した画像データの示す画像のうち、操作センター200のディスプレイ202に表示させる範囲(画角)を求め、その範囲に含まれる画像だけをディスプレイ202に表示させるためのプログラムが、プログラムメモリ292aに格納されている。   The ROM 292 is provided with a program memory 292a, an angle-of-view map memory 392b, and a minimum frame rate memory 392c. The program memory 292a stores a program for executing an image display procedure, which is partly different from the first embodiment. Although details will be described later with reference to FIG. 13, when image data is received from the vehicle-side control device 100, a range (image) to be displayed on the display 202 of the operation center 200 among the images indicated by the received image data. A program for obtaining a corner) and displaying only an image included in the range on the display 202 is stored in the program memory 292a.

画角マップメモリ392bは、操作者に実際の車両速度に応じた速度感覚を与える動画像のフレーム画像を生成するためのメモリであり、第1実施形態において車側制御装置100の画角マップメモリ92bに格納されていたものと同様の画角マップが格納されている。この画角マップメモリ392bは、後述する画像表示処理(図13参照)において、CPU291が、車側制御装置100から受信した画像データが示すフレーム画像のうち、ディスプレイ202に表示させる範囲(画角)を求めるために、車両1に設けたナビゲーション装置13で取得される車両1の走行区間を示す情報と、ディスプレイ202に表示されている動画像のフレームレートと、車両1の車両速度とに応じて参照される。なお、この画角マップメモリ392bに格納される画角マップは、第1実施形態の画角マップメモリ92bに格納された画角マップと(図4参照)と同様のものなので、詳細な説明を省略する。   The view angle map memory 392b is a memory for generating a frame image of a moving image that gives the operator a speed sensation according to the actual vehicle speed. In the first embodiment, the view angle map memory of the vehicle side control device 100 is used. An angle-of-view map similar to that stored in 92b is stored. This view angle map memory 392b is a range (view angle) that the CPU 291 displays on the display 202 in the frame image indicated by the image data received from the vehicle control device 100 in the image display process (see FIG. 13) described later. In accordance with information indicating the travel section of the vehicle 1 acquired by the navigation device 13 provided in the vehicle 1, the frame rate of the moving image displayed on the display 202, and the vehicle speed of the vehicle 1. Referenced. The angle of view map stored in the angle of view map memory 392b is the same as the angle of view map stored in the angle of view map memory 92b of the first embodiment (see FIG. 4). Omitted.

最低フレームレートメモリ392cは、ディスプレイ202で表示される動画像において最低限確保すべきフレームレート(最低フレームレート)が車両速度毎に対応付けて格納されているメモリである。この最低フレームレートメモリ392cは、後述する画像表示処理(図13参照)において、車両1へ送信する車両速度の指令値を、ディスプレイ202で表示される動画像のフレームレートに応じたものとするために、CPU291によって参照される。なお、この最低フレームレートメモリ392cにおける、車両速度と最低フレームレートとの対応関係は、第1実施形態の最低フレームレートメモリ92cと同様なので、詳細な説明を省略する(図5参照)。   The minimum frame rate memory 392c is a memory in which a minimum frame rate (minimum frame rate) to be secured in the moving image displayed on the display 202 is stored in association with each vehicle speed. The minimum frame rate memory 392c is used to set a vehicle speed command value to be transmitted to the vehicle 1 in accordance with the frame rate of the moving image displayed on the display 202 in an image display process (see FIG. 13) described later. The CPU 291 refers to it. The correspondence relationship between the vehicle speed and the minimum frame rate in the minimum frame rate memory 392c is the same as that of the minimum frame rate memory 92c of the first embodiment, and thus detailed description thereof is omitted (see FIG. 5).

RAM293には、受信画像メモリ293a、受信タイムメモリ293b、および、前回タイムメモリ293cの他に、車速メモリ393d、操舵角メモリ393e、ナビ情報メモリ393gおよび表示画像メモリ393gが設けられている。   The RAM 293 is provided with a vehicle speed memory 393d, a steering angle memory 393e, a navigation information memory 393g, and a display image memory 393g in addition to the reception image memory 293a, the reception time memory 293b, and the previous time memory 293c.

車速メモリ393dは、通信装置206によって受信された、車両1の車両速度を示す速度データを一時的に格納するためのメモリである。車速メモリ393dの値は、画像表示処理(図13参照)において画角マップメモリ392bの値や最低フレームレートメモリ392cの値を取得するために、CPU291によって参照される。   The vehicle speed memory 393d is a memory for temporarily storing speed data indicating the vehicle speed of the vehicle 1 received by the communication device 206. The value in the vehicle speed memory 393d is referred to by the CPU 291 in order to obtain the value in the view angle map memory 392b and the value in the minimum frame rate memory 392c in the image display process (see FIG. 13).

操舵角メモリ393eは、通信装置206によって受信された、車両1の操舵角を示す操舵角データを一時的に格納するためのメモリである。操舵角メモリ393eの値は、車両1の予測経路および予測経路上の注視点Qを算出するために、CPU291によって参照される。   The steering angle memory 393e is a memory for temporarily storing steering angle data indicating the steering angle of the vehicle 1 received by the communication device 206. The value of the steering angle memory 393e is referred to by the CPU 291 in order to calculate the predicted route of the vehicle 1 and the gazing point Q on the predicted route.

ナビ情報メモリ393fは、通信装置206によって受信された、車両1のナビゲーション装置13で取得される車両1の走行区間を示す情報を、一時的に格納するためのメモリである。ナビ情報メモリ393fは、画像表示処理(図13参照)において画角マップメモリ392bの値を取得するために参照される。   The navigation information memory 393f is a memory for temporarily storing information indicating the travel section of the vehicle 1 acquired by the navigation device 13 of the vehicle 1 and received by the communication device 206. The navigation information memory 393f is referred to in order to acquire the value of the view angle map memory 392b in the image display process (see FIG. 13).

第2実施形態において、車速メモリ393d、操舵角メモリ393eおよびナビ情報メモリ393fは、通信装置206によって、速度データ、操舵角データ、走行区間を示す情報がそれぞれ受信される場合に発生する、割込処理(図示せず)によって、それぞれ、通信装置206によって新たに受信されたものに更新される。   In the second embodiment, the vehicle speed memory 393d, the steering angle memory 393e, and the navigation information memory 393f are interrupts that are generated when the communication device 206 receives speed data, steering angle data, and information indicating a travel section, respectively. Each process (not shown) is updated to one newly received by the communication device 206.

表示画像メモリ393gは、ディスプレイ202に表示される画像の画像データ(修正画像データ)を一時的に格納するためのメモリである。修正画像データは、受信画像メモリ293aに格納された画像データを、CPU291が画角マップメモリ292bから取得した画角に応じて修正したものである。表示画像メモリ393gは、2つの記憶領域を有している。表示画像メモリ393gは、後述する画像表示処理(図13参照)において、受信画像メモリ93aから転送される画像データ(修正画像データ)に基づく画像データを、一方の記憶領域に格納する。このとき、他方の記憶領域において予め記憶する画像データ(修正画像データ)が、ディスプレイ202に対して転送される。これにより、画像データ(修正画像データ)によって示されるフレーム画像が、ディスプレイ202に表示される。なお、後述する画像表示処理では、受信画像メモリ93aから転送される画像データ(修正画像データ)の転送先となる記憶領域と、ディスプレイ202に対して画像データが転送される記憶領域とを、修正画像データ生成処理(S81)が実行される度に交互に切り替えて使用する。後述する図13の画像表示処理の説明においては、表示画像メモリ393gに設けたこれらの2つの記憶領域を用いる処理の流れについては説明を省略する。   The display image memory 393g is a memory for temporarily storing image data (corrected image data) of an image displayed on the display 202. The corrected image data is obtained by correcting the image data stored in the received image memory 293a according to the angle of view acquired by the CPU 291 from the angle of view map memory 292b. The display image memory 393g has two storage areas. The display image memory 393g stores image data based on the image data (corrected image data) transferred from the received image memory 93a in one storage area in an image display process (see FIG. 13) described later. At this time, image data (corrected image data) stored in advance in the other storage area is transferred to the display 202. As a result, the frame image indicated by the image data (corrected image data) is displayed on the display 202. In the image display process described later, the storage area to which the image data (corrected image data) transferred from the received image memory 93a is transferred and the storage area to which the image data is transferred to the display 202 are corrected. Each time the image data generation process (S81) is executed, the image data is alternately switched and used. In the description of the image display process of FIG. 13 to be described later, description of the flow of the process using these two storage areas provided in the display image memory 393g is omitted.

次いで、図12のフローチャートを参照して、車両1に搭載された車側制御装置100のCPU91により実行される画像送信処理について説明する。図12は、画像送信処理を示すフローチャートである。この画像送信処理は、車両1の走行が操作センター200から遠隔操作される場合に行われる処理であり、車両1のカメラ12によって撮像される画像を、第1実施形態のように画角を修正すること無く、時間毎に画像データに変換して、その画像データを、逐次、通信装置14へ出力する処理である。   Next, an image transmission process executed by the CPU 91 of the vehicle-side control device 100 mounted on the vehicle 1 will be described with reference to the flowchart of FIG. FIG. 12 is a flowchart showing image transmission processing. This image transmission process is performed when the vehicle 1 is remotely operated from the operation center 200, and the angle of view of the image captured by the camera 12 of the vehicle 1 is corrected as in the first embodiment. Without being performed, the image data is converted into image data every time and the image data is sequentially output to the communication device 14.

この画像送信処理のうち、S11〜S16の各処理は、第1実施形態においてそれらの各処理と同一のステップ番号が付された処理と同一の処理が実行されるので、それらの処理については詳細な説明を省略する。   Among the image transmission processes, the processes of S11 to S16 are executed in the same manner as the processes with the same step numbers as those processes in the first embodiment. The detailed explanation is omitted.

第2実施形態の画像送信処理では、通信装置14からの通信許可信号に基づいて送信許可フラグ93bがオンされるまで、S12以降の処理を待機する(S11:No)。送信許可フラグ93bがオンされると(S11:Yes)、カメラ12から画像データを取得して、画像データメモリ93aに格納し(S13)、タイマ15から取得した日時情報を、タイムスタンプとしてタイムメモリ93dへ格納し(S14)、速度センサ10から取得した車両速度を、車速メモリ93eへ格納し(S15)、操舵角メモリ93eから取得した操舵角を、操舵角メモリ93eへ格納し(S16)、S71の処理を実行する。   In the image transmission processing of the second embodiment, the processing after S12 is waited until the transmission permission flag 93b is turned on based on the communication permission signal from the communication device 14 (S11: No). When the transmission permission flag 93b is turned on (S11: Yes), the image data is acquired from the camera 12, stored in the image data memory 93a (S13), and the date / time information acquired from the timer 15 is used as a time stamp as a time memory. The vehicle speed acquired from the speed sensor 10 is stored in the vehicle speed memory 93e (S15), and the steering angle acquired from the steering angle memory 93e is stored in the steering angle memory 93e (S16). The process of S71 is executed.

S71の処理では、ナビゲーション装置13から、車両1の走行区間を示す情報を取得する。そして、その走行区間を示す情報と共に、S13〜S16の処理によって、画像データメモリ93a、タイムメモリ93d、車速メモリ93e、操舵角メモリ93eに格納されているデータ(画像データ、その画像データの生成日時を示すタイムスタンプ、車両速度、操舵角)を、それぞれ通信装置14へ出力する。これにより、通信装置14へ入力された各種の情報が、通信装置14から操作側制御装置201へそれぞれ送信される。   In the process of S <b> 71, information indicating the travel section of the vehicle 1 is acquired from the navigation device 13. Then, along with the information indicating the travel section, the data stored in the image data memory 93a, the time memory 93d, the vehicle speed memory 93e, and the steering angle memory 93e by the processes of S13 to S16 (image data, date and time of generation of the image data). (Time stamp, vehicle speed, steering angle) are output to the communication device 14, respectively. As a result, various information input to the communication device 14 is transmitted from the communication device 14 to the operation-side control device 201.

S72の処理の実行後は、S11の処理に戻り、S11〜S16、S71、S72の各処理を繰り返し実行する。処理が繰り返されることにより、カメラ12によって撮像されたフレーム画像と、そのフレーム画像の生成日時を示すタイムスタンプと、車両1の車両速度と、車両1の操舵角と、車両1の走行区間を示す情報とが、逐次、車側制御装置100から、操作側制御装置201へ送信される。   After executing the process of S72, the process returns to the process of S11, and the processes of S11 to S16, S71, and S72 are repeatedly executed. By repeating the process, the frame image captured by the camera 12, the time stamp indicating the generation date and time of the frame image, the vehicle speed of the vehicle 1, the steering angle of the vehicle 1, and the travel section of the vehicle 1 are illustrated. Information is sequentially transmitted from the vehicle side control device 100 to the operation side control device 201.

次いで、図13のフローチャートを参照して、操作センター200に設けられた操作側制御装置201のCPU291により実行される画像表示処理について説明する。図13は、画像表示処理を示すフローチャートである。この画像表示処理は、操作センター200において、車両1を遠隔操作する場合に実行される処理であり、通信装置206によって画像データが受信された場合に、その画像データに基づいて、ディスプレイ202に表示させる動画像のフレーム画像を示す画像データ(修正画像データ)を生成し、生成した画像データを、ディスプレイ202へ出力することによって、カメラ12で撮像された車両1の周辺の動画像から画角の一部又は全部を切り抜いたものを、ディスプレイ202上に表示させる処理である。   Next, image display processing executed by the CPU 291 of the operation side control device 201 provided in the operation center 200 will be described with reference to the flowchart of FIG. FIG. 13 is a flowchart showing image display processing. This image display process is a process executed when the vehicle 1 is remotely operated in the operation center 200. When image data is received by the communication device 206, the image display process is displayed on the display 202 based on the image data. By generating image data (corrected image data) indicating a frame image of the moving image to be output and outputting the generated image data to the display 202, the angle of view is determined from the moving image around the vehicle 1 captured by the camera 12. This is a process for displaying on the display 202 what is partly or entirely cut out.

この画像表示処理のうち、S61、S62、S65の各処理は、第1実施形態においてそれらの各処理と同一のステップ番号が付された処理と同一の処理が実行されるので、それらの処理については詳細な説明を省略する。   Among these image display processes, the processes of S61, S62, and S65 are executed in the same manner as the processes with the same step numbers as those processes in the first embodiment. Will not be described in detail.

この画像表示処理では、受信タイムメモリ293bと、前回タイムメモリ293cとのそれぞれに格納されたタイムスタンプを比較し、受信タイムメモリ293bのタイムスタンプの方が後の日時を示しているかを判別する(S61)。S61の処理において、受信タイムメモリ293bのタイムスタンプの方が後の日時を示しているとは判別されなければ(S61:No)、新たな画像データとタイムスタンプとが通信装置206で受信され、そのタイミングでCPU291が実行する割込処理によって、受信タイムメモリ293bの値が更新されるまで、S61の処理を繰り返し実行する。   In this image display process, the time stamps stored in the reception time memory 293b and the previous time memory 293c are compared to determine whether the time stamp in the reception time memory 293b indicates a later date and time ( S61). In the process of S61, if it is not determined that the time stamp of the reception time memory 293b indicates a later date and time (S61: No), new image data and a time stamp are received by the communication device 206, The process of S61 is repeatedly executed until the value of the reception time memory 293b is updated by the interrupt process executed by the CPU 291 at that timing.

一方、S61の処理において、受信タイムメモリ293bのタイムスタンプの方が、前回タイムメモリ293cのタイムスタンプよりも後の日時を示していると判断された場合は(S61:Yes)、S62の処理に移行する。   On the other hand, in the process of S61, when it is determined that the time stamp of the reception time memory 293b indicates a date and time later than the time stamp of the previous time memory 293c (S61: Yes), the process of S62 is performed. Transition.

S62の処理では、受信タイムメモリ293bのタイムスタンプと、前回タイムメモリ293cのタイムスタンプとから、ディスプレイ202へ連続して表示されるフレーム画像の画像データが生成された時間間隔を算出する。そして、その時間間隔の逆数を、ディスプレイ202で表示される動画像のフレームレートとして算出する。   In the process of S62, a time interval at which image data of frame images continuously displayed on the display 202 is generated is calculated from the time stamp of the reception time memory 293b and the time stamp of the previous time memory 293c. Then, the reciprocal of the time interval is calculated as the frame rate of the moving image displayed on the display 202.

次に、修正画像データ生成処理を実行する(S81)。この修正画像データ生成処理(S81)では、第1実施形態の車側制御装置100で実行された修正画像データ生成処理(図7参照)と、同様の処理が行われる。そこで、図7を参照して行った、修正画像データ生成処理についての説明に対し、「CPU91」を「CPU291」、「画角マップメモリ92b」を「画角マップメモリ392b」、「画像データメモリ93a」を「受信画像メモリ293a」、「車速メモリ93e」を「車速メモリ393d」、「操舵角メモリ93e」を「操舵角メモリ393e」、「ナビゲーション装置13」を「ナビ情報メモリ393f」、「送信画像バッファ93b」を「表示画像メモリ393g」、「受信フレームレートメモリ93gに格納されるフレームレート」を「S62の処理によって算出したフレームレート」に読み替えて、この修正画像データ生成処理(S81)についての説明を省略する。   Next, a corrected image data generation process is executed (S81). In this corrected image data generation process (S81), the same process as the corrected image data generation process (see FIG. 7) executed by the vehicle side control device 100 of the first embodiment is performed. Therefore, with respect to the description of the corrected image data generation process performed with reference to FIG. 7, “CPU 91” is “CPU 291”, “view angle map memory 92b” is “view angle map memory 392b”, and “image data memory”. 93a ”is“ received image memory 293a ”,“ vehicle speed memory 93e ”is“ vehicle speed memory 393d ”,“ steering angle memory 93e ”is“ steering angle memory 393e ”,“ navigation device 13 ”is“ navigation information memory 393f ”,“ The “transmission image buffer 93b” is replaced with “display image memory 393g” and “the frame rate stored in the reception frame rate memory 93g” is replaced with “the frame rate calculated by the process of S62”, and this modified image data generation process (S81) The description about is omitted.

次に、CPU291は、修正画像データ生成処理(S81)の処理の結果、表示画像メモリ393gに格納されている画像データ(修正画像データ)を、ディスプレイ202へ出力する(S82)。   Next, the CPU 291 outputs the image data (corrected image data) stored in the display image memory 393g to the display 202 as a result of the corrected image data generation process (S81) (S82).

次に、前回タイムメモリ293cに記憶されている値を、受信タイムメモリ293bに記憶されているタイムスタンプに書き換える(S65)。   Next, the value stored in the previous time memory 293c is rewritten to the time stamp stored in the reception time memory 293b (S65).

S65の実行後は、最低フレームレートメモリ392cにおいて、車速メモリ393dに格納された車両1の車両速度と対応する最低フレームレートを取得し(S83)、取得した最低フレームレートよりも、S62の処理で算出したフレームレートの方が大きな値であるかを判別する(S84)。   After the execution of S65, the minimum frame rate corresponding to the vehicle speed of the vehicle 1 stored in the vehicle speed memory 393d is acquired in the minimum frame rate memory 392c (S83), and the processing of S62 is performed more than the acquired minimum frame rate. It is determined whether the calculated frame rate is a larger value (S84).

S84の処理によって、最低フレームレートよりも、S62の処理で算出されたフレームレートの方が大きな値であると判別された場合は(S84:Yes)、そのまま、S61の処理に戻る。一方、S84の処理において、S62の処理で算出されたフレームレートが最低フレームレート以下であると判別された場合は(S84:No)、減速指令処理を実行し、車速メモリ393dに格納されている車両速度から、一定割合(例えば5%)低減させた車両速度を目標値とする速度指令を生成し、通信装置206を介して車側制御装置100へ送信する(S85)。ディスプレイ202に表示させる動画像のフレームレートが低く、操作者の速度感覚が実際の車両速度よりも速くなっている場合は、車両速度が速いほど、操作者の速度感覚が実際の車両速度とのズレが大きくなる。そこで、フレームレート最低フレームレートを下回っている場合に、車両1を減速させることで、操作者の速度感覚を、車両1の走行速度に近づける。S85の処理の実行後は、S61の処理に戻って、S61から本画像表示処理を実行する。   If it is determined in the process of S84 that the frame rate calculated in the process of S62 is larger than the minimum frame rate (S84: Yes), the process returns to the process of S61 as it is. On the other hand, in the process of S84, when it is determined that the frame rate calculated in the process of S62 is equal to or lower than the minimum frame rate (S84: No), the deceleration command process is executed and stored in the vehicle speed memory 393d. A speed command with the vehicle speed reduced by a certain rate (for example, 5%) as a target value is generated from the vehicle speed and transmitted to the vehicle side control device 100 via the communication device 206 (S85). When the frame rate of the moving image displayed on the display 202 is low and the speed sensation of the operator is faster than the actual vehicle speed, the speed sensation of the operator is higher than the actual vehicle speed as the vehicle speed increases. Misalignment increases. Therefore, when the frame rate is below the minimum frame rate, the vehicle 1 is decelerated to bring the operator's sense of speed closer to the traveling speed of the vehicle 1. After executing the process of S85, the process returns to the process of S61, and the main image display process is executed from S61.

以上説明したように、本第2実施形態では、車側制御装置100において実行される画像送信処理(図12参照)によって、車両1のカメラ12で撮像された車両周辺の動画像が、その動画像のフレーム画像を示す画像データに変換されて、車両1から操作側制御装置201へ送信される。一方、車両1からの画像データを受信した操作側制御装置201は、車両1から受信した画像データにより示される画像を、修正画像データ生成処理(S81)によって、ディスプレイ202に表示されている動画像のフレームレート、車両速度、および、車両1の走行する環境に応じた画角で切り出して、その切り出した画像を、動画像を構成するフレーム画像としてディスプレイ202に表示させる。   As described above, in the second embodiment, the moving image around the vehicle imaged by the camera 12 of the vehicle 1 by the image transmission process (see FIG. 12) executed in the vehicle-side control device 100 is the moving image. The image data is converted into image data indicating a frame image of the image and transmitted from the vehicle 1 to the operation side control device 201. On the other hand, the operation-side control device 201 that has received the image data from the vehicle 1 displays the image indicated by the image data received from the vehicle 1 on the display 202 by the modified image data generation process (S81). Are cut out at an angle of view corresponding to the frame rate, the vehicle speed, and the environment in which the vehicle 1 travels, and the cut-out image is displayed on the display 202 as a frame image constituting the moving image.

ここで、修正画像データ生成処理(S81)は、第1実施形態の車側制御装置100で実行されたものと同じ処理であり、修正画像データ生成処理(S81)の中で使われたパラメータ、及び、ディスプレイ202に表示させる動画像(フレーム画像)の画角を規定する画角マップも、第1実施形態と同様のものである。   Here, the corrected image data generation process (S81) is the same process as that executed by the vehicle-side control device 100 of the first embodiment, and the parameters used in the corrected image data generation process (S81), An angle-of-view map that defines the angle of view of a moving image (frame image) to be displayed on the display 202 is the same as that in the first embodiment.

従って、第1実施形態では、車両1のカメラ12で撮像された動画像から、操作センター200のディスプレイ202に表示させる動画像を生成する処理を、車両1において行っていたのに対して、第2実施形態は、その処理を、操作センター200において異なるものの、ディスプレイ202に表示されている動画像のフレームレート、車両速度、および、車両1の走行する環境が同じ条件であれば、第2実施形態においても、第1実施形態と同じ表示範囲(画角)の動画像をディスプレイ202に表示させることができる。このため、第2実施形態の操作センター200は、第1実施形態の車両1について上述した効果を享受することができる。   Therefore, in the first embodiment, the processing for generating a moving image to be displayed on the display 202 of the operation center 200 from the moving image captured by the camera 12 of the vehicle 1 is performed in the vehicle 1. In the second embodiment, although the processing is different in the operation center 200, the second embodiment is performed if the frame rate of the moving image displayed on the display 202, the vehicle speed, and the environment in which the vehicle 1 travels are the same. Also in the embodiment, a moving image having the same display range (angle of view) as that in the first embodiment can be displayed on the display 202. For this reason, the operation center 200 of 2nd Embodiment can enjoy the effect mentioned above about the vehicle 1 of 1st Embodiment.

但し、第1実施形態の車両1は、車両1から操作センター200への動画像の伝送経路の低下に基づいてディスプレイ202で表示される動画像のフレームレートが低い場合に、表示範囲(画角)に応じてフレーム画像1枚あたりのデータ量を、フレームレートが十分にある場合(例えば、閾値Nl,Nm,Nhを上回っている場合)よりも落とした画像データを生成して、その画像データを、車両1から操作センター200へ送信する。このため、第1実施形態では、通信速度が低下しても、ディスプレイ202に表示させる動画像のフレームレートが低下することを抑制できるという効果を享受できるものであった。一方、第2実施形態では、カメラ12で撮像された画像データをそのまま車両1から操作センター200へ送信しているので、車両1から操作センター200へ送信される画像データの、フレーム画像1枚あたりのデータ量は一定である。このため、第1実施形態の車両1が享受する、かかる効果については、第2実施形態の操作センター200では奏することができない。   However, the vehicle 1 according to the first embodiment has a display range (view angle) when the frame rate of the moving image displayed on the display 202 is low based on a decrease in the moving image transmission path from the vehicle 1 to the operation center 200. ) To generate image data in which the amount of data per frame image is lower than when the frame rate is sufficient (for example, exceeding the threshold values Nl, Nm, and Nh). Is transmitted from the vehicle 1 to the operation center 200. For this reason, in 1st Embodiment, even if communication speed fell, the effect that it can suppress that the frame rate of the moving image displayed on the display 202 can be enjoyed can be enjoyed. On the other hand, in the second embodiment, since the image data captured by the camera 12 is transmitted as it is from the vehicle 1 to the operation center 200, the image data transmitted from the vehicle 1 to the operation center 200 is per frame image. The amount of data is constant. For this reason, the effect that the vehicle 1 of the first embodiment enjoys cannot be achieved by the operation center 200 of the second embodiment.

次に、図14から図16を参照して、第3実施形態として、本発明を車両1に適用した場合の一実施形態について説明する。上述の第1実施形態では、車両1のカメラ12で撮像された動画像のうち、操作者の速度感覚を実際の車両速度よりも速くする領域を、画角マップにおいて規定される画角よりも広角側(外側)であるとして、かかる広角側の領域を削除することで、車両1から遠隔地にある操作センター200のディスプレイ202に表示させる動画像を生成するように構成した。   Next, with reference to FIGS. 14 to 16, an embodiment in which the present invention is applied to the vehicle 1 will be described as a third embodiment. In the first embodiment described above, an area in the moving image captured by the camera 12 of the vehicle 1 that makes the operator's speed sensation faster than the actual vehicle speed is larger than the angle of view defined in the angle-of-view map. It is configured to generate a moving image to be displayed on the display 202 of the operation center 200 at a remote location from the vehicle 1 by deleting the wide-angle side area as being on the wide-angle side (outside).

これに対し、第3実施形態では、車両1のカメラ12で撮像された動画像におけるオプティカルフローを算出し、算出されたオプティカルフローが車両速度に応じた大きさよりも大きな領域が、操作者の速度感覚を実際の車両速度よりも速くする領域であるとして、カメラ12で撮像された動画像から削除することで、ディスプレイ202に表示させる動画像を生成するように構成した。以下、第1実施形態と同一の要素には同一の符号を付し、その図示と説明を省略する。   On the other hand, in the third embodiment, the optical flow in the moving image captured by the camera 12 of the vehicle 1 is calculated, and the region where the calculated optical flow is larger than the size corresponding to the vehicle speed is the speed of the operator. The moving image to be displayed on the display 202 is generated by deleting from the moving image captured by the camera 12 assuming that the sensation is an area where the sensation is faster than the actual vehicle speed. Hereinafter, the same reference numerals are given to the same elements as those in the first embodiment, and illustration and description thereof are omitted.

まず、図14を参照して、車両1の詳細構成について説明する。図14は、車両1の電気的構成を示したブロック図である。   First, the detailed configuration of the vehicle 1 will be described with reference to FIG. FIG. 14 is a block diagram showing an electrical configuration of the vehicle 1.

第3実施形態における車両1の電気的構成において、第1実施形態と異なる点は、車側制御装置100のROM92およびRAM93である。   The electrical configuration of the vehicle 1 in the third embodiment is different from the first embodiment in the ROM 92 and the RAM 93 of the vehicle side control device 100.

ROM92には、プログラムメモリ92a、及び、最低フレームレートメモリ92cが設けられている。プログラムメモリ92aには、第1実施形態とは処理が一部異なる、修正画像データ生成処理を実行するためのプログラムが格納されている。詳細については、図15を参照して後述するが、カメラ12で撮像された動画像のオプティカルフローを算出し、基準値よりも大きなオプティカルフローが算出される領域を、カメラ12で撮像された動画像から削除したものを、遠隔地にある操作センター200のディスプレイ202に表示する動画像として生成する処理についてのプログラムが、プログラムメモリ92aに格納されている。   The ROM 92 is provided with a program memory 92a and a minimum frame rate memory 92c. The program memory 92a stores a program for executing modified image data generation processing, which is partly different from that of the first embodiment. The details will be described later with reference to FIG. 15, but an optical flow of a moving image captured by the camera 12 is calculated, and an area where an optical flow larger than the reference value is calculated is a moving image captured by the camera 12. A program memory 92a stores a program for processing for generating an image deleted from the image as a moving image to be displayed on the display 202 of the operation center 200 at a remote location.

なお、本実施形態では、カメラ12で撮像された動画像のオプティカルフローの大きさを判定した結果に基づいて、ディスプレイ202に表示させる動画像の表示範囲を求めるので、ディスプレイ202に表示させる動画像の画角(表示範囲)を予め規定するものである第1実施形態の画角マップメモリ92bは、第3実施形態のROM92には設けられていない。   In this embodiment, since the display range of the moving image to be displayed on the display 202 is obtained based on the result of determining the optical flow size of the moving image captured by the camera 12, the moving image to be displayed on the display 202 is obtained. The angle-of-view map memory 92b according to the first embodiment that predefines the angle of view (display range) is not provided in the ROM 92 according to the third embodiment.

RAM93には、画像データメモリ93a、送信画像バッファ93b、送信許可フラグ93c、タイムメモリ93d、車速メモリ93e、操舵角メモリ93f、受信フレームレートメモリ93gの他に、前回画像データメモリ493aが設けられている。   The RAM 93 includes a previous image data memory 493a in addition to an image data memory 93a, a transmission image buffer 93b, a transmission permission flag 93c, a time memory 93d, a vehicle speed memory 93e, a steering angle memory 93f, and a reception frame rate memory 93g. Yes.

前回画像データメモリ493aは、画像データメモリ93aに格納される画像データより1フレーム前の画像データを一時的に記憶し、画像データメモリ93aと共に、カメラ12で撮像される動画像のオプティカルフローを算出するために用いられるメモリである。前回画像データメモリ493aは、後述する修正画像データ生成処理(図15参照)において、画像データメモリ93aの画像データに基づき修正画像データを生成する場合に、CPU91によって参照される。このとき、前回画像データメモリ493aに記憶される画像データと、画像データメモリ93aに格納される画像データとから動画像のオプティカルフローが算出される。一方、修正画像データ生成処理(図15参照)において、画像データメモリ93aの画像データに基づいて、修正画像データが生成されず、画像データメモリ93aの画像データがそのまま送信画像バッファ93bに格納される場合は参照されない。   The previous image data memory 493a temporarily stores image data one frame before the image data stored in the image data memory 93a, and calculates an optical flow of a moving image captured by the camera 12 together with the image data memory 93a. It is a memory used to The previous image data memory 493a is referred to by the CPU 91 when the corrected image data is generated based on the image data in the image data memory 93a in the corrected image data generation process (see FIG. 15) described later. At this time, the optical flow of the moving image is calculated from the image data stored in the previous image data memory 493a and the image data stored in the image data memory 93a. On the other hand, in the corrected image data generation process (see FIG. 15), the corrected image data is not generated based on the image data in the image data memory 93a, and the image data in the image data memory 93a is stored as it is in the transmission image buffer 93b. If not referenced.

前回画像データメモリ493aは、画像データメモリ93aの画像データ(カメラ12より取得した画像データ)に基づく、操作センター200のディスプレイ202に表示させる動画像の画像データ(修正画像データ)が送信画像バッファに格納されてから、画像データメモリ93aに記憶される画像データが格納される。これにより、次にカメラ12から取得した画像データを画像データメモリ93aに格納した状態で、オプティカルフローを算出するときには(即ち、修正画像データ生成処理が新たに行われるときには)、前回画像データメモリ493aには、画像データメモリ93aに格納される画像データより1フレーム前の画像データが格納されている状態となる。   In the previous image data memory 493a, image data (corrected image data) of a moving image to be displayed on the display 202 of the operation center 200 based on the image data (image data acquired from the camera 12) in the image data memory 93a is stored in the transmission image buffer. After being stored, the image data stored in the image data memory 93a is stored. As a result, when the optical flow is calculated in the state where the image data acquired from the camera 12 is stored in the image data memory 93a next time (that is, when the modified image data generation process is newly performed), the previous image data memory 493a is calculated. In this state, image data one frame before the image data stored in the image data memory 93a is stored.

本実施形態のナビゲーション装置13は、電波を受信するGPS衛星の数を、出力部より出力するように構成されている。車両1と、GPS衛生との間に建物等の電波を遮る物体が存在すると、そのGPS衛生からの電波が車両1で受信できなくなる。よって、電波が受信されるGPS衛生の数が少ないほど、車両1の周辺に建物や壁などの物体が多く存在していたり、車両1の近くに存在していたりすることとなる。よって、GPS衛星の数が少ないほど、車両1のカメラ12によって周辺に存在する物体が撮像され易く、ディスプレイ202に表示される動画像によって、操作者の速度感覚が実際の車両速度よりも速められてしまいやすい環境であることが想定される。なお、GPS衛生の数が0となる場合は、トンネルなどを走行する場合であり、電波が完全に遮られている場合である。   The navigation device 13 of the present embodiment is configured to output the number of GPS satellites that receive radio waves from the output unit. If an object that blocks radio waves, such as a building, exists between the vehicle 1 and GPS hygiene, the vehicle 1 cannot receive radio waves from the GPS hygiene. Therefore, the smaller the number of GPS sanitations that the radio waves are received, the more objects such as buildings and walls exist in the vicinity of the vehicle 1, or the more objects exist near the vehicle 1. Therefore, the smaller the number of GPS satellites, the easier it is to capture an object present in the vicinity by the camera 12 of the vehicle 1, and the speed sensation of the operator is made faster than the actual vehicle speed by the moving image displayed on the display 202. It is assumed that the environment is likely to end up. In addition, when the number of GPS hygiene becomes 0, it is a case where it travels in a tunnel etc., and is a case where an electromagnetic wave is interrupted completely.

本実施形態では、後述の修正画像データ生成処理(図15参照)において、ナビゲーション装置13から出力されるGPS衛生の数が、CPU91によって取得される。このGPS衛生の数に基づいて、車両1の周辺に物体が存在するかが判別される。   In the present embodiment, the number of GPS sanitations output from the navigation device 13 is acquired by the CPU 91 in modified image data generation processing (see FIG. 15) described later. Based on the number of GPS sanitations, it is determined whether an object exists around the vehicle 1.

次に、図15を参照し、車両1に搭載された車側制御装置100のCPU91により実行される修正画像データ生成処理(S17)について説明する。図15は、修正画像データ生成処理を示すフローチャートである。この修正画像データ生成処理は、車側制御装置100のCPU91により実行される画像送信処理(図6参照)の中で実行される処理であって、操作センター200のディスプレイ202に表示させる動画像を構成するフレーム画像を示す画像データ(修正画像データ)を生成する処理である。   Next, the corrected image data generation process (S17) executed by the CPU 91 of the vehicle side control device 100 mounted on the vehicle 1 will be described with reference to FIG. FIG. 15 is a flowchart showing the corrected image data generation process. This corrected image data generation process is a process executed in the image transmission process (see FIG. 6) executed by the CPU 91 of the vehicle-side control device 100, and a moving image to be displayed on the display 202 of the operation center 200. This is processing for generating image data (corrected image data) indicating a frame image to be formed.

修正画像データ生成処理(S17)では、まず、ナビゲーション装置13で電波を受信するGPS衛星の数を、ナビゲーション装置13の出力から取得し(S91)、取得したGPS衛星の数が5以下であるかを判別する(S92)。前述したように、ナビゲーション装置13で電波を受信するGPS衛星の数が多いほど、車両1は、周辺に建物等の物体が存在しない拓けた環境にいることが想定され、一方、ナビゲーション装置13で電波を受信するGPS衛星の数が少ないほど、車両1は、周辺に建物等の物体が存在する環境にいることが想定される。なお、本実施形態では、GPS衛星の数が5以下である場合に、車両1の周辺に物体が存在することが想定されるものとしているが、必ずしもこれに限られるものではなく、好ましくは4以上の範囲で値を適宜設定しても良い。   In the corrected image data generation process (S17), first, the number of GPS satellites that receive radio waves in the navigation device 13 is acquired from the output of the navigation device 13 (S91), and whether the number of GPS satellites acquired is 5 or less. Is determined (S92). As described above, as the number of GPS satellites that receive radio waves by the navigation device 13 increases, the vehicle 1 is assumed to be in an open environment in which no objects such as buildings exist in the vicinity. It is assumed that the smaller the number of GPS satellites that receive radio waves, the vehicle 1 is in an environment in which objects such as buildings exist. In the present embodiment, when the number of GPS satellites is 5 or less, it is assumed that an object is present around the vehicle 1, but the present invention is not necessarily limited to this, and preferably 4 Values may be set as appropriate within the above range.

ナビゲーション装置13で電波を受信するGPS衛星の数が5以下であると判別された場合は(S92:Yes)、S93の処理を実行する。   If the navigation device 13 determines that the number of GPS satellites that receive radio waves is 5 or less (S92: Yes), the process of S93 is executed.

修正画像データ生成処理(S17)が開始された段階では、画像データメモリ93aには、画像送信処理(図6)のS13の処理によって、カメラ12から新たに取得されたフレーム画像の画像データが格納されており、前回画像メモリ493aには、画像データメモリ93aに格納されている画像データよりも、1フレーム分だけ前のフレーム画像を示す画像データが、前回の修正画像データ生成処理で行われた、後述するS98の処理によって予め格納されている。   At the stage where the corrected image data generation process (S17) is started, the image data of the frame image newly acquired from the camera 12 by the process of S13 of the image transmission process (FIG. 6) is stored in the image data memory 93a. In the previous image memory 493a, image data indicating a frame image that is one frame before the image data stored in the image data memory 93a has been performed in the previous modified image data generation process. It is stored in advance by the process of S98 described later.

画像データメモリ93aに格納されている画像データと、前回画像メモリ493aに格納されている画像データとから、カメラ12で撮像された動画像のオプティカルフローを算出する(S93)。よって、画像データメモリ93aおよび前回画像メモリ493aの画像データによって示される時間的に連続する2つのフレーム画像についてのオプティカルフローが算出される。   The optical flow of the moving image captured by the camera 12 is calculated from the image data stored in the image data memory 93a and the image data stored in the previous image memory 493a (S93). Accordingly, the optical flows for two temporally continuous frame images indicated by the image data in the image data memory 93a and the previous image memory 493a are calculated.

ここで、図16を参照して、カメラ12で撮像された動画像のオプティカルフローについて説明する。図16は、カメラ12で撮像された動画像のオプティカルフローを説明するための説明図である。   Here, an optical flow of a moving image captured by the camera 12 will be described with reference to FIG. FIG. 16 is an explanatory diagram for describing an optical flow of a moving image captured by the camera 12.

図16は、画像データメモリ93aの画像データによって示されるフレーム画像に対して、オプティカルフロー(フローベクトル)を重ね合わせたものである。オプティカルフローを算出すると、時間的に前のフレーム画像(即ち、前回画像メモリ493aの画像データによって示されるフレーム画像)に含まれる画像の一部が、時間的に後のフレーム画像に(即ち、画像データメモリ93aの画像データによって示されるフレーム画像)において別の位置に移動している場合に、その移動のベクトルが求められる。即ち、2つのフレーム画像において同じ地点(対応地点)を示す画像領域の、移動方向および移動量が求められる。図16に示す複数の矢印は、動画像の各領域について算出されたフローベクトルを示したものである。   FIG. 16 shows an optical flow (flow vector) superimposed on a frame image indicated by image data in the image data memory 93a. When the optical flow is calculated, a part of the image included in the temporally previous frame image (that is, the frame image indicated by the image data of the previous image memory 493a) is converted into the temporally subsequent frame image (that is, the image). When moving to another position in the frame image indicated by the image data in the data memory 93a, a vector of the movement is obtained. That is, the moving direction and the moving amount of the image area indicating the same point (corresponding point) in the two frame images are obtained. A plurality of arrows shown in FIG. 16 indicate flow vectors calculated for each region of the moving image.

図2(b)を参照して前述したように、カメラ12で撮像された動画像では、その動画像の中で路面や物体の流れる速さは動画像のエッジ側ほど速くなるので、2つのフレーム画像における対応地点の移動量は、動画像のエッジ側ほど大きくなる。このため、図16に示すように、カメラ12で撮像された動画像についての路面等の移動を示すフローベクトルは、動画像のエッジに近い領域ほど大きなベクトルとなる。   As described above with reference to FIG. 2B, in the moving image picked up by the camera 12, the speed of the road surface and the object flowing in the moving image increases toward the edge of the moving image. The amount of movement of the corresponding point in the frame image increases toward the edge of the moving image. For this reason, as shown in FIG. 16, the flow vector indicating the movement of the road surface or the like of the moving image captured by the camera 12 becomes a larger vector as the region is closer to the edge of the moving image.

また、図16では、車両1が直進する場合についてのフローベクトルを示しているが、車両1が左右のいずれかの方向に操舵されている場合は、操舵に応じた車両1の予測経路(第1実施形態の図8を参照して説明した予測経路)から離れた位置ほど、2つのフレーム画像における対応地点の移動量は大きくなる。このため、操舵の方向と反対側の領域の方が、操舵の方向と同方向の領域よりも、より大きなフローベクトルが算出される。   Further, FIG. 16 shows a flow vector when the vehicle 1 goes straight, but when the vehicle 1 is steered in either of the left and right directions, the predicted route of the vehicle 1 according to the steering (the first route) As the position is farther from the predicted route described with reference to FIG. 8 of the embodiment, the movement amount of the corresponding point in the two frame images increases. For this reason, a larger flow vector is calculated in the region on the opposite side to the steering direction than in the region in the same direction as the steering direction.

一方で、動画像の中に移動物体が存在すると、移動物体は、路面や静止物体とは異なる相対運動を車両1に対して行うので、その移動物体の存在する領域のフローベクトルは、その移動物体の周囲のベクトルとは、向きや大きさが異なるベクトル(図16におけるベクトルM)として示される。   On the other hand, if there is a moving object in the moving image, the moving object performs relative motion different from that of the road surface or the stationary object with respect to the vehicle 1, so the flow vector of the area where the moving object exists is The vector around the object is shown as a vector (vector M in FIG. 16) having a different orientation and size.

図15に戻って説明を続ける。次に、S93の処理で算出されたフローベクトルとの比較対象となる、基準フローベクトルの大きさを、ナビゲーション装置13で電波を受信するGPS衛星の数と、車両速度とに応じて算出する(S94)。この基準フローベクトルの大きさは、動画像において車両速度に応じた速度感覚を操作者に与える領域に設定されるフローベクトルの大きさ(最大値)を規定するものである。   Returning to FIG. 15, the description will be continued. Next, the size of the reference flow vector to be compared with the flow vector calculated in the process of S93 is calculated according to the number of GPS satellites receiving radio waves by the navigation device 13 and the vehicle speed ( S94). The size of the reference flow vector defines the size (maximum value) of the flow vector set in a region that gives the operator a sense of speed corresponding to the vehicle speed in the moving image.

ここで、連続する2つのフレーム画像における対応点の移動量は、車両速度が速い場合ほど大きくなる。そこで、本実施形態では、基準フローベクトルの大きさを、車両速度が速い場合ほど、大きくする。   Here, the movement amount of the corresponding points in the two consecutive frame images increases as the vehicle speed increases. Therefore, in this embodiment, the magnitude of the reference flow vector is increased as the vehicle speed is higher.

また、ナビゲーション装置13で電波を受信するGPS衛星の数が少ないほど、建物や壁などの物体が車両1の周辺に多く存在していたり、車両1の近くに存在していたりするので、車両1の周辺が撮像された動画像によって操作者に与えられる速度感覚は、GPS衛星の数が少ないほど速いものとなることが想定される。そこで、S94の処理では、ナビゲーション装置13で電波を受信するGPS衛星の数が少ないほど、基準フローベクトルを大きくする。   Further, as the number of GPS satellites that receive radio waves by the navigation device 13 is smaller, more objects such as buildings and walls are present in the vicinity of the vehicle 1 or near the vehicle 1. It is assumed that the speed sensation given to the operator by the moving image in which the periphery of the image is captured is faster as the number of GPS satellites is smaller. Therefore, in the processing of S94, the reference flow vector is increased as the number of GPS satellites that receive radio waves by the navigation device 13 is smaller.

また、本実施形態では、第1実施形態と同様に、車両1の通信装置14によって、操作センター200の通信装置206に対する画像データの通信が完了してから、カメラ12から新たな画像データを取得するように構成されている(図6参照)。   Further, in the present embodiment, as in the first embodiment, new image data is acquired from the camera 12 after the communication device 14 of the vehicle 1 completes communication of image data to the communication device 206 of the operation center 200. (See FIG. 6).

このため、画像データの通信速度に応じた時間間隔でカメラ12からフレーム画像を取得するので、この通信速度が低下した場合、フレーム画像を取得する時間間隔が長くなり、車両1においてカメラ12から撮像される動画像のフレームレートが低くなってしまう。よって、この動画像に基づくディスプレイ202で表示される動画像のフレームレートも低いものとなってしまう。   For this reason, frame images are acquired from the camera 12 at a time interval corresponding to the communication speed of the image data. Therefore, when the communication speed decreases, the time interval for acquiring the frame image becomes long, and the vehicle 1 captures images from the camera 12. The frame rate of the moving image is lowered. Therefore, the frame rate of the moving image displayed on the display 202 based on this moving image is also low.

これに対し、カメラ12で撮像される動画像のフレームレートが低い場合、即ち、カメラ12からフレーム画像を取得する時間間隔が長い場合は、その時間間隔が短い(即ち、フレームレートが高い)場合と比べて、連続するフレーム画像間における画像領域の移動量は大きくなる。よって、カメラ12からフレーム画像を取得する時間間隔が長い場合は、その時間間隔が短い(即ち、フレームレートが高い)場合と比べて、S93の処理によって算出される各領域についてのフローベクトルの大きさは、全体的に大きなものとなる。よって、ディスプレイ202で表示される動画像のフレームレートに応じて基準フローベクトルの大きさを変えなくても、その大きさを、動画像において車両速度に応じた速度感覚を操作者に与える領域の基準として用いることができる。   On the other hand, when the frame rate of the moving image captured by the camera 12 is low, that is, when the time interval for acquiring frame images from the camera 12 is long, the time interval is short (that is, the frame rate is high). As compared with, the amount of movement of the image area between successive frame images becomes large. Therefore, when the time interval for acquiring frame images from the camera 12 is long, the flow vector for each region calculated by the processing of S93 is larger than when the time interval is short (that is, the frame rate is high). That's a big thing overall. Therefore, even if the size of the reference flow vector is not changed according to the frame rate of the moving image displayed on the display 202, the size of the region that gives the operator a sense of speed according to the vehicle speed in the moving image. Can be used as a reference.

続いて、S95の処理では、S93の処理で算出された各領域のフローベクトルから、周囲の領域について算出されたフローベクトルに対して大きさ又は方向が不規則なフローベクトルを検索して、不規則なフローベクトルの有無を判定する(S95)。ここでいう不規則なフローベクトルとは、周囲の領域について算出された複数のフローベクトルの大きさや方向の分布を求めた場合に、その分布から大きさ又は方向の少なくとも一方が外れているフローベクトルのことである。図16を参照して前述したように、移動物体が動画像に存在する場合は、移動物体のフローベクトルは、路面等とは向きや大きさが異なる。そこで、このS95の処理では、不規則なフローベクトルを移動物体のフローベクトルであるものとして、その有無を判定している。このような方法によれば、動画像のオプティカルフローを算出するだけで、移動物体を検出できるので、移動物体を検出するための他の画像処理(例えば、エッジ抽出法等)に比べて、比較的軽い処理負担で移動物体を検出できる。   Subsequently, in the process of S95, a flow vector having an irregular size or direction with respect to the flow vector calculated for the surrounding area is searched from the flow vectors of the respective areas calculated in the process of S93, and the irregularity is determined. The presence or absence of a regular flow vector is determined (S95). The irregular flow vector referred to here is a flow vector in which at least one of the magnitude or direction deviates from the distribution when the distribution of the size and direction of a plurality of flow vectors calculated for the surrounding area is obtained. That is. As described above with reference to FIG. 16, when a moving object is present in a moving image, the flow vector of the moving object is different in direction and size from the road surface or the like. Therefore, in the process of S95, the presence or absence of the irregular flow vector is determined as the flow vector of the moving object. According to such a method, a moving object can be detected simply by calculating an optical flow of a moving image, and therefore, compared with other image processing (for example, an edge extraction method) for detecting a moving object. A moving object can be detected with a light processing load.

周囲のフローベクトルに対して不規則なフローベクトルが無いと判定された場合は(S95:No)、S96の処理を実行する。S96の処理では、S94の処理で算出された基準フローベクトルに対して大きなフローベクトルが存在する領域から、そのフローベクトルが向くフレーム画像のエッジまでの範囲のデータを、操作者に実際の車両速度よりも高い速度感を与える領域のデータであるとして、画像データメモリ93aの画像データから削除する。これにより、修正画像データを生成する(S96)。よって、この修正画像データは、カメラ12で撮像された動画像のフレーム画像から、車両速度や、ディスプレイ202で表示される動画像のフレームレート、車両1の存在する環境に基づいて、操作者に実際の車両速度よりも速い速度感覚を与える領域が削除されたフレーム画像を示すものとなる。   If it is determined that there are no irregular flow vectors with respect to the surrounding flow vectors (S95: No), the process of S96 is executed. In the process of S96, data in a range from an area where a large flow vector exists with respect to the reference flow vector calculated in the process of S94 to the edge of the frame image to which the flow vector faces is transmitted to the operator as to the actual vehicle speed. It is deleted from the image data in the image data memory 93a as data in a region that gives a higher sense of speed. Thereby, the corrected image data is generated (S96). Therefore, the corrected image data is obtained from the frame image of the moving image captured by the camera 12 based on the vehicle speed, the frame rate of the moving image displayed on the display 202, and the environment in which the vehicle 1 exists. A region that gives a speed sensation faster than the actual vehicle speed is shown as a deleted frame image.

次に、修正画像データを、送信画像バッファ92bに格納する(S97)。これにより、本修正画像データ生成処理の実行後に、送信画像バッファ92bに格納された画像データが通信装置14を介して、操作センター200へ送信される(図6、S18参照)。これにより、ディスプレイ202には、この修正画像データに基づく動画像が表示される。この動画像は、カメラ12で撮像された動画像から、車両速度や、ディスプレイ202で表示される動画像のフレームレート、車両1の存在する環境に基づいて、操作者に実際の車両速度よりも速い速度感覚を与える領域が削除されたものなので、この動画像によって、操作者に実際の車両速度に応じた速度感覚を与えることができる。   Next, the corrected image data is stored in the transmission image buffer 92b (S97). Thereby, after the execution of the corrected image data generation process, the image data stored in the transmission image buffer 92b is transmitted to the operation center 200 via the communication device 14 (see S18 in FIG. 6). As a result, a moving image based on the corrected image data is displayed on the display 202. This moving image is obtained from the moving image captured by the camera 12 based on the vehicle speed, the frame rate of the moving image displayed on the display 202, and the environment in which the vehicle 1 exists. Since the area that gives a fast speed sensation is deleted, this moving image can give the operator a speed sensation according to the actual vehicle speed.

S97の処理の実行後は、画像データメモリ93aの画像データを、前回画像メモリ493aに格納して(S98)、本処理を終了する。   After execution of the process of S97, the image data of the image data memory 93a is stored in the previous image memory 493a (S98), and this process is terminated.

S95の処理に戻って説明を続ける。S93の処理で算出された算出された各領域のフローベクトルの中に、周囲の領域について算出されたフローベクトルに対して大きさ又は方向が不規則なフローベクトルがあると判定された場合は(S95:Yes)、S99の処理を実行する。   Returning to the process of S95, the description will be continued. When it is determined that there is a flow vector having an irregular size or direction with respect to the flow vectors calculated for the surrounding areas among the calculated flow vectors of the respective areas calculated in the process of S93 ( (S95: Yes), the process of S99 is executed.

S99の処理では、移動物体の存在を示す不規則なフローベクトルが算出された領域を除いて、S94の処理で算出された基準フローベクトルに対して大きなフローベクトルが存在する領域から、そのフローベクトルが向くフレーム画像のエッジまでの範囲のデータを、画像データから削除して修正画像データを生成する(S99)。この修正画像データによって示されるフレーム画像は、カメラ12で撮像されたフレーム画像から、操作者に実際の車両速度よりも速い速度感覚を与える領域については削除され、且つ、移動物体については表示するものとなる。よって、この修正画像データからなる動画像がディスプレイ202に表示された場合に、操作者に実際の車両速度に応じた速度感覚を与えつつも、移動物体については、確実に視認させることができるので、移動物体の状況に応じた車両1の操作を操作者に行わせることができる。   In the process of S99, except for the area where the irregular flow vector indicating the presence of the moving object is calculated, the flow vector is determined from the area where the flow vector larger than the reference flow vector calculated in the process of S94 exists. Data in the range up to the edge of the frame image facing is deleted from the image data to generate corrected image data (S99). The frame image indicated by the corrected image data is deleted from the frame image captured by the camera 12 for an area that gives the operator a speed sensation faster than the actual vehicle speed, and displays a moving object. It becomes. Therefore, when a moving image composed of the corrected image data is displayed on the display 202, the moving object can be surely visually recognized while giving the operator a sense of speed according to the actual vehicle speed. The operator can be made to operate the vehicle 1 according to the state of the moving object.

次に、S99の処理で生成した修正画像データを、送信画像バッファ92bに格納し(S97)、画像データメモリ93aの画像データを、前回画像メモリ493aに格納して(S98)、本処理を終了する。   Next, the corrected image data generated in the process of S99 is stored in the transmission image buffer 92b (S97), the image data in the image data memory 93a is stored in the previous image memory 493a (S98), and this process ends. To do.

S92の処理に戻って説明を続ける。S92の処理によって、ナビゲーション装置13で電波を受信するGPS衛星の数が5より多いと判別された場合は(S92:No)、画像データメモリ93aの画像データを、送信画像バッファ93bと、前回画像メモリ493aに格納し(S100,S98)、本処理を終了する。かかる場合は、カメラ12で撮像された動画像が、そのままディスプレイ202へ送信されるものとなる。   Returning to the process of S92, the description will be continued. If the navigation device 13 determines that the number of GPS satellites that receive radio waves is greater than 5 by the processing of S92 (S92: No), the image data in the image data memory 93a is transmitted to the transmission image buffer 93b and the previous image. The data is stored in the memory 493a (S100, S98), and this process ends. In such a case, the moving image captured by the camera 12 is transmitted to the display 202 as it is.

このように、第3実施形態では、修正画像データ生成処理(図17参照)によって、ナビゲーション装置13で電波が受信されるGPS衛生の数が5以下である場合は、画像データメモリ93と前回画像メモリ493aとに格納される、カメラ12で連続して撮像された2つのフレーム画像に基づいてオプティカルフロー(フローベクトル)を算出し(S93)、基準フローベクトルよりも大きなフローベクトルが算出された画像領域から、フローベクトルが指すエッジ側の領域のデータを、画像データメモリ93に記憶される画像データから削除することで、ディスプレイ202に表示する動画像のフレーム画像を示す画像データを生成する(S95,S99)。   Thus, in the third embodiment, when the number of GPS sanitations received by the navigation device 13 is 5 or less by the corrected image data generation process (see FIG. 17), the image data memory 93 and the previous image are displayed. An optical flow (flow vector) is calculated based on two frame images successively captured by the camera 12 and stored in the memory 493a (S93), and an image in which a flow vector larger than the reference flow vector is calculated The image data indicating the frame image of the moving image to be displayed on the display 202 is generated by deleting the data of the edge-side region indicated by the flow vector from the image data stored in the image data memory 93 from the region (S95). , S99).

ここで、基準フローベクトルの大きさは、車両速度が速い場合ほど、S94の処理で大きく設定される。よって、車両速度が速い場合ほど、エッジからより内側にかけての領域が削除されたフレーム画像が、ディスプレイ202に表示される動画像のフレーム画像として生成される。よって、ディスプレイ202に表示させる動画像において、車両速度が速い場合ほど、削除される(即ち、表示させない)領域の範囲を、路面等の流れが最も速いエッジから、より動画像の内側にかけて拡大させるので、ディスプレイ202に表示される動画像全体の流れの速さを抑制することができる。これにより、動画像に映る路面等の流れによって操作者に与える速度感覚が、実際の車両速度より速いものとなることを抑制することができる。   Here, the magnitude of the reference flow vector is set larger in the process of S94 as the vehicle speed is higher. Therefore, as the vehicle speed increases, a frame image in which a region from the edge to the inner side is deleted is generated as a frame image of a moving image displayed on the display 202. Therefore, in the moving image to be displayed on the display 202, the higher the vehicle speed, the larger the range of the area to be deleted (that is, not displayed) from the edge with the fastest flow on the road surface to the inside of the moving image. Therefore, the flow speed of the entire moving image displayed on the display 202 can be suppressed. Thereby, it can suppress that the speed sensation given to an operator by the flow of the road surface etc. which are reflected on a moving image becomes faster than an actual vehicle speed.

また、基準フローベクトルの大きさは、ナビゲーション装置13で電波を受信するGPS衛星の数が少ないほど、S94の処理で大きく設定される。前述した通り、ナビゲーション装置13で電波を受信するGPS衛星の数が少ないほど、車両1の周辺のより近くに物体が存在していたり、より多くの物体が存在していたりすることが想定される。よって、電波を受信するGPS衛星の数によって、車両1と物体との接近の程度や、車両1の周辺に物体が存在する程度が高いほど、エッジからより内側にかけての領域が削除されたフレーム画像が、ディスプレイ202に表示される動画像のフレーム画像として生成される。よって、ディスプレイ202に表示させる動画像において、車両1と物体との接近の程度や、車両1の周辺に物体が存在する程度が高い場合ほど、削除される(即ち、表示させない)領域の範囲を、路面等の流れが最も速いエッジから、より動画像の内側にかけて拡大させるので、ディスプレイ202に表示される動画像全体の流れの速さを抑制することができる。よって、車両1が走行する環境に拘わらず、操作者に実際の車両速度に応じた速度感覚を与えることができる。   Further, the size of the reference flow vector is set larger in the process of S94 as the number of GPS satellites that receive radio waves by the navigation device 13 is smaller. As described above, it is assumed that as the number of GPS satellites that receive radio waves by the navigation device 13 is smaller, there are objects closer to the periphery of the vehicle 1 or more objects are present. . Therefore, the frame image in which the region from the edge to the inner side is deleted as the degree of approach between the vehicle 1 and the object or the degree of existence of the object around the vehicle 1 is higher depending on the number of GPS satellites that receive radio waves. Is generated as a frame image of a moving image displayed on the display 202. Therefore, in the moving image displayed on the display 202, the extent of the area to be deleted (that is, not displayed) is increased as the degree of approach between the vehicle 1 and the object or the degree of existence of the object around the vehicle 1 is higher. Since the image is enlarged from the edge with the fastest flow on the road surface to the inside of the moving image, the flow speed of the entire moving image displayed on the display 202 can be suppressed. Therefore, regardless of the environment in which the vehicle 1 travels, it is possible to give the operator a sense of speed according to the actual vehicle speed.

前述したように、本実施形態においてカメラ12で撮像される動画像のフレームレートは、車両1から操作センター200への画像データの伝送経路における通信速度の低下に応じて低くなる。このため、フレームレートが低下している場合ほど、S93の処理において、カメラで撮像された動画像の各領域について算出されるオプティカルフローの大きさが、基準フローベクトルに対して相対的に大きなものとなるので、通信速度が下がっている場合ほど、カメラ12で撮像された画像データから、多くの領域に対応するデータがS96,S99の処理によって削除されて修正画像データが生成される。よって、前述の伝送経路における通信速度が低下した場合ほど、修正画像データのデータ量、即ち、ディスプレイ202で表示されるフレーム画像1枚あたりのデータ量を落とすことができるので、通信速度が低下しても、車両1から操作センター200へ時間あたりに送信可能なフレーム画像の数が低下してしまうことを抑制して、ディスプレイ202に表示される動画像のフレームレートが低下することを抑制できる。このため、ディスプレイ202にフレームレートの低い動画像が表示されることで、操作者の速度感覚が実際の車両速度よりも高まってしまうことを抑制できる。   As described above, in the present embodiment, the frame rate of the moving image captured by the camera 12 is lowered according to the decrease in the communication speed in the image data transmission path from the vehicle 1 to the operation center 200. For this reason, as the frame rate decreases, the size of the optical flow calculated for each region of the moving image captured by the camera in the processing of S93 is relatively larger than the reference flow vector. Therefore, as the communication speed decreases, the data corresponding to many areas are deleted from the image data captured by the camera 12 by the processes of S96 and S99, and the corrected image data is generated. Therefore, as the communication speed in the transmission path decreases, the data amount of the corrected image data, that is, the data amount per frame image displayed on the display 202 can be reduced, so the communication speed decreases. However, it is possible to suppress a decrease in the number of frame images that can be transmitted per hour from the vehicle 1 to the operation center 200, and to suppress a decrease in the frame rate of the moving image displayed on the display 202. For this reason, it can suppress that an operator's speed sensation becomes higher than an actual vehicle speed by displaying a moving image with a low frame rate on the display 202.

しかも、S96,S99の処理によって削除された修正画像データは、フレームレートが低い場合ほど、オプティカルフローの大きなエッジから、より内側にかけての領域が削除されるフレーム画像を示すものとなる。よって、ディスプレイ202に表示させる動画像において、その動画像のフレームレートが低い場合ほど、削除される(即ち、表示させない)領域の範囲を、路面等の流れが最も速いエッジから、より動画像の内側にかけて拡大させるので、ディスプレイ202に表示される動画像全体の流れを遅くする。これにより、フレームレートが低下した動画像によって速められてしまう操作者の速度感覚を、動画像全体の流れを遅くすることで、打ち消すことができる。よって、ディスプレイ202にフレームレートの低い動画像が表示されることで、操作者の速度感覚が実際の車両速度よりも高まってしまうことを抑制できる。   Moreover, the corrected image data deleted by the processes of S96 and S99 indicates a frame image in which the region from the edge of the optical flow to the inner side is deleted as the frame rate is lower. Therefore, in the moving image displayed on the display 202, the lower the frame rate of the moving image, the more the range of the area to be deleted (that is, not displayed) from the edge with the fastest flow on the road surface or the like. Since the image is enlarged toward the inside, the flow of the entire moving image displayed on the display 202 is slowed down. Accordingly, the speed sensation of the operator, which is accelerated by the moving image with a reduced frame rate, can be canceled by slowing the flow of the entire moving image. Therefore, by displaying a moving image with a low frame rate on the display 202, it is possible to suppress the speed sensation of the operator from becoming higher than the actual vehicle speed.

また、S93の処理によれば、進行方向となる操舵方向の領域では、操舵方向とは反対側の領域よりも、より小さなフローベクトルが算出される。よって、S95又はS99の処理が行われた場合は、フローベクトルの大きな、操舵方向と反対側に位置する領域のデータから優先して、カメラ12で撮像されたフレーム画像の画像データから削除されて、修正画像データが生成される。これにより、進行方向については視認可能なフレーム画像の修正画像データが生成されるので、この修正画像データに基づいてディスプレイ202に表示される動画像では、車両1の進行方向についての視界を確保することができる。   Further, according to the processing of S93, a smaller flow vector is calculated in the region of the steering direction that is the traveling direction than in the region on the opposite side to the steering direction. Therefore, when the process of S95 or S99 is performed, it is deleted from the image data of the frame image captured by the camera 12 in preference to the data of the region with the large flow vector located on the side opposite to the steering direction. Modified image data is generated. As a result, the corrected image data of the frame image that can be visually recognized is generated for the traveling direction, and therefore the field of view of the traveling direction of the vehicle 1 is ensured in the moving image displayed on the display 202 based on the corrected image data. be able to.

なお、上記実施形態に記載の画像表示処理(図13参照)が、請求項7記載の表示制御手段に対応する。   The image display process (see FIG. 13) described in the above embodiment corresponds to the display control unit described in claim 7.

以上、実施形態に基づき本発明を説明したが、本発明は上記実施形態に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内で種々の改良変形が可能であることは容易に推察できるものである。例えば、上記各実施形態で挙げた数値は一例であり、他の数値を採用することは当然可能である。   As described above, the present invention has been described based on the embodiments, but the present invention is not limited to the above-described embodiments, and various improvements and modifications can be easily made without departing from the spirit of the present invention. It can be guessed. For example, the numerical values given in the above embodiments are examples, and other numerical values can naturally be adopted.

上記第1、第2実施形態においても、第3実施形態のように、カメラ12で撮像される範囲の中に移動物体が存在するかを検出し、移動物体が存在する場合には、少なくともその移動物体については、ディスプレイ202に表示される動画像の中で、表示させるようにしても良い。例えば、第1実施形態の車両制御装置100、第2実施形態の操作側制御装置201においても、第3実施形態と同様に、前回画像メモリ493aを設け、画像データメモリ93aに記憶される画像データよりも、1フレーム前の画像データを記憶させる。そして、修正画像データ生成処理(S17)において、車両1の走行区間が「トンネル」、「市街地」である場合に、画像データメモリ93a、前回画像メモリ493aの各画像データを用いてオプティカルフローを算出してオプティカルフローから移動物体を検出する処理と、移動物体の検出される領域が、注視点と画角マップから取得される画角に応じて設定される表示範囲に含まれているか判定する処理と、移動物体が表示範囲に含まれている場合は、表示範囲を残して画像データを削除し、修正画像データを生成する処理と、移動物体が表示範囲に含まれていない場合は、移動物体が少なくとも表示されるように、移動物体が含まれる領域と表示範囲とを少なくとも残して画像データを削除し、修正画像データを生成する処理とを実行するように構成する。   Also in the first and second embodiments, as in the third embodiment, it is detected whether there is a moving object in the range imaged by the camera 12, and if there is a moving object, at least the About a moving object, you may make it display in the moving image displayed on the display 202. FIG. For example, also in the vehicle control device 100 of the first embodiment and the operation side control device 201 of the second embodiment, the previous image memory 493a is provided as in the third embodiment, and the image data stored in the image data memory 93a is stored. The image data of one frame before is stored. Then, in the corrected image data generation process (S17), when the travel section of the vehicle 1 is “tunnel” or “urban area”, the optical flow is calculated using each image data in the image data memory 93a and the previous image memory 493a. The process for detecting a moving object from the optical flow and the process for determining whether the area where the moving object is detected is included in the display range set according to the angle of view acquired from the gazing point and the angle of view map When the moving object is included in the display range, the image data is deleted while leaving the display range, and the corrected image data is generated. When the moving object is not included in the display range, the moving object The image data is deleted and the corrected image data is generated so that at least the area including the moving object and the display range are left. Configured to.

かかる構成によれば、第3実施形態と同様に、カメラ12の撮像範囲に移動物体が存在している場合は、ディスプレイ202に表示する動画像に、その移動物体を確実に含めることができる。よって、ディスプレイ202に表示される動画像によって、移動物体を操作者に確実に視認させたうえで、その移動物体の状況に応じた車両1の操作を行わせることができる。   According to such a configuration, similarly to the third embodiment, when a moving object exists in the imaging range of the camera 12, the moving object can be reliably included in the moving image displayed on the display 202. Therefore, the moving object displayed on the display 202 can make the moving object reliably visible to the operator, and the operation of the vehicle 1 according to the state of the moving object can be performed.

上記各実施形態において、車両1のカメラ12で撮像される撮像範囲に存在する物体との距離および角度を検出するレーザセンサ等のセンサを車両1に設け、そのセンサによって、撮像範囲に存在する物体であって、車両1から所定距離内(例えば、10m以内)に存在する物体については、少なくともディスプレイ202に表示される動画像の中で、表示させるようにしても良い。例えば、修正画像データ生成処理(S17)において、車両1の走行区間が「トンネル」、「市街地」である場合に、センサの出力結果に基づいて、注視点と画角マップから取得される画角に応じて設定されるフレーム画像の表示範囲に、車両1から所定距離内に存在する物体が含まれているか判定する処理と、センサで検出された物体が表示範囲に含まれている場合は、表示範囲を残して画像データを削除し、修正画像データを生成する処理と、センサで検出された物体が表示範囲に含まれていない場合は、センサで検出された物体の距離及び角度に基づいて、その物体が少なくとも表示されるように、物体が含まれる領域と表示範囲とを少なくとも残して画像データを削除し、修正画像データを生成する処理とを実行するように構成する。   In each of the above embodiments, the vehicle 1 is provided with a sensor such as a laser sensor that detects a distance and an angle with an object existing in the imaging range captured by the camera 12 of the vehicle 1, and the object existing in the imaging range by the sensor. In this case, an object existing within a predetermined distance (for example, within 10 m) from the vehicle 1 may be displayed at least in the moving image displayed on the display 202. For example, in the corrected image data generation process (S17), when the travel section of the vehicle 1 is “tunnel” or “urban area”, the angle of view acquired from the gaze point and the angle-of-view map based on the output result of the sensor If the display range of the frame image set in accordance with the processing for determining whether an object existing within a predetermined distance from the vehicle 1 is included in the display range, and if the object detected by the sensor is included in the display range, Based on the process of deleting the image data while leaving the display range and generating the corrected image data, and the distance and angle of the object detected by the sensor when the object detected by the sensor is not included in the display range In order to display at least the object, the image data is deleted and the process of generating the corrected image data is executed, leaving at least the region including the object and the display range.

かかる構成によれば、カメラ12の撮像範囲に車両1から所定距離内に物体が存在している場合は、その物体を、ディスプレイ202に表示する動画像で表示させることができる。よって、ディスプレイ202に表示される動画像によって、所定距離内に存在する物体を操作者に確実に視認させたうえで、その物体と車両1との接触を回避させるための操作を、操作者に行わせることができる。   According to such a configuration, when an object exists within a predetermined distance from the vehicle 1 in the imaging range of the camera 12, the object can be displayed as a moving image displayed on the display 202. Therefore, the operator can make an operation for avoiding contact between the object and the vehicle 1 after making the operator visually recognize the object existing within the predetermined distance by the moving image displayed on the display 202. Can be done.

上記各実施形態において、人や他車両、二輪車等の移動しうる特定の対象が移動しているか否かに拘わらず、カメラ12で撮像される範囲の中に存在する場合に検出を行い、検出された場合には、少なくともその特定の対象については、ディスプレイ202に表示される動画像の中で、表示させるようにしても良い。例えば、人や他車両、二輪車等の特定の対象についてのアウトラインのパターンを、特定の対象が撮像されうる角度や大きさ別で複数記憶するパターンメモリを1実施形態の車両制御装置100のROM92、第2実施形態の操作側制御装置201のROM292に設ける。修正画像データ生成処理(S17)において、車両1の走行区間が「トンネル」、「市街地」である場合に、画像データメモリ93aに記憶される画像データによって示されるフレーム画像において、輝度が大きく変化しているエッジを抽出する処理と、そのエッジとパターンメモリに記憶されたパターンが一致するか判別する処理と、パターンに一致した対象が、注視点と画角マップから取得される画角に応じて設定される表示範囲に含まれているか判定する処理と、パターンに一致した対象が表示範囲に含まれている場合は、表示範囲を残して画像データを削除し、修正画像データを生成する処理と、パターンに一致した対象が表示範囲に含まれていない場合は、その対象が少なくとも表示されるように、対象が含まれる領域と表示範囲とを少なくとも残して画像データを削除し、修正画像データを生成する処理とを実行するように構成する。   In each of the above-described embodiments, detection is performed when a specific target that can be moved, such as a person, another vehicle, or a two-wheeled vehicle, is present within the range imaged by the camera 12, and detected In such a case, at least the specific target may be displayed in the moving image displayed on the display 202. For example, a ROM 92 of the vehicle control device 100 according to the embodiment includes a pattern memory that stores a plurality of outline patterns for a specific target such as a person, another vehicle, or a two-wheeler for each angle or size at which the specific target can be imaged. It is provided in the ROM 292 of the operation side control device 201 of the second embodiment. In the corrected image data generation process (S17), when the travel section of the vehicle 1 is “tunnel” or “urban area”, the luminance greatly changes in the frame image indicated by the image data stored in the image data memory 93a. A process for extracting a matching edge, a process for determining whether the edge and the pattern stored in the pattern memory match, and an object that matches the pattern depends on the gaze point and the angle of view acquired from the angle of view map. A process for determining whether the display range is set, and a process for generating corrected image data by deleting the image data while leaving the display range when a target that matches the pattern is included in the display range. If the target that matches the pattern is not included in the display range, the target area and the display range so that the target is displayed at least Remove the image data at least leaving, configured to perform a process of generating the corrected image data.

かかる構成によれば、カメラ12の撮像範囲に特定の対象が存在している場合は、その特定の対象が移動しているか否かに拘わらず、ディスプレイ202に表示する動画像に、その特定の対象を確実に含めることができる。よって、ディスプレイ202に表示される動画像によって、移動しうる特定の対象を操作者に確実に視認させたうえで、その対象の状況に応じた車両1の操作を、操作者に行わせることができる。   According to such a configuration, when a specific target exists in the imaging range of the camera 12, the specific image is displayed on the moving image displayed on the display 202 regardless of whether or not the specific target is moving. The subject can be reliably included. Therefore, the moving image displayed on the display 202 allows the operator to visually recognize a specific target that can be moved, and allows the operator to operate the vehicle 1 in accordance with the status of the target. it can.

上記各実施形態では、カメラ12で撮像された動画像に対して、操作者がディスプレイ202で視認できなくなった領域は、その領域を表示するデータを削除した場合について説明したが、必ずしもこれに限られるものではなく、例えば、カメラ12で撮像されたフレーム画像に対して、その領域を単色で塗りつぶしたり、明度を極めて高くしたり、極めて低くしたりして、操作者が景色を視認できない状態にしてもよい。   In each of the above-described embodiments, the region where the operator can no longer visually recognize the moving image captured by the camera 12 on the display 202 has been described with respect to the case where the data for displaying the region is deleted. For example, the area of the frame image captured by the camera 12 is filled with a single color, or the brightness is extremely increased or decreased so that the operator cannot view the scenery. May be.

上記各実施形態では、修正画像データ生成処理(S17)によって、車両速度、ディスプレイ202に表示される動画像のフレームレート、車両1の環境に応じて、カメラ12で撮像された画像の画像データに対して所定の画像処理を行うことで、カメラ12で撮像された動画像から表示範囲を調整した、ディスプレイ202に表示される動画像のフレーム画像を生成する場合について説明したが、必ずしもこれに限られるものではなく、画角が調整可能な望遠レンズや、画角が異なる複数のレンズをカメラに設け、車両速度、ディスプレイ202に表示される動画像のフレームレート、車両1の環境、に応じて、カメラ12のレンズを切り替えて撮像し、撮像された動画像のままディスプレイ202へ表示させるようにしてもよい。   In each of the above embodiments, the corrected image data generation process (S17) converts the image data of the image captured by the camera 12 according to the vehicle speed, the frame rate of the moving image displayed on the display 202, and the environment of the vehicle 1. The case has been described where predetermined image processing is performed to generate a frame image of a moving image displayed on the display 202 in which a display range is adjusted from a moving image captured by the camera 12, but the present invention is not limited to this. The camera is provided with a telephoto lens whose angle of view can be adjusted and a plurality of lenses with different angles of view, depending on the vehicle speed, the frame rate of the moving image displayed on the display 202, and the environment of the vehicle 1 Alternatively, the lens of the camera 12 may be switched to capture an image, and the captured moving image may be displayed on the display 202 as it is.

上記第1および第2実施形態では、操作側制御装置201において、ディスプレイ202で表示される動画像のフレームレートを求め、そのフレームレートに応じて、修正画像データの画角を求める場合について説明したが、必ずしもこれに限られるものではなく、操作側制御装置202において、フレームレートを示す情報として、車両1の通信装置14から操作センター200の通信装置206までの画像データの通信速度を求め、その通信速度に応じて、修正画像データの画角を求めるように構成しても良い。このとき、例えば、画角マップメモリ92b,393aを、ディスプレイ202における動画像のフレームレートではなく、画像データの通信速度と対応付けて画角を規定するように構成するようにしてもよい。   In the first and second embodiments, a case has been described in which the operation-side control device 201 obtains the frame rate of the moving image displayed on the display 202 and obtains the angle of view of the corrected image data according to the frame rate. However, the present invention is not necessarily limited to this, and the operation-side control device 202 obtains the communication speed of the image data from the communication device 14 of the vehicle 1 to the communication device 206 of the operation center 200 as information indicating the frame rate. The angle of view of the corrected image data may be obtained according to the communication speed. At this time, for example, the view angle map memories 92b and 393a may be configured to define the view angle in association with the communication speed of the image data instead of the moving image frame rate on the display 202.

また、上記第1、第3実施形態において、車両1から操作センター200へ送信される画像データの通信速度(又はディスプレイ202で表示される動画像のフレームレート)の低下に応じて、車両速度や、車両の走行環境に拘わらず、カメラ12で撮像された動画像のフレーム画像を示す画像データから、その動画像の上側のエッジ付近に含まれるピクセルについてのデータを削除するようにしても良い。例えば、画像送信処理(図7参照)において、送信画像バッファ93bに画像データが格納されてから、その画像データが通信装置14へ出力されるまでの間に、受信フレームレートメモリ93gに格納されるフレームレートが所定の閾値(例えば、車両速度)よりも小さいかを判定する処理と、所定の閾値よりも小さい場合は、送信画像バッファ93bに格納される画像データから、動画像の上側のエッジ付近に含まれるピクセルについてのデータを削除したうえで、通信装置に出力14する処理とを行うように構成する。   Further, in the first and third embodiments, the vehicle speed or the speed of the image data transmitted from the vehicle 1 to the operation center 200 (or the frame rate of the moving image displayed on the display 202) is reduced. Regardless of the traveling environment of the vehicle, data regarding pixels included in the vicinity of the upper edge of the moving image may be deleted from the image data indicating the frame image of the moving image captured by the camera 12. For example, in the image transmission process (see FIG. 7), the image data is stored in the reception frame rate memory 93g after the image data is stored in the transmission image buffer 93b until the image data is output to the communication device 14. Processing for determining whether the frame rate is lower than a predetermined threshold (for example, vehicle speed), and if it is lower than the predetermined threshold, from the image data stored in the transmission image buffer 93b, near the upper edge of the moving image And processing to output 14 to the communication device after deleting the data about the pixels included in the.

ここで、カメラ12で撮像される動画像の上側エッジ付近の領域には、車両1の上方が撮像されるものなので、かかる領域にだけ存在する物体は、車両の走行を妨げる物体とはならない。よって、上記の構成によれば、車両1から操作センター200へ送信される画像データの通信速度が低い場合に、フレーム画像を示す画像データから、そのフレーム画像の上側エッジ付近のピクセルについてデータを削除して、ディスプレイ202に表示する動画像のフレーム画像を生成する。よってカメラ12で撮像された動画像の表示範囲のうち、操作者が車両1と物体との接触を回避させながら車両1の操作を行ううえで支障とならない範囲のデータを削除することで、フレーム画像1枚当たりの画像データのデータ量を落として、フレームレートの低下を抑制することができる。   Here, since the upper part of the vehicle 1 is imaged in the area near the upper edge of the moving image captured by the camera 12, an object that exists only in this area does not become an object that hinders the traveling of the vehicle. Therefore, according to the above configuration, when the communication speed of the image data transmitted from the vehicle 1 to the operation center 200 is low, the data for the pixels near the upper edge of the frame image is deleted from the image data indicating the frame image. Thus, a frame image of a moving image to be displayed on the display 202 is generated. Therefore, by deleting the data in the display range of the moving image captured by the camera 12 so that the operator does not interfere with the operation of the vehicle 1 while avoiding the contact between the vehicle 1 and the object, the frame is deleted. By reducing the amount of image data per image, it is possible to suppress a decrease in frame rate.

また、上記第1、第3実施形態において、車両1から操作センター200へ送信される画像データの通信速度(又はディスプレイ202で表示される動画像のフレームレート)の低下に応じて、車両速度や、車両の走行環境に拘わらず、カメラ12で撮像された動画像のフレーム画像を示す画像データから、その動画像の上側のエッジ付近に含まれるピクセルについてのデータを削除するようにしても良い。例えば、画像送信処理(図7参照)において、送信画像バッファ93bに画像データが格納されてから、その画像データが通信装置14へ出力されるまでの間に、受信フレームレートメモリ93gに格納されるフレームレートが所定の閾値(例えば、車両速度)よりも小さいかを判定する処理と、所定の閾値よりも小さい場合は、送信画像バッファ93bに格納される画像データから、動画像の上側のエッジ付近に含まれるピクセルについてのデータを削除したうえで、通信装置に出力14する処理とを行うように構成する。   Further, in the first and third embodiments, the vehicle speed or the speed of the image data transmitted from the vehicle 1 to the operation center 200 (or the frame rate of the moving image displayed on the display 202) is reduced. Regardless of the traveling environment of the vehicle, data regarding pixels included in the vicinity of the upper edge of the moving image may be deleted from the image data indicating the frame image of the moving image captured by the camera 12. For example, in the image transmission process (see FIG. 7), the image data is stored in the reception frame rate memory 93g after the image data is stored in the transmission image buffer 93b until the image data is output to the communication device 14. Processing for determining whether the frame rate is lower than a predetermined threshold (for example, vehicle speed), and if it is lower than the predetermined threshold, from the image data stored in the transmission image buffer 93b, near the upper edge of the moving image And processing to output 14 to the communication device after deleting the data about the pixels included in the.

ここで、カメラ12で撮像される動画像の上側エッジ付近の領域には、車両1の上方が撮像されるものなので、かかる領域にだけ存在する物体は、車両の走行を妨げる物体とはならない。よって、上記の構成によれば、車両1から操作センター200へ送信される画像データの通信速度が低い場合に、フレーム画像を示す画像データから、そのフレーム画像の上側エッジ付近のピクセルについてデータを削除して、ディスプレイ202に表示する動画像のフレーム画像を生成する。よってカメラ12で撮像された動画像の表示範囲のうち、操作者が車両1と物体との接触を回避させながら車両1の操作を行ううえで支障とならない範囲のデータを削除することで、フレーム画像1枚当たりの画像データのデータ量を落として、フレームレートの低下を抑制することができる。   Here, since the upper part of the vehicle 1 is imaged in the area near the upper edge of the moving image captured by the camera 12, an object that exists only in this area does not become an object that hinders the traveling of the vehicle. Therefore, according to the above configuration, when the communication speed of the image data transmitted from the vehicle 1 to the operation center 200 is low, the data for the pixels near the upper edge of the frame image is deleted from the image data indicating the frame image. Thus, a frame image of a moving image to be displayed on the display 202 is generated. Therefore, by deleting the data in the display range of the moving image captured by the camera 12 so that the operator does not interfere with the operation of the vehicle 1 while avoiding the contact between the vehicle 1 and the object, the frame is deleted. By reducing the amount of image data per image, it is possible to suppress a decrease in frame rate.

また、上記第1、第3実施形態において、車両1から操作センター200へ送信される画像データの通信速度の低下に応じて、ディスプレイ202に表示される動画像のフレームレートが低下することを抑制するために、車両1において、カメラ12で撮像された動画像のフレーム画像を示す画像データから、一部のピクセルについてのデータを削除し、残りの画像データを、ディスプレイ202に表示する動画像の1枚のフレーム画像を示すものとして、車両1から操作センター200へ送信する場合について説明したが、必ずしもこれに限られるものではない。例えば、車両1から操作センター200へ送信される画像データの通信速度の低下に応じて、カメラ12で撮像された画像データを、複数ピクセル単位毎に量子化を行ってデータ量を落としたり、各ピクセルの色情報を削除してデータ量を落としたりしても良い。また、複数枚のフレーム画像を、MPEG方式で圧縮してから、車両1から操作センター200へ送信されるように構成しても良い。また、これらの方法を、カメラ12で撮像された動画像のフレーム画像を示す画像データから、一部のピクセルについてのデータを削除する方法と組み合わせるようにしても良い。   In the first and third embodiments, the frame rate of the moving image displayed on the display 202 is prevented from being lowered in accordance with the reduction in the communication speed of the image data transmitted from the vehicle 1 to the operation center 200. In order to do this, in the vehicle 1, data on some pixels is deleted from the image data indicating the frame image of the moving image captured by the camera 12, and the remaining image data is displayed on the display 202. Although the case where it transmits to the operation center 200 from the vehicle 1 as what shows one frame image was demonstrated, it is not necessarily restricted to this. For example, in response to a decrease in communication speed of image data transmitted from the vehicle 1 to the operation center 200, image data captured by the camera 12 is quantized for each of a plurality of pixels to reduce the data amount, Pixel color information may be deleted to reduce the amount of data. Further, a plurality of frame images may be compressed by the MPEG method and then transmitted from the vehicle 1 to the operation center 200. Further, these methods may be combined with a method of deleting data for some pixels from image data indicating a frame image of a moving image captured by the camera 12.

また、上記第1及び第2実施形態において、車両1の走行区間が「市街地」である場合に、動画像の左右のエッジ付近のピクセルを削除する場合に付いて説明したが、あわせて、動画像の下側エッジ付近のピクセルを削除するようにしてもよい。車両1の下方にある路面が動画像の下側エッジ付近に表示されるので、動画像の下側エッジ付近のピクセルを削除することで、ディスプレイ202に表示される動画像のフレームレートが低い場合や、動画像の画角に対して車両速度が速い場合に、路面の流れによって速められてしまう操作者の速度感覚を抑制することができる。   Further, in the first and second embodiments, the case where the pixels near the left and right edges of the moving image are deleted when the traveling section of the vehicle 1 is “urban area” has been described. Pixels near the lower edge of the image may be deleted. Since the road surface below the vehicle 1 is displayed near the lower edge of the moving image, the frame rate of the moving image displayed on the display 202 is low by deleting the pixels near the lower edge of the moving image. In addition, when the vehicle speed is high with respect to the angle of view of the moving image, it is possible to suppress the speed sensation of the operator that is accelerated by the road surface flow.

また、上記第1及び第2実施形態において、車両1の走行区間が「その他」である場合には(S32:「その他」)、ディスプレイ202に表示される動画像のフレームレートが低い場合や、動画像の画角に対して車両速度が速い場合に、動画像の下側エッジ付近のピクセルを削除するようにしてもよい。「その他」の走行区間のような拓けた区間であっても、ディスプレイ202に表示される動画像のフレームレートが低い場合や、動画像の画角に対して車両速度が速い場合に、路面の流れによって速められてしまう。これに対し、かかる構成によれば、「その他」の走行区間において、ディスプレイ202に表示される動画像のフレームレートが低い場合や、動画像の画角に対して車両速度が速い場合に、動画像の下側エッジ付近のピクセルを削除することで、路面の流れによって速められてしまう操作者の速度感覚を抑制することができる。   In the first and second embodiments, when the travel section of the vehicle 1 is “others” (S32: “others”), when the frame rate of the moving image displayed on the display 202 is low, When the vehicle speed is higher than the angle of view of the moving image, the pixels near the lower edge of the moving image may be deleted. Even in a clear section such as the “other” travel section, when the frame rate of the moving image displayed on the display 202 is low, or when the vehicle speed is high relative to the angle of view of the moving image, the road surface It will be accelerated by the flow. On the other hand, according to such a configuration, when the frame rate of the moving image displayed on the display 202 is low or the vehicle speed is higher than the angle of view of the moving image in the “other” travel section, By deleting pixels near the lower edge of the image, it is possible to suppress the speed sensation of the operator that is accelerated by the flow on the road surface.

また、上記各実施形態において、車両1は、車両1が存在する環境を示す情報(車両1と、その車両1の周辺に存在する物体との位置関係や、カメラの撮像範囲に占める物体の割合を)を、ナビゲーション装置13から取得する場合について説明したが、必ずしもこれに限られるものではなく、路車間通信や、車々間通信によって取得するように構成しても良い。また、カメラ13で撮像された画像を解析して、車両1が存在する環境を示す情報を取得するようにしても良い。   Further, in each of the embodiments described above, the vehicle 1 is the information indicating the environment in which the vehicle 1 exists (the positional relationship between the vehicle 1 and objects around the vehicle 1 and the ratio of the object in the imaging range of the camera. However, the present invention is not necessarily limited to this, and may be configured to be acquired by road-to-vehicle communication or vehicle-to-vehicle communication. Alternatively, an image captured by the camera 13 may be analyzed to obtain information indicating an environment where the vehicle 1 exists.

また、上記各実施形態は、それぞれ、他の実施形態が有する構成の一部または複数部分を、その実施形態に追加し或いはその実施形態の構成の一部または複数部分と交換等することにより、その実施形態を変形して構成するようにしてもよい。   Further, in each of the above embodiments, a part or a plurality of parts of the configuration of the other embodiments are added to the embodiment or replaced with a part or a plurality of parts of the configuration of the embodiment. The embodiment may be modified and configured.

1 車両
12 カメラ(撮像手段)
13 ナビゲーション装置(情報取得手段の一部)
14 通信装置(送信手段、受信手段)
100 車側制御装置(走行制御手段)
200 操作センター(遠隔操作装置)
202 ディスプレイ(表示手段)
203 ステアリング装置(受付手段)
204 アクセルペダル装置(受付手段)
205 ブレーキペダル装置(受付手段)
206 通信装置(送信手段、受信手段、情報取得手段の一部)
393f ナビ情報メモリ(情報取得手段の一部)
S17 修正画像データ生成処理(動画像情報生成手段)
S32,S35,S39 第1領域設定手段
S91 情報取得手段の一部
S93 第2検出手段の一部、オプティカルフロー算出手段
S95 第2検出手段の一部、オプティカルフロー比較手段
S96,S99 第3領域設定手段
1 vehicle 12 camera (imaging means)
13 Navigation device (part of information acquisition means)
14 Communication device (transmission means, reception means)
100 vehicle side control device (travel control means)
200 Operation center (remote control device)
202 Display (display means)
203 Steering device (accepting means)
204 Accelerator pedal device (reception means)
205 Brake pedal device (reception means)
206 Communication device (transmission means, reception means, part of information acquisition means)
393f Navigation information memory (part of information acquisition means)
S17 Modified image data generation processing (moving image information generation means)
S32, S35, S39 First area setting means S91 Part of information acquisition means S93 Part of second detection means, Optical flow calculation means S95 Part of second detection means, Optical flow comparison means S96, S99 Third area setting means

Claims (7)

車両の周辺を動画像として撮像する撮像手段と、
その撮像手段により撮像された動画像に基づいて動画像情報を生成する動画像情報生成手段と、
その動画像情報生成手段により生成された前記動画像情報を、前記車両の外部に設けられた遠隔操作装置へ送信する送信手段と、
その送信手段により送信された前記動画像情報に基づき前記遠隔操作装置に設けられた表示手段に表示される動画像に基づいて前記遠隔操作装置によって操作者より受け付けられた前記車両の駆動、制動または操舵に関する指示を表す指示情報を、前記遠隔操作装置より受信する受信手段と、
その受信手段により受信した前記指示情報に基づいて、前記車両の駆動、制動または操舵を制御する走行制御手段と、
車両の周辺に存在する物体にかかわる情報を取得する情報取得手段とを備え、
前記動画像情報生成手段は、前記情報取得手段によって取得された情報に基づき、動画像の外縁に位置する領域の少なくとも一部を視認不能とした動画像を生成し、その生成した動画像を前記遠隔操作装置の前記表示手段に表示させるための動画像情報を生成するものであることを特徴とする車両。
Imaging means for imaging the periphery of the vehicle as a moving image;
Moving image information generating means for generating moving image information based on the moving image captured by the imaging means;
Transmitting means for transmitting the moving image information generated by the moving image information generating means to a remote control device provided outside the vehicle;
Based on the moving image information transmitted by the transmitting means, the driving, braking, or driving of the vehicle received from the operator by the remote operation device based on the moving image displayed on the display means provided in the remote operation device Receiving means for receiving, from the remote control device, instruction information representing an instruction relating to steering;
Travel control means for controlling driving, braking or steering of the vehicle based on the instruction information received by the receiving means;
Comprising information acquisition means for acquiring information related to an object existing around the vehicle,
The moving image information generating unit generates a moving image in which at least a part of a region located at an outer edge of the moving image is invisible based on the information acquired by the information acquiring unit, and the generated moving image is A vehicle that generates moving image information to be displayed on the display means of a remote control device.
前記情報取得手段は、前記車両の周辺に存在する物体の前記車両に対する位置関係を示す情報を、前記車両の周辺に存在する物体にかかわる情報として取得するものであり、
前記動画像情報生成手段は、前記動画像の外縁に位置する領域の少なくとも一部を視認不能とした動画像を生成する場合に、その動画像において視認不能とされる領域を、前記情報取得手段によって取得された情報に基づいて、前記車両の周辺に存在する物体が存在する方向の動画像の外縁に位置する領域の一部に設定する第1領域設定手段を備えることを特徴とする請求項1記載の車両。
The information acquisition means acquires information indicating a positional relationship of an object existing around the vehicle with respect to the vehicle as information relating to an object existing around the vehicle,
When the moving image information generating unit generates a moving image in which at least a part of the region located on the outer edge of the moving image is invisible, the information acquiring unit displays an area invisible in the moving image. And a first region setting unit configured to set a part of a region located on an outer edge of a moving image in a direction in which an object existing around the vehicle exists based on the information acquired by the step (a). The vehicle according to 1.
前記情報取得手段は、前記撮像手段によって撮像される範囲に占める物体の割合に関する所定情報を、車両の周辺に存在する物体にかかわる情報として取得するものであり、
前記動画像情報生成手段は、前記情報取得手段によって取得された前記所定情報に基づき、前記撮像手段によって撮像される範囲に占める物体の割合が第1の割合である場合における前記視認不能とされる領域の範囲が、前記蓋然性が第1の割合よりも低い第2の割合である場合における前記視認不能とされる領域の範囲よりも、前記動画像の外縁から、より内側にまで設定された動画像を生成するものであることを特徴とする請求項1又は2記載の車両。
The information acquisition means acquires predetermined information relating to a ratio of an object in a range imaged by the imaging means as information relating to an object existing around the vehicle,
The moving image information generation means is made invisible when the ratio of the object in the range imaged by the imaging means is the first ratio based on the predetermined information acquired by the information acquisition means. A moving image set from the outer edge of the moving image to the inner side of the range of the region that is not visible when the range of the region is the second rate in which the probability is lower than the first rate The vehicle according to claim 1, wherein the vehicle generates an image.
前記撮像手段によって動画像が撮像される範囲のうち、車両から所定距離以内の範囲に存在する物体を検出する第1検出手段を備え、
前記動画像情報生成手段は、前記動画像の外縁に位置する領域の少なくとも一部を視認不能とした動画像を生成する場合に、その動画像において視認不能とされる領域を、前記第1検出手段によって検出された物体が存在する領域については視認可能となるように設定する第2領域設定手段を備えていることを特徴とする請求項1から3のいずれかに記載の車両。
A first detection unit for detecting an object existing within a predetermined distance from the vehicle in a range in which a moving image is captured by the imaging unit;
The moving image information generating means generates a moving image in which at least a part of an area located at an outer edge of the moving image is invisible, and the first detection is performed on an area that is invisible in the moving image. The vehicle according to any one of claims 1 to 3, further comprising second area setting means for setting an area where an object detected by the means is present so as to be visible.
前記撮像手段によって動画像が撮像される範囲に存在する物体であって移動し得る物体を検出する第2検出手段を備え、
前記動画像情報生成手段は、前記動画像の外縁に位置する領域の少なくとも一部を視認不能とした動画像を生成する場合に、前記第2検出手段によって検出された物体が存在する領域については視認可能となるように、前記視認不能とする領域を設定する第3領域設定手段を備えることを特徴とする請求項1から4のいずれかに記載の車両。
A second detection means for detecting an object that is in a range where a moving image is picked up by the image pickup means and that can move;
When the moving image information generating unit generates a moving image in which at least a part of the region located on the outer edge of the moving image is invisible, the region where the object detected by the second detecting unit exists The vehicle according to any one of claims 1 to 4, further comprising third area setting means for setting an area that is not visible so as to be visible.
前記第2検出手段は、
前記受信手段によって受信された動画像情報によって示される動画像から、その動画像の各領域におけるオプティカルフローを算出するオプティカルフロー算出手段と、
そのオプティカルフロー算出手段によって算出された各領域のオプティカルフローを、各領域の周囲の領域について算出されたオプティカルフローと比較するオプティカルフロー比較手段とを備え、
そのオプティカルフロー比較手段によって比較を行った周囲の領域について算出された複数のオプティカルフローの方向および大きさの少なくとも一方の分布に、方向および大きさの少なくとも一方が含まれないオプティカルフローが算出されている領域に、移動する物体が存在するものとして検出を行うものであることを特徴とする請求項5記載の車両。
The second detection means includes
Optical flow calculation means for calculating an optical flow in each region of the moving image from the moving image indicated by the moving image information received by the receiving means;
Optical flow comparison means for comparing the optical flow of each area calculated by the optical flow calculation means with the optical flow calculated for the area surrounding each area,
An optical flow in which at least one of the direction and the size is not included in the distribution of at least one of the direction and the size of the plurality of optical flows calculated for the surrounding regions compared by the optical flow comparison unit is calculated. 6. The vehicle according to claim 5, wherein the detection is performed on the assumption that a moving object exists in the area where the vehicle is located.
車両の駆動、制動または操舵を車両の外部から操作可能な遠隔操作装置であって、
前記車両に設けられた撮像手段により撮像された前記車両の周辺の動画像に基づいて生成された動画像情報を前記車両より受信する受信手段と、
その受信手段により受信された前記動画像情報に基づいて動画像を表示する表示手段と、
その表示手段に表示される動画像に基づいて操作者より指示される前記車両の駆動、制動または操舵に関する指示を受け付ける受付手段と、
その受付手段により受け付けられた前記指示を表す指示情報を前記車両に対して送信する送信手段と、
車両の周辺に存在する物体にかかわる情報を取得する情報取得手段と、
前記受信手段により受信された前記動画像情報によって示される動画像に対し、前記情報取得手段によって取得された情報に基づいて、前記動画像の外縁に位置する領域の少なくとも一部を視認不能とした動画像を生成し、その生成した動画像を前記表示手段に表示させる表示制御手段とを備えることを特徴とする遠隔操作装置。
A remote control device capable of operating a vehicle for driving, braking or steering from outside the vehicle,
Receiving means for receiving, from the vehicle, moving image information generated based on moving images around the vehicle imaged by an imaging means provided in the vehicle;
Display means for displaying a moving image based on the moving image information received by the receiving means;
Receiving means for receiving an instruction related to driving, braking or steering of the vehicle instructed by an operator based on a moving image displayed on the display means;
Transmitting means for transmitting instruction information representing the instruction received by the receiving means to the vehicle;
Information acquisition means for acquiring information related to an object existing around the vehicle;
For the moving image indicated by the moving image information received by the receiving unit, at least a part of the region located at the outer edge of the moving image is made invisible based on the information acquired by the information acquiring unit. A remote control device comprising: a display control unit that generates a moving image and displays the generated moving image on the display unit.
JP2012218859A 2012-09-28 2012-09-28 Vehicle, and remote control device Pending JP2014071777A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012218859A JP2014071777A (en) 2012-09-28 2012-09-28 Vehicle, and remote control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012218859A JP2014071777A (en) 2012-09-28 2012-09-28 Vehicle, and remote control device

Publications (1)

Publication Number Publication Date
JP2014071777A true JP2014071777A (en) 2014-04-21

Family

ID=50746886

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012218859A Pending JP2014071777A (en) 2012-09-28 2012-09-28 Vehicle, and remote control device

Country Status (1)

Country Link
JP (1) JP2014071777A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109150949A (en) * 2017-06-15 2019-01-04 株式会社日立制作所 Supervisor control, monitoring control device and monitoring control method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109150949A (en) * 2017-06-15 2019-01-04 株式会社日立制作所 Supervisor control, monitoring control device and monitoring control method
US10466697B2 (en) 2017-06-15 2019-11-05 Hitachi, Ltd. Monitoring control system, monitoring control device, and monitoring control method
CN109150949B (en) * 2017-06-15 2021-05-11 株式会社日立制作所 Monitoring control system, monitoring control device, and monitoring control method

Similar Documents

Publication Publication Date Title
CA3069114C (en) Parking assistance method and parking assistance device
EP2974909B1 (en) Periphery surveillance apparatus and program
JP2014071778A (en) Vehicle
JP5473304B2 (en) Remote location image display device, remote control device, vehicle control device, remote control system, remote control method, remote control program, vehicle control program, remote location image display method, remote location image display program
JP6315107B2 (en) Target route generation device and travel control device
CN111595357B (en) Visual interface display method and device, electronic equipment and storage medium
KR102052405B1 (en) A display control device using vehicles and user motion recognition and its method of operation
CN108399394A (en) Barrier method for early warning, device and terminal
KR20170118077A (en) Method and device for the distortion-free display of an area surrounding a vehicle
JP5994574B2 (en) Position guidance system, method and program
JP5825713B2 (en) Dangerous scene reproduction device for vehicles
JP2014071776A (en) Vehicle, and remote control device
CN109154504B (en) Navigation system and storage medium
CN112447059A (en) System and method for managing a fleet of transporters using teleoperational commands
JP2009230225A (en) Periphery monitoring device for vehicle
US20190050959A1 (en) Machine surround view system and method for generating 3-dimensional composite surround view using same
JP2014071777A (en) Vehicle, and remote control device
JP6953088B2 (en) Electronic devices and parking assistance methods
JP2013050889A (en) Communication system for vehicle and information providing device used for the same
CN110286984A (en) A kind of onboard system display methods and device
JP4006272B2 (en) Driving assistance device
KR102519134B1 (en) Integrated information display method of digital cluster and digital cluster providing avm screen and vehicle driving information
JP6634947B2 (en) Display method and driving support device
CN117681868A (en) Vehicle obstacle avoidance collision detection method, device, computer equipment and storage medium
CN110962862A (en) Obstacle indication display