JP6831504B2 - Terminals and terminal control methods - Google Patents

Terminals and terminal control methods Download PDF

Info

Publication number
JP6831504B2
JP6831504B2 JP2016245985A JP2016245985A JP6831504B2 JP 6831504 B2 JP6831504 B2 JP 6831504B2 JP 2016245985 A JP2016245985 A JP 2016245985A JP 2016245985 A JP2016245985 A JP 2016245985A JP 6831504 B2 JP6831504 B2 JP 6831504B2
Authority
JP
Japan
Prior art keywords
vehicle
housing
image
displayed
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016245985A
Other languages
Japanese (ja)
Other versions
JP2018101864A (en
Inventor
健太 安友
健太 安友
祐樹 松下
祐樹 松下
孝信 長島
孝信 長島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Faurecia Clarion Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd, Faurecia Clarion Electronics Co Ltd filed Critical Clarion Co Ltd
Priority to JP2016245985A priority Critical patent/JP6831504B2/en
Publication of JP2018101864A publication Critical patent/JP2018101864A/en
Application granted granted Critical
Publication of JP6831504B2 publication Critical patent/JP6831504B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)

Description

本発明は、端末、及び端末の制御方法に関する。 The present invention relates to a terminal and a method for controlling the terminal.

従来、車両に設けられた情報処理装置(車両側装置3)と通信し、車両に設けられたカメラ(撮像部5)の撮影結果に基づく画像を表示する端末(携帯端末4)が知られている(例えば、特許文献1参照)。 Conventionally, a terminal (portable terminal 4) that communicates with an information processing device (vehicle side device 3) provided in a vehicle and displays an image based on a shooting result of a camera (imaging unit 5) provided in the vehicle has been known. (See, for example, Patent Document 1).

特開2015−54530号公報JP-A-2015-54530

上述した端末のように、車両に設けられたカメラの撮影結果に基づく画像を表示可能なものでは、画像の表示に際して適切な処理を行ってユーザーの利便性を向上したいとするニーズがある。
本発明は、上述した事情に鑑みてなされたものであり、車両に設けられたカメラの撮影結果に基づく画像を端末により表示する際に、ユーザーの利便性を向上することを目的とする。
In the case of a terminal capable of displaying an image based on a shooting result of a camera provided in a vehicle such as the terminal described above, there is a need to improve user convenience by performing appropriate processing when displaying the image.
The present invention has been made in view of the above circumstances, and an object of the present invention is to improve user convenience when displaying an image based on a shooting result of a camera provided in a vehicle on a terminal.

上記目的を達成するために、本発明の端末は、筐体と、前記筐体に設けられた表示パネルと、前記筐体の状態を検出する筐体状態検出部と、車両に設けられたカメラの撮影結果に基づく撮影データを取得し、取得した前記撮影データに基づく画像と、タッチ操作可能な操作ボタンとを前記表示パネルに表示させると共に、前記筐体状態検出部により検出された前記筐体の状態に応じて、前記表示パネルに表示させる画像を切り替える端末制御部と、前記表示パネルに対する操作位置を検出するタッチセンサーと、を備え、前記端末制御部は、前記筐体状態検出部により検出された前記筐体の状態に応じて、前記表示パネルに表示させる画像が切り替えられるとき、前記操作ボタンの表示位置を、前記表示パネルに表示させる画像が切り替えられるときに前記タッチセンサーによって検出された前記タッチ位置に設定することを特徴とする。 In order to achieve the above object, the terminal of the present invention includes a housing, a display panel provided on the housing, a housing state detection unit for detecting the state of the housing, and a camera provided on the vehicle. The shooting data based on the shooting result of the above is acquired, and the image based on the acquired shooting data and the touch-operable operation button are displayed on the display panel, and the housing detected by the housing state detection unit is displayed. The terminal control unit includes a terminal control unit that switches an image to be displayed on the display panel according to the state of the display panel, and a touch sensor that detects an operation position with respect to the display panel. The terminal control unit detects the image by the housing state detection unit. When the image to be displayed on the display panel is switched according to the state of the housing, the display position of the operation button is detected by the touch sensor when the image to be displayed on the display panel is switched. It is characterized in that it is set to the touch position .

また、本発明は、前記端末制御部は、前記筐体状態検出部により前記筐体の向きが第1の向きとなったことが検出された場合と、前記筐体の向きが前記第1の向きとは異なる第2の向きとなったことが検出された場合とで、前記表示パネルに表示させる画像を切り替えることを特徴とする。 Further, in the present invention, the terminal control unit detects that the orientation of the housing is the first orientation by the housing state detection unit, and the orientation of the housing is the first. It is characterized in that the image to be displayed on the display panel is switched between the case where it is detected that the second orientation is different from the orientation.

また、本発明は、前記筐体は、長方形状の正面を有する板状の部材であり、前記表示パネルは、前記筐体の正面に設けられ、前記第1の向きは、前記筐体の正面の長辺の方向が、鉛直方向に沿った状態となる向きであり、前記第2の向きは、前記筐体の正面の長辺の方向が、鉛直方向と直交する方向に沿った状態となる向きであることを特徴とする。 Further, in the present invention, the housing is a plate-shaped member having a rectangular front surface, the display panel is provided on the front surface of the housing, and the first orientation is the front surface of the housing. The direction of the long side of the housing is the direction along the vertical direction, and the second direction is the direction in which the direction of the long side of the front surface of the housing is along the direction orthogonal to the vertical direction. It is characterized by being oriented.

また、本発明は、前記端末制御部は、前記筐体状態検出部により前記筐体の向きが前記第1の向きとなったことが検出され場合、前記撮影データに基づく画像として、前記車両を俯瞰した画像である俯瞰画像を前記表示パネルに表示させ、前記筐体状態検出部により前記筐体の向きが前記第2の向きとなったことが検出された場合、前記撮影データに基づく画像として、前記カメラにより撮影された車外の画像である車外画像を前記表示パネルに表示させることを特徴とする。 Further, in the present invention, when the terminal control unit detects that the orientation of the housing is the first orientation by the housing state detection unit, the terminal control unit uses the vehicle as an image based on the shooting data. When a bird's-eye view image, which is a bird's-eye view image, is displayed on the display panel and the housing state detection unit detects that the housing is oriented in the second orientation, the image is based on the shooting data. The display panel is characterized in that an image of the outside of the vehicle, which is an image of the outside of the vehicle taken by the camera, is displayed on the display panel.

また、本発明は、前記車両には、車外を撮影する複数の前記カメラが設けられ、前記端末制御部は、前記筐体状態検出部により前記筐体の向きが前記第2の向きとなったことが検出された場合、前記車両の状態に対応した所定の優先順位に従って、複数の前記カメラのうち、1つの前記カメラを選択し、選択した前記カメラの撮影結果に基づく前記車外画像を前記表示パネルに表示させることを特徴とする。 Further, in the present invention, the vehicle is provided with a plurality of the cameras for photographing the outside of the vehicle, and the terminal control unit has the housing oriented to the second orientation by the housing state detecting unit. When it is detected, one of the cameras is selected from the plurality of cameras according to a predetermined priority corresponding to the state of the vehicle, and the outside image based on the shooting result of the selected camera is displayed. It is characterized by being displayed on a panel.

また、本発明は、前記所定の優先順位は、前記車両の進行方向を撮影可能な前記カメラほど高い順位となる優先順位であることを特徴とする。 Further, the present invention is characterized in that the predetermined priority is a higher priority as the camera capable of photographing the traveling direction of the vehicle.

また、本発明は、前記所定の優先順位は、前記車両に近接する物体を撮影可能な前記カメラほど高い順位となる優先順位であることを特徴とする。 Further, the present invention is characterized in that the predetermined priority is a higher priority as the camera capable of photographing an object close to the vehicle.

また、本発明は、前記端末制御部は、1の前記カメラの撮影結果に基づく1の前記車外画像を前記表示パネルに表示させた後、前記筐体状態検出部により前記筐体が所定の動きをしたことが検出された場合、当該1の前記車外画像に代えて、当該1の前記カメラとは異なる他の前記カメラの撮影結果に基づく他の前記車外画像を前記表示パネルに表示させることを特徴とする。 Further, in the present invention, after the terminal control unit displays the outside image of 1 based on the shooting result of the camera on the display panel, the housing state detection unit moves the housing to a predetermined position. When it is detected that the above-mentioned image has been detected, the display panel is displayed with another image of the outside of the vehicle based on the shooting result of the other camera different from the camera of the first one, instead of the image of the outside of the vehicle of the one. It is a feature.

また、本発明は、複数の前記カメラは、それぞれ、異なる方向に向かって車外を撮影し、前記所定の動きは、前記筐体の状態が第1の態様で変化する第1の動き、又は、前記筐体の状態が前記第1の態様とは異なる第2の態様で変化する第2の動きのいずれかであり、前記端末制御部は、前記筐体状態検出部により前記筐体が前記第1の動きをしたことが検出された場合、前記カメラが撮影する方向に応じた第1の順番で前記車外画像を切り替え、前記筐体状態検出部により前記筐体が前記第2の動きをしたことが検出された場合、前記カメラが撮影する方向に応じた順番であって、前記第1の順番とは異なる第2の順番で前記車外画像を切り替えることを特徴とする。 Further, according to the present invention, the plurality of the cameras take pictures of the outside of the vehicle in different directions, and the predetermined movement is a first movement in which the state of the housing changes in the first aspect, or The state of the housing is one of the second movements in which the state of the housing changes in a second aspect different from the first aspect, and the terminal control unit uses the housing state detection unit to cause the housing to change. When it is detected that the movement of 1 is performed, the images outside the vehicle are switched in the first order according to the direction in which the camera takes a picture, and the housing makes the second movement by the housing state detection unit. When this is detected, the outside image is switched in a second order different from the first order, which is an order according to the shooting direction of the camera.

また、本発明の前記端末制御部は、前記表示パネルに前記撮影データに基づく画像を表示させると共に、前記撮影データに基づく画像と重畳して、タッチ操作可能な前記操作ボタンを表示させ、前記表示パネルに表示させる画像を切り替えた場合も、前記操作ボタンの表示を維持し、前記操作ボタンがタッチ操作されている間、前記車両に設けられた情報処理装置に、前記車両の推進を指示する推進指示信号を送信することを特徴とする。
また、本発明の前記端末制御部は、前記表示パネルに、前記操作ボタンとして、タッチ操作によって移動するスライドボタンを表示させると共に、前記スライドボタンが移動可能な範囲を明示するスライドバーを表示させ、前記スライドボタンが前記スライドバーの一端から他端へ移動された状態が維持されている期間に、前記筐体状態検出部により検出された前記筐体の状態に応じて、前記撮影データに基づく画像を切り替えて前記表示パネルに表示させるとき、前記画像が切り替えられたときに前記タッチ位置検出部によって検出された前記スライドボタンのタッチ位置に、前記スライドボタンと異なる操作ボタンとして機能させる他の操作ボタンを表示させ、前記タッチ位置検出部によって検出されるタッチ位置の移動に追従して前記他の操作ボタンの位置を移動させることを特徴とする。
The front SL terminal control unit of the present invention, together to display an image based on the imaging data to the display panel, so as to overlap with the image based on the captured data, to display the touch operation can be the operation buttons, the Even when the image to be displayed on the display panel is switched, the display of the operation button is maintained, and while the operation button is touch-operated, the information processing device provided in the vehicle is instructed to propel the vehicle. It is characterized by transmitting a propulsion instruction signal.
Further, the terminal control unit of the present invention causes the display panel to display a slide button that is moved by a touch operation as the operation button, and also displays a slide bar that clearly indicates the range in which the slide button can be moved. An image based on the shooting data according to the state of the housing detected by the housing state detection unit during the period in which the slide button is maintained in a state of being moved from one end to the other end of the slide bar. When the image is switched and displayed on the display panel, another operation button that causes the touch position of the slide button detected by the touch position detection unit to function as an operation button different from the slide button when the image is switched. Is displayed, and the position of the other operation button is moved following the movement of the touch position detected by the touch position detecting unit.

また、本発明は、筐体と、前記筐体に設けられた表示パネルとを有する端末の制御方法であって、車両に設けられたカメラの撮影結果に基づく撮影データを取得し、取得した前記撮影データに基づく画像と、タッチ操作可能な操作ボタンとを前記表示パネルにより表示すると共に、前記筐体の状態を検出し、検出した前記筐体の状態に応じて、前記表示パネルにより表示する画像を切り替える処理と、前記表示パネルに対する操作位置を検出する処理とを行い、検出した前記筐体の状態に応じて、前記表示パネルに表示する画像を切り替えるとき、前記操作ボタンの表示位置を、前記表示パネルに表示する画像を切り替えるときに検出した前記タッチ位置に設定することを特徴とする。 Further, the present invention is a method for controlling a terminal having a housing and a display panel provided in the housing, and acquires and acquires shooting data based on the shooting results of a camera provided in the vehicle. An image based on the shooting data and a touch-operable operation button are displayed on the display panel, the state of the housing is detected, and an image displayed on the display panel according to the detected state of the housing. When switching the image to be displayed on the display panel according to the detected state of the housing by performing the process of switching and the process of detecting the operation position with respect to the display panel, the display position of the operation button is changed to the above. It is characterized in that it is set to the touch position detected when switching the image to be displayed on the display panel .

本発明によれば、車両に設けられたカメラの撮影結果に基づく画像を端末により表示する際に、ユーザーの利便性を向上できる。 According to the present invention, it is possible to improve the convenience of the user when displaying an image based on the shooting result of a camera provided in the vehicle on the terminal.

本実施形態に係る情報処理システム1の概要を示す図。The figure which shows the outline of the information processing system 1 which concerns on this embodiment. 携帯端末の機能的構成を示すブロック図。A block diagram showing a functional configuration of a mobile terminal. 縦向きの説明に用いる図。The figure used for the vertical explanation. 横向きの説明に用いる図。The figure used for the sideways explanation. 右動きの説明に用いる図。The figure used to explain the right movement. 左動きの説明に用いる図。The figure used to explain the left movement. 情報処理装置の機能的構成を示すブロック図。The block diagram which shows the functional structure of an information processing apparatus. 車外撮影用カメラの撮影方向の説明に用いる図。The figure used to explain the shooting direction of the camera for shooting outside the vehicle. 車両駆動制御装置の機能的構成を示すブロック図。The block diagram which shows the functional structure of the vehicle drive control device. 自動運転経路情報の説明に用いる図。The figure used for explaining the automatic driving route information. 情報処理システムの各装置の動作を示すフローチャート。A flowchart showing the operation of each device of the information processing system. 駐車場の一例を示す図。The figure which shows an example of a parking lot. ロック画面を示す図。The figure which shows the lock screen. タッチパネルに表示される画面の説明に用いる図。The figure used for explaining the screen displayed on a touch panel. 携帯端末の動作を示すフローチャート。A flowchart showing the operation of a mobile terminal. 情報処理装置の動作を示すフローチャート。A flowchart showing the operation of the information processing device. 情報処理装置の動作を示すフローチャート。A flowchart showing the operation of the information processing device. 合成画像を示す図。The figure which shows the composite image. 携帯端末の動作を示すフローチャート。A flowchart showing the operation of a mobile terminal. 情報処理装置の動作を示すフローチャート。A flowchart showing the operation of the information processing device. 情報処理装置の動作を示すフローチャート。A flowchart showing the operation of the information processing device. 情報処理装置の動作を示すフローチャート。A flowchart showing the operation of the information processing device. 情報処理システムの各装置の動作を示すフローチャート。A flowchart showing the operation of each device of the information processing system. 選択画面を示す図。The figure which shows the selection screen. タッチパネルに表示される画面の説明に用いる図。The figure used for explaining the screen displayed on a touch panel. タッチパネルに表示される画面の説明に用いる図。The figure used for explaining the screen displayed on a touch panel. タッチパネルに表示される画面の説明に用いる図。The figure used for explaining the screen displayed on a touch panel.

以下、図面を参照して本発明の実施形態について説明する。
図1は、本実施形態に係る情報処理システム1の概要を示す図である。
図1に示すように、情報処理システム1は、車両Sに設けられた車両システム2と、ユーザーが所有する携帯端末3とを備える。
車両システム2は、情報処理装置4と、車両駆動制御装置5とを備える。情報処理装置4と、車両駆動制御装置5とは、バス6を介して通信可能である。
携帯端末3は、ユーザーが携帯するタブレット型の携帯電話(いわゆるスマートフォン)である。車両システム2の情報処理装置4と、携帯端末3とは、無線通信により通信可能である。携帯端末3は、筐体8を備える。筐体8は、長方形状の正面8aを有する板状の部材であり、正面8aの広い領域に、タッチパネル9(表示パネル)が設けられる。なお、長方形状とは、完全な長方形の形状を意味せず、例えば、4つの頂点が丸みを帯びた略長方形の形状も含む。以下では、携帯端末3がタブレット型の携帯電話であるものとして実施形態の説明を行うが、携帯端末3は、スマートフォンに限らず、タブレット型のコンピューター等であってもよい。
ユーザーは、車両Sの所有者等、車両Sを制御する権限を有する者である。
車両Sは、自動四輪車である。特に、本実施形態に係る車両Sは、エンジンスイッチのオン/オフと、ドアの施錠/開錠とに関し、以下の機能を有する。すなわち、車両Sは、専用のリモートコントローラーに対する操作により、エンジンスイッチをオン/オフし、また、ドアを施錠/開錠する機能を有する。当該機能は、既存の技術が用いられているため、当該機能の詳細な説明は省略する。ユーザーは、車両Sから降車した後、車外において専用のリモートコントローラーを操作して、エンジンスイッチをオン/オフすることができ、また、車両Sのドアを施錠/開錠できる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing an outline of the information processing system 1 according to the present embodiment.
As shown in FIG. 1, the information processing system 1 includes a vehicle system 2 provided in the vehicle S and a mobile terminal 3 owned by the user.
The vehicle system 2 includes an information processing device 4 and a vehicle drive control device 5. The information processing device 4 and the vehicle drive control device 5 can communicate with each other via the bus 6.
The mobile terminal 3 is a tablet-type mobile phone (so-called smartphone) carried by the user. The information processing device 4 of the vehicle system 2 and the mobile terminal 3 can communicate with each other by wireless communication. The mobile terminal 3 includes a housing 8. The housing 8 is a plate-shaped member having a rectangular front surface 8a, and a touch panel 9 (display panel) is provided in a wide area of the front surface 8a. The rectangular shape does not mean a perfect rectangular shape, and includes, for example, a substantially rectangular shape in which four vertices are rounded. Hereinafter, the embodiment will be described assuming that the mobile terminal 3 is a tablet-type mobile phone, but the mobile terminal 3 is not limited to a smartphone and may be a tablet-type computer or the like.
The user is a person who has the authority to control the vehicle S, such as the owner of the vehicle S.
The vehicle S is a four-wheeled vehicle. In particular, the vehicle S according to the present embodiment has the following functions regarding on / off of the engine switch and locking / unlocking of the door. That is, the vehicle S has a function of turning on / off the engine switch and locking / unlocking the door by operating the dedicated remote controller. Since the existing technology is used for the function, a detailed description of the function will be omitted. After getting off the vehicle S, the user can operate a dedicated remote controller outside the vehicle to turn on / off the engine switch, and can lock / unlock the door of the vehicle S.

情報処理システム1は、以下のことを可能とするシステムである。すなわち、情報処理システム1は、ユーザーが車両Sを運転することなく、携帯端末3を操作して、一の位置に停車する車両Sを、他の位置へ移動させて停車させることを可能とする。例えば、情報処理システム1は、駐車場や、車庫等における駐車位置に車両Sを駐車させる際に、ユーザーが車両Sを運転することなく、携帯端末3を操作して、駐車位置の近傍の駐車前位置に停車している車両Sを駐車位置に移動させて停車させることを可能とする。また例えば、情報処理システム1は、駐車位置に停車している車両Sを出庫させる際に、ユーザーが車両Sを運転することなく、携帯端末3を操作して、駐車位置に停車している車両Sを、駐車位置の近傍の出庫後停車位置に移動させて停車させることを可能とする。従って、ユーザーは、情報処理システム1を利用することにより、車両Sに搭乗していない状態で、車両Sの駐車、及び、出庫を行うことができる。このため、駐車に関し、駐車を希望する駐車位置に隣接する駐車位置に他の車両が既に停車しており、駐車を希望する駐車位置に車両Sが停車した場合、車両Sと、隣接する他の車両とが近接し、車両Sのドアの開閉が困難な状況のときに、ユーザーは、以下の態様で車両Sを駐車位置に駐車させることができる。すなわち、ユーザーは、駐車位置に車両Sを停車させる前に車両Sを降車し、情報処理システム1を利用して、車両Sを駐車位置に停車させることができる。これにより、駐車位置に車両Sが停車した後、車両Sのドアを開閉する必要がなく、ユーザーは、スムーズに車両Sの駐車させることができる。同様に、出庫に関し、車両Sが停車している駐車位置に隣接する駐車位置に他の車両が既に停車しており、車両Sのドアを開閉して車両Sに搭乗することが困難な状況の場合に、ユーザーは、情報処理システム1を利用することにより、車両Sに搭乗することなくスムーズに車両Sを出庫させて、その後、車両Sに搭乗することができる。
以下の説明では、情報処理システム1により、ユーザーによる車両Sの運転を伴うことなく、一の位置に停車する車両Sが他の位置に移動して他の位置で停車することを、「車両自動移動」と表現する。
The information processing system 1 is a system that enables the following. That is, the information processing system 1 enables the user to operate the mobile terminal 3 to move the vehicle S stopped at one position to another position and stop the vehicle S without driving the vehicle S. .. For example, when the information processing system 1 parks the vehicle S at a parking position in a parking lot, a garage, or the like, the user operates the mobile terminal 3 without driving the vehicle S to park in the vicinity of the parking position. It is possible to move the vehicle S stopped at the front position to the parking position and stop the vehicle S. Further, for example, in the information processing system 1, when the vehicle S parked at the parking position is discharged, the user operates the mobile terminal 3 without driving the vehicle S to park the vehicle at the parking position. It is possible to move S to a stop position after leaving the garage near the parking position and stop the vehicle. Therefore, by using the information processing system 1, the user can park and leave the vehicle S without being on the vehicle S. Therefore, regarding parking, if another vehicle is already parked at a parking position adjacent to the parking position desired to be parked and the vehicle S is parked at the parking position desired to be parked, the vehicle S and another adjacent vehicle S are parked. When the vehicle is in close proximity and it is difficult to open and close the door of the vehicle S, the user can park the vehicle S in the parking position in the following manner. That is, the user can disembark the vehicle S before stopping the vehicle S at the parking position and use the information processing system 1 to stop the vehicle S at the parking position. As a result, it is not necessary to open and close the door of the vehicle S after the vehicle S has stopped at the parking position, and the user can smoothly park the vehicle S. Similarly, regarding leaving the garage, another vehicle is already parked at a parking position adjacent to the parking position where the vehicle S is parked, and it is difficult to open and close the door of the vehicle S to board the vehicle S. In this case, by using the information processing system 1, the user can smoothly leave the vehicle S without boarding the vehicle S and then board the vehicle S.
In the following description, the information processing system 1 indicates that the vehicle S stopped at one position moves to another position and stops at another position without the user driving the vehicle S. Expressed as "move".

図2は、携帯端末3の機能的構成を示すブロック図である。
図2に示すように、携帯端末3は、端末制御部20と、端末通信部21と、タッチパネル9と、端末記憶部22と、筐体状態検出部23とを備える。
FIG. 2 is a block diagram showing a functional configuration of the mobile terminal 3.
As shown in FIG. 2, the mobile terminal 3 includes a terminal control unit 20, a terminal communication unit 21, a touch panel 9, a terminal storage unit 22, and a housing state detection unit 23.

端末制御部20は、CPUや、ROM、RAM、ASIC、信号処理回路等を備え、携帯端末3の各部を制御する。端末制御部20は、例えばCPUが、ROMに記憶されたプログラムをRAMに読み出して処理を実行し、また例えばASICに実装された機能により処理を実行し、また例えば信号処理回路で信号処理を行って処理を実行する等、ハードウェアとソフトウェアとの協働により処理を実行する。 The terminal control unit 20 includes a CPU, ROM, RAM, ASIC, signal processing circuit, and the like, and controls each unit of the mobile terminal 3. In the terminal control unit 20, for example, the CPU reads the program stored in the ROM into the RAM and executes the processing, executes the processing by the function implemented in the ASIC, for example, and performs the signal processing in the signal processing circuit, for example. Processes are executed in collaboration with hardware and software.

端末通信部21は、端末制御部20の制御に従って、Wi−Fi(登録商標)の規格に従って、外部の装置(情報処理装置4を含む。)と無線通信する。
なお、本実施形態では、携帯端末3と、情報処理装置4との間で行われる無線通信に用いられる通信プロトコルは、Wi−Fiであるが、これら装置間で行われる無線通信に用いられる通信プロトコルは、Wi−Fiに限らず何でもよい。例えば、通信プロトコルは、Bluetooth(登録商標)であってもよい。
The terminal communication unit 21 wirelessly communicates with an external device (including the information processing device 4) according to the Wi-Fi (registered trademark) standard under the control of the terminal control unit 20.
In the present embodiment, the communication protocol used for wireless communication between the mobile terminal 3 and the information processing device 4 is Wi-Fi, but the communication used for wireless communication between these devices is used. The protocol is not limited to Wi-Fi and may be anything. For example, the communication protocol may be Bluetooth®.

タッチパネル9は、液晶パネルや、有機ELパネル等の表示パネルを備え、端末制御部20の制御で、表示パネルに画像を表示する。また、タッチパネル9は、表示パネルに重ねて配置されたタッチセンサーを備え、ユーザーによるタッチパネル9に対する操作を検出し、検出した操作に対応する信号を端末制御部20に出力する。端末制御部20は、タッチパネル9からの入力に基づいて、ユーザーによるタッチパネル9に対する操作に対応する処理を実行する。 The touch panel 9 includes a display panel such as a liquid crystal panel or an organic EL panel, and displays an image on the display panel under the control of the terminal control unit 20. Further, the touch panel 9 includes a touch sensor arranged so as to be superimposed on the display panel, detects an operation on the touch panel 9 by the user, and outputs a signal corresponding to the detected operation to the terminal control unit 20. The terminal control unit 20 executes a process corresponding to an operation on the touch panel 9 by the user based on the input from the touch panel 9.

端末記憶部22は、EEPROM等の不揮発性メモリーを備え、各種データを書き換え可能に不揮発的に記憶する。
端末記憶部22は、専用アプリケーションAPを記憶する。専用アプリケーションAPは、後述するように、ユーザーが情報処理システム1を利用して車両自動移動を行わせる場合に使用されるアプリケーションである。専用アプリケーションAPは、例えば、情報処理装置4を製造販売する会社が提供するアプリケーションである。ユーザーは、所定のアプリケーションダウンロードシステムを使用して、事前に、専用アプリケーションAPを携帯端末3にダウンロードする。
The terminal storage unit 22 includes a non-volatile memory such as EEPROM, and stores various data in a rewritable non-volatile manner.
The terminal storage unit 22 stores the dedicated application AP. As will be described later, the dedicated application AP is an application used when a user uses the information processing system 1 to automatically move a vehicle. The dedicated application AP is, for example, an application provided by a company that manufactures and sells the information processing device 4. The user downloads the dedicated application AP to the mobile terminal 3 in advance using a predetermined application download system.

筐体状態検出部23は、筐体8に設けられた加速度センサー、ジャイロセンサー、及び傾きセンサーを備え、これらセンサーの検出値に基づいて、筐体8の状態を検出する。筐体状態検出部23は、検出した筐体8の状態を示す情報を端末制御部20に出力する。なお、筐体状態検出部23が筐体8の状態を検出するときに用いるセンサーは、加速度センサー、ジャイロセンサー、及び傾きセンサーに限られない。また、筐体状態検出部23が筐体8の状態を検出するときの方法は、どのような方法であってもよい。
筐体状態検出部23は、筐体8の状態として、少なくとも、(1)筐体8の向きが「縦向き」となったこと、(2)筐体8の向きが「横向き」となったこと、(3)筐体8の向きが「横向き」のときに、筐体8が「右動き」したこと、及び(4)筐体の向きが「横向き」のときに、筐体8が「左動き」したことを検出する。
The housing state detection unit 23 includes an acceleration sensor, a gyro sensor, and an inclination sensor provided in the housing 8, and detects the state of the housing 8 based on the detection values of these sensors. The housing state detection unit 23 outputs information indicating the detected state of the housing 8 to the terminal control unit 20. The sensor used by the housing state detection unit 23 to detect the state of the housing 8 is not limited to the acceleration sensor, the gyro sensor, and the tilt sensor. Further, any method may be used when the housing state detection unit 23 detects the state of the housing 8.
The housing state detection unit 23 has at least (1) the orientation of the housing 8 being "vertical" and (2) the orientation of the housing 8 being "horizontal" as the state of the housing 8. That, (3) when the orientation of the housing 8 is "sideways", the housing 8 "moves to the right", and (4) when the orientation of the housing is "sideways", the housing 8 is "sideways". Detects "left movement".

図3Aは、「縦向き」の説明に用いる図である。
ここで、上述したように、筐体8は、長方形状の正面8aを有する板状の部材である。また、図3Aに示すように、タッチパネル9の形状は、筐体8の長辺T1に沿って長辺を有し、筐体8の短辺T2に沿って短辺を有する長方形状である。
正面8aが長方形状であるため、正面8aの外縁は、長辺T1と、短辺T2とにより構成される。これを踏まえ、以下、筐体8の長辺T1に沿って延びる仮想的な線を「仮想長辺直線」と表現し、符号として「KA」を付す。また、鉛直方向に延びる仮想的な線を「仮想鉛直直線」と表現し、符号として「EN」を付す。また、仮想鉛直直線ENに直交する仮想的な線を「仮想直交直線」と表現し、符号として「TN」を付す。
図3Aに示すように、「縦向き」は、仮想鉛直直線ENに対する仮想長辺直線KAの三次元空間における角度が、角度θ1の範囲内にある状態である。角度θ1の値は、ユーザーが意図的に携帯端末3の向きを「縦向き」とした場合のマージンという観点に基づいて、適切に定められる。携帯端末3の向きが「縦向き」の場合、筐体8の長辺T1の方向が、鉛直方向に沿った状態となると共に、タッチパネル9の長辺の方向が、鉛直方向に沿った状態となる。
「縦向き」は、「第1の向き」に相当する。
FIG. 3A is a diagram used for explaining "portrait".
Here, as described above, the housing 8 is a plate-shaped member having a rectangular front surface 8a. Further, as shown in FIG. 3A, the shape of the touch panel 9 is a rectangular shape having a long side along the long side T1 of the housing 8 and a short side along the short side T2 of the housing 8.
Since the front surface 8a is rectangular, the outer edge of the front surface 8a is composed of a long side T1 and a short side T2. Based on this, hereinafter, a virtual line extending along the long side T1 of the housing 8 is expressed as a "virtual long side straight line", and "KA" is added as a code. Further, a virtual line extending in the vertical direction is expressed as a "virtual vertical straight line", and "EN" is added as a code. Further, a virtual line orthogonal to the virtual vertical straight line EN is expressed as a "virtual orthogonal straight line", and "TN" is added as a code.
As shown in FIG. 3A, "vertical orientation" is a state in which the angle of the virtual long side straight line KA with respect to the virtual vertical straight line EN in the three-dimensional space is within the range of the angle θ1. The value of the angle θ1 is appropriately determined from the viewpoint of the margin when the user intentionally sets the orientation of the mobile terminal 3 to “vertical orientation”. When the orientation of the mobile terminal 3 is "vertical", the direction of the long side T1 of the housing 8 is along the vertical direction, and the direction of the long side of the touch panel 9 is along the vertical direction. Become.
"Vertical orientation" corresponds to "first orientation".

図3Bは、「横向き」の説明に用いる図である。
図3Bに示すように、「横向き」は、仮想直交直線TNに対する仮想長辺直線KAの三次元空間における角度が、角度θ2の範囲内にある状態である。角度θ2は、ユーザーが意図的に携帯端末3の向きを「横向き」とした場合のマージンという観点に基づいて、適切に定められる。携帯端末3の向きが「横向き」の場合、筐体8の長辺T1の方向が、鉛直方向に直交する方向に沿った状態となると共に、タッチパネル9の長辺の方向が、鉛直方向に直交する方向に沿った状態となる。
「横向き」は、「第2の向き」に相当する。
FIG. 3B is a diagram used for the explanation of “sideways”.
As shown in FIG. 3B, "horizontal orientation" is a state in which the angle of the virtual long side straight line KA with respect to the virtual orthogonal straight line TN in the three-dimensional space is within the range of the angle θ2. The angle θ2 is appropriately determined from the viewpoint of a margin when the user intentionally sets the orientation of the mobile terminal 3 to “sideways”. When the orientation of the mobile terminal 3 is "horizontal", the direction of the long side T1 of the housing 8 is along the direction orthogonal to the vertical direction, and the direction of the long side of the touch panel 9 is orthogonal to the vertical direction. It will be in a state along the direction of
"Horizontal" corresponds to "second orientation".

図4Aは、「右動き」の説明に用いる図である。
図4Aに示すように、「右動き」は、筐体8の向きが「横向き」の状態で、筐体8が、筐体8を正面視したときの右方向に向かって、距離K1(例えば、3センチ。)を超える距離を、期間GG1(例えば、0.5秒。)以内に移動する動きである。右方向は、鉛直方向と直交する方向に完全に沿う必要はなく、一定のマージンが考慮される。筐体8を把持してタッチパネル9を視認するユーザーが、ユーザーから見て右方向に向かって筐体8を軽く移動させた場合に、筐体8は、「右動き」をする。距離K1、及び、期間GG1は、ユーザーが、意図的に、筐体8に「右動き」をさせたことを判定するための閾値として使用するという観点に基づいて、適切に定められる。
「右動き」は、「筐体8の状態が第1の態様で変化する第1の動き」に相当する。
FIG. 4A is a diagram used for explaining “right movement”.
As shown in FIG. 4A, “right movement” means that the housing 8 is oriented “sideways” and the distance K1 (for example, the housing 8 is directed to the right when the housing 8 is viewed from the front). It is a movement to move within a period of GG1 (for example, 0.5 seconds) over a distance of more than 3,3 cm. The right direction does not have to be completely along the direction orthogonal to the vertical direction, and a certain margin is considered. When the user who grips the housing 8 and visually recognizes the touch panel 9 lightly moves the housing 8 toward the right when viewed from the user, the housing 8 "moves to the right". The distance K1 and the period GG1 are appropriately determined from the viewpoint of being used as a threshold value for determining that the user intentionally causes the housing 8 to "move to the right".
The "right movement" corresponds to the "first movement in which the state of the housing 8 changes in the first aspect".

図4Bは、「左動き」の説明に用いる図である。
図4Bに示すように、「左動き」は、筐体8の向きが「横向き」の状態で、筐体8が、筐体8を正面視したときの左方向に向かって、距離K2(例えば、3センチ。)を超える距離を、期間GG2(例えば、0.5秒。)以内に移動する動きである。左方向は、鉛直方向と直交する方向に完全に沿う必要はなく、一定のマージンが考慮される。筐体8を把持してタッチパネル9を視認するユーザーが、ユーザーから見て左方向に向かって筐体8を軽く移動させた場合に、筐体8は、「左動き」をする。距離K2、及び、期間GG2は、ユーザーが、意図的に、筐体8に「左動き」をさせたことを判定するための閾値として使用するという観点に基づいて、適切に定められる。
「左動き」は、「筐体8の状態が第2の態様で変化する第2の動き」に相当する。
FIG. 4B is a diagram used for explaining “left movement”.
As shown in FIG. 4B, “left movement” means that the housing 8 is oriented “sideways” and the distance K2 (for example, the housing 8 is directed to the left when the housing 8 is viewed from the front). It is a movement to move within a period of GG2 (for example, 0.5 seconds) over a distance of more than 3,3 cm. The left direction does not have to be completely along the direction orthogonal to the vertical direction, and a certain margin is considered. When the user who grips the housing 8 and visually recognizes the touch panel 9 lightly moves the housing 8 toward the left when viewed from the user, the housing 8 "moves to the left". The distance K2 and the period GG2 are appropriately determined from the viewpoint of being used as a threshold value for determining that the user intentionally causes the housing 8 to "move left".
The "left movement" corresponds to the "second movement in which the state of the housing 8 changes in the second mode".

図5は、情報処理装置4の機能的構成を示すブロック図である。
図5に示すように、情報処理装置4は、情報処理装置制御部30と、情報処理装置通信部31と、表示装置32と、情報処理装置記憶部33と、操作入力部34と、GPSユニット35と、相対方位検出ユニット36と、バスインターフェース37と、カメラインターフェース38とを備える。
FIG. 5 is a block diagram showing a functional configuration of the information processing device 4.
As shown in FIG. 5, the information processing device 4 includes an information processing device control unit 30, an information processing device communication unit 31, a display device 32, an information processing device storage unit 33, an operation input unit 34, and a GPS unit. 35, a relative orientation detection unit 36, a bus interface 37, and a camera interface 38 are provided.

情報処理装置制御部30は、CPUや、ROM、RAM、ASIC、信号処理回路等を備え、情報処理装置4の各部を制御する。情報処理装置制御部30は、例えばCPUが、ROMに記憶されたプログラムをRAMに読み出して処理を実行し、また例えばASICに実装された機能により処理を実行し、また例えば信号処理回路で信号処理を行って処理を実行する等、ハードウェアとソフトウェアとの協働により処理を実行する。 The information processing device control unit 30 includes a CPU, ROM, RAM, ASIC, signal processing circuit, and the like, and controls each unit of the information processing device 4. In the information processing device control unit 30, for example, the CPU reads the program stored in the ROM into the RAM and executes the process, executes the process by the function implemented in the ASIC, and processes the signal by the signal processing circuit, for example. The process is executed in cooperation with the hardware and software, such as executing the process.

情報処理装置通信部31は、情報処理装置制御部30の制御に従って、Wi−Fiの規格に従って、外部の装置(携帯端末3を含む。)と無線通信する。
表示装置32は、液晶パネルや、有機ELパネル等の表示パネルを備え、情報処理装置制御部30の制御で、表示パネルに画像を表示する。
情報処理装置記憶部33は、EEPROMや、ハードディスク等の不揮発性メモリーを備え、各種データを書き換え可能に不揮発的に記憶する。情報処理装置記憶部33は、地図データ33aを記憶する。地図データ33aは、表示装置32に地図を表示するときに用いられる情報や、経路の検索に用いられる情報(いわゆるリンクに関する情報や、いわゆるノードに関する情報等。)を記憶する。また、地図データ33aは、駐車場等の車両Sが駐車可能な施設に関し、施設内の詳細な地図や、施設の構造を示す情報(以下、「駐車地図情報」という。)を記憶する。
The information processing device communication unit 31 wirelessly communicates with an external device (including the mobile terminal 3) according to the Wi-Fi standard under the control of the information processing device control unit 30.
The display device 32 includes a display panel such as a liquid crystal panel or an organic EL panel, and displays an image on the display panel under the control of the information processing device control unit 30.
The information processing device storage unit 33 includes a non-volatile memory such as an EEPROM and a hard disk, and stores various data in a rewritable non-volatile manner. The information processing device storage unit 33 stores the map data 33a. The map data 33a stores information used when displaying a map on the display device 32 and information used for route search (information on so-called links, information on so-called nodes, and the like). Further, the map data 33a stores a detailed map of the facility such as a parking lot where the vehicle S can park, and information indicating the structure of the facility (hereinafter, referred to as "parking map information").

操作入力部34は、情報処理装置4に設けられたスイッチ等の操作子を備え、ユーザーによる操作子に対する操作を検出し、検出した操作に対応する信号を情報処理装置制御部30に出力する。情報処理装置制御部30は、操作入力部34からの入力に基づいて、ユーザーによる操作子に対する操作に対応する処理を実行する。 The operation input unit 34 includes an operator such as a switch provided in the information processing device 4, detects an operation on the operator by the user, and outputs a signal corresponding to the detected operation to the information processing device control unit 30. The information processing device control unit 30 executes a process corresponding to an operation on the operator by the user based on the input from the operation input unit 34.

GPSユニット35は、図示しないGPSアンテナを介してGPS衛星からのGPS電波を受信し、GPS電波に重畳されたGPS信号から、車両Sの現在の位置と、車両Sの進行方向とを算出する。GPSユニット35は、算出した車両Sの現在の位置を示す情報、及び、算出した車両Sの進行方向を示す情報を情報処理装置制御部30に出力する。
相対方位検出ユニット36は、ジャイロセンサーと、加速度センサーとを備える。ジャイロセンサーは、例えば振動ジャイロにより構成され、車両Sの相対的な方位(例えば、ヨー軸方向の旋回量。)を検出する。加速度センサーは、車両Sに作用する加速度(例えば、進行方向に対する車両の傾き。)を検出する。相対方位検出ユニット36は、検出した車両Sの相対的な方位を示す情報、及び、検出した車両Sに作用する加速度を示す情報を情報処理装置制御部30に出力する。
The GPS unit 35 receives GPS radio waves from GPS satellites via GPS antennas (not shown), and calculates the current position of the vehicle S and the traveling direction of the vehicle S from the GPS signals superimposed on the GPS radio waves. The GPS unit 35 outputs the calculated information indicating the current position of the vehicle S and the calculated information indicating the traveling direction of the vehicle S to the information processing device control unit 30.
The relative bearing detection unit 36 includes a gyro sensor and an acceleration sensor. The gyro sensor is composed of, for example, a vibrating gyro, and detects a relative orientation of the vehicle S (for example, a turning amount in the yaw axis direction). The acceleration sensor detects the acceleration acting on the vehicle S (for example, the inclination of the vehicle with respect to the traveling direction). The relative orientation detection unit 36 outputs information indicating the relative orientation of the detected vehicle S and information indicating the acceleration acting on the detected vehicle S to the information processing device control unit 30.

バスインターフェース37は、バス6に対応する通信インターフェースを備え、情報処理装置制御部30の制御で、バス6に接続された外部の装置(車両駆動制御装置5を含む。)と通信する。
カメラインターフェース38は、情報処理装置制御部30の制御で、車両Sに設けられたカメラと通信する。
車両Sには、車外を撮影するカメラとして、前方撮影用カメラCA1と、前方右側撮影用カメラCA2と、側方右側撮影用カメラCA3と、後方右側撮影用カメラCA4と、後方撮影用カメラCA5と、後方左側撮影用カメラCA6と、側方左側撮影用カメラCA7と、前方左側撮影用カメラCA8とが設けられる。以下、車外を撮影するカメラを区別しない場合、「車外撮影用カメラ」と表現する。
The bus interface 37 includes a communication interface corresponding to the bus 6, and communicates with an external device (including a vehicle drive control device 5) connected to the bus 6 under the control of the information processing device control unit 30.
The camera interface 38 communicates with a camera provided in the vehicle S under the control of the information processing device control unit 30.
The vehicle S includes a front shooting camera CA1, a front right shooting camera CA2, a side right shooting camera CA3, a rear right shooting camera CA4, and a rear shooting camera CA5 as cameras for shooting the outside of the vehicle. A rear left side shooting camera CA6, a side left side shooting camera CA7, and a front left side shooting camera CA8 are provided. Hereinafter, when the cameras that shoot outside the vehicle are not distinguished, they are referred to as "cameras for shooting outside the vehicle".

図6は、車外撮影用カメラが撮影する方向の説明に用いる図である。なお、図6は、後述する車外画像G2の切り替えの説明にも用いる。
前方撮影用カメラCA1は、車両Sの前方(図6参照。)を撮影するカメラである。
前方右側撮影用カメラCA2は、車両Sの前方右側(図6参照。)を撮影するカメラである。
側方右側撮影用カメラCA3は、車両Sの側方右側(図6参照。)を撮影するカメラである。
後方右側撮影用カメラCA4は、車両Sの後方右側(図6参照。)を撮影するカメラである。
後方撮影用カメラCA5は、車両Sの後方(図6参照。)を撮影するカメラである。
後方左側撮影用カメラCA6は、車両Sの後方左側(図6参照。)を撮影するカメラである。
側方左側撮影用カメラCA7は、車両Sの側方左側(図6参照。)を撮影するカメラである。
前方左側撮影用カメラCA8は、車両Sの前方左側(図6参照。)を撮影するカメラである。
車外撮影用カメラのそれぞれは、所定の周期で撮影を実行し、撮影結果に基づいて撮影画像データを生成し、生成した撮影画像データを、カメラインターフェース38を介して、情報処理装置制御部30に出力する。
なお、車両Sに設けられる車外撮影用カメラの態様は、本実施形態に係る態様に限らない。一例として、車両Sに以下の態様で車外撮影用カメラが設けられる構成でもよい。すなわち、車両Sに、車外撮影用カメラとして、前方撮影用カメラCA1、側方右側撮影用カメラCA3、後方撮影用カメラCA5、側方左側撮影用カメラCA7の4台のカメラを設け、側方右側撮影用カメラCA3によって車両Sの側方右側、及び前方右側を撮影し、後方撮影用カメラCA5によって車両Sの後方、後方右側、及び後方左側を撮影し、側方左側撮影用カメラ車両Sの側方左側、及び前方左側を撮影する構成でもよい。
FIG. 6 is a diagram used to explain the direction in which the camera for shooting outside the vehicle shoots. Note that FIG. 6 is also used for a description of switching the outside image G2, which will be described later.
The front camera CA1 is a camera that shoots the front of the vehicle S (see FIG. 6).
The front right side photographing camera CA2 is a camera that photographs the front right side (see FIG. 6) of the vehicle S.
The side right side photographing camera CA3 is a camera that photographs the side right side (see FIG. 6) of the vehicle S.
The rear right side photographing camera CA4 is a camera that photographs the rear right side (see FIG. 6) of the vehicle S.
The rear-view camera CA5 is a camera that shoots the rear of the vehicle S (see FIG. 6).
The rear left side photographing camera CA6 is a camera that photographs the rear left side (see FIG. 6) of the vehicle S.
The side left side photographing camera CA7 is a camera that photographs the side left side (see FIG. 6) of the vehicle S.
The front left side photographing camera CA8 is a camera that photographs the front left side (see FIG. 6) of the vehicle S.
Each of the cameras for outside the vehicle executes shooting at a predetermined cycle, generates captured image data based on the captured result, and transmits the generated captured image data to the information processing device control unit 30 via the camera interface 38. Output.
The mode of the camera for outside-vehicle photography provided in the vehicle S is not limited to the mode according to the present embodiment. As an example, the vehicle S may be provided with a camera for shooting outside the vehicle in the following manner. That is, the vehicle S is provided with four cameras, a front camera CA1, a side right camera CA3, a rear camera CA5, and a side left camera CA7, as cameras for outside the vehicle, and the side right side. The side right side and front right side of the vehicle S are photographed by the photographing camera CA3, the rear, rear right side, and rear left side of the vehicle S are photographed by the rear photographing camera CA5, and the side left side photographing camera vehicle S side. The left side of the camera and the left side of the front may be photographed.

また、上述した車外撮影用カメラのうち、前方撮影用カメラCA1、側方右側撮影用カメラCA3、後方撮影用カメラCA5、及び側方左側撮影用カメラCA7は、俯瞰画像データ(後述)の生成に用いるカメラとして用いられる。以下、俯瞰画像データの生成に用いるカメラを区別しない場合、「俯瞰用カメラ」と表現する。俯瞰用カメラのそれぞれは、広角カメラであり、俯瞰画像データの生成に用いられるという観点で、車両Sの適切な位置に設けられる。 Further, among the above-mentioned cameras for external photography, the front camera CA1, the side right camera CA3, the rear camera CA5, and the side left camera CA7 are used to generate bird's-eye view image data (described later). It is used as a camera to be used. Hereinafter, when the cameras used for generating the bird's-eye view image data are not distinguished, they are referred to as "bird's-eye view cameras". Each of the bird's-eye view cameras is a wide-angle camera, and is provided at an appropriate position of the vehicle S from the viewpoint of being used for generating bird's-eye view image data.

図7は、車両駆動制御装置5の機能的構成を示すブロック図である。
図7に示すように、車両駆動制御装置5は、車両駆動制御装置制御部50と、路車間通信部51と、車車間通信部52と、レーダー装置53と、車速センサー54と、ヨーレートセンサー55と、バスインターフェース56とを備える。
車両駆動制御装置制御部50は、CPUや、ROM、RAM、ASIC、信号処理回路等を備え、車両駆動制御装置5の各部を制御する。車両駆動制御装置制御部50は、例えばCPUが、ROMに記憶されたプログラムをRAMに読み出して処理を実行し、また例えばASICに実装された機能により処理を実行し、また例えば信号処理回路で信号処理を行って処理を実行する等、ハードウェアとソフトウェアとの協働により処理を実行する。
FIG. 7 is a block diagram showing a functional configuration of the vehicle drive control device 5.
As shown in FIG. 7, the vehicle drive control device 5 includes a vehicle drive control device control unit 50, a road-to-vehicle communication unit 51, a vehicle-to-vehicle communication unit 52, a radar device 53, a vehicle speed sensor 54, and a yaw rate sensor 55. And a bus interface 56.
The vehicle drive control device control unit 50 includes a CPU, ROM, RAM, ASIC, signal processing circuit, and the like, and controls each unit of the vehicle drive control device 5. In the vehicle drive control device control unit 50, for example, the CPU reads the program stored in the ROM into the RAM and executes the process, executes the process by the function implemented in the ASIC, for example, and signals in the signal processing circuit, for example. The process is executed in cooperation with hardware and software, such as performing the process and executing the process.

路車間通信部51は、道路等に設置された路側機から、光ビーコンや、電波ビーコン、DSRC(Dedicated Short Range Communications)などの狭帯域無線通信によって送信される情報を受信する。路側機から路車間通信部51に送信される情報には、例えば、他の車両に関する情報や、歩行者に関する情報等が含まれる。路車間通信部51は、路側機から受信した情報を車両駆動制御装置制御部50に出力する。 The road-to-vehicle communication unit 51 receives information transmitted by narrow-band wireless communication such as an optical beacon, a radio wave beacon, and DSRC (Dedicated Short Range Communications) from a roadside unit installed on a road or the like. The information transmitted from the roadside unit to the road-to-vehicle communication unit 51 includes, for example, information about other vehicles, information about pedestrians, and the like. The road-to-vehicle communication unit 51 outputs the information received from the roadside unit to the vehicle drive control device control unit 50.

車車間通信部52は、車両Sの周辺に位置する他の車両との間で情報を無線通信によって相互に送受信する。車車間通信部52により送受信する情報には、例えば、車両S及び他の車両を識別する識別情報や、車両S及び他の車両の位置を示す情報、車両S及び他の車両の速度を示す情報、車両S及び他の車両の進行方向を示す情報、車両S及び他の車両が停止するタイミングを示す情報等が含まれる。車車間通信部52は、受信した情報を車両駆動制御装置制御部50に出力する。 The vehicle-to-vehicle communication unit 52 transmits and receives information to and from other vehicles located in the vicinity of the vehicle S by wireless communication. The information transmitted and received by the vehicle-to-vehicle communication unit 52 includes, for example, identification information for identifying the vehicle S and other vehicles, information indicating the position of the vehicle S and other vehicles, and information indicating the speed of the vehicle S and other vehicles. , Information indicating the traveling direction of the vehicle S and other vehicles, information indicating the timing at which the vehicle S and other vehicles stop, and the like are included. The vehicle-to-vehicle communication unit 52 outputs the received information to the vehicle drive control device control unit 50.

レーダー装置53は、例えば、ミリ波レーダーや、レーザーレーダー等の電波や、超音波レーダー等の音波等を車外に向けて照射する。レーダー装置53は、車両Sの周辺に存在する対象物(例えば、他の車両や、人物。)により反射された反射波を受信することで、車両Sの周辺に存在する対象物を検出する。レーダー装置114は、検出した対象物に関する情報を車両駆動制御装置制御部50に出力する。 The radar device 53 irradiates, for example, a radio wave such as a millimeter wave radar or a laser radar, a sound wave such as an ultrasonic radar, or the like toward the outside of the vehicle. The radar device 53 detects an object existing in the vicinity of the vehicle S by receiving a reflected wave reflected by an object (for example, another vehicle or a person) existing in the vicinity of the vehicle S. The radar device 114 outputs information about the detected object to the vehicle drive control device control unit 50.

車速センサー54は、車両Sの速度(以下、「車速」という。)を検出して、検出した車速を示す情報を車両駆動制御装置制御部50に出力する。
ヨーレートセンサー55は、車両Sにかかるヨーレートを検出し、検出したヨーレートを示す情報を車両駆動制御装置制御部50に出力する。
The vehicle speed sensor 54 detects the speed of the vehicle S (hereinafter, referred to as “vehicle speed”) and outputs information indicating the detected vehicle speed to the vehicle drive control device control unit 50.
The yaw rate sensor 55 detects the yaw rate applied to the vehicle S, and outputs information indicating the detected yaw rate to the vehicle drive control device control unit 50.

バスインターフェース56は、バス6に対応する通信インターフェースを備え、車両駆動制御装置制御部50の制御で、バス6に接続された外部の装置(情報処理装置4を含む。)と通信する。 The bus interface 56 includes a communication interface corresponding to the bus 6, and communicates with an external device (including an information processing device 4) connected to the bus 6 under the control of the vehicle drive control device control unit 50.

図7に示すように、バス6には、ECUとして、エンジンECU60と、トランスミッションECU61と、ブレーキECU62と、ステアリングECU63とが接続される。車両駆動制御装置5の車両駆動制御装置制御部50は、バス6を介して、各ECUに制御信号を出力し、各ECUを制御する。 As shown in FIG. 7, the engine ECU 60, the transmission ECU 61, the brake ECU 62, and the steering ECU 63 are connected to the bus 6 as ECUs. The vehicle drive control device control unit 50 of the vehicle drive control device 5 outputs a control signal to each ECU via the bus 6 to control each ECU.

エンジンECU60は、車両駆動制御装置制御部50から入力される制御信号に基づいて、エンジンの吸気管に設けられた電子スロットルバルブを開閉するスロットルアクチュエーターを制御して、エンジンの回転数を調整する。
トランスミッションECU61は、車両駆動制御装置制御部50から入力される制御信号に基づいて、変速機に供給される作動油の油圧を調整する油圧制御装置を制御して変速機に供給される作動油の油圧を調整し、変速機の変速比を切り替え、エンジンから伝達される回転数やトルクを変化させる。特に、トランスミッションECU61は、車両駆動制御装置制御部50から入力される制御信号に基づいて、車両Sのギアの状態を、パーキング(P)、リバース(R)、ドライブ(D)、ニュートラル(N)、及びロー(L)の間で切り替える。
ブレーキECU62は、車両駆動制御装置制御部50から入力される制御信号に基づいて、車両Sの車輪に設けられたブレーキ装置を制御して、車両Sの制動を行う。
ステアリングECU63は、車両駆動制御装置制御部50から入力される制御信号に基づいて、車両Sに設けられたステアリング装置を制御して、車両Sの操舵を行う。
The engine ECU 60 controls a throttle actuator that opens and closes an electronic throttle valve provided in the intake pipe of the engine based on a control signal input from the vehicle drive control device control unit 50 to adjust the engine rotation speed.
The transmission ECU 61 controls the hydraulic control device that adjusts the oil pressure of the hydraulic oil supplied to the transmission based on the control signal input from the vehicle drive control device control unit 50, and the hydraulic oil supplied to the transmission. It adjusts the flood control, switches the gear ratio of the transmission, and changes the number of revolutions and torque transmitted from the engine. In particular, the transmission ECU 61 changes the gear state of the vehicle S to parking (P), reverse (R), drive (D), and neutral (N) based on the control signal input from the vehicle drive control device control unit 50. , And switch between low (L).
The brake ECU 62 controls the brake device provided on the wheel of the vehicle S based on the control signal input from the vehicle drive control device control unit 50 to brake the vehicle S.
The steering ECU 63 controls the steering device provided in the vehicle S based on the control signal input from the vehicle drive control device control unit 50 to steer the vehicle S.

車両駆動制御装置5は、自動運転経路情報に基づいて、ユーザーによる車両Sの運転を伴うことなく、車両Sを、車両Sが停車する停車位置から、車両Sを停車位置から移動させて停車させる目標とする位置である目標位置へ、自動で移動させて停車させることができる。後述するように、情報処理装置4は、車両自動移動に際し、自動運転経路情報を車両駆動制御装置5に出力する。 Based on the automatic driving route information, the vehicle drive control device 5 moves the vehicle S from the stop position where the vehicle S stops and stops the vehicle S from the stop position without the user driving the vehicle S. It can be automatically moved to the target position, which is the target position, and stopped. As will be described later, the information processing device 4 outputs the automatic driving route information to the vehicle drive control device 5 when the vehicle automatically moves.

図8は、自動運転経路情報の説明に用いる図である。
自動運転経路情報とは、停車位置に停車する車両Sを原点として、車両Sの前後方向をy軸、車両Sの左右方向をx軸とする仮想座標系において、停車位置から目標位置に至るまでの車両Sの軌跡を示す軌跡情報を含む。軌跡情報は、仮想座標系において車両Sの軌跡を表す点のそれぞれの座標を示す情報と、各点における車両Sの仮想座標系における方向を示す情報とを含む。
図8は、仮想座標系の一例である仮想座標系KZ1と、仮想座標系KZ1における車両Sの軌跡の一例を、説明に適した態様で単純化して示している。図8で例示する軌跡の場合、軌跡情報は、点P0(原点であり、停車位置に対応する点。)、点P1、点P2、点P3、点P4、及び点P5(目標位置に対応する点。)のそれぞれの座標を示す情報と、各点における車両Sの仮想座標系KZ1における方向を示す情報とを含む。
FIG. 8 is a diagram used for explaining the automatic driving route information.
The automatic driving route information is from the stop position to the target position in a virtual coordinate system in which the vehicle S stopped at the stop position is the origin, the front-rear direction of the vehicle S is the y-axis, and the left-right direction of the vehicle S is the x-axis. Includes trajectory information indicating the trajectory of the vehicle S of the vehicle S. The locus information includes information indicating the coordinates of the points representing the locus of the vehicle S in the virtual coordinate system and information indicating the direction of the vehicle S in the virtual coordinate system at each point.
FIG. 8 shows an example of the virtual coordinate system KZ1 which is an example of the virtual coordinate system and an example of the trajectory of the vehicle S in the virtual coordinate system KZ1 in a simplified manner suitable for explanation. In the case of the locus illustrated in FIG. 8, the locus information includes point P0 (the origin and the point corresponding to the stop position), point P1, point P2, point P3, point P4, and point P5 (corresponding to the target position). Includes information indicating the coordinates of each point) and information indicating the direction of the vehicle S in the virtual coordinate system KZ1 at each point.

車両駆動制御装置5の車両駆動制御装置制御部50は、自動運転経路情報、及び、車車間通信部52、レーダー装置53、車速センサー54、及びヨーレートセンサー55からの入力に基づいて、エンジンECU60、トランスミッションECU61、ブレーキECU62、及びステアリングECU63に制御信号を出力し、停車位置に停車する車両Sを、自動運転経路情報が含む軌道情報に対応する軌道で目標位置まで移動させ、目標位置に停車させる。 The vehicle drive control device control unit 50 of the vehicle drive control device 5 is based on the automatic driving route information and the inputs from the vehicle-to-vehicle communication unit 52, the radar device 53, the vehicle speed sensor 54, and the yaw rate sensor 55. A control signal is output to the transmission ECU 61, the brake ECU 62, and the steering ECU 63, and the vehicle S stopped at the stop position is moved to the target position on the track corresponding to the track information included in the automatic driving route information, and stopped at the target position.

以上、車両駆動制御装置5が、自動運転経路情報に基づいて、車両Sを停車位置から、目標位置へ自動で移動させる方法について説明した。ただし、車両駆動制御装置5が、車両Sを停車位置から、目標位置へ移動させる方法は、上述した方法に限られず、どのような方法であってもよい。また、車両Sを停車位置から、目標位置へ自動で移動させる際に、車両駆動制御装置5が使用するセンサーや、ECU、装置等も、本実施形態に係るセンサーや、ECU、装置等に限られない。また、自動運転経路情報の内容も、車両駆動制御装置5が、車両Sを停車位置から、目標位置へ自動で移動させる際に用いられる情報であれば、どのような内容であってもよい。 The method in which the vehicle drive control device 5 automatically moves the vehicle S from the stopped position to the target position based on the automatic driving route information has been described above. However, the method in which the vehicle drive control device 5 moves the vehicle S from the stopped position to the target position is not limited to the above-mentioned method, and may be any method. Further, the sensors, ECUs, devices, etc. used by the vehicle drive control device 5 when the vehicle S is automatically moved from the stopped position to the target position are limited to the sensors, ECUs, devices, etc. according to the present embodiment. I can't. Further, the content of the automatic driving route information may be any content as long as it is information used when the vehicle drive control device 5 automatically moves the vehicle S from the stopped position to the target position.

次に、車両自動移動が行われる場合の情報処理システム1の各装置の動作について、車両Sを駐車させる場合と、車両Sを出庫させる場合とを例にして説明する。上述したように、駐車とは、駐車位置の近傍の駐車前位置に停車している車両Sを駐車位置に移動させて停車させることを意味する。また、出庫とは、駐車位置に停車している車両Sを、駐車位置の近傍の出庫後停車位置に移動させて停車させることを意味する。 Next, the operation of each device of the information processing system 1 when the vehicle is automatically moved will be described by exemplifying a case where the vehicle S is parked and a case where the vehicle S is discharged. As described above, parking means moving the vehicle S parked at the position before parking near the parking position to the parking position and stopping the vehicle S. Further, the warehousing means that the vehicle S parked at the parking position is moved to the warehousing stop position near the parking position and then stopped.

<車両Sを駐車させる場合>
まず、車両Sを駐車させる場合について、説明する。
図9のフローチャートFAは、情報処理装置4の動作を示すフローチャートであり、フローチャートFBは、携帯端末3の動作を示すフローチャートである。
以下、複数の駐車領域が設けられた駐車場の1つの駐車領域に対応する駐車位置に、車両Sを駐車させる場合を例にして、情報処理装置4、及び携帯端末3の動作について説明する。
<When parking vehicle S>
First, a case where the vehicle S is parked will be described.
The flowchart FA of FIG. 9 is a flowchart showing the operation of the information processing device 4, and the flowchart FB is a flowchart showing the operation of the mobile terminal 3.
Hereinafter, the operations of the information processing device 4 and the mobile terminal 3 will be described by taking as an example a case where the vehicle S is parked at a parking position corresponding to one parking area of a parking lot provided with a plurality of parking areas.

ユーザーは、車両自動移動により駐車を行う場合、駐車位置の近辺の駐車前位置に車両Sを停車させる。
図10は、駐車場の一例である駐車場ST1と、駐車場ST1における駐車前位置の一例である駐車前位置PS1と、駐車場ST1における駐車位置の一例である駐車位置PS2とを示す図である。
駐車場ST1は、車両が駐車可能な駐車領域として、3つの駐車領域AR1、駐車領域AR2、及び駐車領域AR3を有する。駐車領域AR1、及び駐車領域AR3には、車両Sとは異なる他の車両が既に駐車している。このような場合において、例えば、ユーザーは、駐車領域AR2の駐車位置PS2を、車両Sの駐車を希望する位置として決定し、駐車位置PS2の近辺の駐車前位置PS1に車両Sを停車させる。
When parking by automatic vehicle movement, the user stops the vehicle S at a position before parking near the parking position.
FIG. 10 is a diagram showing a parking lot ST1 which is an example of a parking lot, a parking lot position PS1 which is an example of a parking lot pre-parking position in the parking lot ST1, and a parking lot position PS2 which is an example of a parking position in the parking lot ST1. is there.
The parking lot ST1 has three parking areas AR1, a parking area AR2, and a parking area AR3 as parking areas where vehicles can park. Another vehicle different from the vehicle S is already parked in the parking area AR1 and the parking area AR3. In such a case, for example, the user determines the parking position PS2 in the parking area AR2 as a desired position for parking the vehicle S, and stops the vehicle S at the pre-parking position PS1 near the parking position PS2.

図9のフローチャートFAに示すように、駐車前位置に車両Sを停車させた後、ユーザーは、情報処理装置4の操作入力部34を操作して、情報処理装置4の動作モードを、駐車モードへ変更する(ステップS1)。
ユーザーによって、動作モードが、駐車モードへ変更されると、情報処理装置4の情報処理装置制御部30は、駐車位置決定処理を実行する(ステップSA1)。
駐車位置決定処理は、車両Sを駐車可能な駐車領域を特定し、駐車位置を決定する処理である。
ステップSA1の駐車位置決定処理において、情報処理装置制御部30は、GPSユニット35から入力される情報、相対方位検出ユニット36から入力される情報、及び地図データ33aが有する情報等に基づいて、車両Sの現在の位置(駐車前位置)を特定する。車両Sの現在の位置を特定する方法は、どのような方法であってもよく、また、上述した情報以外の情報を用いてもよい。例えば、車両Sの現在の位置を特定する際に、GLONASS、Galileo、Beidou、QZSS(みちびき)等の測位衛星システムの信号に基づく情報を利用してもよい。
As shown in the flowchart FA of FIG. 9, after the vehicle S is stopped at the position before parking, the user operates the operation input unit 34 of the information processing device 4 to change the operation mode of the information processing device 4 to the parking mode. (Step S1).
When the operation mode is changed to the parking mode by the user, the information processing device control unit 30 of the information processing device 4 executes the parking position determination process (step SA1).
The parking position determination process is a process of identifying a parking area in which the vehicle S can be parked and determining the parking position.
In the parking position determination process of step SA1, the information processing device control unit 30 bases the vehicle based on the information input from the GPS unit 35, the information input from the relative orientation detection unit 36, the information contained in the map data 33a, and the like. Identify the current position of S (position before parking). The method for specifying the current position of the vehicle S may be any method, and information other than the above-mentioned information may be used. For example, when specifying the current position of the vehicle S, information based on signals of a positioning satellite system such as GLONASS, Galileo, Beidou, or QZSS (MICHIBIKI) may be used.

次いで、情報処理装置制御部30は、車両Sに設けられたカメラのそれぞれから入力される撮影画像データや、地図データ33aの情報等に基づいて、車両Sの現在の位置の近辺に存在する駐車領域であって、車両Sが駐車可能な駐車領域を特定する。情報処理装置制御部30は、地図データ33aが、車両Sの現在の位置が属する駐車場に係る駐車地図情報を有する場合は、当該駐車地図情報を用いて、駐車領域を特定する。車両Sの現在の位置の近辺に存在する駐車領域を特定する方法は、どのような方法であってもよい。
次いで、情報処理装置制御部30は、特定した駐車領域に対応する位置を駐車位置として決定する。
Next, the information processing device control unit 30 parks in the vicinity of the current position of the vehicle S based on the captured image data input from each of the cameras provided in the vehicle S, the information of the map data 33a, and the like. A parking area in which the vehicle S can be parked is specified. When the map data 33a has parking map information related to the parking lot to which the current position of the vehicle S belongs, the information processing device control unit 30 specifies the parking area by using the parking map information. Any method may be used to identify the parking area existing in the vicinity of the current position of the vehicle S.
Next, the information processing device control unit 30 determines the position corresponding to the specified parking area as the parking position.

ステップSA1で駐車位置を決定した後、情報処理装置制御部30は、自動運転経路情報生成処理を実行する(ステップSA2)。
自動運転経路情報生成処理は、車両Sが停車する現在の位置(駐車前位置)から、ステップSA1で決定した駐車位置に至るまでの軌道を示す軌道情報を含む自動運転経路情報を生成する処理である。
ステップSA2の自動運転経路情報生成処理において、情報処理装置制御部30は、車両Sに設けられたカメラのそれぞれから入力される撮影画像データや、地図データ33aの情報等に基づいて、車両Sの現在の位置から、駐車位置に至る車両Sの軌道を算出する。
図10に示すように、駐車前位置PS1に停車する車両Sを駐車位置PS2に移動させる場合において、情報処理装置制御部30は、例えば、駐車前位置から駐車位置に至る車両Sの軌道として、軌道KDを算出する。図10で例示する軌道KDは、駐車前位置PS1から、軌道KD上の位置MDに至る軌道KD1と、位置MDから駐車位置PS2に至る軌道KD2とを有する。軌道KD1は、車両Sが、駐車前位置PS1から進行方向に向かって左に曲がりつつ「前進」し、位置MDで一時停止する軌道である。軌道KD2は、車両Sが、位置MDから進行方向に向かって左に曲がりつつ「後進」し、駐車位置PS2で停車する軌道である。
次いで、情報処理装置制御部30は、車両Sの現在の位置を原点とする仮想座標系を定義するともに、定義した仮想座標系に、車両Sの軌道に対応する線分を展開し、展開した線分に基づいて、軌道情報を生成し、軌道情報を含む自動運転経路情報を生成する。
After determining the parking position in step SA1, the information processing apparatus control unit 30 executes the automatic driving route information generation process (step SA2).
The automatic driving route information generation process is a process of generating automatic driving route information including track information indicating a track from the current position where the vehicle S stops (position before parking) to the parking position determined in step SA1. is there.
In the automatic driving route information generation process in step SA2, the information processing device control unit 30 of the vehicle S is based on the captured image data input from each of the cameras provided in the vehicle S, the information of the map data 33a, and the like. From the current position, the track of the vehicle S reaching the parking position is calculated.
As shown in FIG. 10, when the vehicle S stopped at the pre-parking position PS1 is moved to the parking position PS2, the information processing device control unit 30 uses, for example, the track of the vehicle S from the pre-parking position to the parking position. Calculate the orbit KD. The track KD illustrated in FIG. 10 has a track KD1 from the position PS1 before parking to the position MD on the track KD, and a track KD2 from the position MD to the parking position PS2. The track KD1 is a track in which the vehicle S "forwards" while turning left in the direction of travel from the position PS1 before parking, and temporarily stops at the position MD. The track KD2 is a track in which the vehicle S "reverses" while turning left in the direction of travel from the position MD and stops at the parking position PS2.
Next, the information processing device control unit 30 defines a virtual coordinate system with the current position of the vehicle S as the origin, and develops and develops a line segment corresponding to the trajectory of the vehicle S in the defined virtual coordinate system. Track information is generated based on the line segment, and automatic operation route information including track information is generated.

一方、ステップS1で情報処理装置4の動作モードを、駐車モードへ変更した後、ユーザーは、携帯端末3を携帯した状態で車両Sを降車し、車外に出る。なお、ユーザーは、必ずしも車両Sを降車する必要は無いが、本実施形態では、説明の便宜のため、ユーザーが車両Sを降車するものとして説明する。
車外に出た後、ユーザーは、携帯端末3のタッチパネル9を操作して、専用アプリケーションAPを起動する(ステップS2)。なお、ユーザーは、専用アプリケーションAPを起動する際、携帯端末3の筐体8の向きを、「縦向き」とする。
携帯端末3の端末制御部20は、ステップS2でユーザーにより起動された専用アプリケーションAPの機能により、フローチャートFBの処理を実行する。
On the other hand, after changing the operation mode of the information processing device 4 to the parking mode in step S1, the user gets off the vehicle S with the mobile terminal 3 carried and goes out of the vehicle. The user does not necessarily have to disembark the vehicle S, but in the present embodiment, for convenience of explanation, the user will disembark the vehicle S.
After getting out of the vehicle, the user operates the touch panel 9 of the mobile terminal 3 to activate the dedicated application AP (step S2). When the user activates the dedicated application AP, the orientation of the housing 8 of the mobile terminal 3 is set to "vertical orientation".
The terminal control unit 20 of the mobile terminal 3 executes the process of the flowchart FB by the function of the dedicated application AP activated by the user in step S2.

専用アプリケーションAPの起動に応じて、端末制御部20は、タッチパネル9にロック画面GM1(図11参照。)を表示させる(ステップSB1)。
なお、以下の説明で、特に説明をしない場合であっても、タッチパネル9に画面を表示する処理、ユーザーによる操作、その他の事象に応じて画面の内容を変化させる処理、及びタッチパネル9に表示させる画面を一の画面から他の画面に切り替える処理を実行する主体は、端末制御部20である。
ロック画面GM1を表示した後、端末制御部20は、ロック画面GM1に対して、車両推進制御モードへの移行を指示する入力があったか否かを監視する(ステップSB2)。
以下、ロック画面GM1の内容、及び、ステップSB2の処理について詳述する。
In response to the activation of the dedicated application AP, the terminal control unit 20 causes the touch panel 9 to display the lock screen GM1 (see FIG. 11) (step SB1).
In the following description, even if no particular explanation is given, the process of displaying the screen on the touch panel 9, the process of changing the contents of the screen according to the operation by the user, and other events, and the process of displaying on the touch panel 9. The main body that executes the process of switching the screen from one screen to another is the terminal control unit 20.
After displaying the lock screen GM1, the terminal control unit 20 monitors whether or not there is an input instructing the lock screen GM1 to shift to the vehicle propulsion control mode (step SB2).
Hereinafter, the contents of the lock screen GM1 and the processing of step SB2 will be described in detail.

図11は、ロック画面GM1を示す図である。
ロック画面GM1は、携帯端末3の動作モードを車両推進制御モード(後述)に移行することの指示の入力を受け付ける画面である。ロック画面GM1に対して、後述する態様で動作モードの移行の指示の入力があった場合、端末制御部20は、動作モードを車両推進制御モードへ移行すると共に、タッチパネル9に表示する画面をロック画面GM1から車両制御画面GM2(後述)へ切り替える。後述するように、動作モードが車両推進制御モードの間、ユーザーは、タッチパネル9に対して操作を行って、車両Sの推進を制御することが可能である。
FIG. 11 is a diagram showing the lock screen GM1.
The lock screen GM1 is a screen that accepts input of an instruction to shift the operation mode of the mobile terminal 3 to the vehicle propulsion control mode (described later). When an instruction to shift the operation mode is input to the lock screen GM1 in the manner described later, the terminal control unit 20 shifts the operation mode to the vehicle propulsion control mode and locks the screen displayed on the touch panel 9. Switch from the screen GM1 to the vehicle control screen GM2 (described later). As will be described later, while the operation mode is the vehicle propulsion control mode, the user can operate the touch panel 9 to control the propulsion of the vehicle S.

図11に示すように、ロック画面GM1には、スライドユニットSU1が表示される。スライドユニットSU1は、スライドバーBR1と、スライドボタンSB1とを有する。
スライドバーBR1は、左右方向に延在する帯状のオブジェクトであり、スライドボタンSB1が移動可能な範囲を明示すると共に、スライドボタンSB1の移動を規制する。
スライドボタンSB1は、ユーザーがタッチ操作可能なボタン(以下、タッチ操作可能なボタンを「タッチ操作ボタン」と表現する。)であり、ユーザーのスワイプ操作に応じて、スライドバーBR1に沿って移動する。図11に示すように、スライドボタンSB1は、ユーザーによりタッチ操作が行われていない場合、スライドバーBR1の左端BR1a(一端)に位置した状態が維持される。スライドボタンSB1は、スライドバーBR1の左端BR1aから、右端BR1b(他端)の範囲内で移動可能である。
ロック画面GM1において、スライドユニットSU1の上方には、車両推進制御モードへの移行の指示を入力する場合にユーザーが行うべき操作を簡潔に表現する文言が表示される。
As shown in FIG. 11, the slide unit SU1 is displayed on the lock screen GM1. The slide unit SU1 has a slide bar BR1 and a slide button SB1.
The slide bar BR1 is a strip-shaped object extending in the left-right direction, clearly indicates the range in which the slide button SB1 can move, and restricts the movement of the slide button SB1.
The slide button SB1 is a button that can be touch-operated by the user (hereinafter, the button that can be touch-operated is referred to as a "touch operation button"), and moves along the slide bar BR1 in response to a swipe operation of the user. .. As shown in FIG. 11, the slide button SB1 is maintained in a state of being positioned at the left end BR1a (one end) of the slide bar BR1 when no touch operation is performed by the user. The slide button SB1 can be moved from the left end BR1a of the slide bar BR1 to the right end BR1b (the other end).
On the lock screen GM1, above the slide unit SU1, a wording that simply expresses the operation to be performed by the user when inputting the instruction for shifting to the vehicle propulsion control mode is displayed.

図12は、タッチパネル9に表示される画面の説明に用いる図である。図12では、タッチパネル9に表示された画面と併せて、画面を操作するユーザーの指の一部を示す。
図12の状態J1は、ユーザーがタッチ操作を行っていない状態のロック画面GM1を示している。車両推進制御モードへの移行の指示を入力する場合、ユーザーは、状態J1のロック画面GM1で、スライドバーBR1の左端BR1aに位置するスライドボタンSB1を指でタッチ操作する。次いで、ユーザーは、スワイプ操作を行って、スライドボタンSB1をスライドバーBR1に沿って右方に移動させる。スワイプ操作とは、指がタッチパネル9に接触した状態を維持しつつ、指が接触する位置を移動させる操作を意味する。スワイプ操作に応じて、端末制御部20は、指が接触する位置に追従して、スライドボタンSB1をスライドバーBR1に沿って移動させる。図12の状態J2は、スワイプ操作により、スライドバーBR1の中央部にスライドボタンSB1が位置した状態のロック画面GM1を示している。
FIG. 12 is a diagram used for explaining the screen displayed on the touch panel 9. FIG. 12 shows a part of a user's finger that operates the screen together with the screen displayed on the touch panel 9.
The state J1 in FIG. 12 shows the lock screen GM1 in a state in which the user has not performed a touch operation. When inputting an instruction to shift to the vehicle propulsion control mode, the user touches the slide button SB1 located at the left end BR1a of the slide bar BR1 on the lock screen GM1 in the state J1 with a finger. The user then swipes to move the slide button SB1 to the right along the slide bar BR1. The swipe operation means an operation of moving the position where the finger touches while maintaining the state where the finger touches the touch panel 9. In response to the swipe operation, the terminal control unit 20 follows the position where the finger touches and moves the slide button SB1 along the slide bar BR1. The state J2 in FIG. 12 shows the lock screen GM1 in a state where the slide button SB1 is located at the center of the slide bar BR1 by a swipe operation.

ここで、ロック画面GM1には、車両制御画面GM2(具体的には、後述する俯瞰画像表示画面GM2a。)が背景として表示される。端末制御部20は、ロック画面GM1が状態J1のときは、背景の全体を覆う濃い黒色のマスク画像で、背景として表示される俯瞰画像表示画面GM2aをマスクする。そして、端末制御部20は、スライドバーBR1の左端BR1aとスライドボタンSB1との離間距離が大きいほど、マスク画像の色を薄くする。これにより、ユーザーによるスワイプ操作に応じて、スライドボタンSB1が右方へ移動すればするほど、背景として表示される俯瞰画像表示画面GM2aが鮮明になっていく。ユーザーは、スライドボタンSB1に対するスワイプ操作に応じて、背景として表示された俯瞰画像表示画面GM2aが鮮明になっていく様子を参照することにより、感覚的に、ロック画面GM1に対する入力が適切に行われていることを認識できる。 Here, on the lock screen GM1, the vehicle control screen GM2 (specifically, the bird's-eye view image display screen GM2a described later) is displayed as a background. When the lock screen GM1 is in the state J1, the terminal control unit 20 masks the bird's-eye view image display screen GM2a displayed as the background with a dark black mask image that covers the entire background. Then, the terminal control unit 20 makes the color of the mask image lighter as the distance between the left end BR1a of the slide bar BR1 and the slide button SB1 increases. As a result, the more the slide button SB1 moves to the right in response to the swipe operation by the user, the clearer the bird's-eye view image display screen GM2a displayed as the background becomes. By referring to how the bird's-eye view image display screen GM2a displayed as the background becomes clearer in response to the swipe operation on the slide button SB1, the user can intuitively input to the lock screen GM1 appropriately. You can recognize that.

スワイプ操作を行うユーザーは、スライドボタンSB1をスライドバーBR1の右端BR1bにまで移動させ、所定の期間(例えば、3秒。)、スライドボタンSB1が右端BR1bに位置した状態を維持する。これにより、車両推進制御モードへの移行の指示の入力が完了し、動作モードが車両推進制御モードへ移行する。図12の状態J3は、スライドバーBR1の右端BR1bにスライドボタンSB1が位置した状態のロック画面GM1を示している。状態J3が、所定の期間、継続することにより、車両推進制御モードへの移行の指示の入力が完了する。図12の状態J1、状態J2、及び状態J3の比較で明らかなとおり、スライドボタンSB1が右方に位置するほど、背景の俯瞰画像表示画面GM2aが鮮明となる。
なお、車両推進制御モードへの移行の指示の入力が完了する前に、スワイプ操作が解除されると、端末制御部20は、スワイプ操作の解除に応じて、スライドボタンSB1を、スライドバーBR1の左端BR1aに移動させる。
The user who performs the swipe operation moves the slide button SB1 to the right end BR1b of the slide bar BR1 and maintains the state in which the slide button SB1 is located at the right end BR1b for a predetermined period (for example, 3 seconds). As a result, the input of the instruction for shifting to the vehicle propulsion control mode is completed, and the operation mode shifts to the vehicle propulsion control mode. The state J3 in FIG. 12 shows the lock screen GM1 in which the slide button SB1 is located at the right end BR1b of the slide bar BR1. When the state J3 continues for a predetermined period, the input of the instruction for shifting to the vehicle propulsion control mode is completed. As is clear from the comparison of the states J1, the state J2, and the state J3 in FIG. 12, the more the slide button SB1 is located to the right, the clearer the background bird's-eye view image display screen GM2a is.
If the swipe operation is released before the input of the instruction for shifting to the vehicle propulsion control mode is completed, the terminal control unit 20 presses the slide button SB1 on the slide bar BR1 in response to the release of the swipe operation. Move to the leftmost BR1a.

ステップSB2において、端末制御部20は、タッチパネル9からの入力に基づいて、スライドバーBR1の右端BR1bにスライドボタンSB1が、所定の期間、位置したか否かを監視する。そして、端末制御部20は、スライドバーBR1の右端BR1bにスライドボタンSB1が、所定の期間、位置した場合、車両推進制御モードへの移行を指示する入力があったと判別する。 In step SB2, the terminal control unit 20 monitors whether or not the slide button SB1 is positioned on the right end BR1b of the slide bar BR1 for a predetermined period based on the input from the touch panel 9. Then, the terminal control unit 20 determines that when the slide button SB1 is located at the right end BR1b of the slide bar BR1 for a predetermined period of time, there is an input instructing the shift to the vehicle propulsion control mode.

以上のように、本実施形態では、スライドバーBR1の右端BR1bにスライドボタンSB1が、所定の期間、位置して初めて、車両推進制御モードへの移行の指示の入力が完了する。この構成のため、タッチパネル9にユーザーの指が偶発的に接触し、ユーザーの意図に反して車両推進制御モードへ移行の指示の入力が完了することが防止される。 As described above, in the present embodiment, the input of the instruction to shift to the vehicle propulsion control mode is completed only when the slide button SB1 is positioned at the right end BR1b of the slide bar BR1 for a predetermined period of time. This configuration prevents the user's finger from accidentally touching the touch panel 9 and completing the input of the instruction to shift to the vehicle propulsion control mode against the user's intention.

ステップSB2において、車両推進制御モードへの移行を指示する入力があったと判別した場合(ステップSB2:YES)、端末制御部20は、動作モードを車両推進制御モードへ移行する(ステップSB3)。
動作モードの移行に応じて、端末制御部20は、タッチパネル9に表示する画面をロック画面GM1から、車両制御画面GM2へ切り替える(ステップSB4)。
When it is determined in step SB2 that there is an input instructing the transition to the vehicle propulsion control mode (step SB2: YES), the terminal control unit 20 shifts the operation mode to the vehicle propulsion control mode (step SB3).
The terminal control unit 20 switches the screen displayed on the touch panel 9 from the lock screen GM1 to the vehicle control screen GM2 according to the transition of the operation mode (step SB4).

図12の状態J4は、タッチパネル9に表示される画面がロック画面GM1から車両制御画面GM2へ切り替わった直後の車両制御画面GM2を示している。なお、画面が車両制御画面GM2へと切り替わった直後は、携帯端末3の筐体8の向きは、「縦向き」である。
後に詳述するように、タッチパネル9には、車両制御画面GM2として、筐体8の向きに応じて、俯瞰画像表示画面GM2aと、車外画像表示画面GM2bとのいずれかの画面が表示される。画面が車両制御画面GM2へと切り替わった直後は、筐体8の向きは「縦向き」であり、タッチパネル9には、車両制御画面GM2として俯瞰画像表示画面GM2aが表示される。
図12の状態J4に示すように、端末制御部20は、動作モードの移行に伴う画面の切り替えに応じて、ロック画面GM1におけるスライドボタンSB1を、タッチ操作ボタンである推進制御ボタンQB(操作ボタン)へと切り替え、推進制御ボタンQBを車両制御画面GM2に表示する。すなわち、端末制御部20は、画面の切り替えに応じて、スライドボタンSB1と異なるボタンとして推進制御ボタンQBを改めて表示するのではなく、スライドバーBR1の右端BR1bに位置するスライドボタンSB1を、画面の切り替わり応じて、位置を変更することなく、推進制御ボタンQBとして機能させる。従って、画面が切り替わった直後は、推進制御ボタンQBは、ロック画面GM1におけるスライドバーBR1の右端BR1bに位置し、また、推進制御ボタンQBは、ユーザーによりタッチ操作された状態である。
The state J4 of FIG. 12 shows the vehicle control screen GM2 immediately after the screen displayed on the touch panel 9 is switched from the lock screen GM1 to the vehicle control screen GM2. Immediately after the screen is switched to the vehicle control screen GM2, the orientation of the housing 8 of the mobile terminal 3 is "vertical orientation".
As will be described in detail later, as the vehicle control screen GM2, either the bird's-eye view image display screen GM2a or the vehicle exterior image display screen GM2b is displayed on the touch panel 9 according to the orientation of the housing 8. Immediately after the screen is switched to the vehicle control screen GM2, the orientation of the housing 8 is "vertical", and the touch panel 9 displays the bird's-eye view image display screen GM2a as the vehicle control screen GM2.
As shown in the state J4 of FIG. 12, the terminal control unit 20 changes the slide button SB1 on the lock screen GM1 to the propulsion control button QB (operation button) which is a touch operation button in response to the screen switching accompanying the transition of the operation mode. ), And the propulsion control button QB is displayed on the vehicle control screen GM2. That is, the terminal control unit 20 does not display the propulsion control button QB again as a button different from the slide button SB1 according to the screen switching, but instead displays the slide button SB1 located at the right end BR1b of the slide bar BR1 on the screen. It functions as a propulsion control button QB without changing the position according to the switching. Therefore, immediately after the screen is switched, the propulsion control button QB is located at the right end BR1b of the slide bar BR1 on the lock screen GM1, and the propulsion control button QB is in a state of being touch-operated by the user.

図9のフローチャートFA、及び、フローチャートFBに示すように、携帯端末3の動作モードが車両推進制御モードへ移行した後、情報処理装置4の情報処理装置制御部30、及び携帯端末3の端末制御部20は、協働して車両推進制御処理を実行する(ステップSA3、ステップSB5)。以下、車両推進制御処理について、車両Sの推進の制御に関する処理と、タッチパネル9への表示に関する処理とを分けて説明する。
なお、専用アプリケーションAPが起動したときに、端末制御部20は、Wi-Fiの規格に従って、携帯端末3と情報処理装置4との間で通信経路を確立し、携帯端末3と情報処理装置4との間で通信可能な状態を確立する。通信経路を確立するために必要な情報(例えば、情報処理装置4が携帯端末3を認証するために必要なパスワード等。)は、事前に登録される。
As shown in the flowchart FA and the flowchart FB of FIG. 9, after the operation mode of the mobile terminal 3 shifts to the vehicle propulsion control mode, the information processing device control unit 30 of the information processing device 4 and the terminal control of the mobile terminal 3 The unit 20 cooperates to execute the vehicle propulsion control process (step SA3, step SB5). Hereinafter, the vehicle propulsion control process will be described separately for the process related to the control of the propulsion of the vehicle S and the process related to the display on the touch panel 9.
When the dedicated application AP is activated, the terminal control unit 20 establishes a communication path between the mobile terminal 3 and the information processing device 4 in accordance with the Wi-Fi standard, and the mobile terminal 3 and the information processing device 4 Establish a state where communication is possible with. Information necessary for establishing a communication path (for example, a password required for the information processing device 4 to authenticate the mobile terminal 3) is registered in advance.

<車両Sの推進の制御に関する処理>
まず、車両推進制御処理における車両Sの推進の制御に関する処理について説明する。
車両推進制御処理において、携帯端末3の端末制御部20は、車両制御画面GM2に表示された推進制御ボタンQBがタッチ操作されている間、端末通信部21を制御して、推進指示信号を情報処理装置4に送信する。一方、端末制御部20は、推進制御ボタンQBのタッチ操作の解除に応じて、推進指示信号の送信を停止する。すなわち、端末制御部20は、推進制御ボタンQBがタッチ操作されていない間は、情報処理装置4に推進指示信号を送信しない。後述するように、携帯端末3の筐体8の向きに応じて、車両制御画面GM2として表示される画面が切り替わり、また、ユーザーの操作に応じて、車両制御画面GM2における推進制御ボタンQBの位置が移動する。しかしながら、端末制御部20は、車両制御画面GM2に表示される画面の切り替わりにかかわらず、また、推進制御ボタンQBの位置にかかわらず、推進制御ボタンQBがタッチ操作されている間は、推進指示信号を情報処理装置4に送信し、タッチ操作されていない間は、推進指示信号を情報処理装置4に送信しない。
<Processing related to control of propulsion of vehicle S>
First, the process related to the control of the propulsion of the vehicle S in the vehicle propulsion control process will be described.
In the vehicle propulsion control process, the terminal control unit 20 of the mobile terminal 3 controls the terminal communication unit 21 while the propulsion control button QB displayed on the vehicle control screen GM2 is touch-operated to provide information on the propulsion instruction signal. It is transmitted to the processing device 4. On the other hand, the terminal control unit 20 stops the transmission of the propulsion instruction signal in response to the release of the touch operation of the propulsion control button QB. That is, the terminal control unit 20 does not transmit the propulsion instruction signal to the information processing device 4 while the propulsion control button QB is not touch-operated. As will be described later, the screen displayed as the vehicle control screen GM2 is switched according to the orientation of the housing 8 of the mobile terminal 3, and the position of the propulsion control button QB on the vehicle control screen GM2 is changed according to the user's operation. Moves. However, the terminal control unit 20 gives a propulsion instruction while the propulsion control button QB is touch-operated regardless of the screen switching displayed on the vehicle control screen GM2 and regardless of the position of the propulsion control button QB. The signal is transmitted to the information processing device 4, and the propulsion instruction signal is not transmitted to the information processing device 4 while the touch operation is not performed.

車両推進制御処理において、情報処理装置4の情報処理装置制御部30は、ステップSA2の自動運転経路情報生成処理で生成した自動運転経路情報を、車両駆動制御装置5に出力する。さらに、情報処理装置制御部30は、携帯端末3から推進指示信号を受信している間は、車両駆動制御装置5に、駆動指示信号を出力する。一方、情報処理装置制御部30は、携帯端末3から推進指示信号を受信していない間は、車両駆動制御装置5に、駆動指示信号を出力しない。 In the vehicle propulsion control process, the information processing device control unit 30 of the information processing device 4 outputs the automatic driving route information generated in the automatic driving route information generation process of step SA2 to the vehicle drive control device 5. Further, the information processing device control unit 30 outputs the drive instruction signal to the vehicle drive control device 5 while receiving the propulsion instruction signal from the mobile terminal 3. On the other hand, the information processing device control unit 30 does not output the drive instruction signal to the vehicle drive control device 5 while the propulsion instruction signal is not received from the mobile terminal 3.

車両駆動制御装置5は、情報処理装置4から入力される駆動指示信号に基づいて、以下の処理を実行する。すなわち、車両駆動制御装置5の車両駆動制御装置制御部50は、自動運転経路情報に含まれる軌道情報に基づいて、情報処理装置4から駆動指示信号が入力されている間、軌道情報が示す軌道に沿って、車両Sを移動させる。一方、駆動指示信号が入力されている状態から、入力されていない状態へとなった場合、車両駆動制御装置制御部50は、車両Sを制動し、車両Sの移動を停止する。そして、駆動指示信号が入力されてない状態から、入力された状態へとなった場合、車両駆動制御装置制御部50は、車両Sを発進させ、軌道情報が示す軌道に沿って、車両Sを移動させる。図10を用いて例を挙げて説明すると、車両駆動制御装置制御部50は、駐車前位置PS1に位置する車両Sを発進させた後、駆動指示信号が入力されている間、車両Sを軌道KDに沿って移動させる。そして、車両Sが位置PS3に位置したときに、駆動指示信号が入力されない状態となった場合、車両駆動制御装置制御部50は、車両Sを制動して、車両Sの移動を停止する。この状態で、駆動指示信号が再び入力された場合、車両駆動制御装置制御部50は、位置PS3に位置する車両Sを発進させて、車両Sを軌道KDに沿って移動させる。 The vehicle drive control device 5 executes the following processing based on the drive instruction signal input from the information processing device 4. That is, the vehicle drive control device control unit 50 of the vehicle drive control device 5 is based on the track information included in the automatic driving route information, and the track indicated by the track information while the drive instruction signal is input from the information processing device 4. The vehicle S is moved along. On the other hand, when the state in which the drive instruction signal is input changes to the state in which the drive instruction signal is not input, the vehicle drive control device control unit 50 brakes the vehicle S and stops the movement of the vehicle S. Then, when the drive instruction signal is not input to the input state, the vehicle drive control device control unit 50 starts the vehicle S and moves the vehicle S along the track indicated by the track information. Move. Explaining with reference to FIG. 10, the vehicle drive control device control unit 50 orbits the vehicle S while the drive instruction signal is input after starting the vehicle S located at the position PS1 before parking. Move along the KD. Then, when the vehicle S is located at the position PS3 and the drive instruction signal is not input, the vehicle drive control device control unit 50 brakes the vehicle S and stops the movement of the vehicle S. In this state, when the drive instruction signal is input again, the vehicle drive control device control unit 50 starts the vehicle S located at the position PS3 and moves the vehicle S along the track KD.

以上の処理が行われる結果、ユーザーが、車両制御画面GM2の推進制御ボタンQBをタッチ操作しいる間、車両Sが軌道に沿って移動する一方、ユーザーが推進制御ボタンQBをタッチ操作していない間は、車両Sの移動が停止する。このため、ユーザーは、何らかの理由で車両Sの移動を停止することを望む場合、推進制御ボタンQBのタッチ操作を解除するという簡易な作業を行うことにより、迅速に車両Sの移動を停止することができる。 As a result of the above processing, while the user touches the propulsion control button QB on the vehicle control screen GM2, the vehicle S moves along the track, while the user does not touch the propulsion control button QB. During that time, the movement of the vehicle S stops. Therefore, when the user wishes to stop the movement of the vehicle S for some reason, the movement of the vehicle S can be stopped quickly by performing a simple operation of releasing the touch operation of the propulsion control button QB. Can be done.

<タッチパネル9への表示に関する処理>
次に、車両推進制御処理におけるタッチパネル9への表示に関する処理について説明する。
本実施形態では、タッチパネル9への表示に関する処理に関し、動作モードとして、第1モードと、第2モードとの2つの動作モードがある。ユーザーは、所定の方法で、第1モードと、第2モードとの間で動作モードを切り替えることができる。
以下、動作モードが第1モードの場合の情報処理装置4、及び携帯端末3の動作について説明し、次いで、動作モードが第2モードの場合の情報処理装置4、及び携帯端末3の動作について説明する。
<Processing related to display on touch panel 9>
Next, the process related to the display on the touch panel 9 in the vehicle propulsion control process will be described.
In the present embodiment, regarding the processing related to the display on the touch panel 9, there are two operation modes, the first mode and the second mode, as the operation modes. The user can switch the operation mode between the first mode and the second mode by a predetermined method.
Hereinafter, the operations of the information processing device 4 and the mobile terminal 3 when the operation mode is the first mode will be described, and then the operations of the information processing device 4 and the mobile terminal 3 when the operation mode is the second mode will be described. To do.

<第1モード>
図13のフローチャートFCは、動作モードが第1モードの場合の携帯端末3の動作を示すフローチャートである。図14AのフローチャートFD、及び図14BのフローチャートFEは、それぞれ、動作モードが第1モードの場合の情報処理装置4の動作を示すフローチャートである。
<1st mode>
The flowchart FC of FIG. 13 is a flowchart showing the operation of the mobile terminal 3 when the operation mode is the first mode. The flowchart FD of FIG. 14A and the flowchart FE of FIG. 14B are flowcharts showing the operation of the information processing apparatus 4 when the operation mode is the first mode, respectively.

図13のフローチャートFCに示すように、携帯端末3の端末制御部20は、車両推進制御モードへの移行に応じて、端末通信部21を制御して、車両推進制御モードへ移行したことを示す車両推進制御モード情報を、情報処理装置4に送信する(ステップSC1)。 As shown in the flowchart FC of FIG. 13, the terminal control unit 20 of the mobile terminal 3 controls the terminal communication unit 21 in accordance with the transition to the vehicle propulsion control mode, indicating that the terminal communication unit 21 has shifted to the vehicle propulsion control mode. The vehicle propulsion control mode information is transmitted to the information processing device 4 (step SC1).

図14AのフローチャートFDに示すように、情報処理装置4の情報処理装置制御部30は、車両推進制御モード情報を受信する(ステップSD1)。
情報処理装置制御部30は、車両推進制御モード情報の受信に応じて、車両Sに設けられたカメラのそれぞれから入力される撮影画像データに基づいて、表示装置32への合成画像Gの表示を開始する(ステップSD2)。
As shown in the flowchart FD of FIG. 14A, the information processing device control unit 30 of the information processing device 4 receives the vehicle propulsion control mode information (step SD1).
The information processing device control unit 30 displays the composite image G on the display device 32 based on the captured image data input from each of the cameras provided in the vehicle S in response to the reception of the vehicle propulsion control mode information. Start (step SD2).

図15は、合成画像Gが表示された表示装置32を正面から見た図である。
図15に示すように、表示装置32において画像の表示が可能な表示領域ARの形状は、上下方向に短辺を有し左右方向に長辺を有する長方形状である。なお、上下方向とは、鉛直方向に対応する方向であり、左右方向とは、鉛直方向に直交する方向に対応する方向である。
図15に示すように、合成画像Gは、俯瞰画像G1と、車外画像G2とを有する。
FIG. 15 is a front view of the display device 32 on which the composite image G is displayed.
As shown in FIG. 15, the shape of the display area AR capable of displaying an image on the display device 32 is a rectangle having a short side in the vertical direction and a long side in the horizontal direction. The vertical direction is a direction corresponding to the vertical direction, and the horizontal direction is a direction corresponding to a direction orthogonal to the vertical direction.
As shown in FIG. 15, the composite image G has a bird's-eye view image G1 and a vehicle exterior image G2.

俯瞰画像G1は、車両Sを俯瞰した画像である。図15に示すように、俯瞰画像G1は、上下方向に長辺を有し、左右方向に短辺を有する長方形状の画像であり、表示領域ARの左部に表示される。俯瞰画像G1の右下部には、表示された画像が俯瞰画像G1であることを明示するマークM1が表示される。
車外画像G2は、車外撮影用カメラのうち1つの車外撮影用カメラによる車外の撮影結果に基づく画像である。図15に示すように、車外画像G2は、上下方向に短辺を有し、左右方向に長辺を有する長方形状の画像である。車外画像G2は、俯瞰画像G1の右辺と、車外画像G2の左辺とが重なった状態で、表示領域ARの右部に表示される。車外画像G2の右下部には、マークM2が表示される。マークM2は、車外撮影用カメラのうち、表示装置32に表示されている車外画像G2に対応する撮影画像データの出力元の車外撮影用カメラを明示するマークである。例えば、表示装置32に表示されている車外画像G2に対応する撮影画像データの出力元の車外撮影用カメラが、前方撮影用カメラCA1の場合、マークM2は、車両Sを表すシンボルに対して、車両Sの前方が撮影されたことを明示する装飾が施されたマークである。ユーザーは、マークM2を参照することにより、表示装置32に表示された車外画像G2が、車外撮影用カメラのうち、どの車外撮影用カメラの撮影結果に基づく画像であるのかを的確に認識できる。
The bird's-eye view image G1 is an image of a bird's-eye view of the vehicle S. As shown in FIG. 15, the bird's-eye view image G1 is a rectangular image having a long side in the vertical direction and a short side in the horizontal direction, and is displayed on the left side of the display area AR. At the lower right of the bird's-eye view image G1, a mark M1 indicating that the displayed image is the bird's-eye view image G1 is displayed.
The outside-vehicle image G2 is an image based on the result of shooting outside the vehicle by one of the outside-vehicle shooting cameras. As shown in FIG. 15, the vehicle exterior image G2 is a rectangular image having a short side in the vertical direction and a long side in the horizontal direction. The vehicle exterior image G2 is displayed on the right side of the display area AR in a state where the right side of the bird's-eye view image G1 and the left side of the vehicle exterior image G2 overlap. The mark M2 is displayed at the lower right of the vehicle exterior image G2. The mark M2 is a mark that clearly indicates the out-of-vehicle photography camera that is the output source of the photographed image data corresponding to the out-of-vehicle image G2 displayed on the display device 32 among the out-of-vehicle photography cameras. For example, when the camera for outside the vehicle that outputs the photographed image data corresponding to the outside image G2 displayed on the display device 32 is the front camera CA1, the mark M2 is a symbol representing the vehicle S. It is a decorated mark that clearly indicates that the front of the vehicle S was photographed. By referring to the mark M2, the user can accurately recognize which of the outside-vehicle shooting cameras the outside-vehicle image G2 displayed on the display device 32 is based on the shooting result of the outside-vehicle shooting camera.

合成画像の表示に際し、情報処理装置制御部30は、俯瞰用カメラのそれぞれから入力される撮影画像データを取得する。次いで、俯瞰用カメラのそれぞれから入力される撮影画像データに基づいて、車両Sを俯瞰した画像の画像データ(以下、「俯瞰画像データ」という。)を生成する。車両Sを俯瞰した画像とは、車両Sの全体及び車両Sの周辺を上から見た様子を示す画像である。なお、本実施形態において、画像データとは、色に関する情報(例えば、RGBの各色の色成分を所定階調の階調値で表す情報。)を有するドットが、所定の解像度でドットマトリックス状に配置されたビットマップデータである。俯瞰画像データは、俯瞰画像G1のサイズ(上下方向の長さ、及び左右方向の長さ。)に対応したサイズの所定の解像度の画像データである。俯瞰用カメラから入力される撮影画像データに基づいて俯瞰画像データを生成する処理は、既存の技術により適切に行われる。
俯瞰用カメラのそれぞれは、同期して撮影を実行し、同期して撮影結果に基づく撮影画像データを情報処理装置制御部30に出力する。俯瞰用カメラのそれぞれは、撮影の実行、及び、撮影画像データの出力を、所定の周期(例えば、10ミリ秒。)で実行する。情報処理装置制御部30は、当該所定の周期に対応する周期で、俯瞰用カメラのそれぞれから入力される撮影画像データを取得し、取得した撮影画像データに基づいて俯瞰画像データを生成する。俯瞰画像データの生成に際し、情報処理装置制御部30は、マークM1に対応する画像データを適切な位置に付加して俯瞰画像データを生成する。
When displaying the composite image, the information processing device control unit 30 acquires captured image data input from each of the bird's-eye view cameras. Next, based on the captured image data input from each of the bird's-eye view cameras, image data of an image of a bird's-eye view of the vehicle S (hereinafter, referred to as "overhead image data") is generated. The bird's-eye view of the vehicle S is an image showing the entire vehicle S and the periphery of the vehicle S as viewed from above. In the present embodiment, the image data is a dot matrix in which dots having information on colors (for example, information representing color components of each color of RGB by gradation values of predetermined gradations) have a predetermined resolution. It is the arranged bitmap data. The bird's-eye view image data is image data having a predetermined resolution having a size corresponding to the size of the bird's-eye view image G1 (length in the vertical direction and length in the horizontal direction). The process of generating the bird's-eye view image data based on the photographed image data input from the bird's-eye view camera is appropriately performed by the existing technology.
Each of the bird's-eye view cameras synchronously executes shooting, and synchronously outputs captured image data based on the shooting result to the information processing device control unit 30. Each of the bird's-eye view cameras executes shooting and outputs captured image data at a predetermined cycle (for example, 10 milliseconds). The information processing device control unit 30 acquires photographed image data input from each of the bird's-eye view cameras at a cycle corresponding to the predetermined cycle, and generates bird's-eye view image data based on the acquired photographed image data. When generating the bird's-eye view image data, the information processing apparatus control unit 30 adds the image data corresponding to the mark M1 to an appropriate position to generate the bird's-eye view image data.

また、車外撮影用カメラのそれぞれは、所定の周期で撮影を実行し、撮影結果に基づく撮影画像データを情報処理装置制御部30に出力する。情報処理装置制御部30は、車外撮影用カメラのうちの1つの車外撮影用カメラを選択し、選択した車外撮影用カメラから入力される撮影画像データを取得し、撮影画像データに基づいて、車外画像G2の画像データ(以下、「車外画像データ」という。)を生成する。情報処理装置制御部30は、当該所定の周期に対応する周期で、車外画像データを生成する。車外画像データの生成に際し、情報処理装置制御部30は、マークM2に対応する画像データを適切な位置に付加して車外画像データを生成する。車外画像データは、車外画像G2のサイズ(上下方向の長さ、及び左右方向の長さ。)に対応したサイズの所定の解像度の画像データである。 In addition, each of the cameras for shooting outside the vehicle executes shooting at a predetermined cycle, and outputs captured image data based on the shooting result to the information processing device control unit 30. The information processing device control unit 30 selects one of the cameras for outside photography, acquires the photographed image data input from the selected camera for outside photography, and based on the photographed image data, outside the vehicle. Image data of image G2 (hereinafter referred to as "outside vehicle image data") is generated. The information processing device control unit 30 generates vehicle exterior image data at a cycle corresponding to the predetermined cycle. When generating the vehicle exterior image data, the information processing device control unit 30 adds the image data corresponding to the mark M2 to an appropriate position to generate the vehicle exterior image data. The vehicle exterior image data is image data having a predetermined resolution having a size corresponding to the size of the vehicle exterior image G2 (length in the vertical direction and length in the horizontal direction).

情報処理装置制御部30は、俯瞰用カメラからの入力に基づく俯瞰画像データの生成、及び車外撮影用カメラからの入力に基づく車外画像データの生成を、所定の周期で同期して実行する。情報処理装置制御部30は、所定の周期で、生成した俯瞰画像データと、生成した車外画像データとを、俯瞰画像G1と車外画像G2との位置関係に対応させて合成し、合成画像Gの合成画像データを生成する。情報処理装置制御部30は、生成した合成画像データに基づいて表示装置32を制御し、表示装置32に合成画像データに基づく合成画像Gを表示させる。
この結果、表示装置32に、俯瞰画像G1と、車外画像G2とが合成された合成画像Gが表示される。俯瞰画像G1の内容は、俯瞰用カメラの撮影結果に基づいて、随時、変化し、車外画像G2の内容は、選択された車外撮影用カメラの撮影結果に基づいて、随時、変化する。
The information processing device control unit 30 synchronously executes the generation of the bird's-eye view image data based on the input from the bird's-eye view camera and the generation of the vehicle exterior image data based on the input from the vehicle exterior photography camera at a predetermined cycle. The information processing device control unit 30 synthesizes the generated bird's-eye view image data and the generated vehicle exterior image data in a predetermined cycle according to the positional relationship between the bird's-eye view image G1 and the vehicle exterior image G2, and combines the composite image G Generate composite image data. The information processing device control unit 30 controls the display device 32 based on the generated composite image data, and causes the display device 32 to display the composite image G based on the composite image data.
As a result, the display device 32 displays the composite image G in which the bird's-eye view image G1 and the vehicle exterior image G2 are combined. The content of the bird's-eye view image G1 changes at any time based on the shooting result of the bird's-eye view camera, and the content of the outside vehicle image G2 changes at any time based on the shooting result of the selected outside-vehicle shooting camera.

上述したように、情報処理装置制御部30は、所定の周期で合成画像データを生成し、合成画像Gを表示装置32に表示させる。
表示装置32への合成画像Gの表示に応じて、情報処理装置制御部30は、当該所定の周期で、生成した合成画像データを携帯端末3に送信する(ステップSD3)。
なお、第1モードでは、情報処理装置制御部30が、携帯端末3に対して合成画像データを送信する点で、後述する第2モードと異なる。
As described above, the information processing device control unit 30 generates composite image data at a predetermined cycle, and displays the composite image G on the display device 32.
In response to the display of the composite image G on the display device 32, the information processing device control unit 30 transmits the generated composite image data to the mobile terminal 3 at the predetermined cycle (step SD3).
The first mode is different from the second mode described later in that the information processing device control unit 30 transmits the composite image data to the mobile terminal 3.

フローチャートFCに示すように、携帯端末3の端末制御部20は、情報処理装置4が送信する合成画像データの受信を開始し(ステップSC2)、受信した合成画像データに基づいて、タッチパネル9に俯瞰画像表示画面GM2aを表示させる(ステップSC3)。なお、ステップSC3の処理が実行される時点では、携帯端末3の筐体の向きは、「縦向き」である。
俯瞰画像表示画面GM2aは、図12の状態J3が示すように、俯瞰画像G1が表示されると共に、俯瞰画像G1に重畳して推進制御ボタンQBが表示された画面である。
ステップSC3において、端末制御部20は、以下の処理を行って、タッチパネル9に俯瞰画像表示画面GM2aを表示させる。すなわち、端末制御部20は、所定の周期で受信する合成画像データのそれぞれについて、合成画像データから、俯瞰画像データを抽出する。合成画像データにおける俯瞰画像データの領域は、予め定められており、端末制御部20は、合成画像データから、合成画像データにおける俯瞰画像データの領域に属するデータを切り出すことにより、俯瞰画像データを抽出する。次いで、端末制御部20は、抽出した俯瞰画像データに対して、必要な画像処理(解像度を調整する処理や、サイズを調整する処理等。)を行い、画像処理を行った後の俯瞰画像データに基づいて、俯瞰画像表示画面GM2aをタッチパネル9に表示させる。
俯瞰画像表示画面GM2aに表示される俯瞰画像G1の内容は、俯瞰用カメラの撮影結果に基づいて、情報処理装置4の表示装置32に表示される俯瞰画像G1と同期して、随時、変化する。
As shown in the flowchart FC, the terminal control unit 20 of the mobile terminal 3 starts receiving the composite image data transmitted by the information processing device 4 (step SC2), and based on the received composite image data, a bird's-eye view on the touch panel 9. The image display screen GM2a is displayed (step SC3). At the time when the process of step SC3 is executed, the orientation of the housing of the mobile terminal 3 is "vertical orientation".
The bird's-eye view image display screen GM2a is a screen in which the bird's-eye view image G1 is displayed and the propulsion control button QB is displayed superimposed on the bird's-eye view image G1 as shown in the state J3 of FIG.
In step SC3, the terminal control unit 20 performs the following processing to display the bird's-eye view image display screen GM2a on the touch panel 9. That is, the terminal control unit 20 extracts the bird's-eye view image data from the composite image data for each of the composite image data received at a predetermined cycle. The area of the bird's-eye view image data in the composite image data is predetermined, and the terminal control unit 20 extracts the bird's-eye view image data by cutting out the data belonging to the area of the bird's-eye view image data in the composite image data from the composite image data. To do. Next, the terminal control unit 20 performs necessary image processing (processing for adjusting the resolution, processing for adjusting the size, etc.) on the extracted bird's-eye view image data, and the bird's-eye view image data after performing the image processing. The bird's-eye view image display screen GM2a is displayed on the touch panel 9 based on the above.
The content of the bird's-eye view image G1 displayed on the bird's-eye view image display screen GM2a changes at any time in synchronization with the bird's-eye view image G1 displayed on the display device 32 of the information processing device 4 based on the shooting result of the bird's-eye view camera. ..

ここで、上述したように、俯瞰画像G1は、上下方向(鉛直方向に対応する方向。)に長辺を有し、左右方向(鉛直方向に直交する方向に対応する方向。)に短辺を有する長方形状の画像である。また、携帯端末3の筐体8の向きが「縦向き」の場合、タッチパネル9は、長辺の方向が鉛直方向に沿い、短辺の方向が鉛直方向に直交する方向に沿った状態となる。従って、筐体8の向きが「縦向き」の場合に、俯瞰画像G1をタッチパネル9に表示することにより、俯瞰画像G1が上下方向に長辺を有し、左右方向に短辺を有するという特徴を好適に活用して、俯瞰画像G1を不必要に縮小することなく、タッチパネル9の表示領域の全体を用いて、俯瞰画像G1を表示することができる。このため、ユーザーにとって俯瞰画像G1が見やすく、ユーザーの利便性が向上する。 Here, as described above, the bird's-eye view image G1 has a long side in the vertical direction (direction corresponding to the vertical direction) and a short side in the left-right direction (direction corresponding to the direction orthogonal to the vertical direction). It is a rectangular image having. When the orientation of the housing 8 of the mobile terminal 3 is "vertical", the touch panel 9 is in a state where the long side direction is along the vertical direction and the short side direction is along the direction orthogonal to the vertical direction. .. Therefore, when the orientation of the housing 8 is "vertical", by displaying the bird's-eye view image G1 on the touch panel 9, the bird's-eye view image G1 has a long side in the vertical direction and a short side in the horizontal direction. The bird's-eye view image G1 can be displayed by using the entire display area of the touch panel 9 without unnecessarily reducing the bird's-eye view image G1. Therefore, the bird's-eye view image G1 is easy for the user to see, and the convenience of the user is improved.

俯瞰画像表示画面GM2aを表示した後、端末制御部20は、筐体状態検出部23からの入力に基づいて、携帯端末3の筐体8の向きが、「縦向き」から、「横向き」へと変化したか否かを監視する(ステップSC4)。
携帯端末3の筐体8の向きが、「縦向き」から、「横向き」へと変化したことを検出した場合(ステップSC4:YES)、端末制御部20は、車両Sの状態に対応した所定の優先順位に従って、車外撮影用カメラのうち、1つの車外撮影用カメラを選択する(ステップSC5)。
After displaying the bird's-eye view image display screen GM2a, the terminal control unit 20 changes the orientation of the housing 8 of the mobile terminal 3 from "vertical" to "horizontal" based on the input from the housing state detection unit 23. It is monitored whether or not it has changed (step SC4).
When it is detected that the orientation of the housing 8 of the mobile terminal 3 has changed from "vertical orientation" to "horizontal orientation" (step SC4: YES), the terminal control unit 20 determines the predetermined orientation corresponding to the state of the vehicle S. Among the cameras for outside-vehicle photography, one camera for outside-vehicle photography is selected according to the priority of (step SC5).

例えば、優先順位は、車両Sの進行方向を撮影可能な車外撮影用カメラほど高い順位となる優先順位である。この場合、車両Sが前方に向かって「前進」している場合は、前方撮影用カメラCA1が最も高い優先順位となり、また、車両Sが前方右側に向かって「前進」している場合は、前方右側撮影用カメラCA2が最も高い優先順位となり、また、車両Sが後方に向かって「後進」している場合は、後方撮影用カメラCA5が最も高い優先順位となる。ここで、車両Sが車両自動移動を行っている場合、ユーザーは、車両Sの進行方向の状態を認識することを望むケースが多いものと想定される。
また例えば、優先順位は、車両Sに近接する物体を撮影可能なカメラほど高い順位となる優先順位である。車両Sに近接する物体は、例えば、車両自動移動により駐車させる予定の駐車領域に隣接する駐車領域に既に週者している車両であり、また例えば、ユーザー以外の人物である。ユーザーは、車両Sに近接する位置に物体が存在する場合、その物体を認識し、その物体と車両Sとの位置関係を認識することを望むケースが多いものと想定される。
For example, the priority is a higher priority as the camera for outside the vehicle capable of photographing the traveling direction of the vehicle S. In this case, if the vehicle S is "advancing" toward the front, the front camera CA1 has the highest priority, and if the vehicle S is "advancing" toward the front right side, the vehicle S has the highest priority. The front right camera CA2 has the highest priority, and when the vehicle S is "backward" toward the rear, the rear camera CA5 has the highest priority. Here, when the vehicle S is automatically moving, it is assumed that the user often wants to recognize the state of the vehicle S in the traveling direction.
Further, for example, the priority is a higher priority as the camera capable of photographing an object closer to the vehicle S. The object close to the vehicle S is, for example, a vehicle that has already been in the parking area adjacent to the parking area to be parked by automatic vehicle movement, and is, for example, a person other than the user. When an object exists at a position close to the vehicle S, it is assumed that the user often wants to recognize the object and recognize the positional relationship between the object and the vehicle S.

なお、端末制御部20は、ステップSC5において、所定の優先順位で車外撮影用カメラを選択するために必要な情報を、適宜、情報処理装置4と通信して、取得する。 In step SC5, the terminal control unit 20 appropriately communicates with the information processing device 4 to acquire information necessary for selecting the camera for outside-vehicle photography in a predetermined priority order.

ステップSC5で1つの車外撮影用カメラを選択した後、端末制御部20は、選択した車外撮影用カメラを示す選択カメラ情報(例えば、選択した車外撮影用カメラを識別する識別情報。)を情報処理装置4に送信する(ステップSC6)。 After selecting one camera for out-of-vehicle photography in step SC5, the terminal control unit 20 processes selected camera information indicating the selected camera for out-of-vehicle photography (for example, identification information for identifying the selected camera for out-of-vehicle photography). It is transmitted to the device 4 (step SC6).

図14BのフローチャートFEに示すように、情報処理装置4の情報処理装置制御部30は、選択カメラ情報を受信する(ステップSE1)。
次いで、情報処理装置制御部30は、表示装置32に表示させる車外画像G2を、ステップSE1で受信した選択カメラ情報が示す車外撮影用カメラの撮影結果に基づく画像に変更する(ステップSE2)。
ステップSE2において、情報処理装置制御部30は、俯瞰画像データと、選択カメラ情報が示す車外撮影用カメラの撮影結果に基づく車外画像データとを合成して合成画像データを生成し、生成した合成画像データに基づいて合成画像Gを表示する。
ステップSE2の処理の前後で、情報処理装置制御部30は、継続して、表示装置32に表示する合成画像Gに対応する合成画像データの送信を実行する。この結果、ステップSE2の処理後に、情報処理装置4が携帯端末3に送信する合成画像データには、ステップSC5で選択された車外撮影用カメラの撮影結果に基づく車外画像データが含まれた状態となる。
As shown in the flowchart FE of FIG. 14B, the information processing device control unit 30 of the information processing device 4 receives the selected camera information (step SE1).
Next, the information processing device control unit 30 changes the vehicle exterior image G2 displayed on the display device 32 to an image based on the shooting result of the vehicle exterior shooting camera indicated by the selected camera information received in step SE1 (step SE2).
In step SE2, the information processing device control unit 30 synthesizes the bird's-eye view image data and the vehicle exterior image data based on the shooting result of the vehicle exterior camera indicated by the selected camera information to generate composite image data, and the generated composite image. The composite image G is displayed based on the data.
Before and after the process of step SE2, the information processing device control unit 30 continuously transmits the composite image data corresponding to the composite image G to be displayed on the display device 32. As a result, the composite image data transmitted by the information processing apparatus 4 to the mobile terminal 3 after the processing of step SE2 includes the vehicle exterior image data based on the imaging result of the vehicle exterior camera selected in step SC5. Become.

図13のフローチャートFCに示すように、携帯端末3の端末制御部20は、ステップSC6で選択カメラ情報を送信した後、情報処理装置4から受信する合成画像データに基づいて、タッチパネル9に車外画像表示画面GM2bを表示させる(ステップSC7)。
なお、ステップSC7において、車外画像表示画面GM2bの表示に用いられる合成画像データは、ステップSC5で選択された車外撮影用カメラの撮影結果に基づく車外画像データが含まれた合成画像データである。
図12の状態J6は、車外画像表示画面GM2bを示している。
車外画像表示画面GM2bは、図12の状態J6が示すように、車外画像G2が表示されると共に、車外画像G2に重畳して推進制御ボタンQBが表示された画面である。
As shown in the flowchart FC of FIG. 13, the terminal control unit 20 of the mobile terminal 3 transmits the selected camera information in step SC6, and then, based on the composite image data received from the information processing device 4, the vehicle exterior image is displayed on the touch panel 9. The display screen GM2b is displayed (step SC7).
The composite image data used for displaying the vehicle exterior image display screen GM2b in step SC7 is composite image data including the vehicle exterior image data based on the shooting result of the vehicle exterior shooting camera selected in step SC5.
The state J6 in FIG. 12 shows the vehicle exterior image display screen GM2b.
The vehicle exterior image display screen GM2b is a screen on which the vehicle exterior image G2 is displayed and the propulsion control button QB is displayed superimposed on the vehicle exterior image G2, as shown by the state J6 in FIG.

ステップSC7において、端末制御部20は、所定の周期で受信する合成画像データのそれぞれについて、合成画像データから、車外画像データを抽出する。合成画像データにおける車外画像データの領域は、予め定められており、端末制御部20は、合成画像データから、合成画像データにおける車外画像データの領域に属するデータを切り出すことにより、車外画像データを抽出する。次いで、端末制御部20は、抽出した車外画像データに対して、必要な画像処理(解像度を調整する処理や、サイズを調整する処理等。)を行い、画像処理を行った後の車外画像データに基づいて、車外画像表示画面GM2bをタッチパネル9に表示させる。
車外画像表示画面GM2bに表示される車外画像G2の内容は、ステップSC5で選択された車外撮影用カメラの撮影結果に基づいて、情報処理装置4の表示装置32に表示される車外画像G2と同期して、随時、変化する。
In step SC7, the terminal control unit 20 extracts the vehicle exterior image data from the composite image data for each of the composite image data received at a predetermined cycle. The area of the vehicle exterior image data in the composite image data is predetermined, and the terminal control unit 20 extracts the vehicle exterior image data by cutting out the data belonging to the vehicle exterior image data area in the composite image data from the composite image data. To do. Next, the terminal control unit 20 performs necessary image processing (processing for adjusting the resolution, processing for adjusting the size, etc.) on the extracted vehicle exterior image data, and the vehicle exterior image data after performing the image processing. The vehicle exterior image display screen GM2b is displayed on the touch panel 9 based on the above.
The content of the vehicle exterior image G2 displayed on the vehicle exterior image display screen GM2b is synchronized with the vehicle exterior image G2 displayed on the display device 32 of the information processing device 4 based on the shooting result of the vehicle exterior shooting camera selected in step SC5. And it changes from time to time.

以上のように、本実施形態では、携帯端末3の筐体8の向きが「縦向き」から「横向き」に変化した場合、タッチパネル9に、俯瞰画像表示画面GM2aに代えて、車外画像表示画面GM2bが表示される。このため、ユーザーは、俯瞰画像G1に代えて車外画像G2を確認することを希望する場合、携帯端末3の筐体8の向きを変化させるという簡易な作業を行うことによって、車外画像表示画面GM2bを表示させ、車外画像G2を確認できる。特に、携帯端末3の筐体8の向きを変化させる操作は、ユーザーが携帯端末3を片手で把持している場合であっても、簡易、かつ、的確に実行できる操作であり、ユーザーの利便性が高い。
特に、本実施形態では、携帯端末3の筐体8の向きが「縦向き」から「横向き」に変化したことに応じて表示される車外画像表示画面GM2bは、車両Sの状態に対応した所定の優先順位に従って選択された車外撮影用カメラの撮影結果に基づく画面である。このため、車外画像表示画面GM2bに表示された車外画像G2は、ユーザーが望む車外撮影用カメラによる撮影結果に基づく画像である可能性が高く、ユーザーの利便性が高い。
また、上述したように、車外画像G2は、左右方向(鉛直方向に直交する方向に対応する方向。)に長辺を有し、上下方向(鉛直方向に対応する方向。)に短辺を有する長方形状の画像である。また、携帯端末3の筐体8の向きが「横向き」の場合、タッチパネル9は、長辺の方向が鉛直方向に直交する方向に沿い、短辺の方向が鉛直方向に沿った状態となる。従って、筐体8の向きが「横向き」の場合に、車外画像G2をタッチパネル9に表示することにより、車外画像G2が左右方向に長辺を有し、上下方向に短辺を有するという特徴を好適に活用して、車外画像G2を不必要に縮小することなく、タッチパネル9の表示領域の全体を用いて、車外画像G2を表示することができる。このため、ユーザーにとって車外画像G2が見やすく、ユーザーの利便性が向上する。
As described above, in the present embodiment, when the orientation of the housing 8 of the mobile terminal 3 changes from "portrait" to "horizontal", the touch panel 9 is replaced with the bird's-eye view image display screen GM2a, and the vehicle exterior image display screen is used. GM2b is displayed. Therefore, when the user wishes to check the vehicle exterior image G2 instead of the bird's-eye view image G1, the user performs a simple operation of changing the orientation of the housing 8 of the mobile terminal 3 to display the vehicle exterior image display screen GM2b. Can be displayed to confirm the outside image G2. In particular, the operation of changing the orientation of the housing 8 of the mobile terminal 3 is an operation that can be easily and accurately executed even when the user holds the mobile terminal 3 with one hand, which is convenient for the user. Highly sexual.
In particular, in the present embodiment, the vehicle exterior image display screen GM2b displayed in response to the orientation of the housing 8 of the mobile terminal 3 changing from "vertical" to "horizontal" is predetermined according to the state of the vehicle S. It is a screen based on the shooting result of the camera for shooting outside the vehicle selected according to the priority of. Therefore, the vehicle exterior image G2 displayed on the vehicle exterior image display screen GM2b is likely to be an image based on the shooting result of the vehicle exterior shooting camera desired by the user, which is highly convenient for the user.
Further, as described above, the vehicle exterior image G2 has a long side in the left-right direction (direction corresponding to the direction orthogonal to the vertical direction) and a short side in the vertical direction (direction corresponding to the vertical direction). It is a rectangular image. When the orientation of the housing 8 of the mobile terminal 3 is "horizontal", the touch panel 9 is in a state where the long side direction is orthogonal to the vertical direction and the short side direction is along the vertical direction. Therefore, when the orientation of the housing 8 is "horizontal", by displaying the vehicle exterior image G2 on the touch panel 9, the vehicle exterior image G2 has a long side in the left-right direction and a short side in the vertical direction. By preferably utilizing it, the vehicle exterior image G2 can be displayed by using the entire display area of the touch panel 9 without unnecessarily reducing the vehicle exterior image G2. Therefore, the user can easily see the image G2 outside the vehicle, and the convenience of the user is improved.

ステップSC7で車外画像表示画面GM2bを表示した後、端末制御部20は、筐体8が「右動き」又は「左動き」のいずれかの動きをしたか否かを監視しつつ(ステップSC8)、筐体8の向きが「縦向き」となったか否かを監視する(ステップSC9)。 After displaying the vehicle exterior image display screen GM2b in step SC7, the terminal control unit 20 monitors whether or not the housing 8 has moved “rightward” or “leftward” (step SC8). , It is monitored whether or not the orientation of the housing 8 is "vertical" (step SC9).

筐体8が「右動き」又は「左動き」のいずれの動きをすることなく(ステップSC8:NO)、筐体8の向きが「縦向き」となった場合(ステップSC9:YES)、端末制御部20は、処理手順をステップSC3へ移行する。上述したように、ステップSC3において、端末制御部20は、情報処理装置4から受信する合成画像データに基づいて、タッチパネル9に俯瞰画像表示画面GM2aを表示させる。
このように、本実施形態では、携帯端末3の筐体8の向きが「横向き」から「縦向き」に変化した場合、タッチパネル9に、車外画像表示画面GM2bに代えて、俯瞰画像表示画面GM2aが表示される。このため、ユーザーは、車外画像G2に代えて俯瞰画像G1を確認することを希望する場合、携帯端末3の筐体8の向きを変化させるという簡易な作業を行うことによって、俯瞰画像表示画面GM2aを表示させ、俯瞰画像G1を確認できる。特に、携帯端末3の筐体8の向きを変化させる操作は、ユーザーが携帯端末3を片手で把持している場合であっても、簡易、かつ、的確に実行できる操作であり、ユーザーの利便性が高い。
特に、俯瞰画像G1は、車両自動移動が行われている間、ユーザーが確認する頻度が最も高い画像であると想定される。そして、本実施形態によれば、ユーザーは、携帯端末3の筐体8の向きを「縦向き」とすることにより、任意のタイミングで俯瞰画像G1を確認することができ、ユーザーの利便性が高い。
When the orientation of the housing 8 is "vertical" (step SC9: YES) without the housing 8 moving "right" or "left" (step SC8: NO), the terminal The control unit 20 shifts the processing procedure to step SC3. As described above, in step SC3, the terminal control unit 20 causes the touch panel 9 to display the bird's-eye view image display screen GM2a based on the composite image data received from the information processing device 4.
As described above, in the present embodiment, when the orientation of the housing 8 of the mobile terminal 3 changes from "horizontal" to "vertical", the touch panel 9 is replaced with the external image display screen GM2b and the bird's-eye view image display screen GM2a. Is displayed. Therefore, when the user wishes to confirm the bird's-eye view image G1 instead of the vehicle exterior image G2, the user performs a simple operation of changing the orientation of the housing 8 of the mobile terminal 3 to display the bird's-eye view image display screen GM2a. Can be displayed to confirm the bird's-eye view image G1. In particular, the operation of changing the orientation of the housing 8 of the mobile terminal 3 is an operation that can be easily and accurately executed even when the user holds the mobile terminal 3 with one hand, which is convenient for the user. Highly sexual.
In particular, the bird's-eye view image G1 is assumed to be the image most frequently confirmed by the user during the automatic movement of the vehicle. Then, according to the present embodiment, the user can confirm the bird's-eye view image G1 at an arbitrary timing by setting the orientation of the housing 8 of the mobile terminal 3 to "vertical orientation", which is convenient for the user. high.

一方、筐体8の向きが「縦向き」となることなく(ステップSC9:NO)、筐体8が「右動き」又は「左動き」のいずれかをした場合(ステップSC8:YES)、端末制御部20は、処理手順をステップSC10へ移行する。つまり、端末制御部20は、筐体8の向きが「横向き」のときに、筐体8が「右動き」又は「左動き」をした場合、処理手順をステップSC10へ移行する。 On the other hand, when the housing 8 makes either "right movement" or "left movement" without the orientation of the housing 8 being "vertical" (step SC9: NO) (step SC8: YES), the terminal The control unit 20 shifts the processing procedure to step SC10. That is, the terminal control unit 20 shifts the processing procedure to step SC10 when the housing 8 moves “rightward” or “leftward” when the housing 8 is oriented “sideways”.

ステップSC10において、端末制御部20は、筐体8の動きが「右動き」であったか「左動き」であったかを判別する。
筐体8の動きが「右動き」であった場合(ステップSC10:「右動き」)、端末制御部20は、車外撮影用カメラが撮影する方向に応じた第1の順番に従って、車外撮影用カメラのうち、1つの車外撮影用カメラを選択する(ステップSC11)。
図6に示すように、第1の順番は、「前方」→「前方右側」→「側方右側」→「後方右側」→「後方」→「後方左側」→「側方左側」→「前方左側」→「前方」である。すなわち、第1の順番は、車外撮影用カメラが撮影する方向が、時計回りに変化する順番である。
ステップSC11において、端末制御部20は、第1の順番に従って、ステップSC11の処理を実行する前に選択されている車外撮影用カメラが撮影する方向の次の順番の方向を撮影する車外撮影用カメラを選択する。例えば、ステップSC11の処理を実行する前に、前方撮影用カメラCA1が選択されている場合、ステップSC11において、端末制御部20は、第1の順番に従って、前方右側撮影用カメラCA2を選択する。また例えば、ステップSC11の処理を実行する前に、後方撮影用カメラCA5が選択されている場合、ステップSC11において、端末制御部20は、第1の順番に従って、後方左側撮影用カメラCA6を選択する。
In step SC10, the terminal control unit 20 determines whether the movement of the housing 8 is "right movement" or "left movement".
When the movement of the housing 8 is "right movement" (step SC10: "right movement"), the terminal control unit 20 is used for outside-vehicle shooting according to the first order according to the direction in which the outside-vehicle shooting camera shoots. Among the cameras, one camera for out-of-vehicle photography is selected (step SC11).
As shown in FIG. 6, the first order is "front"->"frontright"->"sideright"->"rearright"->"rear"->"rearleft"->"sideleft"->"front""Leftside" → "Front". That is, the first order is the order in which the direction in which the camera for shooting outside the vehicle shoots changes clockwise.
In step SC11, the terminal control unit 20 takes a picture of the direction next to the direction taken by the car-out camera selected before executing the process of step SC11 according to the first order. Select. For example, if the front shooting camera CA1 is selected before the process of step SC11 is executed, in step SC11, the terminal control unit 20 selects the front right shooting camera CA2 according to the first order. Further, for example, if the rear shooting camera CA5 is selected before executing the process of step SC11, in step SC11, the terminal control unit 20 selects the rear left side shooting camera CA6 according to the first order. ..

ステップSC11で車外撮影用カメラを選択した後、端末制御部20は、選択した車外撮影用カメラを示す選択カメラ情報を情報処理装置4に送信する(ステップSC12)。ステップSC12の処理後、端末制御部20は、処理手順をステップSC8へ戻す。
ステップSC12の選択カメラ情報の送信に応じて、情報処理装置4は、図14BのフローチャートFEの処理を実行し、表示装置32に表示させる車外画像G2を、選択カメラ情報が示す車外撮影用カメラの撮影結果に基づく画像に変更する。これに伴って、情報処理装置4から携帯端末3に送信される合成性画像データには、選択カメラ情報が示す車外撮影用カメラの撮影結果に基づく車外画像データが含まれることになる。これにより、携帯端末3のタッチパネル9の車外画像表示画面GM2bに表示される車外画像G2が、ステップSC11で選択された車外撮影用カメラの撮影結果に基づく画像となる。
After selecting the camera for outside-vehicle photography in step SC11, the terminal control unit 20 transmits the selected camera information indicating the selected camera for outside-vehicle photography to the information processing device 4 (step SC12). After the processing of step SC12, the terminal control unit 20 returns the processing procedure to step SC8.
In response to the transmission of the selected camera information in step SC12, the information processing device 4 executes the process of the flowchart FE of FIG. 14B, and displays the vehicle exterior image G2 displayed on the display device 32 of the vehicle exterior shooting camera indicated by the selected camera information. Change to an image based on the shooting result. Along with this, the synthetic image data transmitted from the information processing apparatus 4 to the mobile terminal 3 includes the vehicle exterior image data based on the shooting result of the vehicle exterior shooting camera indicated by the selected camera information. As a result, the vehicle exterior image G2 displayed on the vehicle exterior image display screen GM2b of the touch panel 9 of the mobile terminal 3 becomes an image based on the shooting result of the vehicle exterior shooting camera selected in step SC11.

このように、本実施形態では、ユーザーは、筐体8に「右動き」をさせるという簡易な作業を行うことによって、車外画像表示画面GM2bに表示される車外画像G2を切り替えることができ、ユーザーの利便性が高い。特に、筐体8が「右動き」をした場合、第1の順番に従って、車外画像表示画面GM2bに表示される車外画像G2に対応する撮影の方向が、時計回りに変化する。そして、「右動き」において筐体8が移動する「右方向」と、「時計回り」とはリンクしており、ユーザーは、筐体8に「右動き」をさせた後に、どの方向を撮影する車外撮影用カメラの撮影結果に基づく車外画像G2がタッチパネル9に表示されるのかを感覚的に把握でき、ユーザーの利便性が高い。 As described above, in the present embodiment, the user can switch the vehicle exterior image G2 displayed on the vehicle exterior image display screen GM2b by performing a simple operation of causing the housing 8 to "move to the right". Is highly convenient. In particular, when the housing 8 “moves to the right”, the shooting direction corresponding to the vehicle exterior image G2 displayed on the vehicle exterior image display screen GM2b changes clockwise according to the first order. Then, the "right direction" in which the housing 8 moves in the "right movement" and the "clockwise" are linked, and the user takes a picture in which direction after the housing 8 is made to "right move". It is possible to intuitively grasp whether the vehicle exterior image G2 based on the shooting result of the vehicle exterior photographing camera is displayed on the touch panel 9, which is highly convenient for the user.

一方、ステップSC10において、筐体8の動きが「左動き」であったと判別した場合(ステップSC10:「左動き」)、端末制御部20は、以下の処理を実行する
筐体8の動きが「右動き」であった場合(ステップSC10:「右動き」)、端末制御部20は、車外撮影用カメラが撮影する方向に応じた第2の順番に従って、車外撮影用カメラのうち、1つの車外撮影用カメラを選択する(ステップSC13)。
図6に示すように、第2の順番は、「前方」→「前方左側」→「側方左側」→「後方左側」→「後方」→「後方右側」→「側方右側」→「前方右側」→「前方」である。すなわち、第2の順番は、車外撮影用カメラが撮影する方向が、反時計回りに変化する順番である。
ステップSC13において、端末制御部20は、第2の順番に従って、ステップSC13の処理を実行する前に選択されている車外撮影用カメラが撮影する方向の次の順番の方向を撮影する車外撮影用カメラを選択する。例えば、ステップSC13の処理を実行する前に、前方撮影用カメラCA1が選択されている場合、ステップSC13において、端末制御部20は、第2の順番に従って、前方左側撮影用カメラCA8を選択する。また例えば、ステップSC13の処理を実行する前に、後方撮影用カメラCA5が選択されている場合、ステップSC13において、端末制御部20は、第2の順番に従って、後方右側撮影用カメラCA4を選択する。
On the other hand, when it is determined in step SC10 that the movement of the housing 8 is "left movement" (step SC10: "left movement"), the terminal control unit 20 executes the following processing. In the case of "right movement" (step SC10: "right movement"), the terminal control unit 20 is one of the outside shooting cameras according to the second order according to the direction in which the outside shooting camera shoots. Select a camera for shooting outside the vehicle (step SC13).
As shown in FIG. 6, the second order is "front"->"frontleft"->"sideleft"->"rearleft"->"rear"->"rearright"->"sideright"->"front""Rightside" → "Front". That is, the second order is the order in which the direction taken by the camera for outside the vehicle changes counterclockwise.
In step SC13, the terminal control unit 20 takes a picture of the direction next to the direction taken by the car-out camera selected before executing the process of step SC13 according to the second order. Select. For example, if the front camera CA1 is selected before the process of step SC13 is executed, in step SC13, the terminal control unit 20 selects the front left camera CA8 according to the second order. Further, for example, if the rear shooting camera CA5 is selected before executing the process of step SC13, in step SC13, the terminal control unit 20 selects the rear right shooting camera CA4 according to the second order. ..

ステップSC13で車外撮影用カメラを選択した後、端末制御部20は、選択した車外撮影用カメラを示す選択カメラ情報を情報処理装置4に送信する(ステップSC14)。ステップSC14の処理後、端末制御部20は、処理手順をステップSC8へ戻す。
ステップSC14の選択カメラ情報の送信に応じて、情報処理装置4は、図14BのフローチャートFEの処理を実行し、表示装置32に表示させる車外画像G2を、選択カメラ情報が示す車外撮影用カメラの撮影結果に基づく画像に変更する。これに伴って、情報処理装置4から携帯端末3に送信される合成性画像データには、選択カメラ情報が示す車外撮影用カメラの撮影結果に基づく車外画像データが含まれることになる。これにより、携帯端末3のタッチパネル9の車外画像表示画面GM2bに表示される車外画像G2が、ステップSC11で選択された車外撮影用カメラの撮影結果に基づく画像となる。
After selecting the camera for outside-vehicle photography in step SC13, the terminal control unit 20 transmits the selected camera information indicating the selected camera for outside-vehicle photography to the information processing device 4 (step SC14). After the processing of step SC14, the terminal control unit 20 returns the processing procedure to step SC8.
In response to the transmission of the selected camera information in step SC14, the information processing device 4 executes the process of the flowchart FE of FIG. 14B, and displays the vehicle exterior image G2 displayed on the display device 32 of the vehicle exterior shooting camera indicated by the selected camera information. Change to an image based on the shooting result. Along with this, the synthetic image data transmitted from the information processing apparatus 4 to the mobile terminal 3 includes the vehicle exterior image data based on the shooting result of the vehicle exterior shooting camera indicated by the selected camera information. As a result, the vehicle exterior image G2 displayed on the vehicle exterior image display screen GM2b of the touch panel 9 of the mobile terminal 3 becomes an image based on the shooting result of the vehicle exterior shooting camera selected in step SC11.

このように、本実施形態では、ユーザーは、筐体8に「左動き」をさせるという簡易な作業を行うことによって、車外画像表示画面GM2bに表示される車外画像G2を切り替えることができ、ユーザーの利便性が高い。特に、筐体8が「左動き」をした場合、第2の順番に従って、車外画像表示画面GM2bに表示される車外画像G2に対応する撮影の方向が、反時計回りに変化する。そして、「左動き」において筐体8が移動する「左方向」と、「反時計回り」とはリンクしており、ユーザーは、筐体8に「左動き」をさせた後に、どの方向を撮影する車外撮影用カメラの撮影結果に基づく車外画像G2がタッチパネル9に表示されるのかを感覚的に把握でき、ユーザーの利便性が高い。 As described above, in the present embodiment, the user can switch the outside image G2 displayed on the outside image display screen GM2b by performing a simple operation of causing the housing 8 to "move left", and the user can switch the outside image G2. Is highly convenient. In particular, when the housing 8 “moves to the left”, the shooting direction corresponding to the vehicle exterior image G2 displayed on the vehicle exterior image display screen GM2b changes counterclockwise according to the second order. Then, the "left direction" in which the housing 8 moves in the "left movement" and the "counterclockwise" are linked, and the user makes the housing 8 "left movement" and then in which direction. It is possible to intuitively grasp whether the vehicle exterior image G2 based on the shooting result of the vehicle exterior photographing camera to be photographed is displayed on the touch panel 9, which is highly convenient for the user.

以上、第1モードを説明した。第1モードは、後述する第2モードと比較し、情報処理装置4が合成画像データから、俯瞰画像データ、及び車外画像データを抽出する処理を実行する必要がないため、情報処理装置4の負荷が小さい。 The first mode has been described above. In the first mode, as compared with the second mode described later, it is not necessary for the information processing device 4 to execute a process of extracting the bird's-eye view image data and the vehicle exterior image data from the composite image data, so that the load on the information processing device 4 is increased. Is small.

<第2モード>
図16のフローチャートFFは、動作モードが第2モードの場合の携帯端末3の動作を示すフローチャートである。図17AのフローチャートFG、図17BのフローチャートFH、及び図17CのフローチャートFIは、それぞれ、動作モードが第2モードの場合の情報処理装置4の動作を示すフローチャートである。
<Second mode>
The flowchart FF of FIG. 16 is a flowchart showing the operation of the mobile terminal 3 when the operation mode is the second mode. The flowchart FG of FIG. 17A, the flowchart FH of FIG. 17B, and the flowchart FI of FIG. 17C are flowcharts showing the operation of the information processing apparatus 4 when the operation mode is the second mode, respectively.

図16のフローチャートFFに示すように、携帯端末3の端末制御部20は、車両推進制御モードへの移行に応じて、端末通信部21を制御して、車両推進制御モードへ移行したことを示す車両推進制御モード情報を、情報処理装置4に送信する(ステップSF1)。 As shown in the flowchart FF of FIG. 16, the terminal control unit 20 of the mobile terminal 3 controls the terminal communication unit 21 in accordance with the transition to the vehicle propulsion control mode, indicating that the terminal communication unit 21 has shifted to the vehicle propulsion control mode. The vehicle propulsion control mode information is transmitted to the information processing device 4 (step SF1).

図17AのフローチャートFGに示すように、情報処理装置4の情報処理装置制御部30は、車両推進制御モード情報を受信する(ステップSG1)。
情報処理装置制御部30は、車両推進制御モード情報の受信に応じて、車外撮影用カメラのそれぞれ、及び俯瞰用カメラのそれぞれから入力される撮影画像データに基づいて、表示装置32への合成画像Gの表示を開始する(ステップSG2)。
As shown in the flowchart FG of FIG. 17A, the information processing device control unit 30 of the information processing device 4 receives the vehicle propulsion control mode information (step SG1).
The information processing device control unit 30 receives the vehicle propulsion control mode information, and based on the captured image data input from each of the cameras for outside the vehicle and the camera for bird's-eye view, the composite image on the display device 32. The display of G is started (step SG2).

図16のフローチャートFFに示すように、携帯端末3の端末制御部20は、ステップSF1の車両推進制御モード情報の送信と連続して、携帯端末3の筐体8の向きが「縦向き」であることを示す縦向き情報を送信する(ステップSF2)。なお、ステップSC3の処理が実行される時点では、携帯端末3の筐体の向きは、「縦向き」である。 As shown in the flowchart FF of FIG. 16, the terminal control unit 20 of the mobile terminal 3 has the orientation of the housing 8 of the mobile terminal 3 "vertical" in succession to the transmission of the vehicle propulsion control mode information in step SF1. The portrait information indicating the existence is transmitted (step SF2). At the time when the process of step SC3 is executed, the orientation of the housing of the mobile terminal 3 is "vertical orientation".

図17BのフローチャートFHに示すように、情報処理装置4の情報処理装置制御部30は、縦向き情報を受信する(ステップSH1)。
情報処理装置制御部30は、縦向き情報の受信に応じて、携帯端末3への俯瞰画像データの送信を開始する(ステップSH2)。
ステップSH2において、情報処理装置制御部30は、所定の周期で生成する合成画像データから、俯瞰画像データを抽出する。次いで、情報処理装置制御部30は、抽出した俯瞰画像データに対して、携帯端末3のタッチパネル9の解像度、サイズに応じた画像処理を行い、画像処理を行った後の俯瞰画像データを、携帯端末3に送信する。情報処理装置制御部30は、俯瞰画像データの送信を、合成画像データを生成する周期に対応する周期で実行する。
なお、端末制御部20は、ステップSH2の処理の前に、車外画像データを送信している場合は、車外画像データの送信を停止した上で、俯瞰画像データの送信を開始する。
As shown in the flowchart FH of FIG. 17B, the information processing device control unit 30 of the information processing device 4 receives the vertical information (step SH1).
The information processing device control unit 30 starts transmitting the bird's-eye view image data to the mobile terminal 3 in response to the reception of the portrait information (step SH2).
In step SH2, the information processing apparatus control unit 30 extracts the bird's-eye view image data from the composite image data generated at a predetermined cycle. Next, the information processing device control unit 30 performs image processing on the extracted bird's-eye view image data according to the resolution and size of the touch panel 9 of the mobile terminal 3, and carries the bird's-eye view image data after the image processing. Send to terminal 3. The information processing apparatus control unit 30 executes the transmission of the bird's-eye view image data at a cycle corresponding to the cycle of generating the composite image data.
If the terminal control unit 20 has transmitted the vehicle exterior image data before the process of step SH2, the terminal control unit 20 stops the transmission of the vehicle exterior image data and then starts the transmission of the bird's-eye view image data.

図16のフローチャートFFに示すように、携帯端末3の端末制御部20は、俯瞰画像データの受信を開始する(ステップSF3)。
次いで、端末制御部20は、ステップSF3で受信を開始した俯瞰画像データに基づいて、俯瞰画像G1が表示された俯瞰画像表示画面GM2aをタッチパネル9に表示させる(ステップSF4)。
俯瞰画像表示画面GM2aに表示される俯瞰画像G1の内容は、俯瞰用カメラの撮影結果に基づいて、情報処理装置4の表示装置32に表示される俯瞰画像G1と同期して、随時、変化する。
As shown in the flowchart FF of FIG. 16, the terminal control unit 20 of the mobile terminal 3 starts receiving the bird's-eye view image data (step SF3).
Next, the terminal control unit 20 causes the touch panel 9 to display the bird's-eye view image display screen GM2a on which the bird's-eye view image G1 is displayed based on the bird's-eye view image data that started reception in step SF3 (step SF4).
The content of the bird's-eye view image G1 displayed on the bird's-eye view image display screen GM2a changes at any time in synchronization with the bird's-eye view image G1 displayed on the display device 32 of the information processing device 4 based on the shooting result of the bird's-eye view camera. ..

俯瞰画像表示画面GM2aを表示した後、端末制御部20は、筐体状態検出部23からの入力に基づいて、携帯端末3の筐体8の向きが、「縦向き」から、「横向き」へと変化したか否かを監視する(ステップSF5)。
携帯端末3の筐体8の向きが、「縦向き」から、「横向き」へと変化したことを検出した場合(ステップSF5:YES)、端末制御部20は、車両Sの状態に対応した所定の優先順位に従って、車外撮影用カメラのうち、1つの車外撮影用カメラを選択する(ステップSF6)。所定の優先順位は、例えば、第1モードで例示した優先順位である。
After displaying the bird's-eye view image display screen GM2a, the terminal control unit 20 changes the orientation of the housing 8 of the mobile terminal 3 from "vertical" to "horizontal" based on the input from the housing state detection unit 23. It is monitored whether or not it has changed (step SF5).
When it is detected that the orientation of the housing 8 of the mobile terminal 3 has changed from "vertical orientation" to "horizontal orientation" (step SF5: YES), the terminal control unit 20 determines the predetermined orientation corresponding to the state of the vehicle S. Among the cameras for outside-vehicle photography, one camera for outside-vehicle photography is selected according to the priority of (step SF6). The predetermined priority is, for example, the priority exemplified in the first mode.

次いで、端末制御部20は、携帯端末3の向きが「横向き」であることを示す情報、及びステップSF6で選択した車外撮影用カメラを示す情報を含む横向き情報を情報処理装置4に送信する(ステップSF7)。 Next, the terminal control unit 20 transmits the sideways information including the information indicating that the orientation of the mobile terminal 3 is “landscape” and the information indicating the camera for outdoor photography selected in step SF6 to the information processing device 4 ( Step SF7).

図17CのフローチャートFIに示すように、情報処理装置4の情報処理装置制御部30は、横向き情報を受信する(ステップSI1)。
横向き情報の受信に応じて、情報処理装置制御部30は、表示装置32に表示させる車外画像G2を、ステップSI1で受信した横向き情報が含む選択カメラ情報が示す車外撮影用カメラの撮影結果に基づく画像に変更する(ステップSI2)。
次いで、情報処理装置制御部30は、携帯端末3への俯瞰画像データの送信を停止し、車外画像データの送信を開始する(ステップSI3)。
ステップSI3において、情報処理装置制御部30は、所定の周期で生成する合成画像データから、車外画像データを抽出する。次いで、情報処理装置制御部30は、抽出した車外画像データに対して、携帯端末3のタッチパネル9の解像度、サイズに応じた画像処理を行い、画像処理を行った後の車外画像データを、携帯端末3に送信する。情報処理装置制御部30は、車外画像データの送信を、合成画像データを生成する周期に対応する周期で実行する。
As shown in the flowchart FI of FIG. 17C, the information processing device control unit 30 of the information processing device 4 receives the sideways information (step SI1).
In response to the reception of the landscape information, the information processing device control unit 30 sets the vehicle exterior image G2 to be displayed on the display device 32 based on the shooting result of the vehicle exterior shooting camera indicated by the selected camera information included in the landscape information received in step SI1. Change to an image (step SI2).
Next, the information processing device control unit 30 stops the transmission of the bird's-eye view image data to the mobile terminal 3 and starts the transmission of the vehicle exterior image data (step SI3).
In step SI3, the information processing apparatus control unit 30 extracts the vehicle exterior image data from the composite image data generated at a predetermined cycle. Next, the information processing device control unit 30 performs image processing on the extracted vehicle exterior image data according to the resolution and size of the touch panel 9 of the mobile terminal 3, and carries the vehicle exterior image data after the image processing. Send to terminal 3. The information processing device control unit 30 executes the transmission of the vehicle exterior image data at a cycle corresponding to the cycle of generating the composite image data.

図16のフローチャートFFに示すように、携帯端末3の端末制御部20は、車外画像データの受信を開始する(ステップSF8)。
次いで、端末制御部20は、ステップSF8で受信を開始した車外画像データに基づいて、車外画像G2が表示された車外画像表示画面GM2bをタッチパネル9に表示させる(ステップSF9)。
車外画像表示画面GM2bに表示される車外画像G2の内容は、俯瞰用カメラの撮影結果に基づいて、情報処理装置4の表示装置32に表示される車外画像G2と同期して、随時、変化する。
ステップSF9の処理の結果、携帯端末3の筐体8の向きが「縦向き」から「横向き」へ変化したことに応じて、俯瞰画像表示画面GM2aに代えて車外画像表示画面GM2bが表示される。このことの効果は、第1モードの説明で述べたとおりである。
As shown in the flowchart FF of FIG. 16, the terminal control unit 20 of the mobile terminal 3 starts receiving the image data outside the vehicle (step SF8).
Next, the terminal control unit 20 causes the touch panel 9 to display the vehicle exterior image display screen GM2b on which the vehicle exterior image G2 is displayed, based on the vehicle exterior image data that started reception in step SF8 (step SF9).
The content of the vehicle exterior image G2 displayed on the vehicle exterior image display screen GM2b changes at any time in synchronization with the vehicle exterior image G2 displayed on the display device 32 of the information processing device 4 based on the shooting result of the bird's-eye view camera. ..
As a result of the process of step SF9, the vehicle exterior image display screen GM2b is displayed instead of the bird's-eye view image display screen GM2a according to the orientation of the housing 8 of the mobile terminal 3 changing from "vertical" to "horizontal". .. The effect of this is as described in the description of the first mode.

ステップSF9で車外画像表示画面GM2bを表示した後、端末制御部20は、筐体8が「右動き」又は「左動き」のいずれかの動きをしたか否かを監視しつつ(ステップSF10)、筐体8の向きが「縦向き」となったか否かを監視する(ステップSF11)。 After displaying the vehicle exterior image display screen GM2b in step SF9, the terminal control unit 20 monitors whether or not the housing 8 has moved either “rightward” or “leftward” (step SF10). , It is monitored whether or not the orientation of the housing 8 is "vertical" (step SF11).

筐体8が「右動き」又は「左動き」のいずれの動きをすることなく(ステップSF10:NO)、筐体8の向きが「縦向き」となった場合(ステップSF11:YES)、端末制御部20は、処理手順をステップSF2へ移行する。この結果、携帯端末3の筐体8の向きが「横向き」から「縦向き」に変化した場合、タッチパネル9に、車外画像表示画面GM2bに代えて、俯瞰画像表示画面GM2aが表示される。このことの効果は、第1モードの説明で述べたとおりである。 When the orientation of the housing 8 is "vertical" (step SF11: YES) without the housing 8 moving "rightward" or "leftward" (step SF10: NO), the terminal The control unit 20 shifts the processing procedure to step SF2. As a result, when the orientation of the housing 8 of the mobile terminal 3 changes from "horizontal" to "vertical", the bird's-eye view image display screen GM2a is displayed on the touch panel 9 instead of the vehicle exterior image display screen GM2b. The effect of this is as described in the description of the first mode.

一方、筐体8の向きが「縦向き」となることなく(ステップSF11:NO)、筐体8が「右動き」又は「左動き」のいずれかをした場合(ステップSF10:YES)、端末制御部20は、処理手順をステップSC10へ移行する。つまり、端末制御部20は、筐体8の向きが「横向き」のときに、筐体8が「右動き」又は「左動き」をした場合、処理手順をステップSF12へ移行する。 On the other hand, when the housing 8 does either "right movement" or "left movement" without being "vertical" (step SF11: NO) (step SF10: YES), the terminal The control unit 20 shifts the processing procedure to step SC10. That is, the terminal control unit 20 shifts the processing procedure to step SF12 when the housing 8 moves “rightward” or “leftward” when the housing 8 is oriented “sideways”.

ステップSF12において、端末制御部20は、筐体8の動きが「右動き」であったか「左動き」であったかを判別する。
筐体8の動きが「右動き」であった場合(ステップSF12:「右動き」)、端末制御部20は、車外撮影用カメラが撮影する方向に応じた第1の順番に従って、車外撮影用カメラのうち、1つの車外撮影用カメラを選択する(ステップSF13)。
次いで、端末制御部20は、携帯端末3の向きが「横向き」であることを示す情報、及びステップSF13で選択した車外撮影用カメラを示す情報を含む横向き情報を情報処理装置4に送信する(ステップSF14)。ステップSF14の処理後、端末制御部20は、処理手順をステップSF10へ移行する。
ステップSF14の横向き情報の送信に応じて、情報処理装置4は、図17CのフローチャートFIの処理を実行し、表示装置32に表示させる車外画像G2を、横向き情報が含む選択カメラ情報が示す車外撮影用カメラの撮影結果に基づく画像に変更する。さらに、情報処理装置4は、選択カメラ情報が示す車外撮影用カメラの撮影結果に基づく車外画像データの携帯端末3への送信を開始する。これにより、携帯端末3のタッチパネル9の車外画像表示画面GM2bに表示される車外画像G2が、ステップSF13で選択された車外撮影用カメラの撮影結果に基づく画像となる。
In step SF12, the terminal control unit 20 determines whether the movement of the housing 8 is “right movement” or “left movement”.
When the movement of the housing 8 is "right movement" (step SF12: "right movement"), the terminal control unit 20 is used for outside-vehicle shooting according to the first order according to the direction in which the outside-vehicle shooting camera shoots. Among the cameras, one camera for out-of-vehicle photography is selected (step SF13).
Next, the terminal control unit 20 transmits sideways information including information indicating that the orientation of the mobile terminal 3 is “sideways” and information indicating the camera for outside-vehicle photography selected in step SF13 to the information processing device 4 ( Step SF14). After the processing of step SF14, the terminal control unit 20 shifts the processing procedure to step SF10.
In response to the transmission of the landscape information in step SF14, the information processing device 4 executes the process of the flowchart FI of FIG. 17C, and the vehicle exterior image G2 to be displayed on the display device 32 is captured outside the vehicle indicated by the selected camera information included in the landscape information. Change to an image based on the shooting result of the camera. Further, the information processing device 4 starts transmitting the vehicle outside image data to the mobile terminal 3 based on the shooting result of the vehicle outside shooting camera indicated by the selected camera information. As a result, the vehicle exterior image G2 displayed on the vehicle exterior image display screen GM2b of the touch panel 9 of the mobile terminal 3 becomes an image based on the shooting result of the vehicle exterior shooting camera selected in step SF13.

一方、ステップSF12において、筐体8の動きが「左動き」であった場合(ステップSF12:「左動き」)、端末制御部20は、車外撮影用カメラが撮影する方向に応じた第2の順番に従って、車外撮影用カメラのうち、1つの車外撮影用カメラを選択する(ステップSF15)。
次いで、端末制御部20は、携帯端末3の向きが「横向き」であることを示す情報、及びステップSF15で選択した車外撮影用カメラを示す情報を含む横向き情報を情報処理装置4に送信する(ステップSF16)。ステップSF16の処理後、端末制御部20は、処理手順をステップSF10へ移行する。
ステップSF16の横向き情報の送信に応じて、情報処理装置4は、図17CのフローチャートFIの処理を実行し、表示装置32に表示させる車外画像G2を、横向き情報が含む選択カメラ情報が示す車外撮影用カメラの撮影結果に基づく画像に変更する。さらに、情報処理装置4は、選択カメラ情報が示す車外撮影用カメラの撮影結果に基づく車外画像データの携帯端末3への送信を開始する。これにより、携帯端末3のタッチパネル9の車外画像表示画面GM2bに表示される車外画像G2が、ステップSF16で選択された車外撮影用カメラの撮影結果に基づく画像となる。
On the other hand, in step SF12, when the movement of the housing 8 is “left movement” (step SF12: “left movement”), the terminal control unit 20 has a second second according to the direction in which the camera for shooting outside the vehicle shoots. According to the order, one camera for outside the vehicle is selected from the cameras for outside the vehicle (step SF15).
Next, the terminal control unit 20 transmits the sideways information including the information indicating that the orientation of the mobile terminal 3 is “landscape” and the information indicating the out-of-vehicle camera selected in step SF15 to the information processing device 4 ( Step SF16). After the processing of step SF16, the terminal control unit 20 shifts the processing procedure to step SF10.
In response to the transmission of the landscape information in step SF16, the information processing device 4 executes the process of the flowchart FI of FIG. 17C, and the vehicle exterior image G2 to be displayed on the display device 32 is captured outside the vehicle indicated by the selected camera information included in the landscape information. Change to an image based on the shooting result of the camera. Further, the information processing device 4 starts transmitting the vehicle outside image data to the mobile terminal 3 based on the shooting result of the vehicle outside shooting camera indicated by the selected camera information. As a result, the vehicle exterior image G2 displayed on the vehicle exterior image display screen GM2b of the touch panel 9 of the mobile terminal 3 becomes an image based on the shooting result of the vehicle exterior shooting camera selected in step SF16.

以上、第2モードを説明した。第2モードは、上述した第1モードと比較し、情報処理装置4が携帯端末3に送信するデータのデータ量が小さく、通信効率が良い。 The second mode has been described above. In the second mode, the amount of data transmitted by the information processing device 4 to the mobile terminal 3 is smaller and the communication efficiency is higher than in the first mode described above.

次に、車両推進制御処理におけるタッチパネル9への表示に関する処理について、携帯端末3が実行する別の処理について説明する。
上述したように、車両推進制御モードへ移行した後、携帯端末3のタッチパネル9には、車両制御画面GM2(俯瞰画像表示画面GM2a、又は車外画像表示画面GM2b。)が表示される。そして、車両制御画面GM2には、推進制御ボタンQBが表示される。上述したように、推進制御ボタンQBは、車両Sの推進を制御するボタンであり、当該ボタンがタッチ操作されている間、車両Sが軌道に沿って推進し、当該ボタンがタッチ操作されていない間、車両Sの推進が停止する。
Next, regarding the process related to the display on the touch panel 9 in the vehicle propulsion control process, another process executed by the mobile terminal 3 will be described.
As described above, after shifting to the vehicle propulsion control mode, the vehicle control screen GM2 (the bird's-eye view image display screen GM2a or the vehicle exterior image display screen GM2b) is displayed on the touch panel 9 of the mobile terminal 3. Then, the propulsion control button QB is displayed on the vehicle control screen GM2. As described above, the propulsion control button QB is a button that controls the propulsion of the vehicle S, and while the button is touch-operated, the vehicle S is propelled along the track and the button is not touch-operated. Meanwhile, the propulsion of the vehicle S is stopped.

そして、端末制御部20は、車両制御画面GM2に表示された推進制御ボタンQBがタッチ操作された後、タッチパネル9が接触された状態でタッチ操作の位置が移動した場合、タッチ操作の位置の移動に追従して推進制御ボタンQBの位置を移動させる。これにより、推進制御ボタンQBがタッチ操作された後、タッチパネル9が接触された状態でタッチ操作の位置が移動した場合であっても、推進制御ボタンQBがタッチ操作された状態が維持される。
上述したように、図12の状態J4は、タッチパネル9に表示される画面がロック画面GM1から車両制御画面GM2へ切り替わった直後の車両制御画面GM2を示している。図12の状態J5は、状態J4のタッチ操作の位置から、タッチ操作の位置が移動した後の車両制御画面GM2を示している。図12の状態J5に示すように、タッチ位置の移動に応じて、推進制御ボタンQBの位置が、タッチ位置に追従して移動し、推進制御ボタンQBがタッチ操作された状態が維持される。
図12の状態J6は、状態J5から、携帯端末3の向きが横向きとされて、状態J5のときに表示されていた俯瞰画像表示画面GM2aに代えて、車外画像表示画面GM2bがタッチパネル9に表示された様子を示している。状態J5から状態J6へ移行に際し、ユーザーは、状態J5のときに推進制御ボタンQBをタッチ操作していた指が、タッチパネル9を接触した状態を維持しているものとする。状態J5、状態J6に示すように、端末制御部20は、タッチパネル9に表示させる画面を俯瞰画像表示画面GM2aから車外画像表示画面GM2bに切り替えた際も、推進制御ボタンQBが表示された状態を維持すると共に、タッチ操作の位置に移動に追従して推進制御ボタンQBの位置を移動させ、推進制御ボタンQBがタッチ操作された状態を維持する。
Then, the terminal control unit 20 moves the touch operation position when the touch operation position moves while the touch panel 9 is in contact after the propulsion control button QB displayed on the vehicle control screen GM2 is touch-operated. The position of the propulsion control button QB is moved according to. As a result, even if the position of the touch operation is moved while the touch panel 9 is in contact after the propulsion control button QB is touch-operated, the state in which the propulsion control button QB is touch-operated is maintained.
As described above, the state J4 of FIG. 12 shows the vehicle control screen GM2 immediately after the screen displayed on the touch panel 9 is switched from the lock screen GM1 to the vehicle control screen GM2. The state J5 in FIG. 12 shows the vehicle control screen GM2 after the position of the touch operation is moved from the position of the touch operation in the state J4. As shown in the state J5 of FIG. 12, the position of the propulsion control button QB moves following the touch position in response to the movement of the touch position, and the state in which the propulsion control button QB is touch-operated is maintained.
In the state J6 of FIG. 12, the direction of the mobile terminal 3 is set to be horizontal from the state J5, and the vehicle exterior image display screen GM2b is displayed on the touch panel 9 instead of the bird's-eye view image display screen GM2a displayed in the state J5. It shows how it was done. At the time of transition from the state J5 to the state J6, it is assumed that the user maintains the state in which the finger touching the propulsion control button QB in the state J5 is in contact with the touch panel 9. As shown in the states J5 and J6, the terminal control unit 20 displays the state in which the propulsion control button QB is displayed even when the screen to be displayed on the touch panel 9 is switched from the bird's-eye view image display screen GM2a to the vehicle exterior image display screen GM2b. At the same time, the position of the propulsion control button QB is moved according to the movement to the position of the touch operation, and the state in which the propulsion control button QB is touch-operated is maintained.

車両制御画面GM2の表示に際し、端末制御部20により以上の処理が行われるため、以下の効果を奏する。
すなわち、ユーザーが推進制御ボタンQBをタッチ操作した後、タッチ操作する指の位置がずれた場合であっても、推進制御ボタンQBがタッチ操作された状態が維持される。このため、ユーザーは、推進制御ボタンQBを操作する際、特定の位置をピンポイントでタッチ操作し続ける必要がなく、ユーザーの利便性が高い。特に、上述したように、本実施形態では、車両自動移動が行われている間、ユーザーは、携帯端末3の筐体8の向きを変更する場合がある。そして、筐体8向きの変更に伴って、タッチ操作された位置がずれた場合であっても、推進制御ボタンQBがタッチ操作された状態が維持されるため、ユーザーの利便性が高い。なお、筐体8を片手で把持し、タッチパネル9を片手で操作する場合、タッチ操作する位置がずれやすいものと想定されるため、ユーザーが筐体8を片手で把持し、タッチパネル9を片手で操作する場合に、上述した処理は、より有効である。
When the vehicle control screen GM2 is displayed, the terminal control unit 20 performs the above processing, so that the following effects are obtained.
That is, even if the position of the finger to be touch-operated shifts after the user touch-operates the propulsion control button QB, the state in which the propulsion control button QB is touch-operated is maintained. Therefore, when operating the propulsion control button QB, the user does not have to keep touching a specific position with a pinpoint, which is highly convenient for the user. In particular, as described above, in the present embodiment, the user may change the orientation of the housing 8 of the mobile terminal 3 while the vehicle is automatically moved. Then, even if the touch-operated position shifts due to the change in the orientation of the housing 8, the propulsion control button QB is maintained in the touch-operated state, which is highly convenient for the user. When the housing 8 is gripped with one hand and the touch panel 9 is operated with one hand, it is assumed that the touch operation position is likely to shift. Therefore, the user grips the housing 8 with one hand and the touch panel 9 with one hand. In the case of operation, the above-mentioned processing is more effective.

また、推進制御ボタンQBのタッチ操作が解除された場合、端末制御部20は、タッチ操作が解除されたときの推進制御ボタンQBの位置に、継続して、推進制御ボタンQBを表示する。この構成によれば、ユーザーは、再び、推進制御ボタンQBをタッチ操作する場合に、タッチ操作を解除したときの位置をタッチ操作すればよく、ユーザーの利便性が高い。
なお、推進制御ボタンQBのタッチ操作が解除された場合、上記の処理に代えて、端末制御部20は、以下の処理を実行してもよい。すなわち、推進制御ボタンQBのタッチ操作が解除された場合、予め定められた特定の位置に、推進制御ボタンQBを表示してもよい。予め定められた特定の位置は、一例として、ロック画面GM1におけるスライドバーBR1の右端BR1bに対応する位置である。この構成によれば、推進制御ボタンQBに対するタッチ操作が解除された場合、同じ位置に、推進制御ボタンQBが表示されることになるため、ユーザーは、推進制御ボタンQBの位置を探し易く、ユーザーの利便性が向上する。
Further, when the touch operation of the propulsion control button QB is released, the terminal control unit 20 continuously displays the propulsion control button QB at the position of the propulsion control button QB when the touch operation is released. According to this configuration, when the propulsion control button QB is touch-operated again, the user only needs to touch the position when the touch operation is released, which is highly convenient for the user.
When the touch operation of the propulsion control button QB is released, the terminal control unit 20 may execute the following processing instead of the above processing. That is, when the touch operation of the propulsion control button QB is released, the propulsion control button QB may be displayed at a predetermined specific position. The predetermined specific position is, for example, a position corresponding to the right end BR1b of the slide bar BR1 on the lock screen GM1. According to this configuration, when the touch operation on the propulsion control button QB is released, the propulsion control button QB is displayed at the same position, so that the user can easily find the position of the propulsion control button QB and the user. Convenience is improved.

また、端末制御部20は、推進制御ボタンQBがタッチ操作されているされているときと、タッチ操作されていないときとで、推進制御ボタンQBを示す画像を変化させる。
図12の状態J4〜J6における推進制御ボタンQBは、タッチ操作された状態であり、図12の状態J7における推進制御ボタンQBは、タッチ操作されていない状態である。
状態J4〜J6に示すように、推進制御ボタンQBがタッチ操作されている場合、推進制御ボタンQBを示す画像は、円状の画像と、当該円状の画像の周りを囲む環状の画像とにより構成される。環状の画像は、アニメーションにより、時間の経過に応じて態様が変化する画像であってもよい。一方、状態J7に示すように、推進制御ボタンQBがタッチ操作されていない場合、推進制御ボタンQBを示す画像は、円状の画像であり、環状の画像を含まない。
ユーザーは、推進制御ボタンQBを示す画像を視認することにより、推進制御ボタンQBがタッチ操作されていること、及び、タッチ操作されていないことを、簡易かつ的確に認識することができる。
Further, the terminal control unit 20 changes the image showing the propulsion control button QB depending on whether the propulsion control button QB is touch-operated or not.
The propulsion control button QB in the states J4 to J6 in FIG. 12 is in a touch-operated state, and the propulsion control button QB in the state J7 in FIG. 12 is in a non-touch-operated state.
As shown in the states J4 to J6, when the propulsion control button QB is touch-operated, the image showing the propulsion control button QB is composed of a circular image and a circular image surrounding the circular image. It is composed. The ring-shaped image may be an image whose mode changes with the passage of time due to animation. On the other hand, as shown in the state J7, when the propulsion control button QB is not touch-operated, the image showing the propulsion control button QB is a circular image and does not include an annular image.
By visually recognizing the image showing the propulsion control button QB, the user can easily and accurately recognize that the propulsion control button QB is touch-operated and that the propulsion control button QB is not touch-operated.

また、端末制御部20は、図12の状態J4、状態J5に示すように、俯瞰画像表示画面GM2aを表示している場合、車両Sを示す画像に重畳して、車両Sのギアの状態を示すマークを表示する。本実施形態では、端末制御部20は、車両Sのギアの状態がパーキング(P)の場合は、文字「P」を表すマークを車両Sを示す画像に重畳して表示し、リバース(R)の場合は、文字「R」を表すマークを車両Sを示す画像に重畳して表示し、ドライブ(D)の場合は、文字「D」を表すマークを車両Sを示す画像に重畳して表示し、ニュートラル(N)の場合は、文字「N」を表すマークを車両Sを示す画像に重畳して表示し、ロー(L)の場合は、文字「L」を表すマークを車両Sを示す画像に重畳して表示する。端末制御部20は、情報処理装置4と通信して、車両Sのギアの状態を認識する。
ユーザーは、車両Sを示す画像に重畳して表示されるマークを参照することにより、車両Sのギアの状態を的確に認識できる。
Further, as shown in the states J4 and J5 of FIG. 12, the terminal control unit 20 superimposes the state of the gear of the vehicle S on the image showing the vehicle S when the bird's-eye view image display screen GM2a is displayed. Display the indicated mark. In the present embodiment, when the gear state of the vehicle S is parking (P), the terminal control unit 20 superimposes and displays a mark representing the character "P" on the image indicating the vehicle S, and reverses (R). In the case of, the mark representing the character "R" is superimposed and displayed on the image indicating the vehicle S, and in the case of the drive (D), the mark representing the character "D" is superimposed and displayed on the image indicating the vehicle S. However, in the case of neutral (N), the mark representing the character "N" is superimposed and displayed on the image indicating the vehicle S, and in the case of low (L), the mark representing the character "L" indicates the vehicle S. Display by superimposing on the image. The terminal control unit 20 communicates with the information processing device 4 to recognize the state of the gear of the vehicle S.
The user can accurately recognize the state of the gear of the vehicle S by referring to the mark displayed superimposed on the image showing the vehicle S.

図9に示すように、車両自動運転により、車両Sが駐車位置まで移動し、駐車位置で停車することによって、フローチャートFAの車両推進制御処理、及び、フローチャートFBの車両推進制御処理が完了する。車両Sが車両位置で停車した場合、そのことが所定の方法でユーザーに通知される。車外にいるユーザーは、上述した専用のリモートコントローラーを利用して、エンジンスイッチをオフし、ドアを施錠することにより、車両Sの近傍を離れることができる。 As shown in FIG. 9, the vehicle S moves to the parking position and stops at the parking position by the automatic vehicle driving, so that the vehicle propulsion control process of the flowchart FA and the vehicle propulsion control process of the flowchart FB are completed. When the vehicle S stops at the vehicle position, the user is notified by a predetermined method. A user outside the vehicle can leave the vicinity of the vehicle S by turning off the engine switch and locking the door by using the dedicated remote controller described above.

なお、第1モード、第2モードにおいて、情報処理装置4が携帯端末3に送信する合成画像データ、俯瞰画像データ、及び車外画像データは、それぞれ、「車両Sに設けられたカメラの撮影結果に基づく撮影データ」に相当する。 In the first mode and the second mode, the composite image data, the bird's-eye view image data, and the vehicle exterior image data transmitted by the information processing device 4 to the mobile terminal 3 are "in the shooting result of the camera provided in the vehicle S, respectively. Corresponds to "based shooting data".

<車両Sを出庫させる場合>
次に、車両Sを出庫させる場合について、説明する。
図18のフローチャートFJは、情報処理装置4の動作を示すフローチャートであり、フローチャートFKは、携帯端末3の動作を示すフローチャートである。
以下、駐車場の1つの駐車領域に対応する駐車位置から車両Sを出庫させる場合を例にして、情報処理装置4、及び携帯端末3の動作について説明する。
<When leaving vehicle S>
Next, a case where the vehicle S is delivered will be described.
The flowchart FJ of FIG. 18 is a flowchart showing the operation of the information processing device 4, and the flowchart FK is a flowchart showing the operation of the mobile terminal 3.
Hereinafter, the operations of the information processing device 4 and the mobile terminal 3 will be described by taking as an example the case where the vehicle S is discharged from the parking position corresponding to one parking area of the parking lot.

ユーザーは、車両自動移動により出庫を行う場合、駐車位置の近辺に行く。なお、ユーザーは、車両Sに搭乗してもよいが、説明の便宜のため、以下では、ユーザーが車両Sを降車するものとして説明する。
次いで、ユーザーは、上述した専用のリモートコントローラーを操作して、車両Sのエンジンスイッチをオンする。車両Sのエンジンスイッチのオンに伴い、アクセサリー電源から、情報処理装置4に電力が供給されると共に、情報処理装置4の電源がオンされる。
次いで、ユーザーは、携帯端末3のタッチパネル9を操作して、専用アプリケーションAPを起動する(ステップS3)。なお、ユーザーは、専用アプリケーションAPを起動する際、携帯端末3の筐体8の向きを、「縦向き」とする。
携帯端末3の端末制御部20は、ステップS3でユーザーにより起動された専用アプリケーションAPの機能により、フローチャートFKの処理を実行する。
さらに、ユーザーは、タッチパネル9に対して所定の操作を行って、タッチパネル9に、出庫開始指示画面を表示させる指示を行う(ステップS4)。
図18のフローチャートFKに示すように、ステップS4の指示に応じて、端末制御部20は、出庫開始指示画面をタッチパネル9に表示させる(ステップSK1)。
出庫開始指示画面は、車両自動移動による出庫を行うことの指示を入力可能な画面であり、当該指示を行う場合にタッチ操作されるタッチ操作ボタンが表示される。ユーザーは、車両自動伊藤により出庫を行う場合、出庫開始指示画面に表示されたタッチ操作ボタンを操作する(ステップS5)。
The user goes to the vicinity of the parking position when leaving the garage by automatic vehicle movement. The user may board the vehicle S, but for convenience of explanation, the user will be described below assuming that the user gets off the vehicle S.
Next, the user operates the dedicated remote controller described above to turn on the engine switch of the vehicle S. When the engine switch of the vehicle S is turned on, electric power is supplied to the information processing device 4 from the accessory power supply, and the power of the information processing device 4 is turned on.
Next, the user operates the touch panel 9 of the mobile terminal 3 to activate the dedicated application AP (step S3). When the user activates the dedicated application AP, the orientation of the housing 8 of the mobile terminal 3 is set to "vertical orientation".
The terminal control unit 20 of the mobile terminal 3 executes the processing of the flowchart FK by the function of the dedicated application AP started by the user in step S3.
Further, the user performs a predetermined operation on the touch panel 9 to give an instruction to display the delivery start instruction screen on the touch panel 9 (step S4).
As shown in the flowchart FK of FIG. 18, in response to the instruction in step S4, the terminal control unit 20 causes the touch panel 9 to display the delivery start instruction screen (step SK1).
The warehousing start instruction screen is a screen on which an instruction to perform warehousing by automatic vehicle movement can be input, and a touch operation button that is touch-operated when the instruction is given is displayed. The user operates the touch operation button displayed on the warehousing start instruction screen when warehousing is performed by the vehicle automatic Ito (step S5).

ユーザーにより出庫開始指示画面のタッチ操作ボタンが操作されたことを検出すると、端末制御部20は、出庫開始指示情報を情報処理装置4に送信する(ステップSK2)。 When it is detected that the touch operation button on the delivery start instruction screen has been operated by the user, the terminal control unit 20 transmits the delivery start instruction information to the information processing device 4 (step SK2).

図18のフローチャートFJに示すように、情報処理装置4の情報処理装置制御部30は、出庫開始指示情報を受信する(ステップSJ1)。
次いで、情報処理装置制御部30は、出庫開始指示情報の受信に応じて、情報処理装置4の動作モードを、出庫モードへ変更する(ステップSJ2)。
As shown in the flowchart FJ of FIG. 18, the information processing device control unit 30 of the information processing device 4 receives the delivery start instruction information (step SJ1).
Next, the information processing device control unit 30 changes the operation mode of the information processing device 4 to the delivery mode in response to the reception of the delivery start instruction information (step SJ2).

動作モードの出庫モードへの移行に応じて、情報処理装置制御部30は、候補位置決定処理を実行する(ステップSJ3)。
候補位置決定処理は、車両Sが駐車位置を移動して停車可能な1又は複数の位置を決定する処理である。候補位置決定処理で決定される1又は複数の位置は、車両Sを出庫により停車させる位置の候補である。以下、候補位置決定処理で決定される位置のそれぞれを、「候補位置」と表現する。
ステップSJ3の候補位置決定処理において、情報処理装置制御部30は、上述した駐車位置決定処理と同様の処理を行って、1又は複数の候補位置を決定する。候補位置決定処理において、候補位置を決定する処理の方法は、どのような方法であってもよい。
The information processing apparatus control unit 30 executes the candidate position determination process according to the shift of the operation mode to the delivery mode (step SJ3).
The candidate position determination process is a process of determining one or a plurality of positions where the vehicle S can move the parking position and stop. One or a plurality of positions determined by the candidate position determination process are candidates for positions at which the vehicle S is stopped by leaving the vehicle. Hereinafter, each of the positions determined by the candidate position determination process is expressed as "candidate position".
In the candidate position determination process of step SJ3, the information processing apparatus control unit 30 performs the same process as the parking position determination process described above to determine one or a plurality of candidate positions. In the candidate position determination process, any method may be used for the process of determining the candidate position.

ステップSJ3で1又は複数の候補位置を決定した後、情報処理装置制御部30は、候補位置経路情報生成処理を実行する(ステップSJ4)。
候補位置経路情報生成処理は、駐車位置から、ステップSJ3で決定した候補位置に至るまでの軌道を示す軌道情報を含む自動運転経路情報を生成する処理である。以下、駐車位置から候補位置までの軌道を示す軌道情報を含む自動運転経路情報を、「候補位置経路情報」という。ステップSJ4において、情報処理装置制御部30は、ステップSJ3の候補位置決定処理で、複数の候補位置を決定した場合は、複数の候補位置に対応する複数の候補位置経路情報を生成する。
After determining one or more candidate positions in step SJ3, the information processing apparatus control unit 30 executes the candidate position route information generation process (step SJ4).
The candidate position route information generation process is a process of generating automatic driving route information including track information indicating a track from the parking position to the candidate position determined in step SJ3. Hereinafter, the automatic driving route information including the track information indicating the track from the parking position to the candidate position is referred to as "candidate position route information". In step SJ4, when the information processing apparatus control unit 30 determines a plurality of candidate positions in the candidate position determination process of step SJ3, the information processing apparatus control unit 30 generates a plurality of candidate position route information corresponding to the plurality of candidate positions.

次いで、情報処理装置制御部30は、ステップSJ4で生成した候補位置経路情報のそれぞれを、携帯端末3に送信する(ステップSJ5)。
さらに、情報処理装置制御部30は、俯瞰用カメラからの入力に基づく俯瞰画像データを生成、及び、俯瞰画像データの携帯端末3への送信を開始する(ステップSJ6)。情報処理装置制御部30は、俯瞰用カメラから所定の周期で入力される撮影画像データに基づいて、所定の周期に対応する周期で、俯瞰画像データの生成、及び、送信を実行する。
Next, the information processing apparatus control unit 30 transmits each of the candidate position route information generated in step SJ4 to the mobile terminal 3 (step SJ5).
Further, the information processing apparatus control unit 30 starts generating the bird's-eye view image data based on the input from the bird's-eye view camera and transmitting the bird's-eye view image data to the mobile terminal 3 (step SJ6). The information processing device control unit 30 generates and transmits the bird's-eye view image data at a cycle corresponding to the predetermined cycle based on the captured image data input from the bird's-eye view camera at a predetermined cycle.

図18のフローチャートFKに示すように、携帯端末3の端末制御部20は、ステップSJ5で情報処理装置4により送信された1又は複数の候補位置経路情報を受信する(ステップSK3)。また、端末制御部20は、俯瞰画像データの受信を開始する(ステップSK4)。 As shown in the flowchart FK of FIG. 18, the terminal control unit 20 of the mobile terminal 3 receives one or more candidate position route information transmitted by the information processing apparatus 4 in step SJ5 (step SK3). Further, the terminal control unit 20 starts receiving the bird's-eye view image data (step SK4).

次いで、端末制御部20は、ステップSK3で受信した候補位置経路情報のそれぞれ、及び、ステップSK4で受信を開始した俯瞰画像データに基づいて、タッチパネル9に選択画面GM3を表示させる(ステップSK5)。
選択画面GM3を表示した後、端末制御部20は、選択画面GM3に対して候補位置を選択する入力があったか否かを監視する(ステップSK6)。
以下、選択画面GM3の内容、及び、ステップSK6の処理について詳述する。
Next, the terminal control unit 20 causes the touch panel 9 to display the selection screen GM3 based on each of the candidate position route information received in step SK3 and the bird's-eye view image data that started reception in step SK4 (step SK5).
After displaying the selection screen GM3, the terminal control unit 20 monitors whether or not there is an input for selecting a candidate position on the selection screen GM3 (step SK6).
Hereinafter, the content of the selection screen GM3 and the processing of step SK6 will be described in detail.

図19は、選択画面GM3の一例を示す図である。
選択画面GM3は、ユーザーが、候補位置のうち、1つの候補位置を選択する入力を行う画面である。
図19に示すように、選択画面GM3には、俯瞰画像G1が表示される。端末制御部20は、情報処理装置4から受信する俯瞰画像データに基づいて、俯瞰画像G1を表示する。選択画面GM3に表示された俯瞰画像G1の中央部には、車両Sを示す現在位置画像X1が表示される。現在位置画像X1は、車両Sの現在の位置を示す画像である。
FIG. 19 is a diagram showing an example of the selection screen GM3.
The selection screen GM3 is a screen in which the user inputs to select one candidate position among the candidate positions.
As shown in FIG. 19, the bird's-eye view image G1 is displayed on the selection screen GM3. The terminal control unit 20 displays the bird's-eye view image G1 based on the bird's-eye view image data received from the information processing device 4. At the center of the bird's-eye view image G1 displayed on the selection screen GM3, the current position image X1 showing the vehicle S is displayed. The current position image X1 is an image showing the current position of the vehicle S.

図19に示すように、選択画面GM3には、候補位置画像X2が表示される。候補位置画像X2は、候補位置(車両Sが出庫により停車する位置の候補。)を示す画像である。候補位置画像X2は、候補位置が複数ある場合(複数の候補位置経路情報を受信した場合。)、複数、表示される。
図19で例示する選択画面GM3では、候補位置画像X2は、矩形の枠の画像である。なお、候補位置画像X2の形状は、図19で示す形状に限られない。
候補位置画像X2は、選択画面GM3において、現実の空間における実際の候補位置に対応する位置に表示される。従って、選択画面GM3における現在位置画像X1と、候補位置画像X2との位置関係は、現実の空間における車両Sの現在の位置と、候補位置との位置関係に対応した状態となる。
端末制御部20は、候補位置経路情報に基づいて、俯瞰画像G1に重畳して、1又は複数の候補位置画像X2を表示する。
ユーザーは、選択画面GM3に表示された候補位置画像X2に基づいて、車両Sと候補位置との位置関係を的確に認識できる。
As shown in FIG. 19, the candidate position image X2 is displayed on the selection screen GM3. The candidate position image X2 is an image showing a candidate position (a candidate for a position where the vehicle S stops due to leaving the vehicle). When there are a plurality of candidate positions (when a plurality of candidate position route information is received), a plurality of candidate position images X2 are displayed.
In the selection screen GM3 illustrated in FIG. 19, the candidate position image X2 is an image of a rectangular frame. The shape of the candidate position image X2 is not limited to the shape shown in FIG.
The candidate position image X2 is displayed at a position corresponding to the actual candidate position in the real space on the selection screen GM3. Therefore, the positional relationship between the current position image X1 and the candidate position image X2 on the selection screen GM3 is in a state corresponding to the positional relationship between the current position of the vehicle S in the real space and the candidate position.
The terminal control unit 20 superimposes the bird's-eye view image G1 on the candidate position route information and displays one or a plurality of candidate position images X2.
The user can accurately recognize the positional relationship between the vehicle S and the candidate position based on the candidate position image X2 displayed on the selection screen GM3.

図19に示すように、選択画面GM3において、現在位置画像X1の下方には、スライドユニットSU2が表示される。スライドユニットSU2は、1又は複数のスライドバーBR2と、1つのスライドボタンSB2とを有する。
選択画面GM3に表示されるスライドバーBR2の個数は、候補位置画像X2の個数と同一である。図19に示すように、スライドバーBR2のそれぞれは、現在位置画像X1の下方に位置する共通の基端PP1を起点として、候補位置画像X2のそれぞれに向かって延在する帯状のオブジェクトである。例えば、図19に例示するように、選択画面GM3に候補位置画像X2として第1画像、第2画像、及び第3画像の3個の候補位置画像X2が表示されているものとする。この場合、選択画面GM3に、スライドバーBR2は「3個」表示される。3個のスライドバーBR2を、それぞれ、第1バー、第2バー、及び第3バーと表現すると、第1バーは、基端PP1から第1画像に向かって延在する帯状のオブジェクトであり、第2バーは、基端PP1から第2画像に向かって延在する帯状のオブジェクトであり、第3バーは、基端PP1から第3画像に向かって延在する帯状のオブジェクトである。
As shown in FIG. 19, on the selection screen GM3, the slide unit SU2 is displayed below the current position image X1. The slide unit SU2 has one or more slide bars BR2 and one slide button SB2.
The number of slide bars BR2 displayed on the selection screen GM3 is the same as the number of candidate position images X2. As shown in FIG. 19, each of the slide bar BR2 is a strip-shaped object extending from the common base end PP1 located below the current position image X1 toward each of the candidate position images X2. For example, as illustrated in FIG. 19, it is assumed that three candidate position images X2, a first image, a second image, and a third image, are displayed as candidate position images X2 on the selection screen GM3. In this case, "3" slide bars BR2 are displayed on the selection screen GM3. When the three slide bars BR2 are expressed as the first bar, the second bar, and the third bar, respectively, the first bar is a strip-shaped object extending from the base end PP1 toward the first image. The second bar is a band-shaped object extending from the base end PP1 toward the second image, and the third bar is a band-shaped object extending from the base end PP1 toward the third image.

スライドボタンSB2は、タッチ操作ボタンであり、ユーザーのスワイプ操作に応じて、スライドバーBR2(複数のスライドバーBR2が表示されている場合は、全てのスライドバーBR2。)に沿って移動可能である。図19に示すように、スライドボタンSB2は、ユーザーによりタッチ操作が行われていない場合、基端PP1に位置した状態が維持される。スライドボタンSB2は、スライドバーBR2の基端PP1から、先端PP2の範囲内で移動可能である。 The slide button SB2 is a touch operation button, and can be moved along the slide bar BR2 (when a plurality of slide bars BR2 are displayed, all the slide bars BR2) according to the swipe operation of the user. .. As shown in FIG. 19, the slide button SB2 is maintained in a state of being positioned at the base end PP1 when no touch operation is performed by the user. The slide button SB2 can be moved from the base end PP1 of the slide bar BR2 within the range of the tip end PP2.

図20は、タッチパネル9に表示される画面の遷移を説明する図である。図20では、適宜、タッチパネル9に表示される画面と併せて、画面を操作するユーザーの指の一部を示す。
図20の状態J10は、ユーザーがタッチ操作を行っていない状態の選択画面GM3を示している。上述したように、選択画面GM3は、ユーザーが、候補位置のうち、1つの候補位置を選択する入力を行う画面である。
候補位置を選択する入力を行う場合、ユーザーは、状態J10の選択画面GM3で、基端PP1に位置するスライドボタンSB2を指でタッチ操作する。
次いで、ユーザーは、スワイプ操作により、スライドボタンSB2を、スライドバーBR2のうち、車両Sを出庫により停車させることを望む候補位置の候補位置画像X2に向かって延在するスライドバーBR2沿って移動させる。スワイプ操作に応じて、端末制御部20は、指が接触する位置に追従して、スライドボタンSB2をスライドバーBR2に沿って移動させる。図12の状態J11は、スワイプ操作により、スライドバーBR2に沿ってスライドボタンSB2が移動した状態の選択画面GM3を示している。
FIG. 20 is a diagram for explaining the transition of the screen displayed on the touch panel 9. FIG. 20 shows a part of a user's finger that operates the screen together with the screen displayed on the touch panel 9 as appropriate.
The state J10 in FIG. 20 shows the selection screen GM3 in a state in which the user is not performing a touch operation. As described above, the selection screen GM3 is a screen in which the user inputs to select one candidate position among the candidate positions.
When inputting to select a candidate position, the user touches the slide button SB2 located at the base end PP1 with a finger on the selection screen GM3 of the state J10.
Next, the user swipes to move the slide button SB2 along the slide bar BR2 extending toward the candidate position image X2 of the candidate position where the vehicle S is desired to be stopped by leaving the slide bar BR2. .. In response to the swipe operation, the terminal control unit 20 follows the position where the finger touches and moves the slide button SB2 along the slide bar BR2. The state J11 in FIG. 12 shows the selection screen GM3 in which the slide button SB2 is moved along the slide bar BR2 by the swipe operation.

図12の状態J11に示すように、スワイプ操作に応じて、選択画面GM3には、車両Sが駐車位置から候補位置に移動した場合に、車両Sが通る軌道を示す軌道画像X3が表示される。軌道画像X3は、現在位置画像X1と、候補位置画像X2とを、車両Sが候補位置へ移動するときの軌道に沿って結ぶ帯状の画像であり、車両Sの幅に対応する幅を有する。
端末制御部20は、候補位置経路情報に基づいて、俯瞰画像G1に重畳して、1又は複数の軌道画像X3を表示する。
ユーザーは、選択画面GM3に表示された軌道画像X3に基づいて、車両Sが車両自動移動により、候補位置まで移動した場合の軌道(経路)を的確に認識できる。
As shown in the state J11 of FIG. 12, in response to the swipe operation, the track image X3 showing the track through which the vehicle S passes is displayed on the selection screen GM3 when the vehicle S moves from the parking position to the candidate position. .. The track image X3 is a band-shaped image connecting the current position image X1 and the candidate position image X2 along the track when the vehicle S moves to the candidate position, and has a width corresponding to the width of the vehicle S.
The terminal control unit 20 superimposes the bird's-eye view image G1 on the bird's-eye view image G1 based on the candidate position route information, and displays one or a plurality of trajectory images X3.
Based on the track image X3 displayed on the selection screen GM3, the user can accurately recognize the track (route) when the vehicle S moves to the candidate position by the vehicle automatic movement.

スワイプ操作を行うユーザーは、スライドボタンSB2をスライドバーBR2の先端PP2にまで移動させ、所定の期間(例えば、3秒。)、スライドボタンSB2が先端PP2に位置した状態を維持する。これにより、候補位置を選択する入力が完了する。
なお、候補位置を車両推進制御モードへの移行の指示の入力が完了する前に、スワイプ操作が解除されると、端末制御部20は、スワイプ操作の解除に応じて、スライドボタンSB2を、基端PP1に移動させる。
The user who performs the swipe operation moves the slide button SB2 to the tip PP2 of the slide bar BR2, and keeps the slide button SB2 positioned at the tip PP2 for a predetermined period (for example, 3 seconds). This completes the input for selecting the candidate position.
If the swipe operation is released before the input of the instruction to shift the candidate position to the vehicle propulsion control mode is completed, the terminal control unit 20 bases the slide button SB2 in response to the release of the swipe operation. Move to end PP1.

ステップSK6において、端末制御部20は、タッチパネル9からの入力に基づいて、スライドバーBR2の先端PP2にスライドボタンSB2が、所定の期間、位置したか否かを監視する。そして、端末制御部20は、スライドバーBR2の先端PP2にスライドボタンSB2が、所定の期間、位置した場合、候補位置を選択する入力があったと判別する。 In step SK6, the terminal control unit 20 monitors whether or not the slide button SB2 is positioned on the tip PP2 of the slide bar BR2 for a predetermined period based on the input from the touch panel 9. Then, the terminal control unit 20 determines that when the slide button SB2 is positioned at the tip PP2 of the slide bar BR2 for a predetermined period of time, there is an input for selecting a candidate position.

ステップSK6において、候補位置を選択する入力があったと判別した場合(ステップSK6:YES)、端末制御部20は、スライドボタンSB2が、所定の期間、先端PP2に位置したスライドバーBR2に対応する候補位置画像X2の候補位置を、出庫後に車両Sを停車させる位置として決定する(ステップSK7)。 When it is determined in step SK6 that there is an input for selecting a candidate position (step SK6: YES), the terminal control unit 20 determines that the slide button SB2 is a candidate corresponding to the slide bar BR2 located at the tip PP2 for a predetermined period. The candidate position of the position image X2 is determined as a position to stop the vehicle S after leaving the warehouse (step SK7).

以上のように、本実施形態では、ユーザーは、所望のスライドバーBR2に沿って、スライドボタンSB2を移動させるという簡易な操作により、候補位置の中から、車両Sが出庫した後に停車させることを望む候補位置を決定できる。このため、ユーザーの利便性が高い。特に、スライドバーBR2のそれぞれは、候補位置画像X2のそれぞれに向かって延在する構成のため、ユーザーは、どのスライドバーBR2が、どの候補位置画像X2と対応関係にあるのかを、感覚的に把握できる。
また、本実施形態では、スライドバーBR2の先端PP2にスライドボタンSB2が、所定の期間、位置して初めて、入力が完了する。この構成のため、タッチパネル9にユーザーの指が偶発的に接触し、ユーザーの意図に反して候補位置が選択されることが防止される。
As described above, in the present embodiment, the user can stop the vehicle S from the candidate positions after the vehicle S has been delivered by a simple operation of moving the slide button SB2 along the desired slide bar BR2. You can determine the desired candidate position. Therefore, the convenience of the user is high. In particular, since each of the slide bar BR2 extends toward each of the candidate position images X2, the user can intuitively know which slide bar BR2 corresponds to which candidate position image X2. I can grasp it.
Further, in the present embodiment, the input is completed only when the slide button SB2 is positioned at the tip PP2 of the slide bar BR2 for a predetermined period of time. This configuration prevents the user's finger from accidentally touching the touch panel 9 and selecting a candidate position against the user's intention.

ステップSK7で、車両Sを停車させる位置を決定した後、端末制御部20は、動作モードを車両推進制御モードへ移行する(ステップSK8)。
動作モードの移行に応じて、端末制御部20は、タッチパネル9に表示する画面を選択画面GM3から、車両制御画面GM2へ切り替える(ステップSK9)。
After determining the position to stop the vehicle S in step SK7, the terminal control unit 20 shifts the operation mode to the vehicle propulsion control mode (step SK8).
The terminal control unit 20 switches the screen to be displayed on the touch panel 9 from the selection screen GM3 to the vehicle control screen GM2 according to the transition of the operation mode (step SK9).

図20の状態J12は、タッチパネル9に表示される画面が選択画面GM3から車両制御画面GM2へ切り替わった直後の車両制御画面GM2を示している。なお、画面が車両制御画面GM2へと切り替わった直後は、携帯端末3の筐体8の向きは、「縦向き」である。
出庫時に表示される車両制御画面GM2は、駐車時に表示される車両制御画面GM2と同じである。選択画面GM3から車両制御画面GM2へと画面を切り替える際、端末制御部20は、選択画面GM3におけるスライドボタンSB2を、推進制御ボタンQB(操作ボタン)へと切り替える。すなわち、端末制御部20は、画面の切り替えに応じて、スライドボタンSB2と異なるボタンとして推進制御ボタンQBを改めて表示するのではなく、スライドバーBR2の先端PP2に位置するスライドボタンSB2を、画面の切り替わり応じて、位置を変更することなく、推進制御ボタンQBとして機能させる。従って、画面が切り替わった直後は、推進制御ボタンQBは、選択画面GM3におけるスライドバーBR2の先端PP2に位置し、また、推進制御ボタンQBは、ユーザーによりタッチ操作された状態である。
なお、図20の状態J12に代えて、図20の状態J13に示す車両制御画面GM2を表示してもよい。状態J13で示す車両制御画面GM2では、車両Sの駐車位置から、選択された候補位置に向かう軌道画像X3が、進行方向を明示する矢印の形状となっている。状態J13に示す態様で、車両制御画面GM2を表示することにより、ユーザーは、駐車位置から出庫した後の車両Sの進行方向を的確に認識できる。
The state J12 of FIG. 20 shows the vehicle control screen GM2 immediately after the screen displayed on the touch panel 9 is switched from the selection screen GM3 to the vehicle control screen GM2. Immediately after the screen is switched to the vehicle control screen GM2, the orientation of the housing 8 of the mobile terminal 3 is "vertical orientation".
The vehicle control screen GM2 displayed at the time of leaving the garage is the same as the vehicle control screen GM2 displayed at the time of parking. When switching the screen from the selection screen GM3 to the vehicle control screen GM2, the terminal control unit 20 switches the slide button SB2 on the selection screen GM3 to the propulsion control button QB (operation button). That is, the terminal control unit 20 does not display the propulsion control button QB again as a button different from the slide button SB2 in response to the screen switching, but instead displays the slide button SB2 located at the tip PP2 of the slide bar BR2 on the screen. It functions as a propulsion control button QB without changing the position according to the switching. Therefore, immediately after the screen is switched, the propulsion control button QB is located at the tip PP2 of the slide bar BR2 on the selection screen GM3, and the propulsion control button QB is in a state of being touch-operated by the user.
Instead of the state J12 of FIG. 20, the vehicle control screen GM2 shown in the state J13 of FIG. 20 may be displayed. In the vehicle control screen GM2 shown in the state J13, the track image X3 from the parking position of the vehicle S toward the selected candidate position has the shape of an arrow clearly indicating the traveling direction. By displaying the vehicle control screen GM2 in the mode shown in the state J13, the user can accurately recognize the traveling direction of the vehicle S after leaving the parking position.

車両推進制御モードへの移行に応じて、端末制御部20は、ステップSK7で決定した候補位置を示す情報を、情報処理装置4に送信する(ステップSK10)。
図18のフローチャートFJに示すように、情報処理装置4の情報処理装置制御部30は、候補位置を示す情報を受信する(ステップSJ7)。
In response to the shift to the vehicle propulsion control mode, the terminal control unit 20 transmits information indicating the candidate position determined in step SK7 to the information processing apparatus 4 (step SK10).
As shown in the flowchart FJ of FIG. 18, the information processing device control unit 30 of the information processing device 4 receives information indicating a candidate position (step SJ7).

図18のフローチャートFJ、及び、フローチャートFKに示すように、携帯端末3の動作モードが車両推進制御モードへ移行した後、情報処理装置4の情報処理装置制御部30、及び携帯端末3の端末制御部20は、協働して車両推進制御処理を実行する(ステップSJ8、ステップSK11)。
出庫時の車両推進制御処理では、駐車時の車両推進制御処理と同様の処理が行われる。なお、情報処理装置制御部30は、ステップSJ7で受信した情報が示す候補位置に対応する自動運転経路情報を、車両駆動制御装置5に出力する。
As shown in the flowchart FJ and the flowchart FK of FIG. 18, after the operation mode of the mobile terminal 3 shifts to the vehicle propulsion control mode, the information processing device control unit 30 of the information processing device 4 and the terminal control of the mobile terminal 3 The unit 20 cooperates to execute the vehicle propulsion control process (step SJ8, step SK11).
In the vehicle propulsion control process at the time of leaving the garage, the same process as the vehicle propulsion control process at the time of parking is performed. The information processing device control unit 30 outputs the automatic driving route information corresponding to the candidate position indicated by the information received in step SJ7 to the vehicle drive control device 5.

車両自動運転により、車両Sが駐車位置から、選択された候補位置(出庫後停車位置)まで移動し、選択された候補位置で停車することによって、フローチャートFJの車両推進制御処理、及び、フローチャートFKの車両推進制御処理が完了する。車両Sが選択された候補位置で停車した場合、そのことが所定の方法でユーザーに通知される。車外にいるユーザーは、上述した専用のリモートコントローラーを利用して、ドアを開錠することにより、車両Sに搭乗することができる。 By automatic vehicle driving, the vehicle S moves from the parking position to the selected candidate position (stop position after leaving the vehicle) and stops at the selected candidate position, whereby the vehicle propulsion control process of the flowchart FJ and the flowchart FK Vehicle propulsion control process is completed. When the vehicle S stops at the selected candidate position, the user is notified by a predetermined method. A user outside the vehicle can board the vehicle S by unlocking the door using the dedicated remote controller described above.

ところで、出庫のパターンには、駐車位置に駐車する車両Sの状態に応じて、複数のパターンがある。
端末制御部20は、出庫のパターンに応じて、選択画面GM3における候補位置画像X2、及びスライドユニットSU2の表示態様を変更する。例えば、端末制御部20は、以下の方法で、出庫のパターンに応じて、選択画面GM3における候補位置画像X2、及びスライドユニットSU2の表示態様を変更する。すなわち、事前に、端末記憶部22に、出庫のパターンごとに、出庫のパターンに対応した態様で候補位置画像X2と、スライドユニットSU2とを表示させる画像データを記憶する。そして、端末制御部20は、選択画面GM3をタッチパネル9に表示させる際、出庫のパターンを特定し、端末記憶部22から、特定した出庫のパターンに対応する画像データを読み出し、必要に応じて画像データを加工し、加工後の画像データを用いて選択画面GM3を表示する。この構成によれば、予め用意された画像データを使用して選択画面GM3を表示することが可能となるため、処理効率を向上できる。
出庫のパターンとしては、例えば、以下の第1パターン〜第6パターンがある。
By the way, there are a plurality of patterns of warehousing depending on the state of the vehicle S parked at the parking position.
The terminal control unit 20 changes the display mode of the candidate position image X2 and the slide unit SU2 on the selection screen GM3 according to the delivery pattern. For example, the terminal control unit 20 changes the display mode of the candidate position image X2 and the slide unit SU2 on the selection screen GM3 according to the delivery pattern by the following method. That is, in advance, the terminal storage unit 22 stores image data for displaying the candidate position image X2 and the slide unit SU2 in a mode corresponding to the delivery pattern for each delivery pattern. Then, when the selection screen GM3 is displayed on the touch panel 9, the terminal control unit 20 specifies the delivery pattern, reads out the image data corresponding to the specified delivery pattern from the terminal storage unit 22, and displays the image as necessary. The data is processed, and the selection screen GM3 is displayed using the processed image data. According to this configuration, the selection screen GM3 can be displayed using the image data prepared in advance, so that the processing efficiency can be improved.
As the delivery pattern, for example, there are the following first to sixth patterns.

第1パターンは、車両Sが「前進」することによって出庫し、出庫後に車両Sが停車可能な候補位置が、車両Sの前方の位置と、車両Sの前方右側の位置と、車両Sの前方左側の位置との3つ存在するパターンである。例えば、車両Sが、前方に広いスペースがある駐車位置に駐車した状態の場合、出庫のパターンが第1パターンとなる。
図19、及び図20で例示した選択画面GM3は、第1パターンに対応する選択画面GM3である。
In the first pattern, the vehicle S leaves the garage when it "forwards", and the candidate positions where the vehicle S can stop after the warehousing are the position in front of the vehicle S, the position on the front right side of the vehicle S, and the front of the vehicle S. There are three patterns with the position on the left side. For example, when the vehicle S is parked in a parking position having a large space in front of it, the delivery pattern is the first pattern.
The selection screen GM3 illustrated in FIGS. 19 and 20 is a selection screen GM3 corresponding to the first pattern.

第2パターンは、車両Sが「後進」することによって出庫し、出庫後に車両Sが停車可能な候補位置が、車両Sの後方の位置と、車両Sの後方右側の位置と、車両Sの後方左側の位置との3つ存在するパターンである。例えば、車両Sが、後方に広いスペースがある駐車位置に駐車した状態の場合、出庫のパターンが第2パターンとなる。
図21の状態J20は、第2パターンに対応する選択画面GM3を示している。
In the second pattern, the vehicle S leaves the garage when it "reverses", and the candidate positions where the vehicle S can stop after the warehousing are the position behind the vehicle S, the position on the rear right side of the vehicle S, and the rear of the vehicle S. There are three patterns with the position on the left side. For example, when the vehicle S is parked in a parking position having a large space behind it, the delivery pattern is the second pattern.
The state J20 in FIG. 21 shows the selection screen GM3 corresponding to the second pattern.

第3パターンは、車両Sが「前進」することによって出庫し、出庫後に車両Sが停車可能な候補位置が、車両Sの前方右側の位置と、車両Sの前方左側の位置との2つ存在するパターンである。例えば、車両Sが縦列駐車し、車両Sの前方右側と、前方左側とに車両Sが停車可能なスペースがある場合に、出庫のパターンが第3パターンとなる。
図21の状態J21は、第3パターンに対応する選択画面GM3を示している。
In the third pattern, the vehicle S leaves the garage when it "forwards", and there are two candidate positions where the vehicle S can stop after the warehousing: the position on the front right side of the vehicle S and the position on the front left side of the vehicle S. It is a pattern to do. For example, when the vehicle S is parallel parked and there are spaces on the front right side and the front left side of the vehicle S where the vehicle S can stop, the warehousing pattern is the third pattern.
The state J21 in FIG. 21 shows the selection screen GM3 corresponding to the third pattern.

第4パターンは、車両Sが「後進」することによって出庫し、出庫後に車両Sが停車可能な候補位置が、車両Sの後方右側の位置と、車両Sの後方左側の位置との2つ存在するパターンである。例えば、車両Sが縦列駐車し、車両Sの後方右側と、後方左側とに車両Sが停車可能なスペースがある場合に、出庫のパターンが第4パターンとなる。
図21の状態J22は、第4パターンに対応する選択画面GM3を示している。
In the fourth pattern, the vehicle S leaves the garage when it "reverses", and there are two candidate positions where the vehicle S can stop after the warehousing: the position on the rear right side of the vehicle S and the position on the rear left side of the vehicle S. It is a pattern to do. For example, when the vehicle S is parallel parked and there are spaces on the rear right side and the rear left side of the vehicle S where the vehicle S can stop, the warehousing pattern is the fourth pattern.
The state J22 in FIG. 21 shows the selection screen GM3 corresponding to the fourth pattern.

第5パターンは、車両Sが「前進」でも「後進」でも出庫することが可能であり、出庫後に車両Sが停車可能な候補位置が、車両Sの前方右側の位置と、車両Sの前方左側の位置と、車両Sの後方右側の位置と、車両Sの後方左側の位置との4つ存在するパターンである。例えば、車両Sが縦列駐車し、車両Sの前方右側と、前方左側と、後方右側と、後方左側とに車両Sが停車可能なスペースがある場合に、出庫のパターンが第5パターンとなる。
図21の状態J23は、第5パターンに対応する選択画面GM3を示している。
In the fifth pattern, it is possible for the vehicle S to leave the vehicle regardless of whether it is "forward" or "backward", and the candidate positions where the vehicle S can stop after leaving the vehicle are the position on the front right side of the vehicle S and the front left side of the vehicle S. There are four patterns: the position of, the position on the rear right side of the vehicle S, and the position on the rear left side of the vehicle S. For example, when the vehicle S is parallel parked and there are spaces in the front right side, the front left side, the rear right side, and the rear left side of the vehicle S where the vehicle S can stop, the warehousing pattern is the fifth pattern.
The state J23 in FIG. 21 shows the selection screen GM3 corresponding to the fifth pattern.

第6パターンは、車両Sが「前進」でも「後進」でも出庫することが可能であり、出庫後に車両Sが停車可能な候補位置が、車両Sの前方の位置と、車両Sの前方右側の位置と、車両Sの前方左側の位置と、車両Sの後方の位置と、車両Sの後方右側の位置と、車両Sの後方左側の位置との6つ存在するパターンである。例えば、車両Sが前方、及び後方に広いスペースがある駐車位置に駐車した状態の場合、出庫のパターンが第6パターンとなる。
図21の状態J24は、第6パターンに対応する選択画面GM3を示している。
In the sixth pattern, it is possible for the vehicle S to leave the vehicle regardless of whether it is "forward" or "backward", and the candidate positions where the vehicle S can stop after leaving the vehicle are the position in front of the vehicle S and the right side in front of the vehicle S. There are six patterns: a position, a position on the front left side of the vehicle S, a position behind the vehicle S, a position on the rear right side of the vehicle S, and a position on the rear left side of the vehicle S. For example, when the vehicle S is parked in a parking position where there is a large space in front and behind, the delivery pattern is the sixth pattern.
The state J24 in FIG. 21 shows the selection screen GM3 corresponding to the sixth pattern.

ところで、車両Sの候補位置が複数ある場合において、候補位置の中に、障害物の存在や、規制の関係で、実際には車両Sの移動が禁止される候補位置が存在する場合がある。
このような場合、端末制御部20は、選択画面GM3の表示に際し、以下の処理を実行する。
すなわち、端末制御部20は、移動が禁止される候補位置に対応するスライドバーBR2に、候補位置への移動が禁止されることを示す画像を表示し、移動が禁止される候補位置に対応するスライドバーBR2に沿ったスライドボタンSB2の移動を禁止する。
By the way, when there are a plurality of candidate positions of the vehicle S, there may be a candidate position in the candidate positions where the movement of the vehicle S is actually prohibited due to the existence of obstacles or regulations.
In such a case, the terminal control unit 20 executes the following processing when displaying the selection screen GM3.
That is, the terminal control unit 20 displays an image indicating that movement to the candidate position is prohibited on the slide bar BR2 corresponding to the candidate position where movement is prohibited, and corresponds to the candidate position where movement is prohibited. The movement of the slide button SB2 along the slide bar BR2 is prohibited.

図22の状態J30は、図19の選択画面GM3において、基端PP1から上方左側に向かっての延びるスライドバーBR2に対応する候補位置への移動が禁止される場合に、端末制御部20が表示する選択画面GM3の一例を示している。
図22の状態J30に示すように、選択画面GM3において、移動が禁止される候補位置に対応するスライドバーBR2には、候補位置への移動が禁止されることを示す画像が表示される。さらに、移動が禁止される候補位置に対応する候補位置画像X2にも、移動が禁止されることを示す画像が表示される。
移動が禁止される候補位置が存在する場合に、上記の処理が行われることにより、ユーザーは、移動が禁止される候補位置を的確に認識できる。また、ユーザーが、移動が禁止される候補位置を選択することを防止できる。
The state J30 of FIG. 22 is displayed by the terminal control unit 20 on the selection screen GM3 of FIG. 19 when the movement to the candidate position corresponding to the slide bar BR2 extending from the base end PP1 toward the upper left side is prohibited. An example of the selection screen GM3 to be selected is shown.
As shown in the state J30 of FIG. 22, on the selection screen GM3, an image indicating that the movement to the candidate position is prohibited is displayed on the slide bar BR2 corresponding to the candidate position where the movement is prohibited. Further, the candidate position image X2 corresponding to the candidate position where the movement is prohibited also displays an image indicating that the movement is prohibited.
When there is a candidate position where movement is prohibited, the user can accurately recognize the candidate position where movement is prohibited by performing the above processing. In addition, it is possible to prevent the user from selecting a candidate position where movement is prohibited.

なお、移動が禁止される候補位置が存在する場合に、端末制御部20が上記の処理に代えて、以下の処理を実行する構成でもよい。
すなわち、端末制御部20は、移動が禁止される候補位置に対応するスライドバーBR2の表示を禁止する。
図22の状態J31は、図19の選択画面GM3において、基端PP1から上方左側に向かっての延びるスライドバーBR2に対応する候補位置への移動が禁止される場合に、端末制御部20が表示する選択画面GM3の一例を示している。
図22の状態J31に示すように、選択画面GM3において、移動が禁止される候補位置に対応するスライドバーBR2は、表示されない。これにより、ユーザーが、移動が禁止される候補位置を選択することを防止できる。
In addition, when there is a candidate position where movement is prohibited, the terminal control unit 20 may execute the following processing instead of the above processing.
That is, the terminal control unit 20 prohibits the display of the slide bar BR2 corresponding to the candidate position where the movement is prohibited.
The state J31 of FIG. 22 is displayed by the terminal control unit 20 on the selection screen GM3 of FIG. 19 when the movement to the candidate position corresponding to the slide bar BR2 extending from the base end PP1 toward the upper left side is prohibited. An example of the selection screen GM3 to be selected is shown.
As shown in the state J31 of FIG. 22, the slide bar BR2 corresponding to the candidate position where the movement is prohibited is not displayed on the selection screen GM3. This can prevent the user from selecting a candidate position where movement is prohibited.

<第1の変形例>
次に、第1の変形例について説明する。
上述した実施形態では、出庫時に、スライドユニットSU2により、候補位置のうち、1つの候補位置が選択される構成であった。
この構成について、候補位置画像X2をタッチ操作ボタンとして機能させ、候補位置画像X2をタッチ操作することによって、候補位置を選択できるようにしてもよい。
この場合において、候補位置画像X2が、複数回(例えば、2回。)、連続してタッチ操作された場合に、候補位置の選択が確定する構成とすれば、ユーザーが誤って候補位置画像X2をタッチ操作した場合に、誤って操作された候補位置画像X2に対応する候補位置が選択されることを防止可能である。
なお、候補位置画像X2がタッチ操作されて候補位置が選択された場合に、端末制御部20は、動作モードを車両制御モードに移行して、選択画面GM3に代えて車両制御画面GM2を表示してもよい。また、候補位置画像X2がタッチ操作されて候補位置が選択された場合に、端末制御部20は、動作モードを車両制御モードにすぐには移行せず、選択画面GM3に代えてロック画面GM1を表示し、ロック画面GM1に対して所定の入力があった場合に、動作モードを車両制御モードに移行して、ロック画面GM1に代えて、車両制御画面GM2を表示してもよい。
<First modification>
Next, the first modification will be described.
In the above-described embodiment, the slide unit SU2 selects one candidate position from the candidate positions at the time of delivery.
Regarding this configuration, the candidate position image X2 may be made to function as a touch operation button, and the candidate position image X2 may be touch-operated so that the candidate position can be selected.
In this case, if the candidate position image X2 is touch-operated a plurality of times (for example, twice) in succession, the selection of the candidate position is confirmed, the user mistakenly makes the candidate position image X2. It is possible to prevent the candidate position corresponding to the erroneously operated candidate position image X2 from being selected when the touch operation is performed.
When the candidate position image X2 is touch-operated to select the candidate position, the terminal control unit 20 shifts the operation mode to the vehicle control mode and displays the vehicle control screen GM2 instead of the selection screen GM3. You may. Further, when the candidate position image X2 is touch-operated to select the candidate position, the terminal control unit 20 does not immediately shift the operation mode to the vehicle control mode, and instead of the selection screen GM3, the lock screen GM1 is used. When the display is performed and a predetermined input is made to the lock screen GM1, the operation mode may be changed to the vehicle control mode and the vehicle control screen GM2 may be displayed instead of the lock screen GM1.

<第2の変形例>
次に、第2の変形例について説明する。
上述した実施形態では、駐車時の処理について、駐車位置が1つであることを前提として処理を説明した。しかしながら、複数の駐車位置の候補の中から1つの駐車位置を選択し、選択した駐車位置の候補を、車両Sを駐車させる位置として決定する構成でもよい。
この場合、端末制御部20は、ロック画面GM1をタッチパネル9に表示させる前に、選択画面GM3と同様の画面をタッチパネル9に表示し、タッチパネル9に対する操作に基づいて、駐車位置を決定すればよい。
<Second modification>
Next, a second modification will be described.
In the above-described embodiment, the processing at the time of parking has been described on the premise that there is only one parking position. However, there may be a configuration in which one parking position is selected from a plurality of parking position candidates, and the selected parking position candidate is determined as a position for parking the vehicle S.
In this case, the terminal control unit 20 may display a screen similar to the selection screen GM3 on the touch panel 9 before displaying the lock screen GM1 on the touch panel 9, and determine the parking position based on the operation on the touch panel 9. ..

以上説明したように、本実施形態に係る携帯端末3(端末)は、筐体8と、筐体8に設けられたタッチパネル9(表示パネル)と、筐体8の状態を検出する筐体状態検出部23と、端末制御部20とを備える。端末制御部20は、車両Sに設けられたカメラの撮影結果に基づく撮影データを取得し、取得した撮影データに基づく画像をタッチパネル9に表示させると共に、筐体状態検出部23により検出された筐体8の状態に応じて、タッチパネル9に表示させる画像を切り替える。
この構成によれば、ユーザーは、タッチパネル9に表示される撮影画像データに基づく画像を、携帯端末3の筐体8の状態を変化させるという簡易な操作を行うことにより、切り替えることができ、車両Sに設けられたカメラの撮影結果に基づく画像を携帯端末3により表示する際に、ユーザーの利便性を向上できる。
As described above, the mobile terminal 3 (terminal) according to the present embodiment has a housing 8, a touch panel 9 (display panel) provided on the housing 8, and a housing state for detecting the state of the housing 8. It includes a detection unit 23 and a terminal control unit 20. The terminal control unit 20 acquires shooting data based on the shooting results of the camera provided in the vehicle S, displays an image based on the acquired shooting data on the touch panel 9, and has a housing detected by the housing state detection unit 23. The image to be displayed on the touch panel 9 is switched according to the state of the body 8.
According to this configuration, the user can switch the image based on the captured image data displayed on the touch panel 9 by performing a simple operation of changing the state of the housing 8 of the mobile terminal 3, and the vehicle. When displaying an image based on the shooting result of the camera provided in S on the mobile terminal 3, the convenience of the user can be improved.

また、本実施形態では、端末制御部20は、筐体状態検出部23により筐体8の向きが第1の向きとなったことが検出された場合と、筐体8の向きが第1の向きとは異なる第2の向きとなったことが検出された場合とで、タッチパネル9に表示させる画像を切り替える。
この構成によれば、ユーザーは、携帯端末3の筐体の向きを、第1の向きか、第2の向きに切り替えるという簡易な操作を行うことにより、タッチパネル9に表示される撮影画像データに基づく画像を切り替えることができ、車両Sに設けられたカメラの撮影結果に基づく画像を携帯端末3により表示する際に、ユーザーの利便性を向上できる。
Further, in the present embodiment, the terminal control unit 20 detects that the orientation of the housing 8 is the first orientation by the housing state detection unit 23, and the orientation of the housing 8 is the first. The image to be displayed on the touch panel 9 is switched between the case where it is detected that the second orientation is different from the orientation.
According to this configuration, the user performs a simple operation of switching the orientation of the housing of the mobile terminal 3 to the first orientation or the second orientation to obtain the captured image data displayed on the touch panel 9. The image based on the image can be switched, and the convenience of the user can be improved when the image based on the shooting result of the camera provided in the vehicle S is displayed by the mobile terminal 3.

また、本実施形態では、筐体8は、長方形状の正面8aを有する板状の部材である。タッチパネル9は、筐体8の正面8aに設けられる。第1の向きは、筐体8の正面8aの長辺の方向が、鉛直方向に沿った状態となる向きであり、第2の向きは、筐体8の正面8aの長辺の方向が、鉛直方向と直交する方向に沿った状態となる向きである。
この構成によれば、ユーザーは、携帯端末3の筐体8の向きを、「筐体8の正面8aの長辺の方向が、鉛直方向に沿った状態となる向き」か、「筐体8の正面8aの長辺の方向が、鉛直方向と直交する方向に沿った状態となる向き」に切り替えるという簡易な操作を行うことにより、タッチパネル9に表示される撮影画像データに基づく画像を切り替えることができ、車両Sに設けられたカメラの撮影結果に基づく画像を携帯端末3により表示する際に、ユーザーの利便性を向上できる。
Further, in the present embodiment, the housing 8 is a plate-shaped member having a rectangular front surface 8a. The touch panel 9 is provided on the front surface 8a of the housing 8. The first orientation is such that the direction of the long side of the front surface 8a of the housing 8 is along the vertical direction, and the second orientation is the direction of the long side of the front surface 8a of the housing 8. This is the direction in which the state is along the direction orthogonal to the vertical direction.
According to this configuration, the user can set the orientation of the housing 8 of the mobile terminal 3 to "the direction in which the long side of the front surface 8a of the housing 8 is in the vertical direction" or "the orientation of the housing 8". Switching the image based on the captured image data displayed on the touch panel 9 by performing a simple operation of switching the direction of the long side of the front surface 8a to the direction in which the direction is perpendicular to the vertical direction. This makes it possible to improve the convenience of the user when displaying an image based on the shooting result of the camera provided in the vehicle S on the mobile terminal 3.

また、本実施形態では、端末制御部20は、筐体状態検出部23により筐体8の向きが第1の向きとなったことが検出され場合、撮影データに基づく画像として、車両Sを俯瞰した画像である俯瞰画像G1をタッチパネル9に表示させ、筐体状態検出部23により筐体8の向きが第2の向きとなったことが検出された場合、撮影データに基づく画像として、カメラにより撮影された車外の画像である車外画像G2をタッチパネル9に表示させる。
この構成によれば、ユーザーは、携帯端末3の筐体8の向きを変更するという簡易な操作を行うことにより、タッチパネル9に表示される画像を、俯瞰画像G1と、車外画像G2との間で切り替えることができる。
Further, in the present embodiment, when the housing state detection unit 23 detects that the housing 8 is in the first orientation, the terminal control unit 20 views the vehicle S as an image based on the shooting data. When the bird's-eye view image G1 which is the image obtained is displayed on the touch panel 9 and the housing state detection unit 23 detects that the housing 8 is in the second direction, the camera captures the image as an image based on the shooting data. The vehicle exterior image G2, which is a photographed vehicle exterior image, is displayed on the touch panel 9.
According to this configuration, the user performs a simple operation of changing the orientation of the housing 8 of the mobile terminal 3 to move the image displayed on the touch panel 9 between the bird's-eye view image G1 and the vehicle exterior image G2. You can switch with.

また、本実施形態では、車両Sには、車外を撮影する複数の車外撮影用カメラが設けられる。端末制御部20は、筐体状態検出部23により筐体8の向きが第2の向きとなったことが検出された場合、車両Sの状態に対応した所定の優先順位に従って、複数の車外撮影用カメラのうち、1つの車外撮影用カメラを選択し、選択した車外撮影用カメラの撮影結果に基づく車外画像G2をタッチパネル9に表示させる。
この構成によれば、ユーザーが必要としている可能性が高い車外画像G2を、タッチパネル9に表示させることができ、ユーザーの利便性が高い。
Further, in the present embodiment, the vehicle S is provided with a plurality of cameras for taking a picture of the outside of the vehicle. When the housing state detection unit 23 detects that the housing 8 is in the second direction, the terminal control unit 20 takes a plurality of out-of-vehicle shots according to a predetermined priority corresponding to the state of the vehicle S. One of the cameras for outside the vehicle is selected, and the outside image G2 based on the shooting result of the selected camera for outside the vehicle is displayed on the touch panel 9.
According to this configuration, the vehicle exterior image G2, which is likely to be needed by the user, can be displayed on the touch panel 9, which is highly convenient for the user.

ここで、所定の優先順位は、例えば、車両Sの進行方向を撮影可能な車外撮影用カメラほど高い順位となる優先順位である。
この構成によれば、ユーザーが必要としている可能性が高い車外画像G2を、タッチパネル9に表示させることができ、ユーザーの利便性が高い。
Here, the predetermined priority is, for example, a higher priority as the camera for outside-vehicle photography capable of photographing the traveling direction of the vehicle S.
According to this configuration, the vehicle exterior image G2, which is likely to be needed by the user, can be displayed on the touch panel 9, which is highly convenient for the user.

また、所定の優先順位は、例えば、車両Sに近接する物体を撮影可能な車外撮影用カメラほど高い順位となる優先順位である。
この構成によれば、ユーザーが必要としている可能性が高い車外画像G2を、タッチパネル9に表示させることができ、ユーザーの利便性が高い。
Further, the predetermined priority is, for example, a higher priority as the camera for outside-vehicle photography capable of photographing an object close to the vehicle S.
According to this configuration, the vehicle exterior image G2, which is likely to be needed by the user, can be displayed on the touch panel 9, which is highly convenient for the user.

また、本実施形態では、端末制御部20は、1の車外撮影用カメラの撮影結果に基づく1の車外画像G2をタッチパネル9に表示させた後、筐体状態検出部23により筐体8が所定の動きをしたことが検出された場合、当該1の車外画像G2に代えて、当該1の車外撮影用カメラとは異なる他の車外撮影用カメラの撮影結果に基づく他の車外画像G2をタッチパネル9に表示させる。
この構成によれば、ユーザーは、筐体8に所定の動きをさせるという簡易な操作を行うことにより、タッチパネル9に表示される車外画像G2を切り替えることができ、ユーザーの利便性が高い。
Further, in the present embodiment, the terminal control unit 20 displays the outside image G2 of 1 based on the shooting result of the camera for outside vehicle 1 on the touch panel 9, and then the housing 8 is determined by the housing state detection unit 23. When it is detected that the movement of the vehicle is detected, the touch panel 9 replaces the vehicle exterior image G2 of 1 with another vehicle exterior image G2 based on the shooting result of another vehicle exterior camera different from the vehicle exterior camera of 1. To display.
According to this configuration, the user can switch the outside image G2 displayed on the touch panel 9 by performing a simple operation of causing the housing 8 to perform a predetermined movement, which is highly convenient for the user.

また、本実施形態では、複数の車外撮影用カメラは、それぞれ、異なる方向に向かって車外を撮影する。そして、所定の動きは、筐体8の状態が第1の態様で変化する第1の動き、又は、筐体8の状態が第1の態様とは異なる第2の態様で変化する第2の動きのいずれかである。端末制御部20は、筐体状態検出部23により筐体8が第1の動きをしたことが検出された場合、車外撮影用カメラが撮影する方向に応じた第1の順番で車外画像G2を切り替える。端末制御部20は、筐体状態検出部23により筐体8が第2の動きをしたことが検出された場合、車外撮影用カメラが撮影する方向に応じた順番であって、第1の順番とは異なる第2の順番で車外画像G2を切り替える。
この構成によれば、ユーザーは、自身が望む順番で、画像を切り替えることができ、ユーザーの利便性が高い。
Further, in the present embodiment, the plurality of cameras for external photography photograph the outside of the vehicle in different directions. The predetermined movement is a first movement in which the state of the housing 8 changes in the first aspect, or a second movement in which the state of the housing 8 changes in a second mode different from the first aspect. It is one of the movements. When the housing state detection unit 23 detects that the housing 8 has made the first movement, the terminal control unit 20 displays the vehicle exterior image G2 in the first order according to the shooting direction of the vehicle exterior shooting camera. Switch. When the housing state detection unit 23 detects that the housing 8 has made a second movement, the terminal control unit 20 is in the order according to the direction in which the camera for shooting outside the vehicle shoots, and is in the first order. The outside image G2 is switched in the second order different from the above.
According to this configuration, the user can switch the images in the order desired by the user, which is highly convenient for the user.

また、端末制御部20は、タッチパネル9に撮影データに基づく画像を表示させると共に、撮影データに基づく画像と重畳して、タッチ操作可能な推進制御ボタンQB(操作ボタン)を表示させ、タッチパネル9に表示させる画像を切り替えた場合も、推進制御ボタンQBの表示を維持する。端末制御部20は、推進制御ボタンQBがタッチ操作されている間、車両Sに設けられた情報処理装置4に、車両Sの推進を指示する推進指示信号を送信する。
この構成によれば、ユーザーは、推進制御ボタンQBを操作して車両Sの推進を制御しつつ、タッチパネル9に表示させる画像を切り替えることができる。
Further, the terminal control unit 20 displays an image based on the shooting data on the touch panel 9 and displays a touch-operable propulsion control button QB (operation button) on the touch panel 9 by superimposing the image based on the shooting data on the touch panel 9. Even when the image to be displayed is switched, the display of the propulsion control button QB is maintained. While the propulsion control button QB is touch-operated, the terminal control unit 20 transmits a propulsion instruction signal instructing the propulsion of the vehicle S to the information processing device 4 provided in the vehicle S.
According to this configuration, the user can switch the image to be displayed on the touch panel 9 while controlling the propulsion of the vehicle S by operating the propulsion control button QB.

また、以上説明したように、本実施形態に係る携帯端末3は、画像を表示すると共に、タッチ操作を受け付けるタッチパネル9と、端末制御部20とを有する。端末制御部20は、タッチ操作可能な推進制御ボタンQBが表示された車両制御画面GM2をタッチパネル9に表示させると共に、車両制御画面GM2に表示された推進制御ボタンQBがタッチ操作された後、タッチ操作の位置が移動した場合、タッチ操作の位置の移動に追従して推進制御ボタンQBの位置を移動させて推進制御ボタンQBがタッチ操作された状態を維持する。端末制御部20は、車両制御画面GM2に表示された推進制御ボタンQBがタッチ操作されている間、車両Sに設けられた情報処理装置4に、車両Sの推進を指示する推進指示信号を送信し、推進制御ボタンQBに対するタッチ操作の解除に応じて、推進指示信号の送信を停止する。
この構成によれば、ユーザーが推進制御ボタンQBをタッチ操作した後、タッチ操作する指の位置がずれた場合であっても、推進制御ボタンQBがタッチ操作された状態が維持される。このため、ユーザーは、推進制御ボタンQBを操作する際、特定の位置をピンポイントでタッチ操作し続ける必要がない。従って、ユーザーが携帯端末3のタッチパネル9を操作して車両Sの推進を制御する場合に、的確に操作を行えるようにすることができる。
Further, as described above, the mobile terminal 3 according to the present embodiment has a touch panel 9 for displaying an image and receiving a touch operation, and a terminal control unit 20. The terminal control unit 20 displays the vehicle control screen GM2 on which the touch-operable propulsion control button QB is displayed on the touch panel 9, and touches the propulsion control button QB displayed on the vehicle control screen GM2 after being touch-operated. When the position of the operation is moved, the position of the propulsion control button QB is moved following the movement of the position of the touch operation to maintain the state in which the propulsion control button QB is touch-operated. The terminal control unit 20 transmits a propulsion instruction signal instructing the propulsion of the vehicle S to the information processing device 4 provided in the vehicle S while the propulsion control button QB displayed on the vehicle control screen GM2 is touch-operated. Then, the transmission of the propulsion instruction signal is stopped in response to the release of the touch operation on the propulsion control button QB.
According to this configuration, even if the position of the finger to be touch-operated shifts after the user touch-operates the propulsion control button QB, the state in which the propulsion control button QB is touch-operated is maintained. Therefore, when operating the propulsion control button QB, the user does not have to keep touching a specific position with a pinpoint. Therefore, when the user operates the touch panel 9 of the mobile terminal 3 to control the propulsion of the vehicle S, the operation can be accurately performed.

また、本実施形態では、端末制御部20は、車両制御画面GM2に表示された推進制御ボタンQBに対するタッチ操作が解除された場合、タッチ操作が解除されたときの推進制御ボタンQBの位置に、継続して、推進制御ボタンQBを表示する。
この構成によれば、ユーザーが再び、推進制御ボタンQBをタッチ操作する際に、推進制御ボタンQBが、ユーザーがタッチ操作しやすい位置にあるため、ユーザーの利便性を向上できる。
Further, in the present embodiment, when the touch operation for the propulsion control button QB displayed on the vehicle control screen GM2 is released, the terminal control unit 20 sets the position of the propulsion control button QB when the touch operation is released. The propulsion control button QB is continuously displayed.
According to this configuration, when the user touch-operates the propulsion control button QB again, the propulsion control button QB is in a position where the user can easily touch-operate, so that the convenience of the user can be improved.

なお、上記構成について、端末制御部20は、車両制御画面GM2に表示された推進制御ボタンQBに対するタッチ操作が解除された場合、車両制御画面GM2における所定の位置に、推進制御ボタンQBを表示してもよい。
この構成によれば、ユーザーが再び、推進制御ボタンQBをタッチ操作する際に、推進制御ボタンQBが、ユーザーがタッチ操作しやすい位置にあるため、ユーザーの利便性を向上できる。
Regarding the above configuration, the terminal control unit 20 displays the propulsion control button QB at a predetermined position on the vehicle control screen GM2 when the touch operation on the propulsion control button QB displayed on the vehicle control screen GM2 is released. You may.
According to this configuration, when the user touch-operates the propulsion control button QB again, the propulsion control button QB is in a position where the user can easily touch-operate, so that the convenience of the user can be improved.

また、本実施形態では、端末制御部20は、タッチパネル9に、スライドバーBR1と、スライドバーBR1の一端に位置し、スワイプ操作に応じてスライドバーBR1に沿って移動する一方、スワイプ操作の解除に応じて、スライドバーBR1の一端に移動するスライドボタンSB1とが表示されたロック画面GM1を表示させる。端末制御部20は、スワイプ操作により、スライドボタンSB1がスライドバーBR1の他端に、所定の期間、位置した場合、タッチパネル9に表示させる画面を、ロック画面GM1から車両制御画面GM2へ切り替えると共に、スライドバーBR1の他端に位置するスライドボタンSB1を推進制御ボタンQBに切り替えて推進制御ボタンQBとして機能させる。
この構成によれば、ユーザーは、簡易な作業を行って、スライドボタンSB1をスワイプ操作するという簡易な作業を行って、ロック画面GM1から車両制御画面GM2へと画面を切り替えることができると共に、車両制御画面GM2へと切り替わった後、推進制御ボタンQBを簡易にタッチ操作できる。
Further, in the present embodiment, the terminal control unit 20 is located on the touch panel 9 at one end of the slide bar BR1 and the slide bar BR1 and moves along the slide bar BR1 in response to the swipe operation, while releasing the swipe operation. The lock screen GM1 on which the slide button SB1 that moves to one end of the slide bar BR1 is displayed is displayed accordingly. The terminal control unit 20 switches the screen to be displayed on the touch panel 9 from the lock screen GM1 to the vehicle control screen GM2 when the slide button SB1 is located on the other end of the slide bar BR1 for a predetermined period by swiping. The slide button SB1 located at the other end of the slide bar BR1 is switched to the propulsion control button QB to function as the propulsion control button QB.
According to this configuration, the user can perform a simple operation and perform a simple operation of swiping the slide button SB1 to switch the screen from the lock screen GM1 to the vehicle control screen GM2 and the vehicle. After switching to the control screen GM2, the propulsion control button QB can be easily touch-operated.

また、本実施形態では、端末制御部20は、推進制御ボタンQBが操作されているときと、推進制御ボタンQBが操作されていないときとで、推進制御ボタンQBを示す画像を変化させる。
この構成によれば、ユーザーは、推進制御ボタンQBがタッチ操作されていること、及び、タッチ操作されていないことを、簡易かつ的確に認識することができる。
Further, in the present embodiment, the terminal control unit 20 changes the image showing the propulsion control button QB depending on whether the propulsion control button QB is operated or not.
According to this configuration, the user can easily and accurately recognize that the propulsion control button QB is touch-operated and that the propulsion control button QB is not touch-operated.

また、本実施形態では、端末制御部20は、車両制御画面GM2を表示している間、車両Sに設けられたカメラの撮影結果に基づく撮影データを取得し、取得した撮影データに基づく画像をタッチパネル9に表示させると共に、撮影データに基づく画像と重畳して推進制御ボタンQBを表示させる。端末制御部20は、筐体状態検出部23が検出した筐体8の状態に応じて、タッチパネル9に表示させる画像を切り替える一方、タッチパネル9に表示させる画像を切り替えた場合も、推進制御ボタンQBの表示を維持する。
この構成によれば、ユーザーは、推進制御ボタンQBを操作して車両Sの推進を制御しつつ、タッチパネル9に表示させる画像を切り替えることができる。
Further, in the present embodiment, the terminal control unit 20 acquires shooting data based on the shooting results of the camera provided in the vehicle S while displaying the vehicle control screen GM2, and obtains an image based on the acquired shooting data. The touch panel 9 is displayed, and the propulsion control button QB is displayed by superimposing the image based on the shooting data. The terminal control unit 20 switches the image to be displayed on the touch panel 9 according to the state of the housing 8 detected by the housing state detection unit 23, while the propulsion control button QB also switches the image to be displayed on the touch panel 9. Maintain the display of.
According to this configuration, the user can switch the image to be displayed on the touch panel 9 while controlling the propulsion of the vehicle S by operating the propulsion control button QB.

また、本実施形態では、端末制御部20は、筐体状態検出部23により筐体8の向きが第1の向きとなったことが検出され場合、撮影データに基づく画像として、車両Sを俯瞰した画像である俯瞰画像G1をタッチパネル9に表示させ、筐体状態検出部23により筐体8の向きが第1の向きとは異なる第2の向きとなったことが検出された場合、撮影データに基づく画像として、車外撮影用カメラにより撮影された車外の画像である車外画像G2をタッチパネル9に表示させる。
この構成によれば、ユーザーは、携帯端末3の筐体8の向きを変更するという簡易な操作を行うことにより、タッチパネル9に表示される画像を、俯瞰画像G1と、車外画像G2との間で切り替えることができる。
Further, in the present embodiment, when the housing state detection unit 23 detects that the housing 8 is in the first orientation, the terminal control unit 20 views the vehicle S as an image based on the shooting data. When the bird's-eye view image G1 which is the image obtained is displayed on the touch panel 9 and the housing state detection unit 23 detects that the orientation of the housing 8 is a second orientation different from the first orientation, the shooting data As an image based on the above, the touch panel 9 displays the vehicle exterior image G2, which is an image of the vehicle exterior taken by the vehicle exterior camera.
According to this configuration, the user performs a simple operation of changing the orientation of the housing 8 of the mobile terminal 3 to move the image displayed on the touch panel 9 between the bird's-eye view image G1 and the vehicle exterior image G2. You can switch with.

また、以上説明したように、本実施形態に係る携帯端末3の端末制御部20は、車両Sの現在の位置を示す現在位置画像X1、車両Sが現在の位置から移動して停車する位置の候補である候補位置を示す1又は複数の候補位置画像X2、基端PP1から候補位置画像X2のそれぞれに向かって延在するスライドバーBR2、及び基端PP1に位置し、スワイプ操作に応じてスライドバーBR2に沿って移動するスライドボタンSB2が表示された選択画面GM3を表示し、スライドボタンSBの移動に基づいて、候補位置の中から、車両Sが停車する位置を決定する。
この構成によれば、ユーザーは、車両Sを停車させる位置を決定する操作を的確に行うことができる。
Further, as described above, the terminal control unit 20 of the mobile terminal 3 according to the present embodiment has a current position image X1 showing the current position of the vehicle S, and a position where the vehicle S moves from the current position and stops. Located on one or more candidate position images X2 indicating candidate positions, a slide bar BR2 extending from the base end PP1 toward each of the candidate position images X2, and a base end PP1 and sliding according to a swipe operation. The selection screen GM3 on which the slide button SB2 that moves along the bar BR2 is displayed is displayed, and the position where the vehicle S stops is determined from the candidate positions based on the movement of the slide button SB.
According to this configuration, the user can accurately determine the position where the vehicle S is stopped.

また、本実施形態では、端末制御部20は、スライドボタンSB2が、1のスライドバーBR2の先端に、所定の期間、位置した場合、当該1のスライドバーBR2に対応する候補位置を、車両Sが停車する位置として決定する。
この構成によれば、ユーザーの誤った操作で車両Sが停車する位置が決定されることを防止しできる。
Further, in the present embodiment, when the slide button SB2 is positioned at the tip of the slide bar BR2 of 1 for a predetermined period of time, the terminal control unit 20 sets a candidate position corresponding to the slide bar BR2 of 1 to the vehicle S. Is determined as the stop position.
According to this configuration, it is possible to prevent the position where the vehicle S stops is determined by an erroneous operation by the user.

また、本実施形態では、端末制御部20は、車両Sの現在の位置から、候補位置に至るまでの軌道を示す軌道画像X3を選択画面GM3に表示する。
この構成によれば、ユーザーは、選択画面GM3を参照することにより、車両Sの現在の位置から、候補位置に至るまでの軌道を的確に認識できる。
Further, in the present embodiment, the terminal control unit 20 displays the track image X3 showing the track from the current position of the vehicle S to the candidate position on the selection screen GM3.
According to this configuration, the user can accurately recognize the track from the current position of the vehicle S to the candidate position by referring to the selection screen GM3.

また、本実施形態では、端末制御部20は、候補位置への車両Sの移動が禁止される場合は、移動が禁止される候補位置に対応するスライドバーBR2に、候補位置への移動が禁止されることを示す画像を表示し、移動が禁止される候補位置に対応するスライドバーBR2に沿ったスライドボタンSB2の移動を禁止する。
この構成によれば、ユーザーが移動が禁止される候補位置を選択することを防止できる。
Further, in the present embodiment, when the movement of the vehicle S to the candidate position is prohibited, the terminal control unit 20 prohibits the movement to the candidate position on the slide bar BR2 corresponding to the candidate position where the movement is prohibited. An image indicating that the movement is to be performed is displayed, and the movement of the slide button SB2 along the slide bar BR2 corresponding to the candidate position where the movement is prohibited is prohibited.
According to this configuration, it is possible to prevent the user from selecting a candidate position where movement is prohibited.

上記構成について、端末制御部20は、候補位置への車両Sの移動が禁止される場合は、移動が禁止される候補位置に対応するスライドバーBR2の表示を禁止してもよい。
この構成によれば、ユーザーが移動が禁止される候補位置を選択することを防止できる。
Regarding the above configuration, when the movement of the vehicle S to the candidate position is prohibited, the terminal control unit 20 may prohibit the display of the slide bar BR2 corresponding to the candidate position where the movement is prohibited.
According to this configuration, it is possible to prevent the user from selecting a candidate position where movement is prohibited.

また、本実施形態では、端末制御部20は、車両Sが停車する位置を決定した場合、タッチパネル9に表示させる画面を、前記選択画面GM3から車両制御画面GM2へと切り替えると共に、スライドボタンSBを、タッチ操作可能な操作ボタンに切り替える。端末制御部20は、車両制御画面GM2に表示された推進制御ボタンQBがタッチ操作されている間、車両Sに設けられた情報処理装置4に、車両Sの推進を指示する推進指示信号を送信し、推進制御ボタンQBに対するタッチ操作の解除に応じて、推進指示信号の送信を停止する。
この構成によれば、ユーザーは、的確に車両Sの推進を制御できる。
Further, in the present embodiment, when the terminal control unit 20 determines the position where the vehicle S stops, the screen to be displayed on the touch panel 9 is switched from the selection screen GM3 to the vehicle control screen GM2, and the slide button SB is pressed. , Switch to touch-operable operation buttons. The terminal control unit 20 transmits a propulsion instruction signal instructing the propulsion of the vehicle S to the information processing device 4 provided in the vehicle S while the propulsion control button QB displayed on the vehicle control screen GM2 is touch-operated. Then, the transmission of the propulsion instruction signal is stopped in response to the release of the touch operation on the propulsion control button QB.
According to this configuration, the user can accurately control the propulsion of the vehicle S.

また、本実施形態では、端末制御部20は、推進制御ボタンQBが操作されているときと、推進制御ボタンQBが操作されていないときとで、推進制御ボタンQBを示す画像を変化させる。
この構成によれば、ユーザーは、推進制御ボタンQBがタッチ操作されていること、及び、タッチ操作されていないことを、簡易かつ的確に認識することができる。
Further, in the present embodiment, the terminal control unit 20 changes the image showing the propulsion control button QB depending on whether the propulsion control button QB is operated or not.
According to this configuration, the user can easily and accurately recognize that the propulsion control button QB is touch-operated and that the propulsion control button QB is not touch-operated.

また、本実施形態では、車両Sの現在の位置は、車両Sが、現在、駐車している駐車位置であり、候補位置は、車両Sが駐車位置から出庫して停車する出庫後停車位置である。
この構成によれば、ユーザーは、出庫に際し、的確な操作を行って、出庫後停車位置を選択できる。
Further, in the present embodiment, the current position of the vehicle S is the parking position where the vehicle S is currently parked, and the candidate position is the stop position after the vehicle S leaves the parking position and stops. is there.
According to this configuration, the user can perform an appropriate operation at the time of warehousing and select the stop position after warehousing.

また、変形例で説明したように、車両Sの現在の位置は、駐車位置に駐車する前の車両Sが停車している駐車前位置であり、候補位置は、車両Sが駐車する駐車位置であってもよい。
この構成によれば、ユーザーは、駐車に際し、的確な操作を行って、車両Sを駐車させる駐車位置を選択できる。
Further, as described in the modified example, the current position of the vehicle S is the pre-parking position where the vehicle S before parking at the parking position is stopped, and the candidate position is the parking position where the vehicle S is parked. There may be.
According to this configuration, the user can select a parking position in which the vehicle S is parked by performing an appropriate operation when parking.

また、変形例で説明したように、携帯端末3の端末制御部20は、車両Sの現在の位置を示す現在位置画像X1、及び車両Sが現在の位置から移動して停車する位置の候補である候補位置を示す1又は複数の候補位置画像X2が表示された選択画面GM3を表示し、候補位置画像X2に対する操作に基づいて、候補位置の中から、車両Sが停車する位置を決定してもよい。
この構成によれば、ユーザーは、車両Sを停車させる位置を決定する操作を的確に行うことができる。
Further, as described in the modified example, the terminal control unit 20 of the mobile terminal 3 is a candidate for the current position image X1 showing the current position of the vehicle S and the position where the vehicle S moves from the current position and stops. The selection screen GM3 on which one or more candidate position images X2 indicating a certain candidate position are displayed is displayed, and the position where the vehicle S stops is determined from the candidate positions based on the operation on the candidate position image X2. May be good.
According to this configuration, the user can accurately determine the position where the vehicle S is stopped.

また、以上説明したように、本実施形態に係る携帯端末3の端末制御部20は、第1モードの場合、情報処理装置4から、車両Sを俯瞰した俯瞰画像G1、及び車両Sに設けられたカメラにより撮影された車外画像G2を含む合成画像の合成画像データを受信し、筐体状態検出部23により筐体8の向きが第1の向きとなったことが検出された場合、合成画像データに基づいて俯瞰画像G1をタッチパネル9に表示させ、筐体状態検出部23により筐体8の向きが第1の向きとは異なる第2の向きとなったことが検出された場合、合成画像データに基づいて車外画像G2をタッチパネル9に表示させる。
この構成によれば、携帯端末3は、車両Sに設けられたカメラの撮影結果に基づく画像を表示する際に、適切な態様で画像を表示することができ、ユーザーの利便性を向上できる。
Further, as described above, in the case of the first mode, the terminal control unit 20 of the mobile terminal 3 according to the present embodiment is provided on the bird's-eye view image G1 and the vehicle S from which the vehicle S is viewed from the information processing device 4. When the composite image data of the composite image including the vehicle exterior image G2 taken by the camera is received and the housing state detection unit 23 detects that the orientation of the housing 8 is the first orientation, the composite image When the bird's-eye view image G1 is displayed on the touch panel 9 based on the data and the housing state detection unit 23 detects that the orientation of the housing 8 is a second orientation different from the first orientation, the composite image The vehicle exterior image G2 is displayed on the touch panel 9 based on the data.
According to this configuration, the mobile terminal 3 can display the image in an appropriate manner when displaying the image based on the shooting result of the camera provided in the vehicle S, and the convenience of the user can be improved.

また、本実施形態では、端末制御部20は、第1モードの場合、筐体状態検出部23により筐体8の向きが第1の向きとなったことが検出された場合、合成画像データから、俯瞰画像G1に対応する俯瞰画像データを抽出し、抽出した俯瞰画像データに基づいて俯瞰画像G1をタッチパネル9に表示させる。端末制御部20は、筐体状態検出部23により筐体8の向きが第2の向きとなったことが検出された場合、合成画像データから、車外画像G2に対応する車外画像データを抽出し、抽出した車外画像データに基づいて車外画像G2をタッチパネル9に表示させる。
この構成によれば、端末制御部20は、情報処理装置4から受信する合成画像データに基づいて、適切に、俯瞰画像G1、及び、車外画像G2を表示させることができる。
Further, in the present embodiment, in the first mode, when the housing state detection unit 23 detects that the housing 8 is in the first orientation, the terminal control unit 20 uses the composite image data. , The bird's-eye view image data corresponding to the bird's-eye view image G1 is extracted, and the bird's-eye view image G1 is displayed on the touch panel 9 based on the extracted bird's-eye view image data. When the housing state detection unit 23 detects that the housing 8 is in the second orientation, the terminal control unit 20 extracts the vehicle exterior image data corresponding to the vehicle exterior image G2 from the composite image data. , The vehicle exterior image G2 is displayed on the touch panel 9 based on the extracted vehicle exterior image data.
According to this configuration, the terminal control unit 20 can appropriately display the bird's-eye view image G1 and the vehicle exterior image G2 based on the composite image data received from the information processing device 4.

また、本実施形態では、筐体8は、長方形状の正面8aを有する板状の部材であり、タッチパネル9は、筐体8の正面8aに設けられ、俯瞰画像G1は、正面8a視したときに、長辺が縦方向に延在する長方形状の画像であり、車外画像G2は、正面8a視したときに、長辺が横方向に延在する長方形状の画像であり、前記第1の向きは、筐体8の正面8aの長辺の方向が、鉛直方向に沿った状態となる向きであり、前記第2の向きは、筐体8の正面8aの長辺の方向が、鉛直方向と直交する方向に沿った状態となる向きである。
この構成によれば、端末制御部20は、筐体8の形状を踏まえ、筐体8の向きに応じて、筐体8の向きに適合した適切な画像を表示させることができる。
Further, in the present embodiment, the housing 8 is a plate-shaped member having a rectangular front surface 8a, the touch panel 9 is provided on the front surface 8a of the housing 8, and the bird's-eye view image G1 is viewed from the front surface 8a. In addition, the vehicle exterior image G2 is a rectangular image in which the long side extends in the vertical direction, and the vehicle exterior image G2 is a rectangular image in which the long side extends in the horizontal direction when viewed from the front 8a. The orientation is such that the direction of the long side of the front surface 8a of the housing 8 is along the vertical direction, and the second direction is the direction in which the long side of the front surface 8a of the housing 8 is the vertical direction. This is the direction in which the state is along the direction orthogonal to.
According to this configuration, the terminal control unit 20 can display an appropriate image suitable for the orientation of the housing 8 according to the orientation of the housing 8 based on the shape of the housing 8.

また、本実施形態では、情報処理装置4の情報処理装置制御部30は、第2モードにおいて、携帯端末3の筐体8の状態を示す情報を取得し、取得した情報に基づいて携帯端末3の筐体8の向きが第1の向きとなったことを検出した場合、合成画像データから俯瞰画像G1に対応する俯瞰画像データを抽出し、抽出した俯瞰画像データを携帯端末3に送信し、取得した情報に基づいて携帯端末3の筐体8の向きが第1の向きとは異なる第2の向きとなったことを検出した場合、合成画像データから、車外画像G2に対応する車外画像データを抽出し、抽出した車外画像データを携帯端末3に送信する。
この構成によれば、情報処理装置4は、携帯端末3に、適切な態様で画像を表示させることができ、ユーザーの利便性を向上できる。
Further, in the present embodiment, the information processing device control unit 30 of the information processing device 4 acquires information indicating the state of the housing 8 of the mobile terminal 3 in the second mode, and the mobile terminal 3 is based on the acquired information. When it is detected that the orientation of the housing 8 is the first orientation, the bird's-eye view image data corresponding to the bird's-eye view image G1 is extracted from the composite image data, and the extracted bird's-eye view image data is transmitted to the mobile terminal 3. When it is detected that the orientation of the housing 8 of the mobile terminal 3 is a second orientation different from the first orientation based on the acquired information, the exterior image data corresponding to the vehicle exterior image G2 is obtained from the composite image data. Is extracted, and the extracted vehicle exterior image data is transmitted to the mobile terminal 3.
According to this configuration, the information processing device 4 can display an image on the mobile terminal 3 in an appropriate manner, and can improve the convenience of the user.

なお、上述した実施の形態は、あくまでも本発明の一態様を示すものであり、本発明の範囲内で任意に変形および応用が可能である。
例えば、携帯端末3の処理として説明した処理について、携帯端末3が、携帯端末3と通信可能な外部の装置(情報処理装置4を含む。)と協働して実行する構成でもよい。同様に、情報処理装置4の処理として説明した処理について、情報処理装置4が、情報処理装置4と通信可能な外部の装置(携帯端末3を含む。)と協働して実行する構成でもよい。
例えば、図を用いて説明した機能ブロックは、本願発明を理解容易にするために、各装置の機能構成を主な処理内容に応じて分類して示した概略図である。各装置の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。また、各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。また、各構成要素の処理は、1つのプログラムで実現されてもよいし、複数のプログラムで実現されてもよい。
また、図で示したフローチャートの処理単位は、各装置の処理を理解容易にするために、主な処理内容に応じて分割したものである。処理単位の分割の仕方や名称によって、本願発明が制限されることはない。各装置の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできる。また、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、同様の処理が行えれば、上記のフローチャートの処理順序も、図示した例に限られるものではない。
It should be noted that the above-described embodiment shows only one aspect of the present invention, and can be arbitrarily modified and applied within the scope of the present invention.
For example, the process described as the process of the mobile terminal 3 may be executed by the mobile terminal 3 in cooperation with an external device (including an information processing device 4) capable of communicating with the mobile terminal 3. Similarly, the processing described as the processing of the information processing device 4 may be executed by the information processing device 4 in cooperation with an external device (including the mobile terminal 3) capable of communicating with the information processing device 4. ..
For example, the functional blocks described with reference to the drawings are schematic views showing the functional configurations of the respective devices classified according to the main processing contents in order to facilitate understanding of the present invention. The configuration of each device can be further classified into more components according to the processing content. It can also be categorized so that one component performs more processing. Further, the processing of each component may be executed by one hardware or may be executed by a plurality of hardware. Further, the processing of each component may be realized by one program or may be realized by a plurality of programs.
Further, the processing unit of the flowchart shown in the figure is divided according to the main processing contents in order to make the processing of each device easy to understand. The present invention is not limited by the method of dividing the processing unit and the name. The processing of each device can be divided into more processing units according to the processing content. Further, one processing unit can be divided so as to include more processing. Further, if the same processing can be performed, the processing order of the above flowchart is not limited to the illustrated example.

1 情報処理システム
2 車両システム
3 携帯端末(端末)
4 情報処理装置
5 車両駆動制御装置
9 タッチパネル(表示パネル)
23 筐体状態検出部
30 情報処理装置制御部
CA1 前方撮影用カメラ(カメラ)
CA2 前方右側撮影用カメラ(カメラ)
CA3 側方右側撮影用カメラ(カメラ)
CA4 後方右側撮影用カメラ(カメラ)
CA5 後方撮影用カメラ(カメラ)
CA6 後方左側撮影用カメラ(カメラ)
CA7 側方左側撮影用カメラ(カメラ)
CA8 前方左側撮影用カメラ(カメラ)
G1 俯瞰画像
G2 車外画像
G 合成画像
GM1 ロック画面
GM2 車両制御画面
GM3 選択画面
1 Information information system 2 Vehicle system 3 Mobile terminal (terminal)
4 Information processing device 5 Vehicle drive control device 9 Touch panel (display panel)
23 Housing condition detection unit 30 Information processing device control unit CA1 Forward shooting camera (camera)
CA2 Front right shooting camera (camera)
CA3 side right side shooting camera (camera)
CA4 Rear right shooting camera (camera)
CA5 Rear shooting camera (camera)
CA6 Rear left side shooting camera (camera)
CA7 Side left side shooting camera (camera)
CA8 Front left side shooting camera (camera)
G1 bird's-eye view image G2 vehicle exterior image G composite image GM1 lock screen GM2 vehicle control screen GM3 selection screen

Claims (12)

筐体と、
前記筐体に設けられた表示パネルと、
前記筐体の状態を検出する筐体状態検出部と、
車両に設けられたカメラの撮影結果に基づく撮影データを取得し、取得した前記撮影データに基づく画像と、タッチ操作可能な操作ボタンとを前記表示パネルに表示させると共に、前記筐体状態検出部により検出された前記筐体の状態に応じて、前記表示パネルに表示させる画像を切り替える端末制御部と、
前記表示パネルに対する操作位置を検出するタッチセンサーと、
を備え
前記端末制御部は、
前記筐体状態検出部により検出された前記筐体の状態に応じて、前記表示パネルに表示させる画像が切り替えられるとき、前記操作ボタンの表示位置を、前記表示パネルに表示させる画像が切り替えられるときに前記タッチセンサーによって検出された前記タッチ位置に設定する
ことを特徴とする端末。
With the housing
The display panel provided on the housing and
A housing state detection unit that detects the state of the housing,
Shooting data based on the shooting results of a camera provided in the vehicle is acquired, and an image based on the acquired shooting data and a touch-operable operation button are displayed on the display panel, and the housing state detection unit displays the shooting data. A terminal control unit that switches the image to be displayed on the display panel according to the detected state of the housing.
A touch sensor that detects the operation position with respect to the display panel,
Equipped with a,
The terminal control unit
When the image to be displayed on the display panel is switched according to the state of the housing detected by the housing state detection unit, and when the display position of the operation button is switched to the image to be displayed on the display panel. A terminal characterized in that it is set to the touch position detected by the touch sensor .
前記端末制御部は、
前記筐体状態検出部により前記筐体の向きが第1の向きとなったことが検出された場合と、前記筐体の向きが前記第1の向きとは異なる第2の向きとなったことが検出された場合とで、前記表示パネルに表示させる画像を切り替える
ことを特徴とする請求項1に記載の端末。
The terminal control unit
The case where the housing state detection unit detects that the orientation of the housing is the first orientation and the orientation of the housing is a second orientation different from the first orientation. The terminal according to claim 1, wherein the image to be displayed on the display panel is switched depending on whether or not is detected.
前記筐体は、長方形状の正面を有する板状の部材であり、
前記表示パネルは、前記筐体の正面に設けられ、
前記第1の向きは、前記筐体の正面の長辺の方向が、鉛直方向に沿った状態となる向きであり、
前記第2の向きは、前記筐体の正面の長辺の方向が、鉛直方向と直交する方向に沿った状態となる向きである
ことを特徴とする請求項2に記載の端末。
The housing is a plate-shaped member having a rectangular front surface.
The display panel is provided on the front surface of the housing.
The first direction is a direction in which the direction of the long side of the front surface of the housing is along the vertical direction.
The terminal according to claim 2, wherein the second direction is a direction in which the direction of the long side of the front surface of the housing is along a direction orthogonal to the vertical direction.
前記端末制御部は、
前記筐体状態検出部により前記筐体の向きが前記第1の向きとなったことが検出され場合、前記撮影データに基づく画像として、前記車両を俯瞰した画像である俯瞰画像を前記表示パネルに表示させ、
前記筐体状態検出部により前記筐体の向きが前記第2の向きとなったことが検出された場合、前記撮影データに基づく画像として、前記カメラにより撮影された車外の画像である車外画像を前記表示パネルに表示させる
ことを特徴とする請求項2又は3に記載の端末。
The terminal control unit
When it is detected by the housing state detection unit that the orientation of the housing is the first orientation, a bird's-eye view image, which is an image of a bird's-eye view of the vehicle, is displayed on the display panel as an image based on the shooting data. Display,
When it is detected by the housing state detection unit that the orientation of the housing is the second orientation, an image outside the vehicle, which is an image of the outside of the vehicle taken by the camera, is used as an image based on the shooting data. The terminal according to claim 2 or 3, wherein the terminal is displayed on the display panel.
前記車両には、車外を撮影する複数の前記カメラが設けられ、
前記端末制御部は、
前記筐体状態検出部により前記筐体の向きが前記第2の向きとなったことが検出された場合、前記車両の状態に対応した所定の優先順位に従って、複数の前記カメラのうち、1つの前記カメラを選択し、選択した前記カメラの撮影結果に基づく前記車外画像を前記表示パネルに表示させる
ことを特徴とする請求項4に記載の端末。
The vehicle is provided with a plurality of the cameras for photographing the outside of the vehicle.
The terminal control unit
When the housing state detection unit detects that the housing is in the second orientation, one of the plurality of cameras is in accordance with a predetermined priority corresponding to the state of the vehicle. The terminal according to claim 4, wherein the camera is selected, and the vehicle exterior image based on the shooting result of the selected camera is displayed on the display panel.
前記所定の優先順位は、前記車両の進行方向を撮影可能な前記カメラほど高い順位となる優先順位であることを特徴とする請求項5に記載の端末。 The terminal according to claim 5, wherein the predetermined priority is a higher priority as the camera capable of photographing the traveling direction of the vehicle. 前記所定の優先順位は、前記車両に近接する物体を撮影可能な前記カメラほど高い順位となる優先順位であることを特徴とする請求項5に記載の端末。 The terminal according to claim 5, wherein the predetermined priority is a higher priority as the camera capable of photographing an object close to the vehicle. 前記端末制御部は、
1の前記カメラの撮影結果に基づく1の前記車外画像を前記表示パネルに表示させた後、前記筐体状態検出部により前記筐体が所定の動きをしたことが検出された場合、当該1の前記車外画像に代えて、当該1の前記カメラとは異なる他の前記カメラの撮影結果に基づく他の前記車外画像を前記表示パネルに表示させる
ことを特徴とする請求項5から7のいずれか1項に記載の端末。
The terminal control unit
When the housing state detection unit detects that the housing has made a predetermined movement after displaying the outside image of 1 based on the shooting result of the camera of 1 on the display panel, the case of 1 Any one of claims 5 to 7, wherein instead of the vehicle exterior image, another vehicle exterior image based on a shooting result of another camera different from the camera is displayed on the display panel. The terminal described in the section.
複数の前記カメラは、それぞれ、異なる方向に向かって車外を撮影し、
前記所定の動きは、前記筐体の状態が第1の態様で変化する第1の動き、又は、前記筐体の状態が前記第1の態様とは異なる第2の態様で変化する第2の動きのいずれかであり、
前記端末制御部は、
前記筐体状態検出部により前記筐体が前記第1の動きをしたことが検出された場合、前記カメラが撮影する方向に応じた第1の順番で前記車外画像を切り替え、
前記筐体状態検出部により前記筐体が前記第2の動きをしたことが検出された場合、前記カメラが撮影する方向に応じた順番であって、前記第1の順番とは異なる第2の順番で前記車外画像を切り替える
ことを特徴とする請求項8に記載の端末。
Each of the plurality of cameras photographs the outside of the vehicle in different directions.
The predetermined movement is a first movement in which the state of the housing changes in the first aspect, or a second movement in which the state of the housing changes in a second aspect different from the first aspect. Is one of the movements
The terminal control unit
When the housing state detection unit detects that the housing has made the first movement, the outside image is switched in the first order according to the direction in which the camera shoots.
When the housing state detection unit detects that the housing has made the second movement, the second order is according to the shooting direction of the camera and is different from the first order. The terminal according to claim 8, wherein the images outside the vehicle are switched in order.
記端末制御部は、
前記表示パネルに前記撮影データに基づく画像を表示させると共に、前記撮影データに基づく画像と重畳して、タッチ操作可能な前記操作ボタンを表示させ、前記表示パネルに表示させる画像を切り替えた場合も、前記操作ボタンの表示を維持し、
前記操作ボタンがタッチ操作されている間、前記車両に設けられた情報処理装置に、前記車両の推進を指示する推進指示信号を送信する
ことを特徴とする請求項1から9のいずれか1項に記載の端末。
Before Symbol terminal control unit,
Together to display an image based on the imaging data to the display panel, so as to overlap with the image based on the captured data, to display the touch operation possible the operation button, even when switching images to be displayed on the display panel, Maintain the display of the operation buttons
Any one of claims 1 to 9, wherein a propulsion instruction signal instructing the propulsion of the vehicle is transmitted to the information processing device provided in the vehicle while the operation button is touch-operated. The terminal described in.
前記端末制御部は、 The terminal control unit
前記表示パネルに、前記操作ボタンとして、タッチ操作によって移動するスライドボタンを表示させると共に、前記スライドボタンが移動可能な範囲を明示するスライドバーを表示させ、 A slide button that is moved by a touch operation is displayed on the display panel as the operation button, and a slide bar that clearly indicates the range in which the slide button can be moved is displayed.
前記スライドボタンが前記スライドバーの一端から他端へ移動された状態が維持されている期間に、前記筐体状態検出部により検出された前記筐体の状態に応じて、前記撮影データに基づく画像を切り替えて前記表示パネルに表示させるとき、前記画像が切り替えられたときに前記タッチ位置検出部によって検出された前記スライドボタンのタッチ位置に、前記スライドボタンと異なる操作ボタンとして機能させる他の操作ボタンを表示させ、 An image based on the shooting data according to the state of the housing detected by the housing state detection unit during the period in which the slide button is maintained in a state of being moved from one end to the other end of the slide bar. When the image is switched and displayed on the display panel, another operation button that causes the touch position of the slide button detected by the touch position detection unit when the image is switched to function as an operation button different from the slide button. Is displayed,
前記タッチ位置検出部によって検出されるタッチ位置の移動に追従して前記他の操作ボタンの位置を移動させる The position of the other operation button is moved following the movement of the touch position detected by the touch position detection unit.
ことを特徴とする請求項1から10のいずれか1項に記載の端末。 The terminal according to any one of claims 1 to 10, characterized in that.
筐体と、前記筐体に設けられた表示パネルとを有する端末の制御方法であって、A method for controlling a terminal having a housing and a display panel provided on the housing.
車両に設けられたカメラの撮影結果に基づく撮影データを取得し、 Acquire shooting data based on the shooting results of the camera installed in the vehicle,
取得した前記撮影データに基づく画像と、タッチ操作可能な操作ボタンとを前記表示パネルにより表示すると共に、前記筐体の状態を検出し、検出した前記筐体の状態に応じて、前記表示パネルにより表示する画像を切り替える処理と、前記表示パネルに対する操作位置を検出する処理とを行い、 The image based on the acquired shooting data and the operation buttons that can be touch-operated are displayed on the display panel, the state of the housing is detected, and the display panel is used according to the detected state of the housing. A process of switching the image to be displayed and a process of detecting the operation position with respect to the display panel are performed.
検出した前記筐体の状態に応じて、前記表示パネルに表示する画像を切り替えるとき、前記操作ボタンの表示位置を、前記表示パネルに表示する画像を切り替えるときに検出した前記タッチ位置に設定する When switching the image to be displayed on the display panel according to the detected state of the housing, the display position of the operation button is set to the touch position detected when switching the image to be displayed on the display panel.
ことを特徴とする端末の制御方法。 A terminal control method characterized by this.
JP2016245985A 2016-12-19 2016-12-19 Terminals and terminal control methods Active JP6831504B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016245985A JP6831504B2 (en) 2016-12-19 2016-12-19 Terminals and terminal control methods

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016245985A JP6831504B2 (en) 2016-12-19 2016-12-19 Terminals and terminal control methods

Publications (2)

Publication Number Publication Date
JP2018101864A JP2018101864A (en) 2018-06-28
JP6831504B2 true JP6831504B2 (en) 2021-02-17

Family

ID=62715605

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016245985A Active JP6831504B2 (en) 2016-12-19 2016-12-19 Terminals and terminal control methods

Country Status (1)

Country Link
JP (1) JP6831504B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5071738B2 (en) * 2008-12-18 2012-11-14 アイシン精機株式会社 Display device
JP2011159186A (en) * 2010-02-03 2011-08-18 Clarion Co Ltd Drive support device and control method of drive support device
JP6077214B2 (en) * 2012-02-06 2017-02-08 富士通テン株式会社 Image processing apparatus, image processing method, program, and image processing system
JP6030317B2 (en) * 2012-03-13 2016-11-24 富士通テン株式会社 Image processing apparatus, image display system, display apparatus, image processing method, and program
JP2014036400A (en) * 2012-08-10 2014-02-24 Mitsubishi Agricultural Machinery Co Ltd On-vehicle camera system
JP6260174B2 (en) * 2013-09-27 2018-01-17 日産自動車株式会社 Surveillance image presentation system
JP6517561B2 (en) * 2015-03-27 2019-05-22 クラリオン株式会社 Vehicle control device

Also Published As

Publication number Publication date
JP2018101864A (en) 2018-06-28

Similar Documents

Publication Publication Date Title
JP6986518B2 (en) Terminals and terminal control methods
JP6769860B2 (en) Terminals and terminal control methods
JP7060418B2 (en) Vehicle remote control device and vehicle remote control method
JP4988499B2 (en) Image generating apparatus and image generating program
JP2021000972A (en) Parking support system
CN107428252A (en) For the method for the communicator in autonomous driving mode of operation motor vehicles, communicator and motor vehicles
JP2009116586A (en) Touch-type operational inputting device
CN112124092B (en) Parking assist system
KR20200032547A (en) Device of augmented reality games for self-driving vehicles and method for the same
JP2019144756A (en) Vehicle remote operation device, vehicle remote operation system and vehicle remote operation method
JP2009298384A (en) Device for assisting parking
US11584364B2 (en) Vehicle control device, vehicle, operation method for vehicle control device and storage medium
JP7220734B2 (en) image display system
JP2020192877A (en) Control device, control method and program
JP6966525B2 (en) Vehicle control device, vehicle control method and program
JP6831504B2 (en) Terminals and terminal control methods
JP6831505B2 (en) Terminals, terminal control methods, information processing devices, and information processing device control methods
JP2019161549A (en) Vehicle remote operation device and vehicle remote operation method
JP2021079880A (en) Vehicle control device, vehicle, operation method and program of vehicle control device
JP2021094938A (en) Vehicle display device and parking support system
JP7228614B2 (en) image display system
US20230286526A1 (en) Control device, control method, and computer-readable recording medium
JP2023097031A (en) Control device, and movable body
JP2023097026A (en) Control device, and mobile body
JP2024073862A (en) Mobile Control System

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210107

R150 Certificate of patent or registration of utility model

Ref document number: 6831504

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150