JP7494563B2 - Vehicle Surroundings Monitoring System - Google Patents

Vehicle Surroundings Monitoring System Download PDF

Info

Publication number
JP7494563B2
JP7494563B2 JP2020087631A JP2020087631A JP7494563B2 JP 7494563 B2 JP7494563 B2 JP 7494563B2 JP 2020087631 A JP2020087631 A JP 2020087631A JP 2020087631 A JP2020087631 A JP 2020087631A JP 7494563 B2 JP7494563 B2 JP 7494563B2
Authority
JP
Japan
Prior art keywords
vehicle
unit
flying object
control unit
occupant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020087631A
Other languages
Japanese (ja)
Other versions
JP2021182703A (en
Inventor
拓允 橋口
昭 安竹
剛 有永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2020087631A priority Critical patent/JP7494563B2/en
Publication of JP2021182703A publication Critical patent/JP2021182703A/en
Application granted granted Critical
Publication of JP7494563B2 publication Critical patent/JP7494563B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車両の周辺監視システムに関する。 The present invention relates to a vehicle surroundings monitoring system.

下記特許文献1には、カメラを備えた飛行体を車両に搭載し、車内のナビゲーション装置からの制御により車両上空で飛行体を飛行させることによって撮影画像を取得し、その撮影画像の解析結果に基づいて車両の走行支援等を行うナビゲーションシステムが開示されている。 The following Patent Document 1 discloses a navigation system in which an aircraft equipped with a camera is mounted on a vehicle, and the aircraft is flown above the vehicle under the control of an on-board navigation device to capture images, and the system provides driving support for the vehicle based on the analysis of the captured images.

特開2016-138853号公報JP 2016-138853 A

乗員が運転を開始するために駐車中の車両に接近してきた時に、強盗犯等の不審者に乗員が襲われる可能性がある。乗員が目視によって警戒しながら車両に接近したとしても、不審者が車両又は周辺構造物の死角等に潜んでいた場合には、乗員が目視によってその不審者を発見することは困難である。従って、乗員が駐車中の車両に接近する時に、車両周辺の安全を確実に確認できる手段の実現が望まれる。 When an occupant approaches a parked vehicle to begin driving, there is a possibility that the occupant may be attacked by a suspicious person such as a robber. Even if the occupant approaches the vehicle while being cautious and using their eyes to look, it is difficult for the occupant to visually spot the suspicious person if he or she is hiding in a blind spot of the vehicle or surrounding structures. Therefore, it is desirable to realize a means for the occupant to reliably check the safety of the area around the vehicle when approaching a parked vehicle.

しかし、上記特許文献1に開示されたナビゲーションシステムによると、飛行体のカメラによる撮影画像を、運転開始のために乗員が駐車中の車両に接近してきた時の安全確認に活用することは、何ら考えられていない。上記特許文献1に開示されたナビゲーションシステムによると、ユーザが車内のナビゲーション装置を操作することによって飛行体を制御するため、ユーザが車両に乗車する前には飛行体を飛行させることはできない。 However, the navigation system disclosed in the above Patent Document 1 does not consider using images captured by the camera of the flying object to check for safety when a passenger approaches a parked vehicle to begin driving. According to the navigation system disclosed in the above Patent Document 1, the user controls the flying object by operating the navigation device inside the vehicle, so the flying object cannot be flown before the user gets into the vehicle.

本発明はかかる事情に鑑みて成されたものであり、飛行体の撮影部による撮影画像を、運転開始のために乗員が駐車中の車両に接近してきた時の安全確認に活用することが可能な、車両の周辺監視システムを得ることを目的とする。 The present invention was made in consideration of these circumstances, and aims to provide a vehicle surroundings monitoring system that can utilize images captured by the camera unit of an aircraft to check for safety when a driver approaches a parked vehicle to begin driving.

本発明の一態様に係る車両の周辺監視システムは、車両に搭載され、撮影部を有し、前記車両の車外を飛行可能な飛行体と、前記車両へ乗車する乗員の位置情報に基づいて、前記乗員の前記車両への接近を検出する接近検出部と、前記飛行体を制御する制御部と、を備え、前記制御部は、前記接近検出部が前記車両への前記乗員の接近を検出した場合に、前記飛行体が前記車両から離陸し、前記撮影部が前記車両の周辺を撮影し、前記撮影部が撮影した画像を前記乗員が携帯する表示部を有する携帯端末に送信するよう制御し、前記撮影部が撮影した画像を解析することにより、前記車両の周辺に存在する不審者を検出する画像解析部をさらに備え、前記制御部は、前記画像解析部が前記不審者を検出した場合、不審者検出情報を前記携帯端末に送信するよう制御し、前記飛行体は、所定の警報動作を行う警報手段をさらに有し、前記制御部はさらに、前記画像解析部が前記不審者を検出したことを条件として、前記警報手段が前記不審者に対する警報動作を実行するよう制御することを特徴とするものである。 A vehicle periphery monitoring system according to one embodiment of the present invention comprises an aircraft mounted on a vehicle, having a photographing unit, and capable of flying outside the vehicle, an approach detection unit that detects the approach of an occupant to the vehicle based on position information of the occupant, and a control unit that controls the aircraft, wherein when the approach detection unit detects the approach of the occupant to the vehicle, the control unit controls the aircraft to take off from the vehicle, the photographing unit to photograph the periphery of the vehicle, and the images photographed by the photographing unit to be transmitted to a portable device having a display unit carried by the occupant , and further comprises an image analysis unit that detects suspicious persons present in the periphery of the vehicle by analyzing the images photographed by the photographing unit, and when the control unit controls the image analysis unit to transmit suspicious person detection information to the portable device when the image analysis unit detects the suspicious person, the aircraft further comprises an alarm means for performing a predetermined alarm operation, and the control unit further controls the alarm means to execute an alarm operation against the suspicious person on the condition that the image analysis unit has detected the suspicious person .

この態様によれば、制御部は、接近検出部が車両への乗員の接近を検出した場合に、飛行体が車両から離陸し、撮影部が車両の周辺を撮影し、撮影部が撮影した画像を乗員が携帯する携帯端末に送信するよう、飛行体を制御する。従って、乗車前に乗員が手動による操作入力を行うことなく、車両の周辺(予め設定された所定範囲、例えば、車両を中心とする半径5~10メートル程度の範囲)の画像が携帯端末の表示部に自動的に表示される。その結果、飛行体の撮影部による撮影画像を、運転開始のために乗員が駐車中の車両に接近してきた時の安全確認に活用することが可能となる。 According to this aspect, when the approach detection unit detects an occupant approaching the vehicle, the control unit controls the aircraft to take off from the vehicle, the photographing unit photographs the area around the vehicle, and transmits the images photographed by the photographing unit to a mobile device carried by the occupant. Therefore, without the occupant having to manually input operations before getting in, an image of the area around the vehicle (a predetermined range, for example, a range of about a 5-10 meter radius from the vehicle) is automatically displayed on the display unit of the mobile device. As a result, it becomes possible to use the images photographed by the photographing unit of the aircraft to check for safety when an occupant approaches a parked vehicle to start driving.

また、この態様によれば、制御部は、画像解析部が不審者を検出した場合、不審者検出情報を携帯端末に送信するよう制御する。これにより、車両に接近してきた乗員に対して注意喚起を行うことができる。 According to this aspect , when the image analysis unit detects a suspicious person, the control unit controls the image analysis unit to transmit suspicious person detection information to the mobile terminal, thereby making it possible to alert an occupant approaching the vehicle.

また、この態様によれば、画像解析部が不審者を検出した場合に、飛行体の警報手段が不審者に対して警報動作を実行するため、不審者を退散させることができる。 Furthermore, according to this aspect, when the image analysis unit detects a suspicious person, the warning means of the flying object executes a warning operation against the suspicious person, thereby making it possible to make the suspicious person retreat.

本発明の一態様に係る車両の周辺監視システムは、車両に搭載され、撮影部を有し、前記車両の車外を飛行可能な飛行体と、前記車両へ乗車する乗員の位置情報に基づいて、前記乗員の前記車両への接近を検出する接近検出部と、前記飛行体を制御する制御部と、を備え、前記制御部は、前記接近検出部が前記車両への前記乗員の接近を検出した場合に、前記飛行体が前記車両から離陸し、前記撮影部が前記車両の周辺を撮影し、前記撮影部が撮影した画像を前記乗員が携帯する表示部を有する携帯端末に送信するよう制御し、前記撮影部が撮影した画像を解析することにより、前記車両の周辺に存在する不審者を検出する画像解析部をさらに備え、前記制御部は、前記画像解析部が前記不審者を検出した場合、不審者検出情報を前記携帯端末に送信するよう制御し、前記飛行体は、所定の警報動作を行う警報手段をさらに有し、前記制御部はさらに、警報動作の実行命令を前記携帯端末から受信したことを条件として、前記警報手段が前記不審者に対する警報動作を実行するよう制御することを特徴とするものである A vehicle periphery monitoring system according to one embodiment of the present invention comprises an aircraft mounted on a vehicle, having a photographing unit, and capable of flying outside the vehicle, an approach detection unit that detects the approach of an occupant to the vehicle based on position information of the occupant, and a control unit that controls the aircraft, wherein when the approach detection unit detects the approach of the occupant to the vehicle, the control unit controls the aircraft to take off from the vehicle, the photographing unit to photograph the periphery of the vehicle, and the images photographed by the photographing unit to be transmitted to a portable device having a display unit carried by the occupant, and further comprises an image analysis unit that detects suspicious persons present in the periphery of the vehicle by analyzing the images photographed by the photographing unit, and when the control unit controls the image analysis unit to transmit suspicious person detection information to the portable device when the image analysis unit detects the suspicious person, the aircraft further comprises an alarm means for performing a predetermined alarm operation, and the control unit further controls the alarm means to perform an alarm operation against the suspicious person, on the condition that an instruction to perform the alarm operation has been received from the portable device.

この態様によれば、制御部は、接近検出部が車両への乗員の接近を検出した場合に、飛行体が車両から離陸し、撮影部が車両の周辺を撮影し、撮影部が撮影した画像を乗員が携帯する携帯端末に送信するよう、飛行体を制御する。従って、乗車前に乗員が手動による操作入力を行うことなく、車両の周辺(予め設定された所定範囲、例えば、車両を中心とする半径5~10メートル程度の範囲)の画像が携帯端末の表示部に自動的に表示される。その結果、飛行体の撮影部による撮影画像を、運転開始のために乗員が駐車中の車両に接近してきた時の安全確認に活用することが可能となる。
また、この態様によれば、制御部は、画像解析部が不審者を検出した場合、不審者検出情報を携帯端末に送信するよう制御する。これにより、車両に接近してきた乗員に対して注意喚起を行うことができる。
また、この態様によれば、乗員が携帯端末から警報動作の実行命令を入力した場合に、飛行体の警報手段が不審者に対して警報動作を実行するため、不審者を退散させることができる。
According to this aspect , when the approach detection unit detects the approach of a passenger to the vehicle, the control unit controls the flying object so that the flying object takes off from the vehicle, the photographing unit photographs the surroundings of the vehicle, and the image photographed by the photographing unit is transmitted to a mobile device carried by the passenger. Therefore, without the passenger having to manually input an operation before getting in, an image of the surroundings of the vehicle (a predetermined range set in advance, for example, a range of about a 5-10 meter radius from the vehicle) is automatically displayed on the display unit of the mobile device. As a result, it becomes possible to utilize the image photographed by the photographing unit of the flying object for safety confirmation when the passenger approaches a parked vehicle to start driving.
According to this aspect, when the image analysis unit detects a suspicious person, the control unit controls the image analysis unit to transmit suspicious person detection information to the mobile terminal, thereby making it possible to alert an occupant approaching the vehicle.
Furthermore, according to this aspect, when an occupant inputs a command to execute an alarm operation from a portable terminal, the alarm means of the flying object executes an alarm operation against the suspicious person, thereby making it possible to make the suspicious person retreat.

上記態様において、前記車両に接近する前記乗員の視界において前記車両又は周辺障害物に基づき死角となっている領域が、前記撮影部による撮影範囲に含まれるような飛行経路を作成する飛行経路作成部をさらに備え、前記制御部は、前記飛行経路作成部が作成した前記飛行経路で前記飛行体が飛行するよう制御することが望ましい。 In the above aspect, it is preferable that the vehicle further includes a flight path creation unit that creates a flight path such that areas that are blind spots in the field of vision of the occupant approaching the vehicle due to the vehicle or surrounding obstacles are included in the range of photography by the photography unit, and the control unit controls the flying object to fly along the flight path created by the flight path creation unit.

この態様によれば、飛行経路作成部は、乗員の車両への接近方向に応じて生じる乗員の視界からの死角が撮影部による撮影範囲に含まれるような飛行経路を作成する。従って、画像解析部によって、死角に潜む不審者を確実に検出することができる。 According to this aspect, the flight path creation unit creates a flight path that includes the blind spot from the occupant's field of vision, which occurs depending on the direction in which the occupant approaches the vehicle, within the range of photography by the photography unit. Therefore, the image analysis unit can reliably detect suspicious individuals hiding in blind spots.

上記態様において、前記飛行経路作成部は、前記車両の床下領域が前記撮影部による撮影範囲にさらに含まれるような前記飛行経路を作成することが望ましい。 In the above aspect, it is preferable that the flight path creation unit creates the flight path such that the underfloor area of the vehicle is further included in the range of photography by the photography unit.

この態様によれば、飛行経路作成部は、車両の床下領域が撮影部による撮影範囲に含まれるような飛行経路を作成する。従って、画像解析部によって、車両の床下領域に潜む不審者を確実に検出することができる。 According to this aspect, the flight path creation unit creates a flight path that includes the underfloor area of the vehicle within the range of the image capture unit. Therefore, the image analysis unit can reliably detect suspicious individuals hiding in the underfloor area of the vehicle.

上記態様において、前記制御部は、前記車両に前記乗員が乗車したことを検知した場合に前記飛行体を前記車両に帰艦させることが望ましい。 In the above aspect, it is preferable that the control unit returns the aircraft to the vehicle when it detects that the occupant has boarded the vehicle.

この態様によれば、制御部は、車両に乗員が乗車したことを検知した場合に飛行体を車両に帰艦させる。従って、車両の走行開始前に飛行体を帰艦させることができるため、走行開始後に飛行体が周辺の障害物等に接触する事態を予め回避できる。 According to this aspect, the control unit returns the aircraft to the vehicle when it detects that an occupant has boarded the vehicle. Therefore, since the aircraft can be returned to the ship before the vehicle starts to move, it is possible to prevent the aircraft from coming into contact with surrounding obstacles after the vehicle starts to move.

上記態様において、前記飛行体はケーブルに接続されており、前記ケーブルを巻き取る巻き取り装置をさらに備え、前記制御部は、前記飛行体を前記車両に帰艦させる際に、前記巻き取り装置に前記ケーブルを巻き取らせることが望ましい。 In the above aspect, it is preferable that the aircraft is connected to a cable and further includes a winding device for winding up the cable, and that the control unit causes the winding device to wind up the cable when returning the aircraft to the vehicle.

この態様によれば、制御部は、飛行体を車両に帰艦させる際に、巻き取り装置にケーブルを巻き取らせる。これにより、飛行体を迅速に回収することが可能となる。 According to this aspect, when the aircraft is returned to the vehicle, the control unit causes the winding device to wind the cable. This makes it possible to quickly recover the aircraft.

本発明によれば、飛行体の撮影部による撮影画像を、運転開始のために乗員が駐車中の車両に接近してきた時の安全確認に活用することが可能となる。 According to the present invention, images captured by the camera unit of the aircraft can be used to check safety when an occupant approaches a parked vehicle to begin driving.

本発明の実施の形態に係る車両周辺監視システムの適用例を示す図である。1 is a diagram showing an application example of a vehicle surroundings monitoring system according to an embodiment of the present invention; 飛行体の外観を模式的に示す図である。FIG. 2 is a diagram illustrating the appearance of an aircraft. 飛行体の機能構成を示すブロック図である。FIG. 2 is a block diagram showing the functional configuration of the flying object. 車両の機能構成を示すブロック図である。FIG. 2 is a block diagram showing the functional configuration of a vehicle. 飛行体制御部の機能構成を示すブロック図である。A block diagram showing the functional configuration of an aircraft control unit. 飛行体の規定経路の一例を示す図である。FIG. 2 is a diagram showing an example of a prescribed path of an aircraft. 飛行体の規定経路の一例を示す図である。FIG. 2 is a diagram showing an example of a prescribed path of an aircraft. 車両情報検出部の機能構成を示す図である。FIG. 2 is a diagram illustrating a functional configuration of a vehicle information detection unit. 車両の制御部による飛行体の制御フローを示すフローチャートである。4 is a flowchart showing a control flow of the flying object by a control unit of the vehicle. 飛行体の撮影部が、ブロック塀の陰に潜む不審者を撮影している状況を示す図である。A diagram showing a situation in which the camera unit of the flying object is photographing a suspicious person hiding in the shadow of a block wall.

以下、本発明の実施の形態について、図面を用いて詳細に説明する。なお、異なる図面において同一の符号を付した要素は、同一又は相応する要素を示すものとする。 The following describes in detail the embodiments of the present invention with reference to the drawings. Note that elements with the same reference numerals in different drawings indicate the same or corresponding elements.

図1は、本発明の実施の形態に係る車両周辺監視システムの適用例を示す図である。車両1には、車両1の車外を飛行可能な飛行体2が搭載されている。車両1の所定箇所(この例ではリアウインドウ上)には、飛行体2の発着台3が配置されている。発着台3は、飛行体2が離着陸を行うための水平な発着面を有する。発着面の下方には、巻き取りリール19(図1には表れない)が配置されている。巻き取りリール19は、給電用のケーブルであるテザー4が巻装された回転軸(図略)を有している。発着面の略中央部には貫通孔が設けられており、巻き取りリール19の回転軸に巻装されたテザー4は、この貫通孔内を挿通して発着面の上方に引き出され、飛行体2に接続されている。 Figure 1 is a diagram showing an application example of a vehicle surroundings monitoring system according to an embodiment of the present invention. A flying object 2 capable of flying outside the vehicle 1 is mounted on the vehicle 1. A take-off and landing platform 3 for the flying object 2 is disposed at a predetermined location on the vehicle 1 (above the rear window in this example). The take-off and landing platform 3 has a horizontal take-off and landing surface for the flying object 2 to take off and land. A take-up reel 19 (not shown in Figure 1) is disposed below the take-off and landing surface. The take-up reel 19 has a rotating shaft (not shown) around which a tether 4, which is a power supply cable, is wound. A through hole is provided in approximately the center of the take-off and landing surface, and the tether 4 wound around the rotating shaft of the take-up reel 19 is inserted through this through hole, pulled out above the take-off and landing surface, and connected to the flying object 2.

図2は、飛行体2の外観を模式的に示す図である。飛行体2は、いわゆるクワッドコプター型のドローンとして構成されている。飛行体2は、本体部111と、本体部111の前面に配置されたカメラ112と、本体部111の四隅に配置されたプロペラ113と、本体部111の左右両面から垂直に延在するシャフト114と、本体部111を内包する網目球体状の緩衝部材115とを備えている。本体部111と緩衝部材115とは、シャフト114によって互いに固定されている。本体部111の底面にテザー4が接続されている。 Figure 2 is a diagram showing a schematic view of the exterior of the flying object 2. The flying object 2 is configured as a so-called quadcopter-type drone. The flying object 2 includes a main body 111, a camera 112 arranged on the front surface of the main body 111, propellers 113 arranged at the four corners of the main body 111, a shaft 114 extending vertically from both the left and right sides of the main body 111, and a mesh-spherical buffer member 115 that encases the main body 111. The main body 111 and the buffer member 115 are fixed to each other by the shaft 114. A tether 4 is connected to the bottom surface of the main body 111.

図3は、飛行体2の機能構成を示すブロック図である。図3に示すように飛行体2は、通信部21、撮影部22、駆動部23、位置検出部24、姿勢検出部25、照明部26、及びスピーカ27を有している。また、飛行体2は、これら各処理部の動作を制御することによって飛行体2の全体の制御を司る制御部20を有している。さらに、飛行体2は、これら各処理部及び制御部20に駆動電力を供給する電力供給部29を有している。電力供給部29は、テザー4に接続されている。飛行体2の駆動電力を、テザー4を介して車両1側から供給することにより、飛行体2へのバッテリの搭載を省略でき、その結果、飛行体2の軽量化が図られている。飛行体2の総重量は、重量に基づく飛行規制の対象となる制限重量(例えば200グラム)未満である。 3 is a block diagram showing the functional configuration of the flying object 2. As shown in FIG. 3, the flying object 2 has a communication unit 21, a photographing unit 22, a driving unit 23, a position detection unit 24, an attitude detection unit 25, a lighting unit 26, and a speaker 27. The flying object 2 also has a control unit 20 that controls the operation of each of these processing units, thereby controlling the entire flying object 2. The flying object 2 also has a power supply unit 29 that supplies driving power to each of these processing units and the control unit 20. The power supply unit 29 is connected to the tether 4. By supplying the driving power of the flying object 2 from the vehicle 1 side via the tether 4, it is possible to omit the installation of a battery on the flying object 2, and as a result, the weight of the flying object 2 is reduced. The total weight of the flying object 2 is less than the limit weight (e.g., 200 grams) that is subject to flight regulations based on weight.

通信部21は、Bluetooth(登録商標)等の近距離無線通信方式によって、後述する車両1側の通信部122との間で双方向にデータ通信を行う。但し、テザー4内にデータ通信線を追加することにより、通信部21と通信部122とが当該データ通信線を介して有線通信を行う構成としても良い。 The communication unit 21 performs bidirectional data communication with a communication unit 122 on the vehicle 1 side (described later) using a short-range wireless communication method such as Bluetooth (registered trademark). However, by adding a data communication line within the tether 4, the communication unit 21 and the communication unit 122 may perform wired communication via the data communication line.

撮影部22は、図2に示したカメラ112を含む。撮影部22によって撮影される画像には、静止画像(写真)及び動画像(映像)の双方が含まれる。以下の説明では、撮影部22によって映像が撮影される場合を例にとる。撮影部22は、カメラ112によって撮影された映像の映像データを、フラッシュメモリ等の記録媒体に記録するとともに、リアルタイムで出力する。なお、映像データの記録は車両1側で行っても良い。 The image capturing unit 22 includes the camera 112 shown in FIG. 2. Images captured by the image capturing unit 22 include both still images (photographs) and moving images (video). In the following explanation, an example is taken in which video is captured by the image capturing unit 22. The image capturing unit 22 records video data of the video captured by the camera 112 in a recording medium such as a flash memory, and outputs the video data in real time. Note that the video data may be recorded on the vehicle 1 side.

駆動部23は、図2に示したプロペラ113のプロペラシャフトを回転駆動するためのモータを含む。駆動部23は、4つのプロペラ113の回転方向及び回転速度を個別に制御する。これにより、飛行体2は、前進、後進、上昇、降下、旋回、及びホバリング等の任意の飛行動作を行うことができる。 The drive unit 23 includes a motor for rotating the propeller shaft of the propeller 113 shown in FIG. 2. The drive unit 23 controls the rotation direction and rotation speed of the four propellers 113 individually. This allows the flying object 2 to perform any flight operation, such as forward, backward, ascending, descending, turning, and hovering.

位置検出部24は、GPS受信機及び高度センサ等を含み、飛行体2の位置をリアルタイムに検出することにより、その検出された位置を示す位置データを出力する。 The position detection unit 24 includes a GPS receiver and an altitude sensor, and detects the position of the flying object 2 in real time and outputs position data indicating the detected position.

姿勢検出部25は、加速度センサ、ジャイロセンサ、及び方位センサ等を含み、飛行体2の姿勢をリアルタイムに検出することにより、その検出された姿勢を示す姿勢データを出力する。 The attitude detection unit 25 includes an acceleration sensor, a gyro sensor, an orientation sensor, etc., and detects the attitude of the flying object 2 in real time, and outputs attitude data indicating the detected attitude.

照明部26は、警報手段として機能し、飛行体2の本体部111の前面を含む1以上の面に配置されたLED等の任意の照明装置を含む。 The lighting unit 26 functions as an alarm means and includes any lighting device, such as an LED, arranged on one or more surfaces, including the front surface, of the main body 111 of the flying vehicle 2.

スピーカ27は、警報手段として機能し、飛行体2の本体部111の所定箇所に配置されており、予め準備された音声データを再生することにより、所定の警報メッセージ又は警報音を出力することができる。 The speaker 27 functions as an alarm means and is located at a specified location on the main body 111 of the flying object 2. It can output a specified alarm message or alarm sound by playing pre-prepared audio data.

制御部20は、撮影部22から出力された映像データ、位置検出部24から出力された位置データ、及び姿勢検出部25から出力された姿勢データを、リアルタイムで通信部21から車両1に送信する。 The control unit 20 transmits the video data output from the image capture unit 22, the position data output from the position detection unit 24, and the attitude data output from the attitude detection unit 25 from the communication unit 21 to the vehicle 1 in real time.

図4は、車両1の機能構成を示すブロック図である。図4に示すように車両1は、バッテリ制御部11、飛行体制御部12、警報制御部13、車両情報検出部14、通信部15、及び接近検出部51を有している。また、車両1は、これら各処理部の動作を制御することによって車両1の全体の制御を司る制御部10を有している。さらに、車両1は、これら各処理部及び制御部10に駆動電力を供給するバッテリ18を有している。テザー4は、バッテリ18に接続されている。また、車両1は、巻き取りリール19を有している。巻き取りリール19の駆動電力は、バッテリ18から供給される。巻き取りリール19は、テザー4が巻装された回転軸(図略)と、当該回転軸を回転駆動するためのモータ(図略)とを有している。巻き取りリール19は、飛行体2の飛行状況に応じた適正量のテザー4が回転軸から繰り出されるように、モータによる回転軸の駆動によってテザー4の送出及び回収を制御する。 Figure 4 is a block diagram showing the functional configuration of the vehicle 1. As shown in Figure 4, the vehicle 1 has a battery control unit 11, an aircraft control unit 12, an alarm control unit 13, a vehicle information detection unit 14, a communication unit 15, and an approach detection unit 51. The vehicle 1 also has a control unit 10 that controls the overall control of the vehicle 1 by controlling the operation of each of these processing units. The vehicle 1 also has a battery 18 that supplies driving power to each of these processing units and the control unit 10. The tether 4 is connected to the battery 18. The vehicle 1 also has a winding reel 19. Driving power for the winding reel 19 is supplied from the battery 18. The winding reel 19 has a rotating shaft (not shown) around which the tether 4 is wound, and a motor (not shown) for rotating the rotating shaft. The winding reel 19 controls the sending out and recovery of the tether 4 by driving the rotating shaft by the motor so that an appropriate amount of tether 4 according to the flight status of the aircraft 2 is paid out from the rotating shaft.

バッテリ制御部11は、バッテリ18の充放電動作を制御する。また、バッテリ制御部11は、バッテリ18からテザー4への電力供給の開始及び停止を制御する。 The battery control unit 11 controls the charging and discharging operations of the battery 18. The battery control unit 11 also controls the start and stop of the power supply from the battery 18 to the tether 4.

飛行体制御部12は、飛行体2の飛行を制御する。飛行体制御部12の詳細については後述する。 The aircraft control unit 12 controls the flight of the aircraft 2. Details of the aircraft control unit 12 will be described later.

警報制御部13は、車両1の照明装置(ヘッドライト、テールライト、ルームライト、及びハザードランプ等)の点灯又は消灯を制御する照明コントローラを含む。また、警報制御部13は、車両1のホーンの吹鳴を制御するホーンコントローラを含む。 The alarm control unit 13 includes a lighting controller that controls the turning on and off of the lighting devices (headlights, tail lights, room lights, hazard lights, etc.) of the vehicle 1. The alarm control unit 13 also includes a horn controller that controls the sounding of the horn of the vehicle 1.

車両情報検出部14は、車両1の各種情報を検出する。車両情報検出部14の詳細については後述する。 The vehicle information detection unit 14 detects various information about the vehicle 1. Details of the vehicle information detection unit 14 will be described later.

通信部15は、予め登録されたユーザの携帯端末50との間で、Bluetooth(登録商標)、無線LAN、又は公衆電話回線網等の任意の無線通信方式によって、双方向にデータ通信を行う。携帯端末50は、スマートフォン、携帯電話、タブレット、ノートパソコン、又はスマートキー等であり、表示部(LCD又は有機EL等)及び位置検出部(GPS受信機等)を有する。なお、表示部と位置検出部とが別端末に実装されていても良い。 The communication unit 15 performs bidirectional data communication with a preregistered user's mobile terminal 50 by any wireless communication method such as Bluetooth (registered trademark), wireless LAN, or public telephone line network. The mobile terminal 50 is a smartphone, mobile phone, tablet, notebook computer, smart key, or the like, and has a display unit (LCD or organic EL, etc.) and a position detection unit (GPS receiver, etc.). The display unit and the position detection unit may be implemented in separate terminals.

接近検出部51は、車両1の位置情報と携帯端末50の位置情報とに基づいて、携帯端末50を携帯したユーザの、車両1への接近及びその接近方向を検出する。接近検出部51は、車両1の位置情報を車両情報検出部14のGPS受信機148(図8)から取得し、携帯端末50の位置情報を携帯端末50から通信部15を介して取得する。接近検出部51は、車両1の位置に対する携帯端末50の位置の時系列変化を観測することにより、車両1への携帯端末50の接近及びその接近方向を検出する。接近検出部51は、車両1と携帯端末50との間の距離が所定値(例えば20m)未満となった場合に、携帯端末50を携帯したユーザが車両1に接近したことを検出する。 The approach detection unit 51 detects the approach of the user carrying the mobile terminal 50 to the vehicle 1 and the direction of the approach based on the position information of the vehicle 1 and the position information of the mobile terminal 50. The approach detection unit 51 acquires the position information of the vehicle 1 from the GPS receiver 148 (FIG. 8) of the vehicle information detection unit 14, and acquires the position information of the mobile terminal 50 from the mobile terminal 50 via the communication unit 15. The approach detection unit 51 detects the approach of the mobile terminal 50 to the vehicle 1 and the direction of the approach by observing the time-series change in the position of the mobile terminal 50 relative to the position of the vehicle 1. The approach detection unit 51 detects that the user carrying the mobile terminal 50 has approached the vehicle 1 when the distance between the vehicle 1 and the mobile terminal 50 becomes less than a predetermined value (e.g., 20 m).

図5は、飛行体制御部12の機能構成を示すブロック図である。図5に示すように飛行体制御部12は、通信部122、飛行経路作成部123、操縦信号生成部124、撮影信号生成部125、リール制御部126、警報信号生成部127、及び映像解析部128を有している。また、飛行体制御部12は、これら各処理部の動作を制御する制御部121を有している。 Figure 5 is a block diagram showing the functional configuration of the aircraft control unit 12. As shown in Figure 5, the aircraft control unit 12 has a communication unit 122, a flight path creation unit 123, a control signal generation unit 124, a shooting signal generation unit 125, a reel control unit 126, an alarm signal generation unit 127, and a video analysis unit 128. The aircraft control unit 12 also has a control unit 121 that controls the operation of each of these processing units.

通信部122は、Bluetooth(登録商標)等の近距離無線通信方式によって、上述した飛行体2側の通信部21との間で双方向にデータ通信を行う。通信部122は、飛行体2側の通信部21から送信された映像データ、位置データ、及び姿勢データを受信する。 The communication unit 122 communicates data bidirectionally with the communication unit 21 of the flying object 2 described above by using a short-range wireless communication method such as Bluetooth (registered trademark). The communication unit 122 receives video data, position data, and attitude data transmitted from the communication unit 21 of the flying object 2.

操縦信号生成部124は、飛行経路作成部123が作成した飛行経路に沿って飛行体2を飛行させるための操縦信号を、通信部122が受信した映像データ、位置データ、及び姿勢データに基づいて生成する。 The control signal generation unit 124 generates control signals for flying the aircraft 2 along the flight path created by the flight path creation unit 123 based on the video data, position data, and attitude data received by the communication unit 122.

撮影信号生成部125は、飛行体2の飛行状況に応じて、飛行体2の撮影部22に対して撮影を開始させるための撮影開始信号、及び、撮影を停止させるための撮影停止信号を生成する。 The image capture signal generating unit 125 generates an image capture start signal to cause the image capture unit 22 of the aircraft 2 to start capturing images, and an image capture stop signal to cause the image capture unit 22 to stop capturing images, depending on the flight status of the aircraft 2.

リール制御部126は、巻き取りリール19を制御する。具体的にリール制御部126は、飛行体2の飛行状況に応じた適正量のテザー4が巻き取りリール19の回転軸から繰り出されるように、モータによる回転軸の駆動によってテザー4の送出及び回収を制御する。 The reel control unit 126 controls the take-up reel 19. Specifically, the reel control unit 126 controls the sending out and recovery of the tether 4 by driving the rotating shaft of the motor so that the appropriate amount of tether 4 according to the flight conditions of the aircraft 2 is paid out from the rotating shaft of the take-up reel 19.

警報信号生成部127は、飛行体2の照明部26に所定の警報照明の照射(例えば高輝度フラッシュ光の連続照射)を実行させ、かつ、飛行体2のスピーカ27に所定の警報音の出力(例えば大音量アラーム又は撮影音の連続出力)を実行させるための警報信号を生成する。但し、警報動作は、警報照明の照射及び警報音の出力の一方でも良い。 The alarm signal generating unit 127 generates an alarm signal that causes the lighting unit 26 of the flying object 2 to emit a predetermined alarm light (e.g., continuous emission of a high-intensity flash light) and causes the speaker 27 of the flying object 2 to output a predetermined alarm sound (e.g., continuous output of a loud alarm or a shooting sound). However, the alarm operation may be either the illumination of the alarm light or the output of an alarm sound.

映像解析部128は、飛行体2の撮影部22によって撮影された車両周辺の映像を、通信部122を介して取得する。また、映像解析部128は、携帯端末50を携帯したユーザの車両1への接近方向を、接近検出部51から取得する。映像解析部128は、飛行体2の離陸直後に撮影された車両周辺の映像を解析することにより、ユーザの車両1への接近方向に応じて生じるユーザの視界からの死角領域を特定する。つまり、車両1に接近する乗員の視界において車両1又は周辺障害物に基づき死角となっている領域を特定する。映像解析部128は、例えば、ユーザの車両1への接近方向に対して、車両1の車体の陰となる領域、及び、車両1の周辺のブロック塀又は駐車車両等の視界遮蔽物の陰となる領域を、死角領域として特定する。 The video analysis unit 128 acquires the video of the vehicle surroundings captured by the image capture unit 22 of the flying object 2 via the communication unit 122. The video analysis unit 128 also acquires the approach direction of the user carrying the mobile terminal 50 to the vehicle 1 from the approach detection unit 51. The video analysis unit 128 analyzes the video of the vehicle surroundings captured immediately after the takeoff of the flying object 2 to identify blind spots from the user's field of vision that arise according to the user's approach direction to the vehicle 1. In other words, it identifies blind spots in the field of vision of a passenger approaching the vehicle 1 based on the vehicle 1 or surrounding obstacles. For example, the video analysis unit 128 identifies as blind spots areas areas that are in the shadow of the body of the vehicle 1 and areas in the shadow of a block wall, parked vehicle, or other obstacles around the vehicle 1 in the direction of the user's approach to the vehicle 1.

また、映像解析部128は、飛行体2の撮影部22によって撮影された映像内に不審者が含まれている場合に、その不審者を検出する。映像解析部128は、例えば、撮影映像内に含まれている全ての人物をパターンマッチング等によって特定し、上記で特定した死角領域内で一定時間以上連続して静止している人物が存在する場合に、その人物を不審者として検出する。なお、映像解析部128は、上記の例に限らず、任意の不審者検出アルゴリズムを使用することができる。例えば、人物の表情に基づいて精神状態を推定し、攻撃的な精神状態の人物を不審者として検出しても良い。 Furthermore, the video analysis unit 128 detects a suspicious person when the suspicious person is included in the video captured by the imaging unit 22 of the flying object 2. For example, the video analysis unit 128 identifies all people included in the captured video by pattern matching or the like, and detects a person who remains motionless for a certain period of time or more in the blind spot area identified above as a suspicious person. Note that the video analysis unit 128 is not limited to the above example, and can use any suspicious person detection algorithm. For example, the mental state of a person may be estimated based on the facial expression, and a person in an aggressive mental state may be detected as a suspicious person.

飛行経路作成部123は、上記の死角領域を特定するために車両の周辺(予め設定された所定範囲、例えば、車両1を中心とする半径5~10メートル程度の範囲)の映像を取得する離陸直後の段階においては、所定の規定経路を飛行経路として作成する。規定経路は、例えば、車両1の上空を飛行体2に旋回飛行させる規定経路(図6)、又は、車両1の右後方から左前方に向かって車両1の上空を斜行(高度変化を伴っても良い)しながら横断する斜行横断経路(図7)等である。また、飛行経路作成部123は、死角領域が特定された後の段階においては、例えば、特定された全ての死角領域を順に撮影するために飛行体2を移動飛行させる最短経路を、予定飛行経路として作成する。また、飛行経路作成部123は、車両1の床下領域(フロアパネル底面と地面との隙間の領域)を撮影するために飛行体2を移動飛行させる経路を、予定飛行経路に含めても良い。 The flight path creation unit 123 creates a prescribed route as a flight path immediately after takeoff when acquiring images of the periphery of the vehicle (a predetermined range, for example, a range of about a radius of 5 to 10 meters centered on the vehicle 1) in order to identify the above-mentioned blind spot area. The prescribed route is, for example, a prescribed route (FIG. 6) in which the aircraft 2 flies in a circle above the vehicle 1, or a diagonal crossing route (FIG. 7) in which the aircraft 2 crosses the sky above the vehicle 1 while diagonally moving (which may involve a change in altitude) from the right rear to the left front of the vehicle 1. In addition, after the blind spot area is identified, the flight path creation unit 123 creates, for example, the shortest route for moving and flying the aircraft 2 to sequentially photograph all of the identified blind spot areas as a planned flight path. In addition, the flight path creation unit 123 may include, in the planned flight path, a route for moving and flying the aircraft 2 to photograph the underfloor area of the vehicle 1 (the area of the gap between the bottom surface of the floor panel and the ground).

制御部121は、操縦信号生成部124によって生成された操縦信号、撮影信号生成部125によって生成された撮影開始信号及び撮影停止信号、並びに警報信号生成部127によって生成された警報信号を、リアルタイムで通信部122から飛行体2に送信する。 The control unit 121 transmits the control signal generated by the control signal generation unit 124, the image capture start signal and image capture stop signal generated by the image capture signal generation unit 125, and the warning signal generated by the warning signal generation unit 127 from the communication unit 122 to the flying object 2 in real time.

図8は、車両情報検出部14の機能構成を示す図である。図8に示すように車両情報検出部14は、ドアロックセンサ141、ドア開閉センサ142、シートセンサ143、始動検知センサ144、車内侵入検知センサ146、及びGPS受信機148を含む。 Figure 8 is a diagram showing the functional configuration of the vehicle information detection unit 14. As shown in Figure 8, the vehicle information detection unit 14 includes a door lock sensor 141, a door open/close sensor 142, a seat sensor 143, a start detection sensor 144, an intrusion detection sensor 146, and a GPS receiver 148.

ドアロックセンサ141は、車両1のドアの施錠状態/解錠状態を検出する。ドア開閉センサ142は、車両1のドアの開状態/閉状態を検出する。シートセンサ143は、車両1のシートへの人員の着座状態を検出する。始動検知センサ144は、イグニッションセンサにより、又は、バッテリと走行モータとを接続するリレースイッチのオン/オフ状態を検出することにより、車両1の駆動力発生装置(エンジン又は走行モータ等)の始動状態/停止状態を検出する。車内侵入検知センサ146は、駐車中の車両1の車内を監視エリアとして、その監視エリア内における侵入者の有無を検知する。GPS受信機148は、GPS衛星から受信したGPS信号に基づいて車両1の現在地を特定し、その現在地を示す位置情報を出力する。 The door lock sensor 141 detects whether the doors of the vehicle 1 are locked or unlocked. The door open/close sensor 142 detects whether the doors of the vehicle 1 are open or closed. The seat sensor 143 detects whether a person is seated in the seat of the vehicle 1. The start detection sensor 144 detects whether the driving force generating device (engine or driving motor, etc.) of the vehicle 1 is started or stopped by an ignition sensor or by detecting the on/off state of a relay switch connecting the battery and the driving motor. The vehicle intrusion detection sensor 146 monitors the interior of the parked vehicle 1 and detects the presence or absence of an intruder within the monitoring area. The GPS receiver 148 identifies the current location of the vehicle 1 based on a GPS signal received from a GPS satellite and outputs location information indicating the current location.

図9は、車両1の制御部10による飛行体2の制御フローを示すフローチャートである。まずステップSP11において制御部10は、駐車中の車両1に携帯端末50を携帯したユーザが接近したことを接近検出部51が検出したか否かを判定する。具体的に、制御部10は、始動検知センサ144が車両1の駆動力発生装置が停止状態であることを検出し、車内侵入検知センサ146が車両1の車内が無人であることを検出し、かつ、ドアロックセンサ141が車両1の全ドアが施錠状態であることを検出したことにより、車両1が駐車中であることを検出する。接近検出部51は、車両1が駐車中の状態で、車両1の位置情報を車両情報検出部14のGPS受信機148から取得し、携帯端末50の位置情報を携帯端末50から通信部15を介して取得する。接近検出部51は、車両1の位置に対する携帯端末50の位置の時系列変化を観測することにより、車両1への携帯端末50の接近及びその接近方向を検出する。 9 is a flowchart showing the control flow of the flying object 2 by the control unit 10 of the vehicle 1. First, in step SP11, the control unit 10 judges whether the approach detection unit 51 detects that a user carrying a mobile terminal 50 has approached the parked vehicle 1. Specifically, the control unit 10 detects that the vehicle 1 is parked when the start detection sensor 144 detects that the driving force generating device of the vehicle 1 is in a stopped state, the vehicle intrusion detection sensor 146 detects that the vehicle 1 is unoccupied, and the door lock sensor 141 detects that all doors of the vehicle 1 are locked. When the vehicle 1 is parked, the approach detection unit 51 acquires the position information of the vehicle 1 from the GPS receiver 148 of the vehicle information detection unit 14, and acquires the position information of the mobile terminal 50 from the mobile terminal 50 via the communication unit 15. The approach detection unit 51 detects the approach of the mobile terminal 50 to the vehicle 1 and the approach direction by observing the time-series change in the position of the mobile terminal 50 relative to the position of the vehicle 1.

接近検出部51が車両1への携帯端末50の接近を検出しない場合(ステップSP11:NO)は、制御部10はステップSP11の処理を繰り返し実行する。 If the approach detection unit 51 does not detect the approach of the mobile terminal 50 to the vehicle 1 (step SP11: NO), the control unit 10 repeats the process of step SP11.

接近検出部51が車両1への携帯端末50の接近を検出した場合(ステップSP11:YES)は、次にステップSP12において制御部10は、飛行体制御部12に飛行体2の離陸制御を実行させる。具体的には図3~5を参照して、まずバッテリ制御部11は、バッテリ18からテザー4を介して飛行体2への電力供給を開始する。次に操縦信号生成部124は、飛行経路作成部123によって作成された上記規定経路の飛行経路に沿って飛行体2を飛行させるための操縦信号を生成する。また、撮影信号生成部125は、飛行体2の撮影部22に対して撮影を開始させるための撮影開始信号を生成する。次に通信部122は、その操縦信号及び撮影開始信号を飛行体2に送信する。次に飛行体2側の通信部21は、車両1側の通信部122から送信された操縦信号及び撮影開始信号を受信する。次に駆動部23は、その操縦信号に基づいてプロペラ113を駆動することにより、上記規定経路に沿って飛行体2を飛行させるための制御を開始する。これにより、発着台3から飛行体2が離陸する。また、撮影部22はカメラ112による撮影を開始し、位置検出部24は飛行体2の位置検出を開始し、姿勢検出部25は飛行体2の姿勢検出を開始する。制御部20は、撮影部22から出力された映像データ、位置検出部24から出力された位置データ、及び姿勢検出部25から出力された姿勢データを、リアルタイムで通信部21から車両1に送信する。制御部10は飛行体2から受信した映像データを通信部15に転送し、通信部15はその映像データを携帯端末50に送信する。これにより、カメラ112によって撮影された映像が携帯端末50の表示部に表示される。なお、撮影部22から出力された映像データは、車両1を介さずに、飛行体2から携帯端末50に直接送信されても良い(以下同様)。 If the approach detection unit 51 detects the approach of the mobile terminal 50 to the vehicle 1 (step SP11: YES), then in step SP12, the control unit 10 causes the flying object control unit 12 to execute takeoff control of the flying object 2. Specifically, referring to FIGS. 3 to 5, the battery control unit 11 first starts supplying power from the battery 18 to the flying object 2 via the tether 4. Next, the control signal generation unit 124 generates a control signal for flying the flying object 2 along the flight path of the above-mentioned prescribed path created by the flight path creation unit 123. In addition, the image capture signal generation unit 125 generates an image capture start signal for causing the image capture unit 22 of the flying object 2 to start image capture. Next, the communication unit 122 transmits the control signal and the image capture start signal to the flying object 2. Next, the communication unit 21 on the flying object 2 side receives the control signal and the image capture start signal transmitted from the communication unit 122 on the vehicle 1 side. Next, the drive unit 23 starts control for flying the flying object 2 along the above-mentioned prescribed path by driving the propeller 113 based on the control signal. This causes the flying object 2 to take off from the take-off and landing pad 3. The photographing unit 22 also starts photographing with the camera 112, the position detection unit 24 starts detecting the position of the flying object 2, and the attitude detection unit 25 starts detecting the attitude of the flying object 2. The control unit 20 transmits the video data output from the photographing unit 22, the position data output from the position detection unit 24, and the attitude data output from the attitude detection unit 25 to the vehicle 1 in real time from the communication unit 21. The control unit 10 transfers the video data received from the flying object 2 to the communication unit 15, and the communication unit 15 transmits the video data to the mobile terminal 50. As a result, the video captured by the camera 112 is displayed on the display unit of the mobile terminal 50. Note that the video data output from the photographing unit 22 may be transmitted directly from the flying object 2 to the mobile terminal 50 without going through the vehicle 1 (same below).

次にステップSP13において制御部10は、飛行体制御部12に飛行体2の飛行制御及び撮影制御を継続させる。操縦信号生成部124は、通信部122が通信部21から受信した映像データ、位置データ、及び姿勢データに基づいて、上記規定経路に沿って飛行体2を飛行させるための操縦信号を生成する。上記と同様に、この操縦信号が飛行体2に送信されることによって、飛行体2の飛行が制御される。また、制御部121は、通信部122が通信部21から受信した映像データを映像解析部128に転送する。映像解析部128は、カメラ112によって撮影された車両周辺の映像を解析することにより、ユーザの車両1への接近方向に応じて生じるユーザの視界からの死角領域を特定する。次に飛行経路作成部123は、特定された全ての死角領域を順に撮影するために飛行体2を移動飛行させる最短経路を、予定飛行経路として作成する。ここで、飛行経路作成部123は、車両1の床下領域を撮影するために飛行体2を移動飛行させる経路を、予定飛行経路に含めても良い。次に操縦信号生成部124は、通信部122が通信部21から受信した映像データ、位置データ、及び姿勢データに基づいて、当該予定飛行経路に沿って飛行体2を飛行させるための操縦信号を生成する。上記と同様に、この操縦信号が飛行体2に送信されることによって、飛行体2の飛行が制御される。また、制御部10は、飛行体2から受信した映像データを通信部15から携帯端末50に送信する。これにより、カメラ112によって撮影された映像が携帯端末50の表示部に表示される。 Next, in step SP13, the control unit 10 causes the flying object control unit 12 to continue the flight control and shooting control of the flying object 2. The control signal generation unit 124 generates a control signal for flying the flying object 2 along the above-mentioned specified path based on the video data, position data, and attitude data received by the communication unit 122 from the communication unit 21. As described above, the flight of the flying object 2 is controlled by transmitting this control signal to the flying object 2. In addition, the control unit 121 transfers the video data received by the communication unit 122 from the communication unit 21 to the video analysis unit 128. The video analysis unit 128 identifies blind spots from the user's field of view that occur depending on the user's approach direction to the vehicle 1 by analyzing the video of the vehicle surroundings captured by the camera 112. Next, the flight path creation unit 123 creates the shortest path for moving and flying the flying object 2 to sequentially capture all of the identified blind spots as a planned flight path. Here, the flight path creation unit 123 may include a path for moving and flying the flying object 2 to capture the underfloor area of the vehicle 1 in the planned flight path. Next, the control signal generation unit 124 generates a control signal for flying the flying object 2 along the planned flight path based on the video data, position data, and attitude data received by the communication unit 122 from the communication unit 21. As described above, the flight of the flying object 2 is controlled by transmitting this control signal to the flying object 2. In addition, the control unit 10 transmits the video data received from the flying object 2 from the communication unit 15 to the mobile terminal 50. As a result, the video captured by the camera 112 is displayed on the display unit of the mobile terminal 50.

図10は、飛行体2の撮影部22が、ブロック塀300の陰に潜む不審者400を撮影している状況を示す図である。これにより、乗員200の視界からの死角領域に存在する不審者400の映像が、乗員200が携帯する携帯端末50の表示部に表示される。 Figure 10 shows a situation in which the photographing unit 22 of the flying object 2 photographs a suspicious person 400 hiding behind a block wall 300. As a result, an image of the suspicious person 400 who is in a blind spot from the view of the occupant 200 is displayed on the display unit of the mobile terminal 50 carried by the occupant 200.

次にステップSP14において制御部10は、カメラ112によって撮影された映像内において映像解析部128が不審者を検出したか否かを判定する。 Next, in step SP14, the control unit 10 determines whether the video analysis unit 128 has detected a suspicious individual in the video captured by the camera 112.

不審者が検出された場合(ステップSP14:YES)は、次にステップSP15において制御部10は、車両1の周辺で不審者が検出されたことを示す不審者検出情報を、通信部15から携帯端末50に送信する。また、制御部10は、警報信号生成部127に警報信号を生成させるとともに、不審者に対して飛行体2を正対させるための操縦信号を操縦信号生成部124に生成させる。生成された警報信号及び操縦信号は、通信部122から飛行体2に送信される。これにより、飛行体2は、不審者に正対した位置でホバリングしながら、不審者に対して警報動作(警報照明の照射及び警報音の出力)を実行する。なお、不審者が検出された場合には、制御部10が警報信号生成部127に加えて警報制御部13を制御することにより、飛行体2の照明部26及びスピーカ27に加えて車両1の照明装置及びホーンを用いて警報動作を実行しても良い。また、制御部10は、不審者が検出された場合に直ちに警報動作を実行させるのではなく、警報動作の実行の要否を問い合わせるメッセージを、通信部15から携帯端末50に送信しても良い。この場合、制御部10は、ユーザの操作入力によって携帯端末50から送信された警報動作の実行命令を、通信部15が受信したことを条件として、飛行体2(及び車両1)に警報動作を実行させる。 If a suspicious person is detected (step SP14: YES), then in step SP15, the control unit 10 transmits suspicious person detection information indicating that a suspicious person has been detected in the vicinity of the vehicle 1 from the communication unit 15 to the mobile terminal 50. The control unit 10 also causes the alarm signal generation unit 127 to generate an alarm signal, and causes the control signal generation unit 124 to generate a control signal for directing the flying object 2 toward the suspicious person. The generated alarm signal and control signal are transmitted from the communication unit 122 to the flying object 2. As a result, the flying object 2 executes an alarm operation (illumination of alarm lighting and output of alarm sound) against the suspicious person while hovering in a position directly facing the suspicious person. Note that, when a suspicious person is detected, the control unit 10 may control the alarm control unit 13 in addition to the alarm signal generation unit 127 to execute an alarm operation using the lighting unit 26 and speaker 27 of the flying object 2 as well as the lighting device and horn of the vehicle 1. Furthermore, when a suspicious person is detected, the control unit 10 may not immediately execute an alarm operation, but may instead send a message from the communication unit 15 to the mobile device 50 inquiring about whether or not an alarm operation should be executed. In this case, the control unit 10 causes the flying object 2 (and the vehicle 1) to execute an alarm operation on the condition that the communication unit 15 receives an instruction to execute an alarm operation sent from the mobile device 50 by user operation input.

警報動作の実行を開始した後、制御部10はステップSP14の処理を再度実行する。警報動作によっても不審者が退散しない場合は、映像解析部128は引き続き不審者を検出するため、制御部10は引き続きステップSP15の処理を実行する。 After starting the execution of the alarm operation, the control unit 10 executes the process of step SP14 again. If the suspicious person does not retreat even after the alarm operation, the video analysis unit 128 continues to detect the suspicious person, so the control unit 10 continues to execute the process of step SP15.

映像解析部128が不審者を検出しない場合(ステップSP14:NO)は、次にステップSP16において制御部10は、飛行体2による予定飛行経路の飛行及び撮影が完了したことにより、飛行体制御部12に飛行体2の帰艦制御を実行させる。操縦信号生成部124は、通信部122が受信した映像データ、位置データ、及び姿勢データに基づいて、飛行体2を発着台3に向けて飛行させるための操縦信号を生成する。上記と同様に、この操縦信号が飛行体2に送信されることによって飛行体2の飛行が制御され、飛行体2は発着台3に帰艦する。次に、撮影信号生成部125は、飛行体2の撮影部22に対して撮影を停止させるための撮影停止信号を生成する。撮影停止信号は飛行体2に送信され、撮影部22はカメラ112による撮影を停止する。その後、バッテリ制御部11は、バッテリ18から飛行体2への電力供給を停止する。 If the video analysis unit 128 does not detect a suspicious person (step SP14: NO), then in step SP16, the control unit 10 causes the flying object control unit 12 to execute return control of the flying object 2, as the flying object 2 has completed flying and photographing the planned flight path. The control signal generation unit 124 generates a control signal for flying the flying object 2 toward the landing pad 3 based on the video data, position data, and attitude data received by the communication unit 122. As above, the flight of the flying object 2 is controlled by transmitting this control signal to the flying object 2, and the flying object 2 returns to the landing pad 3. Next, the photographing signal generation unit 125 generates a photographing stop signal for the photographing unit 22 of the flying object 2 to stop photographing. The photographing stop signal is transmitted to the flying object 2, and the photographing unit 22 stops photographing with the camera 112. After that, the battery control unit 11 stops the supply of power from the battery 18 to the flying object 2.

本実施の形態に係る車両周辺監視システムによれば、制御部10は、接近検出部51が車両1への乗員の接近を検出した場合に、飛行体2が車両1から離陸し、撮影部22が車両1の周辺を撮影し、撮影部22が撮影した映像を携帯端末50に送信するよう、飛行体2を制御する。従って、乗車前に乗員が手動による操作入力を行うことなく、車両1の周辺(予め設定された所定範囲、例えば、車両1を中心とする半径5~10メートル程度の範囲)の映像が携帯端末50の表示部に自動的に表示される。その結果、飛行体2の撮影部22による撮影映像を、運転開始のために乗員が駐車中の車両1に接近してきた時の安全確認に活用することが可能となる。 According to the vehicle surroundings monitoring system of this embodiment, when the approach detection unit 51 detects the approach of an occupant to the vehicle 1, the control unit 10 controls the flying object 2 so that the flying object 2 takes off from the vehicle 1, the photographing unit 22 photographs the surroundings of the vehicle 1, and the image photographed by the photographing unit 22 is transmitted to the mobile terminal 50. Therefore, without the occupant manually inputting an operation before getting in, an image of the surroundings of the vehicle 1 (a predetermined range, for example, a range of about a 5-10 meter radius from the vehicle 1) is automatically displayed on the display unit of the mobile terminal 50. As a result, it becomes possible to utilize the image photographed by the photographing unit 22 of the flying object 2 to check the safety when the occupant approaches the parked vehicle 1 to start driving.

また、制御部10は、映像解析部128によって不審者が検出された場合、不審者検出情報を携帯端末50に送信する。これにより、車両1に接近してきたユーザに対して注意喚起を行うことができる。 In addition, when a suspicious person is detected by the video analysis unit 128, the control unit 10 transmits suspicious person detection information to the mobile terminal 50. This makes it possible to alert the user approaching the vehicle 1.

また、飛行経路作成部123は、乗員の車両1への接近方向に応じて生じる乗員の視界からの死角が撮影部22による撮影範囲に含まれるような飛行経路を作成する。従って、映像解析部128によって、死角に潜む不審者を確実に検出することができる。 Furthermore, the flight path creation unit 123 creates a flight path such that blind spots from the occupant's field of vision that arise depending on the direction in which the occupant approaches the vehicle 1 are included in the range of photography by the photography unit 22. Therefore, the video analysis unit 128 can reliably detect suspicious individuals hiding in blind spots.

また、飛行経路作成部123は、車両1の床下領域が撮影部22による撮影範囲に含まれるような飛行経路を作成する。従って、映像解析部128によって、車両1の床下領域に潜む不審者を確実に検出することができる。 Furthermore, the flight path creation unit 123 creates a flight path such that the underfloor area of the vehicle 1 is included in the range of photography by the photography unit 22. Therefore, the video analysis unit 128 can reliably detect suspicious individuals hiding in the underfloor area of the vehicle 1.

<変形例>
上記実施の形態では、制御部10は飛行体2による予定飛行経路の飛行及び撮影が完了した場合に飛行体2を車両1に帰艦させたが、予定飛行経路の撮影が完了する前であっても、飛行体2の帰艦命令がユーザによって携帯端末50から操作入力され、通信部15が当該帰艦命令を受信した場合には、制御部10は直ちに飛行体2を車両1に帰艦させても良い。具体的に、制御部10は、通信部15が携帯端末50から帰艦命令を受信すると、通信部122が受信した映像データ、位置データ、及び姿勢データに基づいて、飛行体2を現在位置から発着台3に向けて飛行させるための操縦信号を操縦信号生成部124に生成させる。この操縦信号が飛行体2に送信されることによって飛行体2の飛行が制御され、飛行体2は発着台3に帰艦する。
<Modification>
In the above embodiment, the control unit 10 returns the flying object 2 to the vehicle 1 when the flight and photographing of the planned flight path by the flying object 2 are completed, but even before the photographing of the planned flight path is completed, if a return command for the flying object 2 is input by the user from the mobile terminal 50 and the communication unit 15 receives the return command, the control unit 10 may immediately return the flying object 2 to the vehicle 1. Specifically, when the communication unit 15 receives a return command from the mobile terminal 50, the control unit 10 causes the control signal generation unit 124 to generate a control signal for flying the flying object 2 from the current position toward the landing pad 3 based on the video data, position data, and attitude data received by the communication unit 122. The flight of the flying object 2 is controlled by transmitting this control signal to the flying object 2, and the flying object 2 returns to the landing pad 3.

また、制御部10は、予定飛行経路の撮影が完了する前であっても、ユーザが車両1に乗車したことを検出した場合には、直ちに飛行体2を車両1に帰艦させても良い。具体的に、制御部10は、車両1の運転席ドアの開閉動作が行われたことをドア開閉センサ142が検出したことにより、あるいは、当該開閉動作の後に車両1の運転席への人員の着座をシートセンサ143が検出したことにより、ユーザが車両1に乗車したことを検出する。この場合、制御部10は、通信部122が受信した映像データ、位置データ、及び姿勢データに基づいて、飛行体2を現在位置から発着台3に向けて飛行させるための操縦信号を操縦信号生成部124に生成させる。この操縦信号が飛行体2に送信されることによって飛行体2の飛行が制御され、飛行体2は発着台3に帰艦する。 In addition, the control unit 10 may immediately return the flying object 2 to the vehicle 1 when it detects that the user has boarded the vehicle 1 even before the planned flight path has been photographed. Specifically, the control unit 10 detects that the user has boarded the vehicle 1 when the door opening/closing sensor 142 detects that the driver's door of the vehicle 1 has been opened or closed, or when the seat sensor 143 detects that a person has sat in the driver's seat of the vehicle 1 after the opening/closing operation. In this case, the control unit 10 causes the control signal generation unit 124 to generate a control signal for flying the flying object 2 from the current position toward the landing pad 3 based on the video data, position data, and attitude data received by the communication unit 122. The flight of the flying object 2 is controlled by transmitting this control signal to the flying object 2, and the flying object 2 returns to the landing pad 3.

なお、予定飛行経路の撮影完了前に飛行体2を帰艦させる場合には、制御部10は、飛行体2を帰艦させるための操縦信号を操縦信号生成部124に生成させる代わりに、リール制御部126によって巻き取りリール19の回転軸を高速に回転駆動させることによって、飛行体2を強制的に回収しても良い。これにより、飛行体2を迅速に回収することが可能となる。 When the flying object 2 is to return to the ship before the shooting of the planned flight path is completed, the control unit 10 may forcibly retrieve the flying object 2 by causing the reel control unit 126 to rotate the rotation shaft of the take-up reel 19 at high speed, instead of causing the control signal generation unit 124 to generate a control signal for returning the flying object 2 to the ship. This allows the flying object 2 to be retrieved quickly.

本変形例によれば、車両1の走行開始前に飛行体2を帰艦させることができるため、車両1が走行を開始した後に飛行体2が周辺の障害物等に接触する事態を予め回避できる。 According to this modified example, the aircraft 2 can be returned to the ship before the vehicle 1 starts moving, which makes it possible to prevent the aircraft 2 from coming into contact with nearby obstacles after the vehicle 1 starts moving.

1 車両
2 飛行体
4 テザー
10 制御部
12 飛行体制御部
14 車両情報検出部
16 表示部
17 操作入力部
19 巻き取りリール
22 撮影部
26 照明部
27 スピーカ
50 携帯端末
51 接近検出部
123 飛行経路作成部
128 映像解析部
REFERENCE SIGNS LIST 1 vehicle 2 flying object 4 tether 10 control unit 12 flying object control unit 14 vehicle information detection unit 16 display unit 17 operation input unit 19 take-up reel 22 imaging unit 26 lighting unit 27 speaker 50 portable terminal 51 approach detection unit 123 flight path creation unit 128 video analysis unit

Claims (6)

車両に搭載され、撮影部を有し、前記車両の車外を飛行可能な飛行体と、
前記車両へ乗車する乗員の位置情報に基づいて、前記乗員の前記車両への接近を検出する接近検出部と、
前記飛行体を制御する制御部と、
を備え、
前記制御部は、前記接近検出部が前記車両への前記乗員の接近を検出した場合に、前記飛行体が前記車両から離陸し、前記撮影部が前記車両の周辺を撮影し、前記撮影部が撮影した画像を前記乗員が携帯する表示部を有する携帯端末に送信するよう制御し、
前記撮影部が撮影した画像を解析することにより、前記車両の周辺に存在する不審者を検出する画像解析部をさらに備え、
前記制御部は、前記画像解析部が前記不審者を検出した場合、不審者検出情報を前記携帯端末に送信するよう制御し、
前記飛行体は、所定の警報動作を行う警報手段をさらに有し、
前記制御部はさらに、前記画像解析部が前記不審者を検出したことを条件として、前記警報手段が前記不審者に対する警報動作を実行するよう制御する、車両の周辺監視システム。
An aircraft mounted on a vehicle, having a photographing unit, and capable of flying outside the vehicle;
an approach detection unit that detects an approach of an occupant to the vehicle based on position information of the occupant getting into the vehicle;
A control unit for controlling the flying object;
Equipped with
the control unit controls, when the approach detection unit detects the approach of the occupant to the vehicle, the flying object to take off from the vehicle, the photographing unit to photograph the periphery of the vehicle, and the image photographed by the photographing unit to be transmitted to a portable terminal having a display unit carried by the occupant ;
The vehicle further includes an image analysis unit that detects a suspicious person present in the vicinity of the vehicle by analyzing the image captured by the image capture unit,
The control unit controls the image analysis unit to transmit suspicious person detection information to the mobile terminal when the image analysis unit detects the suspicious person,
The flying object further has an alarm means for performing a predetermined alarm operation,
The control unit further controls the warning means to execute a warning operation against the suspicious person on condition that the image analysis unit detects the suspicious person.
車両に搭載され、撮影部を有し、前記車両の車外を飛行可能な飛行体と、
前記車両へ乗車する乗員の位置情報に基づいて、前記乗員の前記車両への接近を検出する接近検出部と、
前記飛行体を制御する制御部と、
を備え、
前記制御部は、前記接近検出部が前記車両への前記乗員の接近を検出した場合に、前記飛行体が前記車両から離陸し、前記撮影部が前記車両の周辺を撮影し、前記撮影部が撮影した画像を前記乗員が携帯する表示部を有する携帯端末に送信するよう制御し、
前記撮影部が撮影した画像を解析することにより、前記車両の周辺に存在する不審者を検出する画像解析部をさらに備え、
前記制御部は、前記画像解析部が前記不審者を検出した場合、不審者検出情報を前記携帯端末に送信するよう制御し、
前記飛行体は、所定の警報動作を行う警報手段をさらに有し、
前記制御部はさらに、警報動作の実行命令を前記携帯端末から受信したことを条件として、前記警報手段が前記不審者に対する警報動作を実行するよう制御する、車両の周辺監視システム。
An aircraft mounted on a vehicle, having a photographing unit, and capable of flying outside the vehicle;
an approach detection unit that detects an approach of an occupant to the vehicle based on position information of the occupant getting into the vehicle;
A control unit for controlling the flying object;
Equipped with
the control unit controls, when the approach detection unit detects the approach of the occupant to the vehicle, the flying object to take off from the vehicle, the photographing unit to photograph the periphery of the vehicle, and the image photographed by the photographing unit to be transmitted to a portable terminal having a display unit carried by the occupant;
The vehicle further includes an image analysis unit that detects a suspicious person present in the vicinity of the vehicle by analyzing the image captured by the image capture unit,
The control unit controls the image analysis unit to transmit suspicious person detection information to the mobile terminal when the image analysis unit detects the suspicious person,
The flying object further has an alarm means for performing a predetermined alarm operation,
The control unit further controls the warning means to execute a warning operation against the suspicious person on condition that a command to execute a warning operation is received from the mobile terminal.
前記車両に接近する前記乗員の視界において前記車両又は周辺障害物に基づき死角となっている領域が、前記撮影部による撮影範囲に含まれるような飛行経路を作成する飛行経路作成部をさらに備え、
前記制御部は、前記飛行経路作成部が作成した前記飛行経路で前記飛行体が飛行するよう制御する、請求項1又は2に記載の車両の周辺監視システム。
A flight path creation unit creates a flight path such that a blind spot in the field of vision of the occupant approaching the vehicle due to the vehicle or a surrounding obstacle is included in the range of photography by the photography unit,
The vehicle periphery monitoring system according to claim 1 or 2 , wherein the control unit controls the flying object to fly along the flight path created by the flight path creation unit.
前記飛行経路作成部は、前記車両の床下領域が前記撮影部による撮影範囲にさらに含まれるような前記飛行経路を作成する、請求項に記載の車両の周辺監視システム。 The vehicle periphery monitoring system according to claim 3 , wherein the flight path creation unit creates the flight path such that an underfloor area of the vehicle is further included in an imaging range of the imaging unit. 前記制御部は、前記車両に前記乗員が乗車したことを検知した場合に前記飛行体を前記車両に帰艦させる、請求項のいずれか一つに記載の車両の周辺監視システム。 The vehicle periphery monitoring system according to claim 1 , wherein the control unit causes the flying object to return to the vehicle when it detects that the occupant has boarded the vehicle. 前記飛行体はケーブルに接続されており、
前記ケーブルを巻き取る巻き取り装置をさらに備え、
前記制御部は、前記飛行体を前記車両に帰艦させる際に、前記巻き取り装置に前記ケーブルを巻き取らせる、請求項に記載の車両の周辺監視システム。
the air vehicle is connected to a cable;
A winding device for winding the cable is further provided,
The vehicle periphery monitoring system according to claim 5 , wherein the control unit causes the winding device to wind up the cable when the flying object is returned to the vehicle.
JP2020087631A 2020-05-19 2020-05-19 Vehicle Surroundings Monitoring System Active JP7494563B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020087631A JP7494563B2 (en) 2020-05-19 2020-05-19 Vehicle Surroundings Monitoring System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020087631A JP7494563B2 (en) 2020-05-19 2020-05-19 Vehicle Surroundings Monitoring System

Publications (2)

Publication Number Publication Date
JP2021182703A JP2021182703A (en) 2021-11-25
JP7494563B2 true JP7494563B2 (en) 2024-06-04

Family

ID=78606882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020087631A Active JP7494563B2 (en) 2020-05-19 2020-05-19 Vehicle Surroundings Monitoring System

Country Status (1)

Country Link
JP (1) JP7494563B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014053821A (en) 2012-09-07 2014-03-20 Sogo Keibi Hosho Co Ltd Security system and security method
JP2014164538A (en) 2013-02-26 2014-09-08 Denso Corp Control system
JP2016138853A (en) 2015-01-29 2016-08-04 株式会社ゼンリンデータコム Navigation system, on-vehicle navigation device, flying object, navigation method, cooperation program for on-vehicle navigation device, and cooperation program for flying object
JP2017013653A (en) 2015-07-01 2017-01-19 株式会社Ihiエアロスペース Flight body mounted vehicle
JP2017182511A (en) 2016-03-30 2017-10-05 アイシン精機株式会社 Security device for vehicle

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014053821A (en) 2012-09-07 2014-03-20 Sogo Keibi Hosho Co Ltd Security system and security method
JP2014164538A (en) 2013-02-26 2014-09-08 Denso Corp Control system
JP2016138853A (en) 2015-01-29 2016-08-04 株式会社ゼンリンデータコム Navigation system, on-vehicle navigation device, flying object, navigation method, cooperation program for on-vehicle navigation device, and cooperation program for flying object
JP2017013653A (en) 2015-07-01 2017-01-19 株式会社Ihiエアロスペース Flight body mounted vehicle
JP2017182511A (en) 2016-03-30 2017-10-05 アイシン精機株式会社 Security device for vehicle

Also Published As

Publication number Publication date
JP2021182703A (en) 2021-11-25

Similar Documents

Publication Publication Date Title
US9718544B2 (en) Methods and systems for providing aerial assistance
JP6393918B2 (en) Audio transmission system
CN107415602A (en) For the monitoring method of vehicle, equipment and system, computer-readable recording medium
KR101832273B1 (en) Method for intelligent video surveillance using drone and Multifunctional drone for the method and Device for charging the drone
CN112703727B (en) Tethered unmanned aerial vehicle system with monitoring data management
WO2019021811A1 (en) Aircraft, communication terminal, communication system, and program
US20230083504A1 (en) Systems and methods for capturing images around vehicle for insurance claim processing
KR102135379B1 (en) Robot for vehicle and control method of the robot
CN114572141A (en) Occupant monitoring system, occupant leaving reminding method and related equipment
JP7501094B2 (en) Vehicle parking position notification system
TWI768745B (en) Vehicle Surveillance System
JP7494563B2 (en) Vehicle Surroundings Monitoring System
KR102441077B1 (en) Apparatus for controlling taking off and landing of a dron in a vehicle and method thereof
JP7216893B2 (en) mobile body and mobile system
JP3223500U (en) Remote control system
JP2021182279A (en) Vehicle periphery monitoring system
JP7476661B2 (en) Vehicle Surroundings Monitoring System
JP7309497B2 (en) Mobile projection device, mobile terminal, program
JP2020177700A (en) Autonomous travel vehicle
US20200168065A1 (en) Vehicular viewer system and method
JP7470265B2 (en) Method for controlling unmanned aerial systems
KR20190019644A (en) Artificial intelligence type drone and operating method of thereof
US11682242B1 (en) Facilitation of ingress to a passenger compartment of a vehicle
US20240149738A1 (en) Method for operating a motor vehicle configured as an electric or hybrid vehicle, and the motor vehicle
JP2021182280A (en) Surroundings monitoring system of vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240506

R150 Certificate of patent or registration of utility model

Ref document number: 7494563

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150