JP2023025053A - Determination device, determination method, and determination program - Google Patents

Determination device, determination method, and determination program Download PDF

Info

Publication number
JP2023025053A
JP2023025053A JP2022182944A JP2022182944A JP2023025053A JP 2023025053 A JP2023025053 A JP 2023025053A JP 2022182944 A JP2022182944 A JP 2022182944A JP 2022182944 A JP2022182944 A JP 2022182944A JP 2023025053 A JP2023025053 A JP 2023025053A
Authority
JP
Japan
Prior art keywords
image
determination
vehicle
captured
same
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022182944A
Other languages
Japanese (ja)
Inventor
喬浩 鎌田
Takahiro Kamata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2022182944A priority Critical patent/JP2023025053A/en
Publication of JP2023025053A publication Critical patent/JP2023025053A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Television Signal Processing For Recording (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

PROBLEM TO BE SOLVED: To control plural devices in a coordinated manner based on determination of the identity of images captured by the devices.
SOLUTION: A determination device comprises: a first acquisition unit 101 which acquires a first image captured by a first device together with a capturing time; a second acquisition unit 102 which acquires a second image captured by a second device together with a capturing time; a determination unit 103 which determines the identity of the capturing positions of the first image and the second image, on the basis of the respective captured images and capturing times of the first image and the second image; and an output unit 105 which outputs a determination result to the first device or the second device.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2023,JPO&INPIT

Description

この発明は、複数の機器がそれぞれ撮影した画像に基づき複数の機器の連携可能であるか判定する判定装置、判定方法および判定プログラムに関する。ただし、この発明の利用は、判定装置、判定方法および判定プログラムに限らない。 The present invention relates to a determination device, a determination method, and a determination program for determining whether or not a plurality of devices can cooperate based on images captured by the respective devices. However, utilization of the present invention is not limited to the determination device, determination method, and determination program.

従来、複数の機器を互いに連携動作させる技術が提案されている。例えば、第1機器と第2機器に共通のポインティングデバイスに指紋センサを設け、一方の機器の指紋センサで検出した個人識別情報を他方の機器に通知し、他方の機器は連携動作の通知と、一方の機器からの個人識別情報の通知の一致で、ユーザ認証等の所定の連携動作を行う技術が開示されている(例えば、下記特許文献1参照。)。 Conventionally, a technology has been proposed that causes a plurality of devices to operate in cooperation with each other. For example, a fingerprint sensor is provided in a pointing device common to the first device and the second device, personal identification information detected by the fingerprint sensor of one device is notified to the other device, and the other device notifies the cooperative operation, A technology has been disclosed in which a predetermined cooperative operation such as user authentication is performed upon matching notification of personal identification information from one device (see, for example, Patent Document 1 below).

特開2008-181319号公報JP 2008-181319 A

しかしながら、上記従来の技術では、複数の機器を連携動作させ認証するために煩雑な接続手順が必要であり、ユーザ操作に手間がかかるという問題が一例として挙げられる。 However, in the above-described conventional technology, a complicated connection procedure is required for cooperative operation of a plurality of devices for authentication, and user operations are time-consuming.

上述した課題を解決し、目的を達成するため、請求項1の発明にかかる判定装置は、第1機器で撮影された第1画像を取得する第1取得手段と、第2機器で撮影された第2画像を取得する第2取得手段と、前記第1画像と前記第2画像それぞれの撮影画像に基づき、前記第1画像と前記第2画像の撮影位置の同一性を判定する判定手段と、前記判定手段による判定結果に応じて前記第1機器と前記第2機器とが互いに連携可能であることを前記第1機器もしくは前記第2機器に出力する出力手段と、を有することを特徴とする。 In order to solve the above-described problems and achieve the object, the determination device according to the first aspect of the invention includes first acquisition means for acquiring a first image taken by a first device, and a second acquisition unit that acquires a second image; a determination unit that determines identity of photographing positions of the first image and the second image based on the photographed images of the first image and the second image; and output means for outputting to the first device or the second device that the first device and the second device can cooperate with each other according to the determination result of the determination means. .

また、請求項6の発明にかかる判定方法は、判定装置が実施する判定方法において、第1機器で撮影された第1画像を取得する第1取得工程と、第2機器で撮影された第2画像を取得する第2取得工程と、前記第1画像と前記第2画像それぞれの撮影画像に基づき、前記第1画像と前記第2画像の撮影位置の同一性を判定する判定工程と、前記判定工程による判定結果に応じて前記第1機器と前記第2機器とが互いに連携可能であることを前記第1機器もしくは前記第2機器に出力する出力工程と、を含むことを特徴とする。 A determination method according to a sixth aspect of the present invention is a determination method performed by a determination device, in which a first acquisition step of acquiring a first image captured by a first device and a second image captured by a second device are obtained. a second acquisition step of acquiring an image; a determination step of determining identity of photographing positions of the first image and the second image based on the photographed images of the first image and the second image; and an outputting step of outputting to the first device or the second device that the first device and the second device can cooperate with each other according to the determination result of the step.

また、請求項7の発明にかかる判定プログラムは、請求項6に記載の判定方法をコンピュータに実行させることを特徴とする。 A determination program according to a seventh aspect of the invention causes a computer to execute the determination method according to the sixth aspect.

図1は、実施の形態にかかる判定装置の機能的構成の一例を示すブロック図である。1 is a block diagram illustrating an example of a functional configuration of a determination device according to an embodiment; FIG. 図2は、実施の形態にかかる判定装置の処理手順の一例を示すフローチャートである。2 is a flowchart illustrating an example of a processing procedure of the determination device according to the embodiment; FIG. 図3は、実施例1による複数の機器の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of a plurality of devices according to the first embodiment; 図4は、実施例1のナビゲーション装置のハードウェア構成の一例を示すブロック図である。FIG. 4 is a block diagram showing an example of the hardware configuration of the navigation device according to the first embodiment. 図5は、実施例1の第1機器が実行する判定処理例を示すフローチャートである。5 is a flowchart illustrating an example of determination processing executed by the first device according to the first embodiment; FIG. 図6は、実施例1の第1機器が実行する画像を用いた同一車両の判定処理例を示すフローチャートである。FIG. 6 is a flowchart illustrating an example of a same vehicle determination process using an image executed by the first device according to the first embodiment. 図7は、実施例1の画像処理で検出する検出パラメータを説明する図である。FIG. 7 is a diagram for explaining detection parameters detected in image processing according to the first embodiment. 図8は、実施例1による同一車両の判定処理の通知画面例を示す図である。FIG. 8 is a diagram showing an example of a notification screen of the same vehicle determination process according to the first embodiment. 図9は、実施例1による第1機器と第2機器の連携制御例を示す図である。(その1)FIG. 9 is a diagram illustrating an example of cooperative control between the first device and the second device according to the first embodiment. (Part 1) 図10は、実施例1による第1機器と第2機器の連携制御例を示す図である。(その2)FIG. 10 is a diagram illustrating an example of cooperative control between the first device and the second device according to the first embodiment. (Part 2) 図11は、実施例1による第1機器と第2機器の連携制御例を示す図である。(その3)FIG. 11 is a diagram illustrating an example of cooperative control between the first device and the second device according to the first embodiment. (Part 3) 図12は、実施例1による第1機器と第2機器の連携制御例を示す図である。(その4)FIG. 12 is a diagram illustrating an example of cooperative control between the first device and the second device according to the first embodiment. (Part 4) 図13は、実施例2による複数の機器の構成例を示す図である。FIG. 13 is a diagram illustrating a configuration example of a plurality of devices according to the second embodiment; 図14は、実施例2の第3機器が実行する判定処理例を示すフローチャートである。FIG. 14 is a flowchart illustrating an example of determination processing executed by the third device according to the second embodiment;

(実施の形態)
以下に添付図面を参照して、この発明にかかる判定装置、判定方法および判定プログラムの好適な実施の形態を詳細に説明する。この発明では、複数の機器が撮影した画像を画像処理等して複数の機器の撮影位置の同一性を判定し、同一と判定した複数の機器を連携させる。例えば、ある車両に搭載された複数の機器を手動設定することなく、自動的に複数の相互が連携制御可能であるか判定できるようにする。これら複数の機器は、例えば、OSが異なるため、互いをネットワーク接続しただけでは連携制御できない機器である。
(Embodiment)
Exemplary embodiments of a determination device, a determination method, and a determination program according to the present invention will be described in detail below with reference to the accompanying drawings. According to the present invention, images captured by a plurality of devices are subjected to image processing or the like to determine whether the shooting positions of the plurality of devices are the same, and the plurality of devices determined to be the same are linked. For example, without manually setting a plurality of devices mounted on a certain vehicle, it is possible to automatically determine whether or not a plurality of devices can be cooperatively controlled. Since these devices have different OSs, for example, they are devices that cannot be cooperatively controlled simply by connecting them to a network.

図1は、実施の形態にかかる判定装置の機能的構成の一例を示すブロック図である。実施の形態にかかる判定装置100は、第1取得部101と、第2取得部102と、判定部103と、表示制御部104と、出力部105とを含む。実施の形態では、単一の情報機器、例えばサーバがこれらの各機能を有する。 1 is a block diagram illustrating an example of a functional configuration of a determination device according to an embodiment; FIG. The determination device 100 according to the embodiment includes a first acquisition unit 101 , a second acquisition unit 102 , a determination unit 103 , a display control unit 104 and an output unit 105 . In embodiments, a single information appliance, such as a server, has each of these functions.

第1取得部101は、第1機器が撮影した第1画像を第1機器から取得する。第2取得部102は、第2機器が撮影した第2画像を第2機器から取得する。また、これら第1取得部101と第2取得部102は、画像と共に撮影時刻を取得しても良い。第1画像および第2画像は、静止画に限らず動画(時間別の静止画の集合)でもよい。 A first acquisition unit 101 acquires a first image captured by a first device from the first device. A second acquisition unit 102 acquires a second image captured by the second device from the second device. Also, the first acquisition unit 101 and the second acquisition unit 102 may acquire the shooting time together with the image. The first image and the second image are not limited to still images, and may be moving images (set of still images by time).

判定部103は、第1取得部101が取得した第1画像と、第2取得部102が取得した第2画像それぞれの撮影画像に基づき、第1画像と第2画像の撮影位置の同一性を判定する。この判定にと撮影時刻を含めてもよい。 Based on the photographed images of the first image acquired by the first acquisition unit 101 and the second image acquired by the second acquisition unit 102, the determination unit 103 determines the identity of the shooting positions of the first image and the second image. judge. This determination may include the shooting time.

出力部105は、判定部103の判定結果に応じて第1機器と第2機器に対して互いが連携可能であるか否かを通知する。 The output unit 105 notifies the first device and the second device whether or not they can cooperate with each other according to the determination result of the determination unit 103 .

表示制御部104は、判定部103の判定結果に基づき、第1機器で表示可能な映像の一部を第2機器に表示させる表示制御を行う。 The display control unit 104 performs display control for causing the second device to display a part of the image that can be displayed on the first device based on the determination result of the determination unit 103 .

上記構成について、例えば、第1機器と第2機器が同一の車両に搭載された例で説明する。第1機器と第2機器は所定方向に向けた撮影部(カメラ)を有し、カメラが静止画を撮影して第1画像と第2画像を判定装置100に出力する構成であるとする。この場合、判定部103は、第1画像と第2画像の撮影位置の同一性を判定する。 The above configuration will be described with an example in which the first device and the second device are mounted on the same vehicle, for example. It is assumed that the first device and the second device have a photographing unit (camera) directed in a predetermined direction, the camera photographs a still image, and outputs the first image and the second image to the determination device 100 . In this case, the determination unit 103 determines whether the photographing positions of the first image and the second image are the same.

この撮影位置の同一性の判定では、画像が示す検出オブジェクト(被写体)を画像処理することにより、第1画像と第2画像が同一の位置から撮影されたものであるか否かを判定する。ここで、第1画像と第2画像の厳密な一致だけで判定するのではない。 In this determination of identity of shooting positions, it is determined whether or not the first image and the second image were shot from the same position by performing image processing on the detected object (subject) indicated by the images. Here, determination is not made based only on strict matching between the first image and the second image.

この例では、同一の車両から撮影されたものであるか否か(第1機器と第2機器が同一車両に搭載されているかに相当)を判定する。したがって、撮影位置の同一性の判定では、第1画像と第2画像がいずれも同一の検出オブジェクト(被写体)を含んでいる場合に、第1機器と第2機器の設置位置の違いや、撮影画角の違いを許容して同一の車両の範囲内で撮影された画像であるかを判定している。 In this example, it is determined whether the images were taken from the same vehicle (corresponding to whether the first device and the second device are mounted on the same vehicle). Therefore, in the determination of the sameness of shooting positions, if the first image and the second image both contain the same detection object (subject), the difference in the installation positions of the first device and the second device and the shooting It is determined whether or not the images were taken within the range of the same vehicle while allowing for a difference in angle of view.

この画像処理による判定の際には、さらに、第1画像と第2画像の撮影時刻の同一性を加えて判定できる。例えば、第1画像と第2画像の撮影時刻がいずれも所定期間内に撮影されたものであれば、同位置の位置から撮影されたとの判定結果に重みを加えて撮影位置の同一性の判定の信頼度を向上させる。 At the time of determination by this image processing, it is possible to further determine whether the photographing times of the first image and the second image are the same. For example, if the shooting times of the first image and the second image were both taken within a predetermined period of time, a weight is added to the determination result that the images were taken from the same position to determine the identity of the shooting positions. improve the credibility of

このほか、第1機器の撮影方向と第2機器の撮影方向の角度が異なる場合にも対応できる。例えば、判定部103は、異なる撮影角度を予め考慮して第1画像と第2画像とのいずれでも撮影される画像の内容(被写体)を画像処理し、さらに撮影時刻の判定を含めることで第1画像と第2画像が同一の位置(同一車両)から撮影されたものであるか否かを判定できる。 In addition, it is possible to cope with the case where the shooting direction of the first device and the shooting direction of the second device have different angles. For example, the determination unit 103 performs image processing on the content (subject) of the image captured in both the first image and the second image in consideration of different shooting angles in advance, and further includes the determination of the shooting time. It can be determined whether or not the first image and the second image are taken from the same position (same vehicle).

さらには、第1機器の撮影方向と第2機器の撮影方向とが逆方向の場合にも対応できる。例えば、第1機器が車両の前方を撮影し、第2機器が車両の後方を撮影し、車両が前方に進行する場合、第1機器が進行方向前方の被写体を撮影し、その後、車両速度に応じた所定時間経過後に第2機器が同じ被写体を撮影する。この場合でも、判定部103は、撮影方向が逆であること、および第1機器による撮影後所定時間経過後に同じ被写体を第2機器が撮影することを予め考慮して第1画像と第2画像とのいずれでも撮影される画像の内容(被写体)を画像処理することで、第1画像と第2画像が同一の位置(同一車両)から撮影されたものであるか否かを判定できる。 Furthermore, it is possible to cope with the case where the shooting direction of the first device and the shooting direction of the second device are opposite directions. For example, when the first device captures the front of the vehicle, the second device captures the rear of the vehicle, and the vehicle moves forward, the first device captures the subject in front of the vehicle in the direction of travel. After the corresponding predetermined time elapses, the second device photographs the same subject. Even in this case, the determination unit 103 determines the difference between the first image and the second image, taking into consideration in advance that the shooting directions are opposite and that the second device will shoot the same subject after a predetermined time has passed since the shooting by the first device. In either case, it is possible to determine whether or not the first image and the second image were taken from the same position (same vehicle) by image processing the content (object) of the image taken.

この場合、第1機器では、被写体の一方の面を撮影し、第2機器では同じ被写体の他方の面を撮影する場合があり、画像処理ではこの面の違い等を考慮して画像処理する。例えば、道路標識について、第1画像は標識面を撮影し、第2画像は標識の裏面を撮影することになる。この場合、第1画像により標識面や形状を含めて標識であることを画像認識し、第2画像では標識面を含めず所定時間経過の標識相当の画像の形状が一致することで同一の被写体(標識)であることを認識できれば、判定部103は、これら第1画像と第2画像が同一車両から撮影されたものであると判定する。 In this case, the first device may photograph one side of the subject, and the second device may photograph the other side of the same subject, and the image processing is performed in consideration of the difference between the planes. For example, for a road sign, the first image will be taken of the sign face and the second image will be taken of the back face of the sign. In this case, the first image is image-recognized as a sign, including the sign surface and shape, and the second image does not include the sign surface and the shape of the image corresponding to the sign after a predetermined period of time matches. If it is possible to recognize that it is (sign), the determination unit 103 determines that the first image and the second image were shot from the same vehicle.

例えば、判定装置100は、第1機器および第2機器とネットワークで通信接続され、ネットワークを介して相互に情報(例えば、上記第1画像、第2画像、および判定結果等)を通信する。例えば、車両内通信網を用いたり、無線LAN等、有線、無線の各種接続形態がある。 For example, the determination device 100 is communicatively connected to the first device and the second device via a network, and communicates information (eg, the first image, the second image, determination results, etc.) with each other via the network. For example, there are various wired and wireless connection forms such as using an in-vehicle communication network and wireless LAN.

ここで、判定装置100は、ユーザが設定操作することなく、第1機器と第2機器を連携させる。この連携の制御を行うにあたり、上記撮影画像を無線等で取得する場合、例えば、自車に搭載した機器の画像だけではなく、隣接して走行中のほかの車両の機器が撮影した画像を取得することが考えられる。これに対応するため、例えば、判定装置100(判定部103)は、無線LANのSSIDの一致により、第1機器と第2機器が同一車両に設けられたか否かを判定できる。また、第1画像と第2画像に含まれる走行車線と車間距離が所定の範囲内であれば、同一車両と判定できる。さらには、第1機器と第2機器の起動時間(車両のACC ON)が一致すれば、第1機器と第2機器が同一車両に設けられたか否かを判定できる。 Here, the determination device 100 links the first device and the second device without the user performing a setting operation. In order to control this cooperation, when the above-mentioned captured images are acquired wirelessly, for example, not only the image of the equipment installed in the own vehicle, but also the image captured by the equipment of another vehicle running adjacently is acquired. can be considered. To deal with this, for example, the determination device 100 (determination unit 103) can determine whether or not the first device and the second device are provided in the same vehicle by matching the SSID of the wireless LAN. Also, if the driving lane and inter-vehicle distance included in the first image and the second image are within a predetermined range, it can be determined that they are the same vehicle. Furthermore, if the activation times (ACC ON of the vehicle) of the first device and the second device match, it is possible to determine whether the first device and the second device are provided in the same vehicle.

そして、判定装置100の表示制御部104は、判定部103による判定の結果、第1機器と第2機器が連携可能な場合、第1機器で表示可能な映像の一部を第2機器に表示させる表示制御を行う。例えば、第1機器で表示可能な映像の一部を第2機器に表示させる。第1機器および第2機器がそれぞれ表示部を有する場合、第1機器で表示させる表示内容と第2機器で表示させる表示内容とを異ならせることができ、第1機器および第2機器の設置位置に応じた表示内容を選択できるようになる。 Then, if the result of determination by the determination unit 103 is that the first device and the second device can cooperate, the display control unit 104 of the determination device 100 displays a part of the image that can be displayed on the first device on the second device. display control. For example, a part of the image that can be displayed on the first device is displayed on the second device. When the first device and the second device each have a display unit, the display content to be displayed by the first device and the display content to be displayed by the second device can be different. You can select the display contents according to the

例えば、車両のフロントシート側に設けられた第1機器には運転に関する情報表示を行い、バックシート側に設けられた第2機器には娯楽に関する情報表示を行うことができる。また、第1機器がナビゲーション装置で、バックミラーに第2機器としてミラー型端末が設けられた場合、ナビゲーション装置に地図表示を行い、ミラー型端末に誘導表示(つぎの交差点での進行方向表示等)を行うことができる。 For example, a first device provided on the front seat side of the vehicle can display driving information, and a second device provided on the back seat side can display entertainment information. Further, when the first device is a navigation device and a mirror-type terminal is provided as the second device in the rearview mirror, the navigation device displays a map, and the mirror-type terminal displays guidance (such as displaying the direction of travel at the next intersection). )It can be performed.

そして、第1機器と第2機器は、判定装置100の出力部105が出力する判定結果の通知に応じて互いが連携可能であるか否かを認識することもできる。例えば、第1機器と第2機器は、互いが連携可能である通知を受けた後は、判定装置100が第1機器と第2機器との間の情報のやり取りに仲介することなく、直接、第1機器と第2機器間で、連携制御(例えば、上記第1機器で表示可能な映像の一部を第2機器に表示させる表示制御等)を行うこともできる。 Then, the first device and the second device can also recognize whether or not they can cooperate with each other according to the notification of the determination result output by the output unit 105 of the determination device 100 . For example, after receiving the notification that the first device and the second device are capable of cooperating with each other, the determination device 100 directly communicates with the first device and the second device without mediating the exchange of information between the first device and the second device. Linked control (for example, display control for causing the second device to display part of the image that can be displayed on the first device) can also be performed between the first device and the second device.

そして、上記の説明では、判定装置100と、第1機器と、第2機器とはそれぞれ個別の装置として説明したが、これに限らず、判定装置100を第1機器に機能追加する形で設けることもできる。この場合、第1機器が上記の各機能(図1参照)を有し、第2機器が第1機器(自装置)と同一車両に搭載されているか判定して、第2機器との連携を制御できる。 In the above description, the determination device 100, the first device, and the second device are described as separate devices. can also In this case, the first device has each of the above functions (see FIG. 1), and it is determined whether or not the second device is mounted in the same vehicle as the first device (own device), and cooperation with the second device is performed. You can control it.

図2は、実施の形態にかかる判定装置の処理手順の一例を示すフローチャートである。判定装置100が実行する判定および連携制御例を示している。 2 is a flowchart illustrating an example of a processing procedure of the determination device according to the embodiment; FIG. 3 shows an example of determination and cooperation control executed by the determination device 100. FIG.

はじめに、判定装置100は、第1取得部101が第1機器から第1画像を取得し(ステップS201)、第2取得部102が第2機器から第2画像を取得する(ステップS202)。つぎに、判定装置100は、判定部103が第1画像と第2画像の撮影位置が同一であるかを判定する(ステップS203)。この判定では、上述したように、第1画像と第2画像が同一の車両から撮影されたものであるかを判定する。判定には、撮影画像に加えて、撮影時刻を含めても良い。 First, in the determination device 100, the first acquisition unit 101 acquires a first image from a first device (step S201), and the second acquisition unit 102 acquires a second image from a second device (step S202). Next, in the determination device 100, the determination unit 103 determines whether the shooting positions of the first image and the second image are the same (step S203). In this determination, as described above, it is determined whether the first image and the second image were shot from the same vehicle. The determination may include the shooting time in addition to the captured image.

ステップS203の判定結果、同一である(撮影位置の同一性がある)と判定されれば(ステップS203:Yes)、判定装置100の出力部105は、第1機器と第2機器に対し、互いが連携可能であることを通知する(ステップS204)。そして、判定装置の表示制御部104は、第1機器と第2機器の表示を連携制御する(ステップS205)。この連携制御は、例えば、上述したように、第1機器で表示可能な映像の一部を第2機器に表示させる。 As a result of the determination in step S203, if it is determined that they are the same (the shooting positions are the same) (step S203: Yes), the output unit 105 of the determination device 100 causes the first device and the second device to notifies that cooperation is possible (step S204). Then, the display control unit 104 of the determination device cooperatively controls the display of the first device and the second device (step S205). For example, as described above, this cooperative control causes the second device to display part of the video that can be displayed on the first device.

一方、ステップS203の判定結果、同一でない(撮影位置の同一性がない)と判定されれば(ステップS203:No)、判定装置100の出力部105は、処理を終了する。これに限らず、判定装置100の出力部105は、第1機器と第2機器に対し、互いが連携不可能であることを通知してもよい。 On the other hand, if the result of determination in step S203 is that they are not the same (no identity in the shooting positions) (step S203: No), the output unit 105 of the determination device 100 terminates the process. Alternatively, the output unit 105 of the determination device 100 may notify the first device and the second device that they cannot cooperate with each other.

図2では、判定装置100が第1機器と第2機器の撮影位置の同一性を判定して連携制御する処理例としたが、判定装置100が第1機器に設けられる場合には、第1機器内の判定装置100が撮影位置(同一車両)の同一性を判定して第2機器を連携制御する。 FIG. 2 shows an example of processing in which the determination device 100 determines the identity of the shooting positions of the first device and the second device and performs cooperative control. A determination device 100 in the device determines the identity of the photographing position (same vehicle) and cooperatively controls the second device.

なお、上記の説明では、連携する機器を第1機器と第2機器として説明したが、機器数は2つ以上複数あってもよく(第1機器~第n機器)、判定装置100は、複数の機器が撮影した第1画像~第n画像に基づき撮影位置の同一性を判定して第1機器~第n機器を連携制御できる。 In the above description, the devices to be linked are the first device and the second device. Based on the 1st to n-th images captured by the devices, it is possible to determine the identity of the photographing positions and to cooperatively control the 1st to n-th devices.

以上の実施の形態によれば、複数の機器の撮影画像を用いて撮影位置の同一性を判定し、同一性があると判定された機器同士を連携制御するため、複数の機器を連携させるためにユーザが煩雑な接続手順を実施することなく、簡単に機器の連携を行えるようになる。 According to the above-described embodiments, it is possible to determine whether the photographed positions of a plurality of devices are the same using images captured by a plurality of devices, and to perform coordinated control between the devices determined to be identical. In addition, users can easily link devices without performing complicated connection procedures.

図3は、実施例1による複数の機器の構成例を示す図である。実施例1では、ユーザの車両に第1機器としてナビゲーション装置300と、第2機器として情報機器302が搭載され、第1機器であるナビゲーション装置300が上記の判定装置100の機能を有する構成例を用いて説明する。 FIG. 3 is a diagram illustrating a configuration example of a plurality of devices according to the first embodiment; In the first embodiment, a user's vehicle is equipped with a navigation device 300 as a first device and an information device 302 as a second device. will be used for explanation.

これら第1機器(情報機器1:ナビゲーション装置)300および第2機器(情報機器2)302は、それぞれ画像を撮影するカメラ311,312と、相互に通信を行う通信部321,322とを有する。第2機器(情報機器2)302は、第1機器(ナビゲーション装置)300に対して撮影した画像を送信する機能、および第1機器(ナビゲーション装置)300による連携制御を受ける機能を有する。 The first device (information device 1: navigation device) 300 and the second device (information device 2) 302 respectively have cameras 311 and 312 for capturing images and communication units 321 and 322 for mutual communication. A second device (information device 2 ) 302 has a function of transmitting captured images to the first device (navigation device) 300 and a function of receiving cooperative control from the first device (navigation device) 300 .

(第1機器のハードウェア構成)
図4は、実施例1のナビゲーション装置のハードウェア構成の一例を示すブロック図である。図4において、第1機器であるナビゲーション装置300は、CPU401、ROM402、RAM403、磁気ディスクドライブ404、磁気ディスク405、光ディスクドライブ406、光ディスク407、音声I/F(インターフェース)408、マイク409、スピーカ410、入力デバイス411、映像I/F412、ディスプレイ413、通信I/F414、GPSユニット415、各種センサ416、カメラ417、を備えている。各構成部401~417は、バス420によってそれぞれ接続されている。
(Hardware configuration of the first device)
FIG. 4 is a block diagram showing an example of the hardware configuration of the navigation device according to the first embodiment. In FIG. 4, the navigation device 300 as the first device includes a CPU 401, a ROM 402, a RAM 403, a magnetic disk drive 404, a magnetic disk 405, an optical disk drive 406, an optical disk 407, an audio I/F (interface) 408, a microphone 409, and a speaker 410. , an input device 411 , a video I/F 412 , a display 413 , a communication I/F 414 , a GPS unit 415 , various sensors 416 and a camera 417 . Each component 401 to 417 is connected by a bus 420 respectively.

CPU401は、ナビゲーション装置300の全体の制御を司る。ROM402は、ブートプログラム、判定プログラムを記録している。RAM403は、CPU401のワークエリアとして使用される。すなわち、CPU401は、RAM403をワークエリアとして使用しながら、ROM402に記録された各種プログラムを実行することによって、ナビゲーション装置300の全体の制御を司る。 The CPU 401 controls the navigation device 300 as a whole. A ROM 402 records a boot program and a judgment program. A RAM 403 is used as a work area for the CPU 401 . That is, the CPU 401 controls the entire navigation device 300 by executing various programs recorded in the ROM 402 while using the RAM 403 as a work area.

磁気ディスクドライブ404は、CPU401の制御にしたがって磁気ディスク405に対するデータの読み取り/書き込みを制御する。磁気ディスク405は、磁気ディスクドライブ404の制御で書き込まれたデータを記録する。磁気ディスク405としては、例えば、HD(ハードディスク)やFD(フレキシブルディスク)を用いることができる。 The magnetic disk drive 404 controls reading/writing of data to/from the magnetic disk 405 under the control of the CPU 401 . The magnetic disk 405 records data written under the control of the magnetic disk drive 404 . As the magnetic disk 405, for example, an HD (hard disk) or an FD (flexible disk) can be used.

また、光ディスクドライブ406は、CPU401の制御にしたがって光ディスク407に対するデータの読み取り/書き込みを制御する。光ディスク407は、光ディスクドライブ406の制御にしたがってデータが読み出される着脱自在な記録媒体である。光ディスク407は、書き込み可能な記録媒体を利用することもできる。着脱可能な記録媒体として、光ディスク407のほか、MO、メモリカードなどを用いることができる。 Also, the optical disk drive 406 controls reading/writing of data to/from the optical disk 407 under the control of the CPU 401 . The optical disc 407 is a detachable recording medium from which data is read under the control of the optical disc drive 406 . A writable recording medium can also be used for the optical disc 407 . As a removable recording medium, in addition to the optical disc 407, an MO, a memory card, or the like can be used.

磁気ディスク405および光ディスク407に記録される情報の一例としては、地図データ、車両情報、道路情報、走行履歴などが挙げられる。地図データは、カーナビゲーションシステムにおいて経路探索するときに用いられ、建物、河川、地表面、エネルギー補給施設などの地物(フィーチャ)をあらわす背景データ、道路の形状をリンクやノードなどであらわす道路形状データなどを含むベクタデータである。 Examples of information recorded on magnetic disk 405 and optical disk 407 include map data, vehicle information, road information, and travel history. Map data is used for route search in car navigation systems, and includes background data representing features such as buildings, rivers, ground surfaces, and energy supply facilities, and road geometry representing road shapes with links and nodes. It is vector data including data and so on.

音声I/F408は、音声入力用のマイク409および音声出力用のスピーカ410に接続される。マイク409に受音された音声は、音声I/F408内でA/D変換される。マイク409は、例えば、車両のダッシュボード部などに設置され、その数は単数でも複数でもよい。スピーカ410からは、所定の音声信号を音声I/F408内でD/A変換した音声が出力される。 Audio I/F 408 is connected to microphone 409 for audio input and speaker 410 for audio output. Sound received by the microphone 409 is A/D converted within the sound I/F 408 . The microphone 409 is installed, for example, on the dashboard of the vehicle, and the number of microphones 409 may be singular or plural. The speaker 410 outputs audio obtained by D/A converting a predetermined audio signal in the audio I/F 408 .

入力デバイス411は、文字、数値、各種指示などの入力のための複数のキーを備えたリモコン、キーボード、タッチパネルなどが挙げられる。入力デバイス411は、リモコン、キーボード、タッチパネルのうちいずれか一つの形態によって実現されてもよいが、複数の形態によって実現することも可能である。 Examples of the input device 411 include a remote controller, a keyboard, a touch panel, and the like having a plurality of keys for inputting characters, numerical values, various instructions, and the like. The input device 411 may be implemented in any one form of a remote controller, keyboard, or touch panel, but may be implemented in a plurality of forms.

映像I/F412は、ディスプレイ413に接続される。映像I/F412は、具体的には、例えば、ディスプレイ413全体を制御するグラフィックコントローラと、即時表示可能な画像情報を一時的に記録するVRAM(Video RAM)などのバッファメモリと、グラフィックコントローラから出力される画像データに基づいてディスプレイ413を制御する制御ICなどによって構成される。 Video I/F 412 is connected to display 413 . Specifically, the video I/F 412 includes, for example, a graphic controller that controls the entire display 413, a buffer memory such as a VRAM (Video RAM) that temporarily records image information that can be displayed immediately, and an output from the graphic controller. It is composed of a control IC or the like that controls the display 413 based on the image data received.

ディスプレイ413には、アイコン、カーソル、メニュー、ウインドウ、あるいは文字や画像などの各種データが表示される。ディスプレイ413としては、例えば、TFT液晶ディスプレイ、有機ELディスプレイなどを用いることができる。 The display 413 displays icons, cursors, menus, windows, or various data such as characters and images. As the display 413, for example, a TFT liquid crystal display, an organic EL display, or the like can be used.

カメラ417は、車両外部の道路を含む映像を撮影する。映像は静止画あるいは動画のどちらでもよく、例えば、カメラ417によって車両外部を撮影し、撮影した画像をCPU401において画像解析したり、映像I/F412を介して磁気ディスク405や光ディスク407などの記録媒体に出力したりする。 Camera 417 captures an image including the road outside the vehicle. The image may be either a still image or a moving image. For example, the outside of the vehicle is captured by the camera 417, the captured image is image-analyzed by the CPU 401, or the recording medium such as the magnetic disk 405 or the optical disk 407 is transmitted via the image I/F 412. output to

通信I/F414は、無線を介してネットワークに接続され、ナビゲーション装置300およびCPU401のインターフェースとして機能する。ネットワークとして機能する通信網には、CANやLIN(Local Interconnect Network)などの車内通信網や、公衆回線網や携帯電話網、DSRC(Dedicated Short Range Communication)、LAN、WANなどがある。通信I/F414は、例えば、公衆回線用接続モジュールやETC(ノンストップ自動料金支払いシステム、登録商標)ユニット、FMチューナー、VICS(Vehicle Information and Communication System:登録商標)/ビーコンレシーバなどである。 Communication I/F 414 is wirelessly connected to a network and functions as an interface for navigation device 300 and CPU 401 . Communication networks that function as networks include in-vehicle communication networks such as CAN and LIN (Local Interconnect Network), public telephone networks, mobile phone networks, DSRC (Dedicated Short Range Communication), LAN, and WAN. The communication I/F 414 is, for example, a public line connection module, an ETC (non-stop automatic toll payment system, registered trademark) unit, an FM tuner, a VICS (Vehicle Information and Communication System: registered trademark)/beacon receiver, and the like.

GPSユニット415は、GPS衛星からの電波を受信し、車両の現在位置を示す情報を出力する。GPSユニット415の出力情報は、後述する各種センサ416の出力値とともに、CPU401による車両の現在位置の算出に際して利用される。現在位置を示す情報は、例えば、緯度・経度、高度などの、地図データ上の1点を特定する情報である。 The GPS unit 415 receives radio waves from GPS satellites and outputs information indicating the current position of the vehicle. The output information of the GPS unit 415 is used together with the output values of various sensors 416, which will be described later, when the CPU 401 calculates the current position of the vehicle. The information indicating the current position is, for example, information specifying one point on the map data such as latitude/longitude and altitude.

各種センサ416は、車速センサ、加速度センサ、角速度センサ、傾斜センサなどの、車両の位置や挙動を判定するための情報を出力する。各種センサ416の出力値は、CPU401による車両の現在位置の算出や、速度や方位の変化量の算出に用いられる。 Various sensors 416 output information for determining the position and behavior of the vehicle, such as a vehicle speed sensor, an acceleration sensor, an angular velocity sensor, and an inclination sensor. The output values of the various sensors 416 are used by the CPU 401 to calculate the current position of the vehicle and the amount of change in speed and direction.

図4に記載のROM402、RAM403、磁気ディスク405、光ディスク407などに記録されたプログラムやデータを用いて、CPU401が所定のプログラムを実行することによって、ナビゲーション装置の動作に必要な機能、および図1に示した判定装置100の判定部103と表示制御部104の機能を実現する。すなわち、実施例1では、ナビゲーション装置300内に判定装置100が組み込まれた機能であるため、ナビゲーション装置300が有するカメラ417が撮影した画像はこのナビゲーション装置300のCPU401が取得する。また、図4の通信I/F414を用いて、図1の第1取得部101と出力部105の機能を実現でき、図4のディスプレイ413を用いて図1の出力部105(連携後の映像出力)の機能を実現できる。 Using the programs and data recorded in the ROM 402, RAM 403, magnetic disk 405, optical disk 407, etc. shown in FIG. The functions of the determination unit 103 and the display control unit 104 of the determination device 100 shown in 1 are realized. That is, in the first embodiment, since the determination device 100 is incorporated in the navigation device 300 , the image captured by the camera 417 of the navigation device 300 is acquired by the CPU 401 of the navigation device 300 . Further, the functions of the first acquisition unit 101 and the output unit 105 in FIG. 1 can be realized using the communication I/F 414 in FIG. 4, and the display 413 in FIG. output) can be realized.

(第2機器のハードウェア構成)
実施例1の第2機器(情報機器2)302のハードウェア構成は、図4に記載した各部のうち、CPU401~RAM403と、映像I/F412、カメラ417、ディスプレイ413、通信I/F414とを有して構成できる。
(Hardware configuration of the second device)
The hardware configuration of the second device (information device 2) 302 of the first embodiment includes CPU 401 to RAM 403, video I/F 412, camera 417, display 413, and communication I/F 414 among the units shown in FIG. can be configured with

この第2機器302においても、図4記載のROM402、RAM403などに記録されたプログラムやデータを用いて、CPU401が所定のプログラムを実行することによって、図4記載のカメラ317を第1機器(ナビゲーション装置)300に送信し、かつ、第1機器(ナビゲーション装置)300による連携制御を受け、例えば、第1機器(ナビゲーション装置)300から受信した表示画像をディスプレイ413に表示する。 In this second device 302 as well, the CPU 401 executes a predetermined program using programs and data recorded in the ROM 402, RAM 403, etc., shown in FIG. device) 300 and receive cooperative control by the first device (navigation device) 300, for example, the display image received from the first device (navigation device) 300 is displayed on the display 413.

(実施例1の判定装置の判定処理例)
つぎに、判定装置100の機能を有する第1機器(ナビゲーション装置)300が自装置の撮影画像と、第2機器(情報機器2)302の撮影画像に基づき、撮影位置の同一性、すなわち同一車両で撮影された画像であるか否か(第1機器と第2機器が同一車両に設けられているか)を判定し、第1機器と第2機器を連携させる制御例について説明する。
(Example of determination processing of the determination device of the first embodiment)
Next, the first device (navigation device) 300 having the function of the determination device 100 determines the identity of the photographed positions, that is, the same vehicle, based on the photographed image of its own device and the photographed image of the second device (information device 2) 302. A control example will be described in which it is determined whether or not the image is captured in (whether the first device and the second device are provided in the same vehicle), and the first device and the second device are linked.

図5は、実施例1の第1機器が実行する判定処理例を示すフローチャートである。この図5には、第2機器の動作処理についても併記してある。 5 is a flowchart illustrating an example of determination processing executed by the first device according to the first embodiment; FIG. FIG. 5 also shows operation processing of the second device.

はじめに、第1機器300は、同一車両に搭載されたほかの情報機器の連携制御を行う場合、所定の操作等に基づき、第2機器(情報機器2)302の探索を開始する(ステップS501:Yes)。なお、第1機器300は、他の情報機器の連携制御を行わない場合には、第2機器(情報機器2)302の探索を開始せず(ステップS501:No)、以下の処理を終了する。 First, when performing coordinated control of other information equipment mounted in the same vehicle, the first equipment 300 starts searching for the second equipment (information equipment 2) 302 based on a predetermined operation (step S501: Yes). When the first device 300 does not perform cooperative control of other information devices, the first device 300 does not start searching for the second device (information device 2) 302 (step S501: No), and ends the following processing. .

つぎに、第1機器300は、自装置のカメラ311で画像を撮影し第1画像を得る(ステップS502)。第1機器300は、所定のタイミング(不定期あるいは定期的に)カメラ311で画像を撮影する。この際、第1機器300は、第1画像の撮影パラメータとして撮影時刻を取得し、撮影画像に関連付ける(ステップS503)。このステップS503では、ほかの撮影パラメータとして車両の状態(例えば各種センサ416から速度や進行方向、加速度等)や、撮影状態(画角、露出等)を取得してもよい。 Next, the first device 300 captures an image with its own camera 311 to obtain a first image (step S502). The first device 300 captures an image with the camera 311 at a predetermined timing (regularly or irregularly). At this time, the first device 300 acquires the photographing time as the photographing parameter of the first image and associates it with the photographed image (step S503). In this step S503, the state of the vehicle (for example, speed, traveling direction, acceleration, etc. from various sensors 416) and the shooting state (angle of view, exposure, etc.) may be acquired as other shooting parameters.

つぎに、第1機器300は、第2機器302が撮影した第2画像を第2機器302からの受信により取得する(ステップS504)。第2機器302は、所定のタイミング(不定期あるいは定期的に)カメラ312で画像を撮影する。ここで、第1機器300が取得する第2画像は、第1画像の撮影時刻に一致するものを選択的に受信してもよく、例えば、第2機器302に対して撮影時刻を指定した撮影画像を送信要求してもよい。 Next, the first device 300 acquires the second image captured by the second device 302 by receiving it from the second device 302 (step S504). The second device 302 captures an image with the camera 312 at a predetermined timing (regularly or irregularly). Here, the second image acquired by the first device 300 may selectively receive an image that matches the shooting time of the first image. You may request to send an image.

また、第1画像および第2画像は、静止画に限らず動画でもよく、第1画像の撮影時刻を基準として、第2画像の撮影時刻が第1画像の撮影時刻に重なる時刻範囲の動画を取得することとしてもよい。第1機器300は、動画である第1画像と第2画像のうち撮影時刻が同一の画像(静止画)を用いて撮影位置の同一性を判定できる。第1機器300は、取得した第1画像と第2画像を記憶部(例えば図4の磁気ディスク405)に保存する。 Also, the first image and the second image are not limited to still images and may be moving images. Using the shooting time of the first image as a reference, the shooting time of the second image overlaps with the shooting time of the first image. It may be acquired. The first device 300 can determine the identity of the shooting positions by using the images (still images) captured at the same time among the first image and the second image, which are moving images. The first device 300 saves the acquired first image and second image in a storage unit (for example, the magnetic disk 405 in FIG. 4).

つぎに、第1機器300は、記憶部から第1画像と第2画像を読み出し、第1画像と第2画像が同じ車両で撮影された画像であるかを判定する(ステップS505)。この処理は、上記撮影位置の同一性の判定に相当し、画像処理により判定する。 Next, the first device 300 reads out the first image and the second image from the storage unit, and determines whether the first image and the second image are images captured by the same vehicle (step S505). This process corresponds to the determination of the identity of the photographing positions, and is determined by image processing.

撮影位置の同一性の判定の処理例は後述するが、第1画像と同一時刻に撮影された第2画像とを読み出して比較し、一致する被写体の有無等により、第1画像と第2画像が同じ車両で撮影された画像であるかを判定する。この際、厳密には、第1画像と第2画像は完全に一致する画像がないことを想定して、所定の時刻範囲を有して比較したり、車両の速度に応じて比較する第1画像の撮影時刻と第2画像の撮影時刻を異ならせたり、第1画像と第2画像の画角の違いに相当する補正を行い画像比較したりする。 Although an example of processing for determining the identity of photographing positions will be described later, the first image and the second image photographed at the same time are read out and compared, and the first image and the second image are determined based on whether or not there is a matching subject. are images taken by the same vehicle. At this time, strictly speaking, the first image and the second image are compared on the assumption that there is no image that completely matches the first image and the second image. The photographing time of the image and the photographing time of the second image are made different, or the images are compared after performing correction corresponding to the difference in the angle of view between the first image and the second image.

ステップS505による判定処理の結果、第1画像と第2画像が同じ車両で撮影された画像であると判定されれば(ステップS505:Yes)、第1機器300は、第2機器302を連携制御の対象機器として登録し(ステップS506)、以降第2機器302に対して判定結果を通知して連携制御を行う(連携制御例は後述する)。ステップS505による判定処理の結果、第1画像と第2画像が同じ車両で撮影された画像であると判定されなければ(ステップS505:No)、ステップS501に戻る。 As a result of the determination processing in step S505, if it is determined that the first image and the second image are images captured by the same vehicle (step S505: Yes), the first device 300 cooperatively controls the second device 302. (step S506), and thereafter, the second device 302 is notified of the determination result and cooperative control is performed (an example of cooperative control will be described later). As a result of the determination processing in step S505, if it is not determined that the first image and the second image are images shot by the same vehicle (step S505: No), the process returns to step S501.

一方、第2機器(情報機器2)302では、画像(第2画像)を撮影すると(ステップS511)、この第2画像の撮影時刻を取得し、撮影画像に関連付ける(ステップS512)。このステップS512では、第2機器が取得可能な撮影に関連するほかの情報を取得してもよい。 On the other hand, when the second device (information device 2) 302 captures an image (second image) (step S511), it acquires the capture time of the second image and associates it with the captured image (step S512). In this step S512, other information related to photography that can be obtained by the second device may be obtained.

そして、第2機器302は、撮影した第2画像を撮影時刻、そのほか撮影に関連するほかの情報(撮影パラメータ)があれば併せて第1機器に送信する(ステップS513)。 Then, the second device 302 transmits the photographed second image together with the photographing time and other information (imaging parameters) related to photographing to the first device (step S513).

この後、第2機器302は、第1機器300による撮影位置の同一性の判定結果の通知を待つ。第1機器300が撮影位置の同一性があると判定した場合、第2機器302は第1機器300から、第2機器302が第1機器300と同じ車両で撮影された画像であると通知される。この通知として、第2機器302が第1機器300と同じ車両に搭載されていると通知されてもよい。この後、第2機器302は第1機器301による連携制御を受ける(ステップS514)。 After that, the second device 302 waits for notification of the determination result of the identity of the shooting positions from the first device 300 . When the first device 300 determines that the photographing positions are identical, the second device 302 is notified by the first device 300 that the second device 302 is an image photographed by the same vehicle as the first device 300 . be. As this notification, it may be notified that the second device 302 is mounted in the same vehicle as the first device 300 . After that, the second device 302 receives cooperative control from the first device 301 (step S514).

(画像処理例)
図6は、実施例1の第1機器が実行する画像を用いた同一車両の判定処理例を示すフローチャートである。第1機器300の判定装置100が実行する処理例を示し、第1画像と第2画像のそれぞれに対して行う処理(図5のステップS505)の詳細を記載してある。
(Example of image processing)
FIG. 6 is a flowchart illustrating an example of a same vehicle determination process using an image executed by the first device according to the first embodiment. An example of processing executed by the determination device 100 of the first device 300 is shown, and details of the processing (step S505 in FIG. 5) performed on each of the first image and the second image are described.

はじめに、第1機器300は、第1画像と第2画像の撮影時刻を含む撮影パラメータを取得する(ステップS601)。つぎに、第1機器300は、第1画像と第2画像が同一時刻で撮影されているか判定する(ステップS602)。ここでは、便宜上、第1画像と第2画像が同一時刻で撮影されたものとして説明する。同一時刻で撮影されている第1画像と第2画像があれば(ステップS602:Yes)、ステップS603以下の処理を実行し、同一時刻で撮影されている第1画像と第2画像がなければ(ステップS602:No)、処理を終了する。 First, the first device 300 acquires shooting parameters including shooting times of the first image and the second image (step S601). Next, the first device 300 determines whether the first image and the second image are captured at the same time (step S602). Here, for the sake of convenience, it is assumed that the first image and the second image are taken at the same time. If there is a first image and a second image taken at the same time (step S602: Yes), the processing from step S603 onwards is executed, and if there is no first image and second image taken at the same time, (Step S602: No), the process ends.

ステップS603では、画像処理により第1画像と第2画像の画像情報をそれぞれ検出する(ステップS603)。この処理では、例えば画像のエッジ検出を行い(ステップS611)、車線領域の検出を行い(ステップS612)、オブジェクト(被写体)の検出を行って(ステップS613)、各検出パラメータを保存する(ステップS614)。 In step S603, the image information of the first image and the second image are respectively detected by image processing (step S603). In this process, for example, image edge detection is performed (step S611), lane area detection is performed (step S612), object detection is performed (step S613), and each detection parameter is saved (step S614). ).

この後、第1機器は、第1画像と第2画像について、ステップS603で検出した各検出パラメータが同一であるか判定する(ステップS604)。ステップS604の判定結果、第1画像と第2画像の各検出パラメータが同一であれば(ステップS604:Yes)、第1画像と第2画像は同一車両で撮影された画像と判定する(ステップS605)。一方、ステップS604の判定結果、第1画像と第2画像の各検出パラメータが同一でなければ(ステップS604:No)、第1画像と第2画像は同一車両で撮影された画像ではないと判定し、図6の処理を終了する(図5のステップS501に戻る)。 Thereafter, the first device determines whether each detection parameter detected in step S603 is the same for the first image and the second image (step S604). As a result of the determination in step S604, if the detection parameters of the first image and the second image are the same (step S604: Yes), it is determined that the first image and the second image were captured by the same vehicle (step S605). ). On the other hand, if the detection parameters of the first image and the second image are not the same as the determination result of step S604 (step S604: No), it is determined that the first image and the second image are not images shot by the same vehicle. Then, the processing in FIG. 6 is terminated (return to step S501 in FIG. 5).

図7は、実施例1の画像処理で検出する検出パラメータを説明する図である。第1機器が行う画像処理で第1画像と第2画像に対しそれぞれ検出する画像700を示し、各検出パラメータを例示している。エッジ検出(ステップS611)では画像上のエッジを検出し、このエッジ検出後、車線領域(図の検出車線1~4)を検出する(ステップS612)。 FIG. 7 is a diagram for explaining detection parameters detected in image processing according to the first embodiment. An image 700 detected for each of the first image and the second image in the image processing performed by the first device is shown, and each detection parameter is exemplified. Edge detection (step S611) detects edges on the image, and after this edge detection, lane areas (detection lanes 1 to 4 in the figure) are detected (step S612).

この際、車線間の白線で分断された領域が車線領域(図7の検出車線1~4)であると認識する。また、画像の横方向のうち最も中心に近い車線(図7の検出車線2)を自車走行中の車線と認識する。 At this time, the area divided by the white lines between the lanes is recognized as the lane area (detected lanes 1 to 4 in FIG. 7). Also, the lane closest to the center in the horizontal direction of the image (detected lane 2 in FIG. 7) is recognized as the lane in which the vehicle is traveling.

そして、オブジェクト検出(ステップS613)については、車線上では車両701を検出する。例えば、アダブーストアルゴリズムを用い、物体(車両)の形状を機械学習することで、車両701を車種別に検出できる。同様に、路側(図7の検出車線1の左端)に位置する道路標識702を形状別の標識として検出できる。 As for object detection (step S613), the vehicle 701 is detected on the lane. For example, by machine-learning the shape of an object (vehicle) using the Adaboost algorithm, the vehicle 701 can be detected by vehicle type. Similarly, a road sign 702 located on the roadside (the left end of detection lane 1 in FIG. 7) can be detected as a shape-specific sign.

(第1カメラと第2カメラの設置位置別の判定処理例)
例えば、第1機器300および第2機器302がいずれも車両前方の画像を撮影する場合、画像処理によって得られた自車走行車線と、検出された車両の位置関係が、2つの機器300,302の画像と一致することを元に、第1画像と第2画像が同一の車両で撮影された画像と判定する。
(Example of determination processing for each installation position of the first camera and the second camera)
For example, when both the first device 300 and the second device 302 capture an image of the front of the vehicle, the positional relationship between the lane in which the vehicle is traveling and the detected vehicle obtained by image processing is determined by the two devices 300 and 302. , it is determined that the first image and the second image are images captured by the same vehicle.

また、第1機器300が車両前方の画像を撮影し、第2機器302が車両後方の画像を撮影し車両が前方に進行している場合には、第1機器300で撮影した第1画像と第2機器302で撮影した画像について、画像処理によって得られた被写体(静止物、例えば、道路標識や路肩に駐車中の車両)の位置関係が第1画像と第2画像とでは逆転していることで判定する。 Further, when the first device 300 captures an image in front of the vehicle and the second device 302 captures an image behind the vehicle, and the vehicle is traveling forward, the first image captured by the first device 300 and the In the image captured by the second device 302, the positional relationship of the subject (a stationary object such as a road sign or a vehicle parked on the road shoulder) obtained by image processing is reversed between the first image and the second image. Judge by

さらには、例えば、道路標識であれば、この道路標識には表裏があり、道路の左端に位置する道路標識702の表側を第1機器300で位置撮影した後、車両の速度に応じた所定時間後に道路の右端に位置する同じ道路標識702の裏面を第2機器302で撮影することに基づき判定できる。 Furthermore, for example, in the case of a road sign, the road sign has a front and a back. The determination can be made later based on photographing the reverse side of the same road sign 702 located at the right end of the road with the second device 302 .

(同一車両判定後の通知例)
図8は、実施例1による同一車両の判定処理の通知画面例を示す図である。第1機器300が図5のステップS506により第2機器302に通知する画面例を示している。例えば、第1機器300が上述した同一車両の判定処理を行った結果、第1画像と第2画像が同一の車両で撮影された画像と判定すると、第1機器300は、第2機器302に対して図8に示す認証画面800を送信する。
(Notification example after same vehicle determination)
FIG. 8 is a diagram showing an example of a notification screen of the same vehicle determination process according to the first embodiment. 6 shows an example of a screen on which the first device 300 notifies the second device 302 in step S506 of FIG. For example, when the first device 300 determines that the first image and the second image are images captured by the same vehicle as a result of performing the same vehicle determination process described above, the first device 300 causes the second device 302 to In response, an authentication screen 800 shown in FIG. 8 is transmitted.

この認証画面800では、第2機器302が撮影し、上述した同一の車両で撮影された画像の判定に用いた撮影画像801を送信するとともに、「運転中の車両に同期可能な機器が検出されました」と案内文(テキスト)を表示させる。例えば、この第2機器302が新たに車両に取り付けられた場合の新規端末である。 In this authentication screen 800, the photographed image 801 photographed by the second device 302 and used for the determination of the image photographed by the same vehicle as described above is transmitted, and "A device that can be synchronized with the vehicle being driven is detected. ," is displayed. For example, it is a new terminal when this second device 302 is newly installed in a vehicle.

このように、判定装置100の機能を備える第1機器300は、車両に新たに取り付けられた新規端末(第2機器302)が生じる毎に、ユーザ操作がなくても、この新規端末(第2機器302)に対して同一車両に取り付けられた装置であることを通知することでユーザに通知できる。ユーザは、第2端末302を同一車両に取り付けたものである場合、この認証画面800上で「同期する」選択ボタン802を操作することで、第2機器302を第1機器300に同期(連携)させることができる。また、「同期しない」選択ボタン803を操作することで第2機器302を第1機器300に同期(連携)させないこともできる。 In this way, the first device 300 having the function of the determination device 100 can be used without any user operation every time a new terminal (second device 302) is newly attached to the vehicle. The user can be notified by notifying the device 302) that the device is installed in the same vehicle. If the user has installed the second terminal 302 in the same vehicle, the user can synchronize (coordinate) the second device 302 with the first device 300 by operating the “synchronize” selection button 802 on the authentication screen 800 . ). Further, by operating the “do not synchronize” selection button 803, the second device 302 can not be synchronized (coordinated) with the first device 300. FIG.

上記のように、第1機器300は、図8のようなユーザへの同期(連携)確認を行った後に第1機器300と第2機器302とを同期(連携)させることもできる。これに限らず、第1機器300は、図8のようなユーザへの同期(連携)確認の画面を送出せず、自動的に第1機器300と第2機器302とを同期(連携)させてもよい。 As described above, the first device 300 can synchronize (coordinate) the first device 300 and the second device 302 after confirming synchronization (cooperation) with the user as shown in FIG. Not limited to this, the first device 300 automatically synchronizes (coordinates) the first device 300 and the second device 302 without sending a synchronization (coordination) confirmation screen to the user as shown in FIG. may

(第1機器と第2機器の連携制御例)
つぎに、上述した第1機器300と第2機器302が同じ車両で撮影された画像であると判定された登録されることで(図5のステップS506)、以降の第1機器300と第2機器302との同期(連携)制御例について説明する。
(Example of cooperative control between the first device and the second device)
Next, when the first device 300 and the second device 302 described above are registered as images taken by the same vehicle (step S506 in FIG. 5), the first device 300 and the second device 302 are registered. An example of synchronization (cooperation) control with the device 302 will be described.

図9~図12は、それぞれ実施例1による第1機器と第2機器の連携制御例を示す図である。図9~図12では、いずれも、第1機器(ナビゲーション装置)300と第2機器302とが同一車両に設けられている判定結果に基づき、第1機器300が第2機器302の表示を連携制御する例について記載してある。第2機器302は、バックミラーに設けられた表示機能を有するミラー型端末であるとする。 9 to 12 are diagrams showing examples of cooperative control of the first device and the second device according to the first embodiment. 9 to 12, the first device 300 cooperates the display of the second device 302 based on the determination result that the first device (navigation device) 300 and the second device 302 are provided in the same vehicle. An example of control is described. Assume that the second device 302 is a mirror-type terminal having a display function provided in the rearview mirror.

図9に示す例では、第1機器(ナビゲーション装置)300は、経路探索した結果の経路を含む地図画面901を表示する。また、第1機器(ナビゲーション装置)300は、第2機器302の表示を制御し、車両進行中に経路上の情報(例えば、つぎの交差点の誘導方向)902を表示する。 In the example shown in FIG. 9, the first device (navigation device) 300 displays a map screen 901 including the route as a result of the route search. Also, the first device (navigation device) 300 controls the display of the second device 302 and displays information 902 on the route (for example, the guidance direction of the next intersection) while the vehicle is traveling.

図10に示す例では、第1機器(ナビゲーション装置)300は、経路探索した結果の経路を含む地図画面901を表示する。また、第1機器(ナビゲーション装置)300は、第2機器302の表示を制御し、第1機器(ナビゲーション装置)300で再生中のコンテンツの楽曲リストや映像1002を表示する。 In the example shown in FIG. 10, the first device (navigation device) 300 displays a map screen 901 including the route as a result of the route search. Also, the first device (navigation device) 300 controls the display of the second device 302 and displays the music list of the content being reproduced on the first device (navigation device) 300 and the video 1002 .

図11に示す例では、第1機器(ナビゲーション装置)300は、再生中のコンテンツの楽曲リストや映像1101を表示する。また、第1機器(ナビゲーション装置)300は、第2機器302の表示を制御し、第1機器(ナビゲーション装置)300で経路探索した結果の経路に基づき、車両進行中に経路上の情報(例えば、つぎの交差点の誘導方向)902を表示する。 In the example shown in FIG. 11, the first device (navigation device) 300 displays a song list and video 1101 of the content being reproduced. In addition, the first device (navigation device) 300 controls the display of the second device 302, and based on the route searched by the first device (navigation device) 300, information on the route (for example, , the guidance direction of the next intersection) 902 is displayed.

図12に示す例では、第1機器(ナビゲーション装置)300は、第1機器に接続されたカメラ(前方カメラ)311aの撮影画像1201を表示する。また、第1機器(ナビゲーション装置)300は、第2機器302の表示を制御し、第1機器(ナビゲーション装置)300に接続されたカメラ(後方カメラ)311bの撮影画像1202を表示する。なお、第2機器302は、自身が前方カメラ312を有し、第2機器302上に前方カメラ312を表示することもできる。 In the example shown in FIG. 12, the first device (navigation device) 300 displays an image 1201 captured by the camera (front camera) 311a connected to the first device. The first device (navigation device) 300 also controls the display of the second device 302 and displays an image 1202 captured by the camera (rear camera) 311b connected to the first device (navigation device) 300 . Note that the second device 302 itself has a front camera 312 and can display the front camera 312 on the second device 302 .

これら図9~図12に示したように、第1機器(ナビゲーション装置)300と、第2機器(ミラー型端末)302とが同一車両に設けられていると判定した後、第1機器300は、第2機器302を連携制御(車両の進行に伴う同期制御等を)できる。上記例のように、画面表示を連携させることで、一方の機器で表示できない情報を他の機器に表示させることができるようになる。さらには、一方の機器と他方の機器とでそれぞれ必要な情報を表示させることができるようになる。また、上記例では、第1機器300と第2機器302の表示を連携制御させたが、表示に限らず音、振動、さらには各種情報(例えば認証データを含むデータ)を互いに送受信して相互の機器を連携制御することができる。 As shown in FIGS. 9 to 12, after determining that the first device (navigation device) 300 and the second device (mirror type terminal) 302 are provided in the same vehicle, the first device 300 , the second device 302 can be cooperatively controlled (synchronized control with the progress of the vehicle, etc.). As in the above example, by linking screen displays, information that cannot be displayed on one device can be displayed on another device. Furthermore, it becomes possible to display necessary information on one device and on the other device. In the above example, the displays of the first device 300 and the second device 302 are cooperatively controlled. devices can be linked and controlled.

以上の実施例1によれば、第1機器(ナビゲーション装置)300に判定装置100の機能を設けることで、第1機器(ナビゲーション装置)300が、第2機器302を検出したとき、この第2機器302が自機器と同一車両に設けられた機器であるかを判定する。この際、第1機器300は、第1画像と第2画像が同一車両から撮影された画像であるかを画像処理により判定する。第1機器300が第2機器302で撮影された第2画像を取得することで、自機器の第1画像と画像比較して、第2機器302が同一車両に設けられた機器であるかを判定できる。 According to the first embodiment described above, by providing the function of the determination device 100 in the first device (navigation device) 300, when the first device (navigation device) 300 detects the second device 302, the second device 302 is detected. It is determined whether the device 302 is provided in the same vehicle as the own device. At this time, the first device 300 determines by image processing whether the first image and the second image are images shot from the same vehicle. By acquiring the second image captured by the second device 302, the first device 300 compares the image with the first image of its own device to determine whether the second device 302 is provided in the same vehicle. I can judge.

これにより、第2機器302を設置したときに第2機器302を設置した旨の煩雑なユーザ設定を行わなくても、第2機器302を連携制御できるようになる。なお、第2機器302は単一機器に限らず複数の機器とすることができ、第1機器300は複数の第2機器302を連携制御できる。 As a result, when the second device 302 is installed, the second device 302 can be cooperatively controlled without performing complicated user settings to the effect that the second device 302 has been installed. Note that the second device 302 is not limited to a single device and can be a plurality of devices, and the first device 300 can cooperatively control the plurality of second devices 302 .

図13は、実施例2による複数の機器の構成例を示す図である。実施例2では、実施例1と比べて機器構成を変更した例である。図13に示すように、実施例2では、ユーザの車両に第1機器(情報機器1)としてナビゲーション装置300と、第2機器(情報機器2、例えば実施例1同様のミラー型端末)302と、第3機器(情報機器3)としてのサーバ1301が搭載され、第3機器であるサーバ1301が上記の判定装置100の機能を有する構成例を用いて説明する。 FIG. 13 is a diagram illustrating a configuration example of a plurality of devices according to the second embodiment; The second embodiment is an example in which the device configuration is changed from that of the first embodiment. As shown in FIG. 13, in the second embodiment, a user's vehicle is equipped with a navigation device 300 as a first device (information device 1) and a second device (information device 2, for example, a mirror type terminal similar to the first embodiment) 302. , a server 1301 as a third device (information device 3) is mounted, and the server 1301 as the third device has the functions of the determination device 100 described above.

第1機器(ナビゲーション装置)300および第2機器(情報機器2)302は、それぞれ画像を撮影するカメラ311,312と、相互に通信を行う通信部321,322とを有する。第1機器(ナビゲーション装置)300および第2機器(情報機器2)302は、それぞれ第3機器(サーバ)1301に対して撮影した画像を送信する機能、および第3機器(サーバ)1301による連携制御を受ける機能を有する。 A first device (navigation device) 300 and a second device (information device 2) 302 respectively have cameras 311 and 312 for capturing images and communication units 321 and 322 for mutual communication. A first device (navigation device) 300 and a second device (information device 2) 302 each have a function of transmitting captured images to a third device (server) 1301 and cooperative control by the third device (server) 1301. has the function of receiving

(実施例2のハードウェア構成)
実施例2の第1機器(ナビゲーション装置)300のハードウェア構成は、図4と同様である。また、第2機器(情報機器2)302のハードウェア構成は、図4に記載した各部のうち、CPU401~RAM403と、映像I/F412、カメラ417、ディスプレイ413、通信I/F414とを有して構成できる。また、第3機器(サーバ)1301のハードウェア構成は、図4に記載した各部のうち、CPU401~RAM403と、通信I/F414とを有して構成できる。
(Hardware configuration of the second embodiment)
The hardware configuration of the first device (navigation device) 300 of Example 2 is the same as in FIG. The hardware configuration of the second device (information device 2) 302 includes CPU 401 to RAM 403, video I/F 412, camera 417, display 413, and communication I/F 414 among the units shown in FIG. can be configured Further, the hardware configuration of the third device (server) 1301 can be configured by including the CPU 401 to RAM 403 and the communication I/F 414 among the units shown in FIG.

そして、第3機器(サーバ)1301は、図4記載のROM402、RAM403、磁気ディスク405、光ディスク407などに記録されたプログラムやデータを用いて、CPU401が所定のプログラムを実行することによって、図1の判定装置100の機能を実現できる。そして、第3機器(サーバ)1301は、第1機器(ナビゲーション装置)300および第2機器(情報機器2)302のカメラ311,312が撮影した撮影画像を通信部1302を介して取得し、これら、第1機器(ナビゲーション装置)300および第2機器(情報機器2)302が同一車両に取り付けられているか撮影画像を画像処理して判定し、通信部1302を介して第1機器(ナビゲーション装置)300および第2機器(情報機器2)302を連携制御する。 The third device (server) 1301 uses programs and data recorded in the ROM 402, the RAM 403, the magnetic disk 405, the optical disk 407, etc. shown in FIG. The function of the determination device 100 can be realized. Then, the third device (server) 1301 acquires the captured images captured by the cameras 311 and 312 of the first device (navigation device) 300 and the second device (information device 2) 302 via the communication unit 1302, and , determines whether the first device (navigation device) 300 and the second device (information device 2) 302 are attached to the same vehicle by performing image processing on the captured image, and transmits the first device (navigation device) 300 and a second device (information device 2) 302 are cooperatively controlled.

なお、第3機器(サーバ)1301は、第1機器(ナビゲーション装置)300および第2機器(情報機器2)302が同一車両に取り付けられている旨の判定結果を第1機器300および第2機器302に通知するまでの制御を行うこととしてもよい。この場合、第1機器300および第2機器302は、互いが連携可能な通知を受けて、第3機器(サーバ)1301を介さずに、第1機器300および第2機器302間で直接、連携制御を行う。 The third device (server) 1301 sends the first device (navigation device) 300 and the second device (information device 2) 302 to the same vehicle. 302 may be controlled. In this case, the first device 300 and the second device 302 receive the notification that they can cooperate with each other, and without going through the third device (server) 1301, the first device 300 and the second device 302 directly cooperate. control.

(実施例2の判定装置の判定処理例)
つぎに、判定装置100の機能を有する第3機器(サーバ)1301が第1機器(ナビゲーション装置)300が撮影した第1画像と、第2機器(情報機器2)302が撮影した第2画像に基づき、撮影位置の同一性、すなわち同一車両で撮影された画像であるか否か(第1機器と第2機器が同一車両に設けられているか)を判定し、第1機器と第2機器を連携させる制御例について説明する。
(Example of determination processing of the determination device of the second embodiment)
Next, a third device (server) 1301 having the function of the determination device 100 compares the first image captured by the first device (navigation device) 300 and the second image captured by the second device (information device 2) 302. Based on this, it is determined whether or not the photographed positions are the same, that is, whether the images were photographed in the same vehicle (whether the first device and the second device are provided in the same vehicle), and the first device and the second device are determined. An example of control to be linked will be described.

図14は、実施例2の第3機器が実行する判定処理例を示すフローチャートである。図14には、第1機器および第2機器の動作処理についても併記してある。 FIG. 14 is a flowchart illustrating an example of determination processing executed by the third device according to the second embodiment; FIG. 14 also shows operation processing of the first device and the second device.

第1機器300と第2機器302は、それぞれ所定のタイミング(不定期あるいは定期的に)カメラ311,312で画像を撮影する(ステップS1410)。第1機器300の例で説明すると、第1機器300は、カメラ311で画像を撮影し第1画像を得る(ステップS1410)。この際、第1機器300は、第1画像の撮影パラメータとして撮影時刻を取得し、撮影画像に関連付ける(ステップS1411)。 The first device 300 and the second device 302 capture images with the cameras 311 and 312 at predetermined timing (irregularly or regularly), respectively (step S1410). Taking the first device 300 as an example, the first device 300 captures an image with the camera 311 to obtain a first image (step S1410). At this time, the first device 300 acquires the photographing time as the photographing parameter of the first image and associates it with the photographed image (step S1411).

このステップS1411では、ほかの撮影パラメータとして撮影状態(例えば画角、露出)を取得してもよい。このステップS1411では、第1機器が取得可能な撮影に関連するほかの情報を取得してもよい。そして、第1機器300は、第1画像を撮影パラメータとともに第3機器1301にデータ送信する(ステップS1412)。第2機器302について第1機器300同様に第2画像を撮影する毎に撮影パラメータを付与して第3機器1301に送信する。 In this step S1411, the shooting state (for example, angle of view, exposure) may be acquired as another shooting parameter. In this step S1411, other information related to photography that can be obtained by the first device may be obtained. The first device 300 then transmits the data of the first image together with the imaging parameters to the third device 1301 (step S1412). As with the first device 300 , the second device 302 assigns shooting parameters to the second device 302 and transmits the second image to the third device 1301 each time the second image is shot.

第3機器1301は、同一車両に搭載された第1機器(ナビゲーション装置)300と第2機器(情報機器2)302から第1画像および第2画像が送信される都度、これら第1画像と第2画像(データ)を受信し(ステップS1401)、記憶部(例えば、図4の磁気ディスク405)に保存する(ステップS1402)。ここで、第3機器1301は、例えば、同一車両に新規に取り付けられた第1機器300や第2機器302から送信される画像を受信する。 Each time the first image and the second image are transmitted from the first device (navigation device) 300 and the second device (information device 2) 302 mounted on the same vehicle, the third device 1301 receives the first image and the second image. 2 images (data) are received (step S1401) and stored in a storage unit (for example, the magnetic disk 405 in FIG. 4) (step S1402). Here, the third device 1301 receives images transmitted from, for example, the first device 300 and the second device 302 newly attached to the same vehicle.

この後、第3機器1301は、以下の処理により、取得済の第1画像と第2画像の撮影位置の同一性の判定を行う。はじめに、第3機器1301は、取得済の第1画像と第2画像のうち、同一時刻で撮影された第1画像と第2画像を収集する(ステップS1403)。 After that, the third device 1301 performs the following processing to determine whether the photographing positions of the acquired first image and second image are the same. First, the third device 1301 acquires the first image and the second image captured at the same time among the acquired first image and second image (step S1403).

ところで、第1画像および第2画像は、静止画に限らず動画でもよく、第1画像と第2画像の撮影時刻が重なる時刻の動画を取得することとしてもよく、第3機器1301は、動画である第1画像と第2画像のうち撮影時刻が同一の画像(静止画)を用いて撮影位置の同一性を判定できる。 By the way, the first image and the second image are not limited to still images, and may be moving images. The identity of the photographing position can be determined using the image (still image) photographed at the same time among the first image and the second image.

つぎに、第3機器1301は、第1画像と第2画像が同じ車両で撮影された画像であるかを判定する(ステップS1404)。この処理は、上記撮影位置の同一性の判定に相当し、画像処理により判定する。 Next, the third device 1301 determines whether the first image and the second image are images captured by the same vehicle (step S1404). This process corresponds to the determination of the identity of the photographing positions, and is determined by image processing.

撮影位置の同一性判定の処理例は図6を用いて説明したように、第1画像と同一時刻に撮影された第2画像とを比較し、一致する被写体の有無等により、第1画像と第2画像が同じ車両で撮影された画像であるかを判定する。 As described with reference to FIG. 6, the example of processing for determining the identity of photographing positions is to compare a first image with a second image photographed at the same time, and determine whether or not there is a matching subject. It is determined whether the second image is an image captured by the same vehicle.

ステップS1404による判定処理の結果、第1画像と第2画像が同じ車両で撮影された画像であると判定されれば(ステップS1404:Yes)、第3機器1301は、第1機器300と第2機器302を連携制御の対象機器と判定し、第1機器300と第2機器302に対して判定結果を通知する(ステップS1405)。この後、第3機器1301は、第1機器300と第2機器302とを連携制御する。ステップS1404による判定処理の結果、第1画像と第2画像が同じ車両で撮影された画像であると判定されなければ(ステップS1404:No)、ステップS1403に戻る。 As a result of the determination processing in step S1404, if it is determined that the first image and the second image are images captured by the same vehicle (step S1404: Yes), the third device 1301 The device 302 is determined to be the target device of cooperative control, and the determination result is notified to the first device 300 and the second device 302 (step S1405). After that, the third device 1301 cooperatively controls the first device 300 and the second device 302 . As a result of the determination processing in step S1404, if the first image and the second image are not determined to be images shot by the same vehicle (step S1404: No), the process returns to step S1403.

第1機器300と第2機器(情報機器2)302側では、第3機器1301による撮影位置の同一性の判定結果の通知を待つ(ステップS1413)。第3機器1301が第1画像と第2画像とで撮影位置の同一性があると判定した場合、第1機器300と第2機器302は、第3機器1301から第1機器300と第2機器302とが同じ車両で撮影された画像であるとの結果を取得し(ステップS1414)、登録する(ステップS1415)。この通知として、第1機器300が第2機器302と同じ車両に搭載されていると通知されてもよい。 The first device 300 and the second device (information device 2) 302 wait for the notification of the determination result of the identity of the photographing positions from the third device 1301 (step S1413). When the third device 1301 determines that the shooting positions of the first image and the second image are the same, the first device 300 and the second device 302 are switched from the third device 1301 to the first device 300 and the second device. 302 are images taken by the same vehicle (step S1414) and registered (step S1415). As this notification, it may be notified that the first device 300 is mounted in the same vehicle as the second device 302 .

また、第3機器1301は、第1機器300と第2機器302に対して、図8に示したように、ユーザへの同期(連携)確認画面を送信し、ユーザによる確認操作後に第1機器300と第2機器302とを同期(連携)させることもできる。 Also, the third device 1301 transmits a synchronization (linkage) confirmation screen to the user as shown in FIG. 300 and the second device 302 can also be synchronized (coordinated).

この後、第1機器300および第2機器302は、第3機器1301による連携制御を受ける。連携制御は、実施例1(例えば図9~図12)同様に、第1機器300と第2機器302の表示を連携させることができる。 After that, the first device 300 and the second device 302 are under cooperative control by the third device 1301 . Linkage control can link the displays of the first device 300 and the second device 302 in the same manner as in the first embodiment (eg, FIGS. 9 to 12).

以上の実施例2によれば、第1機器300と第2機器302の外部の第3機器(サーバ)1301に判定装置100の機能を設けることで、第3機器1301が、第1機器300および第2機器302を検出したとき、この第1機器300と第2機器302が同一車両に設けられた機器であるかを判定する。この際、第3機器1301は、第1画像と第2画像が同一車両から撮影された画像であるかを画像処理により判定する。第3機器1301は、第1機器300の第1画像と第2機器302の第2画像を取得することで、第1画像と第2画像とを画像比較して、第1機器300と第2機器302が同一車両に設けられた機器であるかを判定できる。 According to the second embodiment described above, by providing the function of the determination device 100 in the third device (server) 1301 external to the first device 300 and the second device 302, the third device 1301 can When the second device 302 is detected, it is determined whether the first device 300 and the second device 302 are devices provided in the same vehicle. At this time, the third device 1301 determines by image processing whether the first image and the second image are images shot from the same vehicle. The third device 1301 acquires the first image of the first device 300 and the second image of the second device 302, compares the first image and the second image, and obtains the first image and the second image. It can be determined whether the equipment 302 is equipment provided in the same vehicle.

これにより、例えば、第1機器300を設置済で新たに第2機器302を設置したときに第2機器302を設置した旨の煩雑なユーザ設定を行わなくても、第1機器300と第2機器302を連携制御できるようになる。なお、第1機器300および第2機器302は2つの機器に限らず複数の機器とすることができ、第3機器1301は、複数の機器(第1機器300および第2機器302)を連携制御できる。 As a result, for example, when the second device 302 is newly installed after the first device 300 has already been installed, there is no need to perform complicated user settings indicating that the second device 302 has been installed. The device 302 can now be controlled in cooperation. Note that the first device 300 and the second device 302 are not limited to two devices, and may be a plurality of devices. can.

上記の各実施例では、第1機器としてナビゲーション装置を用い、第2機器としてミラー型端末の構成としたが、これら第1機器および第2機器は、撮影機能を有する情報機器であればよく、例えば、スマートフォンやタブレット、PCなどでもよい。 In each of the above embodiments, a navigation device is used as the first device and a mirror-type terminal is used as the second device. For example, a smart phone, a tablet, a PC, or the like may be used.

また、各実施例において、第1機器と第2機器は、起動時刻(例えば車両のACC ONによる起動時刻)を保持し、判定装置の機能を備えた機器(実施例1の第1機器あるいは実施例2の第3機器)に起動時刻を送信してもよい。判定装置の機能を備えた機器では、この起動時刻を含めて第1画像と第2画像の撮影位置の同一性を判定してもよい。これにより、異なる車両の機器に対して誤った同一性の判定を行うことを防止できる。 In addition, in each embodiment, the first device and the second device hold the activation time (for example, the activation time by ACC ON of the vehicle), and the device having the function of the determination device (the first device in the first embodiment or the implementation The activation time may be transmitted to the third device in Example 2). A device having the function of a determination device may determine the identity of the photographing positions of the first image and the second image, including this activation time. As a result, it is possible to prevent erroneous identity determination for devices in different vehicles.

例えば、判定装置の機能を備えた機器が、隣の車線を走行しているほかの車両が撮影した画像を取得することが考えられる。この場合、判定機器は、他の車両の撮影画像を自車の撮影画像と比較したとき、他の車両の撮影画像と自車の撮影画像とで同一時刻に同一の被写体を撮影することで撮影位置の同一性がある(同一車両で撮影された)と誤判定する恐れがある。 For example, it is conceivable that a device having the function of a determination device acquires an image captured by another vehicle traveling in the next lane. In this case, when the image captured by the other vehicle is compared with the image captured by the vehicle, the determination device captures the same subject at the same time in the image captured by the other vehicle and the image captured by the vehicle. There is a risk of erroneous determination that there is location identity (photographed by the same vehicle).

このため、第1画像と第2画像を用いた撮影位置の同一性の判定時に、起動時刻を含めて判定することで、第1機器(自車)と第2機器(他の車両)の起動時刻が一致しない(例えば10分以上異なる)場合、第1画像と第2画像は同一車両の機器で撮影された画像ではないと判断できる。これにより、画像処理だけでは、第1画像と第2画像とで撮影位置の同一性があると判定される画像であっても、実際には同一車両ではないことを判定できるようになる。 For this reason, when judging the identity of shooting positions using the first image and the second image, by including the startup time in the judgment, the startup of the first device (own vehicle) and the second device (another vehicle) can be minimized. If the times do not match (for example, they differ by 10 minutes or more), it can be determined that the first image and the second image are not images captured by the same vehicle equipment. As a result, even if it is determined that the photographing positions of the first image and the second image are the same, it can be determined that they are not actually the same vehicle by image processing alone.

なお、本実施の形態で説明した判定方法は、予め用意されたプログラムをパーソナル・コンピュータやワークステーションなどのコンピュータで実行することにより実現することができる。このプログラムは、ハードディスク、フレキシブルディスク、CD-ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。またこのプログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒体であってもよい。 The determination method described in this embodiment can be realized by executing a prepared program on a computer such as a personal computer or a workstation. This program is recorded on a computer-readable recording medium such as a hard disk, flexible disk, CD-ROM, MO, DVD, etc., and is executed by being read from the recording medium by a computer. Also, this program may be a transmission medium that can be distributed via a network such as the Internet.

100 判定装置
101 第1取得部
102 第2取得部
103 判定部
104 表示制御部
105 出力部
300 ナビゲーション装置(第1機器)
302 情報機器(第2機器)
311,312 カメラ
1301 サーバ(第3機器)


REFERENCE SIGNS LIST 100 determination device 101 first acquisition unit 102 second acquisition unit 103 determination unit 104 display control unit 105 output unit 300 navigation device (first device)
302 information equipment (second equipment)
311, 312 Camera 1301 Server (third device)


Claims (1)

第1機器で撮影された第1画像を取得する第1取得手段と、
第2機器で撮影された第2画像を取得する第2取得手段と、
前記第1画像と前記第2画像それぞれの撮影画像に基づき、前記第1画像と前記第2画像の同一性を判定する判定手段と、
前記判定手段による判定結果に応じて前記第1機器と前記第2機器とが互いに連携可能であることを前記第1機器もしくは前記第2機器に出力する出力手段と、
を有することを特徴とする判定装置。
a first acquisition means for acquiring a first image captured by the first device;
a second acquisition means for acquiring a second image captured by the second device;
determination means for determining identity between the first image and the second image based on the captured images of the first image and the second image;
output means for outputting to the first device or the second device that the first device and the second device can cooperate with each other according to the determination result by the determination means;
A determination device characterized by comprising:
JP2022182944A 2019-09-10 2022-11-15 Determination device, determination method, and determination program Pending JP2023025053A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022182944A JP2023025053A (en) 2019-09-10 2022-11-15 Determination device, determination method, and determination program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019164928A JP2019220991A (en) 2019-09-10 2019-09-10 Determination device, determination method, and determination program
JP2021027568A JP2021101547A (en) 2019-09-10 2021-02-24 Determination device, determination method, and determination program
JP2022182944A JP2023025053A (en) 2019-09-10 2022-11-15 Determination device, determination method, and determination program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021027568A Division JP2021101547A (en) 2019-09-10 2021-02-24 Determination device, determination method, and determination program

Publications (1)

Publication Number Publication Date
JP2023025053A true JP2023025053A (en) 2023-02-21

Family

ID=69097265

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019164928A Ceased JP2019220991A (en) 2019-09-10 2019-09-10 Determination device, determination method, and determination program
JP2021027568A Pending JP2021101547A (en) 2019-09-10 2021-02-24 Determination device, determination method, and determination program
JP2022182944A Pending JP2023025053A (en) 2019-09-10 2022-11-15 Determination device, determination method, and determination program

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2019164928A Ceased JP2019220991A (en) 2019-09-10 2019-09-10 Determination device, determination method, and determination program
JP2021027568A Pending JP2021101547A (en) 2019-09-10 2021-02-24 Determination device, determination method, and determination program

Country Status (1)

Country Link
JP (3) JP2019220991A (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4156552B2 (en) * 2004-03-23 2008-09-24 富士フイルム株式会社 Imaging system, imaging apparatus, imaging method, and imaging program
JP4520536B1 (en) * 2009-09-01 2010-08-04 パナソニック株式会社 Wearable camera and wide area imaging system
JP6057657B2 (en) * 2012-10-15 2017-01-11 キヤノン株式会社 Imaging apparatus, information processing method, and program
JP6192940B2 (en) * 2013-01-23 2017-09-06 オリンパス株式会社 Photography equipment and cooperative photography method
JP6056664B2 (en) * 2013-06-04 2017-01-11 株式会社Jvcケンウッド Image processing apparatus and imaging system

Also Published As

Publication number Publication date
JP2019220991A (en) 2019-12-26
JP2021101547A (en) 2021-07-08

Similar Documents

Publication Publication Date Title
EP2672232B1 (en) Method for Providing Navigation Information and Server
US20110199479A1 (en) Augmented reality maps
CN108932051A (en) augmented reality image processing method, device and storage medium
TW201118339A (en) Road image processing method and system of moving camera
JP2017068640A (en) Vehicle-to-vehicle data communication device
US20190364248A1 (en) Display control device and computer-readable storage medium
JP2015161592A (en) Navigation device, communication device, server device, control method, program, and storage medium
JP2009037062A (en) Map data updating apparatus and map data updating system
CN112818240A (en) Comment information display method, comment information display device, comment information display equipment and computer-readable storage medium
JP2020030532A (en) Control device and program
US11039087B2 (en) Image processing apparatus and computer-readable storage medium
JP2019200478A (en) Server, vehicle photographing system, and vehicle photographing method
JP2023025053A (en) Determination device, determination method, and determination program
JP6424100B2 (en) NAVIGATION SYSTEM, NAVIGATION DEVICE, GLASS TYPE DEVICE, AND METHOD FOR LINKING THE DEVICE
JP2009124254A (en) Photographing device
CN111754564A (en) Video display method, device, equipment and storage medium
JP2016174253A (en) Determination device, determination method, and determination program
KR100833603B1 (en) Navigation system for providing bird view and method thereof
JP2019074862A (en) Recommendable driving output device, recommendable driving output system, and recommendable driving output method
JP2003244488A (en) Image information adding apparatus and system
JP2016082409A (en) Radio communication device
JP2021033944A (en) Communication device, communication method and program
JP2021026457A (en) Image distribution device and method, and image distribution system
JP2005339176A (en) Vehicle recognition device, navigation device and vehicle recognition method
JP6537189B2 (en) Map display device and map display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240123