JP2019071085A - Method and system for providing position or movement information for controlling at least one function of vehicle - Google Patents

Method and system for providing position or movement information for controlling at least one function of vehicle Download PDF

Info

Publication number
JP2019071085A
JP2019071085A JP2018238427A JP2018238427A JP2019071085A JP 2019071085 A JP2019071085 A JP 2019071085A JP 2018238427 A JP2018238427 A JP 2018238427A JP 2018238427 A JP2018238427 A JP 2018238427A JP 2019071085 A JP2019071085 A JP 2019071085A
Authority
JP
Japan
Prior art keywords
vehicle
camera
mobile device
image
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018238427A
Other languages
Japanese (ja)
Inventor
トーマス アルト
Thomas Alt
トーマス アルト
レジン ワン
Rejing Wang
レジン ワン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Priority to JP2018238427A priority Critical patent/JP2019071085A/en
Publication of JP2019071085A publication Critical patent/JP2019071085A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

To provide a method for providing position information for controlling at least one function of a vehicle provided with a vehicle coordinate system, and a method and a system which provide movement information indicative of a movement associated with a mobile device relative to the vehicle coordinate system to control at least one function of the vehicle according to the movement.SOLUTION: The method includes the steps of: receiving image information associated with at least one image of at least one part of a vehicle captured by a camera of a mobile device, the mobile device being separate from the vehicle; determining a position associated with the mobile device in the vehicle coordinate system according to the image information associated with the at least one image; and providing position information indicative of the position associated with the mobile device in the vehicle coordinate system to control at least one function of the vehicle according to this position.SELECTED DRAWING: Figure 1

Description

本開示は、車両の少なくとも1つの機能を制御するための位置又は運動情報を提供するための方法及びシステムに関する。   The present disclosure relates to methods and systems for providing position or motion information for controlling at least one function of a vehicle.

近年、自動車のような最新の車両は、所望の性能を有するために車両内部の特定の位置に合わせて調整可能である様々なシステム又は機能を有する。例えば、前部座席に着席している運転者並びに助手席及び/若しくは後部座席に着席している同乗者のための音響エクスペリエンスを最適化するために、車内の音響システムを調整することができる。車両のアンビエントライトシステム及びクライメートシステムのようなシステムも同様である。ユーザは、このようなシステムの1つ以上の機能を調整するべく3D空間内における位置を指定するために苦労することがままあるため、それを行うことはめったにない。特に、ユーザが、自動車のこのようなシステムを調整又は制御するために自動車の内部の所望の位置を指定することは、困難であるか、又は不可能でさえある。更に、1つの所望の位置から自動車の内部の別の所望の位置へ変更することもまたユーザにとって困難である。   Recently, modern vehicles such as automobiles have various systems or functions that can be adjusted to specific locations within the vehicle to have the desired performance. For example, the in-vehicle acoustic system can be adjusted to optimize the acoustic experience for the driver seated in the front seat and the passenger seated in the passenger seat and / or the rear seat. Systems such as vehicle ambient light systems and climate systems are similar. Users rarely do so as they may struggle to specify their position in 3D space to coordinate one or more functions of such a system. In particular, it is difficult or even impossible for the user to specify the desired position inside the motor vehicle in order to adjust or control such a system of the motor vehicle. Furthermore, changing from one desired position to another desired position inside the car is also difficult for the user.

Zhang、他は、参照文献[1]において、車両に取り付けられたカメラのための地表面に対するカメラ位置の自己校正のための方法を提案している。彼らは、取り付けられたカメラの高さは、時々変化することになる車両の荷重に依存するという問題を解決している。彼らの方法は、車両が動いている間に地表の上方のカメラの高さを判定する。彼らはまず、少なくとも2つのカメラ画像内の2つの画像特徴に従ってカメラ座標内における地表面を定義し、次に、地表の上方のカメラの高さを判定する。ここで、カメラの高さを判定することは、特徴点の平均と地表面の法線との間の内積を算出することを含む。   Zhang et al., In reference [1], propose a method for self-calibration of the camera position relative to the ground surface for a camera mounted on a vehicle. They solve the problem that the height of the mounted camera depends on the load of the vehicle which will change from time to time. Their method determines the height of the camera above the ground while the vehicle is moving. They first define the ground surface in camera coordinates according to two image features in at least two camera images, and then determine the height of the camera above the ground surface. Here, determining the height of the camera includes calculating an inner product between the average of the feature points and the normal to the ground surface.

Breedは、参照文献[7]において、車両内の占有要素に関する情報を得るための方法を開示している。この方法は、占有要素が位置し得る車両内の区域の画像を必要とし、訓練されたニューラルネットワークを用いて画像内の要素を分類する。   Breed, in reference [7], discloses a method for obtaining information about occupancy elements in a vehicle. This method requires an image of the area in the vehicle where the occupancy element may be located, and uses a trained neural network to classify the elements in the image.

Breed、他は、参照文献[8]において、車両内に配置された単一のカメラから車両内の乗員又は占有要素の画像を取得し、単一のカメラから取得された画像を解析して、乗員又は占有要素の種類を判定することを提案している。   Breed et al., In reference [8], acquire images of occupants or occupants in a vehicle from a single camera located in the vehicle and analyze the images acquired from the single camera, It is proposed to determine the type of occupant or occupant.

Grossmann、他は、参照文献[2]において、表示装置に対するカメラ位置を、カメラによってキャプチャされた表示装置上に表示されたビジュアルコンテンツの画像に従って判定することを開示している。Osmanは、参照文献[3]において、表示装置に対するゲーム機のカメラの位置を特定するための方法を提案している。彼は、表示装置に対するカメラ位置を、カメラによってキャプチャされた表示装置上に表示されたビジュアルコンテンツの画像を解析することによって判定することを開示している。しかし、参照文献[2、3]は、表示装置を車両に搭載し、それに基づいて車両の機能を制御する動機付けはしていない。   Grossmann et al., In [2], disclose determining the position of the camera relative to the display according to the image of the visual content displayed on the display captured by the camera. Osman, in reference [3], proposes a method for determining the position of the camera of the gaming machine relative to the display device. He discloses determining the position of the camera relative to the display by analyzing an image of the visual content displayed on the display captured by the camera. However, references [2, 3] do not motivate the display device to be mounted on a vehicle and to control the functions of the vehicle based thereon.

本発明の目的は、ユーザが、位置又は運動に基づいて車両の少なくとも1つの機能を制御するために適した情報を提供することを可能にする方法及びシステムを提供することである。   An object of the present invention is to provide a method and system that allow a user to provide information suitable for controlling at least one function of a vehicle based on position or movement.

第1の態様によれば、車両座標系を提供された車両の少なくとも1つの機能を制御するための位置情報を提供するための方法であって、この方法は、モバイル機器のカメラによってキャプチャされた車両の少なくとも1つの部分の少なくとも1つの画像に関連付けられる画像情報を受信することであって、モバイル機器は車両から分離している、ことと、少なくとも1つの画像に関連付けられる画像情報に従って車両座標系内におけるモバイル機器に関連付けられる位置を判定することと、この位置に従って車両の少なくとも1つの機能を制御するために車両座標系内におけるモバイル機器に関連付けられる位置を指示する位置情報を提供することと、を含む、方法が提供される。   According to a first aspect, a method for providing position information for controlling at least one function of a vehicle provided with a vehicle coordinate system, the method being captured by a camera of a mobile device Receiving image information associated with at least one image of at least one portion of a vehicle, the mobile device being separate from the vehicle, and a vehicle coordinate system according to the image information associated with the at least one image Determining a position associated with the mobile device within the network, and providing position information indicating a position associated with the mobile device within the vehicle coordinate system to control at least one function of the vehicle according to the position; Methods are provided.

本発明は、最新の車両は、例えば、車両の内部において車両に対して既知の位置に、自動車内に着席している運転者及び/若しくは同乗者の方に向けて搭載された表示装置をしばしば備えているという事実、並びに携帯電話若しくはタブレットコンピュータなどのパーソナルモバイル機器はしばしばカメラを備えているという事実を有利に利用することができる。   According to the invention, modern vehicles are often equipped, for example, with a display mounted towards the driver and / or passenger seated in the vehicle at a known position relative to the vehicle inside the vehicle. The fact of being equipped, as well as the fact that personal mobile devices such as cell phones or tablet computers are often equipped with cameras, can be used to advantage.

本発明によれば、車両の少なくとも1つの機能は、カメラを備えるモバイル機器に関連付けられる判定された位置に基づいて制御されてもよい。この位置は、カメラを用いて車両の一部分の少なくとも1つの画像をキャプチャすることによって判定される。例えば、車両のキャプチャされる部分は、自動車に搭載された表示装置上に表示されたビジュアルコンテンツを含む。このように、本発明は、ユーザが、判定された位置に基づいて車両の少なくとも1つの機能を制御するために、車両の内部の位置を判定することを可能にする方法及びシステムを提供する。例えば、車両の音響システム、照明システム及び/又は空気調節の機能がモバイル機器の位置に従って制御されてもよい。   According to the invention, at least one function of the vehicle may be controlled based on the determined position associated with the mobile device comprising the camera. This position is determined by capturing at least one image of a portion of the vehicle using a camera. For example, the captured portion of the vehicle includes visual content displayed on a display mounted on a car. Thus, the present invention provides methods and systems that allow the user to determine the position inside the vehicle to control at least one function of the vehicle based on the determined position. For example, the vehicle's sound system, lighting system and / or air conditioning functions may be controlled according to the position of the mobile device.

この目的を達成するために、一実施形態によれば、本発明は、例えば、車両に搭載された表示装置、モバイル機器のカメラ、及びモバイル機器のカメラによってキャプチャされた表示装置上に表示されたビジュアルコンテンツの画像を用いることによって、車両の座標系内におけるモバイル機器の位置を判定することを提案する。更に、車両の少なくとも1つの機能が、判定された位置に基づいて制御される。例えば、機能は、音響システム、アンビエントライトシステム、空気調節システム、又はそれらの組み合わせなどの、車両のサブシステムに関連する。   In order to achieve this object, according to one embodiment, the present invention is displayed, for example, on a display device mounted on a vehicle, a camera of a mobile device and a display device captured by a camera of the mobile device It is proposed to determine the position of the mobile device within the coordinate system of the vehicle by using the image of the visual content. Furthermore, at least one function of the vehicle is controlled based on the determined position. For example, the functionality may relate to a subsystem of the vehicle, such as an acoustic system, an ambient light system, an air conditioning system, or a combination thereof.

一実施形態によれば、本方法は、車両座標系内における車両の少なくとも1つの部分の位置を提供又は受信することを更に含む。   According to one embodiment, the method further comprises providing or receiving the position of at least one portion of the vehicle within the vehicle coordinate system.

一実施形態によれば、車両の少なくとも1つの部分は、車両に搭載された表示装置上に表示されたビジュアルコンテンツを含む。   According to one embodiment, at least one portion of the vehicle includes visual content displayed on a display mounted on the vehicle.

一実施形態によれば、車両座標系内におけるモバイル機器に関連付けられる位置を判定することは、少なくとも1つの画像に関連付けられる画像情報に従って少なくとも1つの画像をキャプチャする際の車両の少なくとも1つの部分に対するカメラのカメラ位置を判定することと、車両座標系内におけるカメラ位置及び車両の少なくとも1つの部分の位置に従って車両座標系内におけるモバイル機器に関連付けられる位置を判定することと、を含む。   According to one embodiment, determining the position associated with the mobile device in the vehicle coordinate system comprises: at least one portion of the vehicle in capturing the at least one image according to image information associated with the at least one image Determining the camera position of the camera and determining the position associated with the mobile device in the vehicle coordinate system according to the camera position in the vehicle coordinate system and the position of at least one portion of the vehicle.

更なる実施形態によれば、少なくとも1つの画像は第1の画像であり、カメラは第1のカメラであり、車両座標系内におけるモバイル機器に関連付けられる位置を判定することは、モバイル機器の第2のカメラによってキャプチャされた車両の少なくとも1つの部分の第2の画像に関連付けられる画像情報を受信することと、第1の画像及び第2の画像に関連付けられる画像情報に従って車両の少なくとも1つの部分のモデルを復元することと、を含む。   According to a further embodiment, it is preferred that the at least one image is a first image and the camera is a first camera and determining the position associated with the mobile device in the vehicle coordinate system is the Receiving image information associated with the second image of the at least one portion of the vehicle captured by the two cameras, and at least one portion of the vehicle according to the image information associated with the first image and the second image And restore the model of.

更なる発展では、本方法は、モバイル機器の第3のカメラによってキャプチャされた第3の画像に関連付けられる画像情報を受信することであって、第3の画像は、復元されたモデルの少なくとも一部分によって表現された車両の少なくとも一部分(車両のこの少なくとも一部分は、上述された車両の少なくとも1つの部分と異なることができるであろう。ただし、車両の少なくとも一部分は、復元されたモデル内に含まれる)をキャプチャする、ことと、復元されたモデルの少なくとも一部分、及び第3の画像に関連付けられる画像情報に従って第3の画像をキャプチャする際の復元されたモデルに対する第3のカメラのカメラ位置を判定することと、第3のカメラのカメラ位置に従って車両座標系内におけるモバイル機器に関連付けられる位置を判定することと、を更に含む。   In a further development, the method comprises receiving image information associated with a third image captured by a third camera of the mobile device, the third image being at least a portion of the reconstructed model (At least a portion of the vehicle may differ from at least one portion of the vehicle described above, provided that at least a portion of the vehicle is included in the reconstructed model) Determining the camera position of the third camera with respect to the restored model in capturing the third image according to at least a portion of the restored model and the image information associated with the third image. And the mobile device in the vehicle coordinate system according to the camera position of the third camera Further includes determining a position.

一実施形態によれば、本方法は、第1の画像に関連付けられる画像情報の少なくとも一部分に従って第1の画像をキャプチャする際の車両の少なくとも1つの部分に対する第1のカメラのカメラ位置を判定することと、第2の画像に関連付けられる画像情報の少なくとも一部分に従って第2の画像をキャプチャする際の車両の少なくとも1つの部分に対する第2のカメラのカメラ位置を判定することと、を更に含む。   According to one embodiment, the method determines the camera position of the first camera relative to at least one portion of the vehicle in capturing the first image according to at least a portion of the image information associated with the first image And determining the camera position of the second camera with respect to at least one portion of the vehicle when capturing the second image according to at least a portion of the image information associated with the second image.

更なる発展によれば、車両の少なくとも1つの部分は車両の第1の部分であり、本方法は、モバイル機器の第4のカメラによってキャプチャされた第4の画像に関連付けられる画像情報を受信することであって、第4の画像は、車両の第1の部分の少なくとも一部分及び車両の少なくとも第2の部分をキャプチャする、ことと、復元されたモデルを、車両の第1の部分及び車両の第2の部分を含むべく拡張することと、を更に含む。   According to a further development, at least one part of the vehicle is a first part of the vehicle and the method receives image information associated with a fourth image captured by a fourth camera of the mobile device A fourth image capturing at least a portion of the first portion of the vehicle and at least a second portion of the vehicle; a restored model, the first portion of the vehicle and the vehicle And D. expanding to include the second portion.

好ましくは、復元されたモデルは車両の少なくとも一部分の奥行き情報を少なくとも記述する。   Preferably, the reconstructed model at least describes depth information of at least a portion of the vehicle.

一実施形態によれば、第1のカメラ、第2のカメラ、第3のカメラ、及び第4のカメラのうちの少なくとも2つは同じカメラである。   According to one embodiment, at least two of the first camera, the second camera, the third camera, and the fourth camera are the same camera.

別の実施形態によれば、第1のカメラ、第2のカメラ、第3のカメラ、及び第4のカメラのうちの少なくとも2つは異なるカメラである。   According to another embodiment, at least two of the first camera, the second camera, the third camera, and the fourth camera are different cameras.

一実施形態によれば、少なくとも1つの機能は、車両の音響システム、車両のアンビエントライトシステム、及び車両の空気調節システムのうちの少なくとも1つに関連し、位置に従って制御される機能である。   According to one embodiment, the at least one function is a function controlled according to position associated with at least one of a vehicle acoustic system, a vehicle ambient light system and a vehicle air conditioning system.

第1の態様によれば、また、車両座標系を提供された車両の少なくとも1つの機能を制御するための位置情報を提供するためのシステムであって、このシステムは、モバイル機器のカメラによってキャプチャされた車両の少なくとも1つの部分の少なくとも1つの画像に関連付けられる画像情報を受信するように構成される第1の処理装置であって、モバイル機器は車両から分離している、第1の処理装置と、少なくとも1つの画像に関連付けられる画像情報に従って車両座標系内におけるモバイル機器に関連付けられる位置を判定するように構成される第1の処理装置と、位置に従って車両の少なくとも1つの機能を制御するために車両座標系内におけるモバイル機器に関連付けられる位置を指示する位置情報を提供するように構成される第2の処理装置と、を備える、システムが提供される。   According to a first aspect, there is also provided a system for providing position information for controlling at least one function of a vehicle provided with a vehicle coordinate system, the system being captured by a camera of a mobile device A first processing device configured to receive image information associated with at least one image of at least one portion of the at least one vehicle, the mobile device being separate from the vehicle And a first processing unit configured to determine a position associated with the mobile device within the vehicle coordinate system according to the image information associated with the at least one image, and to control at least one function of the vehicle according to the position Configured to provide position information indicative of a position associated with the mobile device within the vehicle coordinate system Comprising a second processor, a system is provided.

第2の態様によれば、車両座標系を提供された車両の少なくとも1つの機能を制御するための運動情報を提供するためのシステムであって、モバイル機器の少なくとも1つのカメラによってキャプチャされた少なくとも2つの画像に関連付けられる画像情報を受信するように構成される第1の処理装置であって、モバイル機器は車両から分離しており、少なくとも2つの画像の各々は車両の少なくとも1つの部分をキャプチャする、第1の処理装置と、少なくとも2つの画像に関連付けられる画像情報に従って車両座標系に対するモバイル機器に関連付けられる運動を判定するように構成される第1の処理装置と、運動に従って車両の少なくとも1つの機能を制御するために車両座標系に対するモバイル機器に関連付けられる運動を指示する運動情報を提供するように構成される第2の処理装置と、を備える、システムが提供される。   According to a second aspect, a system for providing movement information for controlling at least one function of a vehicle provided with a vehicle coordinate system, the system comprising at least one camera captured by at least one camera of a mobile device. A first processing unit configured to receive image information associated with two images, wherein the mobile device is separate from the vehicle, and each of the at least two images captures at least one portion of the vehicle A first processing unit configured to determine motion associated with the mobile device relative to the vehicle coordinate system according to image information associated with the at least two images; and at least one of the vehicle according to the motion Direct the motion associated with the mobile device to the vehicle coordinate system to control one function And a second processing unit configured to provide dynamic information, a system is provided.

本明細書において説明されている以下の実施形態並びにその他の実施形態は、第1の態様及び第2の態様の両方に関して同等に適用可能である。   The following and other embodiments described herein are equally applicable for both the first and second aspects.

一実施形態によれば、第1の処理装置及び第2の処理装置は同じ処理装置である。   According to one embodiment, the first processing unit and the second processing unit are the same processing unit.

一実施形態によれば、第1の処理装置及び第2の処理装置の少なくとも一方はモバイル機器内に含まれる。別の実施形態によれば、第1の処理装置及び第2の処理装置の少なくとも一方は車両内に含まれる。更なる実施形態によれば、第1の処理装置及び第2の処理装置の少なくとも一方は、モバイル機器及び車両と通信するコンピュータ機器内に含まれる。   According to one embodiment, at least one of the first processing unit and the second processing unit is comprised in the mobile device. According to another embodiment, at least one of the first processing device and the second processing device is included in the vehicle. According to a further embodiment, at least one of the first processing unit and the second processing unit is comprised in a computing device in communication with the mobile device and the vehicle.

第2の態様によれば、また、車両座標系を提供された車両の少なくとも1つの機能を制御するための運動情報を提供するための方法であって、この方法は、モバイル機器の少なくとも1つのカメラによってキャプチャされた少なくとも2つの画像に関連付けられる画像情報を受信することであって、モバイル機器は車両から分離しており、少なくとも2つの画像の各々は車両の少なくとも1つの部分をキャプチャする、ことと、少なくとも2つの画像に関連付けられる画像情報に従って車両座標系に対するモバイル機器に関連付けられる運動を判定することと、運動に従って車両の少なくとも1つの機能を制御するために車両座標系に対するモバイル機器に関連付けられる運動を指示する運動情報を提供することと、を含む、方法が提供される。   According to a second aspect, there is also provided a method for providing motion information for controlling at least one function of a vehicle provided with a vehicle coordinate system, the method comprising the steps of: Receiving image information associated with the at least two images captured by the camera, the mobile device being separate from the vehicle, each of the at least two images capturing at least one portion of the vehicle And determining motion associated with the mobile device relative to the vehicle coordinate system according to image information associated with the at least two images, and associated with the mobile device relative to the vehicle coordinate system to control at least one function of the vehicle according to the motion Providing the exercise information for instructing the exercise; .

一実施形態によれば、車両座標系に対するモバイル機器に関連付けられる運動は、車両座標系内におけるモバイル機器に関連付けられる2つの位置に従って判定することができる。モバイル機器に関連付けられる2つの位置は、少なくとも2つの画像に関連付けられる画像情報に従ってそれぞれ判定することができる。少なくとも2つの画像の各々の内部にキャプチャされた車両の少なくとも1つの部分は共通部分を有するか、又は異なってもよい。   According to one embodiment, the movement associated with the mobile device relative to the vehicle coordinate system may be determined according to two positions associated with the mobile device within the vehicle coordinate system. The two positions associated with the mobile device can each be determined according to the image information associated with the at least two images. At least one portion of the vehicle captured within each of the at least two images may have a common portion or may be different.

更なる実施形態によれば、車両座標系に対するモバイル機器に関連付けられる運動は、少なくとも2つの画像をキャプチャする際の少なくとも1つのカメラの2つのカメラ位置に従って判定することができる。   According to a further embodiment, the movement associated with the mobile device with respect to the vehicle coordinate system can be determined according to two camera positions of the at least one camera in capturing the at least two images.

モバイル機器に関連付けられる位置を判定することに関する第1の態様について以上又は以下において説明されている本発明の態様及び実施形態は、モバイル機器に関連付けられる運動を判定することに関する第2の態様にも同等に適用することができる。   The aspects and embodiments of the invention described above or below with respect to the first aspect of determining the position associated with the mobile device also apply to the second aspect with respect to determining the movement associated with the mobile device. It is equally applicable.

一実施形態によれば、車両座標系に対するモバイル機器に関連付けられる運動は、少なくとも2つの画像の各々の内部にキャプチャされた車両の少なくとも1つの部分の画像位置に従って判定することができる。これは、少なくとも2つの画像の各々の内部にキャプチャされた車両の少なくとも1つの部分は同じであるか、又は共通部分を有することを必要とする。しかし、これは、車両座標系内における車両の少なくとも1つの部分の既知の位置を必要としない。   According to one embodiment, the movement associated with the mobile device relative to the vehicle coordinate system may be determined according to the image position of at least one portion of the vehicle captured within each of the at least two images. This requires that at least one portion of the vehicle captured within each of the at least two images be the same or have a common portion. However, this does not require the known position of at least one part of the vehicle in the vehicle coordinate system.

本発明によれば、車両の少なくとも1つの機能は、モバイル機器に関連付けられる判定された運動に基づいて制御されてもよい。例えば、車両の音響システム、照明システム及び/又は空気調節の機能がモバイル機器の運動に従って制御されてもよい。運動は、音響システムの音量を変更するために用いられてもよい。照明システムは、モバイル機器の判定された運動に従って現在の照射位置を新しい照射位置へ変更してもよい。例えば、判定された運動は、現在の照射位置から新しい照射位置までどのぐらい遠く離れるのかを規定してもよい。別の例では、判定された運動は回転を規定してもよく、それにより、照明システムはこの回転に従って現在の照射方向から新しい照射方向へ回転することができる。   According to the invention, at least one function of the vehicle may be controlled based on the determined movement associated with the mobile device. For example, the sound system of the vehicle, the lighting system and / or the function of air conditioning may be controlled according to the movement of the mobile device. Motion may be used to change the volume of the sound system. The illumination system may change the current illumination position to a new illumination position according to the determined movement of the mobile device. For example, the determined movement may define how far away from the current irradiation position to the new irradiation position. In another example, the determined movement may define a rotation, which allows the illumination system to rotate from the current illumination direction to the new illumination direction according to this rotation.

好ましくは、モバイル機器は、携帯電話、タブレットコンピュータ又はモバイルコンピュータなどの、ハンドヘルド機器である。   Preferably, the mobile device is a handheld device, such as a mobile phone, a tablet computer or a mobile computer.

例えば、車両の少なくとも1つの部分は、車両の製造元によって提供され得るであろう車両座標系内の位置を有する。   For example, at least one portion of the vehicle has a position in the vehicle coordinate system that may be provided by the manufacturer of the vehicle.

画像内にキャプチャされる車両の少なくとも1つの部分は車両の任意の物理的部分であることができるであろう。車両の少なくとも1つの部分は、車両に搭載された表示装置、又はこの表示装置の一部分を含んでもよい。車両の少なくとも1つの部分は、表示装置上に表示された1つ以上のビジュアルコンテンツを更に含んでもよい。   At least one portion of the vehicle captured in the image could be any physical portion of the vehicle. At least one portion of the vehicle may include a display mounted on the vehicle, or a portion of the display. At least one portion of the vehicle may further include one or more visual content displayed on the display device.

表示装置は情報の視覚的提示のための装置である。表示装置は、陰極線管(CRT:Cathode ray tube)、発光ダイオードディスプレイ(LED:Light-emitting diode display)及び液晶ディスプレイ(LCD:Liquid crystal display)などの、任意のディスプレイ技術又はディスプレイ材料に基づくことができるであろう。表示装置は、2次元平面ディスプレイ、又は曲面形状を有するディスプレイを含んでもよい。表示装置はまた、他と共に各々動かすことができるであろう、複数の平面サブディスプレイを含む折り畳み式表示装置であってもよい。   The display device is a device for visual presentation of information. The display may be based on any display technology or display material, such as a cathode ray tube (CRT), a light-emitting diode display (LED) and a liquid crystal display (LCD). It will be possible. The display device may include a two-dimensional flat display or a display having a curved shape. The display may also be a foldable display including a plurality of planar sub-displays, each of which could be moved with the other.

表示装置は車両に搭載されてもよい。それは、車両内に着席している運転者及び/又は同乗者の眼の方に向けて搭載されることが好ましい。それにより、運転者及び/又は同乗者は、表示装置上に表示されたビジュアルコンテンツを見ることができるであろう。例えば、表示装置は、車両の前部制御パネル上に搭載されるか、又は車両の前部座席の背面上に搭載されてもよい。   The display device may be mounted on a vehicle. It is preferably mounted towards the eyes of the driver and / or the passenger seated in the vehicle. Thereby, the driver and / or the passenger will be able to view the visual content displayed on the display device. For example, the display may be mounted on the front control panel of the vehicle or mounted on the back of the front seat of the vehicle.

表示装置は、メニュー、地図、ソフトウェアプログラムのグラフィカルユーザインタフェースなどを表示するために用いることができるであろう。   The display could be used to display menus, maps, graphical user interfaces of software programs, etc.

ビジュアルコンテンツは、解剖学的な眼又は光学撮像装置が視覚的に知覚可能な任意の情報である。例えば、ビジュアルコンテンツは、人間の眼又はカメラによってキャプチャされることが可能であろう可視光を放射又は反射してもよい。ビジュアルコンテンツはまた、人間の眼によってキャプチャされることは不可能であろうが、カメラによってキャプチャされることは可能であろう不可視光を放出又は反射してもよい。ビジュアルコンテンツは、テキスト、図、コンピュータによって生成されるか、若しくはカメラによってキャプチャされた画像、記号、絵、それらの組み合わせ、又はそれらの各々の一部分であることができるであろう。例えば、ビジュアルコンテンツは、メニュー、ボタン、アイコン、デジタル地図、ソフトウェアプログラムのグラフィカルユーザインタフェース、それらの組み合わせ、又はそれらの各々の一部分であってもよい。ビジュアルコンテンツは表示装置上に表示されることができる。   Visual content is any information that an anatomical eye or optical imaging device can visually perceive. For example, visual content may emit or reflect visible light that may be captured by the human eye or camera. Visual content may also emit or reflect invisible light that may not be captured by the human eye but may be captured by a camera. The visual content could be text, diagrams, computer-generated or camera-captured images, symbols, pictures, combinations thereof, or portions of each of them. For example, the visual content may be menus, buttons, icons, digital maps, graphical user interfaces of software programs, combinations thereof, or portions of each of them. Visual content can be displayed on a display device.

モバイル機器は持ち運び可能であり、1つ以上のカメラを備える。1つ以上のカメラはモバイル機器に対する既知の位置を有してもよい。モバイル機器はカメラのみであることができるであろう。例えば、モバイル機器は、カメラ、第1のカメラ、第2のカメラ、第3のカメラ、及び/又は第4のカメラのいずれにもなる。即ち、モバイル機器及びそれぞれのカメラは同じ機器である。   The mobile device is portable and comprises one or more cameras. One or more cameras may have a known position relative to the mobile device. The mobile device could be a camera only. For example, the mobile device may be a camera, a first camera, a second camera, a third camera, and / or a fourth camera. That is, the mobile device and each camera are the same device.

一実施形態では、モバイル機器は、演算プロセッサなどの、少なくとも1つの処理装置を有してもよい。別の実施形態では、モバイル機器は演算プロセッサを有しなくてもよいが、データ(例えば、カメラによってキャプチャされた画像の画像データ)を別の機器(例えば、車両)へ伝送するための伝送器を有してもよい。モバイル機器は、限定するものではないが、携帯電話、タブレットコンピュータ、又はラップトップであることができるであろう。カメラはモバイル機器から分離していてもよいが、ケーブルを介するか、又は無線でモバイル機器と通信する。   In one embodiment, the mobile device may have at least one processing unit, such as a computing processor. In another embodiment, the mobile device may not have a computing processor, but a transmitter for transmitting data (e.g., image data of an image captured by a camera) to another device (e.g., a vehicle) May be included. The mobile device could be, but is not limited to, a mobile phone, a tablet computer, or a laptop. The camera may be separate from the mobile device, but communicates with the mobile device via a cable or wirelessly.

1つ以上のカメラは、光学情報の画像情報をキャプチャすることができるであろう光学撮像装置である。   One or more cameras are optical imaging devices that could capture image information of optical information.

本提案の発明は、画像を提供する任意のカメラを用いて適用することができる。それは、RGB形式のカラー画像を提供するカメラに限定されない。それは、任意の他の色形式、及び同様に、モノクロ画像、例えば、グレースケール形式の画像を提供するカメラに適用することもできる。カメラは、奥行きデータを有する画像を更に提供してもよい。奥行きデータは、(カラー/グレースケール)画像と同じ解像度で提供される必要はない。奥行きデータを有する画像を提供するカメラはしばしばRGB−Dカメラと呼ばれる。RGB−Dカメラシステムはタイムオブフライト(TOF:time of flight)カメラシステムであることができるであろう。カメラはまた、赤外光などの、人間の眼に不可視の光をキャプチャしてもよい。例えば、カメラは熱画像カメラであってもよい。   The proposed invention can be applied using any camera that provides an image. It is not limited to cameras that provide color images in RGB format. It can also be applied to cameras that provide monochrome images, such as grayscale images, as well as any other color format. The camera may further provide an image having depth data. Depth data need not be provided at the same resolution as the (color / grayscale) image. Cameras that provide images with depth data are often referred to as RGB-D cameras. The RGB-D camera system could be a time of flight (TOF) camera system. The camera may also capture light that is invisible to the human eye, such as infrared light. For example, the camera may be a thermal imaging camera.

車両座標系内におけるカメラの位置は、車両座標系内における、平行移動、若しくは回転、又はそれらの組み合わせを含んでもよい。   The position of the camera in the vehicle coordinate system may include translation, rotation, or a combination thereof in the vehicle coordinate system.

表示されるビジュアルコンテンツの視覚的外観は、形状、テクスチャ、幾何配置又はそれらの組み合わせを記述する。視覚的外観は色情報を含んでもよいか、又は含まなくてもよい。   The visual appearance of the visual content displayed describes the shape, texture, geometry or a combination thereof. The visual appearance may or may not include color information.

オブジェクトの物理的幾何配置は、それが現実の世界内にある時の、オブジェクトのサイズ、形状、寸法、平面性、又はそれらの組み合わせを記述する。   The physical geometry of an object describes the size, shape, dimensions, planarity, or combinations thereof of the object when it is in the real world.

表示装置の解像度は、その表示区域上に表示することができる各次元における別個の画素の数である。表示装置は既知の解像度を有してもよい。表示装置はその表示区域についての既知の物理的幾何配置を更に有してもよい。表示装置の物理的幾何配置とは表示装置の表示区域の物理的幾何配置を指す。表示装置の座標系内における表示されたビジュアルコンテンツの画素位置、並びに表示装置の解像度及び物理的幾何配置を有することで、表示されたビジュアルコンテンツと表示装置との空間関係を判定することができる。これは、表示装置に対する表示されたビジュアルコンテンツの位置を規定する。更に、表示されたビジュアルコンテンツの物理的幾何配置も判定することができる。車両座標系内における表示されたビジュアルコンテンツの位置は、表示装置に対する表示されたビジュアルコンテンツの位置及び車両座標系に対する表示装置の位置に従って判定されてもよい。   The resolution of a display is the number of distinct pixels in each dimension that can be displayed on its display area. The display may have a known resolution. The display device may further have a known physical geometry of its display area. The physical geometry of the display refers to the physical geometry of the display area of the display. By having the pixel position of the displayed visual content in the coordinate system of the display, and the resolution and physical geometry of the display, the spatial relationship between the displayed visual content and the display can be determined. This defines the position of the displayed visual content relative to the display device. Additionally, the physical geometry of the displayed visual content can also be determined. The position of the displayed visual content in the vehicle coordinate system may be determined according to the position of the displayed visual content relative to the display and the position of the display relative to the vehicle coordinate system.

第1のカメラによって第1の画像がキャプチャされる間の車両の少なくとも一部分に対するカメラのカメラ位置は、画像の少なくとも一部分に従って判定することができる。車両の少なくとも一部分の物理的幾何配置を有することで、2D−3D点対応に基づく方法(例えば、参照文献[9]参照)などの、様々な視覚ベースのカメラ位置推定方法をカメラ位置の判定に利用することができる。   The camera position of the camera relative to at least a portion of the vehicle while the first image is captured by the first camera may be determined according to at least a portion of the image. Having at least a portion of the physical geometry of the vehicle, various vision-based camera position estimation methods, such as methods based on 2D-3D point correspondence (see, for example, reference [9]) for determining camera position It can be used.

特に、表示されたビジュアルコンテンツを含む車両の少なくとも一部分を有することが好ましい。それゆえ、カメラの画像は、表示されたビジュアルコンテンツをキャプチャする。ビジュアルコンテンツは、視覚ベースのカメラ位置推定を強力にする、鮮やかなテクスチャ及び特徴(例えば、対照的な角部又は縁部)を提供することができるであろう。本例では、カメラのカメラ位置は、車両に搭載された表示装置に対して判定することができる。車両座標系に対する表示装置の位置は、例えば、車両の製造元から提供されることができるであろう。   In particular, it is preferred to have at least a portion of the vehicle containing the displayed visual content. Therefore, the camera image captures the displayed visual content. Visual content could provide vivid textures and features (eg, contrasting corners or edges) that enhance vision-based camera position estimation. In this example, the camera position of the camera can be determined with respect to the display device mounted on the vehicle. The position of the display relative to the vehicle coordinate system could, for example, be provided by the manufacturer of the vehicle.

表示されたビジュアルコンテンツの既知の視覚的外観、及びその物理的幾何配置を有することで、第1の画像の画像情報の少なくとも一部分に従って正確なスケールファクタを用いてビジュアルコンテンツに対するカメラのカメラ位置を判定することができる。カメラ位置の推定は、キャプチャされた画像の画像特徴と、表示装置上に表示されたビジュアルコンテンツの対応する特徴との間の対応に基づくことができるであろう。このとき、車両座標系内におけるカメラ位置は、表示されたビジュアルコンテンツに対するカメラ位置、及び車両座標系内における表示されたビジュアルコンテンツの位置に従って判定される。   Having the known visual appearance of the displayed visual content and its physical geometry determine the camera position of the camera relative to the visual content using an accurate scale factor according to at least a portion of the image information of the first image can do. The estimation of the camera position could be based on the correspondence between image features of the captured image and corresponding features of the visual content displayed on the display. At this time, the camera position in the vehicle coordinate system is determined according to the camera position with respect to the displayed visual content and the position of the displayed visual content in the vehicle coordinate system.

カメラが画像をキャプチャする間の車両座標系内におけるカメラのカメラ位置は、車両の少なくとも1つの部分に対するカメラ位置、及び車両座標系内における車両の少なくとも1つの部分の位置から判定することができる。   The camera position of the camera within the vehicle coordinate system while the camera captures an image can be determined from the camera position relative to at least one portion of the vehicle and the position of at least one portion of the vehicle within the vehicle coordinate system.

一例では、車両座標系内におけるカメラの位置は、車両の少なくとも1つの機能を制御するために車両に提供することができる位置を決定することができるであろう。モバイル機器に関連付けられる位置は車両座標系内におけるカメラの位置と同じであってもよい。モバイル機器に関連付けられる位置は、車両座標系内におけるカメラの位置からの空間的変位を有してもよい。   In one example, the position of the camera within the vehicle coordinate system could determine the position that can be provided to the vehicle to control at least one function of the vehicle. The position associated with the mobile device may be the same as the position of the camera in the vehicle coordinate system. The position associated with the mobile device may have a spatial displacement from the position of the camera within the vehicle coordinate system.

別の例では、車両座標系内におけるカメラの位置は、モバイル機器に関連付けられる位置を指定するために適切でない場合がある。例えば、カメラの位置は、少なくとも1つの機能を制御するべく車両に提供されるための所望の位置ではない場合がある。   In another example, the position of the camera within the vehicle coordinate system may not be appropriate to specify the position associated with the mobile device. For example, the position of the camera may not be the desired position to be provided to the vehicle to control at least one function.

一実施形態によれば、本発明は、モバイル機器の第2のカメラによって車両の少なくとも1つの部分の第2の画像を更にキャプチャすることを提案する(上述のカメラ及び画像はそれぞれ第1のカメラ及び第1の画像とする)。第2の画像及び第1の画像は、第2のカメラ及び第1のカメラが異なる位置にある時にキャプチャされる。   According to an embodiment, the invention proposes to further capture a second image of at least one part of the vehicle by a second camera of the mobile device (the above-mentioned camera and image are respectively the first camera And the first image). The second image and the first image are captured when the second camera and the first camera are in different positions.

第2の画像がキャプチャされる間の車両の少なくとも1つの部分に対するカメラの第2のカメラ位置は、第2の画像の少なくとも一部分に従って判定されてもよい。開示された、第1のカメラのカメラ位置を判定する方法は、第2のカメラのカメラ位置を判定するために用いられてもよい。   The second camera position of the camera relative to at least one portion of the vehicle while the second image is captured may be determined according to at least a portion of the second image. The disclosed method of determining the camera position of the first camera may be used to determine the camera position of the second camera.

第1及び第2の画像、並びに第1及び第2のカメラのカメラ位置に従って、車両の少なくとも1つの部分のモデルが復元されてもよい。   A model of at least one portion of the vehicle may be restored according to the first and second images and the camera positions of the first and second cameras.

モデルの復元の一実施形態では、第1及び第2の画像内の車両の少なくとも1つの部分の画像特徴間の対応が判定される。次に、三角測量方法を用いて、画像特徴対応、並びに第1のカメラ及び第2のカメラのカメラ位置からモデルを決定することができる。例えば、参照文献[9]を参照されたい。   In one embodiment of model reconstruction, a correspondence between image features of at least one portion of the vehicle in the first and second images is determined. The triangulation method can then be used to determine a model from image feature correspondence as well as the camera position of the first camera and the second camera. See, for example, reference [9].

オブジェクトのモデルは、上述されたように、オブジェクトの少なくとも一部分の奥行き情報を少なくとも記述する。モデルは、限定するものではないが、以下の属性、形状、対称性、平面性、幾何学的サイズ、色、テクスチャ及び密度のうちの1つを更に含んでもよい。   The model of the object at least describes depth information of at least a portion of the object, as described above. The model may further include, but is not limited to, one of the following attributes: shape, symmetry, planarity, geometric size, color, texture and density.

第1及び第2の画像内にキャプチャされた車両の少なくとも1つの部分の物理的幾何配置は既知であることができるため、例えば、参照文献[4]に教示されているように、復元されたモデルのための正確なスケールファクタを決定することができるであろう。復元されたモデルは、3D頂点、これらの頂点によって張られる多角形面及び/又は辺として表現することができる。モデルの辺及び面はまた、スプライン又はNURBS表面として表現されてもよい。   The physical geometry of the at least one portion of the vehicle captured in the first and second images can be known, for example, restored as taught in reference [4] It will be possible to determine the exact scale factor for the model. The reconstructed model can be represented as 3D vertices, polygonal faces and / or edges spanned by these vertices. The sides and faces of the model may also be represented as splines or NURBS surfaces.

復元されたモデルは車両座標系内において決定されてもよい。復元されたモデルはまた、それ自体の座標系などの、任意の座標系内において決定されてもよい。この場合には、復元されたモデルは、車両座標系内における車両の少なくとも1つの部分の位置に基づいて車両座標系に関連付けることができる。   The restored model may be determined in the vehicle coordinate system. The reconstructed model may also be determined in any coordinate system, such as its own coordinate system. In this case, the restored model can be associated with the vehicle coordinate system based on the position of at least one portion of the vehicle within the vehicle coordinate system.

一実施形態によれば、モバイル機器の第3のカメラが第3の画像をキャプチャしてもよい。第3の画像は、復元されたモデルの少なくとも一部分によって表現される、車両の一部分を含む。車両のその部分は、第1のカメラによってキャプチャされた車両の少なくとも1つの部分を含む必要はないか、又はその一部分のみを含む。特に、第3の画像内にキャプチャされた車両の部分は、車両の表示装置、又は表示装置上に表示された任意のビジュアルコンテンツを含む必要はない。   According to one embodiment, a third camera of the mobile device may capture a third image. The third image comprises a portion of the vehicle that is represented by at least a portion of the reconstructed model. The portion of the vehicle need not include at least one portion of the vehicle captured by the first camera, or only a portion thereof. In particular, the portion of the vehicle captured in the third image need not include the display of the vehicle or any visual content displayed on the display.

第3の画像がキャプチャされる間のモデルに対する第3のカメラのカメラ位置は、復元されたモデルの少なくとも一部分、及び第3の画像の少なくとも一部分に従って判定されてもよい。例えば、SLAM方法(参照文献[4]参照)を第3のカメラのカメラ位置の判定に利用することができるであろう。   The camera position of the third camera relative to the model while the third image is captured may be determined according to at least a portion of the reconstructed model and at least a portion of the third image. For example, the SLAM method (see reference [4]) could be used to determine the camera position of the third camera.

一例では、第3のカメラが第3の画像をキャプチャする間の車両座標系内における第3のカメラの位置は、車両座標系内におけるモバイル機器に関連付けられる位置を判定するために用いられてもよい。モバイル機器に関連付けられる位置は車両座標系内における第3のカメラの位置と同じであってもよい。車両座標系内におけるモバイル機器に関連付けられる位置は、車両座標系内における第3のカメラの位置からの空間的変位を有してもよい。   In one example, the position of the third camera in the vehicle coordinate system while the third camera captures the third image is also used to determine the position associated with the mobile device in the vehicle coordinate system Good. The position associated with the mobile device may be the same as the position of the third camera in the vehicle coordinate system. The position associated with the mobile device in the vehicle coordinate system may have a spatial displacement from the position of the third camera in the vehicle coordinate system.

車両座標系内における第3のカメラのカメラ位置は、モデルに対する第3のカメラのカメラ位置、及びモデルと車両座標系との空間関係から判定することができる。   The camera position of the third camera in the vehicle coordinate system can be determined from the camera position of the third camera relative to the model and the spatial relationship between the model and the vehicle coordinate system.

更に、モデルは、車両座標系内におけるモバイル機器のカメラ(単数又は複数)を追跡し、及び/又は復元されたモデルを、車両の他の復元された部分を追加することによって拡張するための、参照文献[4、5、6]において説明されている方法などの、視覚ベースの同時位置特定及び地図生成(SLAM:Simultaneous Localization and Mapping)方法を初期化するために更に用いることができる。   Furthermore, the model tracks the camera (s) of the mobile device in the vehicle coordinate system and / or extends the reconstructed model by adding other reconstructed parts of the vehicle. It can further be used to initialize vision-based Simultaneous Localization and Mapping (SLAM) methods, such as those described in references [4, 5, 6].

例えば、車両の少なくとも1つの第2の部分の第4の画像がモバイル機器の第4のカメラによってキャプチャされる。第4の画像は、復元されたモデルの少なくとも一部分によって表現された車両の一部分を更にキャプチャしてもよい。その後、復元されたモデルは、SLAM方法に基づいて車両の第1の部分及び第2の部分を有するように拡張することができるであろう。これは、車両の部分、及び車両の部分の復元されたモデルの少なくとも一部分の画像位置を一致させることに基づいて、第4の画像をキャプチャする間のモデルに対する第4のカメラのカメラ姿勢を計算することを必要とする場合がある。   For example, a fourth image of at least one second portion of the vehicle is captured by a fourth camera of the mobile device. The fourth image may further capture a portion of the vehicle represented by at least a portion of the reconstructed model. Thereafter, the reconstructed model could be extended to have the first and second parts of the vehicle based on the SLAM method. This calculates the camera pose of the fourth camera relative to the model while capturing the fourth image based on matching the image positions of the vehicle portion and at least a portion of the reconstructed model of the portion of the vehicle You may need to

モバイル機器に関連付けられる位置は、車両座標系内におけるモバイル機器のカメラのカメラ位置に従って判定することができる。カメラ位置は、SLAM方法に基づいて、復元されたモデルの少なくとも一部分、及びカメラによってキャプチャされた少なくとも1つの画像に従って推定することができるであろう。このために、少なくとも1つの画像は、復元されたモデルの少なくとも一部分によって表現された車両の一部分をキャプチャする。モバイル機器に関連付けられる位置は、カメラが少なくとも1つの画像をキャプチャする間のカメラの位置と同じであってもよい。   The position associated with the mobile device can be determined according to the camera position of the mobile device's camera in the vehicle coordinate system. The camera position could be estimated according to at least a portion of the reconstructed model and at least one image captured by the camera based on the SLAM method. To this end, the at least one image captures a portion of the vehicle represented by at least a portion of the reconstructed model. The position associated with the mobile device may be the same as the position of the camera while the camera captures at least one image.

車両座標系内におけるモバイル機器に関連付けられる、判定された位置又は判定された運動は、位置又は運動に従って車両の少なくとも1つの機能を制御するために、車両に提供することができる。少なくとも1つの機能は車両の1つ以上のサブシステムに関連してもよい。車両のサブシステムは、限定するものではないが、音響システム、アンビエントライトシステム、及び空気調節システムであることができるであろう。   The determined position or determined motion associated with the mobile device within the vehicle coordinate system may be provided to the vehicle to control at least one function of the vehicle according to the position or motion. At least one function may be associated with one or more subsystems of the vehicle. The vehicle subsystem could be, but is not limited to, an acoustic system, an ambient light system, and an air conditioning system.

少なくとも1つの機能は、車両座標系内におけるモバイル機器に関連付けられる判定された位置に従って車両の1つ以上のサブシステムを制御又は設定することができるであろう。例えば、位置は、アンビエントライトシステムが照射するべき空間区域、又は空気調節システムが温度を監視するべき空間区域の中心位置を指定することができるであろう。受聴区域も位置によって指定することが可能になり得、それにより、音響システムは、それを、指定された受聴区域の方へ指向させるべく制御又は調整されるであろう。   At least one function could control or configure one or more subsystems of the vehicle according to the determined position associated with the mobile device within the vehicle coordinate system. For example, the position could specify the central location of the space area that the ambient light system should illuminate, or the space area where the air conditioning system should monitor temperature. The listening area may also be designated by position so that the sound system will be controlled or adjusted to direct it towards the designated listening area.

モバイル機器は車両と直接、又はコンピュータネットワークを介して通信してもよい。モバイル機器は、他の機器を介して、例えば、ウェブサービスコンピュータを介して、車両と間接的に通信してもよい。   The mobile device may communicate with the vehicle directly or via a computer network. The mobile device may communicate indirectly with the vehicle via other devices, for example via a web services computer.

コンピュータネットワークは、システム、ソフトウェアアプリケーション、及びユーザの間の通信及びデータ交換を可能にするために処理装置(例えば、コンピュータ)を接続する電気通信ネットワークであってもよい。処理装置は、ケーブルを介して、若しくは無線で、又はケーブルを介することと無線の両方によって接続されてもよい。例えば、コンピュータネットワークは、インターネット、イントラネット、ローカルエリアネットワーク、又はワイドエリアネットワークであることができるであろう。   A computer network may be a telecommunications network that connects processing devices (eg, computers) to enable communication and data exchange between systems, software applications, and users. The processing devices may be connected via a cable or wirelessly, or both via a cable and wirelessly. For example, the computer network could be the Internet, an intranet, a local area network, or a wide area network.

一実施形態では、モバイル機器は1つのカメラを備えてもよい。第1のカメラ、第2のカメラ、第3のカメラ、及び第4のカメラは同じカメラである。   In one embodiment, the mobile device may comprise one camera. The first camera, the second camera, the third camera, and the fourth camera are the same camera.

別の実施形態では、モバイル機器は少なくとも2つのカメラを備えてもよい。第1のカメラ、第2のカメラ、第3のカメラ、及び第4のカメラのうちの少なくとも2つは異なるカメラである。   In another embodiment, the mobile device may comprise at least two cameras. At least two of the first camera, the second camera, the third camera, and the fourth camera are different cameras.

別の実施形態では、第1のカメラ、第2のカメラ、第3のカメラ、及び第4のカメラのうちの少なくとも2つは同じカメラである。   In another embodiment, at least two of the first camera, the second camera, the third camera, and the fourth camera are the same camera.

第1のカメラ、第2のカメラ、第3のカメラ、及び/又は第4のカメラのためのカメラ固有パラメータが、提供されるか、又はカメラ校正方法に基づいて校正されてもよい。カメラ固有パラメータは、カメラ画像に基づいてカメラ位置又はカメラ運動を判定するために用いられてもよい。   Camera specific parameters for the first camera, the second camera, the third camera, and / or the fourth camera may be provided or calibrated based on a camera calibration method. The camera specific parameters may be used to determine camera position or camera motion based on the camera image.

一実施形態では、本発明に係るシステムはモバイル機器と電子的に結合されるか、又はその一部であることができるであろう。それは車両から分離していることができるであろう。システムは、ケーブルを介して、無線で、又はコンピュータネットワークを介して車両と通信してもよい。システムは、車両座標系内におけるモバイル機器に関連付けられる位置又は運動を判定し、この位置又は運動を、少なくとも1つの機能を制御するために車両へ送信することができるであろう。   In one embodiment, a system according to the invention could be electronically coupled to or part of a mobile device. It could be separate from the vehicle. The system may communicate with the vehicle via a cable, wirelessly or via a computer network. The system could determine the position or movement associated with the mobile device within the vehicle coordinate system, and this position or movement could be transmitted to the vehicle to control at least one function.

更なる実施形態では、システムは車両から車両情報を受信することができるであろう。車両情報は、車両座標系、表示されたビジュアルコンテンツの視覚的外観、表示のために用いられる表示装置の解像度、車両座標系内における表示装置(即ち、車両の少なくとも1つの部分)の位置、表示装置(即ち、車両の少なくとも1つの部分)の物理的幾何配置のうちの少なくとも1つ、又はそれらの組み合わせを含んでもよい。   In a further embodiment, the system will be able to receive vehicle information from the vehicle. Vehicle information may include a vehicle coordinate system, the visual appearance of the displayed visual content, the resolution of the display used for display, the position of the display (ie at least one portion of the vehicle) within the vehicle coordinate system, the display It may include at least one of the physical geometry of the device (i.e., at least one portion of the vehicle), or a combination thereof.

別の実施形態では、システムは、車両と電子的に結合されるか、又はその一部であり、モバイル機器から分離していることができるであろう。システムは、ケーブルを介して、無線で、又はコンピュータネットワークを介してモバイル機器と通信してもよい。モバイル機器はカメラ画像をシステムへ送信することができるであろう。モバイル機器は、カメラ固有パラメータ(例えば、焦点距離及び主点)をシステムへ送信することを更に必要とする場合がある。カメラ固有パラメータは、カメラ画像に基づいてカメラ位置を判定するために用いられてもよい。   In another embodiment, the system could be electronically coupled to or part of the vehicle and be separate from the mobile device. The system may communicate with the mobile device via a cable, wirelessly or via a computer network. The mobile device will be able to transmit camera images to the system. The mobile device may further need to transmit camera specific parameters (e.g. focal length and principal point) to the system. The camera specific parameters may be used to determine the camera position based on the camera image.

別の実施形態では、システムはモバイル機器から分離し、車両から分離していることができるであろう。システムは、ケーブルを介して、無線で、又はコンピュータネットワークを介してモバイル機器及び/又は車両と通信してもよい。システムは車両から車両情報を受信し、モバイル機器からカメラ画像及びカメラ固有パラメータを受信することができるであろう。その後、システムは、車両座標系内におけるモバイル機器に関連付けられる位置又は運動を判定し、この位置又は運動を、少なくとも1つの機能を制御するために、車両、又は少なくとも1つの機能に関連する車両の1つ以上のサブシステムへ送信することができるであろう。   In another embodiment, the system could be separate from the mobile device and separate from the vehicle. The system may communicate with the mobile device and / or the vehicle via a cable, wirelessly or via a computer network. The system will be able to receive vehicle information from the vehicle and receive camera images and camera specific parameters from the mobile device. The system then determines the position or movement associated with the mobile device within the vehicle coordinate system, and controls the at least one function of the position or movement of the vehicle or of the vehicle associated with the at least one function. It could be sent to more than one subsystem.

別の態様によれば、本発明はまた、本発明に係る方法を実行するように適合されるソフトウェアコードセクションを含むコンピュータプログラム製品に関する。特に、コンピュータプログラム製品はコンピュータ可読媒体上に包含され、非一時的なものである。ソフトウェアコードセクションは、本明細書において説明されているとおりの処理装置のうちの1つ以上のメモリ上にロードされてもよい。   According to another aspect, the invention also relates to a computer program product comprising a software code section adapted to perform the method according to the invention. In particular, the computer program product is embodied on a computer readable medium and is non-transitory. The software code section may be loaded onto one or more memories of the processing device as described herein.

一実施形態によれば、本方法は、携帯電話などの、モバイル機器の1つ以上の処理装置上で実行し、車両と直接、又は間接的に通信するアプリケーションとして実行されてもよい。   According to one embodiment, the method may be implemented as an application executing on one or more processing devices of a mobile device, such as a mobile phone, in direct or indirect communication with a vehicle.

別の実施形態によれば、本方法は、車両の1つ以上の処理装置上で実行し、モバイル機器及び/又はカメラと直接、又は間接的に通信するアプリケーションとして実行されてもよい。   According to another embodiment, the method may be implemented as an application executing on one or more processing devices of the vehicle and communicating directly or indirectly with the mobile device and / or the camera.

別の実施形態によれば、本方法は、モバイルコンピュータ又はパーソナルコンピュータなどの、コンピュータの1つ以上の処理装置上で実行し、モバイル機器及び/若しくはカメラ、並びに車両と直接、又は間接的に通信するアプリケーションとして実行されてもよい。   According to another embodiment, the method runs on one or more processing devices of a computer, such as a mobile computer or a personal computer, and communicates directly or indirectly with mobile devices and / or cameras and vehicles. May be implemented as an application.

これより、図面に関して本発明の態様及び実施形態を説明する。   Aspects and embodiments of the invention will now be described with reference to the drawings.

本発明の例示的な実施形態のフローチャートを示す。3 shows a flowchart of an exemplary embodiment of the present invention. 本発明の別の例示的な実施形態のフローチャートを示す。Fig. 6 shows a flow chart of another exemplary embodiment of the present invention. 本発明の一実施形態に係る例示的な場面を示す。3 illustrates an exemplary scene according to an embodiment of the present invention.

以下において、図1〜図3に示されるとおりの例示的な実施形態を参照して本発明の態様及び実施形態を説明する。以下の実施形態は携帯電話の使用に関連して説明されるが、本発明は原理上、画像をキャプチャするためのカメラとの特定の空間関係を通じて関連付けられる任意のモバイル機器を用いて適用することができる。   In the following, aspects and embodiments of the present invention will be described with reference to the exemplary embodiments as shown in FIGS. Although the following embodiments are described in connection with the use of a mobile phone, the invention applies in principle with any mobile device that is associated through a specific spatial relationship with the camera for capturing the image. Can.

図3は、車両3001の一部分が前部制御パネル3009及び光源3007を含む、車両環境の例示的な場面を示す。表示装置は、前部制御パネル3009に搭載されたスクリーン3004を含む。スクリーン3004上に表示されている、あり得るビジュアルコンテンツは2D地図3005であるが、同様に、任意の他のビジュアルコンテンツであってもよい。車両座標系3006が車両3001に関連付けられる。   FIG. 3 illustrates an exemplary scene of a vehicle environment, wherein a portion of a vehicle 3001 includes a front control panel 3009 and a light source 3007. The display device includes a screen 3004 mounted on the front control panel 3009. Possible visual content displayed on the screen 3004 is a 2D map 3005, but may likewise be any other visual content. A vehicle coordinate system 3006 is associated with the vehicle 3001.

図3に示される例示的な場面において、本明細書において用いられる時のモバイル機器は、カメラ3003を備える携帯電話3002である。カメラ3003のカメラ固有パラメータがモバイル機器に提供される。   In the exemplary scene shown in FIG. 3, the mobile device as used herein is a mobile phone 3002 comprising a camera 3003. Camera specific parameters of the camera 3003 are provided to the mobile device.

あり得る使用シナリオでは、車両3001はコンピュータサーバを介して車両情報を無線で携帯電話3002へ送信する。車両情報は、表示された2D地図3005の画像情報(即ち、視覚的外観)の少なくとも一部分、スクリーン3004の解像度、車両座標系3006内におけるスクリーン3004の位置、並びにスクリーン3004の形状及びサイズを含む。   In a possible use scenario, vehicle 3001 wirelessly transmits vehicle information to mobile phone 3002 via a computer server. Vehicle information includes at least a portion of the displayed 2D map 3005 image information (ie, the visual appearance), the resolution of the screen 3004, the position of the screen 3004 within the vehicle coordinate system 3006, and the shape and size of the screen 3004.

別の実施形態では、スクリーン3004は携帯電話3002の図像的外形を示してもよい。図像的外形はスクリーン3004のディスプレイ座標系内における既知の位置を有し、それゆえ、車両座標系3006内における既知の位置を有することもできるであろう。カメラ3003が携帯電話3002に対する既知の位置を有する場合には、このとき、スクリーン3004上の図像的外形によって指示された位置上に携帯電話3002が置かれると、カメラ3003は車両座標系3006内における既知の初期位置を有することができるであろう。車両座標系3006内におけるカメラ3003のこの初期位置は、カメラ3003を追跡し、及び/又は車両3001の一部分を復元するために用いられてもよい。カメラ3003の位置はそれ自身の初期位置に対して判定されてもよい。即ち、例えば、カメラ3003に取り付けられた慣性センサに基づいて、又はカメラ3003によってキャプチャされた2つの画像間の対応する画像特徴に基づいて、カメラ3003の動きを判定する。それゆえ、カメラ3003、及びしたがって、カメラ3003に関連付けられる携帯電話3002を車両座標系3006内において追跡することができる。   In another embodiment, the screen 3004 may show the pictorial outline of the mobile phone 3002. The pictorial outline has a known position in the display coordinate system of the screen 3004 and therefore could also have a known position in the vehicle coordinate system 3006. If the camera 3003 has a known position relative to the mobile phone 3002, then when the mobile phone 3002 is placed on the position indicated by the pictorial outline on the screen 3004, the camera 3003 is in the vehicle coordinate system 3006. It would be possible to have a known initial position. This initial position of the camera 3003 in the vehicle coordinate system 3006 may be used to track the camera 3003 and / or restore a portion of the vehicle 3001. The position of the camera 3003 may be determined relative to its own initial position. That is, for example, the motion of the camera 3003 is determined based on an inertial sensor attached to the camera 3003 or based on corresponding image features between two images captured by the camera 3003. Therefore, the camera 3003 and thus the mobile phone 3002 associated with the camera 3003 can be tracked in the vehicle coordinate system 3006.

モバイル機器、ここでは、携帯電話3002は、1つ以上のマイクロプロセッサ及び関連回路機構などの、少なくとも1つ以上の処理装置を有する。処理装置は当技術分野において一般的に用いられており、それらは携帯電話3002の内部にあるため、図には示されていない。図3では、参照符号3011によって内部処理装置が指示されている。当技術分野において一般的に用いられ、適用されるタスクの中でもとりわけ、本発明に関して、処理装置3011は、カメラ3003と通信し、図1及び図2を参照して説明されているとおりのステップなどの、本明細書において本発明に関して説明されているとおりのタスク及びステップを実行するように構成される。本例では、携帯電話3002はユーザによって保持されてもよい。カメラ3003のカメラ固有パラメータが処理装置3011に提供されるか、又はカメラ校正手順によって決定されてもよい。   The mobile device, here a mobile phone 3002, comprises at least one or more processing units, such as one or more microprocessors and associated circuitry. Processing devices are commonly used in the art and they are not shown in the figure because they are internal to the mobile phone 3002. In FIG. 3, reference numeral 3011 designates an internal processing unit. Among the tasks commonly used and applied in the art, in the context of the present invention, the processing unit 3011 communicates with the camera 3003 and the steps as described with reference to FIGS. 1 and 2 etc. Are configured to perform the tasks and steps as described herein in relation to the present invention. In this example, the mobile phone 3002 may be held by the user. The camera specific parameters of the camera 3003 may be provided to the processing unit 3011 or determined by a camera calibration procedure.

更に、車両3001は、当技術分野において一般的に用いられ1つ以上のマイクロプロセッサ及び関連回路機構などの、図3において参照符号3021によって指定される、少なくとも1つ以上の処理装置を備えてもよい。当技術分野において一般的に用いられ、適用されるタスクの中でもとりわけ、本発明に関して、処理装置3021は、スクリーン3004上にビジュアルコンテンツ3005を表示するように構成される。処理装置3021は、図1及び図2を参照して説明されているとおりのステップなどの、本明細書において本発明に関して説明されているとおりのタスク及びステップを実行するために更に適用可能である。   Additionally, the vehicle 3001 may also include at least one or more processing units designated by reference numeral 3021 in FIG. 3, such as one or more microprocessors and associated circuitry generally used in the art. Good. Among the tasks commonly used and applied in the art, in the context of the present invention, the processing unit 3021 is configured to display visual content 3005 on a screen 3004. The processing unit 3021 is further applicable to perform tasks and steps as described herein in the context of the present invention, such as the steps as described with reference to FIGS. 1 and 2. .

一実施形態によれば、カメラ(カメラ3003など)によってキャプチャされた画像に関連付けられる画像情報をカメラから直接、又は別の処理装置から受信すること、受信された画像情報に従って、車両座標系内におけるモバイル機器に関連付けられる位置を判定すること、及び車両座標系内におけるモバイル機器に関連付けられる位置を指示する位置情報を提供することなどの、本明細書において説明されているとおりの本発明に係るステップのうちの任意のものを実行するために、処理装置3011及び/若しくは3021は、各々が、又は互いとの任意に組み合わせで、好適となり、そのために構成されてもよい。例えば、このような位置情報は、位置に従って車両の少なくとも1つの機能を制御するために、直接通信を介して、又は別の処理装置(サーバコンピュータなど)を介して間接的に車両の制御機器に提供されてもよい。   According to one embodiment, receiving image information associated with an image captured by a camera (such as camera 3003) directly from the camera or from another processing device, according to the received image information, within the vehicle coordinate system Steps according to the invention as described herein, such as determining the position associated with the mobile device and providing position information indicating the position associated with the mobile device in the vehicle coordinate system The processing units 3011 and / or 3021 may be suitable and configured for each, or any combination with each other, to perform any of the above. For example, such position information may be sent directly to the vehicle control equipment via direct communication or indirectly via another processing device (such as a server computer) to control at least one function of the vehicle according to the position. It may be provided.

これらのタスク及びステップはまた、携帯電話3002内及び車両3001内のどちらにも包含されないが、例えば、コンピュータネットワークを通じて、携帯電話3002及び車両3001と無線通信する、サーバコンピュータ4000などの別の機器内に包含される、処理装置4001などの別の1つ以上の処理装置によって実行されてもよい。更に、本明細書において説明されているとおりの本発明に係るタスク及びステップの全て又は一部は、処理装置3011、3021及び4001の間で共有されるか、又は分散されることも可能である。   These tasks and steps are also not included in either the mobile phone 3002 or in the vehicle 3001, but in other devices such as the server computer 4000 that wirelessly communicates with the mobile phone 3002 and the vehicle 3001, for example, through a computer network. May be performed by one or more other processing devices, such as processing device 4001. Furthermore, all or part of the tasks and steps according to the invention as described herein may be shared or distributed among the processing units 3011, 3021 and 4001. .

カメラ3003、及び携帯電話3002の筐体は、互いに対して固定した位置を有する。カメラ3003と携帯電話3002の任意の部分との空間関係は携帯電話3002の製造元によって提供されてもよいか、又は当技術分野において一般的に知られているとおりに校正されてもよい。   The camera 3003 and the housing of the mobile phone 3002 have fixed positions with respect to each other. The spatial relationship between the camera 3003 and any portion of the mobile phone 3002 may be provided by the manufacturer of the mobile phone 3002 or may be calibrated as commonly known in the art.

次に、図1を参照して説明されているとおりのプロセスを見ると、図1に示されるとおりの本発明の例示的な実施形態では、ステップ1001において、車両座標系を提供された車両に搭載された表示装置がそのスクリーン上に、図3に示されるとおりの2D地図3005の形態のビジュアルコンテンツなどの、図を表示する。ステップ1002において、車両は、インターネットを介して車両情報を車両から、カメラを備える携帯電話へ送信する。ステップ1003において、携帯電話のカメラが、表示装置上に表示された図の画像をキャプチャする。図3に示される例示的な場面では、カメラ3003は、表示された2D地図3005の画像をキャプチャする。画像は、表示された2D地図3005の一部分のみを含んでもよい。   Turning now to the process as described with reference to FIG. 1, in an exemplary embodiment of the invention as shown in FIG. 1, in step 1001, a vehicle provided with a vehicle coordinate system is provided. A mounted display displays a diagram, such as visual content in the form of a 2D map 3005 as shown in FIG. 3, on its screen. In step 1002, the vehicle transmits vehicle information from the vehicle to a mobile phone equipped with a camera via the Internet. At step 1003, the camera of the mobile phone captures an image of the figure displayed on the display device. In the exemplary scene shown in FIG. 3, the camera 3003 captures an image of the displayed 2D map 3005. The image may include only a portion of the displayed 2D map 3005.

ステップ1004は、本実施形態では携帯電話上において、カメラが画像をキャプチャする間の車両座標系内におけるカメラ位置を判定する。図3に示される例示的な場面では、カメラ3003が画像をキャプチャする間の車両座標系3006内におけるカメラ3003のカメラ位置を判定することができる。これは、携帯電話3002の処理装置3011上において、キャプチャされた画像に関連付けられる受信された画像情報に従って実行される。カメラ位置の判定は、カメラ3003によってキャプチャされた画像、及び携帯電話3002において受信された2D地図3005の画像情報を一致させることに基づくことができるであろう。判定されたカメラ位置から、車両の少なくとも1つの機能を制御するための入力として用いられてもよい、車両座標系3006内におけるモバイル機器3002に関連付けられる位置が判定されてもよい。カメラ3003とモバイル機器3002の任意の部分との既知の空間関係がこの判定のために用いられてもよい。   Step 1004 determines the camera position in the vehicle coordinate system while the camera captures an image, in this embodiment on the mobile phone. In the exemplary scene shown in FIG. 3, the camera position of the camera 3003 in the vehicle coordinate system 3006 can be determined while the camera 3003 captures an image. This is performed in accordance with the received image information associated with the captured image on the processing unit 3011 of the mobile phone 3002. The determination of the camera position could be based on matching the image captured by the camera 3003 and the image information of the 2D map 3005 received at the mobile phone 3002. From the determined camera position, the position associated with the mobile device 3002 in the vehicle coordinate system 3006 may be determined which may be used as an input to control at least one function of the vehicle. The known spatial relationship between the camera 3003 and any part of the mobile device 3002 may be used for this determination.

ステップ1005は、判定されたカメラ位置を携帯電話から車両へ送信する。図3に示される例示的な場面では、車両座標系3006内におけるカメラ3003のカメラ位置が携帯電話3002から車両3001へ提供される。   Step 1005 transmits the determined camera position from the mobile phone to the vehicle. In the exemplary scene shown in FIG. 3, the camera position of the camera 3003 in the vehicle coordinate system 3006 is provided from the mobile phone 3002 to the vehicle 3001.

次に、ステップ1006において、車両は、受信されたカメラ位置に従って車両の少なくとも1つの機能を制御してもよい。図3に示される例示的な場面では、車両3001の処理装置3021が光源3007の照射方向を制御してもよい。光源3007は、カメラ3003のカメラ位置によって規定される方向に沿った区域3008を照射するように指向させることができるであろう。   Next, at step 1006, the vehicle may control at least one function of the vehicle in accordance with the received camera position. In the exemplary situation shown in FIG. 3, the processing unit 3021 of the vehicle 3001 may control the illumination direction of the light source 3007. The light source 3007 could be directed to illuminate an area 3008 along the direction defined by the camera position of the camera 3003.

図2は、別の例示的な実施形態のフローチャートを示す。ステップ2001は、車両座標系を提供された車両に搭載された表示装置上に図を表示する。ステップ2002において、車両は車両情報を、カメラを備える携帯電話へ送信する。ステップ2003において、携帯電話のカメラは、表示された図の第1の画像をキャプチャする。ステップ2004は、携帯電話上において、第1の画像及び表示された図に従って、カメラが第1の画像をキャプチャする間の車両座標系内におけるカメラ位置P1を判定する。ステップ2005において、カメラ、即ち、携帯電話を位置P1と異なる別の位置へ動かす。ステップ2006において、携帯電話のカメラは、表示された図の第2の画像をキャプチャする。ステップ2007は、携帯電話上において、第2の画像及び表示された図の画像情報に従って、カメラが第2の画像をキャプチャする間の車両座標系内におけるカメラ位置P2を判定する。ステップ2008は、携帯電話上において、第1の画像及び第2の画像の画像情報並びにカメラ位置P1及びP2に基づいて車両の少なくとも一部分のモデルを復元する。これは、例えば、参照文献[9]に開示されるように、三角測量方法を用いて実現することができるであろう。   FIG. 2 shows a flow chart of another exemplary embodiment. Step 2001 displays the figure on a display mounted on a vehicle provided with a vehicle coordinate system. At step 2002, the vehicle sends vehicle information to a mobile phone equipped with a camera. At step 2003, the camera of the mobile phone captures a first image of the displayed figure. Step 2004 determines the camera position P1 in the vehicle coordinate system while the camera captures the first image according to the first image and the displayed figure on the mobile phone. In step 2005, the camera, ie the mobile phone, is moved to another position different from the position P1. At step 2006, the camera of the mobile phone captures a second image of the displayed figure. Step 2007 determines the camera position P2 in the vehicle coordinate system while the camera captures the second image, according to the second image and the displayed image information on the mobile phone. Step 2008 reconstructs a model of at least a portion of the vehicle on the mobile phone based on the image information of the first and second images and the camera positions P1 and P2. This could be achieved, for example, using a triangulation method, as disclosed in reference [9].

ステップ2009において、カメラを動かす。ステップ2010において、カメラは第3の画像をキャプチャする。ステップ2011は、携帯電話上において、モデルに従って、カメラが第3の画像をキャプチャする間の車両座標系内におけるカメラ位置P3を判定する。これはSLAM方法に基づいて実施することができるであろう。例えば、参照文献[4]を参照されたい。ステップ2012において、位置P3は所望の位置であるかどうかを判定する。所望の位置は、ユーザが、その所望の位置に従って車両の機能を設定又は制御したいと望んでいることを指示する。例えば、ユーザは本を読む場合がある。所望の位置は、車両のアンビエントライトシステムが照射するべき本の周りの区域の中心位置を指示してもよい。それが所望の位置でない場合には、このとき、ステップ2008へ進み、例えば、SLAM方法(例えば、参照文献[4]参照)を用いて第3の画像に従ってモデルを拡張する。他方で、それが所望の位置である場合には、このとき、位置P3を携帯電話から車両へ送信する(ステップ2013)。次に、車両は、受信された位置P3に従って車両の少なくとも1つの機能を制御することができる(ステップ2014)。   At step 2009, the camera is moved. At step 2010, the camera captures a third image. Step 2011 determines the camera position P3 in the vehicle coordinate system while the camera captures the third image according to the model on the mobile phone. This could be implemented based on the SLAM method. See, for example, reference [4]. In step 2012, it is determined whether the position P3 is a desired position. The desired position indicates that the user desires to set or control the features of the vehicle according to the desired position. For example, the user may read a book. The desired position may indicate the central position of the area around the book to be illuminated by the vehicle's ambient light system. If it is not the desired position, then proceed to step 2008 and extend the model according to the third image, for example using the SLAM method (see, for example, reference [4]). On the other hand, if it is the desired position, then the position P3 is transmitted from the mobile phone to the vehicle (step 2013). Next, the vehicle may control at least one function of the vehicle according to the received position P3 (step 2014).

車両の少なくとも1つの機能を制御するための位置情報を提供するための方法及びシステムの第1の態様に関して上述されたとおりのステップ及びシステム構成要素は、モバイル機器の少なくとも1つのカメラによってキャプチャされた少なくとも2つの画像に関連付けられる画像情報を提供するという変更、及び上述されたとおりのこの画像情報を考慮した以下のステップを有することによって、同じ又は同様の構成要素を用いて、車両の少なくとも1つの機能を制御するための運動情報を提供するための方法及びシステムの第2の態様に関して類似的に適用することができる。更に、上述されたとおりの、モバイル機器、カメラ、及び/又は処理装置などの構成要素はまた、車両の少なくとも1つの機能を制御するための運動情報を提供するための第2の態様の方法を実行するように構成されてもよい。   The steps and system components as described above with regard to the first aspect of the method and system for providing position information for controlling at least one function of a vehicle are captured by at least one camera of a mobile device At least one of the vehicles using the same or similar components by having the modification of providing image information associated with the at least two images and the following steps taking into account this image information as described above It can be applied analogously with regard to the second aspect of the method and system for providing exercise information for controlling a function. Furthermore, components as described above, such as mobile devices, cameras, and / or processing devices may also provide the method of the second aspect for providing motion information to control at least one function of the vehicle. It may be configured to run.

本明細書全体を通じて、画像に関連付けられる画像情報が提供又は受信される。これは、位置又は姿勢推定を可能にする、画像、画像の一部分及び/又は画像の特徴の任意の処理済又は未処理情報(バージョン)を提供又は受信することを含み得ることが当業者には知られている。本発明は、生の画像データを提供又は受信することを全く必要としない。そのため、処理は、圧縮(例えば、JPEG、PNG、ZIP)、暗号化(例えば、RSA暗号化、Schnorr署名、El−Gamal暗号化、PGP)、別の色空間若しくはグレースケールへの変換、画像のクロッピング若しくはスケーリング、又は特徴記述子に基づくスパース表現への変換、抽出、並びにそれらの組み合わせのうちの任意のものを含む。全てのこれらの画像処理方法は任意選択的に実行することができ、画像の画像情報又は画像に関連付けられる画像情報の用語によって網羅される。   Throughout the specification, image information associated with an image is provided or received. This may include providing or receiving any processed or unprocessed information (version) of the image, portions of the image and / or features of the image, which allow position or pose estimation. Are known. The present invention does not require any provision or reception of raw image data. As such, processing may include compression (eg, JPEG, PNG, ZIP), encryption (eg, RSA encryption, Schnorr signature, El-Gamal encryption, PGP), conversion to another color space or grayscale, image Including cropping or scaling, or conversion to sparse representation based on feature descriptors, extraction, and any combination thereof. All these image processing methods can optionally be carried out and are covered by the term image information of the image or image information associated with the image.

参照文献
1.米国特許第8373763(B1)号
2.米国特許出願公開第2012/0287287(A)号
3.国際公開第2011/075226(A1)号
4.Davison,Andrew J.,et al.「MonoSLAM:Real−time single camera SLAM.」Pattern Analysis and Machine Intelligence,IEEE Transactions on 29.6(2007):1052〜1067.
5.Strasdat,Hauke,J.M.M.Montiel,and Andrew J.Davison.「Scale drift−aware large scale monocular SLAM.」Proceedings of Robotics:Science and Systems(RSS).Vol.2.No.3.2010.
6.Lemaire,Thomas,et al.「Vision−based slam:Stereo and monocular approaches.」International Journal of Computer Vision 74.3(2007):343〜364.
7.米国特許第7660437(B1)号
8.米国特許第7415126(B1)号
9.Hartley,Richard,and Andrew Zisserman.Multiple view geometry in computer vision.Vol.2.Cambridge,2000.
Reference 1. U.S. Patent No. 8373763 (B1) 2. U.S. Patent Application Publication 2012/0287287 (A). International Publication No. 2011/075226 (A1) Issue 4. Davison, Andrew J. , Et al. "MonoSLAM: Real-time single camera SLAM." Pattern Analysis and Machine Intelligence, IEEE Transactions on 29.6 (2007): 1052-1067.
5. Strasdat, Hauke, J. et al. M. M. Montiel, and Andrew J. Davison. "Proceedings of Robotics: Science and Systems (RSS). Vol. 2. No. 3. 2010.
6. Lemaire, Thomas, et al. "Vision-based slam: Stereo and monocular approaches." International Journal of Computer Vision 74.3 (2007): 343-364.
7. U.S. Patent No. 7,660,437 (B1) 8. U.S. Patent No. 7,415,126 (B1) 9. Hartley, Richard, and Andrew Zisserman. Multiple view geometry in computer vision. Vol. 2. Cambridge, 2000.

Claims (25)

車両座標系(3006)を提供された車両(3001)の少なくとも1つの機能を制御するための位置情報を提供するための方法であって、前記方法は、
モバイル機器(3002)のカメラ(3003)によってキャプチャされた前記車両(3004)の少なくとも1つの部分の少なくとも1つの画像に関連付けられる画像情報を受信することであって、前記モバイル機器は前記車両から分離している、ことと、
前記少なくとも1つの画像に関連付けられる前記画像情報に従って前記車両座標系(3006)内における前記モバイル機器(3002)に関連付けられる位置を判定することと、
前記位置に従って前記車両の少なくとも1つの機能を制御するために前記車両座標系(3006)内における前記モバイル機器(3002)に関連付けられる前記位置を指示する位置情報を提供することと、
を含む方法。
A method for providing position information for controlling at least one function of a vehicle (3001) provided with a vehicle coordinate system (3006), said method comprising
Receiving image information associated with at least one image of at least one portion of the vehicle (3004) captured by a camera (3003) of the mobile device (3002), wherein the mobile device is separate from the vehicle What you are doing,
Determining a position associated with the mobile device (3002) in the vehicle coordinate system (3006) according to the image information associated with the at least one image;
Providing position information indicating the position associated with the mobile device (3002) in the vehicle coordinate system (3006) to control at least one function of the vehicle according to the position;
Method including.
前記車両座標系(3006)内における前記車両(3004)の前記少なくとも1つの部分の位置を提供又は受信することを更に含む、請求項1に記載の方法。   The method of claim 1, further comprising providing or receiving a position of the at least one portion of the vehicle (3004) within the vehicle coordinate system (3006). 前記車両の前記少なくとも1つの部分が、前記車両(3001)に搭載された表示装置(3004)上に表示されたビジュアルコンテンツ(3005)を含む、請求項2に記載の方法。   The method according to claim 2, wherein the at least one portion of the vehicle comprises visual content (3005) displayed on a display (3004) mounted on the vehicle (3001). 前記車両座標系(3006)内における前記モバイル機器(3002)に関連付けられる前記位置を判定することが、
前記少なくとも1つの画像に関連付けられる前記画像情報に従って前記少なくとも1つの画像をキャプチャする際の前記車両(3004)の前記少なくとも1つの部分に対する前記カメラ(3003)のカメラ位置を判定することと、
前記車両座標系(3006)内における前記カメラ位置及び前記車両(3004)の前記少なくとも1つの部分の前記位置に従って前記車両座標系(3006)内における前記モバイル機器(3002)に関連付けられる前記位置を判定することと、
を含む、請求項2又は3に記載の方法。
Determining the position associated with the mobile device (3002) within the vehicle coordinate system (3006),
Determining the camera position of the camera (3003) relative to the at least one portion of the vehicle (3004) in capturing the at least one image according to the image information associated with the at least one image;
Determine the position associated with the mobile device (3002) in the vehicle coordinate system (3006) according to the camera position in the vehicle coordinate system (3006) and the position of the at least one portion of the vehicle (3004) And
The method according to claim 2 or 3, comprising
前記少なくとも1つの画像が第1の画像であり、前記カメラ(3003)が第1のカメラであり、前記車両座標系(3006)内における前記モバイル機器(3002)に関連付けられる前記位置を判定することが、
前記モバイル機器(3002)の第2のカメラ(3003)によってキャプチャされた前記車両(3004)の前記少なくとも1つの部分の第2の画像に関連付けられる画像情報を受信することと、
前記第1の画像及び前記第2の画像に関連付けられる前記画像情報に従って前記車両(3004)の前記少なくとも1つの部分のモデルを復元することと、
を含む、請求項2又は3に記載の方法。
Determining the position associated with the mobile device (3002) within the vehicle coordinate system (3006) wherein the at least one image is a first image and the camera (3003) is a first camera But,
Receiving image information associated with a second image of the at least one portion of the vehicle (3004) captured by a second camera (3003) of the mobile device (3002);
Restoring a model of the at least one portion of the vehicle (3004) according to the image information associated with the first image and the second image;
The method according to claim 2 or 3, comprising
前記モバイル機器(3002)の第3のカメラによってキャプチャされた第3の画像に関連付けられる画像情報を受信することであって、前記第3の画像は、前記復元されたモデルの少なくとも一部分によって表現された前記車両の少なくとも一部分をキャプチャする、ことと、
前記復元されたモデルの前記少なくとも一部分、及び前記第3の画像に関連付けられる画像情報に従って前記第3の画像をキャプチャする際の前記復元されたモデルに対する前記第3のカメラのカメラ位置を判定することと、
前記第3のカメラの前記カメラ位置に従って前記車両座標系(3006)内における前記モバイル機器(3002)に関連付けられる前記位置を判定することと、
を更に含む、請求項5に記載の方法。
Receiving image information associated with a third image captured by a third camera of the mobile device (3002), wherein the third image is represented by at least a portion of the reconstructed model Capturing at least a portion of the vehicle.
Determining a camera position of the third camera relative to the reconstructed model in capturing the third image according to the at least a portion of the reconstructed model and image information associated with the third image When,
Determining the position associated with the mobile device (3002) in the vehicle coordinate system (3006) according to the camera position of the third camera;
The method of claim 5, further comprising
前記第1の画像に関連付けられる前記画像情報の少なくとも一部分に従って前記第1の画像をキャプチャする際の前記車両(3004)の前記少なくとも1つの部分に対する前記第1のカメラ(3003)のカメラ位置を判定することと、
前記第2の画像に関連付けられる前記画像情報の少なくとも一部分に従って前記第2の画像をキャプチャする際の前記車両(3004)の前記少なくとも1つの部分に対する前記第2のカメラのカメラ位置を判定することと、
を更に含む、請求項5又は6に記載の方法。
Determining the camera position of the first camera (3003) relative to the at least one portion of the vehicle (3004) when capturing the first image according to at least a portion of the image information associated with the first image And
Determining the camera position of the second camera relative to the at least one portion of the vehicle (3004) in capturing the second image according to at least a portion of the image information associated with the second image; ,
The method according to claim 5 or 6, further comprising
前記車両(3004)の前記少なくとも1つの部分が前記車両の第1の部分であり、
前記モバイル機器(3002)の第4のカメラによってキャプチャされた第4の画像に関連付けられる画像情報を受信することであって、前記第4の画像は、前記車両の前記第1の部分の少なくとも一部分及び前記車両の少なくとも第2の部分をキャプチャする、ことと、
前記復元されたモデルを、前記車両の前記第1の部分及び前記車両の前記第2の部分を含むべく拡張することと、
を更に含む、請求項5から7のいずれか一項に記載の方法。
The at least one portion of the vehicle (3004) is a first portion of the vehicle;
Receiving image information associated with a fourth image captured by a fourth camera of the mobile device (3002), the fourth image being at least a portion of the first portion of the vehicle And capturing at least a second portion of the vehicle.
Expanding the restored model to include the first portion of the vehicle and the second portion of the vehicle;
The method according to any one of claims 5 to 7, further comprising
前記復元されたモデルが前記車両の少なくとも一部分の奥行き情報を少なくとも記述する、請求項5から8のいずれか一項に記載の方法。   The method according to any one of claims 5 to 8, wherein the reconstructed model at least describes depth information of at least a portion of the vehicle. 前記第1のカメラ、前記第2のカメラ、前記第3のカメラ、及び前記第4のカメラのうちの少なくとも2つが同じカメラ(3003)である、請求項5から9のいずれか一項に記載の方法。   10. The device according to any of claims 5 to 9, wherein at least two of the first camera, the second camera, the third camera, and the fourth camera are the same camera (3003). the method of. 前記第1のカメラ、前記第2のカメラ、前記第3のカメラ、及び前記第4のカメラのうちの少なくとも2つが異なるカメラである、請求項5から9のいずれか一項に記載の方法。   The method according to any one of claims 5 to 9, wherein at least two of the first camera, the second camera, the third camera and the fourth camera are different cameras. 前記少なくとも1つの機能が、前記車両の音響システム、前記車両のアンビエントライトシステム、及び前記車両の空気調節システムのうちの少なくとも1つに関連し、前記位置に従って制御される機能である、請求項1から11のいずれか一項に記載の方法。   The system according to claim 1, wherein the at least one function is associated with at least one of an acoustic system of the vehicle, an ambient light system of the vehicle, and an air conditioning system of the vehicle and controlled according to the position. The method according to any one of 11. 車両座標系(3006)を提供された車両(3001)の少なくとも1つの機能を制御するための運動情報を提供するための方法であって、前記方法は、
モバイル機器(3002)の少なくとも1つのカメラ(3003)によってキャプチャされた少なくとも2つの画像に関連付けられる画像情報を受信することであって、前記モバイル機器は前記車両から分離しており、前記少なくとも2つの画像の各々は前記車両の少なくとも1つの部分をキャプチャする、ことと、
前記少なくとも2つの画像に関連付けられる前記画像情報に従って前記車両座標系(3006)に対する前記モバイル機器(3002)に関連付けられる運動を判定することと、
前記運動に従って前記車両の少なくとも1つの機能を制御するために前記車両座標系(3006)に対する前記モバイル機器に関連付けられる前記運動を指示する運動情報を提供することと、
を含む方法。
A method for providing motion information for controlling at least one function of a vehicle (3001) provided with a vehicle coordinate system (3006), said method comprising
Receiving image information associated with at least two images captured by at least one camera (3003) of the mobile device (3002), the mobile device being separate from the vehicle, the at least two Each of the images capturing at least one portion of the vehicle;
Determining movement associated with the mobile device (3002) relative to the vehicle coordinate system (3006) according to the image information associated with the at least two images;
Providing exercise information indicative of the movement associated with the mobile device relative to the vehicle coordinate system (3006) to control at least one function of the vehicle according to the movement;
Method including.
前記車両座標系(3006)に対する前記モバイル機器(3002)に関連付けられる前記運動が、前記車両座標系内における前記モバイル機器に関連付けられる少なくとも2つの位置に従って判定される、請求項13に記載の方法。   The method according to claim 13, wherein the movement associated with the mobile device (3002) relative to the vehicle coordinate system (3006) is determined according to at least two positions associated with the mobile device within the vehicle coordinate system. 前記車両座標系(3006)に対する前記モバイル機器(3002)に関連付けられる前記運動が、前記少なくとも2つの画像をキャプチャする際の前記少なくとも1つのカメラ(3003)の少なくとも2つのカメラ位置に従って判定される、請求項13又は14に記載の方法。   The movement associated with the mobile device (3002) relative to the vehicle coordinate system (3006) is determined according to at least two camera positions of the at least one camera (3003) in capturing the at least two images. A method according to claim 13 or 14. 前記車両座標系(3006)に対する前記モバイル機器(3002)に関連付けられる前記運動が、前記少なくとも2つの画像の前記各々の内部にキャプチャされた前記車両(3004)の前記少なくとも1つの部分の画像位置に従って判定される、請求項13から15のいずれか一項に記載の方法。   The movement associated with the mobile device (3002) relative to the vehicle coordinate system (3006) is according to the image position of the at least one portion of the vehicle (3004) captured inside the each of the at least two images. The method according to any one of claims 13 to 15, which is determined. 前記少なくとも1つの機能が、前記モバイル機器に関連付けられる判定された運動に基づいて制御される機能、特に、前記モバイル機器の前記運動に従って制御される前記車両の音響システム、照明システム及び空気調節のうちの少なくとも1つに関連する機能である、請求項13から16のいずれか一項に記載の方法。   Among the at least one function controlled based on the determined movement associated with the mobile device, in particular an acoustic system, a lighting system and an air conditioning of the vehicle controlled according to the movement of the mobile device The method according to any one of claims 13 to 16, wherein the function is associated with at least one of 車両座標系(3006)を提供された車両(3001)の少なくとも1つの機能を制御するための位置情報を提供するためのシステムであって、
モバイル機器(3002)のカメラ(3003)によってキャプチャされた前記車両(3004)の少なくとも1つの部分の少なくとも1つの画像に関連付けられる画像情報を受信するように構成される第1の処理装置(3011、3021、4001)であって、前記モバイル機器は前記車両から分離している、第1の処理装置(3011、3021、4001)と、
前記少なくとも1つの画像に関連付けられる前記画像情報に従って前記車両座標系(3006)内における前記モバイル機器(3002)に関連付けられる位置を判定するように構成される前記第1の処理装置(3011、3021、4001)と、
前記位置に従って前記車両(3001)の少なくとも1つの機能を制御するために前記車両座標系(3006)内における前記モバイル機器(3002)に関連付けられる前記位置を指示する位置情報を提供するように構成される第2の処理装置(3011、3021、4001)と、
を備えるシステム。
A system for providing position information for controlling at least one function of a vehicle (3001) provided with a vehicle coordinate system (3006), the system comprising:
A first processing unit (3011) configured to receive image information associated with at least one image of at least one portion of the vehicle (3004) captured by a camera (3003) of the mobile device (3002). 3021, 4001), the first processing unit (3011, 3021, 4001), wherein the mobile device is separate from the vehicle;
The first processing unit (3011, 3021) configured to determine a position associated with the mobile device (3002) in the vehicle coordinate system (3006) according to the image information associated with the at least one image. 4001),
Configured to provide position information indicating the position associated with the mobile device (3002) in the vehicle coordinate system (3006) to control at least one function of the vehicle (3001) according to the position A second processing unit (3011, 3021, 4001)
System with
車両座標系(3006)を提供された車両(3001)の少なくとも1つの機能を制御するための運動情報を提供するためのシステムであって、
モバイル機器(3002)の少なくとも1つのカメラ(3003)によってキャプチャされた少なくとも2つの画像に関連付けられる画像情報を受信するように構成される第1の処理装置(3011、3021、4001)であって、前記モバイル機器は前記車両から分離しており、前記少なくとも2つの画像の各々は前記車両の少なくとも1つの部分をキャプチャする、第1の処理装置(3011、3021、4001)と、
前記少なくとも2つの画像に関連付けられる前記画像情報に従って前記車両座標系(3006)に対する前記モバイル機器(3002)に関連付けられる運動を判定するように構成される前記第1の処理装置(3011、3021、4001)と、
前記運動に従って前記車両の少なくとも1つの機能を制御するために前記車両座標系(3006)に対する前記モバイル機器に関連付けられる前記運動を指示する運動情報を提供するように構成される第2の処理装置(3011、3021、4001)と、
を備えるシステム。
A system for providing motion information for controlling at least one function of a vehicle (3001) provided with a vehicle coordinate system (3006), the system comprising:
A first processing unit (3011, 3021, 4001) configured to receive image information associated with at least two images captured by at least one camera (3003) of the mobile device (3002), A first processing unit (3011, 3021, 4001), wherein the mobile device is separate from the vehicle, each of the at least two images capturing at least one portion of the vehicle;
The first processing unit (3011, 3021, 4001) configured to determine movement associated with the mobile device (3002) relative to the vehicle coordinate system (3006) according to the image information associated with the at least two images. )When,
A second processing unit configured to provide movement information indicative of the movement associated with the mobile device relative to the vehicle coordinate system (3006) to control at least one function of the vehicle according to the movement ( 3011, 3021, 4001),
System with
前記第1の処理装置及び前記第2の処理装置が同じ処理装置(3011、3021、4001)である、請求項18又は19に記載のシステム。   The system according to claim 18 or 19, wherein the first processing unit and the second processing unit are the same processing unit (3011, 3021, 4001). 前記第1の処理装置及び前記第2の処理装置(3011)の少なくとも一方が前記モバイル機器(3002)内に含まれる、請求項18から20のいずれか一項に記載のシステム。   21. A system according to any one of claims 18 to 20, wherein at least one of the first processing unit and the second processing unit (3011) is comprised in the mobile device (3002). 前記第1の処理装置及び前記第2の処理装置(3021)の少なくとも一方が前記車両(3001)内に含まれる、請求項18から21のいずれか一項に記載のシステム。   22. A system according to any one of claims 18 to 21, wherein at least one of the first processing unit and the second processing unit (3021) is comprised in the vehicle (3001). 前記第1の処理装置及び前記第2の処理装置(4001)の少なくとも一方が、前記モバイル機器(3002)及び前記車両(3001)と通信するコンピュータ機器(4000)内に含まれる、請求項18から22のいずれか一項に記載のシステム。   The computer device (4000) in communication with the mobile device (3002) and the vehicle (3001) at least one of the first processing device and the second processing device (4001) 22. A system according to any one of 22. 前記モバイル機器(3002)が、ハンドヘルド機器、特に、携帯電話、タブレットコンピュータ又はモバイルコンピュータである、請求項18から23のいずれか一項に記載のシステム。   The system according to any of claims 18 to 23, wherein the mobile device (3002) is a handheld device, in particular a mobile phone, a tablet computer or a mobile computer. 処理装置の前記内部メモリ内にロードされると、請求項1から17のいずれか一項に記載の方法を実行するように適合されるソフトウェアコードセクションを含むコンピュータプログラム製品。   A computer program product comprising a software code section adapted to perform the method according to any one of claims 1 to 17 when loaded into the internal memory of a processing unit.
JP2018238427A 2018-12-20 2018-12-20 Method and system for providing position or movement information for controlling at least one function of vehicle Pending JP2019071085A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018238427A JP2019071085A (en) 2018-12-20 2018-12-20 Method and system for providing position or movement information for controlling at least one function of vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018238427A JP2019071085A (en) 2018-12-20 2018-12-20 Method and system for providing position or movement information for controlling at least one function of vehicle

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016522053A Division JP6683605B2 (en) 2013-10-07 2013-10-07 Method and system for providing position or motion information for controlling at least one function of a vehicle

Publications (1)

Publication Number Publication Date
JP2019071085A true JP2019071085A (en) 2019-05-09

Family

ID=66441924

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018238427A Pending JP2019071085A (en) 2018-12-20 2018-12-20 Method and system for providing position or movement information for controlling at least one function of vehicle

Country Status (1)

Country Link
JP (1) JP2019071085A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002087184A (en) * 2000-09-19 2002-03-26 Mazda Motor Corp Information processing device for vehicle, and recording medium having information processing program for vehicle stored therein
JP2006166295A (en) * 2004-12-10 2006-06-22 Seiko Epson Corp Control system, controlled device suited to the system and remote control device
JP2008182321A (en) * 2007-01-23 2008-08-07 Funai Electric Co Ltd Image display system
US20120320198A1 (en) * 2011-06-17 2012-12-20 Primax Electronics Ltd. Imaging sensor based multi-dimensional remote controller with multiple input mode

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002087184A (en) * 2000-09-19 2002-03-26 Mazda Motor Corp Information processing device for vehicle, and recording medium having information processing program for vehicle stored therein
JP2006166295A (en) * 2004-12-10 2006-06-22 Seiko Epson Corp Control system, controlled device suited to the system and remote control device
JP2008182321A (en) * 2007-01-23 2008-08-07 Funai Electric Co Ltd Image display system
US20120320198A1 (en) * 2011-06-17 2012-12-20 Primax Electronics Ltd. Imaging sensor based multi-dimensional remote controller with multiple input mode

Similar Documents

Publication Publication Date Title
AU2018205168B2 (en) Method and system for providing position or movement information for controlling at least one function of a vehicle
CN110582798B (en) System and method for virtual enhanced vision simultaneous localization and mapping
US10438373B2 (en) Method and system for determining a pose of camera
US10937187B2 (en) Method and system for providing position or movement information for controlling at least one function of an environment
CN110475107A (en) The distortion correction of vehicle panoramic visual camera projection
US20160307374A1 (en) Method and system for providing information associated with a view of a real environment superimposed with a virtual object
WO2019035155A1 (en) Image processing system, image processing method, and program
CN116485870A (en) Method and system for tracking mobile devices
US20180219975A1 (en) Sharing Mediated Reality Content
US11682138B2 (en) Localization and mapping using images from multiple devices
EP3706070A1 (en) Processing of depth maps for images
CN112204958A (en) Method and apparatus for augmented reality for radio simulation
JP2019047296A (en) Display device, display method, control program, and electronic mirror system
JP7006810B2 (en) 3D measuring device, mobile robot, push wheel type moving device and 3D measurement processing method
CN115514885B (en) Remote augmented reality follow-up sensing system and method based on monocular and binocular fusion
JP2019071085A (en) Method and system for providing position or movement information for controlling at least one function of vehicle
US20240169673A1 (en) Mesh transformation with efficient depth reconstruction and filtering in passthrough augmented reality (ar) systems
JP2020071394A (en) Information processing device, information processing method, and program
JP2007088660A (en) Image display apparatus and image display method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181228

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200203

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201001