JP2016541042A - 車両の少なくとも1つの機能を制御するための位置又は運動情報を提供するための方法及びシステム - Google Patents

車両の少なくとも1つの機能を制御するための位置又は運動情報を提供するための方法及びシステム Download PDF

Info

Publication number
JP2016541042A
JP2016541042A JP2016522053A JP2016522053A JP2016541042A JP 2016541042 A JP2016541042 A JP 2016541042A JP 2016522053 A JP2016522053 A JP 2016522053A JP 2016522053 A JP2016522053 A JP 2016522053A JP 2016541042 A JP2016541042 A JP 2016541042A
Authority
JP
Japan
Prior art keywords
vehicle
camera
mobile device
image
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016522053A
Other languages
English (en)
Other versions
JP6683605B2 (ja
Inventor
トーマス アルト
トーマス アルト
レジン ワン
レジン ワン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Metaio GmbH
Original Assignee
Metaio GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Metaio GmbH filed Critical Metaio GmbH
Publication of JP2016541042A publication Critical patent/JP2016541042A/ja
Application granted granted Critical
Publication of JP6683605B2 publication Critical patent/JP6683605B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D23/00Control of temperature
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D25/00Control of light, e.g. intensity, colour or phase
    • G05D25/02Control of light, e.g. intensity, colour or phase characterised by the use of electric means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

車両座標系を提供された車両の少なくとも1つの機能を制御するための位置情報を提供するための方法は、モバイル機器のカメラによってキャプチャされた車両の少なくとも1つの部分の少なくとも1つの画像に関連付けられる画像情報を受信するステップであって、モバイル機器は車両から分離している、ステップと、少なくとも1つの画像に関連付けられる画像情報に従って車両座標系内におけるモバイル機器に関連付けられる位置を判定するステップと、この位置に従って車両の少なくとも1つの機能を制御するために車両座標系内におけるモバイル機器に関連付けられる位置を指示する位置情報を提供するステップと、を含む。また、運動に従って車両の少なくとも1つの機能を制御するために車両座標系に対するモバイル機器に関連付けられる運動を指示する運動情報を提供する方法及びシステムが提供される。

Description

本開示は、車両の少なくとも1つの機能を制御するための位置又は運動情報を提供するための方法及びシステムに関する。
近年、自動車のような最新の車両は、所望の性能を有するために車両内部の特定の位置に合わせて調整可能である様々なシステム又は機能を有する。例えば、前部座席に着席している運転者並びに助手席及び/若しくは後部座席に着席している同乗者のための音響エクスペリエンスを最適化するために、車内の音響システムを調整することができる。車両のアンビエントライトシステム及びクライメートシステムのようなシステムも同様である。ユーザは、このようなシステムの1つ以上の機能を調整するべく3D空間内における位置を指定するために苦労することがままあるため、それを行うことはめったにない。特に、ユーザが、自動車のこのようなシステムを調整又は制御するために自動車の内部の所望の位置を指定することは、困難であるか、又は不可能でさえある。更に、1つの所望の位置から自動車の内部の別の所望の位置へ変更することもまたユーザにとって困難である。
Zhang、他は、参照文献[1]において、車両に取り付けられたカメラのための地表面に対するカメラ位置の自己校正のための方法を提案している。彼らは、取り付けられたカメラの高さは、時々変化することになる車両の荷重に依存するという問題を解決している。彼らの方法は、車両が動いている間に地表の上方のカメラの高さを判定する。彼らはまず、少なくとも2つのカメラ画像内の2つの画像特徴に従ってカメラ座標内における地表面を定義し、次に、地表の上方のカメラの高さを判定する。ここで、カメラの高さを判定することは、特徴点の平均と地表面の法線との間の内積を算出することを含む。
Breedは、参照文献[7]において、車両内の占有要素に関する情報を得るための方法を開示している。この方法は、占有要素が位置し得る車両内の区域の画像を必要とし、訓練されたニューラルネットワークを用いて画像内の要素を分類する。
Breed、他は、参照文献[8]において、車両内に配置された単一のカメラから車両内の乗員又は占有要素の画像を取得し、単一のカメラから取得された画像を解析して、乗員又は占有要素の種類を判定することを提案している。
Grossmann、他は、参照文献[2]において、表示装置に対するカメラ位置を、カメラによってキャプチャされた表示装置上に表示されたビジュアルコンテンツの画像に従って判定することを開示している。Osmanは、参照文献[3]において、表示装置に対するゲーム機のカメラの位置を特定するための方法を提案している。彼は、表示装置に対するカメラ位置を、カメラによってキャプチャされた表示装置上に表示されたビジュアルコンテンツの画像を解析することによって判定することを開示している。しかし、参照文献[2、3]は、表示装置を車両に搭載し、それに基づいて車両の機能を制御する動機付けはしていない。
本発明の目的は、ユーザが、位置又は運動に基づいて車両の少なくとも1つの機能を制御するために適した情報を提供することを可能にする方法及びシステムを提供することである。
第1の態様によれば、車両座標系を提供された車両の少なくとも1つの機能を制御するための位置情報を提供するための方法であって、この方法は、モバイル機器のカメラによってキャプチャされた車両の少なくとも1つの部分の少なくとも1つの画像に関連付けられる画像情報を受信することであって、モバイル機器は車両から分離している、ことと、少なくとも1つの画像に関連付けられる画像情報に従って車両座標系内におけるモバイル機器に関連付けられる位置を判定することと、この位置に従って車両の少なくとも1つの機能を制御するために車両座標系内におけるモバイル機器に関連付けられる位置を指示する位置情報を提供することと、を含む、方法が提供される。
本発明は、最新の車両は、例えば、車両の内部において車両に対して既知の位置に、自動車内に着席している運転者及び/若しくは同乗者の方に向けて搭載された表示装置をしばしば備えているという事実、並びに携帯電話若しくはタブレットコンピュータなどのパーソナルモバイル機器はしばしばカメラを備えているという事実を有利に利用することができる。
本発明によれば、車両の少なくとも1つの機能は、カメラを備えるモバイル機器に関連付けられる判定された位置に基づいて制御されてもよい。この位置は、カメラを用いて車両の一部分の少なくとも1つの画像をキャプチャすることによって判定される。例えば、車両のキャプチャされる部分は、自動車に搭載された表示装置上に表示されたビジュアルコンテンツを含む。このように、本発明は、ユーザが、判定された位置に基づいて車両の少なくとも1つの機能を制御するために、車両の内部の位置を判定することを可能にする方法及びシステムを提供する。例えば、車両の音響システム、照明システム及び/又は空気調節の機能がモバイル機器の位置に従って制御されてもよい。
この目的を達成するために、一実施形態によれば、本発明は、例えば、車両に搭載された表示装置、モバイル機器のカメラ、及びモバイル機器のカメラによってキャプチャされた表示装置上に表示されたビジュアルコンテンツの画像を用いることによって、車両の座標系内におけるモバイル機器の位置を判定することを提案する。更に、車両の少なくとも1つの機能が、判定された位置に基づいて制御される。例えば、機能は、音響システム、アンビエントライトシステム、空気調節システム、又はそれらの組み合わせなどの、車両のサブシステムに関連する。
一実施形態によれば、本方法は、車両座標系内における車両の少なくとも1つの部分の位置を提供又は受信することを更に含む。
一実施形態によれば、車両の少なくとも1つの部分は、車両に搭載された表示装置上に表示されたビジュアルコンテンツを含む。
一実施形態によれば、車両座標系内におけるモバイル機器に関連付けられる位置を判定することは、少なくとも1つの画像に関連付けられる画像情報に従って少なくとも1つの画像をキャプチャする際の車両の少なくとも1つの部分に対するカメラのカメラ位置を判定することと、車両座標系内におけるカメラ位置及び車両の少なくとも1つの部分の位置に従って車両座標系内におけるモバイル機器に関連付けられる位置を判定することと、を含む。
更なる実施形態によれば、少なくとも1つの画像は第1の画像であり、カメラは第1のカメラであり、車両座標系内におけるモバイル機器に関連付けられる位置を判定することは、モバイル機器の第2のカメラによってキャプチャされた車両の少なくとも1つの部分の第2の画像に関連付けられる画像情報を受信することと、第1の画像及び第2の画像に関連付けられる画像情報に従って車両の少なくとも1つの部分のモデルを復元することと、を含む。
更なる発展では、本方法は、モバイル機器の第3のカメラによってキャプチャされた第3の画像に関連付けられる画像情報を受信することであって、第3の画像は、復元されたモデルの少なくとも一部分によって表現された車両の少なくとも一部分(車両のこの少なくとも一部分は、上述された車両の少なくとも1つの部分と異なることができるであろう。ただし、車両の少なくとも一部分は、復元されたモデル内に含まれる)をキャプチャする、ことと、復元されたモデルの少なくとも一部分、及び第3の画像に関連付けられる画像情報に従って第3の画像をキャプチャする際の復元されたモデルに対する第3のカメラのカメラ位置を判定することと、第3のカメラのカメラ位置に従って車両座標系内におけるモバイル機器に関連付けられる位置を判定することと、を更に含む。
一実施形態によれば、本方法は、第1の画像に関連付けられる画像情報の少なくとも一部分に従って第1の画像をキャプチャする際の車両の少なくとも1つの部分に対する第1のカメラのカメラ位置を判定することと、第2の画像に関連付けられる画像情報の少なくとも一部分に従って第2の画像をキャプチャする際の車両の少なくとも1つの部分に対する第2のカメラのカメラ位置を判定することと、を更に含む。
更なる発展によれば、車両の少なくとも1つの部分は車両の第1の部分であり、本方法は、モバイル機器の第4のカメラによってキャプチャされた第4の画像に関連付けられる画像情報を受信することであって、第4の画像は、車両の第1の部分の少なくとも一部分及び車両の少なくとも第2の部分をキャプチャする、ことと、復元されたモデルを、車両の第1の部分及び車両の第2の部分を含むべく拡張することと、を更に含む。
好ましくは、復元されたモデルは車両の少なくとも一部分の奥行き情報を少なくとも記述する。
一実施形態によれば、第1のカメラ、第2のカメラ、第3のカメラ、及び第4のカメラのうちの少なくとも2つは同じカメラである。
別の実施形態によれば、第1のカメラ、第2のカメラ、第3のカメラ、及び第4のカメラのうちの少なくとも2つは異なるカメラである。
一実施形態によれば、少なくとも1つの機能は、車両の音響システム、車両のアンビエントライトシステム、及び車両の空気調節システムのうちの少なくとも1つに関連し、位置に従って制御される機能である。
第1の態様によれば、また、車両座標系を提供された車両の少なくとも1つの機能を制御するための位置情報を提供するためのシステムであって、このシステムは、モバイル機器のカメラによってキャプチャされた車両の少なくとも1つの部分の少なくとも1つの画像に関連付けられる画像情報を受信するように構成される第1の処理装置であって、モバイル機器は車両から分離している、第1の処理装置と、少なくとも1つの画像に関連付けられる画像情報に従って車両座標系内におけるモバイル機器に関連付けられる位置を判定するように構成される第1の処理装置と、位置に従って車両の少なくとも1つの機能を制御するために車両座標系内におけるモバイル機器に関連付けられる位置を指示する位置情報を提供するように構成される第2の処理装置と、を備える、システムが提供される。
第2の態様によれば、車両座標系を提供された車両の少なくとも1つの機能を制御するための運動情報を提供するためのシステムであって、モバイル機器の少なくとも1つのカメラによってキャプチャされた少なくとも2つの画像に関連付けられる画像情報を受信するように構成される第1の処理装置であって、モバイル機器は車両から分離しており、少なくとも2つの画像の各々は車両の少なくとも1つの部分をキャプチャする、第1の処理装置と、少なくとも2つの画像に関連付けられる画像情報に従って車両座標系に対するモバイル機器に関連付けられる運動を判定するように構成される第1の処理装置と、運動に従って車両の少なくとも1つの機能を制御するために車両座標系に対するモバイル機器に関連付けられる運動を指示する運動情報を提供するように構成される第2の処理装置と、を備える、システムが提供される。
本明細書において説明されている以下の実施形態並びにその他の実施形態は、第1の態様及び第2の態様の両方に関して同等に適用可能である。
一実施形態によれば、第1の処理装置及び第2の処理装置は同じ処理装置である。
一実施形態によれば、第1の処理装置及び第2の処理装置の少なくとも一方はモバイル機器内に含まれる。別の実施形態によれば、第1の処理装置及び第2の処理装置の少なくとも一方は車両内に含まれる。更なる実施形態によれば、第1の処理装置及び第2の処理装置の少なくとも一方は、モバイル機器及び車両と通信するコンピュータ機器内に含まれる。
第2の態様によれば、また、車両座標系を提供された車両の少なくとも1つの機能を制御するための運動情報を提供するための方法であって、この方法は、モバイル機器の少なくとも1つのカメラによってキャプチャされた少なくとも2つの画像に関連付けられる画像情報を受信することであって、モバイル機器は車両から分離しており、少なくとも2つの画像の各々は車両の少なくとも1つの部分をキャプチャする、ことと、少なくとも2つの画像に関連付けられる画像情報に従って車両座標系に対するモバイル機器に関連付けられる運動を判定することと、運動に従って車両の少なくとも1つの機能を制御するために車両座標系に対するモバイル機器に関連付けられる運動を指示する運動情報を提供することと、を含む、方法が提供される。
一実施形態によれば、車両座標系に対するモバイル機器に関連付けられる運動は、車両座標系内におけるモバイル機器に関連付けられる2つの位置に従って判定することができる。モバイル機器に関連付けられる2つの位置は、少なくとも2つの画像に関連付けられる画像情報に従ってそれぞれ判定することができる。少なくとも2つの画像の各々の内部にキャプチャされた車両の少なくとも1つの部分は共通部分を有するか、又は異なってもよい。
更なる実施形態によれば、車両座標系に対するモバイル機器に関連付けられる運動は、少なくとも2つの画像をキャプチャする際の少なくとも1つのカメラの2つのカメラ位置に従って判定することができる。
モバイル機器に関連付けられる位置を判定することに関する第1の態様について以上又は以下において説明されている本発明の態様及び実施形態は、モバイル機器に関連付けられる運動を判定することに関する第2の態様にも同等に適用することができる。
一実施形態によれば、車両座標系に対するモバイル機器に関連付けられる運動は、少なくとも2つの画像の各々の内部にキャプチャされた車両の少なくとも1つの部分の画像位置に従って判定することができる。これは、少なくとも2つの画像の各々の内部にキャプチャされた車両の少なくとも1つの部分は同じであるか、又は共通部分を有することを必要とする。しかし、これは、車両座標系内における車両の少なくとも1つの部分の既知の位置を必要としない。
本発明によれば、車両の少なくとも1つの機能は、モバイル機器に関連付けられる判定された運動に基づいて制御されてもよい。例えば、車両の音響システム、照明システム及び/又は空気調節の機能がモバイル機器の運動に従って制御されてもよい。運動は、音響システムの音量を変更するために用いられてもよい。照明システムは、モバイル機器の判定された運動に従って現在の照射位置を新しい照射位置へ変更してもよい。例えば、判定された運動は、現在の照射位置から新しい照射位置までどのぐらい遠く離れるのかを規定してもよい。別の例では、判定された運動は回転を規定してもよく、それにより、照明システムはこの回転に従って現在の照射方向から新しい照射方向へ回転することができる。
好ましくは、モバイル機器は、携帯電話、タブレットコンピュータ又はモバイルコンピュータなどの、ハンドヘルド機器である。
例えば、車両の少なくとも1つの部分は、車両の製造元によって提供され得るであろう車両座標系内の位置を有する。
画像内にキャプチャされる車両の少なくとも1つの部分は車両の任意の物理的部分であることができるであろう。車両の少なくとも1つの部分は、車両に搭載された表示装置、又はこの表示装置の一部分を含んでもよい。車両の少なくとも1つの部分は、表示装置上に表示された1つ以上のビジュアルコンテンツを更に含んでもよい。
表示装置は情報の視覚的提示のための装置である。表示装置は、陰極線管(CRT:Cathode ray tube)、発光ダイオードディスプレイ(LED:Light-emitting diode display)及び液晶ディスプレイ(LCD:Liquid crystal display)などの、任意のディスプレイ技術又はディスプレイ材料に基づくことができるであろう。表示装置は、2次元平面ディスプレイ、又は曲面形状を有するディスプレイを含んでもよい。表示装置はまた、他と共に各々動かすことができるであろう、複数の平面サブディスプレイを含む折り畳み式表示装置であってもよい。
表示装置は車両に搭載されてもよい。それは、車両内に着席している運転者及び/又は同乗者の眼の方に向けて搭載されることが好ましい。それにより、運転者及び/又は同乗者は、表示装置上に表示されたビジュアルコンテンツを見ることができるであろう。例えば、表示装置は、車両の前部制御パネル上に搭載されるか、又は車両の前部座席の背面上に搭載されてもよい。
表示装置は、メニュー、地図、ソフトウェアプログラムのグラフィカルユーザインタフェースなどを表示するために用いることができるであろう。
ビジュアルコンテンツは、解剖学的な眼又は光学撮像装置が視覚的に知覚可能な任意の情報である。例えば、ビジュアルコンテンツは、人間の眼又はカメラによってキャプチャされることが可能であろう可視光を放射又は反射してもよい。ビジュアルコンテンツはまた、人間の眼によってキャプチャされることは不可能であろうが、カメラによってキャプチャされることは可能であろう不可視光を放出又は反射してもよい。ビジュアルコンテンツは、テキスト、図、コンピュータによって生成されるか、若しくはカメラによってキャプチャされた画像、記号、絵、それらの組み合わせ、又はそれらの各々の一部分であることができるであろう。例えば、ビジュアルコンテンツは、メニュー、ボタン、アイコン、デジタル地図、ソフトウェアプログラムのグラフィカルユーザインタフェース、それらの組み合わせ、又はそれらの各々の一部分であってもよい。ビジュアルコンテンツは表示装置上に表示されることができる。
モバイル機器は持ち運び可能であり、1つ以上のカメラを備える。1つ以上のカメラはモバイル機器に対する既知の位置を有してもよい。モバイル機器はカメラのみであることができるであろう。例えば、モバイル機器は、カメラ、第1のカメラ、第2のカメラ、第3のカメラ、及び/又は第4のカメラのいずれにもなる。即ち、モバイル機器及びそれぞれのカメラは同じ機器である。
一実施形態では、モバイル機器は、演算プロセッサなどの、少なくとも1つの処理装置を有してもよい。別の実施形態では、モバイル機器は演算プロセッサを有しなくてもよいが、データ(例えば、カメラによってキャプチャされた画像の画像データ)を別の機器(例えば、車両)へ伝送するための伝送器を有してもよい。モバイル機器は、限定するものではないが、携帯電話、タブレットコンピュータ、又はラップトップであることができるであろう。カメラはモバイル機器から分離していてもよいが、ケーブルを介するか、又は無線でモバイル機器と通信する。
1つ以上のカメラは、光学情報の画像情報をキャプチャすることができるであろう光学撮像装置である。
本提案の発明は、画像を提供する任意のカメラを用いて適用することができる。それは、RGB形式のカラー画像を提供するカメラに限定されない。それは、任意の他の色形式、及び同様に、モノクロ画像、例えば、グレースケール形式の画像を提供するカメラに適用することもできる。カメラは、奥行きデータを有する画像を更に提供してもよい。奥行きデータは、(カラー/グレースケール)画像と同じ解像度で提供される必要はない。奥行きデータを有する画像を提供するカメラはしばしばRGB−Dカメラと呼ばれる。RGB−Dカメラシステムはタイムオブフライト(TOF:time of flight)カメラシステムであることができるであろう。カメラはまた、赤外光などの、人間の眼に不可視の光をキャプチャしてもよい。例えば、カメラは熱画像カメラであってもよい。
車両座標系内におけるカメラの位置は、車両座標系内における、平行移動、若しくは回転、又はそれらの組み合わせを含んでもよい。
表示されるビジュアルコンテンツの視覚的外観は、形状、テクスチャ、幾何配置又はそれらの組み合わせを記述する。視覚的外観は色情報を含んでもよいか、又は含まなくてもよい。
オブジェクトの物理的幾何配置は、それが現実の世界内にある時の、オブジェクトのサイズ、形状、寸法、平面性、又はそれらの組み合わせを記述する。
表示装置の解像度は、その表示区域上に表示することができる各次元における別個の画素の数である。表示装置は既知の解像度を有してもよい。表示装置はその表示区域についての既知の物理的幾何配置を更に有してもよい。表示装置の物理的幾何配置とは表示装置の表示区域の物理的幾何配置を指す。表示装置の座標系内における表示されたビジュアルコンテンツの画素位置、並びに表示装置の解像度及び物理的幾何配置を有することで、表示されたビジュアルコンテンツと表示装置との空間関係を判定することができる。これは、表示装置に対する表示されたビジュアルコンテンツの位置を規定する。更に、表示されたビジュアルコンテンツの物理的幾何配置も判定することができる。車両座標系内における表示されたビジュアルコンテンツの位置は、表示装置に対する表示されたビジュアルコンテンツの位置及び車両座標系に対する表示装置の位置に従って判定されてもよい。
第1のカメラによって第1の画像がキャプチャされる間の車両の少なくとも一部分に対するカメラのカメラ位置は、画像の少なくとも一部分に従って判定することができる。車両の少なくとも一部分の物理的幾何配置を有することで、2D−3D点対応に基づく方法(例えば、参照文献[9]参照)などの、様々な視覚ベースのカメラ位置推定方法をカメラ位置の判定に利用することができる。
特に、表示されたビジュアルコンテンツを含む車両の少なくとも一部分を有することが好ましい。それゆえ、カメラの画像は、表示されたビジュアルコンテンツをキャプチャする。ビジュアルコンテンツは、視覚ベースのカメラ位置推定を強力にする、鮮やかなテクスチャ及び特徴(例えば、対照的な角部又は縁部)を提供することができるであろう。本例では、カメラのカメラ位置は、車両に搭載された表示装置に対して判定することができる。車両座標系に対する表示装置の位置は、例えば、車両の製造元から提供されることができるであろう。
表示されたビジュアルコンテンツの既知の視覚的外観、及びその物理的幾何配置を有することで、第1の画像の画像情報の少なくとも一部分に従って正確なスケールファクタを用いてビジュアルコンテンツに対するカメラのカメラ位置を判定することができる。カメラ位置の推定は、キャプチャされた画像の画像特徴と、表示装置上に表示されたビジュアルコンテンツの対応する特徴との間の対応に基づくことができるであろう。このとき、車両座標系内におけるカメラ位置は、表示されたビジュアルコンテンツに対するカメラ位置、及び車両座標系内における表示されたビジュアルコンテンツの位置に従って判定される。
カメラが画像をキャプチャする間の車両座標系内におけるカメラのカメラ位置は、車両の少なくとも1つの部分に対するカメラ位置、及び車両座標系内における車両の少なくとも1つの部分の位置から判定することができる。
一例では、車両座標系内におけるカメラの位置は、車両の少なくとも1つの機能を制御するために車両に提供することができる位置を決定することができるであろう。モバイル機器に関連付けられる位置は車両座標系内におけるカメラの位置と同じであってもよい。モバイル機器に関連付けられる位置は、車両座標系内におけるカメラの位置からの空間的変位を有してもよい。
別の例では、車両座標系内におけるカメラの位置は、モバイル機器に関連付けられる位置を指定するために適切でない場合がある。例えば、カメラの位置は、少なくとも1つの機能を制御するべく車両に提供されるための所望の位置ではない場合がある。
一実施形態によれば、本発明は、モバイル機器の第2のカメラによって車両の少なくとも1つの部分の第2の画像を更にキャプチャすることを提案する(上述のカメラ及び画像はそれぞれ第1のカメラ及び第1の画像とする)。第2の画像及び第1の画像は、第2のカメラ及び第1のカメラが異なる位置にある時にキャプチャされる。
第2の画像がキャプチャされる間の車両の少なくとも1つの部分に対するカメラの第2のカメラ位置は、第2の画像の少なくとも一部分に従って判定されてもよい。開示された、第1のカメラのカメラ位置を判定する方法は、第2のカメラのカメラ位置を判定するために用いられてもよい。
第1及び第2の画像、並びに第1及び第2のカメラのカメラ位置に従って、車両の少なくとも1つの部分のモデルが復元されてもよい。
モデルの復元の一実施形態では、第1及び第2の画像内の車両の少なくとも1つの部分の画像特徴間の対応が判定される。次に、三角測量方法を用いて、画像特徴対応、並びに第1のカメラ及び第2のカメラのカメラ位置からモデルを決定することができる。例えば、参照文献[9]を参照されたい。
オブジェクトのモデルは、上述されたように、オブジェクトの少なくとも一部分の奥行き情報を少なくとも記述する。モデルは、限定するものではないが、以下の属性、形状、対称性、平面性、幾何学的サイズ、色、テクスチャ及び密度のうちの1つを更に含んでもよい。
第1及び第2の画像内にキャプチャされた車両の少なくとも1つの部分の物理的幾何配置は既知であることができるため、例えば、参照文献[4]に教示されているように、復元されたモデルのための正確なスケールファクタを決定することができるであろう。復元されたモデルは、3D頂点、これらの頂点によって張られる多角形面及び/又は辺として表現することができる。モデルの辺及び面はまた、スプライン又はNURBS表面として表現されてもよい。
復元されたモデルは車両座標系内において決定されてもよい。復元されたモデルはまた、それ自体の座標系などの、任意の座標系内において決定されてもよい。この場合には、復元されたモデルは、車両座標系内における車両の少なくとも1つの部分の位置に基づいて車両座標系に関連付けることができる。
一実施形態によれば、モバイル機器の第3のカメラが第3の画像をキャプチャしてもよい。第3の画像は、復元されたモデルの少なくとも一部分によって表現される、車両の一部分を含む。車両のその部分は、第1のカメラによってキャプチャされた車両の少なくとも1つの部分を含む必要はないか、又はその一部分のみを含む。特に、第3の画像内にキャプチャされた車両の部分は、車両の表示装置、又は表示装置上に表示された任意のビジュアルコンテンツを含む必要はない。
第3の画像がキャプチャされる間のモデルに対する第3のカメラのカメラ位置は、復元されたモデルの少なくとも一部分、及び第3の画像の少なくとも一部分に従って判定されてもよい。例えば、SLAM方法(参照文献[4]参照)を第3のカメラのカメラ位置の判定に利用することができるであろう。
一例では、第3のカメラが第3の画像をキャプチャする間の車両座標系内における第3のカメラの位置は、車両座標系内におけるモバイル機器に関連付けられる位置を判定するために用いられてもよい。モバイル機器に関連付けられる位置は車両座標系内における第3のカメラの位置と同じであってもよい。車両座標系内におけるモバイル機器に関連付けられる位置は、車両座標系内における第3のカメラの位置からの空間的変位を有してもよい。
車両座標系内における第3のカメラのカメラ位置は、モデルに対する第3のカメラのカメラ位置、及びモデルと車両座標系との空間関係から判定することができる。
更に、モデルは、車両座標系内におけるモバイル機器のカメラ(単数又は複数)を追跡し、及び/又は復元されたモデルを、車両の他の復元された部分を追加することによって拡張するための、参照文献[4、5、6]において説明されている方法などの、視覚ベースの同時位置特定及び地図生成(SLAM:Simultaneous Localization and Mapping)方法を初期化するために更に用いることができる。
例えば、車両の少なくとも1つの第2の部分の第4の画像がモバイル機器の第4のカメラによってキャプチャされる。第4の画像は、復元されたモデルの少なくとも一部分によって表現された車両の一部分を更にキャプチャしてもよい。その後、復元されたモデルは、SLAM方法に基づいて車両の第1の部分及び第2の部分を有するように拡張することができるであろう。これは、車両の部分、及び車両の部分の復元されたモデルの少なくとも一部分の画像位置を一致させることに基づいて、第4の画像をキャプチャする間のモデルに対する第4のカメラのカメラ姿勢を計算することを必要とする場合がある。
モバイル機器に関連付けられる位置は、車両座標系内におけるモバイル機器のカメラのカメラ位置に従って判定することができる。カメラ位置は、SLAM方法に基づいて、復元されたモデルの少なくとも一部分、及びカメラによってキャプチャされた少なくとも1つの画像に従って推定することができるであろう。このために、少なくとも1つの画像は、復元されたモデルの少なくとも一部分によって表現された車両の一部分をキャプチャする。モバイル機器に関連付けられる位置は、カメラが少なくとも1つの画像をキャプチャする間のカメラの位置と同じであってもよい。
車両座標系内におけるモバイル機器に関連付けられる、判定された位置又は判定された運動は、位置又は運動に従って車両の少なくとも1つの機能を制御するために、車両に提供することができる。少なくとも1つの機能は車両の1つ以上のサブシステムに関連してもよい。車両のサブシステムは、限定するものではないが、音響システム、アンビエントライトシステム、及び空気調節システムであることができるであろう。
少なくとも1つの機能は、車両座標系内におけるモバイル機器に関連付けられる判定された位置に従って車両の1つ以上のサブシステムを制御又は設定することができるであろう。例えば、位置は、アンビエントライトシステムが照射するべき空間区域、又は空気調節システムが温度を監視するべき空間区域の中心位置を指定することができるであろう。受聴区域も位置によって指定することが可能になり得、それにより、音響システムは、それを、指定された受聴区域の方へ指向させるべく制御又は調整されるであろう。
モバイル機器は車両と直接、又はコンピュータネットワークを介して通信してもよい。モバイル機器は、他の機器を介して、例えば、ウェブサービスコンピュータを介して、車両と間接的に通信してもよい。
コンピュータネットワークは、システム、ソフトウェアアプリケーション、及びユーザの間の通信及びデータ交換を可能にするために処理装置(例えば、コンピュータ)を接続する電気通信ネットワークであってもよい。処理装置は、ケーブルを介して、若しくは無線で、又はケーブルを介することと無線の両方によって接続されてもよい。例えば、コンピュータネットワークは、インターネット、イントラネット、ローカルエリアネットワーク、又はワイドエリアネットワークであることができるであろう。
一実施形態では、モバイル機器は1つのカメラを備えてもよい。第1のカメラ、第2のカメラ、第3のカメラ、及び第4のカメラは同じカメラである。
別の実施形態では、モバイル機器は少なくとも2つのカメラを備えてもよい。第1のカメラ、第2のカメラ、第3のカメラ、及び第4のカメラのうちの少なくとも2つは異なるカメラである。
別の実施形態では、第1のカメラ、第2のカメラ、第3のカメラ、及び第4のカメラのうちの少なくとも2つは同じカメラである。
第1のカメラ、第2のカメラ、第3のカメラ、及び/又は第4のカメラのためのカメラ固有パラメータが、提供されるか、又はカメラ校正方法に基づいて校正されてもよい。カメラ固有パラメータは、カメラ画像に基づいてカメラ位置又はカメラ運動を判定するために用いられてもよい。
一実施形態では、本発明に係るシステムはモバイル機器と電子的に結合されるか、又はその一部であることができるであろう。それは車両から分離していることができるであろう。システムは、ケーブルを介して、無線で、又はコンピュータネットワークを介して車両と通信してもよい。システムは、車両座標系内におけるモバイル機器に関連付けられる位置又は運動を判定し、この位置又は運動を、少なくとも1つの機能を制御するために車両へ送信することができるであろう。
更なる実施形態では、システムは車両から車両情報を受信することができるであろう。車両情報は、車両座標系、表示されたビジュアルコンテンツの視覚的外観、表示のために用いられる表示装置の解像度、車両座標系内における表示装置(即ち、車両の少なくとも1つの部分)の位置、表示装置(即ち、車両の少なくとも1つの部分)の物理的幾何配置のうちの少なくとも1つ、又はそれらの組み合わせを含んでもよい。
別の実施形態では、システムは、車両と電子的に結合されるか、又はその一部であり、モバイル機器から分離していることができるであろう。システムは、ケーブルを介して、無線で、又はコンピュータネットワークを介してモバイル機器と通信してもよい。モバイル機器はカメラ画像をシステムへ送信することができるであろう。モバイル機器は、カメラ固有パラメータ(例えば、焦点距離及び主点)をシステムへ送信することを更に必要とする場合がある。カメラ固有パラメータは、カメラ画像に基づいてカメラ位置を判定するために用いられてもよい。
別の実施形態では、システムはモバイル機器から分離し、車両から分離していることができるであろう。システムは、ケーブルを介して、無線で、又はコンピュータネットワークを介してモバイル機器及び/又は車両と通信してもよい。システムは車両から車両情報を受信し、モバイル機器からカメラ画像及びカメラ固有パラメータを受信することができるであろう。その後、システムは、車両座標系内におけるモバイル機器に関連付けられる位置又は運動を判定し、この位置又は運動を、少なくとも1つの機能を制御するために、車両、又は少なくとも1つの機能に関連する車両の1つ以上のサブシステムへ送信することができるであろう。
別の態様によれば、本発明はまた、本発明に係る方法を実行するように適合されるソフトウェアコードセクションを含むコンピュータプログラム製品に関する。特に、コンピュータプログラム製品はコンピュータ可読媒体上に包含され、非一時的なものである。ソフトウェアコードセクションは、本明細書において説明されているとおりの処理装置のうちの1つ以上のメモリ上にロードされてもよい。
一実施形態によれば、本方法は、携帯電話などの、モバイル機器の1つ以上の処理装置上で実行し、車両と直接、又は間接的に通信するアプリケーションとして実行されてもよい。
別の実施形態によれば、本方法は、車両の1つ以上の処理装置上で実行し、モバイル機器及び/又はカメラと直接、又は間接的に通信するアプリケーションとして実行されてもよい。
別の実施形態によれば、本方法は、モバイルコンピュータ又はパーソナルコンピュータなどの、コンピュータの1つ以上の処理装置上で実行し、モバイル機器及び/若しくはカメラ、並びに車両と直接、又は間接的に通信するアプリケーションとして実行されてもよい。
これより、図面に関して本発明の態様及び実施形態を説明する。
本発明の例示的な実施形態のフローチャートを示す。 本発明の別の例示的な実施形態のフローチャートを示す。 本発明の一実施形態に係る例示的な場面を示す。
以下において、図1〜図3に示されるとおりの例示的な実施形態を参照して本発明の態様及び実施形態を説明する。以下の実施形態は携帯電話の使用に関連して説明されるが、本発明は原理上、画像をキャプチャするためのカメラとの特定の空間関係を通じて関連付けられる任意のモバイル機器を用いて適用することができる。
図3は、車両3001の一部分が前部制御パネル3009及び光源3007を含む、車両環境の例示的な場面を示す。表示装置は、前部制御パネル3009に搭載されたスクリーン3004を含む。スクリーン3004上に表示されている、あり得るビジュアルコンテンツは2D地図3005であるが、同様に、任意の他のビジュアルコンテンツであってもよい。車両座標系3006が車両3001に関連付けられる。
図3に示される例示的な場面において、本明細書において用いられる時のモバイル機器は、カメラ3003を備える携帯電話3002である。カメラ3003のカメラ固有パラメータがモバイル機器に提供される。
あり得る使用シナリオでは、車両3001はコンピュータサーバを介して車両情報を無線で携帯電話3002へ送信する。車両情報は、表示された2D地図3005の画像情報(即ち、視覚的外観)の少なくとも一部分、スクリーン3004の解像度、車両座標系3006内におけるスクリーン3004の位置、並びにスクリーン3004の形状及びサイズを含む。
別の実施形態では、スクリーン3004は携帯電話3002の図像的外形を示してもよい。図像的外形はスクリーン3004のディスプレイ座標系内における既知の位置を有し、それゆえ、車両座標系3006内における既知の位置を有することもできるであろう。カメラ3003が携帯電話3002に対する既知の位置を有する場合には、このとき、スクリーン3004上の図像的外形によって指示された位置上に携帯電話3002が置かれると、カメラ3003は車両座標系3006内における既知の初期位置を有することができるであろう。車両座標系3006内におけるカメラ3003のこの初期位置は、カメラ3003を追跡し、及び/又は車両3001の一部分を復元するために用いられてもよい。カメラ3003の位置はそれ自身の初期位置に対して判定されてもよい。即ち、例えば、カメラ3003に取り付けられた慣性センサに基づいて、又はカメラ3003によってキャプチャされた2つの画像間の対応する画像特徴に基づいて、カメラ3003の動きを判定する。それゆえ、カメラ3003、及びしたがって、カメラ3003に関連付けられる携帯電話3002を車両座標系3006内において追跡することができる。
モバイル機器、ここでは、携帯電話3002は、1つ以上のマイクロプロセッサ及び関連回路機構などの、少なくとも1つ以上の処理装置を有する。処理装置は当技術分野において一般的に用いられており、それらは携帯電話3002の内部にあるため、図には示されていない。図3では、参照符号3011によって内部処理装置が指示されている。当技術分野において一般的に用いられ、適用されるタスクの中でもとりわけ、本発明に関して、処理装置3011は、カメラ3003と通信し、図1及び図2を参照して説明されているとおりのステップなどの、本明細書において本発明に関して説明されているとおりのタスク及びステップを実行するように構成される。本例では、携帯電話3002はユーザによって保持されてもよい。カメラ3003のカメラ固有パラメータが処理装置3011に提供されるか、又はカメラ校正手順によって決定されてもよい。
更に、車両3001は、当技術分野において一般的に用いられ1つ以上のマイクロプロセッサ及び関連回路機構などの、図3において参照符号3021によって指定される、少なくとも1つ以上の処理装置を備えてもよい。当技術分野において一般的に用いられ、適用されるタスクの中でもとりわけ、本発明に関して、処理装置3021は、スクリーン3004上にビジュアルコンテンツ3005を表示するように構成される。処理装置3021は、図1及び図2を参照して説明されているとおりのステップなどの、本明細書において本発明に関して説明されているとおりのタスク及びステップを実行するために更に適用可能である。
一実施形態によれば、カメラ(カメラ3003など)によってキャプチャされた画像に関連付けられる画像情報をカメラから直接、又は別の処理装置から受信すること、受信された画像情報に従って、車両座標系内におけるモバイル機器に関連付けられる位置を判定すること、及び車両座標系内におけるモバイル機器に関連付けられる位置を指示する位置情報を提供することなどの、本明細書において説明されているとおりの本発明に係るステップのうちの任意のものを実行するために、処理装置3011及び/若しくは3021は、各々が、又は互いとの任意に組み合わせで、好適となり、そのために構成されてもよい。例えば、このような位置情報は、位置に従って車両の少なくとも1つの機能を制御するために、直接通信を介して、又は別の処理装置(サーバコンピュータなど)を介して間接的に車両の制御機器に提供されてもよい。
これらのタスク及びステップはまた、携帯電話3002内及び車両3001内のどちらにも包含されないが、例えば、コンピュータネットワークを通じて、携帯電話3002及び車両3001と無線通信する、サーバコンピュータ4000などの別の機器内に包含される、処理装置4001などの別の1つ以上の処理装置によって実行されてもよい。更に、本明細書において説明されているとおりの本発明に係るタスク及びステップの全て又は一部は、処理装置3011、3021及び4001の間で共有されるか、又は分散されることも可能である。
カメラ3003、及び携帯電話3002の筐体は、互いに対して固定した位置を有する。カメラ3003と携帯電話3002の任意の部分との空間関係は携帯電話3002の製造元によって提供されてもよいか、又は当技術分野において一般的に知られているとおりに校正されてもよい。
次に、図1を参照して説明されているとおりのプロセスを見ると、図1に示されるとおりの本発明の例示的な実施形態では、ステップ1001において、車両座標系を提供された車両に搭載された表示装置がそのスクリーン上に、図3に示されるとおりの2D地図3005の形態のビジュアルコンテンツなどの、図を表示する。ステップ1002において、車両は、インターネットを介して車両情報を車両から、カメラを備える携帯電話へ送信する。ステップ1003において、携帯電話のカメラが、表示装置上に表示された図の画像をキャプチャする。図3に示される例示的な場面では、カメラ3003は、表示された2D地図3005の画像をキャプチャする。画像は、表示された2D地図3005の一部分のみを含んでもよい。
ステップ1004は、本実施形態では携帯電話上において、カメラが画像をキャプチャする間の車両座標系内におけるカメラ位置を判定する。図3に示される例示的な場面では、カメラ3003が画像をキャプチャする間の車両座標系3006内におけるカメラ3003のカメラ位置を判定することができる。これは、携帯電話3002の処理装置3011上において、キャプチャされた画像に関連付けられる受信された画像情報に従って実行される。カメラ位置の判定は、カメラ3003によってキャプチャされた画像、及び携帯電話3002において受信された2D地図3005の画像情報を一致させることに基づくことができるであろう。判定されたカメラ位置から、車両の少なくとも1つの機能を制御するための入力として用いられてもよい、車両座標系3006内におけるモバイル機器3002に関連付けられる位置が判定されてもよい。カメラ3003とモバイル機器3002の任意の部分との既知の空間関係がこの判定のために用いられてもよい。
ステップ1005は、判定されたカメラ位置を携帯電話から車両へ送信する。図3に示される例示的な場面では、車両座標系3006内におけるカメラ3003のカメラ位置が携帯電話3002から車両3001へ提供される。
次に、ステップ1006において、車両は、受信されたカメラ位置に従って車両の少なくとも1つの機能を制御してもよい。図3に示される例示的な場面では、車両3001の処理装置3021が光源3007の照射方向を制御してもよい。光源3007は、カメラ3003のカメラ位置によって規定される方向に沿った区域3008を照射するように指向させることができるであろう。
図2は、別の例示的な実施形態のフローチャートを示す。ステップ2001は、車両座標系を提供された車両に搭載された表示装置上に図を表示する。ステップ2002において、車両は車両情報を、カメラを備える携帯電話へ送信する。ステップ2003において、携帯電話のカメラは、表示された図の第1の画像をキャプチャする。ステップ2004は、携帯電話上において、第1の画像及び表示された図に従って、カメラが第1の画像をキャプチャする間の車両座標系内におけるカメラ位置P1を判定する。ステップ2005において、カメラ、即ち、携帯電話を位置P1と異なる別の位置へ動かす。ステップ2006において、携帯電話のカメラは、表示された図の第2の画像をキャプチャする。ステップ2007は、携帯電話上において、第2の画像及び表示された図の画像情報に従って、カメラが第2の画像をキャプチャする間の車両座標系内におけるカメラ位置P2を判定する。ステップ2008は、携帯電話上において、第1の画像及び第2の画像の画像情報並びにカメラ位置P1及びP2に基づいて車両の少なくとも一部分のモデルを復元する。これは、例えば、参照文献[9]に開示されるように、三角測量方法を用いて実現することができるであろう。
ステップ2009において、カメラを動かす。ステップ2010において、カメラは第3の画像をキャプチャする。ステップ2011は、携帯電話上において、モデルに従って、カメラが第3の画像をキャプチャする間の車両座標系内におけるカメラ位置P3を判定する。これはSLAM方法に基づいて実施することができるであろう。例えば、参照文献[4]を参照されたい。ステップ2012において、位置P3は所望の位置であるかどうかを判定する。所望の位置は、ユーザが、その所望の位置に従って車両の機能を設定又は制御したいと望んでいることを指示する。例えば、ユーザは本を読む場合がある。所望の位置は、車両のアンビエントライトシステムが照射するべき本の周りの区域の中心位置を指示してもよい。それが所望の位置でない場合には、このとき、ステップ2008へ進み、例えば、SLAM方法(例えば、参照文献[4]参照)を用いて第3の画像に従ってモデルを拡張する。他方で、それが所望の位置である場合には、このとき、位置P3を携帯電話から車両へ送信する(ステップ2013)。次に、車両は、受信された位置P3に従って車両の少なくとも1つの機能を制御することができる(ステップ2014)。
車両の少なくとも1つの機能を制御するための位置情報を提供するための方法及びシステムの第1の態様に関して上述されたとおりのステップ及びシステム構成要素は、モバイル機器の少なくとも1つのカメラによってキャプチャされた少なくとも2つの画像に関連付けられる画像情報を提供するという変更、及び上述されたとおりのこの画像情報を考慮した以下のステップを有することによって、同じ又は同様の構成要素を用いて、車両の少なくとも1つの機能を制御するための運動情報を提供するための方法及びシステムの第2の態様に関して類似的に適用することができる。更に、上述されたとおりの、モバイル機器、カメラ、及び/又は処理装置などの構成要素はまた、車両の少なくとも1つの機能を制御するための運動情報を提供するための第2の態様の方法を実行するように構成されてもよい。
本明細書全体を通じて、画像に関連付けられる画像情報が提供又は受信される。これは、位置又は姿勢推定を可能にする、画像、画像の一部分及び/又は画像の特徴の任意の処理済又は未処理情報(バージョン)を提供又は受信することを含み得ることが当業者には知られている。本発明は、生の画像データを提供又は受信することを全く必要としない。そのため、処理は、圧縮(例えば、JPEG、PNG、ZIP)、暗号化(例えば、RSA暗号化、Schnorr署名、El−Gamal暗号化、PGP)、別の色空間若しくはグレースケールへの変換、画像のクロッピング若しくはスケーリング、又は特徴記述子に基づくスパース表現への変換、抽出、並びにそれらの組み合わせのうちの任意のものを含む。全てのこれらの画像処理方法は任意選択的に実行することができ、画像の画像情報又は画像に関連付けられる画像情報の用語によって網羅される。
参照文献
1.米国特許第8373763(B1)号
2.米国特許出願公開第2012/0287287(A)号
3.国際公開第2011/075226(A1)号
4.Davison,Andrew J.,et al.「MonoSLAM:Real−time single camera SLAM.」Pattern Analysis and Machine Intelligence,IEEE Transactions on 29.6(2007):1052〜1067.
5.Strasdat,Hauke,J.M.M.Montiel,and Andrew J.Davison.「Scale drift−aware large scale monocular SLAM.」Proceedings of Robotics:Science and Systems(RSS).Vol.2.No.3.2010.
6.Lemaire,Thomas,et al.「Vision−based slam:Stereo and monocular approaches.」International Journal of Computer Vision 74.3(2007):343〜364.
7.米国特許第7660437(B1)号
8.米国特許第7415126(B1)号
9.Hartley,Richard,and Andrew Zisserman.Multiple view geometry in computer vision.Vol.2.Cambridge,2000.

Claims (25)

  1. 車両座標系(3006)を提供された車両(3001)の少なくとも1つの機能を制御するための位置情報を提供するための方法であって、前記方法は、
    モバイル機器(3002)のカメラ(3003)によってキャプチャされた前記車両(3004)の少なくとも1つの部分の少なくとも1つの画像に関連付けられる画像情報を受信することであって、前記モバイル機器は前記車両から分離している、ことと、
    前記少なくとも1つの画像に関連付けられる前記画像情報に従って前記車両座標系(3006)内における前記モバイル機器(3002)に関連付けられる位置を判定することと、
    前記位置に従って前記車両の少なくとも1つの機能を制御するために前記車両座標系(3006)内における前記モバイル機器(3002)に関連付けられる前記位置を指示する位置情報を提供することと、
    を含む方法。
  2. 前記車両座標系(3006)内における前記車両(3004)の前記少なくとも1つの部分の位置を提供又は受信することを更に含む、請求項1に記載の方法。
  3. 前記車両の前記少なくとも1つの部分が、前記車両(3001)に搭載された表示装置(3004)上に表示されたビジュアルコンテンツ(3005)を含む、請求項2に記載の方法。
  4. 前記車両座標系(3006)内における前記モバイル機器(3002)に関連付けられる前記位置を判定することが、
    前記少なくとも1つの画像に関連付けられる前記画像情報に従って前記少なくとも1つの画像をキャプチャする際の前記車両(3004)の前記少なくとも1つの部分に対する前記カメラ(3003)のカメラ位置を判定することと、
    前記車両座標系(3006)内における前記カメラ位置及び前記車両(3004)の前記少なくとも1つの部分の前記位置に従って前記車両座標系(3006)内における前記モバイル機器(3002)に関連付けられる前記位置を判定することと、
    を含む、請求項2又は3に記載の方法。
  5. 前記少なくとも1つの画像が第1の画像であり、前記カメラ(3003)が第1のカメラであり、前記車両座標系(3006)内における前記モバイル機器(3002)に関連付けられる前記位置を判定することが、
    前記モバイル機器(3002)の第2のカメラ(3003)によってキャプチャされた前記車両(3004)の前記少なくとも1つの部分の第2の画像に関連付けられる画像情報を受信することと、
    前記第1の画像及び前記第2の画像に関連付けられる前記画像情報に従って前記車両(3004)の前記少なくとも1つの部分のモデルを復元することと、
    を含む、請求項2又は3に記載の方法。
  6. 前記モバイル機器(3002)の第3のカメラによってキャプチャされた第3の画像に関連付けられる画像情報を受信することであって、前記第3の画像は、前記復元されたモデルの少なくとも一部分によって表現された前記車両の少なくとも一部分をキャプチャする、ことと、
    前記復元されたモデルの前記少なくとも一部分、及び前記第3の画像に関連付けられる画像情報に従って前記第3の画像をキャプチャする際の前記復元されたモデルに対する前記第3のカメラのカメラ位置を判定することと、
    前記第3のカメラの前記カメラ位置に従って前記車両座標系(3006)内における前記モバイル機器(3002)に関連付けられる前記位置を判定することと、
    を更に含む、請求項5に記載の方法。
  7. 前記第1の画像に関連付けられる前記画像情報の少なくとも一部分に従って前記第1の画像をキャプチャする際の前記車両(3004)の前記少なくとも1つの部分に対する前記第1のカメラ(3003)のカメラ位置を判定することと、
    前記第2の画像に関連付けられる前記画像情報の少なくとも一部分に従って前記第2の画像をキャプチャする際の前記車両(3004)の前記少なくとも1つの部分に対する前記第2のカメラのカメラ位置を判定することと、
    を更に含む、請求項5又は6に記載の方法。
  8. 前記車両(3004)の前記少なくとも1つの部分が前記車両の第1の部分であり、
    前記モバイル機器(3002)の第4のカメラによってキャプチャされた第4の画像に関連付けられる画像情報を受信することであって、前記第4の画像は、前記車両の前記第1の部分の少なくとも一部分及び前記車両の少なくとも第2の部分をキャプチャする、ことと、
    前記復元されたモデルを、前記車両の前記第1の部分及び前記車両の前記第2の部分を含むべく拡張することと、
    を更に含む、請求項5から7のいずれか一項に記載の方法。
  9. 前記復元されたモデルが前記車両の少なくとも一部分の奥行き情報を少なくとも記述する、請求項5から8のいずれか一項に記載の方法。
  10. 前記第1のカメラ、前記第2のカメラ、前記第3のカメラ、及び前記第4のカメラのうちの少なくとも2つが同じカメラ(3003)である、請求項5から9のいずれか一項に記載の方法。
  11. 前記第1のカメラ、前記第2のカメラ、前記第3のカメラ、及び前記第4のカメラのうちの少なくとも2つが異なるカメラである、請求項5から9のいずれか一項に記載の方法。
  12. 前記少なくとも1つの機能が、前記車両の音響システム、前記車両のアンビエントライトシステム、及び前記車両の空気調節システムのうちの少なくとも1つに関連し、前記位置に従って制御される機能である、請求項1から11のいずれか一項に記載の方法。
  13. 車両座標系(3006)を提供された車両(3001)の少なくとも1つの機能を制御するための運動情報を提供するための方法であって、前記方法は、
    モバイル機器(3002)の少なくとも1つのカメラ(3003)によってキャプチャされた少なくとも2つの画像に関連付けられる画像情報を受信することであって、前記モバイル機器は前記車両から分離しており、前記少なくとも2つの画像の各々は前記車両の少なくとも1つの部分をキャプチャする、ことと、
    前記少なくとも2つの画像に関連付けられる前記画像情報に従って前記車両座標系(3006)に対する前記モバイル機器(3002)に関連付けられる運動を判定することと、
    前記運動に従って前記車両の少なくとも1つの機能を制御するために前記車両座標系(3006)に対する前記モバイル機器に関連付けられる前記運動を指示する運動情報を提供することと、
    を含む方法。
  14. 前記車両座標系(3006)に対する前記モバイル機器(3002)に関連付けられる前記運動が、前記車両座標系内における前記モバイル機器に関連付けられる少なくとも2つの位置に従って判定される、請求項13に記載の方法。
  15. 前記車両座標系(3006)に対する前記モバイル機器(3002)に関連付けられる前記運動が、前記少なくとも2つの画像をキャプチャする際の前記少なくとも1つのカメラ(3003)の少なくとも2つのカメラ位置に従って判定される、請求項13又は14に記載の方法。
  16. 前記車両座標系(3006)に対する前記モバイル機器(3002)に関連付けられる前記運動が、前記少なくとも2つの画像の前記各々の内部にキャプチャされた前記車両(3004)の前記少なくとも1つの部分の画像位置に従って判定される、請求項13から15のいずれか一項に記載の方法。
  17. 前記少なくとも1つの機能が、前記モバイル機器に関連付けられる判定された運動に基づいて制御される機能、特に、前記モバイル機器の前記運動に従って制御される前記車両の音響システム、照明システム及び空気調節のうちの少なくとも1つに関連する機能である、請求項13から16のいずれか一項に記載の方法。
  18. 車両座標系(3006)を提供された車両(3001)の少なくとも1つの機能を制御するための位置情報を提供するためのシステムであって、
    モバイル機器(3002)のカメラ(3003)によってキャプチャされた前記車両(3004)の少なくとも1つの部分の少なくとも1つの画像に関連付けられる画像情報を受信するように構成される第1の処理装置(3011、3021、4001)であって、前記モバイル機器は前記車両から分離している、第1の処理装置(3011、3021、4001)と、
    前記少なくとも1つの画像に関連付けられる前記画像情報に従って前記車両座標系(3006)内における前記モバイル機器(3002)に関連付けられる位置を判定するように構成される前記第1の処理装置(3011、3021、4001)と、
    前記位置に従って前記車両(3001)の少なくとも1つの機能を制御するために前記車両座標系(3006)内における前記モバイル機器(3002)に関連付けられる前記位置を指示する位置情報を提供するように構成される第2の処理装置(3011、3021、4001)と、
    を備えるシステム。
  19. 車両座標系(3006)を提供された車両(3001)の少なくとも1つの機能を制御するための運動情報を提供するためのシステムであって、
    モバイル機器(3002)の少なくとも1つのカメラ(3003)によってキャプチャされた少なくとも2つの画像に関連付けられる画像情報を受信するように構成される第1の処理装置(3011、3021、4001)であって、前記モバイル機器は前記車両から分離しており、前記少なくとも2つの画像の各々は前記車両の少なくとも1つの部分をキャプチャする、第1の処理装置(3011、3021、4001)と、
    前記少なくとも2つの画像に関連付けられる前記画像情報に従って前記車両座標系(3006)に対する前記モバイル機器(3002)に関連付けられる運動を判定するように構成される前記第1の処理装置(3011、3021、4001)と、
    前記運動に従って前記車両の少なくとも1つの機能を制御するために前記車両座標系(3006)に対する前記モバイル機器に関連付けられる前記運動を指示する運動情報を提供するように構成される第2の処理装置(3011、3021、4001)と、
    を備えるシステム。
  20. 前記第1の処理装置及び前記第2の処理装置が同じ処理装置(3011、3021、4001)である、請求項18又は19に記載のシステム。
  21. 前記第1の処理装置及び前記第2の処理装置(3011)の少なくとも一方が前記モバイル機器(3002)内に含まれる、請求項18から20のいずれか一項に記載のシステム。
  22. 前記第1の処理装置及び前記第2の処理装置(3021)の少なくとも一方が前記車両(3001)内に含まれる、請求項18から21のいずれか一項に記載のシステム。
  23. 前記第1の処理装置及び前記第2の処理装置(4001)の少なくとも一方が、前記モバイル機器(3002)及び前記車両(3001)と通信するコンピュータ機器(4000)内に含まれる、請求項18から22のいずれか一項に記載のシステム。
  24. 前記モバイル機器(3002)が、ハンドヘルド機器、特に、携帯電話、タブレットコンピュータ又はモバイルコンピュータである、請求項18から23のいずれか一項に記載のシステム。
  25. 処理装置の前記内部メモリ内にロードされると、請求項1から17のいずれか一項に記載の方法を実行するように適合されるソフトウェアコードセクションを含むコンピュータプログラム製品。
JP2016522053A 2013-10-07 2013-10-07 車両の少なくとも1つの機能を制御するための位置又は運動情報を提供するための方法及びシステム Active JP6683605B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2013/070819 WO2015051818A1 (en) 2013-10-07 2013-10-07 Method and system for providing position or movement information for controlling at least one function of a vehicle

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018238427A Division JP2019071085A (ja) 2018-12-20 2018-12-20 車両の少なくとも1つの機能を制御するための位置又は運動情報を提供するための方法及びシステム

Publications (2)

Publication Number Publication Date
JP2016541042A true JP2016541042A (ja) 2016-12-28
JP6683605B2 JP6683605B2 (ja) 2020-04-22

Family

ID=49326658

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016522053A Active JP6683605B2 (ja) 2013-10-07 2013-10-07 車両の少なくとも1つの機能を制御するための位置又は運動情報を提供するための方法及びシステム

Country Status (7)

Country Link
US (1) US10268216B2 (ja)
EP (1) EP3055834B1 (ja)
JP (1) JP6683605B2 (ja)
KR (2) KR101953960B1 (ja)
CN (2) CN110223327B (ja)
AU (3) AU2013402725B2 (ja)
WO (1) WO2015051818A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180070388A1 (en) * 2016-09-02 2018-03-08 Hyundai America Technical Center, Inc System and method for vehicular and mobile communication device connectivity
WO2018057839A1 (en) 2016-09-22 2018-03-29 Apple Inc. Vehicle Video System
US10783648B2 (en) * 2018-03-05 2020-09-22 Hanwha Techwin Co., Ltd. Apparatus and method for processing image
US11510026B2 (en) 2020-07-01 2022-11-22 Here Global B.V. Radio-visual approach for device localization based on a vehicle location
US11570576B2 (en) * 2020-07-01 2023-01-31 Here Global B.V. Image-based approach for device localization based on a vehicle location

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002087184A (ja) * 2000-09-19 2002-03-26 Mazda Motor Corp 車両用情報処理装置および車両用情報処理プログラムが格納された記録媒体
JP2008182321A (ja) * 2007-01-23 2008-08-07 Funai Electric Co Ltd 画像表示システム
JP2012529691A (ja) * 2009-06-11 2012-11-22 株式会社東芝 3次元画像生成
JP2013117379A (ja) * 2011-12-01 2013-06-13 Denso Corp 地図表示操作装置

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7415126B2 (en) 1992-05-05 2008-08-19 Automotive Technologies International Inc. Occupant sensing system
US7660437B2 (en) 1992-05-05 2010-02-09 Automotive Technologies International, Inc. Neural network systems for vehicles
US20020085097A1 (en) * 2000-12-22 2002-07-04 Colmenarez Antonio J. Computer vision-based wireless pointing system
GB2392766B (en) * 2002-08-27 2005-10-05 Timothy Guy Carpenter An apparatus and a system for determining compliance with parking rules by a vehicle, vehicle observing means and a device for obtaining parking information
US7450960B2 (en) * 2004-10-07 2008-11-11 Chen Alexander C System, method and mobile unit to sense objects or text and retrieve related information
US7852317B2 (en) * 2005-01-12 2010-12-14 Thinkoptics, Inc. Handheld device for handheld vision based absolute pointing system
US7646296B2 (en) * 2006-08-11 2010-01-12 Honda Motor Co., Ltd. Method and system for receiving and sending navigational data via a wireless messaging service on a navigation system
US8134481B2 (en) * 2006-08-11 2012-03-13 Honda Motor Co., Ltd. Method and system for receiving and sending navigational data via a wireless messaging service on a navigation system
US9430945B2 (en) * 2006-12-20 2016-08-30 Johnson Controls Technology Company System and method for providing route calculation and information to a vehicle
KR101097017B1 (ko) * 2007-11-19 2011-12-20 후지쯔 가부시끼가이샤 촬상 장치, 촬상 방법 및 컴퓨터 판독가능한 기록 매체
JP4337929B2 (ja) * 2007-12-25 2009-09-30 トヨタ自動車株式会社 移動状態推定装置
KR101297144B1 (ko) * 2008-03-19 2013-08-21 가부시키가이샤 덴소 차량용 조작 입력 장치
US8373763B2 (en) 2008-05-22 2013-02-12 GM Global Technology Operations LLC Self calibration of extrinsic camera parameters for a vehicle camera
US8965670B2 (en) * 2009-03-27 2015-02-24 Hti Ip, L.L.C. Method and system for automatically selecting and displaying traffic images
US7898471B2 (en) * 2009-04-27 2011-03-01 GTA Electronics Co., Ltd. Power-saving position tracking device
WO2011065028A1 (ja) * 2009-11-30 2011-06-03 パナソニック株式会社 通信装置
USRE45980E1 (en) * 2009-11-30 2016-04-19 Panasonic Intellectual Property Corporation Of America Communication device
US20110145108A1 (en) * 2009-12-14 2011-06-16 Magnus Birch Method for obtaining information relating to a product, electronic device, server and system related thereto
US8497902B2 (en) 2009-12-18 2013-07-30 Sony Computer Entertainment Inc. System for locating a display device using a camera on a portable device and a sensor on a gaming console and method thereof
JP5506375B2 (ja) * 2009-12-25 2014-05-28 キヤノン株式会社 情報処理装置及びその制御方法
US8659658B2 (en) * 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US8351651B2 (en) * 2010-04-26 2013-01-08 Microsoft Corporation Hand-location post-process refinement in a tracking system
KR101219933B1 (ko) * 2010-09-13 2013-01-08 현대자동차주식회사 증강현실을 이용한 차량 내 디바이스 제어 시스템 및 그 방법
US9286810B2 (en) * 2010-09-24 2016-03-15 Irobot Corporation Systems and methods for VSLAM optimization
US9142122B2 (en) * 2010-11-25 2015-09-22 Panasonic Intellectual Property Corporation Of America Communication device for performing wireless communication with an external server based on information received via near field communication
MY182291A (en) * 2011-02-22 2021-01-18 Rheinmetall Defence Electronics Gmbh Simulator for training a team,in particular for training a helicopter crew
US8743214B2 (en) 2011-05-11 2014-06-03 Intel Corporation Display screen for camera calibration
US8775006B2 (en) * 2011-07-14 2014-07-08 GM Global Technology Operations LLC System and method for enhanced vehicle control
KR101926477B1 (ko) * 2011-07-18 2018-12-11 삼성전자 주식회사 콘텐츠 재생 방법 및 장치
CN202169907U (zh) * 2011-07-29 2012-03-21 富士重工业株式会社 车外环境识别装置
US9424255B2 (en) * 2011-11-04 2016-08-23 Microsoft Technology Licensing, Llc Server-assisted object recognition and tracking for mobile devices
US20130331027A1 (en) * 2012-06-08 2013-12-12 Research In Motion Limited Communications system providing remote access via mobile wireless communications device and related methods
US8532675B1 (en) * 2012-06-27 2013-09-10 Blackberry Limited Mobile communication device user interface for manipulation of data items in a physical space
WO2014046213A1 (ja) * 2012-09-21 2014-03-27 株式会社タダノ 作業車の周囲情報取得装置
US9723251B2 (en) * 2013-04-23 2017-08-01 Jaacob I. SLOTKY Technique for image acquisition and management
CN104881860B (zh) * 2014-02-28 2019-01-08 国际商业机器公司 基于照片进行定位的方法和装置
US9445240B2 (en) * 2014-05-06 2016-09-13 Cecil Gooch Systems and methods for pedestrian indoor positioning
US9420741B2 (en) * 2014-12-15 2016-08-23 Irobot Corporation Robot lawnmower mapping
US10660154B2 (en) * 2015-01-14 2020-05-19 Honeywell International Inc. Positioning system leveraged for installation and commissioning

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002087184A (ja) * 2000-09-19 2002-03-26 Mazda Motor Corp 車両用情報処理装置および車両用情報処理プログラムが格納された記録媒体
JP2008182321A (ja) * 2007-01-23 2008-08-07 Funai Electric Co Ltd 画像表示システム
JP2012529691A (ja) * 2009-06-11 2012-11-22 株式会社東芝 3次元画像生成
JP2013117379A (ja) * 2011-12-01 2013-06-13 Denso Corp 地図表示操作装置

Also Published As

Publication number Publication date
EP3055834B1 (en) 2017-08-02
US10268216B2 (en) 2019-04-23
CN105814604B (zh) 2019-07-02
AU2013402725A1 (en) 2016-04-28
AU2013402725B2 (en) 2018-04-12
KR20190021496A (ko) 2019-03-05
US20160225163A1 (en) 2016-08-04
KR101953960B1 (ko) 2019-03-04
WO2015051818A1 (en) 2015-04-16
AU2018205168B2 (en) 2019-07-11
JP6683605B2 (ja) 2020-04-22
KR20160068856A (ko) 2016-06-15
AU2016100369A4 (en) 2016-05-05
AU2016100369B4 (en) 2016-06-23
AU2018205168A1 (en) 2018-08-02
CN110223327B (zh) 2023-08-01
CN105814604A (zh) 2016-07-27
EP3055834A1 (en) 2016-08-17
CN110223327A (zh) 2019-09-10

Similar Documents

Publication Publication Date Title
AU2018205168B2 (en) Method and system for providing position or movement information for controlling at least one function of a vehicle
CN110022470B (zh) 使用合成图像训练对象检测算法的方法和系统和存储介质
US10438373B2 (en) Method and system for determining a pose of camera
CN110475107A (zh) 车辆全景可视摄像机投影的失真校正
US10937187B2 (en) Method and system for providing position or movement information for controlling at least one function of an environment
US20160307374A1 (en) Method and system for providing information associated with a view of a real environment superimposed with a virtual object
CN116485870A (zh) 用于跟踪移动设备的方法和系统
US20180219975A1 (en) Sharing Mediated Reality Content
US11189054B2 (en) Localization and mapping using images from multiple devices
CN112204958A (zh) 用于无线电模拟的增强现实的方法、设备
JP7006810B2 (ja) 3次元計測装置、移動ロボット、手押し車型移動装置および3次元計測処理方法
CN115514885B (zh) 基于单双目融合的远程增强现实随动感知系统及方法
JP2019071085A (ja) 車両の少なくとも1つの機能を制御するための位置又は運動情報を提供するための方法及びシステム
US20230260076A1 (en) System, information processing apparatus, and method
JP7261121B2 (ja) 情報端末装置及びプログラム
JP2018026706A (ja) 画像処理装置、画像表示装置、画像処理システム、及び画像処理方法
CN108090933B (zh) 二维平面标定方法和装置
FR3014228A1 (fr) Systeme de detection virtuelle
JP2007088660A (ja) 画像表示装置および画像表示方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161003

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171113

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180412

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20180611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180611

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181220

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190108

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20190308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200326

R150 Certificate of patent or registration of utility model

Ref document number: 6683605

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250