JP7011472B2 - 情報処理装置、情報処理方法 - Google Patents
情報処理装置、情報処理方法 Download PDFInfo
- Publication number
- JP7011472B2 JP7011472B2 JP2018004471A JP2018004471A JP7011472B2 JP 7011472 B2 JP7011472 B2 JP 7011472B2 JP 2018004471 A JP2018004471 A JP 2018004471A JP 2018004471 A JP2018004471 A JP 2018004471A JP 7011472 B2 JP7011472 B2 JP 7011472B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- information processing
- processing apparatus
- captured
- captured image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 82
- 238000003672 processing method Methods 0.000 title claims 5
- 238000000034 method Methods 0.000 claims description 48
- 238000003384 imaging method Methods 0.000 claims description 45
- 230000008569 process Effects 0.000 claims description 27
- 238000011156 evaluation Methods 0.000 claims description 25
- 238000004364 calculation method Methods 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 9
- 238000012549 training Methods 0.000 claims description 5
- 238000012986 modification Methods 0.000 description 26
- 230000004048 modification Effects 0.000 description 26
- 238000012545 processing Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 14
- 230000005540 biological transmission Effects 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3602—Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20101—Interactive definition of point of interest, landmark or seed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Data Mining & Analysis (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Image Analysis (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
Description
入力された撮像画像に対応する奥行き情報を出力するように学習済みの複数の学習済みモデルのうち、前記設定領域内の撮像位置で撮像された撮像画像と該撮像位置で撮像された撮像画像の奥行き情報とを教師データとして用いて学習した少なくとも1つの学習済みモデルを取得する取得手段と
を備えることを特徴とする。
本実施形態では、目的地までの行き方を誘導するカーナビゲーション装置へ適用したシステムの一例について説明する。具体的には、カーナビゲーション装置から得られた出発地から目的地までの経路に基づいて領域を設定し、該設定した領域に該当する学習モデルを取得する。学習モデルは、入力画像から対応する幾何情報を推定するためのモデルであり、本実施形態では一例としてCNN(Convolutional Neural Network)とする。幾何情報とは、入力画像の各画素に対応する奥行き値(デプス値)を保持するデプスマップである。学習モデルは、複数の画像とそれと同時刻に同視野を撮影した複数のデプスマップをもとに、画像を入力すると対応するデプスマップが推定できるようにあらかじめ学習(学習済み)して生成されたものとする。なお、本実施形態において、推定した幾何情報の用途は特に限定されないが、例えば、衝突予測、衝突回避等の制御に用いることができる。
本変形例を含む以下の各実施形態や各変形例では、第1の実施形態との差分について説明し、特に触れない限りは、第1の実施形態と同様であるものとする。第1の実施形態では、出発地、目的地、経由地、のそれぞれを含む周辺領域に対応する学習モデルを取得したが、これらの地点の何れかの周辺領域に対応する学習モデルを取得するようにしても良い。例えば、カーナビゲーション装置103においてユーザが指定した目的地周辺に該当する学習モデルを取得する場合、図2のステップS200において以下の処理を行う点が第1の実施形態と異なる。なお、以下の説明において「目的地」を「出発地」や「経由地」や、「GPSによって測定した現在位置」と読み替えることで、出発地周辺や経由地周辺や現地位置周辺に該当する学習モデルを取得することができる。
本変形例では、カーナビゲーション装置103においてユーザが指定した領域に対応する学習モデルを取得する。ユーザがカーナビゲーション装置103の表示画面において円形若しくは矩形の領域を指定領域として指定すると、カーナビゲーション装置103は、該指定領域を規定する情報(指定領域情報)を情報処理装置100に対して出力する。例えば指定領域情報は、指定領域が円形領域である場合には、該円形領域の中心に対応する緯度、経度と、該円形領域の半径に対応する距離(地図画像の縮尺と表示画面上の円形領域の半径とから算出可能な実際の半径)と、を表す。また例えば指定領域情報は、指定領域が矩形領域である場合には、該矩形領域の左上隅及び右下隅に対応する緯度、経度を表す。領域設定部101は、カーナビゲーション装置103から出力された指定領域情報が示す指定領域を設定領域として設定する。取得部102の動作については第1の実施形態と同様である。
本変形例では、現在位置に該当する学習モデルを記憶装置105から取得する。本実施形態に係るカーナビゲーション装置103は、GPSによって測定した現在位置を情報処理装置100に対して出力する。
本変形例では、学習モデルには、該学習モデルの学習時に使用した撮像画像に対応する属性情報が関連づけられているものとする。例えば、高速道路を含む撮像画像を用いて学習した学習モデルには、高速道路を示す属性情報が関連づけられ、一般道を含む撮像画像を用いて学習した学習モデルには、一般道を示す属性情報が関連づけられる。また、行政上規定される道路の種類に応じるようにしてもよい。第1種道路を含む撮像画像を用いて学習した学習モデルには、第1種道路を示す属性情報が関連づけられ、第2種道路を含む撮像画像を用いて学習した学習モデルには、第2種道路を示す属性情報が関連づけられる。また、第3種道路を含む撮像画像を用いて学習した学習モデルには、第3種道路を示す属性情報が関連づけられ、第4種道路を含む撮像画像を用いて学習した学習モデルには、第4種道路を示す属性情報が関連づけられる。
本実施形態では、学習モデルごとに、該学習モデルに関連づけられている撮像位置情報群が表す撮像位置群を包含する地図画像上の領域を示す情報(領域情報)をユーザに提示する。そして、ユーザに提示したそれぞれの領域情報のうちユーザにより選択された領域情報に対応する学習モデルを記憶装置105から取得する。
記憶装置405には、学習モデルに対応する撮像位置情報群の代わりに、該撮像位置情報群が示す撮像位置群を包含する包含領域に係る包含領域情報を該学習モデルに関連づけて登録するようにしても良い。
本変形例では、記憶装置405には複数の学習モデルが登録されており、該複数の学習モデルのそれぞれには、該学習モデルの学習時に使用した撮像画像の撮像位置を表す撮像位置情報と、該学習の精度を表す評価値(学習精度)と、が関連づけられている。評価値は、例えば、次のようにして予め求められた値である。「学習データに含まれている撮像画像を学習モデルに入力することで該学習モデルから出力される幾何情報と、該学習データに含まれている幾何情報と、で対応する画素のデプス値の差の絶対を全ての画素について加算した値E」を各学習データについて求める。そして学習データの数をNとすると、各学習データについて求めた値Eの合計値SをNで除算した値(=S/N、即ち値Eの平均値)の逆数を、評価値とする。このような評価値は、それぞれの学習モデルについて予め求めて記憶装置405に登録されている。
本実施形態では、第1の実施形態に係るシステムを、車両の自動運転に適用したケースについて説明する。先ず、本実施形態に係るシステムの機能構成例について、図7のブロック図を用いて説明する。
本実施形態は、図7の情報処理装置700を図11の情報処理装置1100に置き換えたものである。図11に示す如く、情報処理装置1100は、情報処理装置700にナビゲーション部1101を加えたものである。図11は、情報処理装置1100の機能構成例を示すブロック図である。
ステップS1200でナビゲーション部1101が「出発地から包含領域を通って目的地に向かう経路」として複数の経路を探索した場合、生成部104は、該探索した複数の経路をカーナビゲーション装置103の表示画面に表示しても良い。この場合、ユーザはカーナビゲーション装置103を操作して該複数の経路のうち何れか1つを選択する。
本実施形態は、図7の情報処理装置700を図13の情報処理装置1300に置き換えたものである。図13に示す如く、情報処理装置1300は、情報処理装置700に通知部1301を加えたものである。図13は、情報処理装置1300の機能構成例を示すブロック図である。
推定部801による評価値の求め方は特定の求め方に限らない。つまり、推定部801は、学習モデルと入力画像との適合度合を表す値であれば、如何なる値を評価値として求めても良い。例えば、学習モデルの学習時に使用した撮像画像の撮像位置と、撮像装置702から取得した撮像画像の撮像位置と、の差の逆数を評価値としてもよい。
情報処理装置100(図1)、400(図4)、700(図8)、1100(図11)、1300(図13)を構成する各機能部はハードウェアで実装しても良いし、ソフトウェア(コンピュータプログラム)で実装しても良い。後者の場合、このコンピュータプログラムを実行可能なプロセッサを有するコンピュータ装置は、上記の情報処理装置100、400、700、1100、1300に適用可能である。このようなコンピュータ装置のハードウェア構成例について、図15のブロック図を用いて説明する。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Claims (18)
- 設定領域を設定する設定手段と、
入力された撮像画像に対応する奥行き情報を出力するように学習済みの複数の学習済みモデルのうち、前記設定領域内の撮像位置で撮像された撮像画像と該撮像位置で撮像された撮像画像の奥行き情報とを教師データとして用いて学習した少なくとも1つの学習済みモデルを取得する取得手段と
を備えることを特徴とする情報処理装置。 - 前記設定手段は、ユーザにより指定された地点を含む領域を前記設定領域として設定することを特徴とする請求項1に記載の情報処理装置。
- 前記地点は、設定された出発地、目的地、該出発地と該目的地との間の経路上の経由地、前記情報処理装置を含むシステムの現在位置、のうち少なくとも1つを含むことを特徴とする請求項2に記載の情報処理装置。
- 前記設定手段は、地図画像上に前記設定領域を設定することを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。
- 前記設定手段は、ユーザにより指定された前記地図画像上の領域を設定領域として設定することを特徴とする請求項4に記載の情報処理装置。
- 前記取得手段は、前記取得した学習済みモデルから、前記情報処理装置を含むシステムの現在位置に基づいて1つ以上の学習済みモデルを取得することを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。
- 前記取得手段は、前記1つ以上の学習済みモデルを、該学習済みモデルの取得に要する時間として予め求めた取得時間と、前記情報処理装置を含むシステムの移動速度と、に基づくタイミングで取得することを特徴とする請求項6に記載の情報処理装置。
- 前記取得手段は、前記設定領域に含まれる現実空間に対応する学習環境において学習した学習済みモデルを取得することを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。
- 入力された撮像画像に対応する奥行き情報を出力するように学習済みの複数の学習済みモデルのそれぞれについて、学習に用いた撮像画像の撮像位置を含む領域を示す情報を提示する提示手段と、
前記提示手段が提示した情報のうちユーザにより選択された情報に対応する領域内の撮像位置で撮像された撮像画像と該撮像位置で撮像された撮像画像の奥行き情報とを教師データとして用いて学習した少なくとも1つの学習済みモデルを取得する取得手段と
を備えることを特徴とする情報処理装置。 - 前記提示手段は、学習済みモデルの学習に用いた撮像画像の撮像位置を含む領域を示す情報を、該学習済みモデルの学習精度に応じた表示形態で提示することを特徴とする請求項9に記載の情報処理装置。
- 更に、
前記撮像画像を撮影した撮像装置の位置姿勢を、入力された前フレームの撮像画像を前記取得手段が取得した学習済みモデルに入力することで該学習済みモデルから出力される奥行き情報と、該前フレームの撮像画像を撮像したときの該撮像装置の世界座標系における撮像位置と、に基づいて求める算出手段を備えることを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。 - 前記算出手段は、前記入力された前フレームの撮像画像を前記取得手段が取得したそれぞれの学習済みモデルに入力することで該それぞれの学習済みモデルから出力される奥行き情報の重み付き平均に基づいて、前記撮像装置の位置姿勢を求めることを特徴とする請求項11に記載の情報処理装置。
- 更に、
前記取得手段が取得した学習済みモデルの学習に用いた撮像画像の撮像位置を含む領域と、指定された出発地及び目的地と、に基づいて該出発地から該目的地までの経路を探索する探索手段を備えることを特徴とする請求項1乃至12の何れか1項に記載の情報処理装置。 - 更に、
入力された撮像画像を前記取得手段が取得した学習済みモデルに入力することで該学習済みモデルから出力される奥行き情報と、前記入力された撮像画像から求めた奥行き情報と、に基づいて、前記取得手段が取得した学習済みモデルの評価値を求める手段と、
前記評価値に応じた通知を行う手段と
を備えることを特徴とする請求項1乃至13の何れか1項に記載の情報処理装置。 - 前記奥行き情報は、前記撮像画像の各画素に対応する奥行き値を保持するデプスマップであることを特徴とする請求項1乃至14の何れか1項に記載の情報処理装置。
- 情報処理装置が行う情報処理方法であって、
前記情報処理装置の設定手段が、設定領域を設定する設定工程と、
前記情報処理装置の取得手段が、入力された撮像画像に対応する奥行き情報を出力するように学習済みの複数の学習済みモデルのうち、前記設定領域内の撮像位置で撮像された撮像画像と該撮像位置で撮像された撮像画像の奥行き情報とを教師データとして用いて学習した少なくとも1つの学習済みモデルを取得する取得工程と
を備えることを特徴とする情報処理方法。 - 情報処理装置が行う情報処理方法であって、
前記情報処理装置の提示手段が、入力された撮像画像に対応する奥行き情報を出力するように学習済みの複数の学習済みモデルのそれぞれについて、学習に用いた撮像画像の撮像位置を含む領域を示す情報を提示する提示工程と、
前記情報処理装置の取得手段が、前記提示工程で提示した情報のうちユーザにより選択された情報に対応する領域内の撮像位置で撮像された撮像画像と該撮像位置で撮像された撮像画像の奥行き情報とを教師データとして用いて学習した少なくとも1つの学習済みモデルを取得する取得工程と
を備えることを特徴とする情報処理方法。 - コンピュータを、請求項1乃至15の何れか1項に記載の情報処理装置の各手段として機能させるためのコンピュータプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018004471A JP7011472B2 (ja) | 2018-01-15 | 2018-01-15 | 情報処理装置、情報処理方法 |
US16/235,244 US11295142B2 (en) | 2018-01-15 | 2018-12-28 | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium |
CN201910035618.4A CN110047105B (zh) | 2018-01-15 | 2019-01-15 | 信息处理装置、信息处理方法及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018004471A JP7011472B2 (ja) | 2018-01-15 | 2018-01-15 | 情報処理装置、情報処理方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019125113A JP2019125113A (ja) | 2019-07-25 |
JP2019125113A5 JP2019125113A5 (ja) | 2021-01-28 |
JP7011472B2 true JP7011472B2 (ja) | 2022-01-26 |
Family
ID=67213978
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018004471A Active JP7011472B2 (ja) | 2018-01-15 | 2018-01-15 | 情報処理装置、情報処理方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11295142B2 (ja) |
JP (1) | JP7011472B2 (ja) |
CN (1) | CN110047105B (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10810466B2 (en) * | 2018-08-23 | 2020-10-20 | Fuji Xerox Co., Ltd. | Method for location inference from map images |
TWI678546B (zh) * | 2018-12-12 | 2019-12-01 | 緯創資通股份有限公司 | 距離偵測方法、距離偵測系統與電腦程式產品 |
US10890916B2 (en) * | 2019-01-30 | 2021-01-12 | StradVision, Inc. | Location-specific algorithm selection for optimized autonomous driving |
JP7342491B2 (ja) * | 2019-07-25 | 2023-09-12 | オムロン株式会社 | 推論装置、推論方法、及び推論プログラム |
JP7493323B2 (ja) | 2019-11-14 | 2024-05-31 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法およびプログラム |
CN112184818B (zh) * | 2020-10-09 | 2022-06-10 | 重庆邮电大学 | 基于视觉的车辆定位方法及应用其方法的停车场管理系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006119090A (ja) | 2004-10-25 | 2006-05-11 | Mitsubishi Electric Corp | ナビゲーション装置 |
US20100305844A1 (en) | 2009-06-01 | 2010-12-02 | Choi Sung-Ha | Mobile vehicle navigation method and apparatus thereof |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5144685A (en) * | 1989-03-31 | 1992-09-01 | Honeywell Inc. | Landmark recognition for autonomous mobile robots |
US7668376B2 (en) * | 2004-06-30 | 2010-02-23 | National Instruments Corporation | Shape feature extraction and classification |
JP2006170872A (ja) * | 2004-12-17 | 2006-06-29 | Seiko Epson Corp | 誘導情報システム及び携帯機器 |
EP2227783A1 (en) * | 2007-10-19 | 2010-09-15 | Boston Scientific Scimed, Inc. | Display of classifier output and confidence measure in an image |
JP2011117739A (ja) * | 2009-11-30 | 2011-06-16 | Fujitsu Ten Ltd | ナビゲーションシステムおよび車載装置 |
CN102338639B (zh) * | 2010-07-26 | 2015-04-22 | 联想(北京)有限公司 | 信息处理设备和信息处理方法 |
US8498491B1 (en) * | 2011-08-10 | 2013-07-30 | Google Inc. | Estimating age using multiple classifiers |
JP2013225245A (ja) * | 2012-04-23 | 2013-10-31 | Sony Corp | 画像処理装置、画像処理方法及びプログラム |
EP2852831A4 (en) * | 2012-05-23 | 2016-04-20 | Raqib Omer | METHOD AND SYSTEM FOR CLASSIFYING ROLLING SURFACE CONDITIONS |
GB201211999D0 (en) * | 2012-07-05 | 2012-08-22 | Roke Manor Research | Sensor location method and system |
US8995716B1 (en) * | 2012-07-12 | 2015-03-31 | Google Inc. | Image search results by seasonal time period |
DE102012214903A1 (de) * | 2012-08-22 | 2014-05-28 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zum Betreiben eines Head-up-Displays eines Fahrzeugs und Bildermittlungssystem für das Head-up-Display |
US10127721B2 (en) * | 2013-07-25 | 2018-11-13 | Hover Inc. | Method and system for displaying and navigating an optimal multi-dimensional building model |
JP2015073191A (ja) * | 2013-10-02 | 2015-04-16 | キヤノン株式会社 | 画像処理システムおよびその制御方法 |
US9091561B1 (en) * | 2013-10-28 | 2015-07-28 | Toyota Jidosha Kabushiki Kaisha | Navigation system for estimating routes for users |
KR101751298B1 (ko) * | 2016-02-18 | 2017-07-11 | 한국전자통신연구원 | 차량 경로 예측 방법 및 장치 |
JP6775969B2 (ja) * | 2016-02-29 | 2020-10-28 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP6525921B2 (ja) * | 2016-05-13 | 2019-06-05 | キヤノン株式会社 | 画像処理装置、画像処理方法、検索装置 |
US10336326B2 (en) * | 2016-06-24 | 2019-07-02 | Ford Global Technologies, Llc | Lane detection systems and methods |
WO2018083672A1 (en) * | 2016-11-04 | 2018-05-11 | Deepmind Technologies Limited | Environment navigation using reinforcement learning |
KR20180068511A (ko) * | 2016-12-14 | 2018-06-22 | 삼성전자주식회사 | 영상에 포함된 도로와 관련된 정보를 결정하는 뉴럴 네트워크를 학습시키는 학습 데이터를 생성하는 장치 및 방법 |
US10019788B1 (en) * | 2017-02-14 | 2018-07-10 | Cogniac, Corp. | Machine-learning measurements of quantitative feature attributes |
CN106910217A (zh) * | 2017-03-17 | 2017-06-30 | 驭势科技(北京)有限公司 | 视觉地图建立方法、计算装置、计算机存储介质和智能车辆 |
US10475165B2 (en) * | 2017-04-06 | 2019-11-12 | Disney Enterprises, Inc. | Kernel-predicting convolutional neural networks for denoising |
WO2018227374A1 (en) * | 2017-06-13 | 2018-12-20 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for route planning based on deep convolutional neural network |
US10515275B2 (en) * | 2017-11-17 | 2019-12-24 | Adobe Inc. | Intelligent digital image scene detection |
US10710621B2 (en) * | 2017-11-28 | 2020-07-14 | Hitachi Rail Sts France | Method, system and apparatus for controlling a vehicle |
US10515460B2 (en) * | 2017-11-29 | 2019-12-24 | Adobe Inc. | Neural network-based camera calibration |
US10586132B2 (en) * | 2018-01-08 | 2020-03-10 | Visteon Global Technologies, Inc. | Map and environment based activation of neural networks for highly automated driving |
-
2018
- 2018-01-15 JP JP2018004471A patent/JP7011472B2/ja active Active
- 2018-12-28 US US16/235,244 patent/US11295142B2/en active Active
-
2019
- 2019-01-15 CN CN201910035618.4A patent/CN110047105B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006119090A (ja) | 2004-10-25 | 2006-05-11 | Mitsubishi Electric Corp | ナビゲーション装置 |
US20100305844A1 (en) | 2009-06-01 | 2010-12-02 | Choi Sung-Ha | Mobile vehicle navigation method and apparatus thereof |
Also Published As
Publication number | Publication date |
---|---|
US20190220676A1 (en) | 2019-07-18 |
US11295142B2 (en) | 2022-04-05 |
CN110047105B (zh) | 2023-12-29 |
CN110047105A (zh) | 2019-07-23 |
JP2019125113A (ja) | 2019-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7011472B2 (ja) | 情報処理装置、情報処理方法 | |
US20210012520A1 (en) | Distance measuring method and device | |
EP3321889A1 (en) | Device and method for generating and displaying 3d map | |
JP7133926B2 (ja) | 情報処理装置、システム、情報処理方法 | |
US10086955B2 (en) | Pattern-based camera pose estimation system | |
US20140375638A1 (en) | Map display device | |
US8773534B2 (en) | Image processing apparatus, medium recording image processing program, and image processing method | |
US10451403B2 (en) | Structure-based camera pose estimation system | |
US20130222375A1 (en) | 3d building modeling | |
US11209277B2 (en) | Systems and methods for electronic mapping and localization within a facility | |
US9858669B2 (en) | Optimized camera pose estimation system | |
US9549169B2 (en) | Stereoscopic map display system | |
EP3327676B1 (en) | Method for displaying object on three-dimensional model | |
CN113358110A (zh) | 机器人障碍物地图的构建方法、装置、机器人及存储介质 | |
JP7337617B2 (ja) | 推定装置、推定方法及びプログラム | |
US9846819B2 (en) | Map image display device, navigation device, and map image display method | |
JP5196426B2 (ja) | ナビゲーション装置 | |
WO2021111613A1 (ja) | 3次元地図作成装置、3次元地図作成方法、及び3次元地図作成プログラム | |
WO2020223868A1 (zh) | 地面信息处理方法、装置和无人驾驶车辆 | |
JP2021071885A (ja) | 領域切り出し方法および領域切り出しプログラム | |
TWI791261B (zh) | 在移動中提供虛擬環境的方法與系統以及非暫態電腦可讀取儲存媒體 | |
CN116468868A (zh) | 交通信号灯的建图方法、装置、设备及存储介质 | |
CN117870716A (zh) | 地图兴趣点的显示方法、装置、电子设备及存储介质 | |
JP2021119433A (ja) | 学習用データ生成装置、学習用データ生成方法、学習用データ生成プログラム、及び学習済みの学習モデル生成方法 | |
JPH1131239A (ja) | 注視方向景観ラベリング装置およびシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201209 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201209 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211217 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220114 |