JP2021077326A - ビジュアルナビゲーションのための訓練システム、方法およびナビゲーションロボット - Google Patents
ビジュアルナビゲーションのための訓練システム、方法およびナビゲーションロボット Download PDFInfo
- Publication number
- JP2021077326A JP2021077326A JP2020080879A JP2020080879A JP2021077326A JP 2021077326 A JP2021077326 A JP 2021077326A JP 2020080879 A JP2020080879 A JP 2020080879A JP 2020080879 A JP2020080879 A JP 2020080879A JP 2021077326 A JP2021077326 A JP 2021077326A
- Authority
- JP
- Japan
- Prior art keywords
- training
- environments
- camera
- robot
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 204
- 230000000007 visual effect Effects 0.000 title claims abstract description 24
- 238000000034 method Methods 0.000 title claims description 18
- 238000010606 normalization Methods 0.000 claims description 18
- 238000013527 convolutional neural network Methods 0.000 claims description 12
- 239000003795 chemical substances by application Substances 0.000 description 14
- 230000006870 function Effects 0.000 description 11
- 230000009471 action Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 238000009826 distribution Methods 0.000 description 7
- 238000004590 computer program Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 4
- 238000005457 optimization Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 229920013637 polyphenylene oxide polymer Polymers 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- ZLIBICFPKPWGIZ-UHFFFAOYSA-N pyrimethanil Chemical compound CC1=CC(C)=NC(NC=2C=CC=CC=2)=N1 ZLIBICFPKPWGIZ-UHFFFAOYSA-N 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Databases & Information Systems (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Game Theory and Decision Science (AREA)
- Business, Economics & Management (AREA)
- Electromagnetism (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Algebra (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
Abstract
Description
これは、現在の状態がsであり、行動aが起これば、次の状態がs’になる確率を示す。Oは条件付き観察確率質量関数(conditional observation probability mass function)であり、次のとおりとなる。
差引ゲイン因子(discounted gain factor)は、次のとおりとなる。
初期状態s0はP0から誘導され、シーケンスの他の要素はT、O、およびπθから誘導される。
[疑似コード]
104:カメラ
108:推進デバイス
112:制御モジュール
116:訓練モデル
Claims (22)
- ビジュアルナビゲーションを実行するナビゲーティングロボットによる使用のために訓練モデルを訓練させるための訓練システムであって、
N個のベース仮想訓練環境を含むメモリであって、前記N個のベース仮想訓練環境のそれぞれは、室内空間内の位置における視野を含み、Nは1よりも大きい整数である、メモリ、
前記N個のベース仮想訓練環境各自の少なくとも1つの特性を変化させることにより、前記N個のベース仮想訓練環境に基づいてN個の変化した仮想訓練環境を生成するように構成されたランダム化モジュール、および
前記N個のベース仮想訓練環境および前記N個の変化した仮想訓練環境を含む訓練セットに基づいてビジュアルナビゲーションを実行する前記ナビゲーティングロボットによる使用のために訓練モデルを訓練させるように構成された訓練モジュール
を含む、訓練システム。 - 前記少なくとも1つの特性は、壁のテクスチャを含む、請求項1に記載の訓練システム。
- 前記少なくとも1つの特性は、壁の色を含む、請求項1に記載の訓練システム。
- 前記少なくとも1つの特性は、照明特性を含む、請求項1に記載の訓練システム。
- 前記少なくとも1つの特性は、オブジェクトの位置を含む、請求項1に記載の訓練システム。
- 前記訓練モジュールは、畳み込みニューラルネットワーク(CNN)を使用して前記訓練モデルを訓練させるように構成される、請求項1に記載の訓練システム。
- 前記訓練モジュールは、不変性正規化(IR)を使用して前記訓練モデルを訓練させるように構成される、請求項1に記載の訓練システム。
- 前記訓練モデルは、カメラからの入力イメージに基づき、
所定の距離だけ前記ナビゲーティングロボットを前方に移動させること、
所定の第1角度だけ前記ナビゲーティングロボットを右側に回転させること、
所定の第2角度だけ前記ナビゲーティングロボットを左側に回転させること、および
前記ナビゲーティングロボットを移動させないこと
のうちの1つに対する命令を示す出力を生成するように構成される、請求項1に記載の訓練システム。 - 前記訓練モデルは、前記カメラからのRGB入力イメージに基づいて前記出力を生成するように構成される、請求項8に記載の訓練システム。
- 前記訓練モデルは、前記カメラからのRGB深度(RGB−D)入力イメージに基づいて前記出力を生成するように構成される、請求項8に記載の訓練システム。
- 前記訓練モデルは、前記カメラからのグレースケール入力イメージに基づいて前記出力を生成するように構成される、請求項8に記載の訓練システム。
- 前記訓練モデルは、前記カメラからのグレースケール深度入力イメージに基づいて前記出力を生成するように構成される、請求項8に記載の訓練システム。
- 前記室内空間は、ビル内である、請求項1に記載の訓練システム。
- ビジュアルナビゲーションを実行するナビゲーティングロボットによる使用のために訓練モデルを訓練させる方法であって
1つ以上のプロセッサにより、N個のベース仮想訓練環境各自の少なくとも1つの特性を変化させることにより、前記N個のベース仮想訓練環境に基づいてN個の変化した仮想訓練環境を生成する段階であって、前記N個のベース仮想訓練環境のそれぞれと前記N個の変化した仮想訓練環境のそれぞれは、室内空間内の位置における視野を含み、Nは1よりも大きい整数である、段階、および
前記1つ以上のプロセッサにより、前記N個のベース仮想訓練環境および前記N個の変化した仮想訓練環境を含む訓練セットに基づいてビジュアルナビゲーションを実行する前記ナビゲーティングロボットによる使用のために訓練モデルを訓練させる段階
を含む、方法。 - 前記少なくとも1つの特性は、
壁のテクスチャ、
壁の色、
照明特性、および
オブジェクトの位置
のうちの1つを含む、請求項14に記載の方法。 - 前記訓練させる段階は、畳み込みニューラルネットワーク(CNN)を使用して前記訓練モデルを訓練させる段階を含む、請求項14に記載の方法。
- 前記訓練させる段階は、不変性正規化(IR)を使用して前記訓練モデルを訓練させる段階を含む、請求項14に記載の方法。
- 前記訓練モデルは、カメラからの入力イメージに基づき、
所定の距離だけ前記ナビゲーティングロボットを前方に移動させること、
所定の第1角度だけ前記ナビゲーティングロボットを右側に回転させること、
所定の第2角度だけ前記ナビゲーティングロボットを左側に回転させること、および
前記ナビゲーティングロボットを移動させないこと
のうちの1つに対する命令を示す出力を生成するように構成される、請求項14に記載の方法。 - 前記訓練モデルは、
前記カメラからのRGB入力イメージ、
前記カメラからのRGB深度(RGB−D)入力イメージ、
前記カメラからのグレースケール入力イメージ、および
前記カメラからのグレースケール深度入力イメージ
のうちの1つに基づいて前記出力を生成するように構成される、請求項18に記載の方法。 - ナビゲーティングロボットであって、
前記ナビゲーティングロボットの前の視野内からイメージをキャプチャするように構成されたカメラであって、前記視野は、前記ナビゲーティングロボットの周りの360度よりも狭い、カメラ、
室内空間内の位置におけるN個のベース仮想訓練環境および前記N個のベース仮想訓練環境各自の少なくとも1つの特性を変化させることによって生成されたN個の変化した仮想訓練環境に基づいて訓練され、Nは1よりも大きい整数であり、前記カメラからのイメージのうちの1つに基づいて出力を生成するように構成されるモデル、
前記ナビゲーティングロボットを推進させるように構成された1つ以上の推進デバイス、および
前記モデルの出力に基づき、前記1つ以上の推進デバイスのうちの1つ以上を選択的に作動させるように構成された制御モジュール
を含む、ナビゲーティングロボット。 - 前記モデルは、前記カメラからのイメージのうちの1つに基づき、第1状態、第2状態、第3状態、および第4状態で構成されたグループのうちの1つで前記出力を設定するように構成され、
前記制御モジュールは、
前記出力が第1状態であるとき、前記1つ以上の推進デバイスのうちの1つ以上を所定の距離だけ前記ナビゲーティングロボットを前方に移動させるように作動させ、
前記出力が第2状態であるとき、前記1つ以上の推進デバイスのうちの1つ以上を所定の第1角度だけ前記ナビゲーティングロボットを右側に回転させるように作動させ、
前記出力が第3状態であるとき、前記1つ以上の推進デバイスのうちの1つ以上を所定の第2角度だけ前記ナビゲーティングロボットを左側に回転させるように作動させ、
前記出力が第4状態であるとき、前記1つ以上の推進デバイスのうちのいずれも作動させないように構成される、請求項20に記載のナビゲーティングロボット。 - 前記ナビゲーティングロボットは、自律走行車である、請求項20に記載のナビゲーティングロボット。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/677,001 | 2019-11-07 | ||
US16/677,001 US11454978B2 (en) | 2019-11-07 | 2019-11-07 | Systems and methods for improving generalization in visual navigation |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021077326A true JP2021077326A (ja) | 2021-05-20 |
JP7105825B2 JP7105825B2 (ja) | 2022-07-25 |
Family
ID=75846545
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020080879A Active JP7105825B2 (ja) | 2019-11-07 | 2020-05-01 | ビジュアルナビゲーションのための訓練システム、方法およびナビゲーションロボット |
Country Status (3)
Country | Link |
---|---|
US (1) | US11454978B2 (ja) |
JP (1) | JP7105825B2 (ja) |
KR (1) | KR20210055570A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023037504A1 (ja) * | 2021-09-10 | 2023-03-16 | 日本電気株式会社 | 強化学習システム、強化学習装置及び強化学習方法 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220198813A1 (en) * | 2020-12-17 | 2022-06-23 | Sri International | System and method for efficient visual navigation |
US20220289217A1 (en) * | 2021-03-10 | 2022-09-15 | Ohio State Innovation Foundation | Vehicle-in-virtual-environment (vve) methods and systems for autonomous driving system |
CN114061586A (zh) * | 2021-11-10 | 2022-02-18 | 北京有竹居网络技术有限公司 | 用于生成电子设备的导航路径的方法和产品 |
WO2024091013A1 (ko) * | 2022-10-26 | 2024-05-02 | 엘지전자 주식회사 | 차량용 디스플레이 장치 및 그 제어 방법 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018170421A1 (en) * | 2017-03-17 | 2018-09-20 | Magic Leap, Inc. | Room layout estimation methods and techniques |
JP2019032821A (ja) * | 2017-06-26 | 2019-02-28 | コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド | ニューラルネットワークによる画風変換を用いたデータオーグメンテーション技術 |
JP2019056966A (ja) * | 2017-09-19 | 2019-04-11 | 株式会社東芝 | 情報処理装置、画像認識方法および画像認識プログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6548690B2 (ja) * | 2016-10-06 | 2019-07-24 | 株式会社アドバンスド・データ・コントロールズ | シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法 |
EP3523758A1 (en) * | 2016-10-10 | 2019-08-14 | Deepmind Technologies Limited | Neural networks for selecting actions to be performed by a robotic agent |
CN110769985B (zh) * | 2017-12-05 | 2023-10-17 | 谷歌有限责任公司 | 使用循环神经网络的机器人末端执行器的视点不变的视觉伺服 |
US11554785B2 (en) * | 2019-05-07 | 2023-01-17 | Foresight Ai Inc. | Driving scenario machine learning network and driving environment simulation |
-
2019
- 2019-11-07 US US16/677,001 patent/US11454978B2/en active Active
-
2020
- 2020-04-21 KR KR1020200048113A patent/KR20210055570A/ko unknown
- 2020-05-01 JP JP2020080879A patent/JP7105825B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018170421A1 (en) * | 2017-03-17 | 2018-09-20 | Magic Leap, Inc. | Room layout estimation methods and techniques |
JP2020514890A (ja) * | 2017-03-17 | 2020-05-21 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 部屋レイアウト推定方法および技法 |
JP2019032821A (ja) * | 2017-06-26 | 2019-02-28 | コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド | ニューラルネットワークによる画風変換を用いたデータオーグメンテーション技術 |
JP2019056966A (ja) * | 2017-09-19 | 2019-04-11 | 株式会社東芝 | 情報処理装置、画像認識方法および画像認識プログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023037504A1 (ja) * | 2021-09-10 | 2023-03-16 | 日本電気株式会社 | 強化学習システム、強化学習装置及び強化学習方法 |
Also Published As
Publication number | Publication date |
---|---|
JP7105825B2 (ja) | 2022-07-25 |
US11454978B2 (en) | 2022-09-27 |
KR20210055570A (ko) | 2021-05-17 |
US20210141383A1 (en) | 2021-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021077326A (ja) | ビジュアルナビゲーションのための訓練システム、方法およびナビゲーションロボット | |
US11886997B2 (en) | Training action selection neural networks using apprenticeship | |
US20220363259A1 (en) | Method for generating lane changing decision-making model, method for lane changing decision-making of unmanned vehicle and electronic device | |
US11741334B2 (en) | Data-efficient reinforcement learning for continuous control tasks | |
US10269125B1 (en) | Method for tracking object by using convolutional neural network including tracking network and computing device using the same | |
US11238344B1 (en) | Artificially intelligent systems, devices, and methods for learning and/or using a device's circumstances for autonomous device operation | |
US10860927B2 (en) | Stacked convolutional long short-term memory for model-free reinforcement learning | |
US11714990B2 (en) | Jointly learning exploratory and non-exploratory action selection policies | |
JP2022547611A (ja) | 道路シーンにおける多様な長期将来軌道のシミュレーション | |
CN109643383A (zh) | 域分离神经网络 | |
EP3899797A1 (en) | Multi-agent reinforcement learning with matchmaking policies | |
CN116796791A (zh) | 使用管理者和工作者神经网络的用于强化学习的动作选择 | |
CN112001585A (zh) | 多智能体决策方法、装置、电子设备及存储介质 | |
US20210158162A1 (en) | Training reinforcement learning agents to learn farsighted behaviors by predicting in latent space | |
US11203361B2 (en) | Method for performing on-device learning of machine learning network on autonomous vehicle by using multi-stage learning with adaptive hyper-parameter sets and device using the same | |
JP2020119529A (ja) | モバイルデバイスまたは小型ネットワークに適用可能なハードウェアを最適化するのに利用可能なroiをプーリングするために、マスキングパラメータを利用する方法及び装置、そしてこれを利用したテスト方法及びテスト装置{learning method and learning device for pooling roi by using masking parameters to be used for mobile devices or compact networks via hardware optimization, and testing method and testing device using the same} | |
KR102587994B1 (ko) | 카메라 포즈 회귀를 위한 적대적 장면 적응 | |
CN110447041A (zh) | 噪声神经网络层 | |
Tira-Thompson et al. | The Tekkotsu robotics development environment | |
CN110858328B (zh) | 用于模仿学习的数据采集方法、装置及存储介质 | |
CN115542901B (zh) | 基于近端策略训练的可变形机器人避障方法 | |
Bershadsky et al. | Techniques for adaptive graphics applications synthesis based on variability modeling technology and graph theory | |
CN113867147B (zh) | 训练及控制方法、装置、计算设备和介质 | |
CN116663417B (zh) | 一种虚拟地理环境角色建模方法 | |
Premi | Autonomous robot exploration using deep learning: an experimental analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200501 |
|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20200525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210706 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210903 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220419 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220419 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220427 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220510 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20220530 |
|
TRDD | Decision of grant or rejection written | ||
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20220530 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220621 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220712 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7105825 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |