KR20170034226A - 객체 인식 장치 및 방법, 객체 인식 모델 학습 장치 및 방법 - Google Patents
객체 인식 장치 및 방법, 객체 인식 모델 학습 장치 및 방법 Download PDFInfo
- Publication number
- KR20170034226A KR20170034226A KR1020150132625A KR20150132625A KR20170034226A KR 20170034226 A KR20170034226 A KR 20170034226A KR 1020150132625 A KR1020150132625 A KR 1020150132625A KR 20150132625 A KR20150132625 A KR 20150132625A KR 20170034226 A KR20170034226 A KR 20170034226A
- Authority
- KR
- South Korea
- Prior art keywords
- pixel
- adjacent
- function
- labeling
- adjacent pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G06K9/6202—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60C—VEHICLE TYRES; TYRE INFLATION; TYRE CHANGING; CONNECTING VALVES TO INFLATABLE ELASTIC BODIES IN GENERAL; DEVICES OR ARRANGEMENTS RELATED TO TYRES
- B60C9/00—Reinforcements or ply arrangement of pneumatic tyres
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q9/00—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G06K9/6218—
-
- G06K9/6276—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/768—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using context analysis, e.g. recognition aided by known co-occurring patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Medical Informatics (AREA)
- Mechanical Engineering (AREA)
- Computational Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Algebra (AREA)
- Bioinformatics & Computational Biology (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Evolutionary Biology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
Description
도 1b는 다른 실시 예에 따른 객체 인식 장치(100)의 블록도이다.
도 2는 일 실시 예에 따른 객체 인식 모델에서 픽셀 레이블링 부(120)의 학습 장치(200)의 블록도이다.
도 3은 객체 인식 장치(100)를 이용하여 객체를 인식하는 일 예이다. 도 4는 일 실시 예에 따라 비용 함수를 계산한 표이다.
도 5는 인접 픽셀 쌍 설정부(110,210)가 인접 픽셀 쌍을 설정하는 일 예이다.
도 6은 객체 인식 모델 학습 장치(200) 및 객체 인식 장치(100)가 자율 주행 제어 시스템에 적용되는 일 예이다.
도 7은 객체 인식 장치(100)를 이용한 객체 인식 방법의 흐름도이다.
도 8은 객체 인식 모델 학습 장치(200)를 이용한 객체 인식 모델 학습 방법의 흐름도이다.
110, 210: 인접 픽셀 설정부
120: 픽셀 레이블링부
125: 클러스터링부
130: 객체 인식부
200: 객체 인식 모델 학습 장치
220: 비용 함수 계산부
230: 학습부
Claims (26)
- 이미지 프레임 내의 각각의 픽셀들에 대하여, 제1 픽셀 및 상기 제1 픽셀에 인접한 하나 이상의 제2 픽셀을 포함하는 인접 픽셀 쌍을 설정하는 인접 픽셀 설정부;
심층 신경망 기반의 모델을 이용하여 상기 제1 픽셀을 레이블링(labeling)하되, 상기 인접 픽셀 쌍의 확률 밀도 함수 값을 고려하여 상기 제1 픽셀을 레이블링하는 픽셀 레이블링부;
상기 레이블링된 제1 픽셀들을 기초로 객체를 인식하는 객체 인식부;를 포함하는 객체 인식 장치. - 제1항에 있어서,
상기 제2 픽셀은 상기 제1 픽셀에 인접한 8개의 픽셀이고,
상기 인접 픽셀 쌍은 상기 제1 픽셀을 중심으로 8개의 제2 픽셀을 각각 포함하는 8개의 인접 픽셀 쌍인 객체 인식 장치. - 제1항에 있어서,
상기 인접 픽셀 설정부는 상기 제1 픽셀과의 인접 차수 k(상수)에 따라, k-레이어 상의 인접 픽셀 쌍을 더 설정하는 객체 인식 장치. - 제1항에 있어서,
상기 심층 신경망 기반의 모델은 공간 정보를 이용하는 CNN(Convolutional Neural Network) 모델 및 시간 정보를 이용하는 RDNN(Recurrent Deep Neural Network)모델 중 어느 하나 또는 이들의 조합을 포함하는 객체 인식 장치. - 제1항에 있어서,
상기 픽셀 레이블링부는 인접 픽셀 쌍 정의 함수를 이용하여 상기 제1 픽셀을 레이블링하고,
상기 인접 픽셀 쌍 정의 함수는 상기 제1 픽셀의 확률 밀도 함수 값을 추정하기 위해 제2 픽셀을 이용했을 때 발생하는 상기 인접 픽셀 쌍의 엔트로피 차이를 나타내는 객체 인식 장치. - 제5항에 있어서,
상기 픽셀 레이블링부는 쿨백 라이블러 발산(Dkl, Divergence of Kullback Leibler)기법을 이용하여 상기 인접 픽셀 쌍 정의 함수를 계산하는 객체 인식 장치. - 제1항에 있어서,
상기 객체 인식부는 동일하게 레이블링된 제1 픽셀들을 동일한 클래스의 객체로 인식하는 객체 인식 장치. - 이미지 프레임 내의 각각의 픽셀들에 대하여, 제1 픽셀 및 상기 제1 픽셀에 인접한 하나 이상의 제2 픽셀을 포함하는 인접 픽셀 쌍을 설정하는 인접 픽셀 설정부;
상기 각각의 픽셀들이 레이블링 되면, 상기 제1 픽셀의 엔트로피 및 상기 인접 픽셀 쌍의 엔트로피 차이를 이용하여 비용 함수를 계산하는 비용 함수 계산부; 및
상기 계산된 비용 함수에 기초하여 심층 신경망(Deep Neural Network) 기반의 객체 인식 모델을 학습하는 학습부를 포함하는 객체 인식 모델 학습 장치. - 제8항에 있어서,
상기 심층 신경망 기반의 객체 인식 모델은 공간 정보를 이용하는 CNN(Convolutional Neural Network) 모델 및 시간 정보를 이용하는 RDNN(Recurrent Deep Neural Network)모델 중 어느 하나 또는 이들의 조합을 포함하는 객체 인식 모델 학습 장치. - 제8항에 있어서,
상기 심층 신경망 기반의 객체 인식 모델을 이용하여 상기 제1 픽셀을 레이블링(labeling)하되, 인접 픽셀 쌍 정의 함수를 이용하여 상기 제1 픽셀을 레이블링하는 픽셀 레이블링부를 더 포함하고,
상기 인접 픽셀 쌍 정의 함수는 상기 제1 픽셀의 확률 밀도 함수 값을 추정하기 위해 제2 픽셀을 이용했을 때 발생하는 상기 인접 픽셀 쌍의 엔트로피 차이를 나타내는 객체 인식 모델 학습 장치. - 제10항에 있어서,
상기 픽셀 레이블링부는 쿨백 라이블러 발산(Dkl, Divergence of Kullback Leibler)기법을 이용하여 상기 인접 픽셀 쌍 정의 함수를 계산하는 객체 인식 모델 학습 장치. - 제8항에 있어서,
상기 비용 함수는 상기 제1 픽셀의 레이블과 기준 신뢰 레이블(ground truth label) 사이의 차이를 나타내는 함수인 객체 인식 모델 학습 장치. - 제10항에 있어서,
상기 비용 함수 계산부는 상기 제1 픽셀의 관측 확률의 엔트로피 및 상기 인접 픽셀 쌍 정의 함수를 합산하여 상기 비용 함수를 계산하는 객체 인식 모델 학습 장치. - 제13항에 있어서,
상기 비용 함수 계산부는 상기 제1 픽셀의 레이블 및 제2 픽셀의 레이블이 동일하면, 상기 인접 픽셀 쌍 정의 함수를 상기 제1 픽셀 및 상기 제2 픽셀의 크로스 엔트로피로 계산하는 객체 인식 모델 학습 장치. - 제13항에 있어서,
상기 비용 함수 계산부는 상기 계산된 인접 픽셀 쌍 정의 함수가 소정의 값 이하 일 때, 상기 인접 픽셀 쌍 정의 함수의 최소값을 0으로 계산하는 객체 인식 모델 학습 장치. - 제8항에 있어서,
상기 학습부는 상기 비용 함수를 최소화하는 파라미터를 설정하고, 상기 파라미터로 상기 심층 신경망 기반의 객체 인식 모델을 학습하는 객체 인식 모델 학습 장치. - 이미지 프레임 내의 각각의 픽셀들에 대하여, 제1 픽셀 및 상기 제1 픽셀에 인접한 하나 이상의 제2 픽셀을 포함하는 인접 픽셀 쌍을 설정하는 단계;
심층 신경망 기반의 모델을 이용하여 상기 제1 픽셀을 레이블링(labeling)하되, 상기 인접 픽셀 쌍의 확률 밀도 함수 값을 고려하여 상기 제1 픽셀을 레이블링하는 단계;
상기 레이블링된 제1 픽셀들을 기초로 객체를 인식하는 단계를 포함하는 객체 인식 방법. - 제17항에 있어서,
상기 인접 픽셀 쌍을 설정하는 단계는 상기 제1 픽셀과의 인접 차수 k(상수)에 따라, k-레이어 상의 인접 픽셀 쌍을 더 설정하는 객체 인식 방법. - 제17항에 있어서,
상기 제1 픽셀을 레이블링하는 단계는 인접 픽셀 쌍 정의 함수를 이용하여 상기 제1 픽셀을 레이블링하고,
상기 인접 픽셀 쌍 정의 함수는 상기 제1 픽셀의 확률 밀도 함수 값을 추정하기 위해 제2 픽셀을 이용했을 때 발생하는 정보 엔트로피의 차이를 나타내는 객체 인식 방법. - 제19항에 있어서,
상기 제1 픽셀을 레이블링하는 단계는 쿨백 라이블러 발산(Dkl, Divergence of Kullback-leibler) 기법을 이용하여 상기 인접 픽셀 쌍 정의 함수를 계산하는 객체 인식 방법. - 이미지 프레임 내의 각각의 픽셀들에 대하여, 제1 픽셀 및 상기 제1 픽셀에 인접한 하나 이상의 제2 픽셀을 포함하는 인접 픽셀 쌍을 설정하는 단계;
상기 이미지 프레임 내의 픽셀들이 레이블링 되면, 상기 제1 픽셀의 엔트로피 및 상기 인접 픽셀 쌍의 엔트로피 차이에 기초하여 비용 함수를 계산하는 단계; 및
상기 계산된 비용 함수에 기초하여 심층 신경망(Deep Neural Network) 기반의 객체 인식 모델을 학습하는 단계를 포함하는 객체 인식 모델 학습 방법. - 제21항에 있어서,
상기 심층 신경망 기반의 객체 인식 모델을 이용하여 상기 제1 픽셀을 레이블링(labeling)하되, 인접 픽셀 쌍 정의 함수를 이용하여 상기 제1 픽셀을 레이블링하는 단계를 더 포함하고,
상기 인접 픽셀 쌍 정의 함수는 상기 제1 픽셀의 확률 밀도 함수 값을 추정하기 위해 제2 픽셀을 이용했을 때 발생하는 상기 인접 픽셀 쌍의 엔트로피 차이를 나타내는 객체 인식 모델 학습 방법. - 제22항에 있어서,
상기 제1 픽셀을 레이블링하는 단계는 쿨백 라이블러 발산(Dkl, Divergence of Kullback-leibler)기법을 이용하여 상기 인접 픽셀 쌍 정의 함수를 계산하는 객체 인식 모델 학습 방법. - 제22항에 있어서,
상기 비용 함수를 계산하는 단계는 상기 제1 픽셀의 관측 확률의 엔트로피 및 상기 인접 픽셀 쌍 정의 함수를 합산하여 상기 비용 함수를 계산하는 객체 인식 모델 학습 방법. - 제24항에 있어서,
상기 비용 함수를 계산하는 단계는 상기 제1 픽셀의 레이블 및 제2 픽셀의 레이블이 동일하면, 상기 인접 픽셀 쌍 정의 함수를 상기 제1 픽셀 및 상기 제2 픽셀의 크로스 엔트로피로 계산하는 객체 인식 모델 학습 방법. - 제24항에 있어서,
상기 비용 함수를 계산하는 단계는 상기 계산된 인접 픽셀 쌍 정의 함수가 소정의 값 이하 일 때, 상기 인접 픽셀 쌍 정의 함수의 최소값을 0으로 계산하는 객체 인식 모델 학습 방법.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150132625A KR102147361B1 (ko) | 2015-09-18 | 2015-09-18 | 객체 인식 장치 및 방법, 객체 인식 모델 학습 장치 및 방법 |
US15/266,231 US10133938B2 (en) | 2015-09-18 | 2016-09-15 | Apparatus and method for object recognition and for training object recognition model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150132625A KR102147361B1 (ko) | 2015-09-18 | 2015-09-18 | 객체 인식 장치 및 방법, 객체 인식 모델 학습 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20170034226A true KR20170034226A (ko) | 2017-03-28 |
KR102147361B1 KR102147361B1 (ko) | 2020-08-24 |
Family
ID=58282511
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150132625A Active KR102147361B1 (ko) | 2015-09-18 | 2015-09-18 | 객체 인식 장치 및 방법, 객체 인식 모델 학습 장치 및 방법 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10133938B2 (ko) |
KR (1) | KR102147361B1 (ko) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101891631B1 (ko) * | 2018-03-07 | 2018-08-27 | (주)크레아소프트 | 영상 학습 장치, 이를 이용한 촬영영상 분석 시스템 및 방법, 이를 수행하기 위한 기록매체 |
WO2018212494A1 (ko) * | 2017-05-17 | 2018-11-22 | 삼성전자 주식회사 | 객체를 식별하는 방법 및 디바이스 |
KR101954719B1 (ko) | 2018-08-09 | 2019-03-06 | 주식회사 인텔리빅스 | 이벤트감지장치 및 그 장치의 구동방법 |
KR101954717B1 (ko) | 2018-10-22 | 2019-03-06 | 주식회사 인텔리빅스 | 고속분석 영상처리장치 및 그 장치의 구동방법 |
KR101961687B1 (ko) * | 2017-10-20 | 2019-03-25 | 한국항공대학교산학협력단 | 장면 흐름 추정을 위한 장면 흐름 학습 방법 및 장면 흐름 추정 방법 |
KR101963404B1 (ko) | 2018-06-14 | 2019-03-28 | 가천대학교 산학협력단 | 2-단계 최적화 딥 러닝 방법, 이를 실행시키기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록매체 및 딥 러닝 시스템 |
WO2019059505A1 (ko) * | 2017-09-22 | 2019-03-28 | 삼성전자 주식회사 | 객체를 인식하는 방법 및 장치 |
KR20190043720A (ko) * | 2017-10-19 | 2019-04-29 | 한국과학기술원 | 전문화에 기반한 신뢰성 높은 딥러닝 앙상블 방법 및 장치 |
KR20190050698A (ko) * | 2017-11-03 | 2019-05-13 | 삼성전자주식회사 | 신경망의 최적화 방법 |
KR20190067680A (ko) * | 2017-12-07 | 2019-06-17 | 한양대학교 산학협력단 | 심층 학습을 이용하는 의미적 영상 분할 방법 |
KR20190120489A (ko) | 2018-04-16 | 2019-10-24 | 연세대학교 산학협력단 | 영상 인식 장치 및 방법 |
KR20190124113A (ko) * | 2018-04-25 | 2019-11-04 | 연세대학교 산학협력단 | 자가 지도 학습을 이용한 딥러닝 기반 도로 영역 추정 장치 및 방법 |
WO2019235828A1 (ko) * | 2018-06-04 | 2019-12-12 | 주식회사 딥바이오 | 투 페이스 질병 진단 시스템 및 그 방법 |
US10769453B2 (en) | 2017-05-16 | 2020-09-08 | Samsung Electronics Co., Ltd. | Electronic device and method of controlling operation of vehicle |
US10805634B2 (en) | 2017-05-17 | 2020-10-13 | Samsung Electronics Co., Ltd | Super-resolution processing method for moving image and image processing apparatus therefor |
US10803323B2 (en) | 2017-05-16 | 2020-10-13 | Samsung Electronics Co., Ltd. | Electronic device and method of detecting driving event of vehicle |
KR102254037B1 (ko) | 2020-11-13 | 2021-05-20 | 주식회사 인텔리빅스 | 영상분석장치 및 그 장치의 구동방법 |
KR20210144294A (ko) | 2020-05-22 | 2021-11-30 | 삼성에스디에스 주식회사 | 이미지 분할 모델 학습 장치 및 방법 |
KR20210152025A (ko) * | 2020-04-24 | 2021-12-14 | 주식회사 스트라드비젼 | 자율주행 자동차의 퍼셉션 네트워크를 학습시키기 위한 온-비히클 액티브 러닝 방법 및 장치 |
WO2023120988A1 (ko) * | 2021-12-22 | 2023-06-29 | 경북대학교 산학협력단 | 딥러닝 기반 객체 검출기를 이용한 차량 카메라 폐색 분류 장치 및 그 방법 |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018035805A1 (en) * | 2016-08-25 | 2018-03-01 | Intel Corporation | Coupled multi-task fully convolutional networks using multi-scale contextual information and hierarchical hyper-features for semantic image segmentation |
US10096125B1 (en) * | 2017-04-07 | 2018-10-09 | Adobe Systems Incorporated | Forecasting multiple poses based on a graphical image |
US20180313950A1 (en) * | 2017-05-01 | 2018-11-01 | Farrokh Mohamadi | CNN-Based Remote Locating and Tracking of Individuals Through Walls |
US11573573B2 (en) | 2017-06-06 | 2023-02-07 | Plusai, Inc. | Method and system for distributed learning and adaptation in autonomous driving vehicles |
US11392133B2 (en) | 2017-06-06 | 2022-07-19 | Plusai, Inc. | Method and system for object centric stereo in autonomous driving vehicles |
US11042155B2 (en) * | 2017-06-06 | 2021-06-22 | Plusai Limited | Method and system for closed loop perception in autonomous driving vehicles |
US11521045B2 (en) | 2017-06-14 | 2022-12-06 | Knowm, Inc. | Anti-Hebbian and Hebbian (AHAH) computing |
CN107527074B (zh) | 2017-09-05 | 2020-04-07 | 百度在线网络技术(北京)有限公司 | 用于车辆的图像处理方法和装置 |
DE102017218851A1 (de) * | 2017-10-23 | 2019-04-25 | Robert Bosch Gmbh | Verfahren, Vorrichtung und Computerprogramm zur Erstellung eines tiefen neuronalen Netzes |
US10719641B2 (en) * | 2017-11-02 | 2020-07-21 | Airworks Solutions, Inc. | Methods and apparatus for automatically defining computer-aided design files using machine learning, image analytics, and/or computer vision |
US10572775B2 (en) * | 2017-12-05 | 2020-02-25 | X Development Llc | Learning and applying empirical knowledge of environments by robots |
CN110197100B (zh) * | 2018-02-27 | 2022-07-26 | 北京猎户星空科技有限公司 | 物体定位方法和装置 |
JP6477943B1 (ja) * | 2018-02-27 | 2019-03-06 | オムロン株式会社 | メタデータ生成装置、メタデータ生成方法及びプログラム |
CN110197190B (zh) * | 2018-02-27 | 2022-11-01 | 北京猎户星空科技有限公司 | 模型训练和物体的定位方法及装置 |
US10140553B1 (en) * | 2018-03-08 | 2018-11-27 | Capital One Services, Llc | Machine learning artificial intelligence system for identifying vehicles |
CN108717542B (zh) * | 2018-04-23 | 2020-09-15 | 北京小米移动软件有限公司 | 识别文字区域的方法、装置及计算机可读存储介质 |
US10878276B2 (en) | 2018-06-05 | 2020-12-29 | Hrl Laboratories, Llc | Method and system for detecting change of context in video streams |
KR102727289B1 (ko) * | 2018-06-27 | 2024-11-07 | 삼성전자주식회사 | 모션 인식 모델을 이용한 자체 운동 추정 장치 및 방법, 모션 인식 모델 트레이닝 장치 및 방법 |
JP7261022B2 (ja) * | 2019-01-30 | 2023-04-19 | キヤノン株式会社 | 情報処理システム、端末装置及びその制御方法、プログラム、記憶媒体 |
US10924625B2 (en) * | 2019-03-20 | 2021-02-16 | Xerox Corporation | Dynamic compression acceleration using real-time image data entropy analysis |
US11037968B2 (en) | 2019-04-05 | 2021-06-15 | Waymo Llc | Image sensor architecture |
US11369106B2 (en) | 2019-04-12 | 2022-06-28 | Charles Hartman King | Automatic animal detection and deterrent system |
KR20200132468A (ko) * | 2019-05-17 | 2020-11-25 | 삼성전자주식회사 | 첨단 운전자 지원 장치 및 이의 객체를 검출하는 방법 |
CN110287915B (zh) * | 2019-06-28 | 2020-12-04 | 南京林业大学 | 一种基于Landsat遥感影像的城市不透水层提取方法 |
US11921473B2 (en) * | 2019-06-28 | 2024-03-05 | Intel Corporation | Methods and apparatus to generate acceptability criteria for autonomous systems plans |
US12176079B2 (en) | 2020-08-07 | 2024-12-24 | HCL Technologies Italy S.p.A. | Method, system, and device for providing assistance to patients with communication and memory impairment |
US12183078B2 (en) | 2021-11-04 | 2024-12-31 | Commonwealth Scientific And Industrial Research Organisation | Object recognition |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090068943A (ko) * | 2007-12-24 | 2009-06-29 | 연세대학교 산학협력단 | 변이 추정 시의 비용 함수 연산 방법 및 가려진 영역 처리방법 |
KR20130009372A (ko) * | 2011-07-15 | 2013-01-23 | 국립대학법인 울산과학기술대학교 산학협력단 | 움직임 추정 장치 및 그 방법 |
KR20150054258A (ko) * | 2013-11-11 | 2015-05-20 | 삼성전자주식회사 | 인식기 학습 방법 및 장치, 데이터 인식 방법 및 장치 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9007197B2 (en) | 2002-05-20 | 2015-04-14 | Intelligent Technologies International, Inc. | Vehicular anticipatory sensor system |
US7952490B2 (en) | 2005-02-22 | 2011-05-31 | Continental Temic Microelectronic GmbH | Method for identifying the activation of the brake lights of preceding vehicles |
US20070252035A1 (en) | 2005-11-29 | 2007-11-01 | Hubbard James E Jr | Unmanned vehicle |
JP5581796B2 (ja) | 2010-05-10 | 2014-09-03 | トヨタ自動車株式会社 | 運転支援装置 |
US9280711B2 (en) | 2010-09-21 | 2016-03-08 | Mobileye Vision Technologies Ltd. | Barrier and guardrail detection using a single camera |
US9233659B2 (en) | 2011-04-27 | 2016-01-12 | Mobileye Vision Technologies Ltd. | Pedestrian collision warning system |
DE102011116169A1 (de) | 2011-10-14 | 2013-04-18 | Continental Teves Ag & Co. Ohg | Vorrichtung zur Unterstützung eines Fahrers beim Fahren eines Fahrzeugs oder zum autonomen Fahren eines Fahrzeugs |
KR20130085235A (ko) | 2012-01-19 | 2013-07-29 | 김동용 | 자동차의 무인 운전 시스템 |
JP2013171390A (ja) | 2012-02-20 | 2013-09-02 | Toyota Motor Corp | 運転支援装置 |
US20130325202A1 (en) | 2012-06-01 | 2013-12-05 | GM Global Technology Operations LLC | Neuro-cognitive driver state processing |
JP2014078056A (ja) | 2012-10-09 | 2014-05-01 | Honda Elesys Co Ltd | 車両用領域識別装置、そのプログラム及びその方法 |
US9256791B2 (en) | 2012-12-04 | 2016-02-09 | Mobileye Vision Technologies Ltd. | Road vertical contour detection |
KR101417522B1 (ko) | 2012-12-27 | 2014-08-06 | 현대자동차주식회사 | 고속도로 자율주행 시스템 및 방법 |
JP2014228943A (ja) | 2013-05-20 | 2014-12-08 | 日本電産エレシス株式会社 | 車両用外界センシング装置、その軸ズレ補正プログラム及びその軸ズレ補正方法 |
KR101519215B1 (ko) | 2013-09-05 | 2015-05-11 | 현대오트론 주식회사 | 운전보조시스템 및 그 제어방법 |
US8917327B1 (en) * | 2013-10-04 | 2014-12-23 | icClarity, Inc. | Method to use array sensors to measure multiple types of data at full resolution of the sensor |
US20150103184A1 (en) | 2013-10-15 | 2015-04-16 | Nvidia Corporation | Method and system for visual tracking of a subject for automatic metering using a mobile device |
KR101511858B1 (ko) | 2013-11-04 | 2015-04-13 | 현대오트론 주식회사 | 보행자 또는 이륜차를 인지하는 운전보조시스템 및 그 제어방법 |
US9653093B1 (en) * | 2014-08-19 | 2017-05-16 | Amazon Technologies, Inc. | Generative modeling of speech using neural networks |
-
2015
- 2015-09-18 KR KR1020150132625A patent/KR102147361B1/ko active Active
-
2016
- 2016-09-15 US US15/266,231 patent/US10133938B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090068943A (ko) * | 2007-12-24 | 2009-06-29 | 연세대학교 산학협력단 | 변이 추정 시의 비용 함수 연산 방법 및 가려진 영역 처리방법 |
KR20130009372A (ko) * | 2011-07-15 | 2013-01-23 | 국립대학법인 울산과학기술대학교 산학협력단 | 움직임 추정 장치 및 그 방법 |
KR20150054258A (ko) * | 2013-11-11 | 2015-05-20 | 삼성전자주식회사 | 인식기 학습 방법 및 장치, 데이터 인식 방법 및 장치 |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10803323B2 (en) | 2017-05-16 | 2020-10-13 | Samsung Electronics Co., Ltd. | Electronic device and method of detecting driving event of vehicle |
US10769453B2 (en) | 2017-05-16 | 2020-09-08 | Samsung Electronics Co., Ltd. | Electronic device and method of controlling operation of vehicle |
WO2018212494A1 (ko) * | 2017-05-17 | 2018-11-22 | 삼성전자 주식회사 | 객체를 식별하는 방법 및 디바이스 |
US11176402B2 (en) | 2017-05-17 | 2021-11-16 | Samsung Electronics Co., Ltd | Method and device for identifying object |
US10805634B2 (en) | 2017-05-17 | 2020-10-13 | Samsung Electronics Co., Ltd | Super-resolution processing method for moving image and image processing apparatus therefor |
WO2019059505A1 (ko) * | 2017-09-22 | 2019-03-28 | 삼성전자 주식회사 | 객체를 인식하는 방법 및 장치 |
US11170201B2 (en) | 2017-09-22 | 2021-11-09 | Samsung Electronics Co., Ltd. | Method and apparatus for recognizing object |
KR20190043720A (ko) * | 2017-10-19 | 2019-04-29 | 한국과학기술원 | 전문화에 기반한 신뢰성 높은 딥러닝 앙상블 방법 및 장치 |
KR101961687B1 (ko) * | 2017-10-20 | 2019-03-25 | 한국항공대학교산학협력단 | 장면 흐름 추정을 위한 장면 흐름 학습 방법 및 장면 흐름 추정 방법 |
KR20190050698A (ko) * | 2017-11-03 | 2019-05-13 | 삼성전자주식회사 | 신경망의 최적화 방법 |
KR20190067680A (ko) * | 2017-12-07 | 2019-06-17 | 한양대학교 산학협력단 | 심층 학습을 이용하는 의미적 영상 분할 방법 |
KR101891631B1 (ko) * | 2018-03-07 | 2018-08-27 | (주)크레아소프트 | 영상 학습 장치, 이를 이용한 촬영영상 분석 시스템 및 방법, 이를 수행하기 위한 기록매체 |
KR20190120489A (ko) | 2018-04-16 | 2019-10-24 | 연세대학교 산학협력단 | 영상 인식 장치 및 방법 |
KR20190124113A (ko) * | 2018-04-25 | 2019-11-04 | 연세대학교 산학협력단 | 자가 지도 학습을 이용한 딥러닝 기반 도로 영역 추정 장치 및 방법 |
WO2019235828A1 (ko) * | 2018-06-04 | 2019-12-12 | 주식회사 딥바이오 | 투 페이스 질병 진단 시스템 및 그 방법 |
KR20190143510A (ko) * | 2018-06-04 | 2019-12-31 | 주식회사 딥바이오 | 투 페이스 질병 진단 시스템 및 그 방법 |
CN112384989A (zh) * | 2018-06-04 | 2021-02-19 | 第一百欧有限公司 | 一种两阶段疾病诊断系统及其方法 |
US12051504B2 (en) | 2018-06-04 | 2024-07-30 | Deep Bio Inc. | Two-phase disease diagnosis system and method thereof |
KR101963404B1 (ko) | 2018-06-14 | 2019-03-28 | 가천대학교 산학협력단 | 2-단계 최적화 딥 러닝 방법, 이를 실행시키기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록매체 및 딥 러닝 시스템 |
KR101954719B1 (ko) | 2018-08-09 | 2019-03-06 | 주식회사 인텔리빅스 | 이벤트감지장치 및 그 장치의 구동방법 |
KR101954717B1 (ko) | 2018-10-22 | 2019-03-06 | 주식회사 인텔리빅스 | 고속분석 영상처리장치 및 그 장치의 구동방법 |
KR20210152025A (ko) * | 2020-04-24 | 2021-12-14 | 주식회사 스트라드비젼 | 자율주행 자동차의 퍼셉션 네트워크를 학습시키기 위한 온-비히클 액티브 러닝 방법 및 장치 |
KR20210144294A (ko) | 2020-05-22 | 2021-11-30 | 삼성에스디에스 주식회사 | 이미지 분할 모델 학습 장치 및 방법 |
US11341653B2 (en) | 2020-05-22 | 2022-05-24 | Samsung Sds Co., Ltd. | Apparatus and method for training model for image segmentation |
KR102254037B1 (ko) | 2020-11-13 | 2021-05-20 | 주식회사 인텔리빅스 | 영상분석장치 및 그 장치의 구동방법 |
WO2023120988A1 (ko) * | 2021-12-22 | 2023-06-29 | 경북대학교 산학협력단 | 딥러닝 기반 객체 검출기를 이용한 차량 카메라 폐색 분류 장치 및 그 방법 |
Also Published As
Publication number | Publication date |
---|---|
US10133938B2 (en) | 2018-11-20 |
US20170083772A1 (en) | 2017-03-23 |
KR102147361B1 (ko) | 2020-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102147361B1 (ko) | 객체 인식 장치 및 방법, 객체 인식 모델 학습 장치 및 방법 | |
CN108961327B (zh) | 一种单目深度估计方法及其装置、设备和存储介质 | |
US10810792B2 (en) | Inferring locations of 3D objects in a spatial environment | |
EP3430427B1 (en) | Processing method of a 3d point cloud | |
Zhao et al. | Fusion of 3D-LIDAR and camera data for scene parsing | |
US12141235B2 (en) | Systems and methods for dataset and model management for multi-modal auto-labeling and active learning | |
JP6946255B2 (ja) | 学習装置、推定装置、学習方法およびプログラム | |
CN112001378B (zh) | 基于特征空间的车道线处理方法、装置、车载终端和介质 | |
Ji et al. | RGB-D SLAM using vanishing point and door plate information in corridor environment | |
US20220383510A1 (en) | Method For Training A Neural Network For Semantic Image Segmentation | |
CN111709471A (zh) | 对象检测模型的训练方法以及对象检测方法、装置 | |
CN118587680B (zh) | 一种自动驾驶3d目标检测方法 | |
Bao et al. | Unpaved road detection based on spatial fuzzy clustering algorithm | |
Nguyen et al. | Smart solution to detect images in limited visibility conditions based convolutional neural networks | |
Al Hakim | 3D YOLO: End-to-end 3D object detection using point clouds | |
Hehn et al. | Instance stixels: Segmenting and grouping stixels into objects | |
Alajlan et al. | Automatic lane marking prediction using convolutional neural network and S-Shaped Binary Butterfly Optimization | |
US20230169348A1 (en) | Semantic segmentation using a targeted total variation loss | |
Tang et al. | Behavior automatic analysis for wolf pack hunting: making fast behavior analysis of massive data possible | |
Miclea et al. | SemanticAdaBins-Using Semantics to Improve Depth Estimation based on Adaptive Bins in Aerial Scenarios | |
Tekin | Vehicle Path Prediction Using Recurrent Neural Network | |
Li et al. | An Optimization on 2D-SLAM Map Construction Algorithm Based on LiDAR | |
CN118115728B (zh) | 一种基于改进km3d网络的三维目标检测方法 | |
Zhou | Distance Estimation Based on Computer Vision | |
US20250021712A1 (en) | Systems and Methods for Performing Autonomous Navigation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20150918 |
|
PG1501 | Laying open of application | ||
A201 | Request for examination | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20181008 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20150918 Comment text: Patent Application |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20191029 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20200527 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20200818 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20200819 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20230801 Start annual number: 4 End annual number: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20240729 Start annual number: 5 End annual number: 5 |