KR20190034021A - 객체를 인식하는 방법 및 장치 - Google Patents
객체를 인식하는 방법 및 장치 Download PDFInfo
- Publication number
- KR20190034021A KR20190034021A KR1020170122876A KR20170122876A KR20190034021A KR 20190034021 A KR20190034021 A KR 20190034021A KR 1020170122876 A KR1020170122876 A KR 1020170122876A KR 20170122876 A KR20170122876 A KR 20170122876A KR 20190034021 A KR20190034021 A KR 20190034021A
- Authority
- KR
- South Korea
- Prior art keywords
- sensor data
- data
- dimensional
- network model
- learning
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 238000006243 chemical reaction Methods 0.000 claims description 31
- 230000033001 locomotion Effects 0.000 claims description 24
- 238000013473 artificial intelligence Methods 0.000 abstract description 11
- 230000006870 function Effects 0.000 abstract description 10
- 238000010801 machine learning Methods 0.000 abstract description 4
- 238000013135 deep learning Methods 0.000 abstract description 3
- 210000004556 brain Anatomy 0.000 abstract description 2
- 230000019771 cognition Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 22
- 238000011156 evaluation Methods 0.000 description 22
- 238000004891 communication Methods 0.000 description 19
- 238000007781 pre-processing Methods 0.000 description 13
- 238000012545 processing Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 9
- 230000001133 acceleration Effects 0.000 description 8
- 239000000470 constituent Substances 0.000 description 4
- 238000010295 mobile communication Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G06K9/20—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
Description
도 2는 일 실시예에 따른 객체를 인식하는 방법을 설명하기 위한 흐름도이다.
도 3은 일 실시예에 따른 객체 인식 장치가 이미지 데이터와 2차원으로 변환된 센서 데이터를 조합하는 방법을 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 객체 인식 장치가 학습 네트워크 모델을 이용하여 이미지 데이터로부터 획득된 특성 정보를 기초로 객체를 인식하는 방법을 설명하기 위한 흐름도이다.
도 5는 일 실시예에 따른 객체 인식 장치가 학습 네트워크 모델을 이용하여 이미지 데이터로부터 획득된 특성 정보를 기초로 객체를 인식하는 방법을 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 객체 인식 장치가 학습 네트워크 모델을 이용하여 1차원의 센서 데이터를 2차원의 센서 데이터로 변환하는 방법을 설명하기 위한 흐름도이다.
도 7은 일 실시예에 따른 객체 인식 장치가 1차원의 센서 데이터를 2차원의 센서 데이터로 변환하는 학습 네트워크 모델을 학습시키는 방법을 설명하기 위한 도면이다.
도 8은 일 실시예에 따른 객체 인식 장치가 복수의 학습 네트워크 모델을 이용하여 객체를 인식하는 방법을 설명하기 위한 흐름도이다.
도 9는 일 실시예에 따른 객체 인식 장치가 복수의 학습 네트워크 모델을 이용하여 객체를 인식하는 방법을 설명하기 위한 도면이다.
도 10은 일 실시예에 따라 객체를 인식하는데 이용되는 복수의 학습 네트워크 모델 중 제 1 학습 네트워크 모델을 학습시키는 방법을 설명하기 위한 도면이다.
도 11은 일 실시예에 따라 객체를 인식하는데 이용되는 복수의 학습 네트워크 모델 중 제 3 학습 네트워크 모델을 학습시키는 방법을 설명하기 위한 도면이다.
도 12는 일 실시예에 따라 객체를 인식하는 객체 인식 장치의 블록도이다.
도 13은 일 실시예에 따른 프로세서를 설명하기 위한 도면이다.
도 14는 일 실시예에 따른 데이터 학습부의 블록도이다.
도 15는 일 실시예에 따른 데이터 인식부의 블록도이다.
도 16은 다른 실시예에 따른 객체 인식 장치의 블록도이다.
Claims (21)
- 서로 다른 종류의 복수의 센서로부터 객체에 관한 복수의 센서 데이터를 획득하는 단계;
상기 복수의 센서 데이터 중 적어도 일부를 2차원의 센서 데이터로 변환하는 단계; 및
상기 복수의 센서 중 어느 하나인 이미지 센서로부터 획득된 2차원의 이미지 데이터와 상기 변환된 2차원의 센서 데이터를 기초로 기 생성된 학습 네트워크 모델을 이용하여, 상기 객체를 인식하는 단계를 포함하는, 객체를 인식하는 방법. - 제 1항에 있어서, 상기 복수의 센서는,
움직임 센서, 상기 이미지 센서, 근접 센서 및 압력 센서 중 적어도 두 개 이상의 센서를 포함하는, 객체를 인식하는 방법. - 제 1 항에 있어서, 상기 변환하는 단계는,
1차원의 센서 데이터를 2차원의 센서 데이터로 변환하기 위한 기준을 학습시킨 결과 생성된, 센서 데이터 변환을 위한 학습 네트워크 모델을 이용하여, 상기 복수의 센서 데이터 중 적어도 일부를 상기 2차원 센서 데이터로 변환하는, 객체를 인식하는 방법. - 제 3 항에 있어서,
상기 변환된 2차원의 센서 데이터를 재변환하여, 1차원의 센서 데이터를 획득하는 단계;
상기 획득된 복수의 센서 데이터 중 적어도 일부인 1차원의 센서 데이터와 상기 재변환 결과 획득된 1차원의 센서 데이터를 비교한 결과에 기초하여, 센서 데이터의 변환에서 발생된 오차를 결정하는 단계; 및
상기 결정된 오차에 기초하여, 상기 센서 데이터 변환을 위한 학습 네트워크 모델을 구성하는 복수의 레이어의 파라미터를 업데이트 하는 단계를 더 포함하는, 객체를 인식하는 방법. - 제 3 항에 있어서,
상기 인식된 객체의 카테고리 및 상기 객체의 카테고리를 비교한 결과에 기초하여, 센서 데이터의 변환에서 발생된 오차를 결정하는 단계; 및
상기 결정된 오차에 기초하여, 상기 센서 데이터 변환을 위한 학습 네트워크 모델을 구성하는 복수의 레이어의 파라미터를 업데이트하는 단계를 더 포함하는, 객체를 인식하는 방법. - 제 1항에 있어서, 상기 변환하는 단계는,
상기 복수의 센서 중 적어도 하나로부터 제 1 축 방향의 1차원 센서 데이터를 획득하는 단계; 및
상기 제 1 축 방향의 1차원 센서 데이터를 제 2 축 방향으로 업샘플링(upsampling)하여 상기 2차원의 센서 데이터를 생성하는 단계를 포함하는, 객체를 인식하는 방법. - 제 6항에 있어서, 상기 객체를 인식하는 단계는,
상기 변환된 2차원의 센서 데이터에 기 설정된 가중치를 적용하여, 상기 변환된 2차원의 센서 데이터와 상기 2차원 이미지 데이터를 조합하는 단계를 포함하고,
상기 기 설정된 가중치는, 상기 2차원의 센서 데이터로의 변환을 위해 생성된 학습 네트워크 모델을 구성하는 복수의 레이어의 파라미터로서, 상기 인식된 객체의 카테고리와 객체의 실제 카테고리를 비교한 결과 획득된 인식 결과의 오차에 기초하여 업데이트 되는, 객체를 인식하는 방법. - 제 1항에 있어서, 상기 객체를 인식하는 단계는,
적어도 하나의 이미지 데이터로부터 이미지 특성 정보를 획득하는 기준을 학습시킨 결과 생성된 학습 네트워크 모델을 이용하여, 상기 2차원의 이미지 데이터로부터 상기 객체를 대표하는 이미지 특성 정보를 획득하는 단계; 및
상기 이미지 특성 정보와 상기 변환된 2차원의 센서 데이터를 기초로, 상기 기 생성된 학습 네트워크 모델을 이용하여, 상기 객체를 인식하는 단계를 포함하는, 객체를 인식하는 방법. - 제 1항에 있어서,
상기 기 생성된 학습 네트워크 모델은 복수의 레이어로 구성되고,
상기 복수의 레이어 각각의 파라미터는,
상기 이미지 데이터 및 상기 변환된 2차원 센서 데이터 중 객체 인식에 이용되는 적어도 하나의 데이터의 선택 및 상기 선택된 적어도 하나의 데이터의 조합을 위한 기준을 학습한 결과에 기초하여 결정되는, 객체를 인식하는 방법. - 제 1항에 있어서,
상기 인식된 객체의 카테고리 및 상기 객체의 카테고리를 비교한 결과에 기초하여, 상기 객체 인식에서 발생된 오차를 결정하는 단계;
상기 결정된 오차에 기초하여, 상기 기 생성된 학습 네트워크 모델을 구성하는 복수의 레이어의 파라미터를 업데이트 하는 단계를 더 포함하는, 객체를 인식하는 방법. - 하나 이상의 인스트럭션을 저장하는 메모리;
디스플레이;
객체에 관한 복수의 센서 데이터를 획득하는 복수의 센서; 및
상기 메모리에 저장된 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
상기 프로세서는,
상기 복수의 센서로부터 객체에 관한 복수의 센서 데이터를 획득하고,
상기 복수의 센서 데이터 중 적어도 일부를 2차원의 센서 데이터로 변환하며,
상기 복수의 센서 중 어느 하나인 이미지 센서로부터 획득된 2차원의 이미지 데이터와 상기 변환된 2차원의 센서 데이터를 기초로 기 생성된 학습 네트워크 모델을 이용하여 상기 객체를 인식하는, 객체를 인식하는 장치. - 제 11항에 있어서, 상기 복수의 센서는,
움직임 센서, 상기 이미지 센서, 근접 센서 및 압력 센서 중 적어도 두 개 이상의 센서를 포함하는, 객체를 인식하는 장치. - 제 11 항에 있어서,
상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
1차원의 센서 데이터를 2차원의 센서 데이터로 변환하기 위한 기준을 학습시킨 결과 생성된, 센서 데이터 변환을 위한 학습 네트워크 모델을 이용하여, 상기 복수의 센서 데이터 중 적어도 일부를 상기 2차원 센서 데이터로 변환하는, 객체를 인식하는 장치. - 제 13 항에 있어서,
상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
상기 변환된 2차원의 센서 데이터를 재변환하여, 1차원의 센서 데이터를 획득하고,
상기 획득된 복수의 센서 데이터 중 적어도 일부인 1차원의 센서 데이터와 상기 재변환 결과 획득된 1차원의 센서 데이터를 비교한 결과에 기초하여, 센서 데이터의 변환에서 발생된 오차를 결정하며,
상기 결정된 오차에 기초하여, 상기 센서 데이터 변환을 위한 학습 네트워크 모델을 구성하는 복수의 레이어의 파라미터를 업데이트 하는, 객체를 인식하는 장치. - 제 13 항에 있어서,
상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
상기 인식된 객체의 카테고리 및 상기 객체의 카테고리를 비교한 결과에 기초하여, 센서 데이터의 변환에서 발생된 오차를 결정하고,
상기 결정된 오차에 기초하여, 상기 센서 데이터 변환을 위한 학습 네트워크 모델을 구성하는 복수의 레이어의 파라미터를 업데이트 하는, 객체를 인식하는 장치. - 제 11항에 있어서,
상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
상기 복수의 센서 중 적어도 하나로부터 제 1 축 방향의 1차원 센서 데이터를 획득하고,
상기 제 1 축 방향의 1차원 센서 데이터를 제 2 축 방향으로 업샘플링(upsampling)하여 상기 2차원의 센서 데이터를 생성하는, 객체를 인식하는 장치. - 제 16항에 있어서,
상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
상기 변환된 2차원의 센서 데이터에 기 설정된 가중치를 적용하여, 상기 변환된 2차원의 센서 데이터와 상기 2차원 이미지 데이터를 조합하고,
상기 기 설정된 가중치는, 상기 2차원의 센서 데이터로의 변환을 위해 생성된 학습 네트워크 모델을 구성하는 복수의 레이어의 파라미터로서, 상기 인식된 객체의 카테고리와 객체의 실제 카테고리를 비교한 결과 획득된 인식 결과의 오차에 기초하여 업데이트 되는, 객체를 인식하는 장치. - 제 11항에 있어서,
상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
적어도 하나의 이미지 데이터로부터 이미지 특성 정보를 획득하는 기준을 학습시킨 결과 생성된 학습 네트워크 모델을 이용하여, 상기 2차원의 이미지 데이터로부터 상기 객체를 대표하는 이미지 특성 정보를 획득하고,
상기 이미지 특성 정보와 상기 변환된 2차원의 센서 데이터를 기초로, 상기 기 생성된 학습 네트워크 모델을 이용하여, 상기 객체를 인식하는, 객체를 인식하는 장치. - 제 11항에 있어서,
상기 기 생성된 학습 네트워크 모델은 복수의 레이어로 구성되고,
상기 복수의 레이어 각각의 파라미터는,
상기 이미지 데이터 및 상기 변환된 2차원 센서 데이터 중 객체 인식에 이용되는 적어도 하나의 데이터의 선택 및 상기 선택된 적어도 하나의 데이터의 조합을 위한 기준을 학습한 결과에 기초하여 결정되는, 객체를 인식하는 장치. - 제 11항에 있어서,
상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
상기 인식된 객체의 카테고리 및 상기 객체의 카테고리를 비교한 결과에 기초하여, 상기 객체 인식에서 발생된 오차를 결정하고,
상기 결정된 오차에 기초하여, 상기 기 생성된 학습 네트워크 모델을 구성하는 복수의 레이어의 파라미터를 업데이트 하는, 객체를 인식하는 장치. - 제 1항 내지 제 10항 중 어느 하나의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170122876A KR102491546B1 (ko) | 2017-09-22 | 2017-09-22 | 객체를 인식하는 방법 및 장치 |
CN201880061243.2A CN111108514A (zh) | 2017-09-22 | 2018-07-11 | 用于识别对象的方法和设备 |
EP18859460.0A EP3648006A4 (en) | 2017-09-22 | 2018-07-11 | OBJECT RECOGNITION PROCESS AND APPARATUS |
US16/635,024 US11170201B2 (en) | 2017-09-22 | 2018-07-11 | Method and apparatus for recognizing object |
PCT/KR2018/007829 WO2019059505A1 (ko) | 2017-09-22 | 2018-07-11 | 객체를 인식하는 방법 및 장치 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170122876A KR102491546B1 (ko) | 2017-09-22 | 2017-09-22 | 객체를 인식하는 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190034021A true KR20190034021A (ko) | 2019-04-01 |
KR102491546B1 KR102491546B1 (ko) | 2023-01-26 |
Family
ID=65811462
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170122876A KR102491546B1 (ko) | 2017-09-22 | 2017-09-22 | 객체를 인식하는 방법 및 장치 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11170201B2 (ko) |
EP (1) | EP3648006A4 (ko) |
KR (1) | KR102491546B1 (ko) |
CN (1) | CN111108514A (ko) |
WO (1) | WO2019059505A1 (ko) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200006028A (ko) * | 2019-12-30 | 2020-01-17 | 주식회사 고영테크놀러지 | 인쇄 회로 기판 검사 장치, 스크린 프린터의 결함 유형 결정 방법 및 컴퓨터 판독 가능한 기록 매체 |
KR102167808B1 (ko) * | 2020-03-31 | 2020-10-20 | 한밭대학교 산학협력단 | Ar에 적용 가능한 의미적인 분할 방법 및 시스템 |
WO2020241951A1 (ko) * | 2019-05-31 | 2020-12-03 | 엘지전자 주식회사 | 인공지능 학습방법 및 이를 이용하는 로봇의 동작방법 |
WO2020246834A1 (ko) * | 2019-06-04 | 2020-12-10 | 주식회사 딥엑스 | 이미지 객체 인식 장치 및 방법 |
KR20210057848A (ko) * | 2019-11-12 | 2021-05-24 | 주식회사 이지스로직 | 딥 러닝 인공신경망 기반 영상 인식 방법 및 시스템 |
KR20210081852A (ko) * | 2019-12-24 | 2021-07-02 | 영남대학교 산학협력단 | 객체 검출 모델 학습 장치 및 방법 |
CN113557536A (zh) * | 2019-04-25 | 2021-10-26 | 欧姆龙株式会社 | 学习系统、数据生成装置、数据生成方法及数据生成程序 |
KR102517469B1 (ko) * | 2021-12-31 | 2023-04-04 | 수퍼빈 주식회사 | 객체를 인식하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 |
WO2022225374A3 (ko) * | 2021-04-22 | 2023-04-06 | 서울대학교산학협력단 | 비디오 신원 복원 모델을 이용한 얼굴 이미지 재구성 방법 및 장치 |
WO2023113187A1 (ko) * | 2021-12-13 | 2023-06-22 | 삼성전자 주식회사 | 획득된 정보에 기반하여 화면을 구성하기 위한 전자 장치 및 방법 |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101942892B1 (ko) * | 2018-11-14 | 2019-01-29 | 아이픽셀 주식회사 | 하이브리드 머신 비전을 수행하는 클라이언트 단말 및 그 방법 |
KR102715879B1 (ko) * | 2019-03-07 | 2024-10-14 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
TWI777153B (zh) * | 2020-04-21 | 2022-09-11 | 和碩聯合科技股份有限公司 | 影像辨識方法及其裝置及人工智慧模型訓練方法及其裝置 |
US11490135B2 (en) | 2020-06-19 | 2022-11-01 | Micron Technology, Inc. | Surveillance camera upgrade via removable media having deep learning accelerator and random access memory |
US12135671B2 (en) | 2020-06-19 | 2024-11-05 | Micron Technology, Inc. | Video compression in removable storage device having deep learning accelerator and random access memory |
US11356601B2 (en) * | 2020-06-19 | 2022-06-07 | Micron Technology, Inc. | Intelligent digital camera having deep learning accelerator and random access memory |
US20220164611A1 (en) * | 2020-11-23 | 2022-05-26 | De-Risking Strategies, LLC | System and method for multi-sensor, multi-layer targeted labeling and user interfaces therefor |
WO2023196435A1 (en) * | 2022-04-05 | 2023-10-12 | Pasteur Labs, Inc. | Autonomous, world-building, lifelong learning agents and computing engines for general-purpose intelligence |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170032222A1 (en) | 2015-07-30 | 2017-02-02 | Xerox Corporation | Cross-trained convolutional neural networks using multimodal images |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06189048A (ja) * | 1992-09-14 | 1994-07-08 | Ricoh Co Ltd | 操作表示用制御装置、画像形成装置及び電源投入用制御装置 |
US7221483B2 (en) * | 2000-09-05 | 2007-05-22 | Ricoh Company, Ltd. | Image encoding method and apparatus, image decoding method and apparatus, image processing apparatus, image formation apparatus, and computer-executable programs |
US20050232512A1 (en) | 2004-04-20 | 2005-10-20 | Max-Viz, Inc. | Neural net based processor for synthetic vision fusion |
US7483559B2 (en) * | 2004-08-13 | 2009-01-27 | Synopsys, Inc. | Method and apparatus for deblurring mask images |
EP2212160A4 (en) * | 2007-11-26 | 2012-07-04 | Autoliv Dev | SYSTEM FOR CLASSIFYING OBJECTS NEAR A VEHICLE |
US8553989B1 (en) * | 2010-04-27 | 2013-10-08 | Hrl Laboratories, Llc | Three-dimensional (3D) object recognition system using region of interest geometric features |
CN102063716B (zh) * | 2011-01-13 | 2012-07-04 | 耿则勋 | 一种基于各向异性约束的多帧迭代盲解卷积图像复原方法 |
US9355334B1 (en) * | 2013-09-06 | 2016-05-31 | Toyota Jidosha Kabushiki Kaisha | Efficient layer-based object recognition |
US10417525B2 (en) | 2014-09-22 | 2019-09-17 | Samsung Electronics Co., Ltd. | Object recognition with reduced neural network weight precision |
KR101828314B1 (ko) * | 2015-05-28 | 2018-03-02 | (주)에프엠커뮤니케이션즈 | 다중 객체 추적 시스템 및 그 방법 |
KR101657495B1 (ko) | 2015-09-04 | 2016-09-30 | (주)한국플랫폼서비스기술 | 딥러닝 분석을 위한 모듈화시스템 및 이를 이용한 영상 인식 방법 |
KR102147361B1 (ko) * | 2015-09-18 | 2020-08-24 | 삼성전자주식회사 | 객체 인식 장치 및 방법, 객체 인식 모델 학습 장치 및 방법 |
CN106204449B (zh) * | 2016-07-06 | 2019-09-10 | 安徽工业大学 | 一种基于对称深度网络的单幅图像超分辨率重建方法 |
CN106502626A (zh) * | 2016-11-03 | 2017-03-15 | 北京百度网讯科技有限公司 | 数据处理方法和装置 |
TWI658720B (zh) * | 2016-12-30 | 2019-05-01 | 創研光電股份有限公司 | 運用變焦影像資訊以改善原視差影像匹配錯誤之方法 |
-
2017
- 2017-09-22 KR KR1020170122876A patent/KR102491546B1/ko active IP Right Grant
-
2018
- 2018-07-11 US US16/635,024 patent/US11170201B2/en active Active
- 2018-07-11 EP EP18859460.0A patent/EP3648006A4/en active Pending
- 2018-07-11 WO PCT/KR2018/007829 patent/WO2019059505A1/ko unknown
- 2018-07-11 CN CN201880061243.2A patent/CN111108514A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170032222A1 (en) | 2015-07-30 | 2017-02-02 | Xerox Corporation | Cross-trained convolutional neural networks using multimodal images |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11636670B2 (en) | 2018-12-28 | 2023-04-25 | Deepx Co., Ltd. | Method for recognizing object in image |
CN113557536B (zh) * | 2019-04-25 | 2024-05-31 | 欧姆龙株式会社 | 学习系统、数据生成装置、数据生成方法及存储介质 |
CN113557536A (zh) * | 2019-04-25 | 2021-10-26 | 欧姆龙株式会社 | 学习系统、数据生成装置、数据生成方法及数据生成程序 |
WO2020241951A1 (ko) * | 2019-05-31 | 2020-12-03 | 엘지전자 주식회사 | 인공지능 학습방법 및 이를 이용하는 로봇의 동작방법 |
US11610093B2 (en) | 2019-05-31 | 2023-03-21 | Lg Electronics Inc. | Artificial intelligence learning method and operating method of robot using the same |
WO2020246834A1 (ko) * | 2019-06-04 | 2020-12-10 | 주식회사 딥엑스 | 이미지 객체 인식 장치 및 방법 |
KR20210057848A (ko) * | 2019-11-12 | 2021-05-24 | 주식회사 이지스로직 | 딥 러닝 인공신경망 기반 영상 인식 방법 및 시스템 |
KR20210081852A (ko) * | 2019-12-24 | 2021-07-02 | 영남대학교 산학협력단 | 객체 검출 모델 학습 장치 및 방법 |
KR20200006028A (ko) * | 2019-12-30 | 2020-01-17 | 주식회사 고영테크놀러지 | 인쇄 회로 기판 검사 장치, 스크린 프린터의 결함 유형 결정 방법 및 컴퓨터 판독 가능한 기록 매체 |
WO2021201422A1 (ko) * | 2020-03-31 | 2021-10-07 | 한밭대학교 산학협력단 | Ar에 적용 가능한 의미적인 분할 방법 및 시스템 |
KR102167808B1 (ko) * | 2020-03-31 | 2020-10-20 | 한밭대학교 산학협력단 | Ar에 적용 가능한 의미적인 분할 방법 및 시스템 |
WO2022225374A3 (ko) * | 2021-04-22 | 2023-04-06 | 서울대학교산학협력단 | 비디오 신원 복원 모델을 이용한 얼굴 이미지 재구성 방법 및 장치 |
WO2023113187A1 (ko) * | 2021-12-13 | 2023-06-22 | 삼성전자 주식회사 | 획득된 정보에 기반하여 화면을 구성하기 위한 전자 장치 및 방법 |
KR102517469B1 (ko) * | 2021-12-31 | 2023-04-04 | 수퍼빈 주식회사 | 객체를 인식하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 |
Also Published As
Publication number | Publication date |
---|---|
US20200160034A1 (en) | 2020-05-21 |
EP3648006A4 (en) | 2020-07-29 |
US11170201B2 (en) | 2021-11-09 |
KR102491546B1 (ko) | 2023-01-26 |
EP3648006A1 (en) | 2020-05-06 |
CN111108514A (zh) | 2020-05-05 |
WO2019059505A1 (ko) | 2019-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102491546B1 (ko) | 객체를 인식하는 방법 및 장치 | |
US11216694B2 (en) | Method and apparatus for recognizing object | |
US11671386B2 (en) | Electronic device and method for changing chatbot | |
KR102255273B1 (ko) | 청소 공간의 지도 데이터를 생성하는 장치 및 방법 | |
KR102428920B1 (ko) | 전자 장치 및 그 동작 방법 | |
KR102473447B1 (ko) | 인공지능 모델을 이용하여 사용자 음성을 변조하기 위한 전자 장치 및 이의 제어 방법 | |
US11189278B2 (en) | Device and method for providing response message to user input | |
KR20180055708A (ko) | 이미지를 처리하는 전자 장치 및 방법 | |
KR20190056940A (ko) | 멀티모달 데이터 학습 방법 및 장치 | |
KR20180074568A (ko) | 차선 정보를 추정하는 방법 및 전자 장치 | |
US11106913B2 (en) | Method and electronic device for providing object recognition result | |
US20190163702A1 (en) | Image display apparatus and method of operating the same | |
KR20190140519A (ko) | 전자 장치 및 그의 제어방법 | |
KR102449877B1 (ko) | 컨텐트를 제공하는 방법 및 단말기 | |
KR20190089628A (ko) | 복수 개의 전자 디바이스를 이용하여 신경망 모델을 처리하는 방법 및 시스템 | |
US11457314B2 (en) | Method, terminal and terminal case for converting sound data | |
KR20180072534A (ko) | 텍스트와 연관된 이미지 제공 방법 및 이를 위한 전자 장치 | |
KR102464906B1 (ko) | 패션 상품을 추천하는 전자 장치, 서버 및 그 동작 방법 | |
KR102440963B1 (ko) | 전자 장치, 이의 제어 방법 및 비일시적인 컴퓨터 판독가능 기록매체 | |
KR20190119205A (ko) | 전자 장치 및 그 제어 방법 | |
KR102697346B1 (ko) | 영상에서 오브젝트를 인식하는 전자 장치 및 그 동작 방법 | |
KR102743250B1 (ko) | 사용자 입력에 대한 피드백 정보를 제공하는 전자 장치 및 그 동작 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20170922 |
|
PG1501 | Laying open of application | ||
A201 | Request for examination | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20200916 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20170922 Comment text: Patent Application |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20220426 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20221019 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20230118 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20230119 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |