KR20170101455A - 빅데이터 플랫폼 기반의 인공지능 딥러닝 네트워크 구축을 활용한 3d 카메라를 장착한 로봇의 트레이닝 방법 - Google Patents

빅데이터 플랫폼 기반의 인공지능 딥러닝 네트워크 구축을 활용한 3d 카메라를 장착한 로봇의 트레이닝 방법 Download PDF

Info

Publication number
KR20170101455A
KR20170101455A KR1020160023990A KR20160023990A KR20170101455A KR 20170101455 A KR20170101455 A KR 20170101455A KR 1020160023990 A KR1020160023990 A KR 1020160023990A KR 20160023990 A KR20160023990 A KR 20160023990A KR 20170101455 A KR20170101455 A KR 20170101455A
Authority
KR
South Korea
Prior art keywords
main server
robot
robots
deep learning
training
Prior art date
Application number
KR1020160023990A
Other languages
English (en)
Inventor
신동렬
얼 김
채윤주
김다연
Original Assignee
성균관대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 성균관대학교산학협력단 filed Critical 성균관대학교산학협력단
Priority to KR1020160023990A priority Critical patent/KR20170101455A/ko
Publication of KR20170101455A publication Critical patent/KR20170101455A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06F15/18
    • G06F17/30318
    • G06N99/005
    • H04N13/0203

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 빅데이터 플랫폼 기반의 인공지능 딥러닝 네트워크 구축을 활용한 3D 카메라를 장착한 로봇의 트레이닝 방법에 관한 것이다. 본 발명은 3D 카메라가 부착된 각 로봇들의 이미지 촬영 및 사물 인식을 수행하는 S1 단계; 메인 서버와 로봇들로 이루어진 네트워크 망을 통한 수집 데이터 전송을 수행하는 S2 단계; 메인 서버에서의 딥 러닝 알고리즘을 활용한 데이터 셋 분석 및 저장을 수행하는 S3 단계; 메인 서버의 특징 맵 결과 전송을 수행하는 S4 단계; 및 메인 서버의 주기적 특징맵 생성과 분석을 수행하는 S5 단계를 수행하는 것을 특징으로 한다.
본 발명에 따른 로봇 트레이닝 방법은 빅 데이터 플랫폼의 분산 처리를 이용하여 딥 러닝 알고리즘의 특징맵을 만드는 작업에 들어가는 시간적 비용을 효과적으로 감소시키는 효과가 있고, 로봇의 사물 인지 능력을 한 단계 업그레이드 할 수 있을 뿐만 아니라 개별적인 로봇 트래이닝 과정 없이 메인 서버 하나만으로 전체를 통합 관리할 수 있는 효과가 있고, 로봇들의 네트워크 망을 구축해 로봇들의 훈련을 통합시키고 유지시킨다는 것은 개별적으로 트래이닝에 사용되는 물적, 인적 자원 및 시간에 대한 비용적 절감효과가 있다.

Description

빅데이터 플랫폼 기반의 인공지능 딥러닝 네트워크 구축을 활용한 3D 카메라를 장착한 로봇의 트레이닝 방법{TRAINING METHOD OF ROBOT WITH 3D CAMERA USING ARTIFICIAL INTELLIGENCE DEEP LEARNING NETWORK BASED BIG DATA PLATFORM}
본 발명은 로봇의 트레이닝 방법에 관한 것으로서, 구체적으로는 빅데이터 플랫폼 기반의 인공지능 딥러닝 네트워크 구축을 활용한 3D 카메라를 장착한 로봇의 트레이닝 방법에 관한 것이다.
종래 로봇들의 인공지능 트래이닝 에서의 문제점은 각각의 토픽(Topic)에 대한 훈련을 개별적으로 진행해야 했기 때문에 무수히 많은 시간이 투자될 수 밖에 없었다. 또한 3D 이미지를 인식할 때 같은 형태를 가진 다른 종류의 사물들을 구별해 낼 수 없었고, 훈련된 데이터를 직접 로봇에 넣어 주어야만 하는 문제점이 있었다.
기존의 로봇을 트레이닝 시키기 위한 과정은 사용하는 훈련 데이터들을 웹상에서 가져오거나 개발자가 직접 선별해서 입력(input)으로 넣어주는 두 가지 방법을 사용하였다. 이러한 과정은 웹상에 존재하는 데이터 수집에는 분명한 한계점이 존재하고, 입력(input)으로 데이터를 넣어주는 방식은 개발자가 직접 모든 훈련 데이터를 생성해야 하는 문제점이 제기되었다.
(문헌 1) 대한민국 공개특허공보 제10-2013-0029639호(2013.03.25) (문헌 2) 대한민국 공개특허공보 제10-2013-0039585호(2013.04.22)
본 발명에 따른 로봇 트레이닝 방법은 다음과 같은 해결과제를 가진다.
첫째, 3D 이미지들을 기반으로 사물의 부피, 색깔, 문양까지 인식하여 사물을 구별하는 능력을 극대화 시킬 수 있는 방안을 제시하고자 한다.
둘째, 분산처리 빅 데이터 분석 플랫폼을 기반으로 하여 로봇을 트래이닝 시키는 속도와 성능을 기하급수적으로 끌어 올리고, 메인 서버와 로봇들 간의 네트워크 환경을 구축하여 훈련 데이터의 손실 복구 및 지속적인 업데이트에 관한 유지 보수 환경을 구성하고자 한다.
셋째, 각 로봇들은 데이터를 수신만 하는 것을 넘어서서 각각의 로봇들이 별개의 데이터를 생성해낼 수 있는 수집단의 역할을 하고자 한다.
본 발명의 해결과제는 이상에서 언급한 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해되어 질 수 있을 것이다.
본 발명은 빅데이터 플랫폼 기반의 인공지능 딥러닝 네트워크 구축을 활용한 3D 카메라를 장착한 로봇의 트레이닝 방법에 관한 것이다.
본 발명은 3D 카메라가 부착된 각 로봇들의 이미지 촬영 및 사물 인식을 수행하는 S1 단계; 메인 서버와 로봇들로 이루어진 네트워크 망을 통한 수집 데이터 전송을 수행하는 S2 단계; 메인 서버에서의 딥 러닝 알고리즘을 활용한 데이터 셋 분석 및 저장을 수행하는 S3 단계; 메인 서버의 특징 맵 결과 전송을 수행하는 S4 단계; 및 메인 서버의 주기적 특징맵 생성과 분석을 수행하는 S5 단계를 수행하는 것을 특징으로 한다.
본 발명에 있어서, S5 단계 후에는 주기적인 사물 인식 시스템 업데이트 및 유지보수를 수행하는 S6 단계가 추가로 포함하는 것이 바람직하다.
본 발명에 따른 로봇 트레이닝 방법은 다음과 같은 효과를 가진다.
첫째, 빅 데이터 플랫폼의 분산 처리를 이용하여 딥 러닝 알고리즘의 특징맵을 만드는 작업에 들어가는 시간적 비용을 효과적으로 감소시키는 효과가 있다.
둘째, 로봇의 사물 인지 능력을 한 단계 업그레이드 할 수 있을 뿐만 아니라 개별적인 로봇 트래이닝 과정 없이 메인 서버 하나만으로 전체를 통합 관리할 수 있는 효과가 있다.
셋째, 로봇들의 네트워크 망을 구축해 로봇들의 훈련을 통합시키고 유지시킨다는 것은 개별적으로 트래이닝에 사용되는 물적, 인적 자원 및 시간에 대한 비용적 절감효과가 있다.
넷째, 로봇들의 인공지능을 주기적으로 업데이트 할 수 있을뿐더러, 각 로봇에서의 데이터 손상도 복구 하는데 용이한 효과가 있다.
다섯째, 통신모듈이 부착된 로봇의 데이터 수집을 통해 기존 수집 방식 대비 손쉽게 대량의 데이터를 수집할 수 있고 실제 환경에서 빈번하게 마주칠 가능성이 높은 의미 있는 실생활 데이터 트래이닝에 유리한 효과가 있다.
본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해되어 질 수 있을 것이다.
도 1은 본 발명의 각 단계를 설명한 순서도이다.
이하, 첨부한 도면을 참조하여, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 설명한다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 이해할 수 있는 바와 같이, 후술하는 실시예는 본 발명의 개념과 범위를 벗어나지 않는 한도 내에서 다양한 형태로 변형될 수 있다. 가능한 한 동일하거나 유사한 부분은 도면에서 동일한 도면부호를 사용하여 나타낸다.
본 명세서에서 사용되는 전문용어는 단지 특정 실시예를 언급하기 위한 것이며, 본 발명을 한정하는 것을 의도하지는 않는다. 여기서 사용되는 단수 형태들은 문구들이 이와 명백히 반대의 의미를 나타내지 않는 한 복수 형태들도 포함한다.
본 명세서에서 사용되는 "포함하는"의 의미는 특정 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분을 구체화하며, 다른 특정 특성, 영역, 정수, 단계, 동작, 요소, 성분 및/또는 군의 존재나 부가를 제외시키는 것은 아니다.
본 명세서에서 사용되는 기술용어 및 과학용어를 포함하는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 일반적으로 이해하는 의미와 동일한 의미를 가진다. 사전에 정의된 용어들은 관련기술문헌과 현재 개시된 내용에 부합하는 의미를 가지는 것으로 추가 해석되고, 정의되지 않는 한 이상적이거나 매우 공식적인 의미로 해석되지 않는다.
로봇에 장착된 3D 카메라를 통해 이미지 파일을 만들 때 각 픽셀마다 x, y, z 축 값과 RGB 값들을 지정해 주어야 한다. 메인서버와 로봇들을 하나로 묶어줄 네트워크 망이 필요한데 각 로봇들에 통신모듈을 부착해 Wi-fi 기반 통신을 사용하는 네트워크를 구축해야 한다.
빅 데이터 플랫폼이 구축된 메인 서버에서는 트래이닝을 위한 데이터들이 필요한 데, 인터넷을 통해 3D 이미지를 수집과 개발자들에 의해 3D 이미지들을 생성하여 입력하는 두 가지의 기존 방식과 각 로봇에서부터 수집되는 실생활 데이터들을 활용하여 트래이닝 셋을 구성한다.
메인서버에서는 분산 처리 빅 데이터 플랫폼을 구축, 딥 러닝 알고리즘을 구현하여 로봇 트래이닝을 위한 특징맵(Feature Map)을 만든다.
이하에서는 도 1을 참고하여 본 발명의 기술적 핵심에 해당되는 각 단계를 설명하고자 한다.
본 발명에 따른 S1 단계는 "3D 카메라가 부착된 각 로봇들의 이미지 촬영 및 사물 인식"을 수행하는 단계를 의미한다.
S1 단계에 따르면, 각 로봇에 부착된 3D 카메라로 촬영한 로봇들은 이미지에서 형상(사물)들을 분리해내는 과정을 거치게 된다. 3D 이미지이므로 각 픽셀에는 x, y, z 축 값들과 RGB 값들이 담겨 있고, 이를 통해 로봇은 사물과의 거리, 사물의 부피 등을 알 수 있다.
S1 단계에 따르면, 또한 분리된 각 형상들에서 특징값을 추출하여 현재 로봇이 가지고 있는 특징맵(Feature Map)과 대조를 통해 사물 인식 과정을 거치는 것이 바람직하다.
본 발명에 따른 S2 단계는 "메인 서버와 로봇들로 이루어진 네트워크 망을 통한 수집 데이터 전송"을 수행하는 단계를 의미한다.
S2 단계에 따르면, 위 과정에서 생성된 형상들의 3D 이미지들은 통신 모듈을 이용해 구축되어 진 네트워크 망을 통해 메인서버로 전송되게 된다. 데이터의 사이즈, 전송 속도 및 네트워크 환경 등을 고려하여 Wi-fi를 기반으로 데이터 송수신을 한다.
본 발명에 따른 S3 단계는 "메인 서버에서의 딥 러닝 알고리즘을 활용한 데이터 셋 분석 및 저장"을 수행하는 단계를 의미한다.
S3 단계에 따르면, 메인 서버에는 분산 처리 빅 데이터 플랫폼이 구축되어 있다. 웹 상에서의 트래이닝 데이터 셋 수집방식, 개발자가 직접 데이터 셋을 가공하여 입력값(input)으로 집어넣는 방식 및 각 로봇으로부터 전송되는 실생활 데이터 수집 방식 등 3가지 방식을 통해 데이터 셋을 수집하고 분산 저장한다.
S3 단계에 따르면, 모아진 데이터 셋은 딥 러닝 알고리즘을 이용하여 특징 맵(Feature Map)을 생성하는데, 사전 교육이 없는(unsupervised) 방식으로 진행되는 것이 바람직하다.
본 발명에 따른 S4 단계는 "메인 서버의 특징 맵 결과 전송"을 수행하는 단계를 의미한다.
S4 단계에 따르면, 트래이닝 데이터 분석을 통한 특징 맵 생성 작업이 완료되면 메인 서버는 다시 구성되어 있는 네트워크 망을 통해 각 로봇들에게 일괄적으로 새로운 특징 맵을 업데이트 시킨다.
S4 단계에 따르면, 업데이트 작업이 성공적으로 완료된 로봇들은 업데이트 성공 유무를 서버로 전송하여 제대로 전송받지 못하거나 전원이 꺼져있어 업데이트가 진행되지 못한 로봇들을 파악하여 재전송 작업을 반복하여 누락되는 로봇이 없도록 운용하는 것이 바람직하다.
본 발명에 따른 S5 단계는 "메인 서버의 주기적 특징맵 생성과 분석"을 수행하는 단계를 의미한다.
S5 단계에 따르면, 메인 서버에서는 데이터 셋 분석을 통해 특징 맵을 생성하는 과정 중에도 3가지 데이터 수집 방식을 통해 들어오는 데이터들을 분산 저장한다.
S5 단계에 따르면, 특징 맵 생성 작업이 완료되면 메인 서버는 결과 전송을 마친 뒤 추가적으로 수집되어 있는 새로운 데이터 셋들을 포함하여 새로운 특징맵 생성 작업을 시작하는 것이 바람직하다.
본 발명에 따른 S6 단계는 "주기적인 사물 인식 시스템 업데이트 및 유지보수"를 수행하는 단계를 의미한다.
S6 단계에 따르면, 위의 과정을 반복하면서 로봇들은 별도의 작업 없이 Wi-fi로 네트워크 망에만 연결되어 있으면 애플리케이션처럼 사물 인식 시스템을 주기적으로 업데이트 할 수 있다.
S6 단계에 따르면, 또한 시스템의 결함 등의 유지보수 측면에서 지속적인 서버와의 데이터 교환을 통해 손쉽게 관리될 수 있다.
본 명세서에서 설명되는 실시예와 첨부된 도면은 본 발명에 포함되는 기술적 사상의 일부를 예시적으로 설명하는 것에 불과하다. 따라서, 본 명세서에 개시된 실시예들은 본 발명의 기술적 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이므로, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아님은 자명하다. 본 발명의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형 예와 구체적인 실시 예는 모두 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
S1 단계 : 3D 카메라가 부착된 각 로봇들의 이미지 촬영 및 사물 인식을 수행하는 단계
S2 단계 : 메인 서버와 로봇들로 이루어진 네트워크 망을 통한 수집 데이터 전송을 수행하는 단계
S3 단계 : 메인 서버에서의 딥 러닝 알고리즘을 활용한 데이터 셋 분석 및 저장을 수행하는 단계
S4 단계 : 메인 서버의 특징 맵 결과 전송을 수행하는 단계
S5 단계 : 메인 서버의 주기적 특징맵 생성과 분석을 수행하는 단계
S6 단계 : 주기적인 사물 인식 시스템 업데이트 및 유지보수를 수행하는 단계

Claims (2)

  1. 3D 카메라가 부착된 각 로봇들의 이미지 촬영 및 사물 인식을 수행하는 S1 단계;
    메인 서버와 로봇들로 이루어진 네트워크 망을 통한 수집 데이터 전송을 수행하는 S2 단계;
    메인 서버에서의 딥 러닝 알고리즘을 활용한 데이터 셋 분석 및 저장을 수행하는 S3 단계;
    메인 서버의 특징 맵 결과 전송을 수행하는 S4 단계; 및
    메인 서버의 주기적 특징맵 생성과 분석을 수행하는 S5 단계를 수행하는 것을 특징으로 하는 빅데이터 플랫폼 기반의 인공지능 딥러닝 네트워크 구축을 활용한 3D 카메라를 장착한 로봇의 트레이닝 방법.
  2. 청구항 1에 있어서, S5 단계 후에는
    주기적인 사물 인식 시스템 업데이트 및 유지보수를 수행하는 S6 단계가 추가로 포함하는 것을 특징으로 하는 빅데이터 플랫폼 기반의 인공지능 딥러닝 네트워크 구축을 활용한 3D 카메라를 장착한 로봇의 트레이닝 방법
KR1020160023990A 2016-02-29 2016-02-29 빅데이터 플랫폼 기반의 인공지능 딥러닝 네트워크 구축을 활용한 3d 카메라를 장착한 로봇의 트레이닝 방법 KR20170101455A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160023990A KR20170101455A (ko) 2016-02-29 2016-02-29 빅데이터 플랫폼 기반의 인공지능 딥러닝 네트워크 구축을 활용한 3d 카메라를 장착한 로봇의 트레이닝 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160023990A KR20170101455A (ko) 2016-02-29 2016-02-29 빅데이터 플랫폼 기반의 인공지능 딥러닝 네트워크 구축을 활용한 3d 카메라를 장착한 로봇의 트레이닝 방법

Publications (1)

Publication Number Publication Date
KR20170101455A true KR20170101455A (ko) 2017-09-06

Family

ID=59925502

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160023990A KR20170101455A (ko) 2016-02-29 2016-02-29 빅데이터 플랫폼 기반의 인공지능 딥러닝 네트워크 구축을 활용한 3d 카메라를 장착한 로봇의 트레이닝 방법

Country Status (1)

Country Link
KR (1) KR20170101455A (ko)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109531584A (zh) * 2019-01-31 2019-03-29 北京无线电测量研究所 一种基于深度学习的机械臂控制方法和装置
KR20190063284A (ko) 2017-11-29 2019-06-07 김준호 검색 로봇
WO2019182378A1 (en) * 2018-03-21 2019-09-26 Lg Electronics Inc. Artificial intelligence server
KR20190119225A (ko) * 2018-04-03 2019-10-22 엘지전자 주식회사 각각의 인공지능을 탑재한 복수의 로봇을 포함하는 로봇 시스템
KR20200001111A (ko) 2018-06-26 2020-01-06 에스케이텔레콤 주식회사 준지도 학습 방법
KR20200120002A (ko) 2019-04-11 2020-10-21 우승희 사용자 참여형 ai 훈련 서비스를 제공하는 전자 장치, 서버, 및 시스템
KR102191160B1 (ko) 2019-11-26 2020-12-16 가천대학교 산학협력단 로봇 데이터의 인공 지능형 데이터 모델링 시스템 및 그 모델링 방법
KR20210080163A (ko) * 2019-12-20 2021-06-30 유아이패스, 인크. 런타임시 디지털 프로세스에서의 동적 인공 지능/머신 러닝 모델 업데이트, 또는 재트레이닝 및 업데이트
WO2022065629A1 (ko) * 2020-09-22 2022-03-31 주식회사 로닥테크놀로지스 이미지 캡처를 통한 자기개선 사물 인식 방법 및 시스템

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190063284A (ko) 2017-11-29 2019-06-07 김준호 검색 로봇
WO2019182378A1 (en) * 2018-03-21 2019-09-26 Lg Electronics Inc. Artificial intelligence server
US11531864B2 (en) 2018-03-21 2022-12-20 Lg Electronics Inc. Artificial intelligence server
KR20190119225A (ko) * 2018-04-03 2019-10-22 엘지전자 주식회사 각각의 인공지능을 탑재한 복수의 로봇을 포함하는 로봇 시스템
KR20200001111A (ko) 2018-06-26 2020-01-06 에스케이텔레콤 주식회사 준지도 학습 방법
CN109531584A (zh) * 2019-01-31 2019-03-29 北京无线电测量研究所 一种基于深度学习的机械臂控制方法和装置
KR20200120002A (ko) 2019-04-11 2020-10-21 우승희 사용자 참여형 ai 훈련 서비스를 제공하는 전자 장치, 서버, 및 시스템
KR102191160B1 (ko) 2019-11-26 2020-12-16 가천대학교 산학협력단 로봇 데이터의 인공 지능형 데이터 모델링 시스템 및 그 모델링 방법
KR20210080163A (ko) * 2019-12-20 2021-06-30 유아이패스, 인크. 런타임시 디지털 프로세스에서의 동적 인공 지능/머신 러닝 모델 업데이트, 또는 재트레이닝 및 업데이트
US11822913B2 (en) 2019-12-20 2023-11-21 UiPath, Inc. Dynamic artificial intelligence / machine learning model update, or retrain and update, in digital processes at runtime
WO2022065629A1 (ko) * 2020-09-22 2022-03-31 주식회사 로닥테크놀로지스 이미지 캡처를 통한 자기개선 사물 인식 방법 및 시스템

Similar Documents

Publication Publication Date Title
KR20170101455A (ko) 빅데이터 플랫폼 기반의 인공지능 딥러닝 네트워크 구축을 활용한 3d 카메라를 장착한 로봇의 트레이닝 방법
CN106254379A (zh) 网络安全策略的处理系统及处理方法
CN115699082A (zh) 缺陷检测方法及装置、存储介质及电子设备
US20190332894A1 (en) Method for Processing Automobile Image Data, Apparatus, and Readable Storage Medium
CN113252053A (zh) 高精度地图生成方法、装置和电子设备
CN110505452A (zh) 一种基建输电工程进度监控方法及监控系统
CN109196553A (zh) 一种光伏板识别方法、地面站、控制设备及无人机
CN116109207A (zh) 一种工程质量管理方法及系统
CN110427869A (zh) 一种用于垃圾处理的远端视觉分选识别方法
CN114298178A (zh) 一种多智能体的通信学习方法
CN114610677A (zh) 一种转换模型的确定方法和相关装置
CN112380955B (zh) 动作的识别方法及装置
CN111104987B (zh) 人脸识别方法、装置及电子设备
CN110782039B (zh) 一种基于分层结构、多模块的人工智能即时作战引导平台
US11363484B2 (en) Method for performing measurement and device supporting the same
CN115189474A (zh) 一种基于树莓派4b的配电站电能表识别方法及系统
US11363590B2 (en) Method for deriving cell quality and device supporting the same
CN106803252A (zh) 一种输电线路塔号牌污浊定位与自动检测方法
CN110737227A (zh) 智能化启动系统及方法
CN113780371A (zh) 基于边缘计算与深度学习的绝缘子状态边缘识别方法
CN113359816A (zh) 一种基于无线手势识别的无人机控制方法及系统
CN112270296A (zh) 一种基于云平台的智慧城市可视化管理系统及方法
CN114356502B (zh) 基于边缘计算技术的非结构化数据标记、训练和发布系统及方法
CN118038068A (zh) 目标检测方法及装置、存储介质及电子装置
CN112949742B (zh) 使用隐马尔科夫模型增强星座图数据的方法与电子设备