KR20200142145A - Method for Recognizing Object Information Based on Action Recognition - Google Patents
Method for Recognizing Object Information Based on Action Recognition Download PDFInfo
- Publication number
- KR20200142145A KR20200142145A KR1020190068626A KR20190068626A KR20200142145A KR 20200142145 A KR20200142145 A KR 20200142145A KR 1020190068626 A KR1020190068626 A KR 1020190068626A KR 20190068626 A KR20190068626 A KR 20190068626A KR 20200142145 A KR20200142145 A KR 20200142145A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- recognition
- objects
- motion
- designated
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 114
- 230000009471 action Effects 0.000 title description 2
- 230000033001 locomotion Effects 0.000 claims abstract description 151
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 46
- 230000002159 abnormal effect Effects 0.000 claims description 22
- 238000004891 communication Methods 0.000 claims description 4
- 238000003909 pattern recognition Methods 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 description 23
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H04N5/247—
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Business, Economics & Management (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Emergency Management (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 동작 인식 기반 객체 정보 인식 방법에 관한 것으로, 하나 이상의 객체가 존재하는 지정된 공간에 구비된 카메라를 통해 획득되는 영상정보를 판독하여 인공지능 학습을 통해 상기 객체를 인식하기 위한 정보를 저장한 이후, 상기 카메라를 통해 획득되는 영상정보를 판독하여 인공지능 학습을 통해 상기 객체에 대한 정상 범위 동작을 인식하기 위한 동작인식모델을 생성하여, 상기 생성된 동작인식모델을 통해 상기 공간에서 동작하는 하나 이상의 객체가 정상 범위 동작을 일정 비율 벗어난 동작을 하는지 인식하는 것이다.The present invention relates to a motion recognition-based object information recognition method, in which information for recognizing the object through artificial intelligence learning is stored by reading image information acquired through a camera provided in a designated space in which one or more objects exist. Thereafter, a motion recognition model for recognizing a normal range motion of the object through artificial intelligence learning by reading the image information acquired through the camera, and operating in the space through the generated motion recognition model It is to recognize whether the above object moves out of the normal range motion by a certain percentage.
최근 IoT 등 인터넷 및 무선 통신 기술의 발달을 통해 기업 자산을 대상으로 하는 이상 징후를 예측하는 방법에 대해 많은 관심이 집중되고 있다. Recently, a lot of attention has been focused on a method of predicting anomalies targeting corporate assets through the development of Internet and wireless communication technologies such as IoT.
그러나, 동산담보물 부재나 이탈, 은행 ATM기 등 원격지 기업자산 가동, 산업 시설물 가동 등 이상징후 탐지가 IoT단말기가 없이는 어려웠다.However, it was difficult to detect abnormal signs such as the absence or departure of movable property collateral, operation of remote corporate assets such as bank ATMs, and operation of industrial facilities without an IoT terminal.
또한, 도난 탐지 등 일상 경계정보 예측 탐지, 생활기기 이동 등 각종 부재나 이동 탐지가 어려웠고, 도시 시설물 부재, 이탈 등 이상징후 예측 탐지, 안전 시설물 부재, 이탈 등 안전사고 발생 예측 탐지, 방범 취약지역 등에서의 도난 사고 추적 탐지 등이 어려웠다. In addition, it was difficult to detect various absences or movements such as daily boundary information such as theft detection, movement of household equipment, etc. It was difficult to detect and track theft accidents.
대한민국 등록특허공보 제10-1949525호(2019년02월12일 등록)는 무인탐지장치를 이용한 현장 안전관리 시스템에 관한 것으로, 설비, 센서, 카메라가 설치되고 작업자가 소지한 모바일 단말기가 위치하며 관리대상 관심객체가 존재하는 관리현장과, 이 관리현장과 통신네트워크를 통해 연결되어 관리현장에서 전송된 데이터를 수신하고 처리하여 관리현장으로 처리데이터를 전송하는 서버를 포함하는 관리현장 안전관리 시스템에 관한 것이다.Republic of Korea Patent Publication No. 10-1949525 (registered on February 12, 2019) relates to a field safety management system using an unmanned detection device, where facilities, sensors, and cameras are installed, and mobile terminals held by workers are located and managed. A management site safety management system including a management site in which the target object of interest exists and a server connected to the management site through a communication network to receive and process data transmitted from the management site and transmit the processed data to the management site. will be.
그러나, 관리현장에 대한 정보(영상 등)를 작업자가 일일이 확인하여 안전 여부나 도난 여부 등을 판단해야 하는 번거로움이 존재하였다.However, there was a hassle of having to check the information (videos, etc.) on the management site by the operator to determine whether it is safe or stolen.
상기와 같은 문제점을 해소하기 위한 본 발명의 목적은, 하나 이상의 객체가 존재하는 지정된 공간에 구비된 카메라를 통해 획득되는 영상정보를 판독하여 인공지능 학습을 통해 상기 객체를 인식하기 위한 정보를 저장한 이후, 상기 카메라를 통해 획득되는 영상정보를 판독하여 인공지능 학습을 통해 상기 객체에 대한 정상 범위 동작을 인식하기 위한 동작인식모델을 생성하여, 상기 생성된 동작인식모델을 통해 상기 공간에서 동작하는 하나 이상의 객체가 정상 범위 동작을 일정 비율 벗어난 동작을 하는지 인식하는 동작 인식 기반 객체 정보 인식 방법을 제공함에 있다.An object of the present invention for solving the above problems is to store information for recognizing the object through artificial intelligence learning by reading image information acquired through a camera provided in a designated space in which one or more objects exist. Thereafter, a motion recognition model for recognizing a normal range motion of the object through artificial intelligence learning by reading the image information acquired through the camera, and operating in the space through the generated motion recognition model It is to provide a motion recognition-based object information recognition method for recognizing whether the above object performs a motion out of the normal range motion by a certain percentage.
본 발명에 따른 동작 인식 기반 객체 정보 인식 방법은, 지정된 공간에 구비된 M(M≥1)개의 카메라와 연동하는 시스템을 통해 실행되는 방법에 있어서, 지정된 카메라를 통해 획득되는 영상정보를 판독하여 지정된 인공지능모듈을 통해 상기 공간에 구비된 N(N≥1)개의 객체 인식을 학습시키는 제1 단계와 상기 인공지능모듈을 통해 학습된 N개의 객체를 인식하기 위한 N개의 객체인식모델을 생성하여 지정된 저장매체에 저장하는 제2 단계와 상기 객체인식모델을 근거로 상기 M개의 카메라를 통해 획득되는 M개의 영상정보를 판독하여 상기 공간에 존재하는 n(1≤n≤N)개의 객체를 인식하는 제3 단계와 상기 인식된 n개의 객체에 대응하는 n개의 객체인식정보를 지정된 관리DB에 저장하는 제4 단계와 지정된 카메라를 통해 획득되는 영상정보를 판독하여 지정된 인공지능모듈을 통해 상기 공간에 존재하는 n개의 객체 중 지정된 범위 내에서 동작하는 n'(1≤n'≤n)개의 객체에 대한 정상 범위 동작 인식을 학습시키는 제5 단계와 상기 인공지능모듈을 통해 학습된 n'개의 객체의 정상 범위 동작을 인식하기 위한 n'개의 객체 별 정상 범위 동작인식모델을 생성하여 지정된 저장매체에 저장하는 제6 단계와 상기 n'개의 객체 별 정상 범위 동작인식모델을 근거로 상기 M개의 카메라를 통해 획득되는 M개의 영상정보를 판독하여 상기 공간 내에서 동작하는 n'개의 객체 중 정상 범위 동작을 일정 비율 이상 벗어난 동작을 인식한 객체를 포함하는 n"(1≤n"≤n)개의 객체를 인식하는 제7 단계 및 상기 n"개의 객체를 인식한 경우 상기 인식된 n"개의 객체에 대한 n"개의 객체식별정보를 포함하는 비정상 동작 알림정보를 지정된 단말로 제공하는 절차를 수행하는 제8 단계를 포함하는 것을 특징으로 한다.The motion recognition-based object information recognition method according to the present invention is a method executed through a system interlocking with M (M≥1) cameras provided in a designated space, and is designated by reading image information acquired through a designated camera. The first step of learning the recognition of N (N≥1) objects provided in the space through the artificial intelligence module, and the N object recognition models for recognizing the N objects learned through the artificial intelligence module A second step of storing in a storage medium and a second step of recognizing n (1 ≤ n ≤ N) objects existing in the space by reading M image information acquired through the M cameras based on the object recognition model. Step 3 and a fourth step of storing n object recognition information corresponding to the recognized n objects in a designated management DB, and reading image information acquired through a designated camera, and present in the space through a designated artificial intelligence module. The fifth step of learning normal range motion recognition for n'(1≤n'≤n) objects operating within a specified range among n objects, and the normal range of n'objects learned through the artificial intelligence module The sixth step of generating and storing a normal range motion recognition model for each n'objects for recognizing a motion, and storing the normal range motion recognition model for each n'object, obtained through the M cameras. It reads M pieces of image information and recognizes n" (1≤n"≤n) objects including objects that recognize a motion out of the normal range motion by more than a certain ratio among n'objects operating in the space. Including step 7 and an eighth step of performing a procedure for providing abnormal motion notification information including n" object identification information for the n" recognized objects to a designated terminal when the n" objects are recognized. It is characterized by that.
본 발명에 따른 동작 인식 기반 객체 정보 인식 방법에 있어서, 상기 제1 단계는, 지정된 카메라를 통해 획득되는 영상정보를 판독하여 상기 공간에 존재하는 각 객체 별 관측된 특징에 대응하는 각 객체 별 i(i≥2)개의 입력 정보를 인식하고 각 객체 별 관측된 결과에 대응하는 각 객체 별 j(j≥1)개의 출력 정보를 설정하는 단계와 각 객체 별로 인식된 i개의 입력 정보 별 변수값과 j개의 출력 정보 별 변수값을 포함하는 각 객체 별 학습 정보를 지정된 인공지능모듈의 변수값으로 대입하여 상기 공간에 존재하는 각 객체 중 고유 식별하여 인식 가능한 N개의 객체 인식을 학습시키는 단계를 포함하여 이루어지는 것을 특징으로 한다.In the method for recognizing object information based on motion recognition according to the present invention, the first step comprises i() for each object corresponding to the observed characteristic of each object existing in the space by reading image information acquired through a designated camera. Recognizing i≥2) pieces of input information and setting j (j≥1) pieces of output information for each object corresponding to the observed result for each object, and variable values and j for each i recognized input information for each object And learning to recognize N objects that can be recognized by uniquely identifying each object existing in the space by substituting learning information for each object including variable values for each output information as a variable value of a designated artificial intelligence module. It features.
본 발명에 따른 동작 인식 기반 객체 정보 인식 방법에 있어서, 상기 지정된 카메라는, 상기 공간에 구비된 M개의 카메라, 상기 공간에 구비된 M개의 카메라 중 객체 인식의 인공지능 학습을 위한 m(1≤m≤M)개의 카메라, 상기 객체 인식의 인공지능 학습을 위해 지정된 별도의 카메라 중 적어도 하나 또는 둘 이상의 조합을 포함하여 이루어지는 것을 특징으로 한다.In the motion recognition-based object information recognition method according to the present invention, the designated camera includes m (1≤m) for artificial intelligence learning of object recognition among M cameras provided in the space and M cameras provided in the space. ?M) cameras, and at least one or a combination of two or more of separate cameras designated for artificial intelligence learning of the object recognition.
본 발명에 따른 동작 인식 기반 객체 정보 인식 방법에 있어서, 상기 i개의 입력 정보는, 상기 영상정보를 판독하여 인식되는 각 객체 별 패턴정보를 포함하여 이루어지는 것을 특징으로 한다.In the object information recognition method based on motion recognition according to the present invention, the i input information includes pattern information for each object recognized by reading the image information.
본 발명에 따른 동작 인식 기반 객체 정보 인식 방법에 있어서, 상기 j개의 출력 정보는, 상기 영상정보를 판독하여 인식되는 각 객체 별 패턴(또는 패턴의 집합)에 대응하는 객체식별자를 포함하여 이루어지는 것을 특징으로 한다.In the object information recognition method based on motion recognition according to the present invention, the j output information includes an object identifier corresponding to a pattern (or set of patterns) for each object recognized by reading the image information. To do.
본 발명에 따른 동작 인식 기반 객체 정보 인식 방법에 있어서, 상기 제2 단계는, 상기 객체인식모델에 대하여 지정된 단말을 통해 입력된 객체정보 또는 상기 객체인식모델을 근거로 지정된 데이터베이스로부터 추출된 객체정보를 상기 객체인식모델과 매핑하여 지정된 저장매체에 저장하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In the object information recognition method based on motion recognition according to the present invention, the second step includes object information input through a terminal designated for the object recognition model or object information extracted from a database designated based on the object recognition model. And storing the mapping with the object recognition model in a designated storage medium.
본 발명에 따른 동작 인식 기반 객체 정보 인식 방법에 있어서, 상기 객체인식모델은, 상기 공간에 구비된 N개의 객체를 인식하기 위한 패턴 인식 모델을 포함하여 이루어지는 것을 특징으로 한다.In the object information recognition method based on motion recognition according to the present invention, the object recognition model comprises a pattern recognition model for recognizing N objects provided in the space.
본 발명에 따른 동작 인식 기반 객체 정보 인식 방법에 있어서, 상기 객체인식정보는, 상기 공간에 존재하는 n개의 객체를 고유 식별하는 객체식별정보를 포함하여 이루어지는 것을 특징으로 한다.In the object information recognition method based on motion recognition according to the present invention, the object recognition information includes object identification information uniquely identifying n objects existing in the space.
본 발명에 따른 동작 인식 기반 객체 정보 인식 방법에 있어서, 상기 객체식별정보는, 상기 객체에 지정된 인식코드를 부호화한 코드이미지가 부착된 경우, 상기 객체에 부착된 코드이미지를 판독하여 인식된 인식코드를 포함하거나 또는 상기 인식된 인식코드와 매핑된 식별코드를 포함하여 이루어지는 것을 특징으로 한다.In the object information recognition method based on motion recognition according to the present invention, the object identification information is a recognition code recognized by reading a code image attached to the object when a code image encoding a designated recognition code is attached to the object. It characterized in that it comprises or comprises an identification code mapped to the recognized identification code.
본 발명에 따른 동작 인식 기반 객체 정보 인식 방법에 있어서, 상기 제5 단계는, 지정된 카메라를 통해 획득되는 영상정보를 판독하여 상기 공간에 존재하는 n개의 객체 중 지정된 정상 범위 내에서 동작하는 n'개의 객체 별 동작의 관측된 특징에 대응하는 n'개의 객체 별 p(p≥2)개의 입력 정보를 인식하고 n'개의 객체 별 동작의 관측된 결과에 대응하는 n'개의 객체 별 q(q≥1)개의 출력 정보를 설정하는 단계와 n'개의 객체 별로 인식된 p개의 입력 정보 별 변수값과 q개의 출력 정보 별 변수값을 포함하는 n'개의 객체 별 학습 정보를 지정된 인공지능모듈의 변수값으로 대입하여 상기 공간에서 동작하는 n'개의 객체에 대한 정상 범위 동작 인식을 학습시키는 단계를 포함하여 이루어지는 것을 특징으로 한다.In the object information recognition method based on motion recognition according to the present invention, the fifth step includes reading the image information acquired through a designated camera and operating within a specified normal range among n objects existing in the space. Recognizes p(p≥2) input information for each n'object corresponding to the observed characteristic of motion for each object, and q(q≥1) for each n'object corresponding to the observed result of motion for each n'object ) Step of setting output information and learning information for each n'object, including variable values for each of p input information recognized for each n'objects, and variable values for each output information, as variable values of the designated artificial intelligence module. And learning a normal range motion recognition for n'objects operating in the space by substituting.
본 발명에 따른 동작 인식 기반 객체 정보 인식 방법에 있어서, 상기 지정된 범위는, 동작 거리 범위, 동작 방향 범위,동작 거리 범위와 동작 방향 범위의 조합 중 적어도 하나의 범위를 포함하여 이루어지는 것을 특징으로 한다.In the motion recognition-based object information recognition method according to the present invention, the designated range includes at least one of a motion distance range, a motion direction range, and a combination of a motion distance range and a motion direction range.
본 발명에 따른 동작 인식 기반 객체 정보 인식 방법에 있어서, 상기 지정된 카메라는, 상기 공간에 구비된 M개의 카메라, 상기 공간에 구비된 M개의 카메라 중 정상 범위 동작 인식의 인공지능 학습을 위한 m(1≤m≤M)개의 카메라, 상기 정상 범위 동작 인식의 인공지능 학습을 위해 지정된 별도의 카메라 중 적어도 하나 또는 둘 이상의 조합을 포함하여 이루어지는 것을 특징으로 한다.In the motion recognition-based object information recognition method according to the present invention, the designated camera includes m(1) for artificial intelligence learning of normal range motion recognition among M cameras provided in the space and M cameras provided in the space. ≤m≤M) cameras, and at least one or a combination of two or more of separate cameras designated for artificial intelligence learning of the normal range motion recognition.
본 발명에 따른 동작 인식 기반 객체 정보 인식 방법에 있어서, 상기 p개의 입력 정보는, 상기 영상정보를 판독하여 인식되는 n'개의 객체 별 정상 범위 동작의 패턴정보를 포함하여 이루어지는 것을 특징으로 한다.In the object information recognition method based on motion recognition according to the present invention, the p pieces of input information include pattern information of a normal range motion for each n'objects recognized by reading the image information.
본 발명에 따른 동작 인식 기반 객체 정보 인식 방법에 있어서, 상기 q개의 출력 정보는, 상기 영상정보를 판독하여 인식되는 n'개의 객체 별 정상 범위 동작의 패턴(또는 패턴의 집합)에 대응하는 고유식별자를 포함하여 이루어지는 것을 특징으로 하는 동작 인식 기반 객체 정보 인식 방법. In the motion recognition-based object information recognition method according to the present invention, the q output information is a unique identifier corresponding to a pattern (or set of patterns) of a normal range motion for each n'objects recognized by reading the image information Motion recognition-based object information recognition method comprising a.
본 발명에 따른 동작 인식 기반 객체 정보 인식 방법에 있어서, 상기 정상 범위 동작은, 상기 객체의 일부가 지정된 범위 내에서 주기적/반복적으로 움직이는 동작을 포함하여 이루어지는 것을 특징으로 한다.In the method for recognizing object information based on motion recognition according to the present invention, the normal range operation includes an operation in which a part of the object moves periodically/repetitively within a specified range.
본 발명에 따른 동작 인식 기반 객체 정보 인식 방법에 있어서, 상기 n"개의 객체는, 상기 공간 내에서 고정된 상태를 유지하는 (n-n')개의 객체 중 고정된 상태를 벗어난 동작을 인식한 객체를 더 포함하여 이루어지는 것을 특징으로 한다.In the motion recognition-based object information recognition method according to the present invention, the n" objects are objects that recognize a motion out of the fixed state among (n-n') objects that maintain a fixed state in the space It characterized in that it further comprises a.
본 발명에 따른 동작 인식 기반 객체 정보 인식 방법에 있어서, 상기 시스템은, 상기 카메라에 탑재되는 프로그램, M개와 카메라와 지정된 인터페이스를 통해 연동하는 단말의 프로그램, M개와 카메라와 통신망을 통해 연동하는 서버 중 적어도 하나 또는 둘 이상의 조합을 포함하여 이루어지는 것을 특징으로 한다.In the motion recognition-based object information recognition method according to the present invention, the system comprises: among M programs mounted on the camera, M programs of a terminal interworking with the camera through a designated interface, and M servers interworking with the camera through a communication network. It characterized in that it comprises at least one or a combination of two or more.
본 발명에 따르면, 딥러닝 기반 사물 이상 진후 예측 탐지 인공지능을 통해 사물에 정상적인 상태(동작, 이동, 온도상태 등)를 학습하도록 하여, 이후 영상 인식/추적을 통해 학습된 사물에 대한 상태를 자동으로 파악할 수 있도록 하는 이점이 있다.According to the present invention, the state of the learned object is automatically learned through image recognition/tracking, by learning the normal state (motion, movement, temperature state, etc.) of the object through deep learning-based object abnormality prediction detection artificial intelligence. It has the advantage of being able to grasp it.
또한, 각 사물에 별도의 IoT장비를 설치하지 않아도 사물에 대한 상태 추적 및 확인이 용이한 이점이 있다.In addition, there is an advantage in that it is easy to track and check the status of objects without installing separate IoT equipment for each object.
도 1은 본 발명의 실시 방법에 따른 객체 정보 인식 시스템의 구성을 도시한 도면이다.
도 2는 본 발명의 실시 방법에 따른 객체인식모델을 생성하여 저장하는 과정을 도시한 도면이다.
도 3은 본 발명의 실시 방법에 따른 동작인식모델을 생성하여 저장하는 과정을 도시한 도면이다.
도 4는 본 발명의 실시 방법에 따른 비정상 범위 동작의 객체를 인식하여 알림정보를 제공하는 과정을 도시한 도면이다.1 is a diagram illustrating a configuration of an object information recognition system according to an exemplary method of the present invention.
2 is a diagram showing a process of generating and storing an object recognition model according to an exemplary method of the present invention.
3 is a diagram illustrating a process of generating and storing a motion recognition model according to an exemplary method of the present invention.
4 is a diagram illustrating a process of providing notification information by recognizing an object of an abnormal range motion according to an exemplary method of the present invention.
이하 첨부된 도면과 설명을 참조하여 본 발명의 바람직한 실시예에 대한 동작 원리를 상세히 설명한다. 다만, 하기에 도시되는 도면과 후술되는 설명은 본 발명의 특징을 효과적으로 설명하기 위한 여러 가지 방법 중에서 바람직한 실시 방법에 대한 것이며, 본 발명이 하기의 도면과 설명만으로 한정되는 것은 아니다.Hereinafter, the operating principle of a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings and description. However, the drawings and the description to be described below are for a preferred implementation method among various methods for effectively describing the features of the present invention, and the present invention is not limited to the following drawings and description.
즉, 하기의 실시예는 본 발명의 수 많은 실시예 중에 바람직한 합집합 형태의 실시예에 해당하며, 하기의 실시예에서 특정 구성(또는 단계)을 생략하는 실시예, 또는 특정 구성(또는 단계)에 구현된 기능을 특정 구성(또는 단계)으로 분할하는 실시예, 또는 둘 이상의 구성(또는 단계)에 구현된 기능을 어느 하나의 구성(또는 단계)에 통합하는 실시예, 특정 구성(또는 단계)의 동작 순서를 교체하는 실시예 등은, 하기의 실시예에서 별도로 언급하지 않더라도 모두 본 발명의 권리범위에 속함을 명백하게 밝혀두는 바이다. 따라서 하기의 실시예를 기준으로 부분집합 또는 여집합에 해당하는 다양한 실시예들이 본 발명의 출원일을 소급받아 분할될 수 있음을 분명하게 명기하는 바이다.That is, the following examples correspond to preferred union-type examples among the numerous examples of the present invention, and examples in which specific configurations (or steps) are omitted in the following examples, or specific configurations (or steps). An embodiment of dividing the implemented function into a specific configuration (or step), or an embodiment of integrating a function implemented in two or more configurations (or steps) into any one configuration (or step), of a specific configuration (or step) It is to be clear that the examples of replacing the operation sequence and the like all belong to the scope of the present invention, even if not mentioned separately in the following examples. Accordingly, it is clearly stated that various examples corresponding to a subset or a complementary set may be divided by retrospectively receiving the filing date of the present invention based on the following examples.
또한, 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 발명에서 전반에 걸친 내용을 토대로 내려져야 할 것이다. In addition, in the following description of the present invention, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted. In addition, terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to the intention or custom of users or operators. Therefore, the definition should be made based on the contents throughout the present invention.
결과적으로, 본 발명의 기술적 사상은 청구범위에 의해 결정되며, 이하 실시예는 진보적인 본 발명의 기술적 사상을 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 효율적으로 설명하기 위한 일 수단일 뿐이다.As a result, the technical idea of the present invention is determined by the claims, and the following examples are a means for efficiently explaining the technical idea of the present invention to those of ordinary skill in the art to which the present invention belongs. Only.
도면1은 본 발명의 실시 방법에 따른 객체 정보 인식 시스템의 구성을 도시한 도면이다. 1 is a diagram showing the configuration of an object information recognition system according to an exemplary method of the present invention.
보다 상세하게 본 도면1은 하나 이상의 객체가 존재하는 지정된 공간에 구비된 카메라를 통해 획득되는 영상정보를 판독하여 인공지능 학습을 통해 상기 객체를 인식하기 위한 정보를 저장한 이후, 상기 카메라를 통해 획득되는 영상정보를 판독하여 인공지능 학습을 통해 상기 객체에 대한 정상 범위 동작을 인식하기 위한 동작인식모델을 생성하여, 상기 생성된 동작인식모델을 통해 상기 공간에서 동작하는 하나 이상의 객체가 정상 범위 동작을 일정 비율 벗어난 동작을 하는지 인식하는 시스템의 구성을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면1을 참조 및/또는 변형하여 상기 시스템의 구성에 대한 다양한 실시 방법(예컨대, 일부 구성부가 생략되거나, 또는 세분화되거나, 또는 합쳐진 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면1에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다. In more detail, this drawing 1 reads image information acquired through a camera provided in a designated space in which one or more objects exist, stores information for recognizing the object through artificial intelligence learning, and then acquires it through the camera. A motion recognition model for recognizing the normal range motion of the object through artificial intelligence learning is generated by reading the image information, and one or more objects operating in the space can perform the normal range motion through the generated motion recognition model. It shows the configuration of a system for recognizing whether an operation deviating from a certain ratio is shown, and for those of ordinary skill in the art to which the present invention belongs, various implementation methods for the configuration of the system by referring to and/or modifying this Figure 1 (For example, some components are omitted, subdivided, or combined implementation method) may be inferred, but the present invention includes all the inferred implementation methods, and only the implementation method shown in FIG. The technical features are not limited.
본 도면1을 참조하면, 상기 시스템이 서버(100)에 구성되는 것으로 도시하였으나, 이에 한정하지 않고, 상기 시스템은 지정된 공간에 구비된 하나 이상의 카메라(150)와 통신하는 서버이거나, 또는 상기 카메라(150)에 탑재되는 프로그램이거나, 또는 상기 카메라(150)와 지정된 인터페이스를 통해 연동하는 단말(155)의 프로그램이거나, 또는 상기 서버(100), 카메라(150), 단말(155) 중 적어도 둘 이상의 조합으로 구성될 수 있다.Referring to FIG. 1, the system is illustrated as being configured in the server 100, but the present invention is not limited thereto, and the system is a server that communicates with one or more cameras 150 provided in a designated space, or the camera ( 150), or a program of the terminal 155 interlocking with the camera 150 through a designated interface, or a combination of at least two of the server 100, the camera 150, and the terminal 155 It can be composed of.
도면1을 참조하면, 상기 시스템은 지정된 공간에 구비된 M(M≥1)개의 카메라(150)와, 지정된 공간에 구비된 M(M≥1)개의 카메라(150)와 통신하는 단말(155)과, 지정된 공간에 구비된 M(M≥1)개의 카메라(150)와 통신하는 서버(100)를 포함하여 구성될 수 있다.Referring to Figure 1, the system is a terminal 155 that communicates with M (M≥1) cameras 150 provided in a designated space and M (M≥1) cameras 150 provided in a designated space. And, it may be configured to include a server 100 that communicates with M (M≥1) cameras 150 provided in a designated space.
상기 카메라(150)는 지정된 공간에 구비되어 상기 서버(100) 또는 단말(155)과 연동하며, 지정된 공간의 영상정보를 획득하여 상기 서버(100) 또는 단말(155)로 제공할 수 있다.The camera 150 may be provided in a designated space and interlocked with the server 100 or the terminal 155, and image information of the designated space may be obtained and provided to the server 100 or the terminal 155.
본 발명의 실시 방법에 따르면, 상기 지정된 카메라(150)는 상기 공간에 구비된 M개의 카메라, 상기 공간에 구비된 M개의 카메라 중 객체 인식의 인공지능 학습을 위한 m(1≤m≤M)개의 카메라, 상기 객체 인식의 인공지능 학습을 위해 지정된 별도의 카메라 중 적어도 하나 또는 둘 이상의 조합을 포함할 수 있다. 예컨대, 상기 별도의 카메라는 지정된 공간에 구비된 카메라 외에 운영자 또는 사용자가 소지한 스마트폰의 카메라를 포함할 수 있다.According to the implementation method of the present invention, the designated camera 150 includes M cameras provided in the space and m (1≦m≦M) for artificial intelligence learning of object recognition among the M cameras provided in the space. It may include at least one or a combination of two or more of a camera and a separate camera designated for artificial intelligence learning of the object recognition. For example, the separate camera may include a camera of a smartphone possessed by an operator or user in addition to a camera provided in a designated space.
상기 단말(155)은 상기 서버(100)로부터 비정상 동작의 객체에 대한 비정상 동작 알림정보를 제공받는 상기 운영자 또는 사용자가 운영하는 스마트폰, 핸드폰, 태블릿PC, 무선랜에 연결된 노트북 등을 포함하는 무선단말을 포함할 수 있다. 한편, 본 도면1에서는 상기 동작 인식 기반 객체 정보 인식을 상기 서버(100)에서 수행하는 것으로 도시하여 설명하기로 하나, 본 발명의 다른 실시 방법에 따라 상기 단말(155)도 지정된 공간에 구비된 M(M≥1)개의 카메라(150)와 통신하여 본 발명에 따른 동작 인식 기반 객체 정보 인식을 수행할 수 있다. The terminal 155 is a wireless device including a smartphone, a mobile phone, a tablet PC, a laptop connected to a wireless LAN, etc. operated by the operator or user who is provided with abnormal operation notification information for an object of abnormal operation from the server 100 It may include a terminal. Meanwhile, in FIG. 1, the motion recognition-based object information recognition is illustrated and described as being performed by the server 100. However, according to another implementation method of the present invention, the terminal 155 is also provided in a designated space. Object information recognition based on motion recognition according to the present invention may be performed by communicating with (M≥1) cameras 150.
보다 상세하게, 도면1을 참조하면, 상기 서버(100) 지정된 공간에 구비된 M개의 카메라(150)로부터 획득한 영상정보를 이용하여 상기 공간에 구비된 N(N≥1)개의 객체 인식을 학습시키는 객체인식 학습부(105)와, 상기 N개의 객체를 인식하기 위한 N개의 객체인식모델을 생성하여 저장하는 객체인식모델 저장부(110)와, 상기 객체인식모델을 근거로 상기 공간에 존재하는 n(1≤n≤N)개의 객체를 인식하는 객체 인식부(115)와, 상기 인식된 n개의 객체인식정보를 저장하는 객체인식정보 저장부(120)와, 지정된 카메라를 통해 획득되는 영상정보를 이용하여 상기 공간에 존재하는 n개의 객체 중 정상 범위 동작을 하는 n'(1≤n'≤n)개의 객체에 대한 동작 인식을 학습하는 동작인식 학습부(125)와, 상기 n'개의 객체 별 정상 범위 동작인식모델을 생성하여 저장하는 동작인식모델 저장부(130)와, 상기 n'개의 객체 별 정상 범위 동작인식모델을 이용하여 비정상 동작을 인식한 객체를 포함하는 n"(1≤n"≤n)개의 객체를 인식하는 비정상객체 인식부(135)와, 상기 비정상 동작으로 인식된 n"개의 객체에 대한 비정상 동작 알림정보를 지정된 단말(155)로 제공하는 비정상동작 알림부(140)를 포함하여 구성될 수 있다.In more detail, referring to Figure 1, the server 100 learns to recognize N (N≥1) objects provided in the space using image information obtained from M cameras 150 provided in a designated space. An object recognition learning unit 105 to recognize the N objects, an object recognition model storage unit 110 that generates and stores N object recognition models for recognizing the N objects, and exists in the space based on the object recognition model. An object recognition unit 115 that recognizes n (1≤n≤N) objects, an object recognition information storage unit 120 that stores the recognized n object recognition information, and image information acquired through a designated camera A motion recognition learning unit 125 that learns motion recognition for n'(1≤n'≤n) objects that operate in a normal range among n objects existing in the space, and the n'objects A motion recognition model storage unit 130 that creates and stores a normal range motion recognition model for each, and n" (1≤n) including an object that recognizes an abnormal motion using the normal range motion recognition model for each n' An abnormal object recognition unit 135 that recognizes "≤n) objects, and an abnormal operation notification unit 140 that provides abnormal operation notification information for n" objects recognized as the abnormal operation to the designated terminal 155 It can be configured to include.
상기 객체인식 학습부(105)는 지정된 카메라를 통해 획득되는 영상정보를 판독하여 지정된 인공지능모듈을 통해 상기 공간에 구비된 N(N≥1)개의 객체 인식을 학습시킬 수 있다.The object recognition learning unit 105 may learn to recognize N (N≥1) objects provided in the space through a designated artificial intelligence module by reading image information acquired through a designated camera.
본 발명의 실시 방법에 따르면, 상기 객체인식 학습부(105)는 지정된 카메라를 통해 획득되는 영상정보를 판독하여 상기 공간에 존재하는 각 객체 별 관측된 특징에 대응하는 각 객체 별 i(i≥2)개의 입력 정보를 인식하고 각 객체 별 관측된 결과에 대응하는 각 객체 별 j(j≥1)개의 출력 정보를 설정한 후, 각 객체 별로 인식된 i개의 입력 정보 별 변수값과 j개의 출력 정보 별 변수값을 포함하는 각 객체 별 학습 정보를 지정된 인공지능모듈의 변수값으로 대입하여 상기 공간에 존재하는 각 객체 중 고유 식별하여 인식 가능한 N개의 객체 인식을 학습시킬 수 있다. According to an exemplary method of the present invention, the object recognition learning unit 105 reads image information acquired through a designated camera and determines i (i≥2) for each object corresponding to the observed characteristic of each object existing in the space. After recognizing) input information and setting j (j≥1) output information for each object corresponding to the observed result for each object, variable values for each i input information recognized for each object and j output information Learning information for each object, including the star variable value, is substituted with the variable value of the designated artificial intelligence module to uniquely identify and recognize N recognizable objects among the objects existing in the space.
한편, 상기 N개의 객체는 상기 공간에 구비된 사물이거나, 상기 공간에 존재하는 사람(예컨대, 작업자, 노동자 등)일 수 있다.Meanwhile, the N objects may be objects provided in the space or a person (eg, a worker, a worker, etc.) existing in the space.
본 발명의 실시 방법에 따르면, 상기 각 객체 별로 인식되는 i개의 입력 정보는 상기 영상정보를 판독하여 인식되는 각 객체 별 패턴정보를 포함할 수 있다. 예컨대, 상기 i개의 입력정보는 영상정보에 포함된 직육면체 구조의 객체를 인식하여 획득되는 정면 방향의 '□' 패턴, 비스듬한 방향의 '?' 패턴, 좌측 상단 모서리 부분의 '┌' 패턴, 좌측 하단 모서리 부분의 '└' 패턴, 우측 상단 모서리 부분의 '┐' 패턴, 우측 하단 모서리 부분의 '┘' 등을 포함할 수 있다.According to an exemplary embodiment of the present invention, the i pieces of input information recognized for each object may include pattern information for each object recognized by reading the image information. For example, the i pieces of input information are a'□' pattern in the front direction and a'?' in an oblique direction obtained by recognizing an object of a rectangular parallelepiped structure included in the image information. It may include a pattern, a'┌' pattern at the upper left corner, a'└' pattern at the lower left corner, a'┐' pattern at the upper right corner, and a'┘' at the lower right corner.
본 발명의 실시 방법에 따르면, 상기 각 객체 별로 설정되는 j개의 출력 정보는 상기 영상정보를 판독하여 인식되는 각 객체 별 패턴(또는 패턴의 집합)에 대응하는 객체식별자를 포함할 수 있다. 여기서, 상기 객체식별자는 i개의 입력정보에 해당하는 패턴(또는 패턴의 집합)이 '□', '?', '┌', '└', '┐', '┘'일 경우, 이러한 패턴(또는 패턴의 집합)에 설정한 고유한 식별자(예컨대, 고유번호, 고유코드 등)를 의미하며, 이는 객체명칭을 포함하는 객체정보와 매핑될 수 있다.According to an exemplary embodiment of the present invention, the j output information set for each object may include an object identifier corresponding to a pattern (or set of patterns) for each object recognized by reading the image information. Here, the object identifier is when the pattern (or set of patterns) corresponding to i input information is'□','?','┌','└','┐', or'┘', such a pattern ( Or a set of patterns), which is a unique identifier (eg, a unique number, a unique code, etc.), which may be mapped with object information including an object name.
상기 객체인식모델 저장부(110)는 상기 객체인식 학습부(105)를 통해 상기 공간에 구비된 N개의 객체 인식이 학습되면, 상기 인공지능모듈을 통해 학습된 N개의 객체를 인식하기 위한 N개의 객체인식모델을 생성하여 지정된 저장매체(145)에 저장할 수 있다.When the object recognition model storage unit 110 learns the recognition of N objects provided in the space through the object recognition learning unit 105, the N number of objects for recognizing the N objects learned through the artificial intelligence module An object recognition model may be created and stored in a designated storage medium 145.
본 발명의 실시 방법에 따르면, 상기 객체인식모델 저장부(110)는 상기 객체인식모델에 대하여 지정된 단말(155)을 통해 입력된 객체정보 또는 상기 객체인식모델을 근거로 지정된 데이터베이스로부터 추출된 객체정보를 상기 객체인식모델과 매핑하여 지정된 저장매체(145)에 저장할 수 있다. 여기서, 상기 객체정보는 객체명칭이나 용도, 제조사 등등과 같이 객체에 대한 모든 정보를 포함할 수 있다.According to an embodiment of the present invention, the object recognition model storage unit 110 includes object information input through a terminal 155 designated for the object recognition model or object information extracted from a database designated based on the object recognition model. May be mapped with the object recognition model and stored in a designated storage medium 145. Here, the object information may include all information on the object such as the object name, purpose, manufacturer, and the like.
본 발명의 실시 방법에 따르면, 상기 객체인식모델은 상기 공간에 구비된 N개의 객체를 인식하기 위한 패턴 인식 모델을 포함할 수 있다.According to an embodiment of the present invention, the object recognition model may include a pattern recognition model for recognizing N objects provided in the space.
상기 객체 인식부(115)는 상기 객체인식모델 저장부(110)를 통해 N개의 객체인식모델이 생성되어 지정된 저장매체(145)에 저장되면, 상기 객체인식모델을 근거로 상기 M개의 카메라(150)를 통해 획득되는 M개의 영상정보를 판독하여 상기 공간에 존재하는 n(1≤n≤N)개의 객체를 인식할 수 있다.When the object recognition unit 115 generates N object recognition models through the object recognition model storage unit 110 and stores them in a designated storage medium 145, the M cameras 150 are generated based on the object recognition model. By reading M pieces of image information acquired through ), n (1≦n≦N) objects existing in the space may be recognized.
상기 객체인식정보 저장부(120)는 상기 객체 인식부(115)를 통해 상기 공간에 존재하는 n개의 객체가 인식되면, 상기 인식된 n개의 객체에 대응하는 n개의 객체인식정보를 지정된 저장매체(또는 관리DB)에 저장할 수 있다.When the object recognition information storage unit 120 recognizes n objects existing in the space through the object recognition unit 115, the object recognition information storage unit 120 stores n object recognition information corresponding to the recognized n objects to a designated storage medium ( Or it can be stored in the management DB).
본 발명의 실시 방법에 따르면, 상기 객체인식정보는 상기 공간에 존재하는 n개의 객체를 고유 식별하는 객체식별정보를 포함할 수 있다. According to an exemplary method of the present invention, the object recognition information may include object identification information for uniquely identifying n objects existing in the space.
여기서, 상기 객체인식정보는 각 객체에 대한 객체정보(또는 객체정보 중 일부정보)를 기본적으로 포함할 수 있으며, 추가로 각 객체를 고유 식별하는 객체식별정보를 포함할 수 있다. 예컨대, 공간 내에 똑 같은 기계가 3개 있을 경우, 객체식별정보는 3개의 기계를 각각 고유 식별하기 위해 각각의 기계에 중복되지 않게 부여된 식별번호나 식별코드를 포함할 수 있다. 또한 상기 객체식별정보는 공간 내에서 특정한 객체가 처음 인식될 때 중복되지 않게 고유하게 부여될 수 있으며, 적어도 상기 공간에서 해당 객체가 더 이상 인식되지 않을 때까지(또는 해당 객체가 더 이상 인식되지 않은 이후에도 지속적으로) 유지 되어야만, 어떤 객체가 공간에서 사라졌는지 또는 다시 복귀되었는지 확인할 수 있다.Here, the object recognition information may basically include object information (or some of the object information) for each object, and may additionally include object identification information uniquely identifying each object. For example, when there are three identical machines in the space, the object identification information may include an identification number or identification code that is not duplicated to each machine in order to uniquely identify each of the three machines. In addition, the object identification information may be uniquely assigned so as not to overlap when a specific object is first recognized in the space, at least until the object is no longer recognized in the space (or the object is no longer recognized). It must be maintained afterwards) so that you can see which objects have disappeared from space or have returned again.
본 발명의 실시 방법에 따르면, 상기 객체식별정보는 상기 객체에 지정된 인식코드를 부호화한 코드이미지가 부착된 경우, 상기 객체에 부착된 코드이미지를 판독하여 인식된 인식코드를 포함하거나 또는 상기 인식된 인식코드와 매핑된 식별코드를 포함할 수 있다. According to an embodiment of the present invention, the object identification information includes an identification code recognized by reading a code image attached to the object when a code image encoding a specified identification code is attached to the object, or It may include an identification code mapped with an identification code.
상기 동작인식 학습부(125)는 상기 객체인식정보 저장부(120)를 통해 n개의 객체인식정보가 저장된 후, 지정된 카메라(150)를 통해 획득되는 영상정보를 판독하여 지정된 인공지능모듈을 통해 상기 공간에 존재하는 n개의 객체 중 지정된 범위 내에서 동작하는 n'(1≤n'≤n)개의 객체에 대한 정상 범위 동작 인식을 학습시킬 수 있다.The motion recognition learning unit 125 stores n pieces of object recognition information through the object recognition information storage unit 120, and then reads the image information acquired through the designated camera 150, and then reads the image information through the designated artificial intelligence module. It is possible to learn normal range motion recognition for n'(1 ≤ n'≤ n) objects operating within a specified range among n objects existing in space.
본 발명의 실시 방법에 따르면, 상기 동작인식 학습부(125)는 지정된 카메라(150)를 통해 획득되는 영상정보를 판독하여 상기 공간에 존재하는 n개의 객체 중 지정된 정상 범위 내에서 동작하는 n'개의 객체 별 동작의 관측된 특징에 대응하는 n'개의 객체 별 p(p≥2)개의 입력 정보를 인식하고 n'개의 객체 별 동작의 관측된 결과에 대응하는 n'개의 객체 별 q(q≥1)개의 출력 정보를 설정하고, n'개의 객체 별로 인식된 p개의 입력 정보 별 변수값과 q개의 출력 정보 별 변수값을 포함하는 n'개의 객체 별 학습 정보를 지정된 인공지능모듈의 변수값으로 대입하여 상기 공간에서 동작하는 n'개의 객체에 대한 정상 범위 동작 인식을 학습시킬 수 있다.According to an embodiment of the present invention, the motion recognition learning unit 125 reads the image information acquired through the designated camera 150 and operates within a specified normal range among n objects existing in the space. Recognizes p(p≥2) input information for each n'object corresponding to the observed characteristic of motion for each object, and q(q≥1) for each n'object corresponding to the observed result of motion for each n'object ) Output information is set, and learning information for each n'object, including variable values for each p input information recognized for each n'objects and variable values for each output information, is substituted as the variable value of the designated artificial intelligence module. Thus, it is possible to learn normal range motion recognition for n'objects operating in the space.
본 발명의 실시 방법에 따르면, 상기 지정된 범위는 동작 거리 범위, 동작 방향 범위, 동작 거리 범위와 동작 방향 범위의 조합 중 적어도 하나의 범위를 포함할 수 있다.According to an exemplary embodiment of the present invention, the designated range may include at least one of a range of a range of motion, a range of motion directions, and a range of a motion distance and a range of motion directions.
본 발명의 실시 방법에 따르면, 상기 지정된 카메라(150)는 상기 공간에 구비된 M개의 카메라, 상기 공간에 구비된 M개의 카메라 중 정상 범위 동작 인식의 인공지능 학습을 위한 m(1≤m≤M)개의 카메라, 상기 정상 범위 동작 인식의 인공지능 학습을 위해 지정된 별도의 카메라 중 적어도 하나 또는 둘 이상의 조합을 포함할 수 있다.According to the implementation method of the present invention, the designated camera 150 is m (1≤m≤M) for artificial intelligence learning of normal range motion recognition among M cameras provided in the space and M cameras provided in the space. ) Cameras, and at least one or a combination of two or more of separate cameras designated for artificial intelligence learning of the normal range motion recognition.
본 발명의 실시 방법에 따르면, 상기 n'개의 객체 별 인식되는 p개의 입력 정보는 상기 영상정보를 판독하여 인식되는 n'개의 객체 별 정상 범위 동작의 패턴정보를 포함할 수 있다. 예컨대, 상기 p개의 입력정보는, 영상정보에 포함된 객체의 일부분이 주기적/반복적으로 움직이는 동작의 패턴정보를 포함할 수 있다. According to an exemplary embodiment of the present invention, the p pieces of input information recognized for each n'objects may include pattern information of a normal range operation for each n'objects recognized by reading the image information. For example, the p pieces of input information may include pattern information of an operation in which a part of an object included in the image information periodically/repeatedly moves.
본 발명의 실시 방법에 따르면, 상기 n'개의 객체 별 설정되는 q개의 출력 정보는 상기 영상정보를 판독하여 인식되는 n'개의 객체 별 정상 범위 동작의 패턴(또는 패턴의 집합)에 대응하는 고유식별자를 포함할 수 있다. 여기서, 상기 고유식별자는 p개의 입력정보에 해당하는 정상 범위 동작의 패턴(또는 패턴의 집합)이 좌우로 10cm 범위로 왔다갔다하는 것일 경우, 이러한 패턴(또는 패턴의 집합)에 설정한 고유한 식별자(예컨대, 고유번호, 고유코드 등)를 의미할 수 있다.According to an embodiment of the present invention, the q output information set for each n'objects is a unique identifier corresponding to a pattern (or set of patterns) of normal range motion for each n'object recognized by reading the image information. It may include. Here, the unique identifier is a unique identifier set in such a pattern (or a set of patterns) when the pattern (or set of patterns) of normal range motion corresponding to the p pieces of input information goes back and forth in a range of 10 cm left and right. It may mean (eg, a unique number, a unique code, etc.).
상기 동작인식모델 저장부(130)는 상기 동작인식 학습부(125)를 통해 지정된 범위 내에서 동작하는 n'개의 객체에 대한 정상 범위 동작 인식이 학습되면, 상기 인공지능모듈을 통해 학습된 n'개의 객체의 정상 범위 동작을 인식하기 위한 n'개의 객체 별 정상 범위 동작인식모델을 생성하여 지정된 저장매체(145)에 저장할 수 있다. 여기서, 상기 정상 범위 동작은 상기 객체의 일부가 지정된 범위 내에서 주기적/반복적으로 움직이는 동작을 포함할 수 있다.When the motion recognition model storage unit 130 learns normal range motion recognition for n'objects operating within a specified range through the motion recognition learning unit 125, n'learned through the artificial intelligence module A normal range motion recognition model for each n'objects for recognizing normal range motions of two objects may be generated and stored in a designated storage medium 145. Here, the normal range operation may include an operation in which a part of the object moves periodically/repetitively within a specified range.
상기 비정상객체 인식부(135)는 상기 동작인식모델 저장부(130)를 통해 n'개의 객체 별 정상 범위 동작인식모델이 생성되어 저장되면, 상기 n'개의 객체 별 정상 범위 동작인식모델을 근거로 상기 M개의 카메라(150)를 통해 획득되는 M개의 영상정보를 판독하여 상기 공간 내에서 동작하는 n'개의 객체 중 정상 범위 동작을 일정 비율 이상 벗어난 동작을 인식한 객체를 포함하는 n"(1≤n"≤n)개의 객체를 인식할 수 있다. When the abnormal object recognition unit 135 generates and stores a normal range motion recognition model for each n'objects through the motion recognition model storage unit 130, based on the normal range motion recognition model for each n'object. N" including an object that recognizes a motion deviating from a normal range motion by more than a certain ratio among n'objects operating in the space by reading M image information acquired through the M cameras 150 (1≤ n"≤n) objects can be recognized.
본 발명의 실시 방법에 따르면, 상기 n"개의 객체는 상기 공간 내에서 고정된 상태를 유지하는 (n-n')개의 객체 중 고정된 상태를 벗어난 동작을 인식한 객체를 더 포함할 수 있다.According to an exemplary embodiment of the present invention, the n" objects may further include an object recognizing a motion out of the fixed state among (n-n') objects maintaining a fixed state in the space.
상기 비정상동작 알림부(140)는 상기 비정상객체 인식부(135)를 통해 정상 범위 동작을 일정 비율 이상 벗어난 동작을 인식한 객체를 포함하는 n"개의 객체를 인식한 경우 상기 인식된 n"개의 객체에 대한 n"개의 객체식별정보를 포함하는 비정상 동작 알림정보를 지정된 단말(155)로 제공하는 절차를 수행할 수 있다.When the abnormal motion notification unit 140 recognizes n" objects including objects that have recognized a motion out of the normal range motion by a predetermined ratio or more through the abnormal object recognition unit 135, the recognized n" objects A procedure of providing abnormal operation notification information including n" object identification information for to the designated terminal 155 may be performed.
도면2는 본 발명의 실시 방법에 따른 객체인식모델을 생성하여 저장하는 과정을 도시한 도면이다.2 is a diagram showing a process of generating and storing an object recognition model according to an exemplary method of the present invention.
보다 상세하게 본 도면2는 상기 도면1에 도시된 서버(100)를 포함하는 객체 정보 인식 시스템 상에서 하나 이상의 객체가 존재하는 지정된 공간에 구비된 M개의 카메라를 통해 획득되는 영상정보를 판독하여 인공지능 학습을 통해 상기 객체를 인식하기 위한 객체인식모델을 생성하여 지정된 저장매체에 저장하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면2를 참조 및/또는 변형하여 상기 객체인식모델을 생성하여 저장하는 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면2에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, FIG. 2 is an artificial intelligence by reading image information acquired through M cameras provided in a designated space in which one or more objects exist on the object information recognition system including the server 100 shown in FIG. 1. It shows a process of generating an object recognition model for recognizing the object through learning and storing it in a designated storage medium.If a person of ordinary skill in the art to which the present invention belongs, refer to this drawing 2 and/or Various implementation methods for the process of generating and storing the object recognition model by modification (e.g., an implementation method in which some steps are omitted or the order has been changed) can be inferred, but the present invention describes all the inferred implementation methods. It includes, and the technical features are not limited only by the implementation method shown in FIG. 2.
도면2에 도시된 실시 과정은 상기 객체 정보 인식 시스템 상의 서버(100)에서 하나 이상의 객체가 존재하는 지정된 공간에 구비된 M개의 카메라를 통해 상기 공간에 대한 영상정보를 획득하는 과정으로부터 개시될 수 있다(200).The implementation process shown in FIG. 2 may be started from a process of obtaining image information on the space through M cameras provided in a designated space in which one or more objects exist in the server 100 on the object information recognition system. (200).
상기 공간에 대한 영상정보가 획득되면, 상기 서버(100)는 상기 획득되는 영상정보를 판독하여 상기 공간에 존재하는 각 객체 별 특징을 관측하고(205), 상기 각 객체 별 관측된 특징에 대응하는 각 객체 별 i(i≥2)개의 입력 정보를 인식한다(210).When the image information for the space is obtained, the server 100 reads the acquired image information to observe the characteristics of each object existing in the space (205), and corresponds to the observed characteristics of each object. I (i≥2) pieces of input information for each object are recognized (210).
여기서, 상기 각 객체 별로 인식되는 i개의 입력 정보는 상기 영상정보를 판독하여 인식되는 각 객체 별 패턴정보를 포함할 수 있다. 예컨대, 상기 i개의 입력정보는 영상정보에 포함된 직육면체 구조의 객체를 인식하여 획득되는 정면 방향의 '□' 패턴, 비스듬한 방향의 '?' 패턴, 좌측 상단 모서리 부분의 '┌' 패턴, 좌측 하단 모서리 부분의 '└' 패턴, 우측 상단 모서리 부분의 '┐' 패턴, 우측 하단 모서리 부분의 '┘' 등을 포함할 수 있다.Here, the i pieces of input information recognized for each object may include pattern information for each object recognized by reading the image information. For example, the i pieces of input information are a'□' pattern in the front direction and a'?' in an oblique direction obtained by recognizing an object of a rectangular parallelepiped structure included in the image information. It may include a pattern, a'┌' pattern at the upper left corner, a'└' pattern at the lower left corner, a'┐' pattern at the upper right corner, and a'┘' at the lower right corner.
상기 입력 정보가 인식되면, 상기 서버(100)는 각 객체 별 관측된 결과에 대응하는 각 객체 별 j(j≥1)개의 출력 정보를 설정한다(215).When the input information is recognized, the server 100 sets j (j≥1) pieces of output information for each object corresponding to the observed result for each object (215).
여기서, 상기 각 객체 별로 설정되는 j개의 출력 정보는 상기 영상정보를 판독하여 인식되는 각 객체 별 패턴(또는 패턴의 집합)에 대응하는 객체식별자를 포함할 수 있다. 여기서, 상기 객체식별자는 i개의 입력정보에 해당하는 패턴(또는 패턴의 집합)이 '□', '?', '┌', '└', '┐', '┘'일 경우, 이러한 패턴(또는 패턴의 집합)에 설정한 고유한 식별자(예컨대, 고유번호, 고유코드 등)를 의미하며, 이는 객체명칭을 포함하는 객체정보와 매핑될 수 있다.Here, the j output information set for each object may include an object identifier corresponding to a pattern (or set of patterns) for each object recognized by reading the image information. Here, the object identifier is when the pattern (or set of patterns) corresponding to i input information is'□','?','┌','└','┐', or'┘', such a pattern ( Or a set of patterns), which is a unique identifier (eg, a unique number, a unique code, etc.), which may be mapped with object information including an object name.
이후, 상기 서버(100)는 각 객체 별로 인식된 i개의 입력 정보 별 변수값과 j개의 출력 정보 별 변수값을 포함하는 각 객체 별 학습 정보를 지정된 인공지능모듈의 변수값으로 대입하고(220), 상기 공간에 존재하는 각 객체 중 고유 식별하여 인식 가능한 N(N≥1)개의 객체 인식을 학습시킨다(225). Thereafter, the server 100 substitutes the learning information for each object, including i variable values for each input information recognized for each object and j variable values for each output information, as the variable value of the designated artificial intelligence module (220). , Recognition of N (N≥1) objects that can be uniquely identified and recognized among each object existing in the space is learned (225).
여기서, 상기 N개의 객체는 상기 공간에 구비된 사물이거나, 상기 공간에 존재하는 사람(예컨대, 작업자, 노동자 등)일 수 있다.Here, the N objects may be objects provided in the space or a person (eg, a worker, a worker, etc.) existing in the space.
상기 공간에 구비된 N개의 객체 인식이 학습되면, 상기 서버(100)는 상기 인공지능모듈을 통해 학습된 N개의 객체를 인식하기 위한 N개의 객체인식모델을 생성하고(230), 상기 생성된 N개의 객체인식모델을 지정된 저장매체(145)에 저장한다(235).When the recognition of N objects provided in the space is learned, the server 100 generates N object recognition models for recognizing the N objects learned through the artificial intelligence module (230), and the generated N Two object recognition models are stored in the designated storage medium 145 (235).
본 발명의 실시 방법에 따르면, 상기 서버(100)는 상기 객체인식모델에 대하여 지정된 단말(155)을 통해 입력된 객체정보 또는 상기 객체인식모델을 근거로 지정된 데이터베이스로부터 추출된 객체정보를 상기 객체인식모델과 매핑하여 지정된 저장매체(145)에 저장할 수 있으며, 여기서, 상기 객체정보는 객체명칭이나 용도, 제조사 등등과 같이 객체에 대한 모든 정보를 포함할 수 있다.According to an implementation method of the present invention, the server 100 recognizes the object information input through the terminal 155 designated for the object recognition model or object information extracted from a database designated based on the object recognition model. It may be mapped to a model and stored in a designated storage medium 145, where the object information may include all information on an object such as an object name, purpose, manufacturer, and the like.
또한, 상기 객체인식모델은 상기 공간에 구비된 N개의 객체를 인식하기 위한 패턴 인식 모델을 포함할 수 있다.In addition, the object recognition model may include a pattern recognition model for recognizing N objects provided in the space.
도면3은 본 발명의 실시 방법에 따른 동작인식모델을 생성하여 저장하는 과정을 도시한 도면이다.3 is a diagram illustrating a process of generating and storing a motion recognition model according to an exemplary method of the present invention.
보다 상세하게 본 도면3은 상기 도면2의 과정 이후, 상기 도면1에 도시된 서버(100)를 포함하는 객체 정보 인식 시스템 상에서 하나 이상의 객체가 존재하는 지정된 공간에 구비된 M개의 카메라를 통해 획득되는 영상정보를 판독하여 인공지능 학습을 통해 상기 객체 중 지정된 정상 범위 내에서 동작하는 객체를 인식하기 위한 동작인식모델을 생성하여 지정된 저장매체에 저장하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면3을 참조 및/또는 변형하여 상기 동작인식모델을 생성하여 저장하는 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면3에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, FIG. 3 shows, after the process of FIG. 2, obtained through M cameras provided in a designated space in which one or more objects exist on the object information recognition system including the server 100 shown in FIG. It shows the process of reading image information and generating a motion recognition model for recognizing an object operating within a specified normal range among the objects through artificial intelligence learning and storing it in a designated storage medium. For those of ordinary skill, various implementation methods for the process of generating and storing the motion recognition model by referring and/or modifying this Figure 3 (e.g., some steps are omitted or the order is changed) Although it may be inferred, the present invention includes all of the above inferred implementation methods, and the technical features are not limited only by the implementation method shown in FIG. 3.
도면3에 도시된 실시 과정은, 상기 도면2의 과정을 통해 N개의 객체인식모델이 생성되어 지정된 저장매체(145)에 저장된 후, 상기 객체 정보 인식 시스템 상의 서버(100)에서 상기 지정된 공간에 구비된 M개의 카메라(150)를 통해 상기 공간에 대한 M개의 영상정보를 획득하는 과정으로부터 개시될 수 있다(300).In the implementation process shown in Fig. 3, N object recognition models are created through the process of Fig. 2 and stored in a designated storage medium 145, and then provided in the designated space by the server 100 on the object information recognition system. It may be started from the process of obtaining M pieces of image information for the space through the M number of cameras 150 (300).
상기 공간에 대한 영상정보가 획득되면, 상기 서버(100)는 상기 객체인식모델을 근거로 상기 M개의 카메라(150)를 통해 획득되는 M개의 영상정보를 판독하여 상기 공간에 존재하는 n(1≤n≤N)개의 객체를 인식한다(305).When the image information on the space is obtained, the server 100 reads the M image information acquired through the M cameras 150 based on the object recognition model, and n (1 ≤ n≤N) objects are recognized (305).
상기 공간에 존재하는 n개의 객체가 인식되면, 상기 서버(100)는 상기 인식된 n개의 객체에 대응하는 n개의 객체인식정보를 지정된 저장매체(또는 관리DB)에 저장한다(310).When n objects existing in the space are recognized, the server 100 stores n object recognition information corresponding to the recognized n objects in a designated storage medium (or management DB) (310).
본 발명의 실시 방법에 따르면, 상기 객체인식정보는 상기 공간에 존재하는 n개의 객체를 고유 식별하는 객체식별정보를 포함할 수 있다. According to an exemplary method of the present invention, the object recognition information may include object identification information for uniquely identifying n objects existing in the space.
여기서, 상기 객체인식정보는 각 객체에 대한 객체정보(또는 객체정보 중 일부정보)를 기본적으로 포함할 수 있으며, 추가로 각 객체를 고유 식별하는 객체식별정보를 포함할 수 있다. 예컨대, 공간 내에 똑 같은 기계가 3개 있을 경우, 객체식별정보는 3개의 기계를 각각 고유 식별하기 위해 각각의 기계에 중복되지 않게 부여된 식별번호나 식별코드를 포함할 수 있다. 또한 상기 객체식별정보는 공간 내에서 특정한 객체가 처음 인식될 때 중복되지 않게 고유하게 부여될 수 있으며, 적어도 상기 공간에서 해당 객체가 더 이상 인식되지 않을 때까지(또는 해당 객체가 더 이상 인식되지 않은 이후에도 지속적으로) 유지 되어야만, 어떤 객체가 공간에서 사라졌는지 또는 다시 복귀되었는지 확인할 수 있다.Here, the object recognition information may basically include object information (or some of the object information) for each object, and may additionally include object identification information uniquely identifying each object. For example, when there are three identical machines in the space, the object identification information may include an identification number or identification code that is not duplicated to each machine in order to uniquely identify each of the three machines. In addition, the object identification information may be uniquely assigned so as not to overlap when a specific object is first recognized in the space, at least until the object is no longer recognized in the space (or the object is no longer recognized). It must be maintained afterwards) so that you can see which objects have disappeared from space or have returned again.
본 발명의 실시 방법에 따르면, 상기 객체식별정보는 상기 객체에 지정된 인식코드를 부호화한 코드이미지가 부착된 경우, 상기 객체에 부착된 코드이미지를 판독하여 인식된 인식코드를 포함하거나 또는 상기 인식된 인식코드와 매핑된 식별코드를 포함할 수 있다. According to an embodiment of the present invention, the object identification information includes an identification code recognized by reading a code image attached to the object when a code image encoding a specified identification code is attached to the object, or It may include an identification code mapped with an identification code.
상기 n개의 객체인식정보가 저장된 후, 상기 서버(100)는 지정된 카메라(150)를 통해 획득되는 영상정보를 판독하고(315), 상기 공간에 존재하는 n개의 객체 중 지정된 정상 범위 내에서 동작하는 n'(1≤n'≤n)개의 객체 별 동작의 특징을 관측한다(320).After the n pieces of object recognition information are stored, the server 100 reads the image information obtained through the designated camera 150 (315), and operates within a specified normal range among n objects existing in the space. The characteristics of motions of n'(1≤n'≤n) objects are observed (320).
여기서, 상기 지정된 범위는 동작 거리 범위, 동작 방향 범위, 동작 거리 범위와 동작 방향 범위의 조합 중 적어도 하나의 범위를 포함할 수 있다.Here, the designated range may include at least one of a motion distance range, a motion direction range, and a combination of a motion distance range and a motion direction range.
여기서, 상기 지정된 카메라(150)는 상기 공간에 구비된 M개의 카메라, 상기 공간에 구비된 M개의 카메라 중 정상 범위 동작 인식의 인공지능 학습을 위한 m(1≤m≤M)개의 카메라, 상기 정상 범위 동작 인식의 인공지능 학습을 위해 지정된 별도의 카메라 중 적어도 하나 또는 둘 이상의 조합을 포함할 수 있다.Here, the designated camera 150 includes m (1≤m≤M) cameras for artificial intelligence learning of normal range motion recognition among the M cameras provided in the space and M cameras provided in the space, and the normal It may include at least one or a combination of two or more of separate cameras designated for artificial intelligence learning of range motion recognition.
그리고, 상기 서버(100)는 상기 관측된 특징에 대응하는 n'개의 객체 별 p(p≥2)개의 입력 정보를 인식하고(325), n'개의 객체 별 동작의 관측된 결과에 대응하는 n'개의 객체 별 q(q≥1)개의 출력 정보를 설정한다(330).In addition, the server 100 recognizes p (p≥2) pieces of input information for each n'objects corresponding to the observed characteristics (325), and n'corresponding to the observed results of the actions for each n'objects. 'Q (q≥1) output information for each object is set (330).
여기서, 상기 n'개의 객체 별 인식되는 p개의 입력 정보는 상기 영상정보를 판독하여 인식되는 n'개의 객체 별 정상 범위 동작의 패턴정보를 포함할 수 있다. 예컨대, 상기 p개의 입력정보는, 영상정보에 포함된 객체의 일부분이 주기적/반복적으로 움직이는 동작의 패턴정보를 포함할 수 있다. Here, the p pieces of input information recognized for each n'objects may include pattern information of a normal range operation for each n'objects recognized by reading the image information. For example, the p pieces of input information may include pattern information of an operation in which a part of an object included in the image information periodically/repeatedly moves.
여기서, 상기 n'개의 객체 별 설정되는 q개의 출력 정보는 상기 영상정보를 판독하여 인식되는 n'개의 객체 별 정상 범위 동작의 패턴(또는 패턴의 집합)에 대응하는 고유식별자를 포함할 수 있다. 여기서, 상기 고유식별자는 p개의 입력정보에 해당하는 정상 범위 동작의 패턴(또는 패턴의 집합)이 좌우로 10cm 범위로 왔다갔다하는 것일 경우, 이러한 패턴(또는 패턴의 집합)에 설정한 고유한 식별자(예컨대, 고유번호, 고유코드 등)를 의미할 수 있다.Here, the q pieces of output information set for each n'objects may include a unique identifier corresponding to a pattern (or set of patterns) of a normal range operation for each n'objects recognized by reading the image information. Here, the unique identifier is a unique identifier set in such a pattern (or a set of patterns) when the pattern (or set of patterns) of normal range motion corresponding to the p pieces of input information goes back and forth in a range of 10 cm left and right. It can mean (eg, a unique number, a unique code, etc.).
이후, 상기 서버(100)는 n'개의 객체 별로 인식된 p개의 입력 정보 별 변수값과 q개의 출력 정보 별 변수값을 포함하는 n'개의 객체 별 학습 정보를 지정된 인공지능모듈의 변수값으로 대입하여(335), 상기 공간에서 동작하는 n'개의 객체에 대한 정상 범위 동작 인식을 학습시킨다(340).Thereafter, the server 100 substitutes the learning information for each n'objects, including the variable values for each p input information and the variable values for q output information recognized for each n'objects, as the variable values of the designated artificial intelligence module. In operation 335, normal range motion recognition is learned for n'objects operating in the space (340).
상기 지정된 범위 내에서 동작하는 n'개의 객체에 대한 정상 범위 동작 인식이 학습되면, 상기 서버(100)는 상기 인공지능모듈을 통해 학습된 n'개의 객체의 정상 범위 동작을 인식하기 위한 n'개의 객체 별 정상 범위 동작인식모델을 생성하고(345), 상기 생성된 n'개의 객체 별 정상 범위 동작인식모델을 지정된 저장매체(145)에 저장한다(350). When the normal range motion recognition for n'objects operating within the specified range is learned, the server 100 performs n'number of normal range motion recognition for the n'objects learned through the artificial intelligence module. A normal range motion recognition model for each object is created (345), and the generated normal range motion recognition model for each n'object is stored in a designated storage medium 145 (350).
여기서, 상기 정상 범위 동작은 상기 객체의 일부가 지정된 범위 내에서 주기적/반복적으로 움직이는 동작을 포함할 수 있다.Here, the normal range operation may include an operation in which a part of the object moves periodically/repetitively within a specified range.
도면4는 본 발명의 실시 방법에 따른 비정상 범위 동작의 객체를 인식하여 알림정보를 제공하는 과정을 도시한 도면이다.4 is a diagram illustrating a process of providing notification information by recognizing an object of an abnormal range motion according to an exemplary method of the present invention.
보다 상세하게 본 도면4는 상기 도면3의 과정 이후, 상기 도면1에 도시된 서버(100)를 포함하는 객체 정보 인식 시스템 상에서 하나 이상의 객체가 존재하는 지정된 공간에 구비된 M개의 카메라를 통해 획득되는 영상정보를 판독하여 상기 공간에서 동작하는 하나 이상의 객체가 정상 범위 동작을 일정 비율 벗어난 비정상 범위 동작을 하는지 인식하여, 비정상 동작에 대한 알림정보를 제공하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면4를 참조 및/또는 변형하여 상기 비정상 범위 동작의 객체를 인식하여 알림정보를 제공하는 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면4에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, FIG. 4 shows, after the process of FIG. 3, obtained through M cameras provided in a designated space in which one or more objects exist on the object information recognition system including the server 100 shown in FIG. It shows a process of reading image information and recognizing whether one or more objects operating in the space performs an abnormal range operation out of a certain ratio of the normal range operation and providing notification information on the abnormal operation For those of ordinary skill in the following, various implementation methods for the process of providing notification information by recognizing the object of the abnormal range motion by referring and/or modifying this figure 4 (e.g., some steps are omitted, or The modified implementation method) may be inferred, but the present invention includes all of the inferred implementation methods, and the technical features are not limited only by the implementation method shown in FIG. 4.
도면4에 도시된 실시 과정은, 상기 도면3의 과정을 통해 n'개의 객체 별 정상 범위 동작인식모델이 생성되어 저장된 이후, 서버(100)에서 상기 M개의 카메라(150)를 통해 M개의 영상정보를 획득하는 과정으로부터 개시될 수 있다(400).In the implementation process shown in FIG. 4, after the normal range motion recognition model for each n'object is created and stored through the process of FIG. 3, the M pieces of image information through the M cameras 150 in the server 100 It may be initiated from the process of obtaining (400).
상기 M개의 영상정보가 획득되면, 상기 서버(100)는 상기 n'개의 객체 별 정상 범위 동작인식모델을 근거로 상기 M개의 카메라(150)를 통해 획득되는 M개의 영상정보를 판독하여(405), 상기 공간 내에서 동작하는 n'개의 객체 중 정상 범위 동작을 일정 비율 이상 벗어난 동작을 인식한 객체를 포함하는 n"(1≤n"≤n)개의 객체를 인식한다(410). When the M pieces of image information are acquired, the server 100 reads the M pieces of image information acquired through the M cameras 150 based on the n'object-specific normal range motion recognition model (405). In operation 410, n"(1≤n"≤n) objects including objects recognizing a motion deviating from a normal range motion by more than a certain percentage among n'objects operating in the space are recognized (410).
여기서, 상기 n"개의 객체는 상기 공간 내에서 고정된 상태를 유지하는 (n-n')개의 객체 중 고정된 상태를 벗어난 동작을 인식한 객체를 더 포함할 수 있다.Here, the n" number of objects may further include an object that recognizes a motion out of the fixed state among (n-n') objects that maintain a fixed state in the space.
상기 정상 범위 동작을 일정 비율 이상 벗어난 동작을 인식한 객체를 포함하는 n"개의 객체를 인식한 경우, 상기 서버(100)는 상기 인식된 n"개의 객체에 대한 n"개의 객체식별정보를 포함하는 비정상 동작 알림정보를 지정된 단말(155)로 제공하는 절차를 수행한다(415).In the case of recognizing n" objects including an object that recognizes an operation deviating from the normal range operation by a certain ratio or more, the server 100 includes n" object identification information for the recognized n" objects. A procedure of providing abnormal operation notification information to the designated terminal 155 is performed (415).
100 : 서버
105 : 객체인식 학습부
110 : 객체인식모델 저장부
115 : 객체 인식부
120 : 객체인식정보 저장부
125 : 동작인식 학습부
130 : 동작인식모델 저장부
135 : 비정상객체 인식부
140 : 비정상동작 알림부
145 : 저장매체
150 : 카메라
155 : 단말100: server 105: object recognition learning unit
110: object recognition model storage unit 115: object recognition unit
120: object recognition information storage unit 125: motion recognition learning unit
130: motion recognition model storage unit 135: abnormal object recognition unit
140: abnormal operation notification unit 145: storage medium
150: camera 155: terminal
Claims (17)
지정된 카메라를 통해 획득되는 영상정보를 판독하여 지정된 인공지능모듈을 통해 상기 공간에 구비된 N(N≥1)개의 객체 인식을 학습시키는 제1 단계;
상기 인공지능모듈을 통해 학습된 N개의 객체를 인식하기 위한 N개의 객체인식모델을 생성하여 지정된 저장매체에 저장하는 제2 단계;
상기 객체인식모델을 근거로 상기 M개의 카메라를 통해 획득되는 M개의 영상정보를 판독하여 상기 공간에 존재하는 n(1≤n≤N)개의 객체를 인식하는 제3 단계;
상기 인식된 n개의 객체에 대응하는 n개의 객체인식정보를 지정된 관리DB에 저장하는 제4 단계;
지정된 카메라를 통해 획득되는 영상정보를 판독하여 지정된 인공지능모듈을 통해 상기 공간에 존재하는 n개의 객체 중 지정된 범위 내에서 동작하는 n'(1≤n'≤n)개의 객체에 대한 정상 범위 동작 인식을 학습시키는 제5 단계;
상기 인공지능모듈을 통해 학습된 n'개의 객체의 정상 범위 동작을 인식하기 위한 n'개의 객체 별 정상 범위 동작인식모델을 생성하여 지정된 저장매체에 저장하는 제6 단계;
상기 n'개의 객체 별 정상 범위 동작인식모델을 근거로 상기 M개의 카메라를 통해 획득되는 M개의 영상정보를 판독하여 상기 공간 내에서 동작하는 n'개의 객체 중 정상 범위 동작을 일정 비율 이상 벗어난 동작을 인식한 객체를 포함하는 n"(1≤n"≤n)개의 객체를 인식하는 제7 단계; 및
상기 n"개의 객체를 인식한 경우 상기 인식된 n"개의 객체에 대한 n"개의 객체식별정보를 포함하는 비정상 동작 알림정보를 지정된 단말로 제공하는 절차를 수행하는 제8 단계;를 포함하는 동작 인식 기반 객체 정보 인식 방법.
In the method executed through a system interlocking with M (M≥1) cameras provided in a designated space,
A first step of learning to recognize N (N≥1) objects provided in the space through a designated artificial intelligence module by reading image information acquired through a designated camera;
A second step of generating N object recognition models for recognizing N objects learned through the artificial intelligence module and storing them in a designated storage medium;
A third step of recognizing n (1≦n≦N) objects existing in the space by reading M pieces of image information acquired through the M cameras based on the object recognition model;
A fourth step of storing n object recognition information corresponding to the recognized n objects in a designated management DB;
Recognizes normal range motion for n'(1≤n'≤n) objects operating within a specified range among n objects existing in the space through a specified artificial intelligence module by reading image information acquired through a specified camera A fifth step of learning;
A sixth step of generating a normal range motion recognition model for each n'objects for recognizing normal range motions of n'objects learned through the artificial intelligence module and storing them in a designated storage medium;
By reading M image information acquired through the M cameras based on the n'object-specific normal range motion recognition model, an operation that deviates from the normal range motion by more than a certain ratio among n'objects operating in the space is performed. A seventh step of recognizing n"(1≤n"≤n) objects including the recognized objects; And
An eighth step of performing a procedure for providing abnormal motion notification information including n" object identification information on the recognized n" objects to a designated terminal when the n" objects are recognized; and motion recognition including: Based object information recognition method.
지정된 카메라를 통해 획득되는 영상정보를 판독하여 상기 공간에 존재하는 각 객체 별 관측된 특징에 대응하는 각 객체 별 i(i≥2)개의 입력 정보를 인식하고 각 객체 별 관측된 결과에 대응하는 각 객체 별 j(j≥1)개의 출력 정보를 설정하는 단계;
각 객체 별로 인식된 i개의 입력 정보 별 변수값과 j개의 출력 정보 별 변수값을 포함하는 각 객체 별 학습 정보를 지정된 인공지능모듈의 변수값으로 대입하여 상기 공간에 존재하는 각 객체 중 고유 식별하여 인식 가능한 N개의 객체 인식을 학습시키는 단계;를 포함하여 이루어지는 것을 특징으로 하는 동작 인식 기반 객체 정보 인식 방법.
The method of claim 1, wherein the first step,
By reading the image information acquired through the designated camera, i (i≥2) input information for each object corresponding to the observed characteristic of each object existing in the space is recognized, and each corresponding to the observed result for each object Setting j (j≥1) pieces of output information for each object;
By substituting the learning information for each object, including the variable values for each i input information recognized for each object and the variable values for j output information, as the variable value of the designated artificial intelligence module, uniquely identifies each object existing in the space Learning to recognize N recognizable objects; motion recognition based object information recognition method comprising:
상기 공간에 구비된 M개의 카메라,
상기 공간에 구비된 M개의 카메라 중 객체 인식의 인공지능 학습을 위한 m(1≤m≤M)개의 카메라,
상기 객체 인식의 인공지능 학습을 위해 지정된 별도의 카메라 중 적어도 하나 또는 둘 이상의 조합을 포함하여 이루어지는 것을 특징으로 하는 동작 인식 기반 객체 정보 인식 방법.
The method of claim 1 or 2, wherein the designated camera,
M cameras provided in the space,
M (1≤m≤M) cameras for artificial intelligence learning of object recognition among the M cameras provided in the space,
A method for recognizing object information based on motion recognition, comprising at least one or a combination of two or more of separate cameras designated for artificial intelligence learning of the object recognition.
상기 영상정보를 판독하여 인식되는 각 객체 별 패턴정보를 포함하여 이루어지는 것을 특징으로 하는 동작 인식 기반 객체 정보 인식 방법.
The method of claim 2, wherein the i pieces of input information,
A motion recognition-based object information recognition method comprising pattern information for each object recognized by reading the image information.
상기 영상정보를 판독하여 인식되는 각 객체 별 패턴(또는 패턴의 집합)에 대응하는 객체식별자를 포함하여 이루어지는 것을 특징으로 하는 동작 인식 기반 객체 정보 인식 방법.
The method of claim 2, wherein the j pieces of output information,
And an object identifier corresponding to a pattern (or a set of patterns) for each object recognized by reading the image information.
상기 객체인식모델에 대하여 지정된 단말을 통해 입력된 객체정보 또는 상기 객체인식모델을 근거로 지정된 데이터베이스로부터 추출된 객체정보를 상기 객체인식모델과 매핑하여 지정된 저장매체에 저장하는 단계를 포함하여 이루어지는 것을 특징으로 하는 동작 인식 기반 객체 정보 인식 방법.
The method of claim 1, wherein the second step,
And mapping object information input through a terminal designated for the object recognition model or object information extracted from a database designated based on the object recognition model with the object recognition model and storing it in a designated storage medium. Object information recognition method based on gesture recognition.
상기 공간에 구비된 N개의 객체를 인식하기 위한 패턴 인식 모델을 포함하여 이루어지는 것을 특징으로 하는 동작 인식 기반 객체 정보 인식 방법.
The method of claim 1, wherein the object recognition model,
A method of recognizing object information based on motion recognition, comprising a pattern recognition model for recognizing N objects provided in the space.
상기 공간에 존재하는 n개의 객체를 고유 식별하는 객체식별정보를 포함하여 이루어지는 것을 특징으로 하는 동작 인식 기반 객체 정보 인식 방법.
The method of claim 1, wherein the object recognition information,
And object identification information for uniquely identifying n objects existing in the space.
상기 객체에 지정된 인식코드를 부호화한 코드이미지가 부착된 경우,
상기 객체에 부착된 코드이미지를 판독하여 인식된 인식코드를 포함하거나 또는
상기 인식된 인식코드와 매핑된 식별코드를 포함하여 이루어지는 것을 특징으로 하는 동작 인식 기반 객체 정보 인식 방법.
The method of claim 8, wherein the object identification information,
When a code image encoding the identification code specified in the object is attached,
Includes a recognition code recognized by reading the code image attached to the object, or
A method for recognizing object information based on motion recognition, comprising: an identification code mapped with the recognized identification code.
지정된 카메라를 통해 획득되는 영상정보를 판독하여 상기 공간에 존재하는 n개의 객체 중 지정된 정상 범위 내에서 동작하는 n'개의 객체 별 동작의 관측된 특징에 대응하는 n'개의 객체 별 p(p≥2)개의 입력 정보를 인식하고 n'개의 객체 별 동작의 관측된 결과에 대응하는 n'개의 객체 별 q(q≥1)개의 출력 정보를 설정하는 단계;
n'개의 객체 별로 인식된 p개의 입력 정보 별 변수값과 q개의 출력 정보 별 변수값을 포함하는 n'개의 객체 별 학습 정보를 지정된 인공지능모듈의 변수값으로 대입하여 상기 공간에서 동작하는 n'개의 객체에 대한 정상 범위 동작 인식을 학습시키는 단계;를 포함하여 이루어지는 것을 특징으로 하는 동작 인식 기반 객체 정보 인식 방법.
The method of claim 1, wherein the fifth step,
By reading image information acquired through a designated camera, p (p≥2) for each n'object corresponding to the observed characteristic of the motion of each n'object operating within a specified normal range among n objects existing in the space Recognizing) pieces of input information and setting q (q≥1) pieces of output information for each n'objects corresponding to the observed results of the motions for each n'objects;
n'that operates in the space by substituting n'learning information for each object, which includes variable values for each of p input information recognized for each n'objects and variable values for each of q output information, as a variable value of a designated artificial intelligence module. The method of recognizing object information based on motion recognition, comprising: learning normal range motion recognition for two objects.
동작 거리 범위,
동작 방향 범위,
동작 거리 범위와 동작 방향 범위의 조합 중 적어도 하나의 범위를 포함하여 이루어지는 것을 특징으로 하는 동작 인식 기반 객체 정보 인식 방법.
The method of claim 1 or 10, wherein the specified range is
Operating distance range,
Range of motion direction,
A method of recognizing object information based on motion recognition, comprising at least one of a combination of a motion distance range and a motion direction range.
상기 공간에 구비된 M개의 카메라,
상기 공간에 구비된 M개의 카메라 중 정상 범위 동작 인식의 인공지능 학습을 위한 m(1≤m≤M)개의 카메라,
상기 정상 범위 동작 인식의 인공지능 학습을 위해 지정된 별도의 카메라 중 적어도 하나 또는 둘 이상의 조합을 포함하여 이루어지는 것을 특징으로 하는 동작 인식 기반 객체 정보 인식 방법.
The method of claim 1 or 10, wherein the designated camera,
M cameras provided in the space,
M (1≤m≤M) cameras for artificial intelligence learning of normal range motion recognition among the M cameras provided in the space,
A motion recognition-based object information recognition method comprising at least one or a combination of two or more of separate cameras designated for artificial intelligence learning of the normal range motion recognition.
상기 영상정보를 판독하여 인식되는 n'개의 객체 별 정상 범위 동작의 패턴정보를 포함하여 이루어지는 것을 특징으로 하는 동작 인식 기반 객체 정보 인식 방법.
The method of claim 10, wherein the p pieces of input information,
A motion recognition-based object information recognition method, comprising: pattern information of a normal range motion for each n'objects recognized by reading the image information.
상기 영상정보를 판독하여 인식되는 n'개의 객체 별 정상 범위 동작의 패턴(또는 패턴의 집합)에 대응하는 고유식별자를 포함하여 이루어지는 것을 특징으로 하는 동작 인식 기반 객체 정보 인식 방법.
The method of claim 10, wherein the q pieces of output information,
And a unique identifier corresponding to a pattern (or set of patterns) of a normal range motion for each n'objects recognized by reading the image information.
상기 객체의 일부가 지정된 범위 내에서 주기적/반복적으로 움직이는 동작을 포함하여 이루어지는 것을 특징으로 하는 동작 인식 기반 객체 정보 인식 방법.
The method of claim 10, wherein the normal range operation,
A method of recognizing object information based on motion recognition, comprising: a motion in which a part of the object moves periodically/repetitively within a specified range.
상기 공간 내에서 고정된 상태를 유지하는 (n-n')개의 객체 중 고정된 상태를 벗어난 동작을 인식한 객체를 더 포함하여 이루어지는 것을 특징으로 하는 동작 인식 기반 객체 정보 인식 방법.
The method of claim 1, wherein the n" objects,
And an object recognizing a motion out of the fixed state among (n-n') objects maintaining a fixed state in the space.
상기 카메라에 탑재되는 프로그램,
M개와 카메라와 지정된 인터페이스를 통해 연동하는 단말의 프로그램,
M개와 카메라와 통신망을 통해 연동하는 서버 중 적어도 하나 또는 둘 이상의 조합을 포함하여 이루어지는 것을 특징으로 하는 동작 인식 기반 객체 정보 인식 방법.
The method of claim 1, wherein the system,
A program mounted on the camera,
Terminal programs that interlock with M and cameras through a designated interface,
A method for recognizing object information based on motion recognition, comprising: a combination of at least one or a combination of two or more of M cameras and servers interworking through a communication network.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190068626A KR20200142145A (en) | 2019-06-11 | 2019-06-11 | Method for Recognizing Object Information Based on Action Recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190068626A KR20200142145A (en) | 2019-06-11 | 2019-06-11 | Method for Recognizing Object Information Based on Action Recognition |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20200142145A true KR20200142145A (en) | 2020-12-22 |
Family
ID=74086743
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190068626A KR20200142145A (en) | 2019-06-11 | 2019-06-11 | Method for Recognizing Object Information Based on Action Recognition |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20200142145A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230026933A (en) * | 2021-08-18 | 2023-02-27 | 주식회사 지인들 | Control method of server for extracting and providing image of facility during video call, and system |
-
2019
- 2019-06-11 KR KR1020190068626A patent/KR20200142145A/en not_active Application Discontinuation
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230026933A (en) * | 2021-08-18 | 2023-02-27 | 주식회사 지인들 | Control method of server for extracting and providing image of facility during video call, and system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111565390B (en) | Internet of things equipment risk control method and system based on equipment portrait | |
US10319128B2 (en) | Augmented reality presentation of an industrial environment | |
CN107644154B (en) | Two-factor authentication of user interface devices in a process plant | |
CN105359516B (en) | visual command processing | |
CN104977874B (en) | The enabled mobile device of industry | |
KR20200142147A (en) | Method for Recognizing Object Information Based on Thermal Imaging Recognition | |
US10401839B2 (en) | Workflow tracking and identification using an industrial monitoring system | |
US11181876B2 (en) | Identification of industrial equipment using micro-location services | |
EP3680813A1 (en) | Method and system for detecting objects installed within a building | |
US9325715B1 (en) | System and method for controlling access to personal user data | |
CN104299286A (en) | Attendance method and system for public security inspection tour | |
CN107038462B (en) | Equipment control operation method and system | |
CN112861826B (en) | Coal mine supervision method, system, equipment and storage medium based on video image | |
CN110727938B (en) | Configuration method and device of intelligent equipment, electronic equipment and storage medium | |
CN104468690B (en) | The device of the method and distributed systems that executed by the device in distributed system | |
CN115437507B (en) | AR (augmented reality) -glasses-based equipment maintenance guiding method and system and related equipment | |
CN109150877B (en) | Method and apparatus for safety control of controlled apparatus | |
KR20200142145A (en) | Method for Recognizing Object Information Based on Action Recognition | |
Mohammed et al. | Internet of Things-Building Information Modeling Integration: Attacks, Challenges, and Countermeasures | |
AU2021104400A4 (en) | An intelligent system for detecting behavioral cyber attack on industrial iot using ai federated learning algorithm | |
KR20210009462A (en) | Method for Recognizing Object Information Based on Thermal Imaging Recognition and Marker | |
KR20210009463A (en) | Method for Recognizing Object Information Based on Structure Transformation Recognition and Marker | |
US20100265039A1 (en) | Systems and Methods for Securing Control Systems | |
KR20200142146A (en) | Method for Recognizing Object Information Based on Location Movement Recognition | |
KR20210009460A (en) | Method for Recognizing Object Information Based on Action Recognition and Marker |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal |