KR102549631B1 - Method for real-time control of working device and camera by using pose of body part and tilt of device and apparatus thereof - Google Patents
Method for real-time control of working device and camera by using pose of body part and tilt of device and apparatus thereof Download PDFInfo
- Publication number
- KR102549631B1 KR102549631B1 KR1020220090638A KR20220090638A KR102549631B1 KR 102549631 B1 KR102549631 B1 KR 102549631B1 KR 1020220090638 A KR1020220090638 A KR 1020220090638A KR 20220090638 A KR20220090638 A KR 20220090638A KR 102549631 B1 KR102549631 B1 KR 102549631B1
- Authority
- KR
- South Korea
- Prior art keywords
- camera
- user
- work
- information
- server
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 230000033001 locomotion Effects 0.000 claims abstract description 37
- 230000008859 change Effects 0.000 claims abstract description 27
- 238000004422 calculation algorithm Methods 0.000 claims description 15
- 238000013507 mapping Methods 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims 1
- 238000004891 communication Methods 0.000 description 37
- 230000036544 posture Effects 0.000 description 37
- 230000006870 function Effects 0.000 description 12
- 238000001514 detection method Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 6
- 210000003811 finger Anatomy 0.000 description 6
- 238000011017 operating method Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Abstract
본 발명은 신체 일부의 자세 및 신체 일부를 촬영하는 카메라의 기울기를 이용하여 작업 장치 및 촬영 각도를 실시간으로 제어하기 위한 것으로, 제1 장치를 원격 제어하기 위한 제2 장치의 동작 방법은, 작업 현장에 위치한 제1 카메라를 이용하여 촬영된 제1 장치에 대한 동영상 데이터를 수신하는 단계, 상기 동영상 데이터에 기반하여 상기 제1 장치에 대한 실시간 동영상을 표시하는 단계, 사용자의 지정된 신체 일부의 움직임에 기반하여 상기 제1 장치를 제어하기 위한 적어도 하나의 장치 제어 명령어를 생성하는 단계, 제2 장치의 기울기 변화에 기반하여 상기 제1 카메라를 제어하기 위한 적어도 하나의 카메라 제어 명령어를 생성하는 단계, 및 상기 적어도 하나의 장치 제어 명령어 및 상기 적어도 하나의 카메라 제어 명령어를 상기 제1 장치 및 상기 제1 카메라를 제어하기 위해 송신하는 단계를 포함할 수 있다.The present invention is for controlling a work device and a photographing angle in real time using a posture of a body part and a tilt of a camera that captures the body part, and an operation method of a second device for remotely controlling a first device includes: Receiving video data of a first device captured using a first camera located at , displaying a real-time video of the first device based on the video data, based on a movement of a designated body part of a user generating at least one device control command for controlling the first device, generating at least one camera control command for controlling the first camera based on a tilt change of a second device, and the and transmitting at least one device control command and the at least one camera control command to control the first device and the first camera.
Description
본 발명은 작업 장치 및 작업 장치를 촬영하는 카메라의 제어에 관한 것으로, 보다 구체적으로 신체 일부의 자세 및 장치의 기울기를 이용하여 작업 장치 및카메라를 실시간으로 제어하기 위한 방법 및 그 장치에 관한 것이다.The present invention relates to control of a working device and a camera that captures the working device, and more particularly, to a method and apparatus for controlling a working device and a camera in real time using a posture of a body part and an inclination of the device.
산업 현장에서 필요로 하는 다양한 물리적인 작업을 사람의 노동력에 의해 수행하는 것이 과거의 전통적인 방식이었다. 하지만, 현장의 다양한 조건, 작업의 내용이나 특성에 따라 인력이 직접적으로 투입되기 어려운 환경이 존재할 수 있다. 이 경우, 로봇(robot)과 같은 기계 장치를 활용하면 보다 효과적인 작업 수행이 가능할 수 있다. 기계 장치를 사용하더라도, 인간이 장치에 인접한 상태에서 직접 제어해야 한다면, 그 효용성은 다소 낮을 것이다. 따라서, 그 거리의 정도의 차이는 있더라도, 기계 장치를 원격으로 제어하는 것이 보다 큰 활용성을 제공할 수 있다.It was a traditional method in the past to perform various physical tasks required in industrial sites by human labor. However, depending on the various conditions of the field and the contents or characteristics of the work, there may be an environment in which manpower is difficult to directly input. In this case, more effective work may be performed by using a mechanical device such as a robot. Even if a mechanical device is used, its effectiveness will be somewhat low if a human has to directly control it while being in close proximity to the device. Therefore, even if there is a difference in the degree of distance, remotely controlling the mechanical device can provide greater usability.
본 발명은 장치를 보다 효과적으로 제어하기 위한 방법 및 그 장치를 제공한다.The present invention provides a method and apparatus for more effectively controlling a device.
본 발명은 장치를 원격으로 편리하기 제어하기 위한 방법 및 그 장치를 제공한다.The present invention provides a method and apparatus for conveniently controlling a device remotely.
본 발명은 카메라를 이용하여 장치를 실시간으로 제어하기 위한 방법 및 그 장치를 제공한다.The present invention provides a method and apparatus for controlling a device in real time using a camera.
본 발명은 카메라를 이용하여 촬영되는 신체의 일부에 대한 인식 결과에 기반하여 장치를 제어하기 위한 방법 및 그 장치를 제공한다.The present invention provides a method and apparatus for controlling a device based on a recognition result of a body part photographed using a camera.
본 발명은 신체의 일부를 촬영하는 카메라의 자세(pose)에 기반하여 장치를 촬영하는 카메라의 자세를 제어하기 위한 방법 및 그 장치를 제공한다.The present invention provides a method and apparatus for controlling a posture of a camera for photographing a body part based on a posture of a camera for photographing a body part.
본 발명은 장치를 촬영하는 카메라의 움직임을 신체의 일부를 촬영하는 카메라에 동기화하기 위한 방법 및 그 장치를 제공한다.The present invention provides a method and apparatus for synchronizing movement of a camera photographing a device with a camera photographing a body part.
본 발명의 실시 예에 따르면, 제1 장치를 원격 제어하기 위한 제2 장치의 동작 방법은, 작업 현장에 위치한 제1 카메라를 이용하여 촬영된 제1 장치에 대한 동영상 데이터를 수신하는 단계, 상기 동영상 데이터에 기반하여 상기 제1 장치에 대한 실시간 동영상을 표시하는 단계, 사용자의 지정된 신체 일부의 움직임에 기반하여 상기 제1 장치를 제어하기 위한 적어도 하나의 장치 제어 명령어를 생성하는 단계, 제2 장치의 기울기 변화에 기반하여 상기 제1 카메라를 제어하기 위한 적어도 하나의 카메라 제어 명령어를 생성하는 단계, 및 상기 적어도 하나의 장치 제어 명령어 및 상기 적어도 하나의 카메라 제어 명령어를 상기 제1 장치 및 상기 제1 카메라를 제어하기 위해 송신하는 단계를 포함할 수 있다.According to an embodiment of the present invention, a method for operating a second device for remotely controlling a first device includes receiving video data of a first device captured using a first camera located at a work site, the video Displaying a real-time video of the first device based on data, generating at least one device control command for controlling the first device based on a movement of a user's designated body part, Generating at least one camera control command for controlling the first camera based on a tilt change, and transmitting the at least one device control command and the at least one camera control command to the first device and the first camera. It may include transmitting to control.
본 발명의 실시 예에 따르면, 상기 적어도 하나의 카메라 제어 명령어를 생성하는 단계는, 상기 기울기 변화를 상기 제1 카메라에서 지원되는 적어도 하나의 회전 축에서의 각도 변화량으로 환산하는 단계, 상기 각도 변화량을 지시하는 적어도 하나의 명령어를 생성하는 단계를 포함할 수 있다.According to an embodiment of the present invention, the generating of the at least one camera control command may include converting the tilt change into an angular change amount in at least one rotation axis supported by the first camera; It may include generating at least one instruction that instructs.
본 발명의 실시 예에 따르면, 서버로부터 상기 제1 장치 및 상기 제1 카메라에 대한 정보를 수신하는 단계, 및 상기 제1 장치를 포함하는 피제어 장치들의 리스트를 표시하는 단계를 포함하며, 상기 제1 카메라에 대한 정보는, 상기 제1 카메라에서 지원되는 회전 축의 개수 및 방향, 가동 범위에 대한 정보를 포함할 수 있다.According to an embodiment of the present invention, the method includes receiving information about the first device and the first camera from a server, and displaying a list of controlled devices including the first device. Information on one camera may include information on the number and direction of rotational axes supported by the first camera, and a movable range.
본 발명의 실시 예에 따르면, 상기 실시간 동영상에 더하여, 상기 사용자의 신체 일부의 자세를 표현하는 그래픽, 상기 제1 장치를 제어하기 위한 제1조이스틱, 상기 제1 카메라의 촬영 방향을 제어하기 위한 제2 조이스틱 중 적어도 하나를 표시하는 단계를 더 포함할 수 있다.According to an embodiment of the present invention, in addition to the real-time video, a graphic representing the posture of a part of the user's body, a first joystick for controlling the first device, and a first control for controlling the shooting direction of the first camera The method may further include displaying at least one of the two joysticks.
본 발명의 실시 예에 따르면, 매체에 저장된 어플리케이션 프로그램은 프로세서에 의해 동작되면 전술한 방법을 실행할 수 있다.According to an embodiment of the present invention, an application program stored in a medium may execute the above method when operated by a processor.
본 발명은 보다 효과적으로 원거리에 위치한 장치의 상태를 관찰하면서, 장치를 원격 제어할 수 있게 한다.The present invention makes it possible to more effectively remotely control a device while observing the state of the device located at a distance.
도 1은 본 발명의 실시 예에 따른 시스템을 도시한다.
도 2는 본 발명의 실시 예에 따른 제어 장치의 구조를 도시한다.
도 3은 본 발명의 실시 예에 따른 작업 장치의 구조를 도시한다.
도 4는 본 발명의 실시 예에 따른 촬영 장치의 구조를 도시한다.
도 5는 본 발명의 실시 예에 따른 서버의 구조를 도시한다.
도 6은 본 발명의 실시 예에 따른 원격 제어 서비스의 개념을 도시한다.
도 7은 본 발명의 실시 예에 따라 작업 장치 및 카메라를 제어하는 동작 절차를 도시한다.
도 8은 본 발명의 실시 예에 따라 작업 장치를 촬영하는 카메라의 구조의 예를 도시한다.
도 9는 본 발명의 실시 예에 따라 작업 장치를 촬영하는 카메라를 제어하기 위한 신호를 생성하는 동작 절차를 도시한다.
도 10은 본 발명의 실시 예에 따른 사용자 장치의 기울기에 따른 원격 카메라의 제어의 예를 도시한다.
도 11은 본 발명의 실시 예에 따라 작업 장치를 제어하기 위한 신호를 생성하는 동작 절차를 도시한다.
도 12는 본 발명의 실시 예에 따른 작업 장치의 구동 모델을 도시한다.
도 13은 본 발명의 실시 예에 따른 작업 장치의 실시간 제어를 위한 신호 교환 절차를 도시한다.
도 14는 본 발명의 실시 예에 따른 작업 장치를 제어하기 위한 인터페이스의 예를 도시한다.1 shows a system according to an embodiment of the present invention.
2 shows the structure of a control device according to an embodiment of the present invention.
3 shows the structure of a work device according to an embodiment of the present invention.
4 shows the structure of a photographing device according to an embodiment of the present invention.
5 shows the structure of a server according to an embodiment of the present invention.
6 illustrates a concept of a remote control service according to an embodiment of the present invention.
7 illustrates an operating procedure for controlling a work device and a camera according to an embodiment of the present invention.
8 illustrates an example of a structure of a camera for photographing a work device according to an embodiment of the present invention.
9 illustrates an operating procedure for generating a signal for controlling a camera that photographs a work device according to an embodiment of the present invention.
10 illustrates an example of controlling a remote camera according to an inclination of a user device according to an embodiment of the present invention.
11 illustrates an operating procedure for generating a signal for controlling a work device according to an embodiment of the present invention.
12 shows a driving model of a work device according to an embodiment of the present invention.
13 illustrates a signal exchange procedure for real-time control of a work device according to an embodiment of the present invention.
14 illustrates an example of an interface for controlling a work device according to an embodiment of the present invention.
이하 본 발명의 바람직한 실시 예를 첨부된 도면의 참조와 함께 상세히 설명한다. 그리고, 본 발명을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우, 그 상세한 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. And, in describing the present invention, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description will be omitted.
이하 본 발명은 원격으로 작업 장치(working device) 및 작업 장치를 촬영하는 카메라를 실시간 제어하기 위한 기술에 대해 설명한다. 구체적으로, 본 발명은 사용자 장치에 포함 또는 연동되는 카메라를 통해 촬영되는 사용자의 신체의 일부를 이용하여 작업 장치를 제어하기 위한 명령을 생성하고, 명령에 따라 제어되는 작업 장치의 움직임을 사용자에게 실시간으로 공유하기 위한 다양한 실시 예들에 대해 설명한다. 또한, 본 발명은 사용자 장치의 자세(pose)를 이용하여 작업 장치를 촬영하는 카메라를 제어하기 위한 다양한 실시 예들에 대해 설명한다. Hereinafter, a technology for remotely controlling a working device and a camera that photographs the working device in real time will be described. Specifically, the present invention generates a command for controlling a work device using a part of a user's body photographed by a camera included in or interlocked with a user device, and provides the user with real-time movement of the work device controlled according to the command. Various embodiments for sharing will be described. In addition, the present invention describes various embodiments for controlling a camera that takes pictures of a work device using a pose of the user device.
도 1은 본 발명의 실시 예에 따른 시스템을 도시한다.1 shows a system according to an embodiment of the present invention.
도 1을 참고하면, 시스템은 사용자 장치(110), 피제어(controlled) 장치 모듈(120), 서버(130)를 포함하며, 사용자 장치(110), 피제어 장치 모듈(120), 서버(130)는 통신망을 통해 상호 신호를 송신 및 수신할 수 있다. Referring to FIG. 1 , the system includes a
사용자 장치(110)는 사용자가 위치한 현장(site)에서 사용되는 장비로서, 작업 장치(working device)(120a) 및 촬영 장치(120b)를 제어하기 위한 명령들을 생성한다. 또한, 사용자 장치(110)는 작업 장치(120a)의 움직임이나 상태에 대한 영상을 수신하고, 사용자가 볼 수 있도록 출력한다. 이를 위해, 사용자 장치(110)는 서버(130)에 접속하고, 서버(130)로부터 접속 가능한 피제어 장치에 대한 정보를 획득할 수 있다. 사용자 장치(110)는 작업 장치(120a)에 대한 영상을 표시하기 위한 디스플레이를 구비한다. 예를 들어, 사용자 장치(110)는 스마트 폰, 타블렛 등의 모바일 장치일 수 있다. 다른 예로, 사용자 장치(110)는 사용자의 얼굴에 착용 가능한 VR(virtual reality) 장치일 수 있다. 경우에 따라, 사용자 장치(110)는 카메라를 포함할 수 있다. 이하 설명의 편의를 위해, 사용자 장치(110)에 포함된 카메라는 '사용자 카메라'라 지칭될 수 있다.The
피제어 장치 모듈(120)은 작업 장치(120a)가 위치한 현장에서 사용되는 장비로서, 사용자 장치(110)에서 생성되는 명령들에 의해 제어되는 작업 장치(120a), 작업 장치(120a)를 촬영하는 촬영 장치(120b)를 포함한다. 작업 장치(120a) 및 촬영 장치(120b)는 사용자 장치(110)로부터 수신되는 명령들에 따라 동작한다. 작업 장치(120a)는 로봇, 중장비, 기타 기계 등 물리적인 움직임을 일으킬 수 있는 장치이다. 촬영 장치(120b)는 작업 장치(120a)를 촬영한다. 일 실시 예들에 따라, 촬영 장치(120b)는 작업 장치(120a)의 일부에 부착될 수 있다. 여기서, 촬영 장치(120b)는 하나의 카메라 또는 복수의 카메라들을 포함할 수 있다. 사용자 장치(110)로부터의 명령어의 수신, 사용자 장치(110)로의 영상의 송신은 작업 장치(120a) 또는 촬영 장치(120b) 중 적어도 하나에 의해 수행되며, 또는 별도의 제3의 중계 장치에 의해 수행될 수 있다. 이하 설명의 편의를 위해, 촬영 장치(120b)에 포함되는 카메라는 '원격 카메라'라 지칭될 수 있다.The controlled
서버(130)는 제안 기술에 따른 서비스를 제공하기 위한 관리 기능을 제공한다. 서버(130)는 사용자 장치(110) 및 작업 장치(120a) 간 상호 연결을 지원하기 위한 기능들을 수행한다. 예를 들어, 서버(130)는 작업 장치(120a) 또는 피제어 장치 모듈(120)에 대한 등록을 처리하고, 작업 장치(120a)를 포함한 복수의 작업 장치들에 대한 정보를 관리한다. 또한, 서버(130)는 사용자 장치(110)의 요청에 따라 작업 장치(120a) 또는 피제어 장치 모듈(120)에 대한 정보를 제공할 수 있다.The
도 2는 본 발명의 실시 예에 따른 사용자 장치(110)의 구조를 도시한다.2 shows a structure of a
도 2를 참고하면, 사용자 장치(110)는 입출력부(210), 통신부(220), 센서부(230), 저장부(240), 제어부(250)를 포함한다.Referring to FIG. 2 , the
입출력부(210)는 화면을 표시하는 수단 및 외부로부터의 입력을 감지하는 수단을 포함한다. 여기서, 화면을 표시하는 수단은 액정화면 등의 디스플레이로 구현될 수 있다. 입력을 감지하는 수단은 터치패드, 하드웨어 버튼 등을 포함하는 의미이다. 입출력부(210)는 액정화면 및 터치패드가 결합된 터치스크린을 포함할 수 있다. 경우에 따라, 입출력부(210)는 물리적으로 분리된 2 이상의 하드웨어 모듈들의 집합으로 해석될 수 있다.The input/
통신부(220)는 외부 통신망에 접속하고, 데이터/신호/정보를 송신 및 수신하기 위한 기능을 수행한다. 예를 들어, 통신부(220)는 인터넷 망, 무선 통신망, 모바일 통신망 등에 접속하는 기능을 수행할 수 있다. 이를 위해, 통신부(220)는 신호의 변복조, 증폭, 필터링 등의 기능을 수행한다. 통신부(220)는 무선 랜 통신(예: 와이파이), 셀룰러 통신(예: LTE, 5G, 6G) 등의 통신 기술을 지원할 수 있다.The
센서부(230)는 외부의 물리적 현상을 검출한다. 센서부(230)는 가속도 센서, 자이로(gyro) 센서, 기울기 센서, 광(optical) 센서, 지자기 센서, 중력 센서(G-sensor), 온도 센서, 생체 센서, 위치 센서 중 적어도 하나를 포함할 수 있다. 여기서, 자이로 센서는 공간 내에 정의된 3개 축들 중 적어도 하나의 각속도를 측정할 수 있고, 가속도 센서는 3개 축들 중 적어도 하나에 작용하는 가속도를 측정할 수 있다. 센서부(230)은 움직임, 빛, 기울기, 방위 등을 감지하고, 감지 결과를 나타내는 전기적 신호를 생성할 수 있다.The
저장부(240)는 사용자 장치(110)의 동작을 위해 필요한 데이터, 프로그램, 마이크로 코드, 어플리케이션 등을 저장한다. 저장부(240)는 일시적 또는 비일시적 저장 매체로 구현될 수 있다. 또한, 저장부(240)는 장치에 고정되어 있거나, 또는 분리 가능한 형태로 구현될 수 있다.The
제어부(250)는 사용자 장치(110)의 전반적인 동작을 제어한다. 제어부(250)는 프로세서, 마이크로 프로세서 중 적어도 하나를 포함할 수 있다. 제어부(250)는 입출력부(210)를 통해 사용자에게 시각적으로 정보를 표현하거나, 사용자의 입력을 감지할 수 있다. 제어부(250)는 저장부(240)에 저장된 프로그램을 실행하고, 통신부(220)를 통해 외부 장치와 데이터를 송신 또는 수신할 수 있다. 또한, 제어부(250)는 카메라부를 제어하여 정지 영상 또는 동영상(video)을 획득하고, 오디오부(230)를 제어하여 오디오를 출력하거나 소리를 감지하고, 센서부(230)를 통해 센싱 데이터를 획득할 수 있다. 특히, 제어부(250)는 사용자 장치(110)가 후술하는 다양한 실시 예들에 따라 동작하도록 제어한다.The
도 2에 도시되지 아니하였으나, 사용자 장치(110)는 카메라부를 더 포함할 수 있다. 이 경우, 카메라부는 사진 촬영, 비디오 기록 등의 기능을 수행할 수 있다. 카메라부은 영상 센서, 렌즈 등을 포함할 수 있다. 영상 센서로서, CCD(charged coupled device), CMOS(complementary metal-oxide semiconductor) 중 적어도 하나가 사용될 수 있다. 예를 들어, 카메라부는 렌즈를 통해 입력되는 빛을 상기 영상 센서로 인식하고, 상기 영상 센서에서 인식된 영상을 디지털 데이터화한다.Although not shown in FIG. 2 , the
도 3은 본 발명의 실시 예에 따른 작업 장치(120a)의 구조를 도시한다.3 shows the structure of a
도 3을 참고하면, 작업 장치(120a)는 통신부(310), 저장부(320), 구동부(330), 구조부(340), 제어부(350)를 포함한다.Referring to FIG. 3 , the
통신부(310)는 외부 장치와 통신을 수행하기 위한 기능을 수행한다. 예를 들어, 통신부(310)는 무선/유선 통신을 지원할 수 있다. 저장부(320)는 작업 장치(120a)의 동작을 위해 필요한 데이터, 프로그램, 마이크로 코드, 어플리케이션 등을 저장한다. 저장부(320)는 일시적 또는 비일시적 저장 매체로 구현될 수 있다. 또한, 저장부(320)는 장치에 고정되어 있거나, 또는 분리 가능한 형태로 구현될 수 있다. The
구동부(330)는 작업 장치(120a)의 움직임을 위한 동력을 생성한다. 즉, 구동부(330)는 전기적 신호에 대응하는 운동력을 발생시킨다. 예를 들어, 구동부(330)는 회전 운동력을 제공하는 모터, 직선 운동을 위한 서보보터 및 가이드 등을 포함할 수 있다.The driving
구조부(340)는 작업 장치(120a)의 물리적 힘을 외부에 가하기 위한 외관을 형성하는 구조물들을 포함한다. 예를 들어, 구조부(340)는 관절, 골격, 하우징 등을 포함한다. 구조부(340)는 복수의 구성요소들을 포함하며, 구동부(330)에서 발생하는 운동력에 따라 작업 장치(120a)의 움직임을 형성한다.The
제어부(350)는 작업 장치(120a)의 전반적인 동작을 제어한다. 제어부(350)는 프로세서, 마이크로 프로세서 중 적어도 하나를 포함할 수 있다. 제어부(350)는 저장부(320)에 저장된 프로그램을 실행하고, 통신부(310)를 통해 외부 장치와 데이터를 송신 또는 수신할 수 있다. 또한, 제어부(350)는 구동부(330)를 동작시키기 위한 신호를 생성 및 공급할 수 있다. 특히, 제어부(350)는 작업 장치(120a)가 후술하는 다양한 실시 예들에 따라 동작하도록 제어한다.The
도 4는 본 발명의 실시 예에 따른 촬영 장치(120b)의 구조를 도시한다.4 illustrates a structure of a photographing
도 4를 참고하면, 촬영 장치(120b)는 통신부(410), 저장부(420), 카메라부(430), 제어부(440)를 포함한다.Referring to FIG. 4 , the photographing
통신부(410)는 외부 장치와 통신을 수행하기 위한 기능을 수행한다. 예를 들어, 통신부(410)는 무선/유선 통신을 지원할 수 있다. 저장부(420)는 촬영 장치(120b)의 동작을 위해 필요한 데이터, 프로그램, 마이크로 코드, 어플리케이션 등을 저장한다. 저장부(420)는 일시적 또는 비일시적 저장 매체로 구현될 수 있다. 또한, 저장부(420)는 장치에 고정되어 있거나, 또는 분리 가능한 형태로 구현될 수 있다. The
카메라부(430)는 사진 촬영, 비디오 기록 등의 기능을 수행할 수 있다. 카메라부(430)은 영상 센서, 렌즈 등을 포함할 수 있다. 영상 센서로서, CCD, CMOS 중 적어도 하나가 사용될 수 있다. 예를 들어, 카메라부(430)는 렌즈를 통해 입력되는 빛을 상기 영상 센서로 인식하고, 상기 영상 센서에서 인식된 영상을 디지털 데이터화한다.The
제어부(440)는 촬영 장치(120b)의 전반적인 동작을 제어한다. 제어부(440)는 프로세서, 마이크로 프로세서 중 적어도 하나를 포함할 수 있다. 제어부(440)는 저장부(420)에 저장된 프로그램을 실행하고, 통신부(410)를 통해 외부 장치와 데이터를 송신 또는 수신할 수 있다. 또한, 제어부(440)는 카메라부(430)를 제어하여 영상을 획득하고, 영상을 포함하는 스트리밍 데이터를 생성할 수 있다. 특히, 제어부(440)는 촬영 장치(120b)가 후술하는 다양한 실시 예들에 따라 동작하도록 제어한다.The
도 5는 본 발명의 실시 예에 따른 서버(130)의 구조를 도시한다.5 shows the structure of the
도 5를 참고하면, 서버(130)는 통신부(510), 저장부(520), 제어부(530)를 포함한다.Referring to FIG. 5 , the
통신부(510)는 외부 장치와 통신을 수행하기 위한 기능을 수행한다. 예를 들어, 통신부(510)는 유선 통신을 지원할 수 있다. 저장부(520)는 서버(130)의 동작을 위해 필요한 데이터, 프로그램, 마이크로 코드, 어플리케이션 등을 저장한다. 저장부(520)는 일시적 또는 비일시적 저장 매체로 구현될 수 있다. 또한, 저장부(520)는 장치에 고정되어 있거나, 또는 분리 가능한 형태로 구현될 수 있다. The
제어부(530)는 서버(130)의 전반적인 동작을 제어한다. 제어부(530)는 프로세서, 마이크로 프로세서 중 적어도 하나를 포함할 수 있다. 제어부(530)는 저장부(520)에 저장된 프로그램을 실행하고, 통신부(510)를 통해 외부 장치와 데이터를 송신 또는 수신할 수 있다. 특히, 제어부(530)는 서버(130)가 후술하는 다양한 실시 예들에 따라 동작하도록 제어한다.The
도 6은 본 발명의 실시 예에 따른 원격 제어 서비스의 개념을 도시한다. 6 illustrates a concept of a remote control service according to an embodiment of the present invention.
도 6을 참고하면, 원격 제어 서비스는 작업 현장(work site)(610)에서 진행되는 동작들 및 사용자 현장(620)에서 진행되는 동작들을 포함한다. 작업 현장(610)에서, 원격 카메라를 이용한 작업 장치의 촬영 동작(612)이 수행된다. 촬영 동작(612)에 의해 획득된 영상은 실시간 스트리밍을 통해 사용자 현장(620)으로 제공된다. 사용자 현장(620)에서, 스트리밍되는 동영상의 출력 동작(622)이 수행된다. 이에 따라, 사용자는 스트리밍 화면을 통해 상황을 인식한다. 동시에, 사용자의 손에 대한 영상을 기반으로 손의 자세 및 사용자 장치의 기울기에 대한 인식 동작(624)이 수행된다. 이어서, 인식 동작(624)을 통해 획득된 손 및/또는 팔에 대한 좌표 값들 및 장치의 기울기에 대한 정보를 작업 장치 및 원격 카메라를 제어하는 제어 신호로 변환하는 제어 신호 연산 동작(626)이 수행된다. 제어 신호는 다시 작업 현장(610)으로 송신되고, 제어 신호에 기반하여 작업 장치 및 원격 카메라에 대한 제어 동작(614)이 수행된다.Referring to FIG. 6 , the remote control service includes operations performed at a work site 610 and operations performed at a user site 620 . At the work site 610, a photographing
도 6과 같은 서비스에 따라, 사용자는 원격에서 실시간으로 작업 장치를 제어할 수 있다. 이때, 사용자는 자신의 신체 일부(예: 손)를 움직이고, 이에 반응하여 움직이는 작업 장치에 대한 실시간 스트리밍 영상을 볼 수 있다. 도 6은 신체 일부로서 손을 예시하였으나, 손 위 다른 신체 부위를 이용하여 작업 장치가 제어될 수 있다. 또한, 작업 장치를 촬영하는 원격 카메라는 사용자 카메라의 자세에 따라 제어될 수 있다. 이와 같이, 사용자의 신체 일부의 움직임 및 사용자 장치의 움직임에 응하여 작업 장치 및 원격 카메라가 제어된다면, 사용자는 마치 작업 장치가 자신의 신체의 일부인 것과 같은 사용자 경험(user experience, UX)를 얻을 수 있을 것이다. 즉, 본 발명의 다양한 실시 예들에 따른 서비스는 사용자에게 매우 직관적인 작업 장치 및 카메라 제어 방법을 제공한다.According to the service shown in FIG. 6 , the user can remotely control the work device in real time. In this case, the user may move a part of his/her body (eg, a hand) and view a real-time streaming image of the working device moving in response thereto. 6 illustrates the hand as a body part, the work device may be controlled using other body parts on the hand. In addition, a remote camera taking pictures of the work device may be controlled according to the posture of the user's camera. In this way, if the work device and the remote camera are controlled in response to the movement of a part of the user's body and the movement of the user device, the user can obtain a user experience (UX) as if the work device is a part of the user's body. will be. That is, the service according to various embodiments of the present disclosure provides a very intuitive work device and camera control method to the user.
도 7은 본 발명의 실시 예에 따라 작업 장치 및 카메라를 제어하는 동작 절차를 도시한다. 도 7은 사용자 장치(110)에 의해 수행되는 동작들을 보여준다.7 illustrates an operating procedure for controlling a work device and a camera according to an embodiment of the present invention. 7 shows operations performed by
도 7을 참고하면, 701 단계에서, 사용자 장치(110)는 작업 장치(120a)에 대한 실시간 동영상을 표시한다. 실시간 동영상은 작업 장치(120a)의 인근에 배치된 촬영 장치(120b)에 의해 생성된다. 사용자 장치(110)는 작업 장치(120a)를 촬영하는 원격 카메라에 의해 생성된 동영상 데이터를 수신하고, 동영상 데이터를 디코딩함으로써 동영상 정보를 복원한 후, 구비된 디스플레이를 이용하여 실시간 동영상을 출력한다. 이때, 다양한 실시 예들에 따라, 작업 장치(120a)에 대한 실시간 동영상에 더하여, 작업 장치(120a) 및 촬영 장치(120b) 중 적어도 하나의 제어를 위해 필요한 부가적인 정보 또는 인터페이스가 함께 표시될 수 있다.Referring to FIG. 7 , in
702 단계에서, 사용자 장치(110)는 사용자의 신체 일부의 움직임에 기반하여 작업 장치(120a)를 원격 제어한다. 구체적으로, 사용자 카메라는 사용자의 신체의 적어도 일부의 움직임을 인식하고, 작업 장치(120a)를 제어하기 위한 적어도 하나의 명령어를 생성한다. 그리고, 사용자 장치는 적어도 하나의 명령어를 작업 장치(120a)에게 송신함으로써, 작업 장치(120a)를 원격 제어할 수 있다. 이에 따라, 도 7에 도시되지 아니하였으나, 사용자 장치는 적어도 하나의 명령어에 따라 제어되는 작업 장치(120a)의 모습을 다시 실시간 동영상으로 표시할 수 있다. In
703 단계에서, 사용자 장치(110)는 사용자 장치(110)의 기울기에 기반하여 작업 장치(120a)를 촬영하는 원격 카메라를 원격 제어한다. 구체적으로, 사용자 장치(110)는, 사용자 장치(110)의 기울기에 따라, 원격 카메라의 촬영 각도를 제어하기 위한 적어도 하나의 명령어를 생성하고, 생성된 적어도 하나의 명령어를 촬영 장치(120b)에게 송신할 수 있다. 이로 인해, 사용자 장치(110)의 기울기가 변화함에 따라, 원격 카메라의 촬영 각도가 변화하고, 스트리밍을 통해 보여지는 화면이 달라질 수 있다.In
도 7을 참고하여 설명한 실시 예에서, 신체 일부의 움직임이 인식된다. 신체 일부의 움직임은 다양한 기술에 의해 인식될 수 있다. 일 실시 예에 따라, 신체 일부의 움직임은 신체 일부를 촬영한 영상을 이용하여 인식될 수 있다. 이 경우, 작업 장치(120a)를 제어하기 위한 적어도 하나의 명령어는 촬영된 영상에서 검출되는 피사체(예: 손)에 자세(pose), 피사체 및 촬영을 위한 카메라 렌즈 간 거리, 피사체가 보여지는 각도, 피사체의 위치(예: 3차원 좌표) 중 적어도 하나에 기반하여 생성될 수 있다. 다른 실시 예에 따라, 신체 일부의 움직임은 신체 일부에 착용된 웨어러블 장치를 이용하여 인식될 수 있다. 예를 들어, 센서, 프로세서, 통신기를 구비한 장갑 형태의 컨트롤러가 손의 자세 및 움직임을 인식하기 위해 이용될 수 있다.In the embodiment described with reference to FIG. 7 , movement of a body part is recognized. Movement of a body part can be recognized by various technologies. According to an embodiment, movement of a body part may be recognized using an image obtained by capturing the body part. In this case, at least one command for controlling the
도 8은 본 발명의 실시 예에 따라 작업 장치를 촬영하는 카메라의 구조의 예를 도시한다. 도 8은 촬영 장치(120b)에 포함되는 원격 카메라의 구조를 예시한다. 도 8에 예시된 원격 카메라의 외형은 일 예에 불과하며, 도 8에 예시된 외형에 본 발명이 제한되는 것은 아니다.8 illustrates an example of a structure of a camera for photographing a work device according to an embodiment of the present invention. 8 illustrates a structure of a remote camera included in the photographing
도 8을 참고하면, 원격 카메라는 렌즈부(802), 앙각(elevation) 구동부(812), 방위각(azimuth) 구동부(814), 베이스(816)를 포함한다. Referring to FIG. 8 , the remote camera includes a
렌즈부(802)는 빛을 수용하여 이미지 신호를 생성한다. 예를 들어, 렌즈부(802)는 빛을 수집하는 적어도 하나의 렌즈, 빛에 대응하는 신호를 생성하는 적어도 하나의 센서를 포함할 수 있다. 또한, 렌즈부(802)는 화각 제어 등을 위한 물리적 구동 수단을 더 포함할 수 있다.The
앙각 구동부(812)는 렌즈부(802)가 향하는 방향을 수직 방향으로 변화시킨다. 앙각 구동부(812)는 방위각 구동부(814)에 고정되어 있으며, X 축에 평행한 축 A-A를 중심으로 회전 운동할 수 있다. 이에 따라, 앙각 구동부(812)는 렌즈부(802)가 향하는 방향, 즉, 원격 카메라의 촬영 방향의 앙각을 조절할 수 있다.The
방위각 구동부(814)는 렌즈부(802)가 향하는 방향을 수평 방향으로 변화시킨다. 방위각 구동부(814)는 베이스(816)에 고정되어 있으며, Z 축에 평행한 축 B-B를 중심으로 회전 운동할 수 있다. 이에 따라, 앙각 구동부(812)는 렌즈부(802)가 향하는 방향, 즉, 원격 카메라의 촬영 방향의 방위각을 조절할 수 있다.The
베이스(816)는 다른 구성요소들을 지지하는 구성요소이다. 베이스(816)는 원격 카메라를 지정된 장소에 설치 및 고정하기 위한 연결 부재로 기능할 수 있다. 예를 들어, 베이스(816)는 작업 장치(120a)의 특정 구성요소 상에 설치될 수 있고, 또는 작업 장치(120a)을 촬영하기에 적합한, 작업 장치(120a)와 이격된 위치에 고정될 수 있다.
도 8의 예와 같이, 원격 카메라의 촬영 방향은 앙각 및 방위각의 조합으로 특정될 수 있다. 즉, 일 실시 예에 따른 원격 카메라의 촬영 방향은 2개 축들의 회전에 의해 결정될 수 있다. 이 경우, 원격 카메라의 촬영 방향은 앙각 및 방위각을 제어함으로써 조절될 수 있다. 다른 실시 예에 따라, 원격 카메라는 다른 구조를 가질 수 있으며, 구조에 따라 원격 카메라의 촬영 방향은 3개 이상의 축들의 회전에 의해 결정될 수 있다. 즉, 다양한 실시 예들에 따라, 원격 카메라의 촬영 방향은 적어도 하나의 축의 회전에 의해 결정될 수 있다. 원격 카메라의 촬영 방향을 결정하는 적어도 하나의 축에서의 각도는 사용자 장치(110)에 의해 생성되는 명령어들에 의해 제어될 수 있으며, 그 절차의 일 예는 이하 도 9와 같다.As in the example of FIG. 8 , the photographing direction of the remote camera may be specified as a combination of an elevation angle and an azimuth angle. That is, the photographing direction of the remote camera according to an embodiment may be determined by rotation of two axes. In this case, the photographing direction of the remote camera can be adjusted by controlling elevation and azimuth. According to another embodiment, the remote camera may have a different structure, and depending on the structure, the shooting direction of the remote camera may be determined by rotation of three or more axes. That is, according to various embodiments, a photographing direction of the remote camera may be determined by rotation of at least one axis. The angle of at least one axis that determines the photographing direction of the remote camera may be controlled by commands generated by the
도 9는 본 발명의 실시 예에 따라 작업 장비를 촬영하는 카메라를 제어하기 위한 신호를 생성하는 동작 절차를 도시한다. 도 9는 사용자 장치(110)에 의해 수행되는 동작들을 보여준다.9 illustrates an operating procedure for generating a signal for controlling a camera taking pictures of work equipment according to an embodiment of the present invention. 9 shows operations performed by
도 9를 참고하면, 901 단계에서. 사용자 장치(110)는 사용자 장치(110)의 기울기를 측정한다. 일 실시 예에 따라, 기울기는, 자이로 센서, 가속도 센서, 기울기 센서 중 적어도 하나를 이용하여 측정될 수 있다. 일 실시 예에 따라, 사용자 장치(110)가 카메라를 포함하는 경우, 사용자 장치(110)의 기울기는 사용자 카메라의 기울기로 이해될 수 있다.Referring to Figure 9, in
902 단계에서, 사용자 장치(110)는 기울기에 기반하여 원격 카메라에 대한 제어 명령을 생성한다. 제어되는 원격 카메라는 작업 장치(120a)를 촬영하고 있다. 사용자 장치(110)는 901 단계에서 측정된 기울기가 어느 축에서의 얼마 만큼의 각도 변화를 포함하고 있는지 확인하고, 확인된 축 및 각도 변화에 기반하여 원격 카메라의 적어도 하나의 축에서의 각도 변화량을 결정한다. 다시 말해, 사용자 장치(110)는 기울기를 원격 카메라에서 지원되는 적어도 하나의 회전 축(예: X축, Z축)에서의 각도 변화량으로 환산할 수 있다. 그리고, 사용자 장치(110)는 결정된 각도 변화량을 지시하는 적어도 하나의 명령어를 생성한다. 여기서, 적어도 하나의 명령어는 동기화된 기준 방향 대비 적어도 하나의 각도 값을 지시하거나, 또는 직전에 송신된 각도 대비 각도 변화량을 지시할 수 있다. 이때, 다양한 실시 예들에 따라, 제어 명령의 생성은 일정한 시간 간격으로 생성되거나, 또는 사용자 장치(110)의 기울기 변화가 발생하고 변화가 일정 임계 시간 이상 중단된 경우에 생성될 수 있다.In
903 단계에서, 사용자 장치(110)는 촬영 장치(120b)에게 제어 명령을 송신한다. 촬영 장치(120b) 및 작업 장치(120a)가 하나의 장치로 구현된 경우, 제어 명령은 작업 장치(120a)에게 송신되는 것으로도 이해될 수 있다. 사용자 장치(110)는 설정된 통신 프로토콜에 따라 제어 명령을 포함하는 제어 신호를 생성하고, 생성된 제어 신호를 통신망을 통해 송신할 수 있다.In
도 10은 본 발명의 실시 예에 따른 사용자 장치의 기울기에 따른 원격 카메라의 제어의 예를 도시한다. 도 10은 사용자 장치가 VR 장치인 경우를 예시하나, 사용자 장치가 다른 종류의 장치(예: 스마트폰)인 경우에도 유사하게 원격 카메라가 제어될 수 있다.10 illustrates an example of controlling a remote camera according to an inclination of a user device according to an embodiment of the present invention. 10 illustrates a case where the user device is a VR device, a remote camera can be similarly controlled even when the user device is a device of another type (eg, a smartphone).
도 10을 참고하면, 사용자 장치(120a)의 기울기는 4개의 회전 방향들(1001 내지 1004) 중 어느 하나 또는 둘 이상의 조합에 대한 회전으로 해석될 수 있다. 일 실시 예에 따라, 사용자 장치(120a)가 기울어지면, 기울어짐은 4개의 회전 방향들(1001 내지 1004)의 회전각 조합으로 표현될 수 있다. 예를 들어, 사용자가 사용자 자치(120a)를 착용한 상태에서 고개를 좌측으로 15°돌리면, 이러한 움직임은 제2 방향(1002)으로의 15°회전이므로, {0,15°,0,0}으로 표현될 있다. 다른 예로, 사용자가 사용자 장치(120a)를 착용한 상태에서 고개를 좌측으로 10°, 아래로 10°에 해당하는 좌하단 사선 방향으로 돌리면, 이러한 움직임은 제2 방향(1002)으로의 10°회전, 제3 방향(1003)으로의 10°의 회전이므로, {0,10°,10°,0}으로 표현될 있다. 이에 대응하여, 원격 카메라의 앙각 구동부(812), 방위각 구동부(814) 중 적어도 하나가 회전할 수 있다. 일 실시 예에 따라, 제1 방향(1001) 또는 제3 방향(1003)에서의 회전이 인식되면, 앙각 구동부(812)가 축 A-A를 중심으로 회전할 것이다. 예를 들어, 제1 방향(1001)에서 10°회전이 검출되면, 앙각 구동부(812)가 축 A-A를 중심으로 +10°회전할 수 있다. 일 실시 예에 따라, 제2 방향(1002) 또는 제4 방향(1004)에서의 회전이 인식되면, 방위각 구동부(814)가 축 B-B를 중심으로 회전할 것이다. 예를 들어, 제4 방향(1004)에서 10°회전이 검출되면, 방위각 구동부(814)가 축 B-B를 중심으로 -10°회전할 수 있다. Referring to FIG. 10 , the inclination of the
전술한 실시 예와 같이, 사용자 장치(110)의 기울기가 원격 카메라의 적어도 하나의 축에서의 회전 각도로 변환될 수 있다. 이때, 사용자 장치(110)에서 기울기를 인식하는 축들 및 원격 카메라에서 지원하는 회전 축들이 동일하면, 원격 카메라에 적용되는 회전 각도는 인식된 기울기의 각도로부터 직접적으로 얻어질 수 있다. 하지만, 사용자 장치(110)에서 기울기를 인식하는 축들 및 원격 카메라에서 지원하는 회전 축들이 서로 다르면, 회전 축의 차이를 고려하여 회전 각도를 변환하는 알고리즘이 필요할 수 있다. 이에, 사용자 장치(110)는 복수의 변환 알고리즘들을 보유하고, 원격 카메라에서 지원되는 회전 축들의 구조에 따라 적합한 하나의 변환 알고리즘을 선택 및 적용할 수 있다. 이때, 카메라에서 지원되는 회전 축들의 구조에 대한 정보는, 작업 장치를 검색하는 과정에서 서버(130)로부터 제공될 수 있다.As in the above-described embodiment, an inclination of the
도 9를 참고하여 설명한 바와 같이, 사용자 장치(110)의 기울기에 따라 원격 카메라의 촬영 방향이 제어될 수 있다. 예를 들어, 사용자 카메라가 사용자 장치(110)의 구성요소인 경우, 사용자 장치(110)의 기울임은 사용자 카메라의 기울임을 의미한다. 이 경우, 사용자 장치(110)의 기울기 변화에 의해 사용자 카메라에 의해 촬영되는 영상의 촬영 방향도 변화할 것이다. 따라서, 다른 실시 예에 따라, 기울기는, 센서가 아니라, 사용자 카메라에 의해 촬영되는 영상에 기반하여 측정될 수 있다. 이 경우, 901 단계에서, 사용자 장치(110)는 사용자 카메라에 의해 촬영되는 영상을 분석함으로써 사용자 카메라의 촬영 방향 변화를 인지하고, 이에 기반하여 사용자 장치(110)의 기울기를 측정할 수 있다.As described with reference to FIG. 9 , a photographing direction of a remote camera may be controlled according to an inclination of the
또한, 사용자 카메라가 사용자 장치(110)의 구성요소인 경우, 사용자 장치(110)의 기울임은 사용자 카메라의 기울임을 의미한다. 이에 따라, 결과적으로, 사용자 카메라의 기울기 변화가, 원격 카메라의 촬영 방향의 변화를 야기한다. 이때, 사용자 카메라의 기울기 변화로부터 환산된 특정 축의 각도 변화량이 원격 카메라의 특정 축의 각도 변화량으로 1:1 비율로 변환되면, 사용자 카메라의 촬영 각도 변화 및 원격 카메라의 촬영 각도 변화가 동기화된 상태로 이해될 수 있다. 이 경우, 사용자는 사용자 장치(110)를 기울임으로써 원격 카메라를 직접 제어하고 있는 듯한 사용자 경험을 겪게 될 것이며, 이는 마치 사용자 현장의 카메라로 작업 장치를 직접 촬영하고 있는 현장감을 느끼게 할 것이다.Also, when the user camera is a component of the
일 실시 예에 따라, 사용자 카메라가 사용자 장치(110)의 구성요소가 아닐 수 있다. 이 경우, 901 단계에서 사용자 장치(110)의 기울기를 측정하는 동작은, 사용자 카메라를 포함하는 다른 장치의 기울기를 측정하는 동작으로 대체될 수 있다. 다만, 다른 실시 예에 따라, 사용자 카메라가 사용자 장치(110)의 구성요소가 아니더라도, 여전히 사용자 장치(110)의 기울기에 기반하여 제2 카메라의 촬영 방향이 제어될 수 있다.According to an embodiment, a user camera may not be a component of the
도 11은 본 발명의 실시 예에 따라 작업 장치를 제어하기 위한 신호를 생성하는 동작 절차를 도시한다. 도 11은 사용자 장치(110)에 의해 수행되는 동작들을 보여준다. 도 11은 손을 이용하여 제어 메시지를 생성하는 경우를 예시하나, 본 발명은 다른 신체 일부(예: 팔, 다리, 발, 머리, 얼굴 등)를 이용하는 경우에도 확장될 수 있다.11 illustrates an operating procedure for generating a signal for controlling a work device according to an embodiment of the present invention. 11 shows operations performed by
도 11을 참고하면, 1101 단계에서, 사용자 장치(110)는 손의 자세를 인식한다. 여기서, 손의 자세는 손에 포함되는 관절들의 위치, 손의 각 부위의 위치 및 각도, 관절에 연결된 두 부위들이 이루는 각도 등을 포함하는 의미이다. 다양한 실시 예들에 따라, 사용자 장치(110)는 적어도 하나의 센서를 이용하여 획득되는 센싱 데이터에 기반하여, 또는 손을 촬영한 영상에 기반하여 손의 자세를 결정할 수 있다.Referring to FIG. 11 , in
1102 단계에서, 사용자 장치(110)는 손의 자세에 기반하여 작업 장치(120a)에 대한 제어 명령을 생성한다. 제어되는 작업 장치(120a)는 사람의 손 또는 팔을 모방한 형상을 가지며, 작업 장치(120a)의 관절들 각각은 손의 적어도 하나의 관절에 대응하며, 대응되는 손의 관절의 각도가 작업 장치(120a)의 관절의 각도로 환산된다. 다양한 실시 예들에 따라, 사용자 장치(110)는 일정 시간 간격에 따라 주기적으로 또는 설정된 조건에 따른 타이밍에 인식된 손의 자세들을 이용하여 작업 장치(120a)를 제어하기 위한 명령어를 생성할 수 있다. 여기서, 명령어는 현재 검출된 관절의 각도들의 절대값들을 지시하거나, 또는 직전에 송신된 각도들 대비 변화값들을 지시할 수 있다.In
1103 단계에서, 사용자 장치(110)는 작업 장치(120a)에게 제어 명령을 송신한다. 사용자 장치(110)는 작업 장치(120a)에게 제어 명령을 송신한다. 사용자 장치(110)는 설정된 통신 프로토콜에 따라 제어 명령을 포함하는 제어 신호를 생성하고, 생성된 제어 신호를 통신망을 통해 송신할 수 있다.In
도 11을 참고하여 설명한 실시 예에서, 손의 자세에 기반하여 작업 장치의 동작을 제어하기 위한 명령이 생성된다. 이를 위해, 손의 자세에 대한 인식이 요구된다. 다양한 실시 예들에 따라, 손의 자세는 적어도 하나의 센서를 구비한, 손에 착용하는 컨트롤러를 이용하여 인식되거나 또는 손을 촬영한 영상을 이용하여 인식될 수 있다.In the embodiment described with reference to FIG. 11 , a command for controlling the operation of the work device is generated based on the posture of the hand. To this end, awareness of the hand posture is required. According to various embodiments, the posture of the hand may be recognized using a hand-worn controller equipped with at least one sensor or may be recognized using an image of the hand.
일 실시 예에 따라, 사용자는 손의 자세를 추적(tracking)하는 능력을 가진 글로브 형태의 웨어러블 장비를 착용한 상태에서, 작업 장치(120a)를 제어하기 위해 손을 움직일 수 있다. 사용자 장치(110)는 웨어러블 장비와 통신 링크를 수립하고, 통신 링크를 통해 수신되는 웨어러블 장비에 의해 측정된 센싱 데이터에 기반하여 사용자의 손의 자세를 인식할 수 있다.According to an embodiment, the user may move his or her hand to control the
다른 실시 예에 따라, 사용자는 사용자 장치(110)에 구비된 카메라를 이용하여 손을 촬영하는 상태에서, 작업 장치(120a)를 제어하기 위해 손을 움직일 수 있다. 이에 따라, 사용자 장치(110)는 사용자의 손에 대한 영상들을 획득한다. 카메라는 사용자의 손을 촬영하고 있으며, 영상들은 손의 형태를 확인할 수 있도록 생성된다. 사용자 장치(110)는 영상 분석 알고리즘 또는 인공지능 알고리즘을 이용하여 손의 자세를 인지할 수 있다. 나아가, 영상들은 동영상을 구성하므로, 사용자 장치(110)는 각 영상에서의 손의 자세는 물론, 손의 자세의 변화도 결정할 수 있다. 예를 들어, 사용자 장치(110)는 연속하는 영상들에서 일정 시간 간격에 따라 주기적으로 추출된 영상들 또는 설정된 조건에 따라 선택된 영상들에 기반하여 결정된 손의 자세들을 이용하여 작업 장치(120a)를 제어하기 위한 명령어를 생성할 수 있다. 이 경우, 작업 장치에 대한 제어 명령은 손에 대한 영상에 기반하여 결정되므로, 손의 자세를 추적하는 별도의 하드웨어(예: 웨어러블 장치) 없이도, 사용자의 신체에 기반한 제어 명령을 생성하는 것이 가능하다. According to another embodiment, the user may move his hand to control the
카메라를 이용하여 촬영된 영상을 이용하는 경우, 2차원 영상에서 손의 자세를 인식한 결과를 통해 얻어지는 정보는 2차원 좌표의 형식으로 얻어진다. 따라서, 사용자 장치(110)는, 작업 장치를 촬영하기 위해 사용되는 카메라의 화각을 고려하여, 2차원 좌표로부터 3차원 좌표를 계산한다. 통상, 하나의 센서를 이용하여 2차원 깊이를 센싱하기 위해서 ToF(time of flight) 센서를 필요로 한다. 그러나, 본 발명의 제안 기술은 ToF 센서 없이도 범용적 카메라 센서만을 이용한 3차원 좌표 인식을 가능하게 한다.In the case of using an image captured using a camera, the information obtained through the result of recognizing the posture of the hand in the 2D image is obtained in the form of 2D coordinates. Accordingly, the
전술한 바와 같이, 손의 자세를 인식하기 위해 센싱 데이터 또는 영상이 이용될 수 있다. 이때, 센싱 데이터 및 영상은 지속적으로 발생되나, 센싱 데이터 또는 영상의 프레임들 중 전체 또는 일부가 제어 명령을 생성하기 위해 이용될 수 있다. 이하, 센싱 데이터 및 영상의 프레임들은 '샘플'로 지칭된다.As described above, sensing data or images may be used to recognize the posture of the hand. In this case, sensing data and images are continuously generated, but all or some of the frames of the sensing data or images may be used to generate a control command. Hereinafter, frames of sensing data and images are referred to as 'samples'.
일 실시 예에 따라, 샘플들은 일정 시간 간격에 따라 주기적으로 추출될 수 있다. 이 경우, 사용자 장치(110)는 일정 시간 경과 시 마다 샘플을 추출하고, 추출된 샘플에 기반하여 손의 자세를 검출한다. 이때, 샘플 추출을 위한 시간 간격은 실험에 의해 적절한 값으로 설정될 수 있다. 또는, 작업 장치의 종류, 작업 장치의 사용 목적, 통신 네트워크의 지연(delay) 등 다양한 환경 요인에 기반하여, 시간 간격이 적응적으로 조절될 수도 있다.According to an embodiment, samples may be periodically extracted according to a predetermined time interval. In this case, the
다른 실시 예에 따라, 일부 샘플들은 지정된 이벤트의 검출에 따라 추출될 수 있다. 예를 들어, 이벤트는 손의 움직임 정도에 기반하여 정의될 수 있는데, 구체적으로, 이벤트는 손의 움직임이 일정 시간 이상 정지하거나, 움직임의 양이 임계치 이하인 것으로 정의될 수 있다. 즉, 사용자는 작업 장치의 특정 자세를 의도하며 손을 움직일 것이므로, 사용자 장치(110)는 최종적인 손의 자세만을 명령화하여 전달할 수 있다. 이를 위해, 사용자 장치(110)는 손의 움직임이 잠시 멈추거나 느려지는 상황을 인식하고, 해당 상황에서 새로운 명령을 생성할 수 있다.According to another embodiment, some samples may be extracted according to detection of a designated event. For example, an event may be defined based on a degree of hand movement. Specifically, the event may be defined as a movement of the hand stopping for a certain period of time or more or an amount of movement less than a threshold value. That is, since the user intends to move the hand in a specific posture of the work device, the
전술한 절차에서, 손의 자세는 인공지능 알고리즘을 이용하여 결정될 수 있다. 인공지능 알고리즘은 CNN(convolutional neural network) 기반의 영상 처리 인공지능 모델일 수 있고, 사전에 훈련된 상태에서 손의 자세를 결정하기 위해 사용될 수 있다. 보다 구체적으로, 인공지능 모델은 단일 샷 검출기를 이용하는 2-스텝 신경망 파이프라인(two step neural network pipeline with single-shot detector)을 포함할 수 있고, 영상에서 크롭된 영역에서 동작하는 회귀 모델(regression model running on the cropped region)을 이용할 수 있다. 이 외, 다양한 알고리즘들이 본 발명에서 손의 자세를 검출하기 위해 사용될 수 있다.In the procedure described above, the posture of the hand may be determined using an artificial intelligence algorithm. The artificial intelligence algorithm may be a convolutional neural network (CNN)-based image processing artificial intelligence model, and may be used to determine a hand posture in a pre-trained state. More specifically, the artificial intelligence model may include a two-step neural network pipeline with single-shot detector using a single-shot detector, and a regression model operating in a cropped region from an image. running on the cropped region) can be used. In addition to this, various algorithms may be used to detect the hand posture in the present invention.
인공지능 알고리즘 또는 다른 알고리즘에 의해 검출된 손의 자세와, 작업 장치를 제어하기 위한 명령과의 관계는 이하 도 12와 같이 설명될 수 있다. 도 12는 본 발명의 실시 예에 따른 작업 장치의 구동 모델을 도시한다. 도 12는 사용자의 손(1210) 및 작업 장치(1220)을 예시한다. 도 12를 참고하면, 손(1210)에서 21개 지점들이 검출된다. 검출 지점들은 손가락의 말단, 손가락 관절 등에 대응하고, 고유의 식별자를 가진다. 여기서, 검출되는 지점들의 개수 및 위치는 손의 자세를 검출하기 위해 사용되는 알고리즘에 따라 달라질 수 있다. 검출된 각 지점들의 적어도 일부는 작업 장치(1220)의 특정 지점들에 매핑된다. 예를 들어, 검지 손가락의 3개의 관절들(1211 내지 1213)은 작업 장치(1220)(예: 포크레인)의 팔(arm)의 3개의 관절들(1221 내지 1223)에 매핑될 수 있다. 도 12와 같이, 손(1210)에서 지점들이 검출되면, 각 지점에서 인접 지점들과 연결되는 선들이 이루는 각도가 계산될 수 있으며, 그 각도는 작업 장치(1220)의 해당 관절에 적용되는 각도가 된다.The relationship between the posture of the hand detected by the artificial intelligence algorithm or other algorithm and the command for controlling the work device can be described as shown in FIG. 12 below. 12 shows a driving model of a work device according to an embodiment of the present invention. 12 illustrates a user's
전술한 예에서, 검지 손가락의 3개의 관절들(1211 내지 1213) 외 나머지 관절들은 작업 장치(1220)의 어느 관절에도 매핑되지 아니한다. 나머지 관절들은 비매핑 관절들에 해당한다. 하지만, 작업 장치(1220)의 관절들과의 매핑을 변경하면, 비매핑 관절들이 달라질 수 있다. 예를 들어, 도 12의 경우, 작업 장치(1220)의 3개의 관절들(1221 내지 1223) 각각을 서로 다른 손가락의 관절들에 매핑하는 것도 가능하다. 이러한 맵핑은 미리 정의되거나 또는 별도의 매핑 설정 절차를 통해 결정될 수 있다. 일 실시 예에 따라, 매핑 설정 절차 동안, 사용자 장치(110)는 사용자에게 작업 장치(120b)의 특정 관절 또는 관절들의 조합에 관련된 특정 동작을 수행하기 신체 일부의 움직임을 반복적으로 요구하고, 확인되는 움직임들 중 최적의 움직임을 선택한 후, 최적의 움직임에서 사용된 관절들을 작업 장치(120b)의 관절에 매핑할 수 있다. 별도의 매핑 설정 절차가 수행되는 경우, 사용자의 개인적 특성에 최적화된 매핑이 제공될 수 있을 것이다.In the above example, the rest of the joints other than the three
작업 장치(1220)가 도 12와 같은 중장비가 아니라, 사람의 신체를 모방한 형상을 가지는 로봇의 경우, 맵핑은 보다 직관적으로 이루어질 수 있다. 예를 들어, 작업 장치(1220)가 로봇 손인 경우, 손(1210)의 대부분의 관절이 로봇 손의 관절들에 그대로 매핑될 수 있다. 하지만, 본 발명은, 중장비 뿐만 아니라, 다양한 구조의 도구(예: 집게, 가위, 컷팅기 등)의 형상을 가지는 작업 장치들에도 적용될 수 있다. 이 경우, 작업 장치의 관절들 및 신체의 검출 지점들(예: 관절, 말단) 간 적절하게 맵핑하는 동작이 요구된다. 예를 들어, 신체의 검출 지점들 중 일부만이 작업 장치의 제어를 위해 사용될 수 있다. 구체적으로, 2개의 손가락들만을 가진 집게 형상 또는 컷팅기(예: 가위) 형상의 작업 장치의 경우, 사용자의 검지 손가락 및 엄지 손가락에서의 검출 지점들만이 사용될 수 있다. 다른 예로, 신체의 검출 지점들 중 적어도 하나의 검출 지점은 작업 장치의 복수의 관절들에 맵핑될 수 있다. 이 경우, 하나의 검출 지점에 맵핑된 복수의 작업 장치 관절들을 개별적으로 제어할 수 있도록, 사용자의 선택에 따라 복수의 작업 장치 관절들 중 하나를 제어 대상으로서 지정하는 동작이 수행될 수 있다.When the
도 13은 본 발명의 실시 예에 따른 작업 장치의 실시간 제어를 위한 신호 교환 절차를 도시한다. 도 13는 사용자 장치(110), 서버(130), 피제어 장치 모듈(120) 간 상호 작용을 보여준다. 13 illustrates a signal exchange procedure for real-time control of a work device according to an embodiment of the present invention. 13 shows an interaction between the
도 13를 참고하면, 1301 단계에서, 피제어 장치 모듈(120)이 전원 온(on)된다. 여기서, 피제어 장치 모듈(120)은 작업 장치(120a) 및 촬영 장치(120b)를 포함하는 객체로서, 도 13에서의 피제어 장치 모듈(120)은 작업 장치(120a) 또는 촬영 장치(120b)로 이해될 수 있고, 또는 작업 장치(120a) 및 촬영 장치(120b)에 연동된 제3의 장치일 수 있다. 즉, 1301 단계에서, 작업 장치(120a) 또는 촬영 장치(120b) 중 적어도 하나가 전원 온된다. 이에 따라, 피제어 장치 모듈(120)의 운영 시스템이 부팅되고, 동작 가능한 상태가 된다.Referring to FIG. 13 , in step 1301, the controlled
1302 단계에서, 피제어 장치 모듈(120)은 서버(130)에 접속하고, 등록 절차를 수행한다. 피제어 장치 모듈(120)은 지정된 주소 정보를 이용하여 서버(130)에 접속한 후, 서버(130)에 작업 장치(120a)를 등록한다. 피제어 장치 모듈(120) 및 서버(130) 간 통신은 소켓(socket) 통신에 기반할 수 있다. 여기서, 등록은 작업 장치(120a)에 대한 정보를 서버(130)에 저장하고, 사용자 장치(110)의 요청에 따라 작업 장치(120a)에 대한 원격 제어를 허용할 것임을 알리는 절차이다. 예를 들어, 등록을 통해 저장되는 정보는 작업 장치의 식별자, 작업 장치의 종류, 제어 프로토콜, 작업 장치을 촬영하는 카메라의 화각 등 다양한 정보를 포함할 수 있다. 이에 따라, 사용자 장치(110)가 작업 장치(120a)에 대한 정보에 접근할 수 있는 상태가 된다. 접속 및 등록은 작업 장치(120a)에 본 발명의 제안 기술을 위한 소프트웨어 또는 에드온(add-on) 모듈을 설치함에 따라, 또는 소프트웨어 또는 에드온 모듈 설치 후 운영자의 명령에 따라 시작될 수 있다.In step 1302, the controlled
1303 단계에서, 사용자 장치(110)는 서버(130)에 접속하고, 가용한 작업 장치을 검색한다. 사용자 장치(110)는 본 발명의 제안 기술을 위한 소프트웨어 또는 어플리케이션을 실행하고, 사용자의 정보(예: 로그인 정보)를 확인한 후, 사용자의 명령에 따라 서버(130)에 접속할 수 있다. 이후, 사용자 장치(110)는 가용한 작업 장치들에 대한 정보를 요청하는 요청 메시지를 송신하고, 서버(130)는 작업 장치(120a)를 포함한 등록된 작업 장치들에 대한 정보를 사용자 장치(110)에게 송신한다. 이에 따라, 사용자 장치(110)는 작업 장치들의 목록을 표시하고, 사용자의 선택을 확인할 수 있다. 즉, 사용자 장치(110)는 작업 장치들에 대한 정보(예: 작업 장치 식별자, 작업 장치 종류, 작업 장치 제어를 위해 필요한 조건, 과금 정보 등)를 표시하고, 목록에서 사용자가 어느 작업 장치을 선택하는지 확인할 수 있다. 이때, 서버(130)는 피제어 장치 모듈(120)에 포함되는 원격 카메라에 대한 정보를 더 송신할 수 있다. 원격 카메라도 사용자 장치(110)에 의해 제어되므로, 회전 가능한 축의 개수 및 방향, 가동 범위(예: 회전 가능 각도 범위)에 대한 정보가 필요할 수 있다.In
1304 단계에서, 사용자 장치(110)는 피제어 장치 모듈(120)에게 영상 스트리밍에 대한 요청 메시지를 송신한다. 영상 스트리밍에 대한 요청 메시지는 피제어 장치 모듈(120)에게 직접 송신되거나 또는 서버(130)를 거쳐 송신될 수 있다. 예를 들어, 영상 스트리밍에 대한 요청 메시지는 소켓 통신을 통해 송신될 수 있다. 여기서, 영상 스트림밍에 대한 요청 메시지는 작업 장치(120a)에 대한 제어 권한을 요청하는 메시지로도 해석될 수 있다.In step 1304, the
1305 단계에서, 피제어 장치 모듈(120)은 사용자 장치(110)에게 영상 신호를 송신한다. 예를 들어, 영상 스트리밍은 WebRTC(web real-time communication) 방식으로 수행될 수 있다. 도 13에 도시되지 아니하였으나, 사용자 장치(110) 및 피제어 장치 모듈(120) 간 영상 스트리밍을 위한 연결 설정 절차를 먼저 수행할 수 있다. 이에 따라, 사용자 장치(110)는 작업 장치(120a)를 촬영한 실시간 영상을 표시하고, 사용자는 영상을 작업 장치(120a)의 움직임을 확인할 수 있다. 영상 신호는 실시간 스트리밍을 위해 지속적으로 송신될 수 있다.In step 1305, the controlled
1306 단계에서, 사용자 장치(110)는 피제어 장치 모듈(120)에게 작업 장치/카메라 제어 신호를 송신한다. 사용자 장치(110)는 피제어 장치 모듈(120)로부터 실시간 스트리밍되는 작업 장치(120a)에 대한 영상을 표시하면서, 카메라를 이용하여 사용자의 신체의 일부(예: 손)를 촬영하고, 촬영된 영상에 기반하여 작업 장치(120a)를 제어하기 위한 적어도 하나의 명령어를 생성하고, 생성된 명령어를 포함하는 제어 신호를 송신할 수 있다. 또한, 사용자 장치(110)는 사용자 장치(110)의 기울기를 측정하고, 측정된 기울기에 기반하여 원격 카메라의 촬영 방향을 제어하기 위한 적어도 하나의 명령어를 생성하고, 생성된 명령어를 포함하는 제어 신호를 송신할 수 있다. 작업 장치/카메라 제어 신호는 명령어의 생성에 따라 지속적으로 생성 및 송신될 수 있다.In step 1306, the
도 13을 참고하여 설명한 실시 예에 따라, 작업 장치(120a)를 제어하기 위한 명령어(이하 '작업 장치 제어 명령어') 및 원격 카메라를 제어하기 위한 명령어(이하 '카메라 제어 명령어')가 생성 및 송신될 수 있다. 즉, 제어 대상이 서로 다른 2가지 종류의 명령어들이 송신될 수 있다. 일 실시 예에 따라, 작업 장치 제어 명령어 및 카메라 제어 명령어는 별도의 제어 링크들을 통해 송신될 수 있다. 다른 실시 예에 따라, 작업 장치 제어 명령어 및 카메라 제어 명령어는 같은 제어 링크를 통해 송신되고, 명령어의 종류를 구분하는 식별자를 포함할 수 있다.According to the embodiment described with reference to FIG. 13 , a command for controlling the
도 14는 본 발명의 실시 예에 따른 작업 장치를 제어하기 위한 인터페이스의 예를 도시한다. 도 14는 작업 장치를 원격 제어하는 동안 사용자 장치를 통해 표시되는 화면을 예시한다.14 illustrates an example of an interface for controlling a work device according to an embodiment of the present invention. 14 illustrates a screen displayed through a user device while remotely controlling a work device.
도 14를 참고하면, 화면은 설정 메뉴(1410) 및 작업 장치 실시간 영상 창(1420), 제1 조이스틱(1430a), 제2 조이스틱(1430b), 신체 일부 그래픽(1440)을 포함한다. 구현 또는 상태에 따라, 제1 조이스틱(1430a), 신체 일부 그래픽(1440) 중 어느 하나는 표시되지 아니할 수 있다.Referring to FIG. 14 , the screen includes a
설정 메뉴(1410)는 작업 장치 제어에 필요한 다양한 설정을 입력하기 위한 항목이다. 예를 들어, 설정 메뉴(1410)는 작업 현장의 카메라에 관련된 설정, 작업 장치 제어 방식에 관련된 설정 등을 위해 사용될 수 있다. 구체적으로, 설정 메뉴(1410)는 작업 현장에 배치된 복수의 카메라들 중 하나를 선택하기 위한 입력, 작업 현장의 카메라의 줌-인/줌-아웃을 위한 입력, 작업 장치에 대한 제어 방식을 선택하기 위한 입력 등을 위해 사용될 수 있다. 여기서, 선택 가능한 제어 방식들은 신체를 촬영한 영상을 이용한 제어 방식 및 조이스틱(1413)을 이용한 제어 방식을 포함할 수 있다. The
작업 장치 실시간 영상 창(1420)은 작업 현장에서 촬영된 작업 장치에 대한 실시간 영상을 표시하는 영역이다. 사용자 장치는 실시간 스트리밍되는 작업 장치에 대한 영상을 작업 장치 실시간 영상 창(1420)을 통해 표시한다. 이를 통해, 사용자는 작업 장치의 모습을 실시간으로 확인할 수 있다.The working device real-
제1 조이스틱(1430a)은 작업 장치를 제어하기 위한 명령을 입력하기 위해 사용되는 항목이다. 전술한 다양한 실시 예들과 같이, 촬영되는 신체의 자세 등에 기반하여 작업 장치이 제어될 수 있지만, 이에 병행하여, 제1 조이스틱(1430a)을 이용한 제어도 지원될 수 있다. 제1 조이스틱(1430a)은 작업 장치의 제어 지점을 이동 또는 회전시키기 위한 항목, 제어 지점을 선택하기 위한 항목 등을 포함할 수 있다. 일 실시 예에 따라, 제1 조이스틱(1430a)은 반투명하게 표시될 수 있으며, 지정된 입력(예: 롱 프레스(long press) 및 드래그(drag))에 의해 화면 내의 다른 위치로 이동될 수 있다.The
제2 조이스틱(1430b)은 원격 카메라의 촬영 방향을 제어하기 위한 명령을 입력하기 위해 사용되는 항목이다. 전술한 다양한 실시 예들과 같이, 사용자 장치(110)의 기울기에 기반하여 원격 카메라가 제어될 수 있지만, 이에 병행하여, 제2 조이스틱(1430b)을 이용한 제어도 지원될 수 있다. 제2 조이스틱(1430b)은 원격 카메라의 촬영 방향에 대한 회전 축을 선택하기 위한 항목, 회전 각도의 양을 입력하기 위한 항목 중 적어도 하나를 포함할 수 있다. 일 실시 예에 따라, 제2 조이스틱(1430b)은 반투명하게 표시될 수 있으며, 지정된 입력(예: 롱 프레스 및 드래그)에 의해 화면 내의 다른 위치로 이동될 수 있다.The
신체 일부 그래픽(1440)은 작업 장치(120a)의 제어를 위해 사용되는 사용자의 신체 일부에 대한 인식 결과(예: 자세)를 표현하는 그래픽이다. 신체 일부 그래픽(1440)은 촬영된 영상에서 추출된 신체 일부이거나 또는 인식 결과에 기반하여 생성된 그래픽일 수 있다. 추가적으로, 신체 일부 그래픽(1440)은 자세 인식에 의해 확인된 검출 지점들 및 검출 지점들을 연결하는 선 등을 함께 표현할 수 있다.The body part graphic 1440 is a graphic representing a recognition result (eg, posture) of a user's body part used for controlling the
도 14를 참고한 바와 같은 인터페이스를 통해, 사용자는 보다 편리하게 작업 장치를 제어할 수 있다. 특히, 신체 일부 그래픽(1440)을 통해, 사용자는, 작업 장치를 제어하기 위한 신체의 일부에 대한 인식 결과를 확인할 수 있다. 추가적으로, 인터페이스는 사용자 현장에서의 촬영 상태에 대한 경고 창 또는 경고 지시자를 더 포함할 수 있다. 경고 창 또는 경고 지시자는 작업 장치를 제어하기 위해 필요한 신체의 일부가 충분하게 촬영되고 있지 않는 경우, 이를 사용자에게 알리기 위해 일시적으로 표시될 수 있다. 예를 들어, 손의 자세가 영상을 이용하여 인식되는 겨우, 손이 카메라 화각을 벗어나면, 사용자 장치는 손이 촬영 범위를 벗어났음을 알리는 경고 창 또는 경고 지시자를 표시할 수 있다. 다른 예로, 사용자의 손이 작업 장치의 제어에 이용되는 경우, 손이 카메라 화각 내에 있지만 촬영 각도가 손의 자세를 인식하기 적절하지 아니한 경우, 사용자 장치는 손 및 카메라의 상대적 각도를 변경해 줄 것을 요구하는 경고 창 또는 경고 지시자를 표시할 수 있다. Through the interface as shown in FIG. 14, the user can more conveniently control the work device. In particular, through the body part graphic 1440, the user may check a result of recognizing a part of the body for controlling the work device. Additionally, the interface may further include a warning window or warning indicator for a shooting state at the user's site. A warning window or warning indicator may be temporarily displayed to notify the user when a body part required to control the work device is not sufficiently photographed. For example, if the hand's posture is recognized using an image and the hand is out of the camera's field of view, the user device may display a warning window or a warning indicator notifying that the hand is out of the shooting range. As another example, when the user's hand is used to control the work device, and the hand is within the camera's field of view but the shooting angle is not appropriate for recognizing the hand posture, the user device requests to change the relative angle of the hand and the camera. A warning window or warning indicator may be displayed.
또한, 인터페이스는 원격 카메라의 가동 범위의 한계에 대한 경고 창 또는 경고 지시자를 더 포함할 수 있다. 원격 카메라가 특정 축에서 가능한 회전 각도의 한계치만큼 회전하였으나, 해당 축에서 사용자 장치(110)가 더 회전하는 경우, 원격 카메라는 더 이상 회전할 수 없음을 알리는 경고 창 또는 경고 지시자가 표시될 수 있다. 이를 통해, 사용자는 원격 카메라가 해당 축에서 한계점까지 회전하였음을 인지하고, 원격 카메라를 더 회전시키려는 불필요한 시도를 하지 아니할 것이다.In addition, the interface may further include a warning window or warning indicator about the limit of the movable range of the remote camera. When the
전술한 본 발명의 다양한 실시 예들에 따른 방법은 하드웨어인 컴퓨터가 결합되어 실행되기 위해 컴퓨터 프로그램 또는 모바일 어플리케이션으로 구현되어 매체에 저장될 수 있다. 또는, 본 발명의 실시 예들과 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다. 또한, 알고리즘은 설치 파일 형태로 제작되어 온라인 다운로드 형태로 제공되며, 이를 위해 온라인 소프트웨어 마켓을 통해 접속 가능한 서버에 저장될 수 있다.The method according to various embodiments of the present invention described above may be implemented as a computer program or a mobile application and stored in a medium to be executed by being coupled with a computer that is hardware. Alternatively, steps of a method or algorithm described in relation to the embodiments of the present invention may be directly implemented as hardware, implemented as a software module executed by hardware, or a combination thereof. A software module may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art to which the present invention pertains. In addition, the algorithm is produced in the form of an installation file and provided as an online download, and for this purpose, it can be stored on a server accessible through an online software market.
한편 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.Meanwhile, in the detailed description of the present invention, specific embodiments have been described, but various modifications are possible without departing from the scope of the present invention. Therefore, the scope of the present invention should not be limited to the described embodiments and should not be defined, but should be defined by not only the scope of the claims to be described later, but also those equivalent to the scope of these claims.
Claims (5)
복수의 원격 장치들을 등록 및 관리하는 서버에 접속하고, 상기 서버에게 가용한 작업 장치들에 대한 정보를 요청하는 제1 요청 메시지를 송신하고, 상기 서버로부터 피제어 장치 모듈에 포함되는 제1 장치 및 제1 카메라에 대한 정보를 수신함으로써, 서버의 지원에 기반하여 작업 현장에 위치한 상기 피제어 장치 모듈과의 연결을 설정하는 단계;
사용자에게 상기 제1 장치의 관절에 관련된 동작을 수행하기 위한 신체 일부의 움직임을 반복적으로 요구하는 단계;
상기 움직임의 요구에 응하여 발생하는 움직임을 확인하는 단계;
상기 확인된 움직임에서 사용된 상기 사용자의 적어도 하나의 관절을 상기 제1 장치의 상기 관절에 매핑하는 단계;
상기 피제어 장치 모듈에 포함되는 제1 카메라를 이용하여 촬영된 상기 피제어 장치 모듈에 포함되는 제1 장치에 대한 동영상 데이터를 수신하는 단계;
상기 동영상 데이터에 기반하여 상기 제1 장치에 대한 실시간 동영상을 표시하는 단계;
상기 사용자의 상기 신체 일부의 움직임에 기반하여 상기 제1 장치를 제어하기 위한 적어도 하나의 장치 제어 명령어를 생성하는 단계;
상기 제2 장치의 기울기 변화에 기반하여 상기 제1 카메라를 제어하기 위한 적어도 하나의 카메라 제어 명령어를 생성하는 단계; 및
상기 적어도 하나의 장치 제어 명령어 및 상기 적어도 하나의 카메라 제어 명령어를 상기 제1 장치 및 상기 제1 카메라를 제어하기 위해 송신하는 단계를 포함하며,
상기 장치 제어 명령어는, 상기 제1 장치의 상기 관절에 대응하는 상기 사용자의 신체 관절의 각도에 기반하여 생성되는 값으로서, 상기 확인된 움직임에서 사용된 상기 사용자의 적어도 하나의 관절의 각도에 기반하여 생성되며, 상기 제1 장치의 상기 관절의 각도를 지시하는 값을 포함하고,
상기 카메라 제어 명령어는, 상기 제2 장치에서 기울기를 인식하는 축들 및 상기 제1 카메라에서 지원하는 회전 축들이 서로 다름에 따라, 상기 제2 장치에서 지원되는 복수의 변환 알고리즘들 중 상기 제1 카메라에서 지원되는 상기 회전 축들의 구조에 대응하는 하나의 변환 알고리즘에 기반하여 생성되며,
상기 제1 카메라에서 지원되는 상기 회전 축들의 구조에 대한 정보는, 상기 서버로부터 제공되는 방법.
A method of operating a second device for remotely controlling a first device, comprising:
A first device that accesses a server that registers and manages a plurality of remote devices, transmits a first request message requesting information on available work devices to the server, and is included in the controlled device module from the server; and establishing a connection with the controlled device module located at a work site based on support from a server by receiving information about a first camera;
repeatedly requesting movement of a body part to perform an operation related to the joint of the first device from the user;
checking a motion generated in response to the motion request;
mapping at least one joint of the user used in the identified movement to the joint of the first device;
receiving video data of a first device included in the controlled device module, which is captured using a first camera included in the controlled device module;
displaying a real-time video for the first device based on the video data;
generating at least one device control command for controlling the first device based on the movement of the body part of the user;
generating at least one camera control command for controlling the first camera based on the tilt change of the second device; and
sending the at least one device control command and the at least one camera control command to control the first device and the first camera;
The device control command is a value generated based on an angle of a joint of the user's body corresponding to the joint of the first device, based on an angle of at least one joint of the user used in the identified movement. is generated and includes a value indicating the angle of the joint of the first device;
The camera control command is performed by the first camera among a plurality of transformation algorithms supported by the second device according to the difference between the axes recognizing the tilt in the second device and the rotation axes supported by the first camera. It is created based on one conversion algorithm corresponding to the structure of the rotation axes supported,
The information on the structure of the rotational axes supported by the first camera is provided from the server.
상기 피제어 장치 모듈과의 연결을 설정하는 단계는,
상기 복수의 원격 장치들을 등록 및 관리하는 상기 서버에 접속하는 단계;
상기 서버로, 가용한 작업 장치들에 대한 정보를 요청하는 상기 제1 요청 메시지를 송신하는 단계;
상기 서버로부터, 상기 제1 장치 및 상기 제1 카메라에 대한 정보를 포함하는, 복수의 작업 장치들에 대한 정보를 수신하는 단계;
상기 제1 장치를 포함하는 피제어 장치들의 리스트를 표시하는 단계;
상기 복수의 작업 장치들 중 상기 제1 장치에 대한 상기 사용자의 선택을 확인하는 단계;
상기 제1 장치의 영상 스트리밍 및 제어 권한을 요청하는 제2 요청 메시지를 송신하는 단계를 더 포함하며,
상기 제1 카메라에 대한 정보는, 상기 제1 카메라에서 지원되는 회전 축의 개수 및 방향, 가동 범위에 대한 정보를 포함하고,
상기 복수의 작업 장치들에 대한 정보는, 각 작업 장치의 식별자, 각 작업 장치의 종류, 각 작업 장치의 제어를 위해 필요한 조건, 각 작업 장치에 대한 과금 정보를 포함하는 방법.
The method of claim 1,
The step of establishing a connection with the controlled device module,
accessing the server for registering and managing the plurality of remote devices;
sending, to the server, the first request message requesting information on available work devices;
receiving, from the server, information about a plurality of work devices including information about the first device and the first camera;
displaying a list of controlled devices including the first device;
confirming the user's selection of the first device among the plurality of work devices;
Transmitting a second request message requesting video streaming and control rights of the first device;
The information on the first camera includes information on the number and direction of rotational axes supported by the first camera, and information on a movable range;
The information on the plurality of work devices includes an identifier of each work device, a type of each work device, a condition necessary for controlling each work device, and billing information for each work device.
상기 실시간 동영상에 더하여, 상기 제2 장치에 구비된 제2 카메라를 이용하여 촬영되고, 상기 적어도 하나의 장치 제어 명령어를 생성하기 위해 사용되는 상기 신체 일부를 표현한 그래픽을 디스플레이에 표시하는 단계를 더 포함하고,
상기 그래픽은, 상기 신체 일부에서 검출되는 관절의 위치를 지시하는 점들을 포함하는 방법.
The method of claim 1,
In addition to the real-time video, the method further includes displaying on a display a graphic representing the part of the body photographed using a second camera provided in the second device and used to generate the at least one device control command. do,
Wherein the graphic includes dots indicating positions of joints detected in the body part.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220090638A KR102549631B1 (en) | 2022-07-21 | 2022-07-21 | Method for real-time control of working device and camera by using pose of body part and tilt of device and apparatus thereof |
KR1020230082256A KR20240013046A (en) | 2022-07-21 | 2023-06-27 | Method for real-time control of working device and camera by using pose of body part and tilt of device and apparatus thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220090638A KR102549631B1 (en) | 2022-07-21 | 2022-07-21 | Method for real-time control of working device and camera by using pose of body part and tilt of device and apparatus thereof |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230082256A Division KR20240013046A (en) | 2022-07-21 | 2023-06-27 | Method for real-time control of working device and camera by using pose of body part and tilt of device and apparatus thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102549631B1 true KR102549631B1 (en) | 2023-07-03 |
Family
ID=87157744
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220090638A KR102549631B1 (en) | 2022-07-21 | 2022-07-21 | Method for real-time control of working device and camera by using pose of body part and tilt of device and apparatus thereof |
KR1020230082256A KR20240013046A (en) | 2022-07-21 | 2023-06-27 | Method for real-time control of working device and camera by using pose of body part and tilt of device and apparatus thereof |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230082256A KR20240013046A (en) | 2022-07-21 | 2023-06-27 | Method for real-time control of working device and camera by using pose of body part and tilt of device and apparatus thereof |
Country Status (1)
Country | Link |
---|---|
KR (2) | KR102549631B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090016246A (en) * | 2007-08-10 | 2009-02-13 | 연세대학교 산학협력단 | Managing system of mobile devices and the camera thereof using body reaction |
KR20200140834A (en) * | 2019-04-30 | 2020-12-16 | 치루 유니버시티 오브 테크놀로지 | Wearable device-based mobile robot control system and control method |
-
2022
- 2022-07-21 KR KR1020220090638A patent/KR102549631B1/en active IP Right Grant
-
2023
- 2023-06-27 KR KR1020230082256A patent/KR20240013046A/en unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090016246A (en) * | 2007-08-10 | 2009-02-13 | 연세대학교 산학협력단 | Managing system of mobile devices and the camera thereof using body reaction |
KR20200140834A (en) * | 2019-04-30 | 2020-12-16 | 치루 유니버시티 오브 테크놀로지 | Wearable device-based mobile robot control system and control method |
Also Published As
Publication number | Publication date |
---|---|
KR20240013046A (en) | 2024-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6851470B2 (en) | Unmanned aerial vehicle control methods, head-mounted display glasses and systems | |
KR20110055062A (en) | Robot system and method for controlling the same | |
US10917560B2 (en) | Control apparatus, movable apparatus, and remote-control system | |
CN110888428B (en) | Mobile robot, remote terminal, computer readable medium, control system, and control method | |
WO2003102706A1 (en) | Remotely-operated robot, and robot self position identifying method | |
US20180234635A1 (en) | Imaging system and imaging control method | |
WO2016031105A1 (en) | Information-processing device, information processing method, and program | |
JP6812203B2 (en) | Information processing system, information processing method, mobile projection terminal | |
JP7372061B2 (en) | Remote work support system | |
JP6409667B2 (en) | Remote control system | |
CN103986878A (en) | Remote control device and method for operating pan-tilt camera | |
CN111712780A (en) | System and method for augmented reality | |
KR20150058848A (en) | Apparatus and method for generating telepresence | |
US20220269336A1 (en) | Systems and methods for virtual interaction | |
JP2016197797A (en) | Image processing apparatus, image processing method, and image processing system | |
JP2006139525A (en) | Autonomous mobile robot | |
JP4640191B2 (en) | Surveillance camera system and surveillance camera direction control method | |
KR102549631B1 (en) | Method for real-time control of working device and camera by using pose of body part and tilt of device and apparatus thereof | |
KR102553830B1 (en) | Method for real-time remote control of robot by using camera and apparatus thereof | |
JP2022105568A (en) | System and method for displaying 3d tour comparison | |
TW201800902A (en) | Method of integrating navigation system of panoramic images with motion detection | |
KR102525661B1 (en) | Method for real-time training for remote control of working device and apparatus thereof | |
KR102196683B1 (en) | Device and method for photographing 3d tour | |
KR101230950B1 (en) | An Haptic Apparatus and method of controlling thereof | |
US20240135663A1 (en) | Systems and methods for virtual interaction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
GRNT | Written decision to grant |