KR102549631B1 - Method for real-time control of working device and camera by using pose of body part and tilt of device and apparatus thereof - Google Patents

Method for real-time control of working device and camera by using pose of body part and tilt of device and apparatus thereof Download PDF

Info

Publication number
KR102549631B1
KR102549631B1 KR1020220090638A KR20220090638A KR102549631B1 KR 102549631 B1 KR102549631 B1 KR 102549631B1 KR 1020220090638 A KR1020220090638 A KR 1020220090638A KR 20220090638 A KR20220090638 A KR 20220090638A KR 102549631 B1 KR102549631 B1 KR 102549631B1
Authority
KR
South Korea
Prior art keywords
camera
user
work
information
server
Prior art date
Application number
KR1020220090638A
Other languages
Korean (ko)
Inventor
박장준
최준화
윤여상
Original Assignee
주식회사 포탈301
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 포탈301 filed Critical 주식회사 포탈301
Priority to KR1020220090638A priority Critical patent/KR102549631B1/en
Priority to KR1020230082256A priority patent/KR20240013046A/en
Application granted granted Critical
Publication of KR102549631B1 publication Critical patent/KR102549631B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Abstract

본 발명은 신체 일부의 자세 및 신체 일부를 촬영하는 카메라의 기울기를 이용하여 작업 장치 및 촬영 각도를 실시간으로 제어하기 위한 것으로, 제1 장치를 원격 제어하기 위한 제2 장치의 동작 방법은, 작업 현장에 위치한 제1 카메라를 이용하여 촬영된 제1 장치에 대한 동영상 데이터를 수신하는 단계, 상기 동영상 데이터에 기반하여 상기 제1 장치에 대한 실시간 동영상을 표시하는 단계, 사용자의 지정된 신체 일부의 움직임에 기반하여 상기 제1 장치를 제어하기 위한 적어도 하나의 장치 제어 명령어를 생성하는 단계, 제2 장치의 기울기 변화에 기반하여 상기 제1 카메라를 제어하기 위한 적어도 하나의 카메라 제어 명령어를 생성하는 단계, 및 상기 적어도 하나의 장치 제어 명령어 및 상기 적어도 하나의 카메라 제어 명령어를 상기 제1 장치 및 상기 제1 카메라를 제어하기 위해 송신하는 단계를 포함할 수 있다.The present invention is for controlling a work device and a photographing angle in real time using a posture of a body part and a tilt of a camera that captures the body part, and an operation method of a second device for remotely controlling a first device includes: Receiving video data of a first device captured using a first camera located at , displaying a real-time video of the first device based on the video data, based on a movement of a designated body part of a user generating at least one device control command for controlling the first device, generating at least one camera control command for controlling the first camera based on a tilt change of a second device, and the and transmitting at least one device control command and the at least one camera control command to control the first device and the first camera.

Figure R1020220090638
Figure R1020220090638

Description

신체 일부의 자세 및 장치의 기울기를 이용한 실시간 작업 장치 및 카메라 제어 방법 및 장치{METHOD FOR REAL-TIME CONTROL OF WORKING DEVICE AND CAMERA BY USING POSE OF BODY PART AND TILT OF DEVICE AND APPARATUS THEREOF}Real-time working device and camera control method and device using posture of body part and inclination of device

본 발명은 작업 장치 및 작업 장치를 촬영하는 카메라의 제어에 관한 것으로, 보다 구체적으로 신체 일부의 자세 및 장치의 기울기를 이용하여 작업 장치 및카메라를 실시간으로 제어하기 위한 방법 및 그 장치에 관한 것이다.The present invention relates to control of a working device and a camera that captures the working device, and more particularly, to a method and apparatus for controlling a working device and a camera in real time using a posture of a body part and an inclination of the device.

산업 현장에서 필요로 하는 다양한 물리적인 작업을 사람의 노동력에 의해 수행하는 것이 과거의 전통적인 방식이었다. 하지만, 현장의 다양한 조건, 작업의 내용이나 특성에 따라 인력이 직접적으로 투입되기 어려운 환경이 존재할 수 있다. 이 경우, 로봇(robot)과 같은 기계 장치를 활용하면 보다 효과적인 작업 수행이 가능할 수 있다. 기계 장치를 사용하더라도, 인간이 장치에 인접한 상태에서 직접 제어해야 한다면, 그 효용성은 다소 낮을 것이다. 따라서, 그 거리의 정도의 차이는 있더라도, 기계 장치를 원격으로 제어하는 것이 보다 큰 활용성을 제공할 수 있다.It was a traditional method in the past to perform various physical tasks required in industrial sites by human labor. However, depending on the various conditions of the field and the contents or characteristics of the work, there may be an environment in which manpower is difficult to directly input. In this case, more effective work may be performed by using a mechanical device such as a robot. Even if a mechanical device is used, its effectiveness will be somewhat low if a human has to directly control it while being in close proximity to the device. Therefore, even if there is a difference in the degree of distance, remotely controlling the mechanical device can provide greater usability.

본 발명은 장치를 보다 효과적으로 제어하기 위한 방법 및 그 장치를 제공한다.The present invention provides a method and apparatus for more effectively controlling a device.

본 발명은 장치를 원격으로 편리하기 제어하기 위한 방법 및 그 장치를 제공한다.The present invention provides a method and apparatus for conveniently controlling a device remotely.

본 발명은 카메라를 이용하여 장치를 실시간으로 제어하기 위한 방법 및 그 장치를 제공한다.The present invention provides a method and apparatus for controlling a device in real time using a camera.

본 발명은 카메라를 이용하여 촬영되는 신체의 일부에 대한 인식 결과에 기반하여 장치를 제어하기 위한 방법 및 그 장치를 제공한다.The present invention provides a method and apparatus for controlling a device based on a recognition result of a body part photographed using a camera.

본 발명은 신체의 일부를 촬영하는 카메라의 자세(pose)에 기반하여 장치를 촬영하는 카메라의 자세를 제어하기 위한 방법 및 그 장치를 제공한다.The present invention provides a method and apparatus for controlling a posture of a camera for photographing a body part based on a posture of a camera for photographing a body part.

본 발명은 장치를 촬영하는 카메라의 움직임을 신체의 일부를 촬영하는 카메라에 동기화하기 위한 방법 및 그 장치를 제공한다.The present invention provides a method and apparatus for synchronizing movement of a camera photographing a device with a camera photographing a body part.

본 발명의 실시 예에 따르면, 제1 장치를 원격 제어하기 위한 제2 장치의 동작 방법은, 작업 현장에 위치한 제1 카메라를 이용하여 촬영된 제1 장치에 대한 동영상 데이터를 수신하는 단계, 상기 동영상 데이터에 기반하여 상기 제1 장치에 대한 실시간 동영상을 표시하는 단계, 사용자의 지정된 신체 일부의 움직임에 기반하여 상기 제1 장치를 제어하기 위한 적어도 하나의 장치 제어 명령어를 생성하는 단계, 제2 장치의 기울기 변화에 기반하여 상기 제1 카메라를 제어하기 위한 적어도 하나의 카메라 제어 명령어를 생성하는 단계, 및 상기 적어도 하나의 장치 제어 명령어 및 상기 적어도 하나의 카메라 제어 명령어를 상기 제1 장치 및 상기 제1 카메라를 제어하기 위해 송신하는 단계를 포함할 수 있다.According to an embodiment of the present invention, a method for operating a second device for remotely controlling a first device includes receiving video data of a first device captured using a first camera located at a work site, the video Displaying a real-time video of the first device based on data, generating at least one device control command for controlling the first device based on a movement of a user's designated body part, Generating at least one camera control command for controlling the first camera based on a tilt change, and transmitting the at least one device control command and the at least one camera control command to the first device and the first camera. It may include transmitting to control.

본 발명의 실시 예에 따르면, 상기 적어도 하나의 카메라 제어 명령어를 생성하는 단계는, 상기 기울기 변화를 상기 제1 카메라에서 지원되는 적어도 하나의 회전 축에서의 각도 변화량으로 환산하는 단계, 상기 각도 변화량을 지시하는 적어도 하나의 명령어를 생성하는 단계를 포함할 수 있다.According to an embodiment of the present invention, the generating of the at least one camera control command may include converting the tilt change into an angular change amount in at least one rotation axis supported by the first camera; It may include generating at least one instruction that instructs.

본 발명의 실시 예에 따르면, 서버로부터 상기 제1 장치 및 상기 제1 카메라에 대한 정보를 수신하는 단계, 및 상기 제1 장치를 포함하는 피제어 장치들의 리스트를 표시하는 단계를 포함하며, 상기 제1 카메라에 대한 정보는, 상기 제1 카메라에서 지원되는 회전 축의 개수 및 방향, 가동 범위에 대한 정보를 포함할 수 있다.According to an embodiment of the present invention, the method includes receiving information about the first device and the first camera from a server, and displaying a list of controlled devices including the first device. Information on one camera may include information on the number and direction of rotational axes supported by the first camera, and a movable range.

본 발명의 실시 예에 따르면, 상기 실시간 동영상에 더하여, 상기 사용자의 신체 일부의 자세를 표현하는 그래픽, 상기 제1 장치를 제어하기 위한 제1조이스틱, 상기 제1 카메라의 촬영 방향을 제어하기 위한 제2 조이스틱 중 적어도 하나를 표시하는 단계를 더 포함할 수 있다.According to an embodiment of the present invention, in addition to the real-time video, a graphic representing the posture of a part of the user's body, a first joystick for controlling the first device, and a first control for controlling the shooting direction of the first camera The method may further include displaying at least one of the two joysticks.

본 발명의 실시 예에 따르면, 매체에 저장된 어플리케이션 프로그램은 프로세서에 의해 동작되면 전술한 방법을 실행할 수 있다.According to an embodiment of the present invention, an application program stored in a medium may execute the above method when operated by a processor.

본 발명은 보다 효과적으로 원거리에 위치한 장치의 상태를 관찰하면서, 장치를 원격 제어할 수 있게 한다.The present invention makes it possible to more effectively remotely control a device while observing the state of the device located at a distance.

도 1은 본 발명의 실시 예에 따른 시스템을 도시한다.
도 2는 본 발명의 실시 예에 따른 제어 장치의 구조를 도시한다.
도 3은 본 발명의 실시 예에 따른 작업 장치의 구조를 도시한다.
도 4는 본 발명의 실시 예에 따른 촬영 장치의 구조를 도시한다.
도 5는 본 발명의 실시 예에 따른 서버의 구조를 도시한다.
도 6은 본 발명의 실시 예에 따른 원격 제어 서비스의 개념을 도시한다.
도 7은 본 발명의 실시 예에 따라 작업 장치 및 카메라를 제어하는 동작 절차를 도시한다.
도 8은 본 발명의 실시 예에 따라 작업 장치를 촬영하는 카메라의 구조의 예를 도시한다.
도 9는 본 발명의 실시 예에 따라 작업 장치를 촬영하는 카메라를 제어하기 위한 신호를 생성하는 동작 절차를 도시한다.
도 10은 본 발명의 실시 예에 따른 사용자 장치의 기울기에 따른 원격 카메라의 제어의 예를 도시한다.
도 11은 본 발명의 실시 예에 따라 작업 장치를 제어하기 위한 신호를 생성하는 동작 절차를 도시한다.
도 12는 본 발명의 실시 예에 따른 작업 장치의 구동 모델을 도시한다.
도 13은 본 발명의 실시 예에 따른 작업 장치의 실시간 제어를 위한 신호 교환 절차를 도시한다.
도 14는 본 발명의 실시 예에 따른 작업 장치를 제어하기 위한 인터페이스의 예를 도시한다.
1 shows a system according to an embodiment of the present invention.
2 shows the structure of a control device according to an embodiment of the present invention.
3 shows the structure of a work device according to an embodiment of the present invention.
4 shows the structure of a photographing device according to an embodiment of the present invention.
5 shows the structure of a server according to an embodiment of the present invention.
6 illustrates a concept of a remote control service according to an embodiment of the present invention.
7 illustrates an operating procedure for controlling a work device and a camera according to an embodiment of the present invention.
8 illustrates an example of a structure of a camera for photographing a work device according to an embodiment of the present invention.
9 illustrates an operating procedure for generating a signal for controlling a camera that photographs a work device according to an embodiment of the present invention.
10 illustrates an example of controlling a remote camera according to an inclination of a user device according to an embodiment of the present invention.
11 illustrates an operating procedure for generating a signal for controlling a work device according to an embodiment of the present invention.
12 shows a driving model of a work device according to an embodiment of the present invention.
13 illustrates a signal exchange procedure for real-time control of a work device according to an embodiment of the present invention.
14 illustrates an example of an interface for controlling a work device according to an embodiment of the present invention.

이하 본 발명의 바람직한 실시 예를 첨부된 도면의 참조와 함께 상세히 설명한다. 그리고, 본 발명을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우, 그 상세한 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. And, in describing the present invention, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description will be omitted.

이하 본 발명은 원격으로 작업 장치(working device) 및 작업 장치를 촬영하는 카메라를 실시간 제어하기 위한 기술에 대해 설명한다. 구체적으로, 본 발명은 사용자 장치에 포함 또는 연동되는 카메라를 통해 촬영되는 사용자의 신체의 일부를 이용하여 작업 장치를 제어하기 위한 명령을 생성하고, 명령에 따라 제어되는 작업 장치의 움직임을 사용자에게 실시간으로 공유하기 위한 다양한 실시 예들에 대해 설명한다. 또한, 본 발명은 사용자 장치의 자세(pose)를 이용하여 작업 장치를 촬영하는 카메라를 제어하기 위한 다양한 실시 예들에 대해 설명한다. Hereinafter, a technology for remotely controlling a working device and a camera that photographs the working device in real time will be described. Specifically, the present invention generates a command for controlling a work device using a part of a user's body photographed by a camera included in or interlocked with a user device, and provides the user with real-time movement of the work device controlled according to the command. Various embodiments for sharing will be described. In addition, the present invention describes various embodiments for controlling a camera that takes pictures of a work device using a pose of the user device.

도 1은 본 발명의 실시 예에 따른 시스템을 도시한다.1 shows a system according to an embodiment of the present invention.

도 1을 참고하면, 시스템은 사용자 장치(110), 피제어(controlled) 장치 모듈(120), 서버(130)를 포함하며, 사용자 장치(110), 피제어 장치 모듈(120), 서버(130)는 통신망을 통해 상호 신호를 송신 및 수신할 수 있다. Referring to FIG. 1 , the system includes a user device 110, a controlled device module 120, and a server 130. The user device 110, a controlled device module 120, and a server 130 ) can transmit and receive mutual signals through a communication network.

사용자 장치(110)는 사용자가 위치한 현장(site)에서 사용되는 장비로서, 작업 장치(working device)(120a) 및 촬영 장치(120b)를 제어하기 위한 명령들을 생성한다. 또한, 사용자 장치(110)는 작업 장치(120a)의 움직임이나 상태에 대한 영상을 수신하고, 사용자가 볼 수 있도록 출력한다. 이를 위해, 사용자 장치(110)는 서버(130)에 접속하고, 서버(130)로부터 접속 가능한 피제어 장치에 대한 정보를 획득할 수 있다. 사용자 장치(110)는 작업 장치(120a)에 대한 영상을 표시하기 위한 디스플레이를 구비한다. 예를 들어, 사용자 장치(110)는 스마트 폰, 타블렛 등의 모바일 장치일 수 있다. 다른 예로, 사용자 장치(110)는 사용자의 얼굴에 착용 가능한 VR(virtual reality) 장치일 수 있다. 경우에 따라, 사용자 장치(110)는 카메라를 포함할 수 있다. 이하 설명의 편의를 위해, 사용자 장치(110)에 포함된 카메라는 '사용자 카메라'라 지칭될 수 있다.The user device 110 is a device used at a site where a user is located, and generates commands for controlling a working device 120a and a photographing device 120b. In addition, the user device 110 receives an image of the movement or state of the work device 120a and outputs the image so that the user can view it. To this end, the user device 110 may access the server 130 and obtain information about accessible controlled devices from the server 130 . The user device 110 includes a display for displaying an image of the work device 120a. For example, the user device 110 may be a mobile device such as a smart phone or tablet. As another example, the user device 110 may be a virtual reality (VR) device that can be worn on a user's face. In some cases, the user device 110 may include a camera. For convenience of description below, a camera included in the user device 110 may be referred to as a 'user camera'.

피제어 장치 모듈(120)은 작업 장치(120a)가 위치한 현장에서 사용되는 장비로서, 사용자 장치(110)에서 생성되는 명령들에 의해 제어되는 작업 장치(120a), 작업 장치(120a)를 촬영하는 촬영 장치(120b)를 포함한다. 작업 장치(120a) 및 촬영 장치(120b)는 사용자 장치(110)로부터 수신되는 명령들에 따라 동작한다. 작업 장치(120a)는 로봇, 중장비, 기타 기계 등 물리적인 움직임을 일으킬 수 있는 장치이다. 촬영 장치(120b)는 작업 장치(120a)를 촬영한다. 일 실시 예들에 따라, 촬영 장치(120b)는 작업 장치(120a)의 일부에 부착될 수 있다. 여기서, 촬영 장치(120b)는 하나의 카메라 또는 복수의 카메라들을 포함할 수 있다. 사용자 장치(110)로부터의 명령어의 수신, 사용자 장치(110)로의 영상의 송신은 작업 장치(120a) 또는 촬영 장치(120b) 중 적어도 하나에 의해 수행되며, 또는 별도의 제3의 중계 장치에 의해 수행될 수 있다. 이하 설명의 편의를 위해, 촬영 장치(120b)에 포함되는 카메라는 '원격 카메라'라 지칭될 수 있다.The controlled device module 120 is equipment used in the field where the work device 120a is located, and the work device 120a controlled by commands generated by the user device 110 and the work device 120a are photographed. A photographing device 120b is included. The work device 120a and the photographing device 120b operate according to commands received from the user device 110 . The work device 120a is a device capable of causing physical movement, such as a robot, heavy equipment, or other machine. The photographing device 120b photographs the work device 120a. According to one embodiment, the photographing device 120b may be attached to a part of the working device 120a. Here, the photographing device 120b may include one camera or a plurality of cameras. Receiving a command from the user device 110 and transmitting an image to the user device 110 are performed by at least one of the work device 120a and the photographing device 120b, or by a separate third relay device. can be performed For convenience of description below, a camera included in the photographing device 120b may be referred to as a 'remote camera'.

서버(130)는 제안 기술에 따른 서비스를 제공하기 위한 관리 기능을 제공한다. 서버(130)는 사용자 장치(110) 및 작업 장치(120a) 간 상호 연결을 지원하기 위한 기능들을 수행한다. 예를 들어, 서버(130)는 작업 장치(120a) 또는 피제어 장치 모듈(120)에 대한 등록을 처리하고, 작업 장치(120a)를 포함한 복수의 작업 장치들에 대한 정보를 관리한다. 또한, 서버(130)는 사용자 장치(110)의 요청에 따라 작업 장치(120a) 또는 피제어 장치 모듈(120)에 대한 정보를 제공할 수 있다.The server 130 provides a management function for providing services according to the proposed technology. The server 130 performs functions for supporting interconnection between the user device 110 and the work device 120a. For example, the server 130 processes registration of the work device 120a or the controlled device module 120 and manages information on a plurality of work devices including the work device 120a. In addition, the server 130 may provide information on the work device 120a or the controlled device module 120 according to a request of the user device 110 .

도 2는 본 발명의 실시 예에 따른 사용자 장치(110)의 구조를 도시한다.2 shows a structure of a user device 110 according to an embodiment of the present invention.

도 2를 참고하면, 사용자 장치(110)는 입출력부(210), 통신부(220), 센서부(230), 저장부(240), 제어부(250)를 포함한다.Referring to FIG. 2 , the user device 110 includes an input/output unit 210, a communication unit 220, a sensor unit 230, a storage unit 240, and a control unit 250.

입출력부(210)는 화면을 표시하는 수단 및 외부로부터의 입력을 감지하는 수단을 포함한다. 여기서, 화면을 표시하는 수단은 액정화면 등의 디스플레이로 구현될 수 있다. 입력을 감지하는 수단은 터치패드, 하드웨어 버튼 등을 포함하는 의미이다. 입출력부(210)는 액정화면 및 터치패드가 결합된 터치스크린을 포함할 수 있다. 경우에 따라, 입출력부(210)는 물리적으로 분리된 2 이상의 하드웨어 모듈들의 집합으로 해석될 수 있다.The input/output unit 210 includes means for displaying a screen and means for detecting input from the outside. Here, the means for displaying the screen may be implemented as a display such as a liquid crystal screen. Means for detecting an input include a touch pad, a hardware button, and the like. The input/output unit 210 may include a touch screen in which a liquid crystal screen and a touch pad are combined. In some cases, the input/output unit 210 may be interpreted as a set of two or more physically separated hardware modules.

통신부(220)는 외부 통신망에 접속하고, 데이터/신호/정보를 송신 및 수신하기 위한 기능을 수행한다. 예를 들어, 통신부(220)는 인터넷 망, 무선 통신망, 모바일 통신망 등에 접속하는 기능을 수행할 수 있다. 이를 위해, 통신부(220)는 신호의 변복조, 증폭, 필터링 등의 기능을 수행한다. 통신부(220)는 무선 랜 통신(예: 와이파이), 셀룰러 통신(예: LTE, 5G, 6G) 등의 통신 기술을 지원할 수 있다.The communication unit 220 connects to an external communication network and performs functions for transmitting and receiving data/signal/information. For example, the communication unit 220 may perform a function of accessing an Internet network, a wireless communication network, or a mobile communication network. To this end, the communication unit 220 performs functions such as modulation/demodulation, amplification, and filtering of signals. The communication unit 220 may support communication technologies such as wireless LAN communication (eg, Wi-Fi) and cellular communication (eg, LTE, 5G, 6G).

센서부(230)는 외부의 물리적 현상을 검출한다. 센서부(230)는 가속도 센서, 자이로(gyro) 센서, 기울기 센서, 광(optical) 센서, 지자기 센서, 중력 센서(G-sensor), 온도 센서, 생체 센서, 위치 센서 중 적어도 하나를 포함할 수 있다. 여기서, 자이로 센서는 공간 내에 정의된 3개 축들 중 적어도 하나의 각속도를 측정할 수 있고, 가속도 센서는 3개 축들 중 적어도 하나에 작용하는 가속도를 측정할 수 있다. 센서부(230)은 움직임, 빛, 기울기, 방위 등을 감지하고, 감지 결과를 나타내는 전기적 신호를 생성할 수 있다.The sensor unit 230 detects external physical phenomena. The sensor unit 230 may include at least one of an acceleration sensor, a gyro sensor, a tilt sensor, an optical sensor, a geomagnetic sensor, a gravity sensor (G-sensor), a temperature sensor, a biosensor, and a position sensor. there is. Here, the gyro sensor may measure the angular velocity of at least one of three axes defined in space, and the acceleration sensor may measure acceleration acting on at least one of the three axes. The sensor unit 230 may sense motion, light, tilt, orientation, and the like, and generate an electrical signal representing the detection result.

저장부(240)는 사용자 장치(110)의 동작을 위해 필요한 데이터, 프로그램, 마이크로 코드, 어플리케이션 등을 저장한다. 저장부(240)는 일시적 또는 비일시적 저장 매체로 구현될 수 있다. 또한, 저장부(240)는 장치에 고정되어 있거나, 또는 분리 가능한 형태로 구현될 수 있다.The storage unit 240 stores data, programs, microcodes, applications, and the like necessary for the operation of the user device 110 . The storage unit 240 may be implemented as a temporary or non-transitory storage medium. Also, the storage unit 240 may be fixed to the device or implemented in a detachable form.

제어부(250)는 사용자 장치(110)의 전반적인 동작을 제어한다. 제어부(250)는 프로세서, 마이크로 프로세서 중 적어도 하나를 포함할 수 있다. 제어부(250)는 입출력부(210)를 통해 사용자에게 시각적으로 정보를 표현하거나, 사용자의 입력을 감지할 수 있다. 제어부(250)는 저장부(240)에 저장된 프로그램을 실행하고, 통신부(220)를 통해 외부 장치와 데이터를 송신 또는 수신할 수 있다. 또한, 제어부(250)는 카메라부를 제어하여 정지 영상 또는 동영상(video)을 획득하고, 오디오부(230)를 제어하여 오디오를 출력하거나 소리를 감지하고, 센서부(230)를 통해 센싱 데이터를 획득할 수 있다. 특히, 제어부(250)는 사용자 장치(110)가 후술하는 다양한 실시 예들에 따라 동작하도록 제어한다.The controller 250 controls overall operations of the user device 110 . The controller 250 may include at least one of a processor and a microprocessor. The control unit 250 may visually express information to the user through the input/output unit 210 or detect the user's input. The controller 250 may execute programs stored in the storage 240 and transmit or receive data with an external device through the communication unit 220 . In addition, the controller 250 controls the camera unit to obtain a still image or video, controls the audio unit 230 to output audio or detect sound, and obtains sensing data through the sensor unit 230. can do. In particular, the controller 250 controls the user device 110 to operate according to various embodiments described below.

도 2에 도시되지 아니하였으나, 사용자 장치(110)는 카메라부를 더 포함할 수 있다. 이 경우, 카메라부는 사진 촬영, 비디오 기록 등의 기능을 수행할 수 있다. 카메라부은 영상 센서, 렌즈 등을 포함할 수 있다. 영상 센서로서, CCD(charged coupled device), CMOS(complementary metal-oxide semiconductor) 중 적어도 하나가 사용될 수 있다. 예를 들어, 카메라부는 렌즈를 통해 입력되는 빛을 상기 영상 센서로 인식하고, 상기 영상 센서에서 인식된 영상을 디지털 데이터화한다.Although not shown in FIG. 2 , the user device 110 may further include a camera unit. In this case, the camera unit may perform functions such as photographing and video recording. The camera unit may include an image sensor and a lens. As the image sensor, at least one of a charged coupled device (CCD) and a complementary metal-oxide semiconductor (CMOS) may be used. For example, the camera unit recognizes light input through a lens with the image sensor and converts the image recognized by the image sensor into digital data.

도 3은 본 발명의 실시 예에 따른 작업 장치(120a)의 구조를 도시한다.3 shows the structure of a work device 120a according to an embodiment of the present invention.

도 3을 참고하면, 작업 장치(120a)는 통신부(310), 저장부(320), 구동부(330), 구조부(340), 제어부(350)를 포함한다.Referring to FIG. 3 , the work device 120a includes a communication unit 310, a storage unit 320, a driving unit 330, a structure unit 340, and a control unit 350.

통신부(310)는 외부 장치와 통신을 수행하기 위한 기능을 수행한다. 예를 들어, 통신부(310)는 무선/유선 통신을 지원할 수 있다. 저장부(320)는 작업 장치(120a)의 동작을 위해 필요한 데이터, 프로그램, 마이크로 코드, 어플리케이션 등을 저장한다. 저장부(320)는 일시적 또는 비일시적 저장 매체로 구현될 수 있다. 또한, 저장부(320)는 장치에 고정되어 있거나, 또는 분리 가능한 형태로 구현될 수 있다. The communication unit 310 performs a function for communicating with an external device. For example, the communication unit 310 may support wireless/wired communication. The storage unit 320 stores data, programs, microcodes, and applications necessary for the operation of the work device 120a. The storage unit 320 may be implemented as a temporary or non-transitory storage medium. Also, the storage unit 320 may be fixed to the device or implemented in a detachable form.

구동부(330)는 작업 장치(120a)의 움직임을 위한 동력을 생성한다. 즉, 구동부(330)는 전기적 신호에 대응하는 운동력을 발생시킨다. 예를 들어, 구동부(330)는 회전 운동력을 제공하는 모터, 직선 운동을 위한 서보보터 및 가이드 등을 포함할 수 있다.The driving unit 330 generates power for movement of the work device 120a. That is, the driving unit 330 generates an kinetic force corresponding to the electrical signal. For example, the driving unit 330 may include a motor providing rotational motion, a servomotor and a guide for linear motion, and the like.

구조부(340)는 작업 장치(120a)의 물리적 힘을 외부에 가하기 위한 외관을 형성하는 구조물들을 포함한다. 예를 들어, 구조부(340)는 관절, 골격, 하우징 등을 포함한다. 구조부(340)는 복수의 구성요소들을 포함하며, 구동부(330)에서 발생하는 운동력에 따라 작업 장치(120a)의 움직임을 형성한다.The structure part 340 includes structures forming an exterior for applying the physical force of the work device 120a to the outside. For example, the structure 340 includes joints, skeletons, housings, and the like. The structure unit 340 includes a plurality of components and forms the movement of the working device 120a according to the kinetic force generated by the driving unit 330 .

제어부(350)는 작업 장치(120a)의 전반적인 동작을 제어한다. 제어부(350)는 프로세서, 마이크로 프로세서 중 적어도 하나를 포함할 수 있다. 제어부(350)는 저장부(320)에 저장된 프로그램을 실행하고, 통신부(310)를 통해 외부 장치와 데이터를 송신 또는 수신할 수 있다. 또한, 제어부(350)는 구동부(330)를 동작시키기 위한 신호를 생성 및 공급할 수 있다. 특히, 제어부(350)는 작업 장치(120a)가 후술하는 다양한 실시 예들에 따라 동작하도록 제어한다.The controller 350 controls the overall operation of the work device 120a. The controller 350 may include at least one of a processor and a microprocessor. The controller 350 may execute programs stored in the storage 320 and transmit or receive data with an external device through the communication unit 310 . Also, the control unit 350 may generate and supply a signal for operating the driving unit 330 . In particular, the controller 350 controls the work device 120a to operate according to various embodiments described below.

도 4는 본 발명의 실시 예에 따른 촬영 장치(120b)의 구조를 도시한다.4 illustrates a structure of a photographing device 120b according to an embodiment of the present invention.

도 4를 참고하면, 촬영 장치(120b)는 통신부(410), 저장부(420), 카메라부(430), 제어부(440)를 포함한다.Referring to FIG. 4 , the photographing device 120b includes a communication unit 410, a storage unit 420, a camera unit 430, and a controller 440.

통신부(410)는 외부 장치와 통신을 수행하기 위한 기능을 수행한다. 예를 들어, 통신부(410)는 무선/유선 통신을 지원할 수 있다. 저장부(420)는 촬영 장치(120b)의 동작을 위해 필요한 데이터, 프로그램, 마이크로 코드, 어플리케이션 등을 저장한다. 저장부(420)는 일시적 또는 비일시적 저장 매체로 구현될 수 있다. 또한, 저장부(420)는 장치에 고정되어 있거나, 또는 분리 가능한 형태로 구현될 수 있다. The communication unit 410 performs a function for communicating with an external device. For example, the communication unit 410 may support wireless/wired communication. The storage unit 420 stores data, programs, microcodes, applications, and the like necessary for the operation of the photographing device 120b. The storage unit 420 may be implemented as a temporary or non-transitory storage medium. Also, the storage unit 420 may be fixed to the device or implemented in a detachable form.

카메라부(430)는 사진 촬영, 비디오 기록 등의 기능을 수행할 수 있다. 카메라부(430)은 영상 센서, 렌즈 등을 포함할 수 있다. 영상 센서로서, CCD, CMOS 중 적어도 하나가 사용될 수 있다. 예를 들어, 카메라부(430)는 렌즈를 통해 입력되는 빛을 상기 영상 센서로 인식하고, 상기 영상 센서에서 인식된 영상을 디지털 데이터화한다.The camera unit 430 may perform functions such as photographing and video recording. The camera unit 430 may include an image sensor and a lens. As the image sensor, at least one of CCD and CMOS may be used. For example, the camera unit 430 recognizes light input through a lens with the image sensor, and converts the image recognized by the image sensor into digital data.

제어부(440)는 촬영 장치(120b)의 전반적인 동작을 제어한다. 제어부(440)는 프로세서, 마이크로 프로세서 중 적어도 하나를 포함할 수 있다. 제어부(440)는 저장부(420)에 저장된 프로그램을 실행하고, 통신부(410)를 통해 외부 장치와 데이터를 송신 또는 수신할 수 있다. 또한, 제어부(440)는 카메라부(430)를 제어하여 영상을 획득하고, 영상을 포함하는 스트리밍 데이터를 생성할 수 있다. 특히, 제어부(440)는 촬영 장치(120b)가 후술하는 다양한 실시 예들에 따라 동작하도록 제어한다.The controller 440 controls overall operations of the photographing device 120b. The controller 440 may include at least one of a processor and a microprocessor. The control unit 440 may execute programs stored in the storage unit 420 and transmit or receive data with an external device through the communication unit 410 . In addition, the controller 440 may obtain an image by controlling the camera unit 430 and generate streaming data including the image. In particular, the controller 440 controls the photographing device 120b to operate according to various embodiments described below.

도 5는 본 발명의 실시 예에 따른 서버(130)의 구조를 도시한다.5 shows the structure of the server 130 according to an embodiment of the present invention.

도 5를 참고하면, 서버(130)는 통신부(510), 저장부(520), 제어부(530)를 포함한다.Referring to FIG. 5 , the server 130 includes a communication unit 510, a storage unit 520, and a control unit 530.

통신부(510)는 외부 장치와 통신을 수행하기 위한 기능을 수행한다. 예를 들어, 통신부(510)는 유선 통신을 지원할 수 있다. 저장부(520)는 서버(130)의 동작을 위해 필요한 데이터, 프로그램, 마이크로 코드, 어플리케이션 등을 저장한다. 저장부(520)는 일시적 또는 비일시적 저장 매체로 구현될 수 있다. 또한, 저장부(520)는 장치에 고정되어 있거나, 또는 분리 가능한 형태로 구현될 수 있다. The communication unit 510 performs a function for communicating with an external device. For example, the communication unit 510 may support wired communication. The storage unit 520 stores data, programs, microcodes, applications, and the like necessary for the operation of the server 130 . The storage unit 520 may be implemented as a temporary or non-transitory storage medium. Also, the storage unit 520 may be fixed to the device or implemented in a detachable form.

제어부(530)는 서버(130)의 전반적인 동작을 제어한다. 제어부(530)는 프로세서, 마이크로 프로세서 중 적어도 하나를 포함할 수 있다. 제어부(530)는 저장부(520)에 저장된 프로그램을 실행하고, 통신부(510)를 통해 외부 장치와 데이터를 송신 또는 수신할 수 있다. 특히, 제어부(530)는 서버(130)가 후술하는 다양한 실시 예들에 따라 동작하도록 제어한다.The controller 530 controls overall operations of the server 130 . The controller 530 may include at least one of a processor and a microprocessor. The controller 530 may execute programs stored in the storage 520 and transmit or receive data with an external device through the communication unit 510 . In particular, the controller 530 controls the server 130 to operate according to various embodiments described later.

도 6은 본 발명의 실시 예에 따른 원격 제어 서비스의 개념을 도시한다. 6 illustrates a concept of a remote control service according to an embodiment of the present invention.

도 6을 참고하면, 원격 제어 서비스는 작업 현장(work site)(610)에서 진행되는 동작들 및 사용자 현장(620)에서 진행되는 동작들을 포함한다. 작업 현장(610)에서, 원격 카메라를 이용한 작업 장치의 촬영 동작(612)이 수행된다. 촬영 동작(612)에 의해 획득된 영상은 실시간 스트리밍을 통해 사용자 현장(620)으로 제공된다. 사용자 현장(620)에서, 스트리밍되는 동영상의 출력 동작(622)이 수행된다. 이에 따라, 사용자는 스트리밍 화면을 통해 상황을 인식한다. 동시에, 사용자의 손에 대한 영상을 기반으로 손의 자세 및 사용자 장치의 기울기에 대한 인식 동작(624)이 수행된다. 이어서, 인식 동작(624)을 통해 획득된 손 및/또는 팔에 대한 좌표 값들 및 장치의 기울기에 대한 정보를 작업 장치 및 원격 카메라를 제어하는 제어 신호로 변환하는 제어 신호 연산 동작(626)이 수행된다. 제어 신호는 다시 작업 현장(610)으로 송신되고, 제어 신호에 기반하여 작업 장치 및 원격 카메라에 대한 제어 동작(614)이 수행된다.Referring to FIG. 6 , the remote control service includes operations performed at a work site 610 and operations performed at a user site 620 . At the work site 610, a photographing operation 612 of the work device using a remote camera is performed. An image obtained by the photographing operation 612 is provided to the user site 620 through real-time streaming. At the user site 620, an output operation 622 of the streamed video is performed. Accordingly, the user recognizes the situation through the streaming screen. At the same time, an operation 624 for recognizing the posture of the user's hand and the inclination of the user device is performed based on the image of the user's hand. Subsequently, a control signal calculation operation 626 of converting the coordinate values of the hand and/or arm obtained through the recognition operation 624 and the information on the tilt of the device into a control signal for controlling the working device and the remote camera is performed. do. The control signal is transmitted to the work site 610 again, and a control operation 614 for the work device and the remote camera is performed based on the control signal.

도 6과 같은 서비스에 따라, 사용자는 원격에서 실시간으로 작업 장치를 제어할 수 있다. 이때, 사용자는 자신의 신체 일부(예: 손)를 움직이고, 이에 반응하여 움직이는 작업 장치에 대한 실시간 스트리밍 영상을 볼 수 있다. 도 6은 신체 일부로서 손을 예시하였으나, 손 위 다른 신체 부위를 이용하여 작업 장치가 제어될 수 있다. 또한, 작업 장치를 촬영하는 원격 카메라는 사용자 카메라의 자세에 따라 제어될 수 있다. 이와 같이, 사용자의 신체 일부의 움직임 및 사용자 장치의 움직임에 응하여 작업 장치 및 원격 카메라가 제어된다면, 사용자는 마치 작업 장치가 자신의 신체의 일부인 것과 같은 사용자 경험(user experience, UX)를 얻을 수 있을 것이다. 즉, 본 발명의 다양한 실시 예들에 따른 서비스는 사용자에게 매우 직관적인 작업 장치 및 카메라 제어 방법을 제공한다.According to the service shown in FIG. 6 , the user can remotely control the work device in real time. In this case, the user may move a part of his/her body (eg, a hand) and view a real-time streaming image of the working device moving in response thereto. 6 illustrates the hand as a body part, the work device may be controlled using other body parts on the hand. In addition, a remote camera taking pictures of the work device may be controlled according to the posture of the user's camera. In this way, if the work device and the remote camera are controlled in response to the movement of a part of the user's body and the movement of the user device, the user can obtain a user experience (UX) as if the work device is a part of the user's body. will be. That is, the service according to various embodiments of the present disclosure provides a very intuitive work device and camera control method to the user.

도 7은 본 발명의 실시 예에 따라 작업 장치 및 카메라를 제어하는 동작 절차를 도시한다. 도 7은 사용자 장치(110)에 의해 수행되는 동작들을 보여준다.7 illustrates an operating procedure for controlling a work device and a camera according to an embodiment of the present invention. 7 shows operations performed by user device 110 .

도 7을 참고하면, 701 단계에서, 사용자 장치(110)는 작업 장치(120a)에 대한 실시간 동영상을 표시한다. 실시간 동영상은 작업 장치(120a)의 인근에 배치된 촬영 장치(120b)에 의해 생성된다. 사용자 장치(110)는 작업 장치(120a)를 촬영하는 원격 카메라에 의해 생성된 동영상 데이터를 수신하고, 동영상 데이터를 디코딩함으로써 동영상 정보를 복원한 후, 구비된 디스플레이를 이용하여 실시간 동영상을 출력한다. 이때, 다양한 실시 예들에 따라, 작업 장치(120a)에 대한 실시간 동영상에 더하여, 작업 장치(120a) 및 촬영 장치(120b) 중 적어도 하나의 제어를 위해 필요한 부가적인 정보 또는 인터페이스가 함께 표시될 수 있다.Referring to FIG. 7 , in step 701, the user device 110 displays a real-time video of the work device 120a. A real-time video is generated by a photographing device 120b disposed near the work device 120a. The user device 110 receives video data generated by a remote camera that captures the work device 120a, restores video information by decoding the video data, and outputs a real-time video using the provided display. At this time, according to various embodiments, in addition to the real-time video of the work device 120a, additional information or interface required for controlling at least one of the work device 120a and the photographing device 120b may be displayed together. .

702 단계에서, 사용자 장치(110)는 사용자의 신체 일부의 움직임에 기반하여 작업 장치(120a)를 원격 제어한다. 구체적으로, 사용자 카메라는 사용자의 신체의 적어도 일부의 움직임을 인식하고, 작업 장치(120a)를 제어하기 위한 적어도 하나의 명령어를 생성한다. 그리고, 사용자 장치는 적어도 하나의 명령어를 작업 장치(120a)에게 송신함으로써, 작업 장치(120a)를 원격 제어할 수 있다. 이에 따라, 도 7에 도시되지 아니하였으나, 사용자 장치는 적어도 하나의 명령어에 따라 제어되는 작업 장치(120a)의 모습을 다시 실시간 동영상으로 표시할 수 있다. In step 702, the user device 110 remotely controls the work device 120a based on the movement of a part of the user's body. Specifically, the user's camera recognizes the movement of at least a part of the user's body and generates at least one command for controlling the work device 120a. In addition, the user device may remotely control the work device 120a by transmitting at least one command to the work device 120a. Accordingly, although not shown in FIG. 7 , the user device may display the appearance of the work device 120a controlled according to at least one command as a real-time video again.

703 단계에서, 사용자 장치(110)는 사용자 장치(110)의 기울기에 기반하여 작업 장치(120a)를 촬영하는 원격 카메라를 원격 제어한다. 구체적으로, 사용자 장치(110)는, 사용자 장치(110)의 기울기에 따라, 원격 카메라의 촬영 각도를 제어하기 위한 적어도 하나의 명령어를 생성하고, 생성된 적어도 하나의 명령어를 촬영 장치(120b)에게 송신할 수 있다. 이로 인해, 사용자 장치(110)의 기울기가 변화함에 따라, 원격 카메라의 촬영 각도가 변화하고, 스트리밍을 통해 보여지는 화면이 달라질 수 있다.In step 703, the user device 110 remotely controls a remote camera that takes pictures of the work device 120a based on the tilt of the user device 110. Specifically, the user device 110 generates at least one command for controlling a photographing angle of a remote camera according to the tilt of the user device 110, and sends the generated at least one command to the photographing device 120b. can be sent For this reason, as the tilt of the user device 110 changes, the shooting angle of the remote camera changes, and the screen displayed through streaming may change.

도 7을 참고하여 설명한 실시 예에서, 신체 일부의 움직임이 인식된다. 신체 일부의 움직임은 다양한 기술에 의해 인식될 수 있다. 일 실시 예에 따라, 신체 일부의 움직임은 신체 일부를 촬영한 영상을 이용하여 인식될 수 있다. 이 경우, 작업 장치(120a)를 제어하기 위한 적어도 하나의 명령어는 촬영된 영상에서 검출되는 피사체(예: 손)에 자세(pose), 피사체 및 촬영을 위한 카메라 렌즈 간 거리, 피사체가 보여지는 각도, 피사체의 위치(예: 3차원 좌표) 중 적어도 하나에 기반하여 생성될 수 있다. 다른 실시 예에 따라, 신체 일부의 움직임은 신체 일부에 착용된 웨어러블 장치를 이용하여 인식될 수 있다. 예를 들어, 센서, 프로세서, 통신기를 구비한 장갑 형태의 컨트롤러가 손의 자세 및 움직임을 인식하기 위해 이용될 수 있다.In the embodiment described with reference to FIG. 7 , movement of a body part is recognized. Movement of a body part can be recognized by various technologies. According to an embodiment, movement of a body part may be recognized using an image obtained by capturing the body part. In this case, at least one command for controlling the work device 120a is a pose of a subject (eg, hand) detected in a photographed image, a distance between the subject and a camera lens for photographing, and an angle at which the subject is viewed. , It may be generated based on at least one of the location of the subject (eg, 3-dimensional coordinates). According to another embodiment, movement of a body part may be recognized using a wearable device worn on the body part. For example, a glove-type controller equipped with sensors, processors, and communicators may be used to recognize hand postures and movements.

도 8은 본 발명의 실시 예에 따라 작업 장치를 촬영하는 카메라의 구조의 예를 도시한다. 도 8은 촬영 장치(120b)에 포함되는 원격 카메라의 구조를 예시한다. 도 8에 예시된 원격 카메라의 외형은 일 예에 불과하며, 도 8에 예시된 외형에 본 발명이 제한되는 것은 아니다.8 illustrates an example of a structure of a camera for photographing a work device according to an embodiment of the present invention. 8 illustrates a structure of a remote camera included in the photographing device 120b. The external appearance of the remote camera illustrated in FIG. 8 is only an example, and the present invention is not limited to the external appearance illustrated in FIG. 8 .

도 8을 참고하면, 원격 카메라는 렌즈부(802), 앙각(elevation) 구동부(812), 방위각(azimuth) 구동부(814), 베이스(816)를 포함한다. Referring to FIG. 8 , the remote camera includes a lens unit 802, an elevation driving unit 812, an azimuth driving unit 814, and a base 816.

렌즈부(802)는 빛을 수용하여 이미지 신호를 생성한다. 예를 들어, 렌즈부(802)는 빛을 수집하는 적어도 하나의 렌즈, 빛에 대응하는 신호를 생성하는 적어도 하나의 센서를 포함할 수 있다. 또한, 렌즈부(802)는 화각 제어 등을 위한 물리적 구동 수단을 더 포함할 수 있다.The lens unit 802 receives light and generates an image signal. For example, the lens unit 802 may include at least one lens that collects light and at least one sensor that generates a signal corresponding to the light. In addition, the lens unit 802 may further include a physical driving means for controlling the angle of view.

앙각 구동부(812)는 렌즈부(802)가 향하는 방향을 수직 방향으로 변화시킨다. 앙각 구동부(812)는 방위각 구동부(814)에 고정되어 있으며, X 축에 평행한 축 A-A를 중심으로 회전 운동할 수 있다. 이에 따라, 앙각 구동부(812)는 렌즈부(802)가 향하는 방향, 즉, 원격 카메라의 촬영 방향의 앙각을 조절할 수 있다.The elevation angle driver 812 changes the direction of the lens unit 802 to a vertical direction. The elevation driving unit 812 is fixed to the azimuth driving unit 814 and can rotate around an axis A-A parallel to the X axis. Accordingly, the elevation angle driving unit 812 may adjust the elevation angle in the direction the lens unit 802 faces, that is, in the photographing direction of the remote camera.

방위각 구동부(814)는 렌즈부(802)가 향하는 방향을 수평 방향으로 변화시킨다. 방위각 구동부(814)는 베이스(816)에 고정되어 있으며, Z 축에 평행한 축 B-B를 중심으로 회전 운동할 수 있다. 이에 따라, 앙각 구동부(812)는 렌즈부(802)가 향하는 방향, 즉, 원격 카메라의 촬영 방향의 방위각을 조절할 수 있다.The azimuth driving unit 814 changes the direction of the lens unit 802 to a horizontal direction. The azimuth drive unit 814 is fixed to the base 816 and can rotate about an axis B-B parallel to the Z axis. Accordingly, the elevation angle driving unit 812 may adjust the azimuth angle of the direction in which the lens unit 802 faces, that is, the shooting direction of the remote camera.

베이스(816)는 다른 구성요소들을 지지하는 구성요소이다. 베이스(816)는 원격 카메라를 지정된 장소에 설치 및 고정하기 위한 연결 부재로 기능할 수 있다. 예를 들어, 베이스(816)는 작업 장치(120a)의 특정 구성요소 상에 설치될 수 있고, 또는 작업 장치(120a)을 촬영하기에 적합한, 작업 장치(120a)와 이격된 위치에 고정될 수 있다.Base 816 is a component that supports other components. The base 816 may function as a connection member for installing and fixing the remote camera to a designated location. For example, the base 816 may be installed on a specific component of the work device 120a, or may be fixed at a position spaced apart from the work device 120a, suitable for photographing the work device 120a. there is.

도 8의 예와 같이, 원격 카메라의 촬영 방향은 앙각 및 방위각의 조합으로 특정될 수 있다. 즉, 일 실시 예에 따른 원격 카메라의 촬영 방향은 2개 축들의 회전에 의해 결정될 수 있다. 이 경우, 원격 카메라의 촬영 방향은 앙각 및 방위각을 제어함으로써 조절될 수 있다. 다른 실시 예에 따라, 원격 카메라는 다른 구조를 가질 수 있으며, 구조에 따라 원격 카메라의 촬영 방향은 3개 이상의 축들의 회전에 의해 결정될 수 있다. 즉, 다양한 실시 예들에 따라, 원격 카메라의 촬영 방향은 적어도 하나의 축의 회전에 의해 결정될 수 있다. 원격 카메라의 촬영 방향을 결정하는 적어도 하나의 축에서의 각도는 사용자 장치(110)에 의해 생성되는 명령어들에 의해 제어될 수 있으며, 그 절차의 일 예는 이하 도 9와 같다.As in the example of FIG. 8 , the photographing direction of the remote camera may be specified as a combination of an elevation angle and an azimuth angle. That is, the photographing direction of the remote camera according to an embodiment may be determined by rotation of two axes. In this case, the photographing direction of the remote camera can be adjusted by controlling elevation and azimuth. According to another embodiment, the remote camera may have a different structure, and depending on the structure, the shooting direction of the remote camera may be determined by rotation of three or more axes. That is, according to various embodiments, a photographing direction of the remote camera may be determined by rotation of at least one axis. The angle of at least one axis that determines the photographing direction of the remote camera may be controlled by commands generated by the user device 110, and an example of the procedure is shown in FIG. 9 below.

도 9는 본 발명의 실시 예에 따라 작업 장비를 촬영하는 카메라를 제어하기 위한 신호를 생성하는 동작 절차를 도시한다. 도 9는 사용자 장치(110)에 의해 수행되는 동작들을 보여준다.9 illustrates an operating procedure for generating a signal for controlling a camera taking pictures of work equipment according to an embodiment of the present invention. 9 shows operations performed by user device 110 .

도 9를 참고하면, 901 단계에서. 사용자 장치(110)는 사용자 장치(110)의 기울기를 측정한다. 일 실시 예에 따라, 기울기는, 자이로 센서, 가속도 센서, 기울기 센서 중 적어도 하나를 이용하여 측정될 수 있다. 일 실시 예에 따라, 사용자 장치(110)가 카메라를 포함하는 경우, 사용자 장치(110)의 기울기는 사용자 카메라의 기울기로 이해될 수 있다.Referring to Figure 9, in step 901. The user device 110 measures the inclination of the user device 110 . According to an embodiment, the inclination may be measured using at least one of a gyro sensor, an acceleration sensor, and a tilt sensor. According to an embodiment, when the user device 110 includes a camera, the tilt of the user device 110 may be understood as the tilt of the user's camera.

902 단계에서, 사용자 장치(110)는 기울기에 기반하여 원격 카메라에 대한 제어 명령을 생성한다. 제어되는 원격 카메라는 작업 장치(120a)를 촬영하고 있다. 사용자 장치(110)는 901 단계에서 측정된 기울기가 어느 축에서의 얼마 만큼의 각도 변화를 포함하고 있는지 확인하고, 확인된 축 및 각도 변화에 기반하여 원격 카메라의 적어도 하나의 축에서의 각도 변화량을 결정한다. 다시 말해, 사용자 장치(110)는 기울기를 원격 카메라에서 지원되는 적어도 하나의 회전 축(예: X축, Z축)에서의 각도 변화량으로 환산할 수 있다. 그리고, 사용자 장치(110)는 결정된 각도 변화량을 지시하는 적어도 하나의 명령어를 생성한다. 여기서, 적어도 하나의 명령어는 동기화된 기준 방향 대비 적어도 하나의 각도 값을 지시하거나, 또는 직전에 송신된 각도 대비 각도 변화량을 지시할 수 있다. 이때, 다양한 실시 예들에 따라, 제어 명령의 생성은 일정한 시간 간격으로 생성되거나, 또는 사용자 장치(110)의 기울기 변화가 발생하고 변화가 일정 임계 시간 이상 중단된 경우에 생성될 수 있다.In step 902, the user device 110 generates a control command for the remote camera based on the tilt. The controlled remote camera is taking pictures of the working device 120a. The user device 110 checks how much angular change in which axis the inclination measured in step 901 includes, and calculates the amount of angular change in at least one axis of the remote camera based on the confirmed axis and angle change. Decide. In other words, the user device 110 may convert the inclination into an angular change amount in at least one rotation axis (eg, X axis, Z axis) supported by the remote camera. Then, the user device 110 generates at least one command indicating the determined angular change amount. Here, the at least one command may indicate at least one angular value relative to the synchronized reference direction or an angular change amount relative to an angle transmitted immediately before. At this time, according to various embodiments, the generation of the control command may be generated at regular time intervals or when a tilt change of the user device 110 occurs and the change is stopped for a predetermined threshold time or longer.

903 단계에서, 사용자 장치(110)는 촬영 장치(120b)에게 제어 명령을 송신한다. 촬영 장치(120b) 및 작업 장치(120a)가 하나의 장치로 구현된 경우, 제어 명령은 작업 장치(120a)에게 송신되는 것으로도 이해될 수 있다. 사용자 장치(110)는 설정된 통신 프로토콜에 따라 제어 명령을 포함하는 제어 신호를 생성하고, 생성된 제어 신호를 통신망을 통해 송신할 수 있다.In step 903, the user device 110 transmits a control command to the photographing device 120b. When the photographing device 120b and the working device 120a are implemented as one device, it may be understood that the control command is transmitted to the working device 120a. The user device 110 may generate a control signal including a control command according to a set communication protocol and transmit the generated control signal through a communication network.

도 10은 본 발명의 실시 예에 따른 사용자 장치의 기울기에 따른 원격 카메라의 제어의 예를 도시한다. 도 10은 사용자 장치가 VR 장치인 경우를 예시하나, 사용자 장치가 다른 종류의 장치(예: 스마트폰)인 경우에도 유사하게 원격 카메라가 제어될 수 있다.10 illustrates an example of controlling a remote camera according to an inclination of a user device according to an embodiment of the present invention. 10 illustrates a case where the user device is a VR device, a remote camera can be similarly controlled even when the user device is a device of another type (eg, a smartphone).

도 10을 참고하면, 사용자 장치(120a)의 기울기는 4개의 회전 방향들(1001 내지 1004) 중 어느 하나 또는 둘 이상의 조합에 대한 회전으로 해석될 수 있다. 일 실시 예에 따라, 사용자 장치(120a)가 기울어지면, 기울어짐은 4개의 회전 방향들(1001 내지 1004)의 회전각 조합으로 표현될 수 있다. 예를 들어, 사용자가 사용자 자치(120a)를 착용한 상태에서 고개를 좌측으로 15°돌리면, 이러한 움직임은 제2 방향(1002)으로의 15°회전이므로, {0,15°,0,0}으로 표현될 있다. 다른 예로, 사용자가 사용자 장치(120a)를 착용한 상태에서 고개를 좌측으로 10°, 아래로 10°에 해당하는 좌하단 사선 방향으로 돌리면, 이러한 움직임은 제2 방향(1002)으로의 10°회전, 제3 방향(1003)으로의 10°의 회전이므로, {0,10°,10°,0}으로 표현될 있다. 이에 대응하여, 원격 카메라의 앙각 구동부(812), 방위각 구동부(814) 중 적어도 하나가 회전할 수 있다. 일 실시 예에 따라, 제1 방향(1001) 또는 제3 방향(1003)에서의 회전이 인식되면, 앙각 구동부(812)가 축 A-A를 중심으로 회전할 것이다. 예를 들어, 제1 방향(1001)에서 10°회전이 검출되면, 앙각 구동부(812)가 축 A-A를 중심으로 +10°회전할 수 있다. 일 실시 예에 따라, 제2 방향(1002) 또는 제4 방향(1004)에서의 회전이 인식되면, 방위각 구동부(814)가 축 B-B를 중심으로 회전할 것이다. 예를 들어, 제4 방향(1004)에서 10°회전이 검출되면, 방위각 구동부(814)가 축 B-B를 중심으로 -10°회전할 수 있다. Referring to FIG. 10 , the inclination of the user device 120a may be interpreted as rotation in any one of four rotational directions 1001 to 1004 or a combination of two or more. According to an embodiment, when the user device 120a is tilted, the tilt may be expressed as a rotation angle combination of four rotation directions 1001 to 1004 . For example, if the user turns his/her head 15° to the left while wearing the user chair 120a, since this movement is a 15° rotation in the second direction 1002, {0,15°,0,0} can be expressed as As another example, if the user turns his/her head in the lower left oblique direction corresponding to 10° left and 10° downward while wearing the user device 120a, this movement is a 10° rotation in the second direction 1002. , since it is a rotation of 10° in the third direction 1003, it can be expressed as {0,10°,10°,0}. Correspondingly, at least one of the elevation driving unit 812 and the azimuth driving unit 814 of the remote camera may rotate. According to an embodiment, when rotation in the first direction 1001 or the third direction 1003 is recognized, the elevation driving unit 812 will rotate about the axis A-A. For example, when a rotation of 10° is detected in the first direction 1001, the elevation driving unit 812 may rotate +10° about the axis A-A. According to an embodiment, when rotation in the second direction 1002 or the fourth direction 1004 is recognized, the azimuth driving unit 814 will rotate about the axis B-B. For example, when a 10° rotation is detected in the fourth direction 1004 , the azimuth driving unit 814 may rotate -10° about the axis B-B.

전술한 실시 예와 같이, 사용자 장치(110)의 기울기가 원격 카메라의 적어도 하나의 축에서의 회전 각도로 변환될 수 있다. 이때, 사용자 장치(110)에서 기울기를 인식하는 축들 및 원격 카메라에서 지원하는 회전 축들이 동일하면, 원격 카메라에 적용되는 회전 각도는 인식된 기울기의 각도로부터 직접적으로 얻어질 수 있다. 하지만, 사용자 장치(110)에서 기울기를 인식하는 축들 및 원격 카메라에서 지원하는 회전 축들이 서로 다르면, 회전 축의 차이를 고려하여 회전 각도를 변환하는 알고리즘이 필요할 수 있다. 이에, 사용자 장치(110)는 복수의 변환 알고리즘들을 보유하고, 원격 카메라에서 지원되는 회전 축들의 구조에 따라 적합한 하나의 변환 알고리즘을 선택 및 적용할 수 있다. 이때, 카메라에서 지원되는 회전 축들의 구조에 대한 정보는, 작업 장치를 검색하는 과정에서 서버(130)로부터 제공될 수 있다.As in the above-described embodiment, an inclination of the user device 110 may be converted into a rotation angle of at least one axis of the remote camera. In this case, if axes for recognizing the tilt in the user device 110 and rotation axes supported by the remote camera are the same, a rotation angle applied to the remote camera may be directly obtained from the angle of the recognized tilt. However, if the axes recognizing the tilt of the user device 110 and the rotation axes supported by the remote camera are different from each other, an algorithm for converting the rotation angle in consideration of the difference in rotation axes may be required. Accordingly, the user device 110 may have a plurality of transformation algorithms, select and apply one suitable transformation algorithm according to the structure of rotation axes supported by the remote camera. In this case, information on the structure of rotational axes supported by the camera may be provided from the server 130 in the process of searching for a work device.

도 9를 참고하여 설명한 바와 같이, 사용자 장치(110)의 기울기에 따라 원격 카메라의 촬영 방향이 제어될 수 있다. 예를 들어, 사용자 카메라가 사용자 장치(110)의 구성요소인 경우, 사용자 장치(110)의 기울임은 사용자 카메라의 기울임을 의미한다. 이 경우, 사용자 장치(110)의 기울기 변화에 의해 사용자 카메라에 의해 촬영되는 영상의 촬영 방향도 변화할 것이다. 따라서, 다른 실시 예에 따라, 기울기는, 센서가 아니라, 사용자 카메라에 의해 촬영되는 영상에 기반하여 측정될 수 있다. 이 경우, 901 단계에서, 사용자 장치(110)는 사용자 카메라에 의해 촬영되는 영상을 분석함으로써 사용자 카메라의 촬영 방향 변화를 인지하고, 이에 기반하여 사용자 장치(110)의 기울기를 측정할 수 있다.As described with reference to FIG. 9 , a photographing direction of a remote camera may be controlled according to an inclination of the user device 110 . For example, when the user camera is a component of the user device 110, the tilt of the user device 110 means the tilt of the user camera. In this case, the photographing direction of the image photographed by the user camera will also change due to the change in the tilt of the user device 110 . Accordingly, according to another embodiment, the slope may be measured based on an image captured by a user's camera rather than a sensor. In this case, in step 901, the user device 110 may recognize a change in the shooting direction of the user camera by analyzing the image captured by the user camera, and measure the tilt of the user device 110 based on this.

또한, 사용자 카메라가 사용자 장치(110)의 구성요소인 경우, 사용자 장치(110)의 기울임은 사용자 카메라의 기울임을 의미한다. 이에 따라, 결과적으로, 사용자 카메라의 기울기 변화가, 원격 카메라의 촬영 방향의 변화를 야기한다. 이때, 사용자 카메라의 기울기 변화로부터 환산된 특정 축의 각도 변화량이 원격 카메라의 특정 축의 각도 변화량으로 1:1 비율로 변환되면, 사용자 카메라의 촬영 각도 변화 및 원격 카메라의 촬영 각도 변화가 동기화된 상태로 이해될 수 있다. 이 경우, 사용자는 사용자 장치(110)를 기울임으로써 원격 카메라를 직접 제어하고 있는 듯한 사용자 경험을 겪게 될 것이며, 이는 마치 사용자 현장의 카메라로 작업 장치를 직접 촬영하고 있는 현장감을 느끼게 할 것이다.Also, when the user camera is a component of the user device 110, the tilt of the user device 110 means the tilt of the user camera. Accordingly, as a result, a change in tilt of the user's camera causes a change in the photographing direction of the remote camera. At this time, if the angle change of a specific axis converted from the tilt change of the user camera is converted to the angle change of the specific axis of the remote camera at a 1:1 ratio, the change of the user camera's shooting angle and the remote camera's shooting angle change are understood to be in a synchronized state. It can be. In this case, the user will experience a user experience as if directly controlling the remote camera by tilting the user device 110, and this will give the user a sense of realism as if the user is directly photographing the work device with a camera in the user's field.

일 실시 예에 따라, 사용자 카메라가 사용자 장치(110)의 구성요소가 아닐 수 있다. 이 경우, 901 단계에서 사용자 장치(110)의 기울기를 측정하는 동작은, 사용자 카메라를 포함하는 다른 장치의 기울기를 측정하는 동작으로 대체될 수 있다. 다만, 다른 실시 예에 따라, 사용자 카메라가 사용자 장치(110)의 구성요소가 아니더라도, 여전히 사용자 장치(110)의 기울기에 기반하여 제2 카메라의 촬영 방향이 제어될 수 있다.According to an embodiment, a user camera may not be a component of the user device 110 . In this case, the operation of measuring the tilt of the user device 110 in step 901 may be replaced with an operation of measuring the tilt of another device including the user's camera. However, according to another embodiment, even if the user camera is not a component of the user device 110, the shooting direction of the second camera may still be controlled based on the tilt of the user device 110.

도 11은 본 발명의 실시 예에 따라 작업 장치를 제어하기 위한 신호를 생성하는 동작 절차를 도시한다. 도 11은 사용자 장치(110)에 의해 수행되는 동작들을 보여준다. 도 11은 손을 이용하여 제어 메시지를 생성하는 경우를 예시하나, 본 발명은 다른 신체 일부(예: 팔, 다리, 발, 머리, 얼굴 등)를 이용하는 경우에도 확장될 수 있다.11 illustrates an operating procedure for generating a signal for controlling a work device according to an embodiment of the present invention. 11 shows operations performed by user device 110 . 11 illustrates a case of generating a control message using a hand, the present invention can be extended to a case of using other body parts (eg, arms, legs, feet, head, face, etc.).

도 11을 참고하면, 1101 단계에서, 사용자 장치(110)는 손의 자세를 인식한다. 여기서, 손의 자세는 손에 포함되는 관절들의 위치, 손의 각 부위의 위치 및 각도, 관절에 연결된 두 부위들이 이루는 각도 등을 포함하는 의미이다. 다양한 실시 예들에 따라, 사용자 장치(110)는 적어도 하나의 센서를 이용하여 획득되는 센싱 데이터에 기반하여, 또는 손을 촬영한 영상에 기반하여 손의 자세를 결정할 수 있다.Referring to FIG. 11 , in step 1101, the user device 110 recognizes the posture of the hand. Here, the posture of the hand is meant to include positions of joints included in the hand, positions and angles of each part of the hand, angles formed by two parts connected to the joint, and the like. According to various embodiments, the user device 110 may determine the posture of the hand based on sensing data acquired using at least one sensor or based on an image of the hand.

1102 단계에서, 사용자 장치(110)는 손의 자세에 기반하여 작업 장치(120a)에 대한 제어 명령을 생성한다. 제어되는 작업 장치(120a)는 사람의 손 또는 팔을 모방한 형상을 가지며, 작업 장치(120a)의 관절들 각각은 손의 적어도 하나의 관절에 대응하며, 대응되는 손의 관절의 각도가 작업 장치(120a)의 관절의 각도로 환산된다. 다양한 실시 예들에 따라, 사용자 장치(110)는 일정 시간 간격에 따라 주기적으로 또는 설정된 조건에 따른 타이밍에 인식된 손의 자세들을 이용하여 작업 장치(120a)를 제어하기 위한 명령어를 생성할 수 있다. 여기서, 명령어는 현재 검출된 관절의 각도들의 절대값들을 지시하거나, 또는 직전에 송신된 각도들 대비 변화값들을 지시할 수 있다.In step 1102, the user device 110 generates a control command for the work device 120a based on the posture of the hand. The controlled working device 120a has a shape imitating a human hand or arm, each of the joints of the working device 120a corresponds to at least one joint of the hand, and the angle of the corresponding joint of the hand corresponds to the working device 120a. It is converted into the angle of the joint of (120a). According to various embodiments, the user device 110 may generate a command to control the work device 120a periodically according to a predetermined time interval or using the recognized hand postures at a timing according to a set condition. Here, the command may indicate absolute values of angles of the currently detected joint or change values compared to angles transmitted immediately before.

1103 단계에서, 사용자 장치(110)는 작업 장치(120a)에게 제어 명령을 송신한다. 사용자 장치(110)는 작업 장치(120a)에게 제어 명령을 송신한다. 사용자 장치(110)는 설정된 통신 프로토콜에 따라 제어 명령을 포함하는 제어 신호를 생성하고, 생성된 제어 신호를 통신망을 통해 송신할 수 있다.In step 1103, the user device 110 transmits a control command to the work device 120a. The user device 110 transmits a control command to the work device 120a. The user device 110 may generate a control signal including a control command according to a set communication protocol and transmit the generated control signal through a communication network.

도 11을 참고하여 설명한 실시 예에서, 손의 자세에 기반하여 작업 장치의 동작을 제어하기 위한 명령이 생성된다. 이를 위해, 손의 자세에 대한 인식이 요구된다. 다양한 실시 예들에 따라, 손의 자세는 적어도 하나의 센서를 구비한, 손에 착용하는 컨트롤러를 이용하여 인식되거나 또는 손을 촬영한 영상을 이용하여 인식될 수 있다.In the embodiment described with reference to FIG. 11 , a command for controlling the operation of the work device is generated based on the posture of the hand. To this end, awareness of the hand posture is required. According to various embodiments, the posture of the hand may be recognized using a hand-worn controller equipped with at least one sensor or may be recognized using an image of the hand.

일 실시 예에 따라, 사용자는 손의 자세를 추적(tracking)하는 능력을 가진 글로브 형태의 웨어러블 장비를 착용한 상태에서, 작업 장치(120a)를 제어하기 위해 손을 움직일 수 있다. 사용자 장치(110)는 웨어러블 장비와 통신 링크를 수립하고, 통신 링크를 통해 수신되는 웨어러블 장비에 의해 측정된 센싱 데이터에 기반하여 사용자의 손의 자세를 인식할 수 있다.According to an embodiment, the user may move his or her hand to control the work device 120a while wearing a glove-type wearable device capable of tracking the posture of the hand. The user device 110 may establish a communication link with the wearable device and recognize the posture of the user's hand based on sensing data received through the communication link and measured by the wearable device.

다른 실시 예에 따라, 사용자는 사용자 장치(110)에 구비된 카메라를 이용하여 손을 촬영하는 상태에서, 작업 장치(120a)를 제어하기 위해 손을 움직일 수 있다. 이에 따라, 사용자 장치(110)는 사용자의 손에 대한 영상들을 획득한다. 카메라는 사용자의 손을 촬영하고 있으며, 영상들은 손의 형태를 확인할 수 있도록 생성된다. 사용자 장치(110)는 영상 분석 알고리즘 또는 인공지능 알고리즘을 이용하여 손의 자세를 인지할 수 있다. 나아가, 영상들은 동영상을 구성하므로, 사용자 장치(110)는 각 영상에서의 손의 자세는 물론, 손의 자세의 변화도 결정할 수 있다. 예를 들어, 사용자 장치(110)는 연속하는 영상들에서 일정 시간 간격에 따라 주기적으로 추출된 영상들 또는 설정된 조건에 따라 선택된 영상들에 기반하여 결정된 손의 자세들을 이용하여 작업 장치(120a)를 제어하기 위한 명령어를 생성할 수 있다. 이 경우, 작업 장치에 대한 제어 명령은 손에 대한 영상에 기반하여 결정되므로, 손의 자세를 추적하는 별도의 하드웨어(예: 웨어러블 장치) 없이도, 사용자의 신체에 기반한 제어 명령을 생성하는 것이 가능하다. According to another embodiment, the user may move his hand to control the work device 120a while photographing his hand using a camera provided in the user device 110 . Accordingly, the user device 110 acquires images of the user's hand. The camera captures the user's hand, and images are generated to check the shape of the hand. The user device 110 may recognize the posture of the hand using an image analysis algorithm or an artificial intelligence algorithm. Furthermore, since the images constitute a moving picture, the user device 110 can determine not only the posture of the hand in each image, but also a change in the posture of the hand. For example, the user device 110 moves the work device 120a using postures of the hands determined based on images periodically extracted from consecutive images at predetermined time intervals or images selected according to set conditions. You can create commands to control. In this case, since the control command for the work device is determined based on the image of the hand, it is possible to generate a control command based on the user's body without additional hardware (e.g., wearable device) tracking the posture of the hand. .

카메라를 이용하여 촬영된 영상을 이용하는 경우, 2차원 영상에서 손의 자세를 인식한 결과를 통해 얻어지는 정보는 2차원 좌표의 형식으로 얻어진다. 따라서, 사용자 장치(110)는, 작업 장치를 촬영하기 위해 사용되는 카메라의 화각을 고려하여, 2차원 좌표로부터 3차원 좌표를 계산한다. 통상, 하나의 센서를 이용하여 2차원 깊이를 센싱하기 위해서 ToF(time of flight) 센서를 필요로 한다. 그러나, 본 발명의 제안 기술은 ToF 센서 없이도 범용적 카메라 센서만을 이용한 3차원 좌표 인식을 가능하게 한다.In the case of using an image captured using a camera, the information obtained through the result of recognizing the posture of the hand in the 2D image is obtained in the form of 2D coordinates. Accordingly, the user device 110 calculates 3D coordinates from 2D coordinates in consideration of the angle of view of a camera used to photograph the work device. In general, a time of flight (ToF) sensor is required to sense a two-dimensional depth using one sensor. However, the proposed technology of the present invention enables 3D coordinate recognition using only a general-purpose camera sensor without a ToF sensor.

전술한 바와 같이, 손의 자세를 인식하기 위해 센싱 데이터 또는 영상이 이용될 수 있다. 이때, 센싱 데이터 및 영상은 지속적으로 발생되나, 센싱 데이터 또는 영상의 프레임들 중 전체 또는 일부가 제어 명령을 생성하기 위해 이용될 수 있다. 이하, 센싱 데이터 및 영상의 프레임들은 '샘플'로 지칭된다.As described above, sensing data or images may be used to recognize the posture of the hand. In this case, sensing data and images are continuously generated, but all or some of the frames of the sensing data or images may be used to generate a control command. Hereinafter, frames of sensing data and images are referred to as 'samples'.

일 실시 예에 따라, 샘플들은 일정 시간 간격에 따라 주기적으로 추출될 수 있다. 이 경우, 사용자 장치(110)는 일정 시간 경과 시 마다 샘플을 추출하고, 추출된 샘플에 기반하여 손의 자세를 검출한다. 이때, 샘플 추출을 위한 시간 간격은 실험에 의해 적절한 값으로 설정될 수 있다. 또는, 작업 장치의 종류, 작업 장치의 사용 목적, 통신 네트워크의 지연(delay) 등 다양한 환경 요인에 기반하여, 시간 간격이 적응적으로 조절될 수도 있다.According to an embodiment, samples may be periodically extracted according to a predetermined time interval. In this case, the user device 110 extracts a sample every time a predetermined time elapses, and detects the posture of the hand based on the extracted sample. At this time, the time interval for sample extraction may be set to an appropriate value through experiments. Alternatively, the time interval may be adaptively adjusted based on various environmental factors, such as the type of work device, the purpose of use of the work device, and delay of a communication network.

다른 실시 예에 따라, 일부 샘플들은 지정된 이벤트의 검출에 따라 추출될 수 있다. 예를 들어, 이벤트는 손의 움직임 정도에 기반하여 정의될 수 있는데, 구체적으로, 이벤트는 손의 움직임이 일정 시간 이상 정지하거나, 움직임의 양이 임계치 이하인 것으로 정의될 수 있다. 즉, 사용자는 작업 장치의 특정 자세를 의도하며 손을 움직일 것이므로, 사용자 장치(110)는 최종적인 손의 자세만을 명령화하여 전달할 수 있다. 이를 위해, 사용자 장치(110)는 손의 움직임이 잠시 멈추거나 느려지는 상황을 인식하고, 해당 상황에서 새로운 명령을 생성할 수 있다.According to another embodiment, some samples may be extracted according to detection of a designated event. For example, an event may be defined based on a degree of hand movement. Specifically, the event may be defined as a movement of the hand stopping for a certain period of time or more or an amount of movement less than a threshold value. That is, since the user intends to move the hand in a specific posture of the work device, the user device 110 may command and deliver only the final posture of the hand. To this end, the user device 110 may recognize a situation in which the movement of the hand temporarily stops or slows down, and may generate a new command in the corresponding situation.

전술한 절차에서, 손의 자세는 인공지능 알고리즘을 이용하여 결정될 수 있다. 인공지능 알고리즘은 CNN(convolutional neural network) 기반의 영상 처리 인공지능 모델일 수 있고, 사전에 훈련된 상태에서 손의 자세를 결정하기 위해 사용될 수 있다. 보다 구체적으로, 인공지능 모델은 단일 샷 검출기를 이용하는 2-스텝 신경망 파이프라인(two step neural network pipeline with single-shot detector)을 포함할 수 있고, 영상에서 크롭된 영역에서 동작하는 회귀 모델(regression model running on the cropped region)을 이용할 수 있다. 이 외, 다양한 알고리즘들이 본 발명에서 손의 자세를 검출하기 위해 사용될 수 있다.In the procedure described above, the posture of the hand may be determined using an artificial intelligence algorithm. The artificial intelligence algorithm may be a convolutional neural network (CNN)-based image processing artificial intelligence model, and may be used to determine a hand posture in a pre-trained state. More specifically, the artificial intelligence model may include a two-step neural network pipeline with single-shot detector using a single-shot detector, and a regression model operating in a cropped region from an image. running on the cropped region) can be used. In addition to this, various algorithms may be used to detect the hand posture in the present invention.

인공지능 알고리즘 또는 다른 알고리즘에 의해 검출된 손의 자세와, 작업 장치를 제어하기 위한 명령과의 관계는 이하 도 12와 같이 설명될 수 있다. 도 12는 본 발명의 실시 예에 따른 작업 장치의 구동 모델을 도시한다. 도 12는 사용자의 손(1210) 및 작업 장치(1220)을 예시한다. 도 12를 참고하면, 손(1210)에서 21개 지점들이 검출된다. 검출 지점들은 손가락의 말단, 손가락 관절 등에 대응하고, 고유의 식별자를 가진다. 여기서, 검출되는 지점들의 개수 및 위치는 손의 자세를 검출하기 위해 사용되는 알고리즘에 따라 달라질 수 있다. 검출된 각 지점들의 적어도 일부는 작업 장치(1220)의 특정 지점들에 매핑된다. 예를 들어, 검지 손가락의 3개의 관절들(1211 내지 1213)은 작업 장치(1220)(예: 포크레인)의 팔(arm)의 3개의 관절들(1221 내지 1223)에 매핑될 수 있다. 도 12와 같이, 손(1210)에서 지점들이 검출되면, 각 지점에서 인접 지점들과 연결되는 선들이 이루는 각도가 계산될 수 있으며, 그 각도는 작업 장치(1220)의 해당 관절에 적용되는 각도가 된다.The relationship between the posture of the hand detected by the artificial intelligence algorithm or other algorithm and the command for controlling the work device can be described as shown in FIG. 12 below. 12 shows a driving model of a work device according to an embodiment of the present invention. 12 illustrates a user's hand 1210 and work device 1220 . Referring to FIG. 12 , 21 points are detected on the hand 1210 . The detection points correspond to the tips of fingers, knuckles, and the like, and have unique identifiers. Here, the number and positions of detected points may vary depending on an algorithm used to detect the hand posture. At least some of the detected points are mapped to specific points of the work device 1220 . For example, three joints 1211 to 1213 of the index finger may be mapped to three joints 1221 to 1223 of an arm of the work device 1220 (eg, a forklift). As shown in FIG. 12 , when points are detected on the hand 1210, an angle formed by lines connected to adjacent points at each point may be calculated, and the angle is an angle applied to a corresponding joint of the work device 1220. do.

전술한 예에서, 검지 손가락의 3개의 관절들(1211 내지 1213) 외 나머지 관절들은 작업 장치(1220)의 어느 관절에도 매핑되지 아니한다. 나머지 관절들은 비매핑 관절들에 해당한다. 하지만, 작업 장치(1220)의 관절들과의 매핑을 변경하면, 비매핑 관절들이 달라질 수 있다. 예를 들어, 도 12의 경우, 작업 장치(1220)의 3개의 관절들(1221 내지 1223) 각각을 서로 다른 손가락의 관절들에 매핑하는 것도 가능하다. 이러한 맵핑은 미리 정의되거나 또는 별도의 매핑 설정 절차를 통해 결정될 수 있다. 일 실시 예에 따라, 매핑 설정 절차 동안, 사용자 장치(110)는 사용자에게 작업 장치(120b)의 특정 관절 또는 관절들의 조합에 관련된 특정 동작을 수행하기 신체 일부의 움직임을 반복적으로 요구하고, 확인되는 움직임들 중 최적의 움직임을 선택한 후, 최적의 움직임에서 사용된 관절들을 작업 장치(120b)의 관절에 매핑할 수 있다. 별도의 매핑 설정 절차가 수행되는 경우, 사용자의 개인적 특성에 최적화된 매핑이 제공될 수 있을 것이다.In the above example, the rest of the joints other than the three joints 1211 to 1213 of the index finger are not mapped to any joint of the working device 1220 . The remaining joints correspond to non-mapped joints. However, if the mapping with the joints of the work device 1220 is changed, non-mapped joints may be changed. For example, in the case of FIG. 12 , each of the three joints 1221 to 1223 of the work device 1220 may be mapped to joints of different fingers. Such mapping may be predefined or determined through a separate mapping setting procedure. According to an embodiment, during a mapping setting procedure, the user device 110 repeatedly requests the user to move a body part to perform a specific motion related to a specific joint or a combination of joints of the work device 120b, and is confirmed. After selecting the optimal motion among the motions, the joints used in the optimal motion may be mapped to the joints of the working device 120b. If a separate mapping setting procedure is performed, mapping optimized for the user's personal characteristics may be provided.

작업 장치(1220)가 도 12와 같은 중장비가 아니라, 사람의 신체를 모방한 형상을 가지는 로봇의 경우, 맵핑은 보다 직관적으로 이루어질 수 있다. 예를 들어, 작업 장치(1220)가 로봇 손인 경우, 손(1210)의 대부분의 관절이 로봇 손의 관절들에 그대로 매핑될 수 있다. 하지만, 본 발명은, 중장비 뿐만 아니라, 다양한 구조의 도구(예: 집게, 가위, 컷팅기 등)의 형상을 가지는 작업 장치들에도 적용될 수 있다. 이 경우, 작업 장치의 관절들 및 신체의 검출 지점들(예: 관절, 말단) 간 적절하게 맵핑하는 동작이 요구된다. 예를 들어, 신체의 검출 지점들 중 일부만이 작업 장치의 제어를 위해 사용될 수 있다. 구체적으로, 2개의 손가락들만을 가진 집게 형상 또는 컷팅기(예: 가위) 형상의 작업 장치의 경우, 사용자의 검지 손가락 및 엄지 손가락에서의 검출 지점들만이 사용될 수 있다. 다른 예로, 신체의 검출 지점들 중 적어도 하나의 검출 지점은 작업 장치의 복수의 관절들에 맵핑될 수 있다. 이 경우, 하나의 검출 지점에 맵핑된 복수의 작업 장치 관절들을 개별적으로 제어할 수 있도록, 사용자의 선택에 따라 복수의 작업 장치 관절들 중 하나를 제어 대상으로서 지정하는 동작이 수행될 수 있다.When the work device 1220 is not a heavy machine as shown in FIG. 12 but a robot having a shape imitating a human body, mapping can be performed more intuitively. For example, when the work device 1220 is a robot hand, most of the joints of the hand 1210 may be directly mapped to the joints of the robot hand. However, the present invention can be applied not only to heavy equipment, but also to work devices having the shape of tools of various structures (eg, tongs, scissors, cutters, etc.). In this case, an operation of appropriately mapping between the joints of the work device and detection points (eg, joints and extremities) of the body is required. For example, only some of the detection points on the body may be used for control of the work device. Specifically, in the case of a tongs-shaped or cutter (eg, scissors)-shaped work device having only two fingers, only detection points on the user's index finger and thumb may be used. As another example, at least one of the detection points of the body may be mapped to a plurality of joints of the work device. In this case, an operation of designating one of the plurality of joints of the working device as a control target according to a user's selection may be performed to individually control the plurality of joints of the working device mapped to one detection point.

도 13은 본 발명의 실시 예에 따른 작업 장치의 실시간 제어를 위한 신호 교환 절차를 도시한다. 도 13는 사용자 장치(110), 서버(130), 피제어 장치 모듈(120) 간 상호 작용을 보여준다. 13 illustrates a signal exchange procedure for real-time control of a work device according to an embodiment of the present invention. 13 shows an interaction between the user device 110, the server 130, and the controlled device module 120.

도 13를 참고하면, 1301 단계에서, 피제어 장치 모듈(120)이 전원 온(on)된다. 여기서, 피제어 장치 모듈(120)은 작업 장치(120a) 및 촬영 장치(120b)를 포함하는 객체로서, 도 13에서의 피제어 장치 모듈(120)은 작업 장치(120a) 또는 촬영 장치(120b)로 이해될 수 있고, 또는 작업 장치(120a) 및 촬영 장치(120b)에 연동된 제3의 장치일 수 있다. 즉, 1301 단계에서, 작업 장치(120a) 또는 촬영 장치(120b) 중 적어도 하나가 전원 온된다. 이에 따라, 피제어 장치 모듈(120)의 운영 시스템이 부팅되고, 동작 가능한 상태가 된다.Referring to FIG. 13 , in step 1301, the controlled device module 120 is powered on. Here, the controlled device module 120 is an object including the work device 120a and the photographing device 120b, and the controlled device module 120 in FIG. 13 is the work device 120a or the photographing device 120b. , or may be a third device linked to the working device 120a and the photographing device 120b. That is, in step 1301, at least one of the work device 120a and the photographing device 120b is turned on. Accordingly, the operating system of the controlled device module 120 is booted and becomes an operable state.

1302 단계에서, 피제어 장치 모듈(120)은 서버(130)에 접속하고, 등록 절차를 수행한다. 피제어 장치 모듈(120)은 지정된 주소 정보를 이용하여 서버(130)에 접속한 후, 서버(130)에 작업 장치(120a)를 등록한다. 피제어 장치 모듈(120) 및 서버(130) 간 통신은 소켓(socket) 통신에 기반할 수 있다. 여기서, 등록은 작업 장치(120a)에 대한 정보를 서버(130)에 저장하고, 사용자 장치(110)의 요청에 따라 작업 장치(120a)에 대한 원격 제어를 허용할 것임을 알리는 절차이다. 예를 들어, 등록을 통해 저장되는 정보는 작업 장치의 식별자, 작업 장치의 종류, 제어 프로토콜, 작업 장치을 촬영하는 카메라의 화각 등 다양한 정보를 포함할 수 있다. 이에 따라, 사용자 장치(110)가 작업 장치(120a)에 대한 정보에 접근할 수 있는 상태가 된다. 접속 및 등록은 작업 장치(120a)에 본 발명의 제안 기술을 위한 소프트웨어 또는 에드온(add-on) 모듈을 설치함에 따라, 또는 소프트웨어 또는 에드온 모듈 설치 후 운영자의 명령에 따라 시작될 수 있다.In step 1302, the controlled device module 120 accesses the server 130 and performs a registration procedure. The controlled device module 120 accesses the server 130 using the designated address information and then registers the work device 120a with the server 130 . Communication between the controlled device module 120 and the server 130 may be based on socket communication. Here, registration is a procedure of storing information on the work device 120a in the server 130 and notifying that the remote control of the work device 120a will be allowed according to the request of the user device 110 . For example, information stored through registration may include a variety of information such as an identifier of a work device, a type of work device, a control protocol, and a view angle of a camera that captures the work device. Accordingly, the user device 110 is in a state where it can access information about the work device 120a. Access and registration may be started by installing software or an add-on module for the proposed technology of the present invention in the work device 120a or according to an operator's command after installing the software or add-on module.

1303 단계에서, 사용자 장치(110)는 서버(130)에 접속하고, 가용한 작업 장치을 검색한다. 사용자 장치(110)는 본 발명의 제안 기술을 위한 소프트웨어 또는 어플리케이션을 실행하고, 사용자의 정보(예: 로그인 정보)를 확인한 후, 사용자의 명령에 따라 서버(130)에 접속할 수 있다. 이후, 사용자 장치(110)는 가용한 작업 장치들에 대한 정보를 요청하는 요청 메시지를 송신하고, 서버(130)는 작업 장치(120a)를 포함한 등록된 작업 장치들에 대한 정보를 사용자 장치(110)에게 송신한다. 이에 따라, 사용자 장치(110)는 작업 장치들의 목록을 표시하고, 사용자의 선택을 확인할 수 있다. 즉, 사용자 장치(110)는 작업 장치들에 대한 정보(예: 작업 장치 식별자, 작업 장치 종류, 작업 장치 제어를 위해 필요한 조건, 과금 정보 등)를 표시하고, 목록에서 사용자가 어느 작업 장치을 선택하는지 확인할 수 있다. 이때, 서버(130)는 피제어 장치 모듈(120)에 포함되는 원격 카메라에 대한 정보를 더 송신할 수 있다. 원격 카메라도 사용자 장치(110)에 의해 제어되므로, 회전 가능한 축의 개수 및 방향, 가동 범위(예: 회전 가능 각도 범위)에 대한 정보가 필요할 수 있다.In step 1303, the user device 110 accesses the server 130 and searches for available work devices. The user device 110 may execute software or applications for the proposed technology of the present invention, check user information (eg, log-in information), and then access the server 130 according to the user's command. Thereafter, the user device 110 transmits a request message requesting information on available work devices, and the server 130 transmits information on registered work devices including the work device 120a to the user device 110. ) is sent to Accordingly, the user device 110 may display a list of work devices and confirm the user's selection. That is, the user device 110 displays information on the work devices (eg, work device identifier, type of work device, conditions necessary for controlling the work device, billing information, etc.), and determines which work device the user selects from the list. You can check. At this time, the server 130 may further transmit information about the remote camera included in the controlled device module 120 . Since the remote camera is also controlled by the user device 110, information on the number and direction of rotatable axes and a movable range (eg, rotatable angle range) may be required.

1304 단계에서, 사용자 장치(110)는 피제어 장치 모듈(120)에게 영상 스트리밍에 대한 요청 메시지를 송신한다. 영상 스트리밍에 대한 요청 메시지는 피제어 장치 모듈(120)에게 직접 송신되거나 또는 서버(130)를 거쳐 송신될 수 있다. 예를 들어, 영상 스트리밍에 대한 요청 메시지는 소켓 통신을 통해 송신될 수 있다. 여기서, 영상 스트림밍에 대한 요청 메시지는 작업 장치(120a)에 대한 제어 권한을 요청하는 메시지로도 해석될 수 있다.In step 1304, the user device 110 transmits a video streaming request message to the controlled device module 120. The video streaming request message may be transmitted directly to the controlled device module 120 or via the server 130 . For example, a request message for video streaming may be transmitted through socket communication. Here, the request message for video streaming may also be interpreted as a message requesting control authority for the work device 120a.

1305 단계에서, 피제어 장치 모듈(120)은 사용자 장치(110)에게 영상 신호를 송신한다. 예를 들어, 영상 스트리밍은 WebRTC(web real-time communication) 방식으로 수행될 수 있다. 도 13에 도시되지 아니하였으나, 사용자 장치(110) 및 피제어 장치 모듈(120) 간 영상 스트리밍을 위한 연결 설정 절차를 먼저 수행할 수 있다. 이에 따라, 사용자 장치(110)는 작업 장치(120a)를 촬영한 실시간 영상을 표시하고, 사용자는 영상을 작업 장치(120a)의 움직임을 확인할 수 있다. 영상 신호는 실시간 스트리밍을 위해 지속적으로 송신될 수 있다.In step 1305, the controlled device module 120 transmits a video signal to the user device 110. For example, video streaming may be performed in a web real-time communication (WebRTC) method. Although not shown in FIG. 13 , a connection setting procedure for video streaming between the user device 110 and the controlled device module 120 may be performed first. Accordingly, the user device 110 displays a real-time image captured by the work device 120a, and the user can check the movement of the work device 120a through the image. The video signal may be continuously transmitted for real-time streaming.

1306 단계에서, 사용자 장치(110)는 피제어 장치 모듈(120)에게 작업 장치/카메라 제어 신호를 송신한다. 사용자 장치(110)는 피제어 장치 모듈(120)로부터 실시간 스트리밍되는 작업 장치(120a)에 대한 영상을 표시하면서, 카메라를 이용하여 사용자의 신체의 일부(예: 손)를 촬영하고, 촬영된 영상에 기반하여 작업 장치(120a)를 제어하기 위한 적어도 하나의 명령어를 생성하고, 생성된 명령어를 포함하는 제어 신호를 송신할 수 있다. 또한, 사용자 장치(110)는 사용자 장치(110)의 기울기를 측정하고, 측정된 기울기에 기반하여 원격 카메라의 촬영 방향을 제어하기 위한 적어도 하나의 명령어를 생성하고, 생성된 명령어를 포함하는 제어 신호를 송신할 수 있다. 작업 장치/카메라 제어 신호는 명령어의 생성에 따라 지속적으로 생성 및 송신될 수 있다.In step 1306, the user device 110 transmits a work device/camera control signal to the controlled device module 120. The user device 110 captures a part of the user's body (eg, a hand) using a camera while displaying an image of the work device 120a streamed in real time from the controlled device module 120, and captures the captured image. At least one command for controlling the work device 120a may be generated based on and a control signal including the generated command may be transmitted. In addition, the user device 110 measures the tilt of the user device 110, generates at least one command for controlling the photographing direction of the remote camera based on the measured tilt, and generates a control signal including the generated command. can send A work device/camera control signal may be continuously generated and transmitted according to generation of a command.

도 13을 참고하여 설명한 실시 예에 따라, 작업 장치(120a)를 제어하기 위한 명령어(이하 '작업 장치 제어 명령어') 및 원격 카메라를 제어하기 위한 명령어(이하 '카메라 제어 명령어')가 생성 및 송신될 수 있다. 즉, 제어 대상이 서로 다른 2가지 종류의 명령어들이 송신될 수 있다. 일 실시 예에 따라, 작업 장치 제어 명령어 및 카메라 제어 명령어는 별도의 제어 링크들을 통해 송신될 수 있다. 다른 실시 예에 따라, 작업 장치 제어 명령어 및 카메라 제어 명령어는 같은 제어 링크를 통해 송신되고, 명령어의 종류를 구분하는 식별자를 포함할 수 있다.According to the embodiment described with reference to FIG. 13 , a command for controlling the work device 120a (hereinafter referred to as 'work device control command') and a command for controlling a remote camera (hereinafter referred to as 'camera control command') are generated and transmitted. It can be. That is, two types of commands with different control targets may be transmitted. According to an embodiment, the work device control command and the camera control command may be transmitted through separate control links. According to another embodiment, the work device control command and the camera control command may be transmitted through the same control link and may include identifiers for distinguishing types of commands.

도 14는 본 발명의 실시 예에 따른 작업 장치를 제어하기 위한 인터페이스의 예를 도시한다. 도 14는 작업 장치를 원격 제어하는 동안 사용자 장치를 통해 표시되는 화면을 예시한다.14 illustrates an example of an interface for controlling a work device according to an embodiment of the present invention. 14 illustrates a screen displayed through a user device while remotely controlling a work device.

도 14를 참고하면, 화면은 설정 메뉴(1410) 및 작업 장치 실시간 영상 창(1420), 제1 조이스틱(1430a), 제2 조이스틱(1430b), 신체 일부 그래픽(1440)을 포함한다. 구현 또는 상태에 따라, 제1 조이스틱(1430a), 신체 일부 그래픽(1440) 중 어느 하나는 표시되지 아니할 수 있다.Referring to FIG. 14 , the screen includes a setting menu 1410, a real-time image window 1420 of a work device, a first joystick 1430a, a second joystick 1430b, and a body part graphic 1440. Depending on the implementation or state, either the first joystick 1430a or the body part graphic 1440 may not be displayed.

설정 메뉴(1410)는 작업 장치 제어에 필요한 다양한 설정을 입력하기 위한 항목이다. 예를 들어, 설정 메뉴(1410)는 작업 현장의 카메라에 관련된 설정, 작업 장치 제어 방식에 관련된 설정 등을 위해 사용될 수 있다. 구체적으로, 설정 메뉴(1410)는 작업 현장에 배치된 복수의 카메라들 중 하나를 선택하기 위한 입력, 작업 현장의 카메라의 줌-인/줌-아웃을 위한 입력, 작업 장치에 대한 제어 방식을 선택하기 위한 입력 등을 위해 사용될 수 있다. 여기서, 선택 가능한 제어 방식들은 신체를 촬영한 영상을 이용한 제어 방식 및 조이스틱(1413)을 이용한 제어 방식을 포함할 수 있다. The setting menu 1410 is an item for inputting various settings necessary for controlling a work device. For example, the setting menu 1410 may be used for settings related to cameras in a work site, settings related to a control method of work devices, and the like. Specifically, the setting menu 1410 is an input for selecting one of a plurality of cameras disposed at the work site, an input for zoom-in/zoom-out of the camera at the work site, and selection of a control method for the work device. It can be used for input, etc. Here, the selectable control methods may include a control method using a body image and a control method using the joystick 1413 .

작업 장치 실시간 영상 창(1420)은 작업 현장에서 촬영된 작업 장치에 대한 실시간 영상을 표시하는 영역이다. 사용자 장치는 실시간 스트리밍되는 작업 장치에 대한 영상을 작업 장치 실시간 영상 창(1420)을 통해 표시한다. 이를 통해, 사용자는 작업 장치의 모습을 실시간으로 확인할 수 있다.The working device real-time image window 1420 is an area displaying a real-time image of a working device photographed at a work site. The user device displays a real-time streamed image of the work device through the work device real-time image window 1420 . Through this, the user can check the appearance of the work device in real time.

제1 조이스틱(1430a)은 작업 장치를 제어하기 위한 명령을 입력하기 위해 사용되는 항목이다. 전술한 다양한 실시 예들과 같이, 촬영되는 신체의 자세 등에 기반하여 작업 장치이 제어될 수 있지만, 이에 병행하여, 제1 조이스틱(1430a)을 이용한 제어도 지원될 수 있다. 제1 조이스틱(1430a)은 작업 장치의 제어 지점을 이동 또는 회전시키기 위한 항목, 제어 지점을 선택하기 위한 항목 등을 포함할 수 있다. 일 실시 예에 따라, 제1 조이스틱(1430a)은 반투명하게 표시될 수 있으며, 지정된 입력(예: 롱 프레스(long press) 및 드래그(drag))에 의해 화면 내의 다른 위치로 이동될 수 있다.The first joystick 1430a is an item used to input a command for controlling the work device. As in the various embodiments described above, the work device may be controlled based on the posture of the body to be photographed, but in parallel, control using the first joystick 1430a may also be supported. The first joystick 1430a may include an item for moving or rotating a control point of the work device, an item for selecting a control point, and the like. According to an embodiment, the first joystick 1430a may be displayed translucently and may be moved to another position on the screen by a designated input (eg, long press or drag).

제2 조이스틱(1430b)은 원격 카메라의 촬영 방향을 제어하기 위한 명령을 입력하기 위해 사용되는 항목이다. 전술한 다양한 실시 예들과 같이, 사용자 장치(110)의 기울기에 기반하여 원격 카메라가 제어될 수 있지만, 이에 병행하여, 제2 조이스틱(1430b)을 이용한 제어도 지원될 수 있다. 제2 조이스틱(1430b)은 원격 카메라의 촬영 방향에 대한 회전 축을 선택하기 위한 항목, 회전 각도의 양을 입력하기 위한 항목 중 적어도 하나를 포함할 수 있다. 일 실시 예에 따라, 제2 조이스틱(1430b)은 반투명하게 표시될 수 있으며, 지정된 입력(예: 롱 프레스 및 드래그)에 의해 화면 내의 다른 위치로 이동될 수 있다.The second joystick 1430b is an item used to input a command for controlling the shooting direction of the remote camera. As in the various embodiments described above, the remote camera may be controlled based on the tilt of the user device 110, but in parallel, control using the second joystick 1430b may also be supported. The second joystick 1430b may include at least one of an item for selecting a rotation axis for a photographing direction of the remote camera and an item for inputting an amount of rotation angle. According to an embodiment, the second joystick 1430b may be displayed translucently, and may be moved to another position within the screen by a designated input (eg, long press and drag).

신체 일부 그래픽(1440)은 작업 장치(120a)의 제어를 위해 사용되는 사용자의 신체 일부에 대한 인식 결과(예: 자세)를 표현하는 그래픽이다. 신체 일부 그래픽(1440)은 촬영된 영상에서 추출된 신체 일부이거나 또는 인식 결과에 기반하여 생성된 그래픽일 수 있다. 추가적으로, 신체 일부 그래픽(1440)은 자세 인식에 의해 확인된 검출 지점들 및 검출 지점들을 연결하는 선 등을 함께 표현할 수 있다.The body part graphic 1440 is a graphic representing a recognition result (eg, posture) of a user's body part used for controlling the work device 120a. The body part graphic 1440 may be a body part extracted from a photographed image or a graphic generated based on a recognition result. Additionally, the body part graphic 1440 may express detection points identified by posture recognition and a line connecting the detection points together.

도 14를 참고한 바와 같은 인터페이스를 통해, 사용자는 보다 편리하게 작업 장치를 제어할 수 있다. 특히, 신체 일부 그래픽(1440)을 통해, 사용자는, 작업 장치를 제어하기 위한 신체의 일부에 대한 인식 결과를 확인할 수 있다. 추가적으로, 인터페이스는 사용자 현장에서의 촬영 상태에 대한 경고 창 또는 경고 지시자를 더 포함할 수 있다. 경고 창 또는 경고 지시자는 작업 장치를 제어하기 위해 필요한 신체의 일부가 충분하게 촬영되고 있지 않는 경우, 이를 사용자에게 알리기 위해 일시적으로 표시될 수 있다. 예를 들어, 손의 자세가 영상을 이용하여 인식되는 겨우, 손이 카메라 화각을 벗어나면, 사용자 장치는 손이 촬영 범위를 벗어났음을 알리는 경고 창 또는 경고 지시자를 표시할 수 있다. 다른 예로, 사용자의 손이 작업 장치의 제어에 이용되는 경우, 손이 카메라 화각 내에 있지만 촬영 각도가 손의 자세를 인식하기 적절하지 아니한 경우, 사용자 장치는 손 및 카메라의 상대적 각도를 변경해 줄 것을 요구하는 경고 창 또는 경고 지시자를 표시할 수 있다. Through the interface as shown in FIG. 14, the user can more conveniently control the work device. In particular, through the body part graphic 1440, the user may check a result of recognizing a part of the body for controlling the work device. Additionally, the interface may further include a warning window or warning indicator for a shooting state at the user's site. A warning window or warning indicator may be temporarily displayed to notify the user when a body part required to control the work device is not sufficiently photographed. For example, if the hand's posture is recognized using an image and the hand is out of the camera's field of view, the user device may display a warning window or a warning indicator notifying that the hand is out of the shooting range. As another example, when the user's hand is used to control the work device, and the hand is within the camera's field of view but the shooting angle is not appropriate for recognizing the hand posture, the user device requests to change the relative angle of the hand and the camera. A warning window or warning indicator may be displayed.

또한, 인터페이스는 원격 카메라의 가동 범위의 한계에 대한 경고 창 또는 경고 지시자를 더 포함할 수 있다. 원격 카메라가 특정 축에서 가능한 회전 각도의 한계치만큼 회전하였으나, 해당 축에서 사용자 장치(110)가 더 회전하는 경우, 원격 카메라는 더 이상 회전할 수 없음을 알리는 경고 창 또는 경고 지시자가 표시될 수 있다. 이를 통해, 사용자는 원격 카메라가 해당 축에서 한계점까지 회전하였음을 인지하고, 원격 카메라를 더 회전시키려는 불필요한 시도를 하지 아니할 것이다.In addition, the interface may further include a warning window or warning indicator about the limit of the movable range of the remote camera. When the user device 110 rotates further on the corresponding axis even though the remote camera has rotated by the limit of possible rotation angles on a specific axis, a warning window or warning indicator indicating that the remote camera cannot rotate any more may be displayed. . Through this, the user will recognize that the remote camera has rotated to the limit on the corresponding axis, and will not make unnecessary attempts to further rotate the remote camera.

전술한 본 발명의 다양한 실시 예들에 따른 방법은 하드웨어인 컴퓨터가 결합되어 실행되기 위해 컴퓨터 프로그램 또는 모바일 어플리케이션으로 구현되어 매체에 저장될 수 있다. 또는, 본 발명의 실시 예들과 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다. 또한, 알고리즘은 설치 파일 형태로 제작되어 온라인 다운로드 형태로 제공되며, 이를 위해 온라인 소프트웨어 마켓을 통해 접속 가능한 서버에 저장될 수 있다.The method according to various embodiments of the present invention described above may be implemented as a computer program or a mobile application and stored in a medium to be executed by being coupled with a computer that is hardware. Alternatively, steps of a method or algorithm described in relation to the embodiments of the present invention may be directly implemented as hardware, implemented as a software module executed by hardware, or a combination thereof. A software module may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art to which the present invention pertains. In addition, the algorithm is produced in the form of an installation file and provided as an online download, and for this purpose, it can be stored on a server accessible through an online software market.

한편 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.Meanwhile, in the detailed description of the present invention, specific embodiments have been described, but various modifications are possible without departing from the scope of the present invention. Therefore, the scope of the present invention should not be limited to the described embodiments and should not be defined, but should be defined by not only the scope of the claims to be described later, but also those equivalent to the scope of these claims.

Claims (5)

제1 장치를 원격 제어하기 위한 제2 장치의 동작 방법에 있어서,
복수의 원격 장치들을 등록 및 관리하는 서버에 접속하고, 상기 서버에게 가용한 작업 장치들에 대한 정보를 요청하는 제1 요청 메시지를 송신하고, 상기 서버로부터 피제어 장치 모듈에 포함되는 제1 장치 및 제1 카메라에 대한 정보를 수신함으로써, 서버의 지원에 기반하여 작업 현장에 위치한 상기 피제어 장치 모듈과의 연결을 설정하는 단계;
사용자에게 상기 제1 장치의 관절에 관련된 동작을 수행하기 위한 신체 일부의 움직임을 반복적으로 요구하는 단계;
상기 움직임의 요구에 응하여 발생하는 움직임을 확인하는 단계;
상기 확인된 움직임에서 사용된 상기 사용자의 적어도 하나의 관절을 상기 제1 장치의 상기 관절에 매핑하는 단계;
상기 피제어 장치 모듈에 포함되는 제1 카메라를 이용하여 촬영된 상기 피제어 장치 모듈에 포함되는 제1 장치에 대한 동영상 데이터를 수신하는 단계;
상기 동영상 데이터에 기반하여 상기 제1 장치에 대한 실시간 동영상을 표시하는 단계;
상기 사용자의 상기 신체 일부의 움직임에 기반하여 상기 제1 장치를 제어하기 위한 적어도 하나의 장치 제어 명령어를 생성하는 단계;
상기 제2 장치의 기울기 변화에 기반하여 상기 제1 카메라를 제어하기 위한 적어도 하나의 카메라 제어 명령어를 생성하는 단계; 및
상기 적어도 하나의 장치 제어 명령어 및 상기 적어도 하나의 카메라 제어 명령어를 상기 제1 장치 및 상기 제1 카메라를 제어하기 위해 송신하는 단계를 포함하며,
상기 장치 제어 명령어는, 상기 제1 장치의 상기 관절에 대응하는 상기 사용자의 신체 관절의 각도에 기반하여 생성되는 값으로서, 상기 확인된 움직임에서 사용된 상기 사용자의 적어도 하나의 관절의 각도에 기반하여 생성되며, 상기 제1 장치의 상기 관절의 각도를 지시하는 값을 포함하고,
상기 카메라 제어 명령어는, 상기 제2 장치에서 기울기를 인식하는 축들 및 상기 제1 카메라에서 지원하는 회전 축들이 서로 다름에 따라, 상기 제2 장치에서 지원되는 복수의 변환 알고리즘들 중 상기 제1 카메라에서 지원되는 상기 회전 축들의 구조에 대응하는 하나의 변환 알고리즘에 기반하여 생성되며,
상기 제1 카메라에서 지원되는 상기 회전 축들의 구조에 대한 정보는, 상기 서버로부터 제공되는 방법.
A method of operating a second device for remotely controlling a first device, comprising:
A first device that accesses a server that registers and manages a plurality of remote devices, transmits a first request message requesting information on available work devices to the server, and is included in the controlled device module from the server; and establishing a connection with the controlled device module located at a work site based on support from a server by receiving information about a first camera;
repeatedly requesting movement of a body part to perform an operation related to the joint of the first device from the user;
checking a motion generated in response to the motion request;
mapping at least one joint of the user used in the identified movement to the joint of the first device;
receiving video data of a first device included in the controlled device module, which is captured using a first camera included in the controlled device module;
displaying a real-time video for the first device based on the video data;
generating at least one device control command for controlling the first device based on the movement of the body part of the user;
generating at least one camera control command for controlling the first camera based on the tilt change of the second device; and
sending the at least one device control command and the at least one camera control command to control the first device and the first camera;
The device control command is a value generated based on an angle of a joint of the user's body corresponding to the joint of the first device, based on an angle of at least one joint of the user used in the identified movement. is generated and includes a value indicating the angle of the joint of the first device;
The camera control command is performed by the first camera among a plurality of transformation algorithms supported by the second device according to the difference between the axes recognizing the tilt in the second device and the rotation axes supported by the first camera. It is created based on one conversion algorithm corresponding to the structure of the rotation axes supported,
The information on the structure of the rotational axes supported by the first camera is provided from the server.
삭제delete 청구항 1에 있어서,
상기 피제어 장치 모듈과의 연결을 설정하는 단계는,
상기 복수의 원격 장치들을 등록 및 관리하는 상기 서버에 접속하는 단계;
상기 서버로, 가용한 작업 장치들에 대한 정보를 요청하는 상기 제1 요청 메시지를 송신하는 단계;
상기 서버로부터, 상기 제1 장치 및 상기 제1 카메라에 대한 정보를 포함하는, 복수의 작업 장치들에 대한 정보를 수신하는 단계;
상기 제1 장치를 포함하는 피제어 장치들의 리스트를 표시하는 단계;
상기 복수의 작업 장치들 중 상기 제1 장치에 대한 상기 사용자의 선택을 확인하는 단계;
상기 제1 장치의 영상 스트리밍 및 제어 권한을 요청하는 제2 요청 메시지를 송신하는 단계를 더 포함하며,
상기 제1 카메라에 대한 정보는, 상기 제1 카메라에서 지원되는 회전 축의 개수 및 방향, 가동 범위에 대한 정보를 포함하고,
상기 복수의 작업 장치들에 대한 정보는, 각 작업 장치의 식별자, 각 작업 장치의 종류, 각 작업 장치의 제어를 위해 필요한 조건, 각 작업 장치에 대한 과금 정보를 포함하는 방법.
The method of claim 1,
The step of establishing a connection with the controlled device module,
accessing the server for registering and managing the plurality of remote devices;
sending, to the server, the first request message requesting information on available work devices;
receiving, from the server, information about a plurality of work devices including information about the first device and the first camera;
displaying a list of controlled devices including the first device;
confirming the user's selection of the first device among the plurality of work devices;
Transmitting a second request message requesting video streaming and control rights of the first device;
The information on the first camera includes information on the number and direction of rotational axes supported by the first camera, and information on a movable range;
The information on the plurality of work devices includes an identifier of each work device, a type of each work device, a condition necessary for controlling each work device, and billing information for each work device.
청구항 1에 있어서,
상기 실시간 동영상에 더하여, 상기 제2 장치에 구비된 제2 카메라를 이용하여 촬영되고, 상기 적어도 하나의 장치 제어 명령어를 생성하기 위해 사용되는 상기 신체 일부를 표현한 그래픽을 디스플레이에 표시하는 단계를 더 포함하고,
상기 그래픽은, 상기 신체 일부에서 검출되는 관절의 위치를 지시하는 점들을 포함하는 방법.
The method of claim 1,
In addition to the real-time video, the method further includes displaying on a display a graphic representing the part of the body photographed using a second camera provided in the second device and used to generate the at least one device control command. do,
Wherein the graphic includes dots indicating positions of joints detected in the body part.
프로세서에 의해 동작되면 청구항 1, 청구항 3, 청구항 4 중의 어느 한 항에 따른 방법을 실행하기 위해 기록 매체에 저장된 어플리케이션 프로그램.An application program stored in a recording medium to execute the method according to any one of claims 1, 3, and 4 when operated by a processor.
KR1020220090638A 2022-07-21 2022-07-21 Method for real-time control of working device and camera by using pose of body part and tilt of device and apparatus thereof KR102549631B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220090638A KR102549631B1 (en) 2022-07-21 2022-07-21 Method for real-time control of working device and camera by using pose of body part and tilt of device and apparatus thereof
KR1020230082256A KR20240013046A (en) 2022-07-21 2023-06-27 Method for real-time control of working device and camera by using pose of body part and tilt of device and apparatus thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220090638A KR102549631B1 (en) 2022-07-21 2022-07-21 Method for real-time control of working device and camera by using pose of body part and tilt of device and apparatus thereof

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020230082256A Division KR20240013046A (en) 2022-07-21 2023-06-27 Method for real-time control of working device and camera by using pose of body part and tilt of device and apparatus thereof

Publications (1)

Publication Number Publication Date
KR102549631B1 true KR102549631B1 (en) 2023-07-03

Family

ID=87157744

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020220090638A KR102549631B1 (en) 2022-07-21 2022-07-21 Method for real-time control of working device and camera by using pose of body part and tilt of device and apparatus thereof
KR1020230082256A KR20240013046A (en) 2022-07-21 2023-06-27 Method for real-time control of working device and camera by using pose of body part and tilt of device and apparatus thereof

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020230082256A KR20240013046A (en) 2022-07-21 2023-06-27 Method for real-time control of working device and camera by using pose of body part and tilt of device and apparatus thereof

Country Status (1)

Country Link
KR (2) KR102549631B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090016246A (en) * 2007-08-10 2009-02-13 연세대학교 산학협력단 Managing system of mobile devices and the camera thereof using body reaction
KR20200140834A (en) * 2019-04-30 2020-12-16 치루 유니버시티 오브 테크놀로지 Wearable device-based mobile robot control system and control method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090016246A (en) * 2007-08-10 2009-02-13 연세대학교 산학협력단 Managing system of mobile devices and the camera thereof using body reaction
KR20200140834A (en) * 2019-04-30 2020-12-16 치루 유니버시티 오브 테크놀로지 Wearable device-based mobile robot control system and control method

Also Published As

Publication number Publication date
KR20240013046A (en) 2024-01-30

Similar Documents

Publication Publication Date Title
JP6851470B2 (en) Unmanned aerial vehicle control methods, head-mounted display glasses and systems
KR20110055062A (en) Robot system and method for controlling the same
US10917560B2 (en) Control apparatus, movable apparatus, and remote-control system
CN110888428B (en) Mobile robot, remote terminal, computer readable medium, control system, and control method
WO2003102706A1 (en) Remotely-operated robot, and robot self position identifying method
US20180234635A1 (en) Imaging system and imaging control method
WO2016031105A1 (en) Information-processing device, information processing method, and program
JP6812203B2 (en) Information processing system, information processing method, mobile projection terminal
JP7372061B2 (en) Remote work support system
JP6409667B2 (en) Remote control system
CN103986878A (en) Remote control device and method for operating pan-tilt camera
CN111712780A (en) System and method for augmented reality
KR20150058848A (en) Apparatus and method for generating telepresence
US20220269336A1 (en) Systems and methods for virtual interaction
JP2016197797A (en) Image processing apparatus, image processing method, and image processing system
JP2006139525A (en) Autonomous mobile robot
JP4640191B2 (en) Surveillance camera system and surveillance camera direction control method
KR102549631B1 (en) Method for real-time control of working device and camera by using pose of body part and tilt of device and apparatus thereof
KR102553830B1 (en) Method for real-time remote control of robot by using camera and apparatus thereof
JP2022105568A (en) System and method for displaying 3d tour comparison
TW201800902A (en) Method of integrating navigation system of panoramic images with motion detection
KR102525661B1 (en) Method for real-time training for remote control of working device and apparatus thereof
KR102196683B1 (en) Device and method for photographing 3d tour
KR101230950B1 (en) An Haptic Apparatus and method of controlling thereof
US20240135663A1 (en) Systems and methods for virtual interaction

Legal Events

Date Code Title Description
A107 Divisional application of patent
GRNT Written decision to grant