KR102553130B1 - Image correction method for remote control of driving device - Google Patents

Image correction method for remote control of driving device Download PDF

Info

Publication number
KR102553130B1
KR102553130B1 KR1020210151225A KR20210151225A KR102553130B1 KR 102553130 B1 KR102553130 B1 KR 102553130B1 KR 1020210151225 A KR1020210151225 A KR 1020210151225A KR 20210151225 A KR20210151225 A KR 20210151225A KR 102553130 B1 KR102553130 B1 KR 102553130B1
Authority
KR
South Korea
Prior art keywords
image information
mobile device
driving image
driving
information
Prior art date
Application number
KR1020210151225A
Other languages
Korean (ko)
Other versions
KR20230065550A (en
Inventor
박재덕
Original Assignee
주식회사 씨너렉스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 씨너렉스 filed Critical 주식회사 씨너렉스
Priority to KR1020210151225A priority Critical patent/KR102553130B1/en
Publication of KR20230065550A publication Critical patent/KR20230065550A/en
Application granted granted Critical
Publication of KR102553130B1 publication Critical patent/KR102553130B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Abstract

전술한 과제를 해결하기 위한 본 발명의 일 실시예에서, 이동 장치의 원격 제어를 위한 영상 보정 방법이 개시된다. 상기 방법은, 이동 장치의 주행 영상 정보 및 상기 주행 영상 정보에 대응하는 지연 시간 정보를 획득하는 단계, 상기 지연 시간 정보에 기초하여 상기 주행 영상 정보에 대한 보정을 수행하는 단계 및 상기 보정된 주행 영상 정보를 사용자 단말로 제공하는 단계를 포함하며, 상기 사용자 단말은, 상기 주행 영상 정보 또는 상기 보정된 주행 영상 정보에 기반하여 상기 이동 장치의 동작을 제어하는 사용자에게 관련한 단말인 것을 특징으로 할 수 있다. In one embodiment of the present invention for solving the above problems, an image correction method for remote control of a mobile device is disclosed. The method may include acquiring driving image information of a mobile device and delay time information corresponding to the driving image information, correcting the driving image information based on the delay time information, and correcting the corrected driving image. and providing information to a user terminal, wherein the user terminal is a terminal related to a user who controls an operation of the mobile device based on the driving image information or the corrected driving image information. .

Description

이동 장치의 원격제어를 위한 영상 보정 방법{IMAGE CORRECTION METHOD FOR REMOTE CONTROL OF DRIVING DEVICE}Image correction method for remote control of mobile device {IMAGE CORRECTION METHOD FOR REMOTE CONTROL OF DRIVING DEVICE}

본 발명의 다양한 실시예는 자율 주행 시스템과 그 제어 방법에 관한 것으로, 보다 구체적으로 이동 장치를 원격 제어하기 위해 참조되는 주행 영상 정보를 보정하기 위한 방법에 관한 것이다.Various embodiments of the present invention relate to an autonomous driving system and a control method thereof, and more particularly, to a method for correcting driving image information referred to for remotely controlling a mobile device.

오늘날 각종 차량(탈것 혹은 다양한 운송수단을 포함)의 자율주행에 대한 요구가 급속히 늘어나고 있다. 자율주행은 그 단계의 하나로서 원격주행 또는 원격 운전 기술을 포함할 수 있다.Today, the demand for autonomous driving of various vehicles (including vehicles or various means of transportation) is rapidly increasing. Autonomous driving may include remote driving or remote driving technology as one of its steps.

원격주행은, 주행 차량의 내부에 사용자가 위치하는 것이 아닌, 차량의 외부 원격지에서 주행 차량의 동작을 제어하는 것을 의미한다. 예컨대, 원격 관제 센터의 사용자(예컨대, 제어자)가 주행 차량으로부터 전송된 영상 정보에 기반하여 해당 차량의 구동을 제어할 수 있다. 이러한 원격 주행의 경우, 사용자가 주행 차량으로부터 전송되는 영상 정보에 기반하여 주행에 관련한 제어를 수행하여야 하므로, 전송되는 영상 정보의 신뢰도가 매우 중요할 수 있다.Remote driving refers to controlling the operation of a driving vehicle from a remote location outside the vehicle, rather than a user located inside the vehicle. For example, a user (eg, a controller) of a remote control center may control driving of a corresponding vehicle based on image information transmitted from a driving vehicle. In the case of such remote driving, since the user needs to perform driving-related control based on image information transmitted from the driving vehicle, the reliability of the transmitted image information may be very important.

한편, 주행영상의 경우, 카메라 모듈의 위치나 상황도 위주로 시야가 고정되어 있어, 외부에 위치한 사용자가 현장의 차량 주변 정보를 충분히 인식하지 못할 우려가 있다. 또한, 차량의 카메라 모듈로부터 획득되는 영상 정보를 원격 관제 센터에서 수신하는 과정에서 지연(예컨대, 전달 지연)이 발생할 수 있으며, 이러한 지연 시간 발생으로 인해 차량의 동작 제어에 안정성이 확보되지 않을 수 있다. 구체적으로, 주행 영상에 관련하여 지연이 발생되는 경우, 사용자가 지연된 영상 정보를 참조하여 차량의 구동 또는 주행을 제어함에 따라, 실제보다 상황 대처가 늦어질 수 있다. 이는, 부정확한 영상 정보로 인해 급변하는 상황에 신속한 대응을 어렵게 하여 큰 사고 발생을 야기시킬 우려가 있다.On the other hand, in the case of a driving image, since the field of view is fixed mainly on the position of the camera module or the situation, there is a concern that a user located outside may not sufficiently recognize information around the vehicle in the field. In addition, a delay (eg, delivery delay) may occur in the process of receiving image information obtained from a camera module of a vehicle at a remote control center, and stability may not be secured in operation control of the vehicle due to the occurrence of such delay time. . Specifically, when a delay occurs in relation to a driving image, as the user controls driving or driving of the vehicle by referring to the delayed image information, coping with the situation may be delayed. This makes it difficult to quickly respond to a rapidly changing situation due to inaccurate image information, which may cause a major accident.

이에 따라, 당 업계에는, 외부 원격지에 위치한 사용자가 차량 주변을 보다 정확하게 인지할 수 있도록 향상된 가독성을 가짐과 동시에, 지연 발생에 대응하는 영상 보정을 통해 신뢰성 있는 주행 영상 정보를 제공하는 컴퓨팅 장치에 대한 수요가 존재할 수 있다.Accordingly, in the art, there is a need for a computing device that provides reliable driving image information through image correction corresponding to the occurrence of a delay while having improved readability so that a user located in a remote location can more accurately recognize the surroundings of the vehicle. Demand may exist.

대한민국 공개특허 제10-2021-0055116(2021.05.07)Republic of Korea Patent Publication No. 10-2021-0055116 (2021.05.07)

본 발명이 해결하고자 하는 과제는 지연 시간에 대응하여 주행 영상을 보정함으로써, 실시간 주행에 관련하여 보다 신뢰도 높은 영상 정보를 제공하는데 그 목적이 있다.An object of the present invention is to provide more reliable image information related to real-time driving by correcting a driving image in response to a delay time.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.

상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 이동 장치의 원격 제어를 위한 영상 보정 방법이 개시된다. 상기 방법은, 이동 장치의 주행 영상 정보 및 상기 주행 영상 정보에 대응하는 지연 시간 정보를 획득하는 단계, 상기 지연 시간 정보에 기초하여 상기 주행 영상 정보에 대한 보정을 수행하는 단계 및 상기 보정된 주행 영상 정보를 사용자 단말로 제공하는 단계를 포함하며, 상기 사용자 단말은, 상기 주행 영상 정보 또는 상기 보정된 주행 영상 정보에 기반하여 상기 이동 장치의 동작을 제어하는 사용자에게 관련한 단말인 것을 특징으로 할 수 있다.In order to solve the above problems, an image correction method for remote control of a mobile device according to an embodiment of the present invention is disclosed. The method may include acquiring driving image information of a mobile device and delay time information corresponding to the driving image information, correcting the driving image information based on the delay time information, and correcting the corrected driving image. and providing information to a user terminal, wherein the user terminal is a terminal related to a user who controls an operation of the mobile device based on the driving image information or the corrected driving image information. .

대안적인 실시예에서, 상기 주행 영상 정보에 대한 보정을 수행하는 단계는, 상기 지연 시간 정보에 대응하는 지연 정도에 따라 상기 주행 영상 정보에 대한 보정 정도를 상이하게 결정하는 것을 특징으로 할 수 있다.In an alternative embodiment, the correcting of the driving image information may include differently determining a degree of correction of the driving image information according to a degree of delay corresponding to the delay time information.

대안적인 실시예에서, 상기 방법은, 상기 사용자 단말로부터 상기 이동 장치의 동작 조정에 관련한 동작 제어 신호를 수신하는 단계 및 상기 동작 제어 신호 및 상기 지연 시간 정보에 기초하여 상기 주행 영상 정보에 대한 보정을 수행하는 단계를 더 포함하며, 상기 동작 제어 신호는, 상기 이동 장치의 이동 방향에 관련한 제어 신호를 포함할 수 있다. In an alternative embodiment, the method may include receiving a motion control signal related to operation adjustment of the mobile device from the user terminal and correcting the driving image information based on the motion control signal and the delay time information. The operation control signal may include a control signal related to a movement direction of the mobile device.

대안적인 실시예에서, 상기 주행 영상 정보에 대한 보정을 수행하는 단계는, 상기 동작 제어 신호에 기초하여 상기 주행 영상 정보에서 조정 영역을 식별하는 단계 및 상기 식별된 조정 영역 및 상기 지연 시간 정보에 기초하여 상기 주행 영상 정보에 대한 보정을 수행하는 단계를 포함할 수 있다.In an alternative embodiment, the correcting the driving image information may include identifying an adjustment region in the driving image information based on the motion control signal and based on the identified adjustment region and the delay time information. and performing correction on the driving image information.

대안적인 실시예에서, 상기 주행 영상 정보는, 상기 이동 장치의 다양한 위치 각각에 구비된 복수의 카메라 모듈을 통해 복수 개로 획득되는 것을 특징으로 하며, 상기 사용자 단말은, 상기 복수의 주행 영상 서브 정보 중 적어도 일부를 디스플레이하기 위한 디스플레이부를 포함하는 것을 특징으로 할 수 있다.In an alternative embodiment, the driving image information may be acquired in plurality through a plurality of camera modules provided at various locations of the mobile device, and the user terminal may include among the plurality of driving image sub-information It may be characterized in that it includes a display unit for displaying at least a part.

대안적인 실시예에서, 상기 방법은, 동작 제어 신호에 기초하여 상기 복수 개의 주행 영상 정보 각각을 메인 화면 및 서브 화면 중 적어도 하나로 분류하는 단계 및 상기 메인 화면 및 상기 서브 화면에 기초하여 상기 보정된 주행 영상 정보를 생성하는 단계를 더 포함하며, 상기 메인 화면은, 시간 지연 발생에 대응하여 보정이 필요한 주행 영상 정보를 포함하며, 상기 서브 화면은, 보정에 관련하지 않은 주행 영상 정보를 포함할 수 있다.In an alternative embodiment, the method may include classifying each of the plurality of driving image information into at least one of a main screen and a sub screen based on an operation control signal, and the corrected driving based on the main screen and the sub screen. The method may further include generating image information, wherein the main screen includes driving image information requiring correction in response to the occurrence of a time delay, and the sub screen may include driving image information not related to correction. .

대안적인 실시예에서, 상기 방법은, 상기 복수 개의 주행 영상 정보에 기초하여 파노라마 영상 정보를 획득하는 단계 및 상기 파노라마 영상 정보에 기초하여 상기 서브 화면을 구성하는 단계를 더 포함할 수 있다. In an alternative embodiment, the method may further include acquiring panoramic image information based on the plurality of pieces of driving image information and configuring the sub-screen based on the panoramic image information.

대안적인 실시예에서, 상기 방법은, 상기 지연 시간 정보에 기초하여 긴급 제어 신호를 생성하여 상기 이동 장치로 전송할 것을 결정하는 단계를 더 포함할 수 있다. In an alternative embodiment, the method may further include determining to generate and transmit an emergency control signal to the mobile device based on the delay time information.

본 발명의 다른 실시예에 따르면, 이동 장치의 원격 제어를 위한 영상 보정 컴퓨팅 장치가 개시된다. 상기 영상 보정 컴퓨팅 장치는, 하나 이상의 인스트럭션을 저장하는 메모리 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 전술한 이동 장치의 원격 제어를 위한 영상 보정 방법을 수행할 수 있다.According to another embodiment of the present invention, an image calibration computing device for remote control of a mobile device is disclosed. The image correction computing device includes a memory for storing one or more instructions and a processor for executing the one or more instructions stored in the memory, the processor executing the one or more instructions, thereby enabling remote control of the aforementioned mobile device. It is possible to perform an image correction method for

본 발명의 또 다른 실시예에 따르면, 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터 프로그램이 개시된다. 상기 컴퓨터 프로그램은 하드웨어인 컴퓨터와 결합되어, 이동 장치의 원격 제어를 위한 영상 보정 방법을 수행할 수 있다.According to another embodiment of the present invention, a computer program stored in a computer-readable recording medium is disclosed. The computer program may be combined with a computer, which is hardware, to perform an image correction method for remote control of a mobile device.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

본 발명의 다양한 실시예에 따르면, 지연 시간에 대응하여 주행 영상을 보정함으로써, 실시간 주행에 관련하여 보다 신뢰도 높은 영상 정보를 제공할 수 있다. According to various embodiments of the present invention, by correcting a driving image corresponding to a delay time, more reliable image information related to real-time driving may be provided.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 발명의 일 실시예에 따른 이동 장치의 원격제어를 위한 영상 보정 방법을 수행하기 위한 시스템을 개략적으로 나타낸 도면이다.
도 2는 본 발명의 일 실시예와 관련된 사용자가 사용자 단말을 통해 이동 장치의 동작을 제어하는 과정을 예시적으로 나타낸 예시도를 도시한다.
도 3은 본 발명의 일 실시예와 관련된 이동 장치의 원격제어를 위한 영상 보정 컴퓨팅 장치의 블록 구성도를 도시한다.
도 4는 본 발명의 일 실시예와 관련된 이동 장치의 원격제어를 위한 영상 보정 방법의 예시적인 순서도를 도시한다.
도 5는 본 발명의 다른 실시예와 관련된 동작 제어 신호 및 주행 영상 정보에 기초하여 주행 영상 정보를 보정하는 방법의 예시적인 순서도를 도시한다.
도 6은 본 발명의 일 실시예와 관련된 이동 장치의 직선 이동에 따라 영상을 보정하는 과정을 예시적을 나타낸 예시도이다.
도 7은 본 발명의 다른 실시예와 관련된 이동 장치의 회전 이동에 따라 영상을 보정하는 과정을 예시적을 나타낸 예시도이다.
도 8은 본 발명의 일 실시예와 관련된 주행 영상 정보에 포함된 메인 화면 및 서브 화면을 예시적으로 나타낸 예시도이다.
도 9는 본 발명의 일 실시예와 관련된 메인 화면과 서브 화면이 보정된 주행 영상 정보 내에 가변적으로 포함됨을 설명하기 위한 예시도이다.
1 is a diagram schematically illustrating a system for performing an image correction method for remote control of a mobile device according to an embodiment of the present invention.
2 is an exemplary diagram illustrating a process of a user controlling an operation of a mobile device through a user terminal related to an embodiment of the present invention.
3 shows a block diagram of an image correction computing device for remote control of a mobile device according to an embodiment of the present invention.
4 shows an exemplary flow chart of an image correction method for remote control of a mobile device according to an embodiment of the present invention.
5 shows an exemplary flowchart of a method of correcting driving image information based on a motion control signal and driving image information related to another embodiment of the present invention.
6 is an exemplary diagram illustrating a process of correcting an image according to linear movement of a mobile device related to an embodiment of the present invention.
7 is an exemplary view illustrating a process of correcting an image according to rotational movement of a moving device according to another embodiment of the present invention.
8 is an exemplary diagram illustrating a main screen and a sub screen included in driving image information related to an embodiment of the present invention.
9 is an exemplary diagram for explaining that a main screen and a sub screen related to an embodiment of the present invention are variably included in corrected driving image information.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, only these embodiments are intended to complete the disclosure of the present invention, and are common in the art to which the present invention belongs. It is provided to fully inform the person skilled in the art of the scope of the invention, and the invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.Terminology used herein is for describing the embodiments and is not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase. As used herein, "comprises" and/or "comprising" does not exclude the presence or addition of one or more other elements other than the recited elements. Like reference numerals throughout the specification refer to like elements, and “and/or” includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various components, these components are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first element mentioned below may also be the second element within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings commonly understood by those skilled in the art to which the present invention belongs. In addition, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless explicitly specifically defined.

명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.The term "unit" or "module" used in the specification means a hardware component such as software, FPGA or ASIC, and "unit" or "module" performs certain roles. However, "unit" or "module" is not meant to be limited to software or hardware. A “unit” or “module” may be configured to reside in an addressable storage medium and may be configured to reproduce one or more processors. Thus, as an example, a “unit” or “module” may refer to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. Functions provided within components and "units" or "modules" may be combined into smaller numbers of components and "units" or "modules" or may be combined into additional components and "units" or "modules". can be further separated.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.The spatially relative terms "below", "beneath", "lower", "above", "upper", etc. It can be used to easily describe a component's correlation with other components. Spatially relative terms should be understood as including different orientations of elements in use or operation in addition to the orientations shown in the drawings. For example, if you flip a component that is shown in a drawing, a component described as "below" or "beneath" another component will be placed "above" the other component. can Thus, the exemplary term “below” may include directions of both below and above. Components may also be oriented in other orientations, and thus spatially relative terms may be interpreted according to orientation.

본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.In this specification, a computer means any kind of hardware device including at least one processor, and may be understood as encompassing a software configuration operating in a corresponding hardware device according to an embodiment. For example, a computer may be understood as including a smartphone, a tablet PC, a desktop computer, a laptop computer, and user clients and applications running on each device, but is not limited thereto.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 명세서에서 설명되는 각 단계들은 컴퓨터에 의하여 수행되는 것으로 설명되나, 각 단계의 주체는 이에 제한되는 것은 아니며, 실시 예에 따라 각 단계들의 적어도 일부가 서로 다른 장치에서 수행될 수도 있다.Although each step described in this specification is described as being performed by a computer, the subject of each step is not limited thereto, and at least a part of each step may be performed in different devices according to embodiments.

도 1은 본 발명의 일 실시예에 따른 이동 장치의 원격제어를 위한 영상 보정 방법을 수행하기 위한 시스템을 개략적으로 나타낸 도면이다. 도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 이동 장치의 원격제어를 위한 영상 보정 방법을 수행하기 위한 시스템은, 이동 장치(10), 영상 보정 컴퓨팅 장치(100), 사용자 단말(20) 및 네트워크를 포함할 수 있다. 여기서, 도 1에 도시된 이동 장치의 원격 제어를 위한 영상 보정 방법을 수행하기 위한 시스템은 일 실시예에 따른 것이고, 그 구성 요소가 도 1에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 부가, 변경 또는 삭제될 수 있다.1 is a diagram schematically illustrating a system for performing an image correction method for remote control of a mobile device according to an embodiment of the present invention. As shown in FIG. 1, a system for performing an image correction method for remote control of a mobile device according to an embodiment of the present invention includes a mobile device 10, an image correction computing device 100, and a user terminal ( 20) and networks. Here, the system for performing the image correction method for remote control of the mobile device shown in FIG. 1 is according to an embodiment, and its components are not limited to the embodiment shown in FIG. 1, and as needed may be added, changed or deleted.

본 발명의 일 실시예에 따르면, 이동 장치(10)는 동력을 생성하여 주행 또는 작업을 수행하는 이동체에 관한 것일 수 있다. 예를 들어, 이동 장치(10)는 도 1에 도시된 바와 같이 차량, 드론, 비행체, 모터사이클, 탱크 등을 포함할 수 있다. 다만 이에 제한되는 것은 아니고, 동력을 발생시켜 주행하거나 또는 다양한 산업 현장에서 생산성과 안정성을 높이기 위해 동작하는 이동체들(예컨대, 굴삭기, 지게차 등)을 더 포함할 수도 있다.According to one embodiment of the present invention, the mobile device 10 may relate to a mobile body that generates power to perform driving or work. For example, the mobile device 10 may include a vehicle, a drone, an air vehicle, a motorcycle, a tank, and the like, as shown in FIG. 1 . However, it is not limited thereto, and may further include moving bodies (eg, excavators, forklifts, etc.) that drive by generating power or operate to increase productivity and stability in various industrial sites.

실시예에서, 이동 장치(10)는 자율 주행 가능한 장치일 수 있다. 자율 주행이 가능한 장치는, 이동 장치(10) 내에 사용자가 없이도 외부와의 통신을 통해 무인 주행이 가능한 장치를 의미할 수 있다. 예컨대, 자율 주행이 가능한 장치는 장치 스스로 이동 상황을 판단하되, 외부(예컨대, 사용자 단말)에서 보내는 명령 또는 주행 신호에 관련하여 주행할 수 있다. 이러한 자율 주행 장치는, 주행 차량의 내부에 사용자가 위치하는 것이 아닌, 차량의 외부 원격지에서 주행 차량의 동작을 제어하는 원격 주행을 포함할 수 있다. In embodiments, the mobile device 10 may be an autonomous driving capable device. A device capable of autonomous driving may refer to a device capable of unmanned driving through communication with the outside without a user inside the mobile device 10 . For example, a device capable of autonomous driving may determine a movement situation by itself, but may drive in relation to a command or a driving signal sent from the outside (eg, a user terminal). Such an autonomous driving device may include remote driving in which the operation of the driving vehicle is controlled from a remote location outside the vehicle, rather than a user located inside the vehicle.

실시예에 따르면, 이동 장치(10)는 주행 또는 동작에 관련하여 실시간으로 영상 정보를 획득하고, 획득된 영상 정보를 영상 보정 컴퓨팅 장치(100) 및 사용자 단말(20) 중 적어도 하나로 전송할 수 있다. 구체적으로, 이동 장치(10)는 복수의 카메라 모듈을 포함하여 구비될 수 있으며, 구비된 카메라 모듈들을 통해 주행에 관련한 주행 영상 정보를 획득할 수 있다. 여기서 주행 영상 정보는, 단순히 주행에 관련한 영상 이외에 작업에 관련한 영상들을 더 포함할 수 있다. 예컨대, 이동체가 굴삭기에 관련한 경우, 주행 영상 정보는 굴착작업을 수행하는 과정에 관련한 영상 정보일 수 있다. 전술한 이동 장치 및 주행 영상 정보에 대한 구체적인 기재는 예시일 뿐, 본 발명은 이에 제한되지 않는다.According to an embodiment, the mobile device 10 may acquire image information in real time in relation to driving or motion, and transmit the obtained image information to at least one of the image correction computing device 100 and the user terminal 20 . Specifically, the mobile device 10 may include a plurality of camera modules, and may obtain driving image information related to driving through the camera modules provided. Here, driving image information may further include images related to work in addition to images related to driving. For example, when the moving object is related to an excavator, driving image information may be image information related to a process of performing an excavation work. The detailed description of the aforementioned mobile device and driving image information is only an example, and the present invention is not limited thereto.

즉, 이동 장치(10)가 획득한 주행 영상 정보는, 사용자 단말(20)이 원격에서 해당 이동 장치(10)의 동작을 제어하기 위해 참조가 되는 영상 정보일 수 있다. 사용자 단말(20)의 사용자는 주행 영상 정보를 통해 이동 장치(10)의 주변 상황을 인식하고, 이에 대응하여 해당 이동 장치(10)의 동작을 제어할 수 있다. 예컨대, 사용자 단말(20)이 이동 장치(10)로부터 차량이 주행하고 있는 길이 좌측 커브길에 관련한다는 주행 영상 정보를 수신하는 것에 대응하여, 사용자는 해당 주행 영상 정보를 참조하여 사용자 단말(20)의 조작부를 제어하여 이동 장치(10)가 좌측 방향으로 회전하도록 하는 동작 제어 신호를 생성할 수 있다. 전술한 주행 영상 정보 및 동작 제어 신호에 관련한 구체적인 기재는 예시일 뿐, 본 발명은 이에 제한되지 않는다.That is, the driving image information obtained by the mobile device 10 may be image information that is used as a reference for the user terminal 20 to remotely control the operation of the corresponding mobile device 10 . A user of the user terminal 20 may recognize a surrounding situation of the mobile device 10 through driving image information, and may control an operation of the corresponding mobile device 10 in response thereto. For example, in response to the user terminal 20 receiving driving image information from the mobile device 10 indicating that the road on which the vehicle is traveling is related to a left curve road, the user refers to the corresponding driving image information and displays the information to the user terminal 20. It is possible to generate an operation control signal that controls the operation unit of the mobile device 10 to rotate in the left direction. The detailed description related to the aforementioned driving image information and motion control signal is only an example, and the present invention is not limited thereto.

실시예에서, 이동 장치(10)에는 복수의 카메라 모듈이 구비될 수 있다. 복수의 카메라 모듈은, 이동 장치(10)의 각 영역에 관련한 영상 정보를 획득하기 위한 것일 수 있다. 다시 말해, 이동 장치(10)에 복수의 카메라 모듈이 구비됨에 따라, 다양한 시야에 관한 복수의 주행 영상 정보가 획득될 수 있다. 이는 원격지에 위치한 사용자에게 작업 또는 주행 환경에 관련하여 광범위한 시야를 제공할 수 있다. 실시예에서, 이동 장치(10)에서 획득되어 사용자 단말(20) 또는 영상 보정 컴퓨팅 장치(100)로 전송되는 주행 영상 정보는, 복수의 카메라 모듈 각각에 대응하는 복수의 주행 영상 정보를 포함할 수 있다.In an embodiment, the mobile device 10 may be equipped with a plurality of camera modules. The plurality of camera modules may be used to acquire image information related to each area of the mobile device 10 . In other words, as the mobile device 10 is equipped with a plurality of camera modules, a plurality of driving image information on various fields of view may be acquired. This can provide a remotely located user with a broad field of view in relation to the work or driving environment. In an embodiment, the driving image information obtained from the mobile device 10 and transmitted to the user terminal 20 or the image calibration computing device 100 may include a plurality of driving image information corresponding to each of a plurality of camera modules. there is.

다양한 실시예에서, 사용자 단말(20)은 네트워크를 통해 영상 보정 컴퓨팅 장치(100) 또는 이동 장치(10)와 연결될 수 있으며, 이동 장치(10)를 이동시키기 위한 동작 제어 신호를 제공할 수 있고, 전송된 동작 제어 신호에 대응하여 이동 장치(10)가 이동함에 따라 획득되는 주행 영상 정보를 이동 장치(10)를 통해 제공받거나 또는, 해당 주행 영상 정보에 대한 보정에 관련한 보정된 주행 영상 정보를 영상 보정 컴퓨팅 장치(100)로부터 제공받을 수 있다.In various embodiments, the user terminal 20 may be connected to the image calibration computing device 100 or the mobile device 10 through a network, and may provide an operation control signal for moving the mobile device 10, Driving image information obtained as the mobile device 10 moves in response to the transmitted motion control signal is provided through the mobile device 10, or corrected driving image information related to correction of the corresponding driving image information is displayed as an image. It may be provided from the calibration computing device 100 .

여기서, 네트워크는 복수의 사용자 단말 및 장치들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미할 수 있다. 예를 들어, 네트워크는 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷(WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다.Here, the network may refer to a connection structure capable of exchanging information between nodes such as a plurality of user terminals and devices. For example, the network includes a local area network (LAN), a wide area network (WAN), a world wide web (WWW), a wired and wireless data communication network, a telephone network, a wired and wireless television communication network, and the like.

또한, 여기서, 무선 데이터 통신망은 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), 5GPP(5th Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), RF(Radio Frequency), 블루투스(Bluetooth) 네트워크, NFC(Near-Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.In addition, here, the wireless data communication networks are 3G, 4G, 5G, 3GPP (3rd Generation Partnership Project), 5GPP (5th Generation Partnership Project), LTE (Long Term Evolution), WIMAX (World Interoperability for Microwave Access), Wi-Fi (Wi-Fi) Fi), Internet, LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network), RF (Radio Frequency), Bluetooth network, A Near-Field Communication (NFC) network, a satellite broadcasting network, an analog broadcasting network, a Digital Multimedia Broadcasting (DMB) network, and the like are included, but are not limited thereto.

일 실시예에 따르면, 사용자 단말(20)은 주행 영상 정보를 표시하기 위한 디스플레이부(21)를 포함할 수 있다. 실시예에서, 디스플레이부(21)는 복수 개로 구비될 수 있다. 예컨대, 주행 영상 정보는, 이동 장치(10)에 구비된 복수의 카메라 모듈 각각으로부터 획득됨에 따라, 복수 개로 획득될 수 있다. 이 경우, 복수 개의 주행 영상 정보는 사용자 단말(20)의 복수 개의 디스플레이부 각각에 표시될 수 있다. 구체적인 예를 들어, 이동 장치(10)에는 전방, 좌측 및 우측 각각에 관련하여 3개의 카메라 모듈이 구비될 수 있으며, 이에 따라, 사용자 단말(20)은 전방, 좌측 및 우측 각각에 관련한 3개의 주행 영상 정보를 수신할 수 있다. 이 경우, 사용자 단말(20)은, 도 2에 도시된 바와 같이, 각 주행 영상 정보를 3개의 디스플레이부 각각에 디스플레이할 수 있다. 예를 들어, 사용자 단말(20)은 실제 주행 환경과 동일하게 전방에 관련한 주행 영상 정보는 중앙에 위치한 제1 디스플레이부에 표시하고, 좌측에 관련한 주행 영상 정보는 제1디스플레이부의 좌측에 위치한 제2 디스플레이부에 표시하고 그리고, 우측에 관련한 주행 영상 정보는 제1디스플레이부의 우측에 위치한 제3디스플레이부에 표시할 수 있다. 이에 따라, 사용자(1)는 실제 주행 환경과 유사한 조작 환경 즉, 실제 이동 장치(10)의 내부에서 장치의 동작을 제어하는 것과 유사한 조작 환경을 제공받을 수 있다. According to an embodiment, the user terminal 20 may include a display unit 21 for displaying driving image information. In an embodiment, a plurality of display units 21 may be provided. For example, driving image information may be obtained in plural pieces as each of the plurality of camera modules included in the mobile device 10 is obtained. In this case, a plurality of pieces of driving image information may be displayed on each of a plurality of display units of the user terminal 20 . For example, the mobile device 10 may be provided with three camera modules in relation to the front, left, and right directions, respectively, and thus, the user terminal 20 has three driving modes in relation to the front, left, and right directions, respectively. Image information may be received. In this case, the user terminal 20 may display driving image information on each of the three display units, as shown in FIG. 2 . For example, the user terminal 20 displays driving image information related to the front on a first display unit located in the center, and driving image information related to the left side is displayed on a second display unit located on the left side of the first display unit in the same way as in an actual driving environment. Displayed on the display unit, and driving image information related to the right side may be displayed on the third display unit located on the right side of the first display unit. Accordingly, the user 1 may be provided with an operating environment similar to an actual driving environment, that is, an operating environment similar to controlling an operation of the device inside the actual mobile device 10 .

또한, 실시예에서, 사용자 단말(20)은 이동 장치(10)의 제어에 관련한 사용자의 입력을 수신하는 조작부(22)를 포함할 수 있다. 예컨대, 조작부(22)는 실제 이동 장치(10)의 조작 방법과 동일하게 구성될 수 있다. 예를 들어, 이동 장치(10)가 차량에 관련한 경우, 조작부(22)는 핸들, 기어봉, 엑셀레이터 페달 및 브레이크 페달을 통해 구성될 수 있다. 다만, 이에 한정되는 것은 아니고, 조작부는 이동 장치의 실제 구동 또는 조작에 관련한 다양한 구성 요소들을 더 포함할 수 있다.Also, in the embodiment, the user terminal 20 may include a manipulation unit 22 that receives a user's input related to control of the mobile device 10 . For example, the manipulation unit 22 may be configured in the same way as the manipulation method of the actual mobile device 10 . For example, when the mobile device 10 is related to a vehicle, the control unit 22 may be composed of a steering wheel, a gear rod, an accelerator pedal, and a brake pedal. However, it is not limited thereto, and the control unit may further include various components related to actual driving or manipulation of the mobile device.

즉, 사용자(1)는 디스플레이부(21)에 표시된 주행 영상 화면을 통해 이동 장치(10)의 주행 또는 작업 환경을 인식하고, 이에 대응하여 조작부(22)에 입력을 인가함으로써, 이동 장치(10)의 동작을 제어할 수 있다.That is, the user 1 recognizes the driving or working environment of the mobile device 10 through the driving image screen displayed on the display unit 21, and applies an input to the control unit 22 in response to this, so that the mobile device 10 ) can be controlled.

실시예에서, 사용자 단말(20)은 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 태블렛PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있으나, 이에 한정되지 않는다. 예컨대, 사용자 단말은, 핫 워드(hot word)를 기반으로 사용자와 상호작용을 통해 음악 감상, 정보 검색 등 다양한 기능을 제공하는 인공지능(AI) 스피커 및 인공지능 TV 등을 더 포함할 수 있다.In the embodiment, the user terminal 20 is a wireless communication device that ensures portability and mobility, and includes navigation, PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS (Personal Handyphone) System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet) terminal, smart All types of handheld-based wireless communication devices such as smartphones, smart pads, tablet PCs, etc. may be included, but are not limited thereto. For example, the user terminal may further include an artificial intelligence (AI) speaker and an artificial intelligence TV that provide various functions such as music appreciation and information search through interaction with a user based on a hot word.

본 발명의 일 실시예에 따르면, 이동 장치의 원격제어를 위한 영상 보정 방법을 수행하기 위한 시스템은 영상 보정 컴퓨팅 장치(100)를 포함할 수 있다. 영상 보정 컴퓨팅 장치(100)는 이동 장치(10)로부터 주행 영상 정보를 획득할 수 있으며, 획득한 주행 영상 정보에 대한 보정을 수행할 수 있다. 구체적으로, 영상 보정 컴퓨팅 장치(100)는 이동 장치(10)로부터 주행 영상 정보 및 해당 주행 영상 정보에 대응하는 지연 시간 정보를 획득할 수 있다. 지연 시간 정보는 이동 장치(10)가 실시간으로 영상 정보를 전송하는 과정에서 발생하는 지연 시간에 관련한 정보로, 데이터가 네트워크를 통해 전송 또는 수신되는데 소요되는 시간에 관한 정보일 수 있다. 예컨대, 지연 시간 정보는, 무선 통신 링크 지연과 전송 및 전송에 대응하는 수신 처리 지연 등을 포함할 수 있다. 이러한 지연 시간 정보는 이동 장치(10)의 이동에 따라 변경되는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, a system for performing an image correction method for remote control of a mobile device may include the image correction computing device 100 . The image correction computing device 100 may obtain driving image information from the mobile device 10 and may perform correction on the acquired driving image information. Specifically, the image correction computing device 100 may obtain driving image information and delay time information corresponding to the corresponding driving image information from the mobile device 10 . The delay time information is information related to a delay time generated in a process in which the mobile device 10 transmits image information in real time, and may be information about a time required for data to be transmitted or received through a network. For example, the delay time information may include a wireless communication link delay, transmission, and reception processing delay corresponding to transmission. This delay time information may be characterized in that it is changed according to the movement of the mobile device 10 .

예를 들어, 원격지에 위치한 사용자 단말(20)과 이동 장치(10)의 이격 거리에 대응하여 지연 시간이 변화될 수 있다. 다른 예를 들어, 원격지에 위치한 사용자 단말(20)과 이동 장치(10) 사이에 존재하는 장애물 또는 다양한 전파신호의 간섭에 의해 지연 시간이 증가하거나 또는 감소될 수도 있다. 전술한 지연 시간 증감에 관련한 구체적인 기재들은 일 예시일 뿐, 본 발명은 이에 제한되지 않는다.For example, the delay time may be changed according to the separation distance between the user terminal 20 located in a remote location and the mobile device 10 . For another example, the delay time may be increased or decreased due to obstacles existing between the user terminal 20 located in a remote location and the mobile device 10 or interference of various radio signals. The specific descriptions related to the increase or decrease of the delay time described above are only examples, and the present invention is not limited thereto.

실시예에서, 컴퓨팅 장치(100)는 지연 시간 정보에 기초하여 주행 영상 정보에 대한 보정을 수행할 수 있다. 구체적으로, 이동 장치(10)로부터 실시간으로 획득되는 주행 영상 정보는, 이동 장치(10)의 이동에 따라 상이한 지연 시간 정보를 포함할 수 있다. 예컨대, 주행 영상 정보가 획득되는 제1시점에는 전송 과정에서 많은 지연이 발생된다는 지연 시간 정보가 획득될 수 있으나, 제2시점에는 전송 과정에서 최소의 지연이 발생된다는 지연 시간 정보가 획득될 수 있다. 이러한 지연 시간 정보의 상이함은, 이동 장치(10)의 주행에 의해 지역 변화에 대응하여 통신의 속도가 변화됨에 따라 야기되는 것일 수 있다. 전술한 각 시점에 대응하는 지연 시간 정보에 대한 구체적인 기재는 예시일 뿐, 본 발명은 이에 제한되지 않는다.In an embodiment, the computing device 100 may correct driving image information based on the delay time information. Specifically, the driving image information acquired in real time from the mobile device 10 may include different delay time information according to the movement of the mobile device 10 . For example, at a first point in time when driving image information is obtained, delay time information indicating that a large delay occurs in a transmission process may be obtained, but at a second time point, delay time information indicating that a minimum delay occurs during a transmission process may be obtained. . This difference in delay time information may be caused by a change in communication speed corresponding to a change in the area caused by driving of the mobile device 10 . The specific description of the delay time information corresponding to each time point described above is only an example, and the present invention is not limited thereto.

즉, 이동 장치(10)로부터 획득되는 실시간 주행 영상 정보는, 이동 장치(10)의 주행에 따라 각 시점 별 상이한 지연 정도에 관련한 지연 시간 정보를 가질 수 있다. 주행 영상 정보 상에 지연이 발생되는 경우, 사용자 단말(20)에 표시되는 주행 영상 정보는 지연된 주행 영상 정보가 표시되므로, 실제 상황 보다 상황 대처가 늦어질 수 있어, 안정성이 확보되지 않을 수 있다. 특히 주행 영상 정보의 지연은 이동 장치(10)의 주행에 따라 실시간으로 변화되므로, 이러한 지연에 관련한 주행 영상 정보를 참조하여 이동 장치(10)의 조작하는 경우에는 위험성이 더 극대화될 수 있다. That is, the real-time driving image information obtained from the mobile device 10 may have delay time information related to different degrees of delay for each time point according to the driving of the mobile device 10 . When a delay occurs in the driving image information, since the driving image information displayed on the user terminal 20 is the delayed driving image information, response to the situation may be delayed compared to the actual situation, and stability may not be secured. In particular, since the delay of the driving image information changes in real time according to the driving of the mobile device 10, the risk may be further maximized when the mobile device 10 is manipulated with reference to the driving image information related to the delay.

이에 따라, 본 발명의 컴퓨팅 장치(100)는 이동 장치의 주행에 따라 실시간으로 변화하는 지연 시간 정보에 기초하여 주행 영상 정보에 대한 보정을 수행할 수 있다. 지연 시간 정보에 기초하여 주행 영상 정보에 대한 보정을 수행하는 것은, 지연 발생에도 실제 주행 환경과 유사한 시야를 갖도록 주행 영상 정보를 보정하는 것을 의미할 수 있다. 이러한 보정은 예컨대, 영상 내에서 특정 부분의 확대 및 축소를 통해 시야의 원근감을 조정하는 것을 의미할 수 있다. 이 밖에도, 컴퓨팅 장치(100)는 지연의 정도에 따라 다양한 보정 방법을 통해 주행 영상 정보를 보정함으로써, 조작 또는 주행을 수행하는 사용자에게 보다 향상된 신뢰성을 가진 주행 영상 정보를 제공할 수 있다. Accordingly, the computing device 100 of the present invention may correct driving image information based on delay time information that changes in real time according to driving of the mobile device. Correcting the driving image information based on the delay time information may mean correcting the driving image information to have a field of view similar to an actual driving environment even when a delay occurs. Such correction may mean, for example, adjusting the perspective of the field of view by enlarging or reducing a specific part in an image. In addition, the computing device 100 may provide driving image information with improved reliability to a user who manipulates or drives by correcting the driving image information through various correction methods according to the degree of delay.

이하에서 도 3 내지 도 9를 참조하여 이동 장치의 원격 제어를 위한 주행 영상 보정 방법 및 이에 대한 구체적인 효과에 대하여 보다 구체적으로 후술하도록 한다.Hereinafter, with reference to FIGS. 3 to 9 , a driving image correction method for remote control of a mobile device and specific effects thereof will be described in more detail below.

도 3은 본 발명의 일 실시예와 관련된 영상 보정 컴퓨팅 장치(100)의 예시적인 블록 구성도를 도시한다.3 shows an exemplary block diagram of an image correction computing device 100 in accordance with one embodiment of the present invention.

도 3에 도시된 바와 같이, 영상 보정 컴퓨팅 장치(100)는 네트워크부(110), 메모리(120) 및 프로세서(130)를 포함할 수 있다. 전술한 영상 보정 컴퓨팅 장치(100)에 포함된 컴포넌트들은 예시적인 것으로, 본 발명내용의 권리범위가 전술한 컴포넌트들로 제한되지 않는다. 즉, 본 발명내용의 실시예들에 대한 구현 양태에 따라서 추가적인 컴포넌트들이 포함되거나 전술한 컴포넌트들 중 일부가 생략될 수 있다.As shown in FIG. 3 , the image correction computing device 100 may include a network unit 110 , a memory 120 and a processor 130 . The components included in the above image correction computing device 100 are examples, and the scope of the present invention is not limited to the above components. That is, additional components may be included or some of the above components may be omitted according to implementation aspects of the embodiments of the present invention.

본 발명의 일 실시예에 따르면, 영상 보정 컴퓨팅 장치(100)는 이동 장치(10) 및 사용자 단말(20)과 데이터를 송수신하는 네트워크부(110)를 포함할 수 있다. 네트워크부(110)는 본 발명의 일 실시예에 따른 이동 장치의 원격 제어를 위한 영상 보정 방법을 수행하기 위한 데이터들을 다른 컴퓨팅 장치, 서버 등과 송수신할 수 있다. 즉, 네트워크부(110)는 영상 보정 컴퓨팅 장치(100)와 사용자 단말들 또는 영상 보정 컴퓨팅 장치(100)와 이동 장치(10) 간의 통신 기능을 제공할 수 있다.According to an embodiment of the present invention, the image correction computing device 100 may include a network unit 110 that transmits and receives data to and from the mobile device 10 and the user terminal 20 . The network unit 110 may transmit and receive data for performing an image correction method for remote control of a mobile device according to an embodiment of the present invention to another computing device, a server, and the like. That is, the network unit 110 may provide a communication function between the image compensating computing device 100 and user terminals or between the image compensating computing device 100 and the mobile device 10 .

예를 들어, 네트워크부(110)는 이동 장치(10)로부터 주행 영상 정보를 수신할 수 있다. 또한, 예를 들어, 네트워크부(110)는 보정된 주행 영상 정보를 사용자 단말(20)로 전송할 수 있다. 추가적으로, 네트워크부(110)는 영상 보정 컴퓨팅 장치(100)로 프로시저를 호출하는 방식으로 영상 보정 컴퓨팅 장치(100)와 사용자 단말들 또는 영상 보정 컴퓨팅 장치(100)와 이동 장치(10) 간의 정보 전달을 허용할 수 있다.For example, the network unit 110 may receive driving image information from the mobile device 10 . Also, for example, the network unit 110 may transmit corrected driving image information to the user terminal 20 . Additionally, the network unit 110 calls a procedure to the image compensating computing device 100, thereby providing information between the image compensating computing device 100 and user terminals or between the image compensating computing device 100 and the mobile device 10. transfer can be allowed.

본 발명의 일 실시예에 따른 네트워크부(110)는 공중전화 교환망(PSTN: Public Switched Telephone Network), xDSL(x Digital Subscriber Line), RADSL(Rate Adaptive DSL), MDSL(Multi Rate DSL), VDSL(Very High Speed DSL), UADSL(Universal Asymmetric DSL), HDSL(High Bit Rate DSL) 및 근거리 통신망(LAN) 등과 같은 다양한 유선 통신 시스템들을 사용할 수 있다.The network unit 110 according to an embodiment of the present invention includes a Public Switched Telephone Network (PSTN), x Digital Subscriber Line (xDSL), Rate Adaptive DSL (RADSL), Multi Rate DSL (MDSL), and VDSL ( Various wired communication systems such as Very High Speed DSL), Universal Asymmetric DSL (UADSL), High Bit Rate DSL (HDSL), and Local Area Network (LAN) may be used.

또한, 본 명세서에서 제시되는 네트워크부(110)는 CDMA(Code Division Multi Access), TDMA(Time Division Multi Access), FDMA(Frequency Division Multi Access), OFDMA(Orthogonal Frequency Division Multi Access), SC-FDMA(Single Carrier-FDMA) 및 다른 시스템들과 같은 다양한 무선 통신 시스템들을 사용할 수 있다.In addition, the network unit 110 presented in this specification includes Code Division Multi Access (CDMA), Time Division Multi Access (TDMA), Frequency Division Multi Access (FDMA), Orthogonal Frequency Division Multi Access (OFDMA), SC-FDMA ( Single Carrier-FDMA) and other systems.

본 발명에서 네트워크부(110)는 유선 및 무선 등과 같은 그 통신 양태를 가리지 않고 구성될 수 있으며, 단거리 통신망(PAN: Personal Area Network), 근거리 통신망(WAN: Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 또한, 상기 네트워크는 공지의 월드와이드웹(WWW: World Wide Web)일 수 있으며, 적외선(IrDA: Infrared Data Association) 또는 블루투스(Bluetooth)와 같이 단거리 통신에 이용되는 무선 전송 기술을 이용할 수도 있다. 본 명세서에서 설명된 기술들은 위에서 언급된 네트워크들뿐만 아니라, 다른 네트워크들에서도 사용될 수 있다.In the present invention, the network unit 110 may be configured regardless of its communication mode, such as wired and wireless, and may be configured with various communication networks such as a personal area network (PAN) and a wide area network (WAN). can In addition, the network may be the known World Wide Web (WWW), or may use a wireless transmission technology used for short-range communication, such as Infrared Data Association (IrDA) or Bluetooth. The techniques described herein may be used in the networks mentioned above as well as other networks.

본 발명의 실시예에 따르면, 영상 보정 컴퓨팅 장치(100)에는 메모리(120)가 구비될 수 있다. 메모리(120)는 영상 보정 컴퓨팅 장치(100)에서 구동되는 다수의 응용 프로그램, 이동 장치(10)로부터 획득한 주행 영상 데이터에 대한 보정을 위한 데이터들, 명령어들이 저장되어 있을 수 있다. 이러한 응용 프로그램 중 적어도 일부는 출고 당시부터 각 영상 보정 컴퓨팅 장치에 존재할 수 있다.According to an embodiment of the present invention, the image correction computing device 100 may include a memory 120 . The memory 120 may store a plurality of application programs run in the image correction computing device 100 , data for correcting driving image data obtained from the mobile device 10 , and commands. At least some of these applications may be present in each image calibration computing device from the factory.

일 실시예에 따르면, 메모리(120)는 본 발명의 일 실시예에 따른 이동 장치의 원격 제어를 위한 영상 보정 방법을 수행하기 위한 컴퓨터 프로그램을 저장할 수 있으며, 저장된 컴퓨터 프로그램은 프로세서(130)에 의하여 판독되어 구동될 수 있다. 또한, 메모리(120)는 프로세서(130)가 생성하거나 결정한 임의의 형태의 정보 및 네트워크부(110)가 수신한 임의의 형태의 정보를 저장할 수 있다. 예컨대, 메모리(120)는 입/출력되는 데이터들을 임시 또는 영구 저장할 수 있다. 구체적인 예를 들어, 메모리(120)는 주행 영상 정보 및 해당 주행 영상 정보에 대응하는 보정된 주행 영상 정보에 관한 정보들을 저장할 수 있다. 전술한 메모리에 저장되는 정보들에 대한 구체적인 기재는 예시일 뿐, 본 발명은 이에 제한되지 않는다.According to an embodiment, the memory 120 may store a computer program for performing an image correction method for remote control of a mobile device according to an embodiment of the present invention, and the stored computer program is executed by the processor 130. can be read and driven. In addition, the memory 120 may store any type of information generated or determined by the processor 130 and any type of information received by the network unit 110 . For example, the memory 120 may temporarily or permanently store input/output data. For example, the memory 120 may store driving image information and information about corrected driving image information corresponding to the corresponding driving image information. The detailed description of the information stored in the aforementioned memory is only an example, and the present invention is not limited thereto.

본 발명의 일 실시예에 따르면, 메모리(120)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.According to an embodiment of the present invention, the memory 120 is a flash memory type, a hard disk type, a multimedia card micro type, or a card type memory (eg, SD or XD memory, etc.), RAM (Random Access Memory, RAM), SRAM (Static Random Access Memory), ROM (Read-Only Memory, ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory) -Only Memory), a magnetic memory, a magnetic disk, and an optical disk may include at least one type of storage medium.

본 발명의 일 실시예에 따르면, 영상 보정 컴퓨팅 장치(100)는 프로세서(130)를 포함할 수 있다. 프로세서(130)는 하나 이상의 코어로 구성될 수 있으며, 컴퓨팅 장치의 중앙 처리 장치(CPU: central processing unit), 범용 그래픽 처리 장치(GPGPU: general purpose graphics processing unit), 텐서 처리 장치(TPU: tensor processing unit) 등의 데이터 분석을 위한 프로세서를 포함할 수 있다.According to one embodiment of the present invention, the image correction computing device 100 may include a processor 130 . The processor 130 may include one or more cores, and includes a central processing unit (CPU), a general purpose graphics processing unit (GPGPU), and a tensor processing unit (TPU) of the computing device. unit) may include a processor for data analysis.

일 실시예에 따르면, 프로세서(130)는 통상적으로 영상 보정 컴퓨팅 장치(100)의 전반적인 동작을 처리할 수 있다. 프로세서(130)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(120)에 저장된 응용 프로그램을 구동함으로써, 이동 장치(10) 또는 사용자 단말(20)에게 적정한 정보 또는, 기능을 제공하거나 처리할 수 있다. 예를 들어, 프로세서(130)는 주행 영상 정보에 대응하여 보정된 주행 영상 정보를 생성할 수 있다. According to one embodiment, the processor 130 may typically process overall operations of the image calibration computing device 100 . The processor 130 processes signals, data, information, etc. input or output through the components described above or runs an application program stored in the memory 120, thereby providing appropriate information to the mobile device 10 or the user terminal 20. Alternatively, it may provide or process a function. For example, the processor 130 may generate corrected driving image information corresponding to the driving image information.

구체적인 예를 들어, 프로세서(130)는 지연에 관련한 지연 시간 정보에 기초하여 주행 영상 정보를 보정하고, 보정된 주행 영상 정보를 사용자 단말(20)로 전송할 것을 결정할 수 있다. 실시예에서, 보정된 주행 영상 정보는, 지연 정도 및 동작 제어 신호에 따라 보정 정도, 보정 영역 등이 상이하게 결정되는 것을 특징으로 할 수 있다.For a specific example, the processor 130 may correct driving image information based on delay time information related to delay, and may determine to transmit the corrected driving image information to the user terminal 20 . In an embodiment, the corrected driving image information may be characterized in that a correction degree, a correction area, and the like are differently determined according to a delay amount and an operation control signal.

또한, 프로세서(130)는 이동 장치(10)로부터 주행 영상 정보 및 해당 주행 영상 정보에 대응하는 지연 시간 정보를 획득할 수 있으며, 지연 시간 정보에 기초하여 주행 영상 정보에 대한 보정을 수행할 수 있다. 또한, 프로세서(130)는 보정된 주행 영상 정보를 사용자 단말(20)로 전송할 것을 결정할 수 있다.In addition, the processor 130 may obtain driving image information and delay time information corresponding to the corresponding driving image information from the mobile device 10, and may perform correction on the driving image information based on the delay time information. . Also, the processor 130 may determine to transmit the corrected driving image information to the user terminal 20 .

프로세서(130)가 주행 영상 정보를 보정하는 방법에 대해서는, 이하의 도 4 내지 도 9를 참조하여 자세히 후술하도록 한다.A method of correcting driving image information by the processor 130 will be described later in detail with reference to FIGS. 4 to 9 .

도 4는 본 발명의 일 실시예와 관련된 이동 장치의 원격제어를 위한 영상 보정 방법의 예시적인 순서도를 도시한다. 도 4에 도시된 이동 장치의 원격제어를 위한 영상 보정 방법을 수행하기 위한 단계들은 필요에 의해 순서가 변경될 수 있으며, 적어도 하나 이상의 단계가 생략 또는 추가될 수 있다. 즉, 이하의 단계들은 본 발명의 일 실시예에 불과할 뿐, 본 발명의 권리 범위는 이에 제한되지 않는다.4 shows an exemplary flow chart of an image correction method for remote control of a mobile device according to an embodiment of the present invention. The order of steps for performing the image correction method for remote control of a mobile device shown in FIG. 4 may be changed as needed, and at least one or more steps may be omitted or added. That is, the following steps are only one embodiment of the present invention, and the scope of the present invention is not limited thereto.

본 발명의 일 실시예에 따르면, 프로세서(130)는 이동 장치(10)의 주행 영상 정보 및 주행 영상 정보에 대응하는 지연 시간 정보를 획득할 수 있다(S110). 주행 영상 정보는, 사용자 단말(20)이 원격지에서 해당 이동 장치(10)의 동작을 제어하기 위해 참조가 되는 영상 정보일 수 있다. 본 발명에서 지연 시간 정보는, 실시간으로 영상 정보를 전송하는 과정에서 발생하는 지연 시간에 관련한 정보로, 데이터가 네트워크를 통해 전송 또는 수신되는데 소요되는 시간에 관한 정보일 수 있다. 예컨대, 지연 시간 정보는 주행 영상 정보가 수신되는 제1 시점에 대응하여 지연이 10ms 발생하였다는 정보를 포함할 수 있다. 전술한 지연에 관련한 구체적인 수치적 기재는 예시일 뿐, 본 발명은 이에 제한되지 않는다. According to an embodiment of the present invention, the processor 130 may obtain driving image information of the mobile device 10 and delay time information corresponding to the driving image information (S110). The driving image information may be reference image information for the user terminal 20 to control the operation of the corresponding mobile device 10 from a remote location. In the present invention, delay time information is information related to delay time occurring in the process of transmitting image information in real time, and may be information about time required for data to be transmitted or received through a network. For example, the delay time information may include information indicating that a delay of 10 ms has occurred corresponding to a first time point at which the driving image information is received. Specific numerical descriptions related to the aforementioned delay are only examples, and the present invention is not limited thereto.

본 발명의 일 실시예에 따르면, 프로세서(130)는 지연 시간 정보에 기초하여 주행 영상 정보에 대한 보정을 수행할 수 있다(S120). 구체적으로, 프로세서(130)는 지연 시간 정보에 대응하는 지연 정도에 따라 주행 영상 정보에 대한 보정 정도를 상이하게 결정할 수 있다. 여기서 주행 영상 정보에 대한 보정은, 지연이 발생하더라도 실제 주행 환경과 유사한 시야를 갖도록 주행 영상 정보를 보정하는 것을 의미할 수 있다. 예를 들어, 주행 영상 정보에 대한 보정은, 확대 및 축소에 관한 보정, 회전각 조정에 관한 보정 및 분할 화면 조정에 관한 보정 등을 포함할 수 있다.According to an embodiment of the present invention, the processor 130 may correct driving image information based on the delay time information (S120). Specifically, the processor 130 may differently determine the degree of correction for the driving image information according to the degree of delay corresponding to the delay time information. Here, correction of the driving image information may mean correcting the driving image information so as to have a field of view similar to the actual driving environment even if a delay occurs. For example, correction of driving image information may include correction of enlargement and reduction, correction of rotation angle adjustment, correction of split screen adjustment, and the like.

실시예에 따르면, 지연 시간 정보는 이동 장치(10)의 이동에 따라 변화되는 것을 특징으로 할 수 있다. 예를 들어, 원격지에 위치한 사용자 단말(20)과 이동 장치(10)의 이격 거리에 대응하여 지연 시간이 변화될 수 있다. 다른 예를 들어, 원격지에 위치한 사용자 단말(20)과 이동 장치(10) 사이에 존재하는 장애물 또는 다양한 전파신호의 간섭에 의해 지연 시간이 증가하거나 또는 감소될 수도 있다. 전술한 지연 시간 변화에 관련한 구체적인 기재들은 일 예시일 뿐, 본 발명은 이에 제한되지 않는다.According to an embodiment, the delay time information may be changed according to the movement of the mobile device 10 . For example, the delay time may be changed according to the separation distance between the user terminal 20 located in a remote location and the mobile device 10 . For another example, the delay time may be increased or decreased due to obstacles existing between the user terminal 20 located in a remote location and the mobile device 10 or interference of various radio signals. The specific descriptions related to the aforementioned delay time change are only examples, and the present invention is not limited thereto.

실시예에서, 프로세서(130)는 지연 시간 정보에 대응하는 지연 정도에 따라 주행 영상 정보에 대한 보정 정도를 상이하게 결정할 수 있다. 다시 말해, 프로세서(130)는 지연 시간 정보의 변화에 따라 주행 영상 정보에 대한 보정 정도를 상이하게 결정할 수 있다. 예를 들어, 지연 시간 정보가 큰 지연이 발생하였다는 정보(예컨대, 지연이 300ms 발생하였다는 정보)를 포함하는 경우, 프로세서(130)는 주행 영상 정보에 대한 보정 정도를 크게 결정할 수 있다. 다른 예를 들어, 지연 시간 정보가 지연이 거의 발생하지 않았다는 정보(예컨대, 지연이 1ms 발생하였다는 정보)를 포함하는 경우, 프로세서(130)는 주행 영상 정보에 대한 보정 정도를 작게 결정할 수 있다. 다시 말해, 프로세서(130)는 이동 장치(10)의 이동에 따라 지연이 크게 발생하는 구간에서는 보정 정도를 크게 하고, 그리고 지연이 적게 발생하는 구간에서는 보정 정도를 작게 결정할 수 있다. 전술한 지연 시간 정보에 대한 구체적인 수치적 기재는 예시일 뿐, 본 발명은 이에 제한되지 않는다. In an embodiment, the processor 130 may differently determine the degree of correction for the driving image information according to the degree of delay corresponding to the delay time information. In other words, the processor 130 may differently determine a correction degree for driving image information according to a change in delay time information. For example, when the delay time information includes information that a large delay occurs (eg, information that a delay occurs of 300 ms), the processor 130 may determine a correction degree for the driving image information to be large. For another example, when the delay time information includes information that almost no delay occurs (eg, information that the delay occurs by 1 ms), the processor 130 may determine a small correction degree for the driving image information. In other words, the processor 130 may determine a large correction degree in a section where a large delay occurs according to the movement of the mobile device 10 and a small correction degree in a section where a small delay occurs. Specific numerical description of the aforementioned delay time information is only an example, and the present invention is not limited thereto.

즉, 프로세서(130)는 지연 발생 정도에 따라 주행 영상 정보에 대한 보정 정도를 상이하게 결정함으로써, 지연에 대응하여 보다 적절한 보정을 수행할 수 있다.That is, the processor 130 may perform more appropriate correction in response to the delay by differently determining the degree of correction for the driving image information according to the degree of delay.

또한, 실시예에 따르면, 프로세서(130)는 지연 시간 정보의 변화량에 기초하여 주행 영상 정보에 대한 보정을 수행할 수 있다. 예를 들어, 이동 장치(10)의 주행에 관련하여 지연 시간이 300ms에서 10ms로 변화된 경우(즉, 지연 시간이 짧아진 경우), 프로세서(130)는 주행 영상 정보를 축소하는 보정을 수행하여 보다 넓은 시야를 가지도록 할 수 있다. 다른 예를 들어, 이동 장치(10)의 주행에 관련하여 지연 시간이 20ms에서 250ms로 변화된 경우(즉, 지연 시간이 늘어난 경우), 프로세서(130)는 주행 영상 정보를 확대하는 보정을 수행하여 보다 근접한 시야를 가지도록 할 수 있다. 전술한 지연 시간에 대한 구체적인 수치적 기재 및 보정 방법에 대한 구체적인 기재는 예시일 뿐, 본 발명은 이에 제한되지 않는다.Also, according to an embodiment, the processor 130 may perform correction on driving image information based on the amount of change in delay time information. For example, when the delay time is changed from 300 ms to 10 ms in relation to the driving of the mobile device 10 (ie, when the delay time is shortened), the processor 130 performs correction to reduce driving image information to make it more visible. It can give you a wide field of view. For another example, when the delay time is changed from 20 ms to 250 ms in relation to the driving of the mobile device 10 (ie, the delay time is increased), the processor 130 performs correction to enlarge the driving image information to make it more visible. You can have a close-up view. The specific numerical description of the aforementioned delay time and the specific description of the correction method are only examples, and the present invention is not limited thereto.

즉, 프로세서(130)는 지연 시간의 변화에 대응하여 주행 영상 정보에 대한 보다 적정한 보정을 수행할 수 있다. 이 경우, 주행 영상 정보를 확대 또는 축소에 관련한 보정은 사용자 단말(20)의 사용자로 하여금 원근감에 변화를 주기위한 것일 수 있다.That is, the processor 130 may more appropriately correct the driving image information in response to a change in delay time. In this case, the correction related to the enlargement or reduction of the driving image information may be for the user of the user terminal 20 to change the perspective.

일 실시예에 따르면, 프로세서(130)는 사용자 단말(20)로부터 동작 제어 신호를 수신할 수 있으며, 해당 동작 제어 신호 및 지연 시간 정보에 기초하여 주행 영상 정보에 대한 보정을 수행할 수 있다. 동작 제어 신호 및 지연 시간 정보에 기초하여 주행 영상 정보를 보정하는 방법에 대하여 도 5를 참조하여 이하에서 후술하도록 한다.According to an embodiment, the processor 130 may receive an operation control signal from the user terminal 20 and may correct driving image information based on the corresponding operation control signal and delay time information. A method of correcting driving image information based on an operation control signal and delay time information will be described below with reference to FIG. 5 .

실시예에 따르면, 프로세서(130)는 사용자 단말(20)로부터 이동 장치(10)의 동작 조정에 관련한 동작 제어 신호를 수신할 수 있다(S210). 동작 제어 신호는, 이동 장치(10)의 이동 방향에 관련한 제어 신호를 포함할 수 있다. 다양한 실시예에서, 동작 제어 신호는 이동 장치(10)의 이동 방향 즉 주행에 관련한 제어 신호 뿐만 아니라, 특정 작업을 위한 제어 신호들을 더 포함할 수 있다. 예컨대, 이동 장치(10)가 지게차에 관련한 경우, 동작 제어 신호는 지게의 상승 및 하강에 관련한 제어 신호를 더 포함할 수 있다.According to the embodiment, the processor 130 may receive an operation control signal related to operation adjustment of the mobile device 10 from the user terminal 20 (S210). The operation control signal may include a control signal related to the movement direction of the mobile device 10 . In various embodiments, the operation control signal may further include control signals for specific tasks as well as control signals related to the moving direction of the mobile device 10, that is, driving. For example, when the mobile device 10 is related to a forklift, the operation control signal may further include a control signal related to the lifting and lowering of the forklift.

본 발명의 실시예에 따르면, 프로세서(130)는 동작 제어 신호에 기초하여 주행 영상 정보에서 조정 영역을 식별할 수 있다(S220). 구체적으로, 프로세서(130)는 동작 제어 신호에 포함된 방향 정보에 기초하여 주행 영상 정보에서 조정 영역을 식별할 수 있다. 여기서 조정 영역은, 주행 영상 내에서 보정되는 영역에 관한 정보일 수 있다. 즉, 조정 영역을 식별하는 것은, 주행 영상에서 보정이 필요할 것으로 예상되는 부분을 식별하는 것을 의미할 수 있다. 실시예에서, 조정 영역에 기초하여 보정된 주행 영상 정보가 획득될 수 있다. 예컨대, 주행 영상 정보에서 조정 영역을 제외한 다른 영역이 제거됨에 따라 보정된 주행 영상 정보가 획득될 수 있다. According to an embodiment of the present invention, the processor 130 may identify an adjustment area from the driving image information based on the motion control signal (S220). In detail, the processor 130 may identify an adjustment area in the driving image information based on direction information included in the motion control signal. Here, the adjustment region may be information about a region to be corrected in the driving video. That is, identifying the adjustment region may mean identifying a portion in the driving image that is expected to require correction. In an embodiment, driving image information corrected based on the adjustment region may be acquired. For example, corrected driving image information may be acquired as regions other than the adjustment region are removed from the driving image information.

구체적인 예를 들어, 도 6 및 도 7을 참조하면, 동작 제어 신호가 도 6의 (a)에 도시된 바와 같이 이동 장치(10)를 직진시키기 위한 제어 신호에 관련한 경우, 프로세서(130)는, 도 6의 (b)와 같이, 주행 영상 정보(200)에서 중앙 영역을 조정 영역(201)으로 식별할 수 있다.As a specific example, referring to FIGS. 6 and 7 , when the operation control signal is related to a control signal for moving the mobile device 10 straight as shown in FIG. 6 (a), the processor 130, As shown in (b) of FIG. 6 , in the driving image information 200 , the center area may be identified as the adjustment area 201 .

다른 예를 들어, 동작 제어 신호가 도 7의 (a)에 도시된 바와 같이, 이동 장치(10)의 우회전에 관련한 제어 신호인 경우, 프로세서(130)는 도 7의 (b)와 같이 주행 영상 정보(200)에서 우측 영역을 조정 영역(201)으로 식별할 수 있다. 전술한 동작 제어 신호 및 조정 영역에 관련한 구체적인 기재는 예시일 뿐, 본 발명은 이에 제한되지 않는다. As another example, as shown in (a) of FIG. 7 , when the operation control signal is a control signal related to a right turn of the mobile device 10, the processor 130 performs a driving image as shown in (b) of FIG. In the information 200, the right area can be identified as the adjustment area 201. The above-described specific descriptions related to the operation control signal and the adjustment region are only examples, and the present invention is not limited thereto.

즉, 이동 장치(10)의 주행 방향에 관련하여 조정 영역의 위치를 식별할 수 있다. That is, the position of the adjustment area can be identified in relation to the driving direction of the mobile device 10 .

일 실시예에 따르면, 프로세서(130)는 지연 시간 정보에 기초하여 조정 영역의 크기를 결정할 수 있다. 구체적으로, 프로세서(130)는 발생되는 지연 시간의 크기에 대응하여 조정 영역의 크기를 결정할 수 있다. 예를 들어, 프로세서(130)는 지연 시간이 크게 발생되는 경우, 조정 영역의 크기를 작게 결정할 수 있으며, 지연 시간이 적게 발생되는 경우, 조정 영역의 크기를 크게 결정할 수 있다. 실시예에서, 지연 시간이 최소로 발생되는 경우, 프로세서(130)는 주행 영상 정보의 전체 크기를 조정 영역으로 식별할 수도 있다. According to an embodiment, the processor 130 may determine the size of the adjustment area based on the delay time information. Specifically, the processor 130 may determine the size of the adjustment region in response to the size of the generated delay time. For example, the processor 130 may determine a small size of the adjustment region when a large delay time occurs, and may determine a large size of the adjustment region when a small delay time occurs. In an embodiment, when the delay time is minimized, the processor 130 may identify the entire size of the driving image information as the adjustment area.

즉, 프로세서(130)는 지연 시간이 많이 발생할수록 보정에 관련한 조정 영역을 작게 결정할 수 있으며, 지연 시간이 적게 발생할수록 조정 영역을 크게 결정할 수 있다. 구체적인 예를 들어, 도 6을 참조하면, 이동 장치(10)가 직진하는 상황에 관련한 주행 영상 정보(200)에 대응하여 큰 지연이 발생하는 경우, 프로세서(130)는 보정의 대상이 되는 조정 영역(201)의 크기를 작게 결정할 수 있다. 이에 따라, 작은 영역에 관련한 보정(예컨대, 확대)이 수행되므로, 전방 영역에 보다 근접한 느낌의 시야를 제공할 수 있다. 이와 반대로, 적은 지연이 발생하는 경우, 프로세서(130)는 보정의 대상이 되는 조정 영역의 크기를 크게 결정함으로써, 비교적 큰 영역에 관련한 보정(예컨대, 확대)이 수행되도록 함으로써, 전방 영역에 대응하여 비교적 근접감이 감소된 시야를 제공할 수 있다. 다시 말해, 프로세서(130)는 지연 시간의 발생 정도에 따라 조정 영역의 크기를 상이하게 결정함으로써, 주행 영상 정보의 원근감을 조정할 수 있다. That is, the processor 130 may determine a smaller adjustment region related to correction as the delay time increases, and may determine a larger adjustment region as the delay time decreases. For example, referring to FIG. 6 , when a large delay occurs in response to driving image information 200 related to a situation in which the mobile device 10 is going straight, the processor 130 adjusts the adjustment area to be corrected. The size of (201) can be determined small. Accordingly, since correction (eg, magnification) related to a small area is performed, it is possible to provide a field of view that feels closer to the front area. On the contrary, when a small delay occurs, the processor 130 determines the size of the adjustment area to be corrected to be large, so that correction (eg, enlargement) related to a relatively large area is performed, corresponding to the front area. A field of view with a relatively reduced sense of proximity may be provided. In other words, the processor 130 may adjust the perspective of the driving image information by differently determining the size of the adjustment area according to the degree of occurrence of the delay time.

본 발명의 일 실시예에 따르면, 프로세서(130)는 식별된 조정 영역 및 지연 시간 정보에 기초하여 주행 영상 정보에 대한 보정을 수행할 수 있다(S230).According to an embodiment of the present invention, the processor 130 may perform correction on driving image information based on the identified adjustment area and delay time information (S230).

구체적으로, 프로세서(130)는 주행 영상 정보에서 조정 영역을 제외한 나머지 영역을 제거하고, 그리고 지연 시간 정도에 기초하여 주행 영상 정보에 대한 보정을 수행할 수 있다. 여기서 주행 영상 정보에 대한 보정은, 지연이 발생하더라도 실제 주행 환경과 유사한 시야를 갖도록 주행 영상 정보를 보정하는 것을 의미할 수 있다. Specifically, the processor 130 may remove an area other than the adjustment area from the driving image information, and may correct the driving image information based on the degree of delay time. Here, correction of the driving image information may mean correcting the driving image information so as to have a field of view similar to the actual driving environment even if a delay occurs.

구체적인 예를 들어, 도 6 및 도 7 참조하면, 이동 장치(10)의 직진에 관련한 동작 제어 신호에 기반하여 도 6의 (b)와 같이 조정 영역이 식별되며, 해당 시점에 큰 지연 시간이 발생된 경우, 프로세서(130)는 해당 조정 영역(201)에 기초한 보정을 통해 도 6의 (c)에 도시된 바와 같은 보정된 주행 영상 정보(200a)를 획득할 수 있다. 보정된 주행 영상 정보(200a)는 조정 영역(201)에 대한 확대 보정을 통해 획득될 수 있다. 이 경우, 조정 영역(201)의 확대 정도는, 지연 시간 정도에 대응하여 결정될 수 있다. 예컨대, 지연 시간이 많이 발생할수록, 조정 영역(201)에 관련하여 확대의 배율이 커질 수 있다. 다시 말해, 지연이 많이 발생할수록, 조정 영역(201)이 더 큰 비율로 확대되도록 함으로써, 전방 영역에 보다 근접하게 위치한 듯한 시야감을 제공할 수 있다. As a specific example, referring to FIGS. 6 and 7 , an adjustment area is identified as shown in FIG. 6(b) based on an operation control signal related to straight movement of the mobile device 10, and a large delay time occurs at that time. In this case, the processor 130 may obtain the corrected driving image information 200a as shown in FIG. 6(c) through correction based on the corresponding adjustment area 201 . The corrected driving image information 200a may be acquired through magnification correction of the adjustment area 201 . In this case, the degree of expansion of the adjustment area 201 may be determined corresponding to the degree of delay time. For example, as the delay time increases, the magnification of magnification in relation to the adjustment area 201 may increase. In other words, as the delay increases, the adjustment area 201 is enlarged at a larger rate, thereby providing a view as if it is located closer to the front area.

다른 예를 들어, 이동 장치(10)의 우회전에 관련한 동작 제어 신호에 기반하여 도 7의 (b)와 같이 조정 영역이 식별되며, 해당 시점에 큰 지연 시간이 발생된 경우, 프로세서(130)는 해당 조정 영역(201)에 기초한 보정을 통해 도 7의 (c)에 도시된 바와 같은 보정된 주행 영상 정보(200a)를 획득할 수 있다. 보정된 주행 영상 정보(200a)는 조정 영역(201)에 대한 확대 보정을 통해 획득될 수 있다. 이 경우, 조정 영역(201)의 확대 정도는, 지연 시간 정도에 대응하여 결정될 수 있다. 예컨대, 지연 시간이 많이 발생할수록, 조정 영역(201)에 관련하여 확대의 배율이 커질 수 있다. 다시 말해, 지연이 많이 발생할수록, 조정 영역(201)이 더 큰 비율로 확대되도록 함으로써, 우회전에 관련한 영역에 보다 근접하게 위치한 듯한 시야감을 제공할 수 있다. 전술한 조정 영역에 관련한 구체적인 기재는 일 예시일 뿐, 본 발명은 이에 제한되지 않는다. For another example, when an adjustment area is identified as shown in (b) of FIG. 7 based on an operation control signal related to a right turn of the mobile device 10, and a large delay occurs at that time, the processor 130 Corrected driving image information 200a as shown in FIG. 7(c) may be acquired through correction based on the corresponding adjustment area 201 . The corrected driving image information 200a may be acquired through magnification correction of the adjustment area 201 . In this case, the degree of expansion of the adjustment area 201 may be determined corresponding to the degree of delay time. For example, as the delay time increases, the magnification of magnification in relation to the adjustment area 201 may increase. In other words, as the delay increases, the adjustment area 201 is enlarged at a larger rate, thereby providing a sense of view as if it is located closer to the area related to the right turn. The specific description related to the adjustment region described above is only an example, and the present invention is not limited thereto.

즉, 지연 발생으로 인해 실제 이동 장치(10)의 주변 상황과 상이한 주행 영상 정보를 이동 장치(10)의 실제 환경과 유사하게 보정함으로써, 사용자에게 이동 장치(10)의 조작에 관련한 보다 정확한 인지 정보를 제공할 수 있다. That is, by correcting the driving image information, which is different from the surrounding situation of the actual mobile device 10 due to the occurrence of delay, to be similar to the actual environment of the mobile device 10, the user receives more accurate cognitive information related to the manipulation of the mobile device 10. can provide.

다양한 실시예에서, 동일 시점에 대응하여 주행 영상 정보는 복수 개로 획득될 수 있다. 구체적으로, 이동 장치(10)는 복수의 카메라 모듈을 포함하려 구비될 수 있으며, 구비된 카메라 모듈들을 통해 다양한 시각에 관련한 복수 개의 주행 영상 정보를 획득할 수 있다. 프로세서(130)는 이동 장치(10)로부터 복수 개의 주행 영상 정보를 수신할 수 있다. 구체적인 예를 들어, 이동 장치(10)에는 전방, 좌측 및 우측 각각에 관련하여 3개의 카메라 모듈이 구비될 수 있으며, 이에 따라, 프로세서(130)는 전방, 좌측 및 우측 각각에 관련한 3개의 주행 영상 정보를 수신할 수 있다.In various embodiments, a plurality of driving image information may be obtained corresponding to the same viewpoint. Specifically, the mobile device 10 may be provided to include a plurality of camera modules, and a plurality of driving image information related to various views may be obtained through the provided camera modules. The processor 130 may receive a plurality of pieces of driving image information from the mobile device 10 . For example, the mobile device 10 may include three camera modules in relation to the front, left, and right sides respectively, and thus, the processor 130 may generate three driving images in relation to the front side, left side, and right side respectively. information can be received.

실시예에서, 프로세서(130)는 주행 영상 정보가 복수 개로 획득되는 경우, 어떤 주행 영상 정보를 보정에 활용할 것인지 여부를 결정할 수 있다. 주행 영상 정보를 보정에 활용할 것인지 여부를 결정하는 것은, 사용자 단말(20)이 생성하는 동작 제어 신호에 기초하여 수행되는 것을 특징으로 할 수 있다.In an embodiment, when a plurality of driving image information is obtained, the processor 130 may determine which driving image information is to be used for correction. Determining whether to use the driving image information for correction may be performed based on an operation control signal generated by the user terminal 20 .

구체적으로, 프로세서(130)는 동작 제어 신호에 기초하여 복수 개의 주행 영상 정보 각각을 메인 화면 및 서브 화면 중 적어도 하나로 분류할 수 있다. 또한, 프로세서(130)는 메인 화면 및 서브 화면에 기초하여 보정된 주행 영상 정보를 생성할 수 있다. 여기서, 메인 화면은, 복수 개의 주행 영상 정보 중 시간 지연 발생에 대응하여 보정이 필요한 주행 영상 정보를 포함할 수 있으며, 서브 화면은, 보정에 관련하지 않은 주행 영상 정보를 포함할 수 있다.Specifically, the processor 130 may classify each of a plurality of pieces of driving image information into at least one of a main screen and a sub screen based on an operation control signal. Also, the processor 130 may generate corrected driving image information based on the main screen and the sub screen. Here, the main screen may include driving image information requiring correction in response to the occurrence of a time delay among a plurality of pieces of driving image information, and the sub screen may include driving image information not related to correction.

구체적인 예를 들어, 도 8을 참조하면, 동작 제어 신호가 직진에 관련한 경우, 프로세서(130)는 전방 영역에 관련한 제1 주행 영상 정보를 메인 화면(210)으로 분류하고, 좌측 및 우측 각각에 관련한 제2 주행 영상 정보 및 제3 주행 영상 정보를 서브 화면(220)으로 분류하여 보정된 주행 영상 정보를 획득할 수 있다.For example, referring to FIG. 8 , when the motion control signal is related to going straight, the processor 130 classifies the first driving image information related to the front area as the main screen 210 and relates to the left and right side respectively. Corrected driving image information may be obtained by classifying the second driving image information and the third driving image information into the sub screen 220 .

다른 예를 들어, 동작 제어 신호가 좌회전에 관련한 경우, 프로세서(130)는 전방 및 좌측 각각에 관련한 제1 주행 영상 정보 및 제2 주행 영상 정보를 메인 화면으로 분류하고, 우측에 관련한 제3 주행 영상 정보를 서브 화면으로 분류할 수 있다. For another example, when the motion control signal is related to a left turn, the processor 130 classifies the first driving image information and the second driving image information related to the front and left directions, respectively, as the main screen, and the third driving image related to the right direction. Information can be classified into sub-screens.

추가적인 실시예에서, 주행 영상 정보는, 파노라마 영상 정보에 관련한 것일 수 있다. 파노라마 영상 정보는, 일반적인 시야각 이상의 화각을 복수의 카메라를 통해 동시에 촬영하고, 촬영된 이미지들의 결합을 통해 보다 넓은 시야각을 확보(예컨대, 360도 방향의 시야)하는 영상 정보일 수 있다. 예컨대, 파노라마 비디오 이미지는 위에서 바라본 합성된 원형 뷰(circular view)에 관련한 비디오 이미지일 수 있다. 프로세서(130)는 이동 장치(10)로부터 복수의 카메라를 통해 획득한 비디오 이미지들 수신할 수 있으며, 이에 기반하여 파노라마 영상 정보를 생성할 수 있다. 다양한 실시예에서, 프로세서(130)는 도 9에 도시된 바와 같이, 이동 장치의 주행 방향에 관련한 주행 영상 정보를 통해 메인 화면(210)을 구성하며, 파노라마 영상 정보를 통해 서브 화면(220)을 구성할 수 있다. 이 경우, 주행 환경에 관련하여 보다 넓은 시야에 관한 정보가 제공될 수 있으므로, 이동 장치(10)의 제어의 편의성이 향상될 수 있다. 전술한 메인 화면 및 서브 화면에 관련한 구체적인 기재는 예시일 뿐, 본 발명은 이에 제한되지 않는다.In an additional embodiment, the driving image information may be related to panoramic image information. Panoramic image information may be image information that simultaneously captures a view angle higher than a general viewing angle through a plurality of cameras, and secures a wider viewing angle (eg, a 360-degree field of view) through a combination of the captured images. For example, the panoramic video image may be a video image related to a synthesized circular view viewed from above. The processor 130 may receive video images obtained through a plurality of cameras from the mobile device 10 and generate panoramic image information based on the received video images. In various embodiments, as shown in FIG. 9 , the processor 130 configures the main screen 210 through driving image information related to the driving direction of the mobile device and displays the sub screen 220 through panoramic image information. can be configured. In this case, since information on a wider field of view in relation to the driving environment can be provided, the convenience of controlling the mobile device 10 can be improved. The detailed description of the above-described main screen and sub screen is only an example, and the present invention is not limited thereto.

즉, 프로세서(130)는 동작 제어 신호에 기초하여 이동 장치(10)의 주행 방향을 식별하고, 해당 주행 방향과 관련한 주행 영상 정보들을 지연 시간에 기반하여 보정함으로써 메인 화면을 구성할 수 있다. 또한, 프로세서(130)는 보정에 활용되지 않은 주행 영상 정보들을 통해 메인 화면을 보조할 수 있는 서브 화면을 구성할 수 있다. 다시 말해, 복수의 주행 영상 정보들 중 이동 장치(10)의 조작에 관련한 주행 영상 정보들을 기반하여 메인 화면을 구성하고, 나머지 주행 영상 정보들을 통해 서브 화면을 구성함으로써, 이동 장치(10)의 주변 환경에 대하여 가독성이 향상된 주행 영상 정보를 제공할 수 있다.That is, the processor 130 may configure the main screen by identifying the driving direction of the mobile device 10 based on the motion control signal and correcting driving image information related to the driving direction based on the delay time. Also, the processor 130 may configure a sub-screen capable of assisting the main screen through driving image information not utilized for correction. In other words, by composing a main screen based on driving image information related to manipulation of the mobile device 10 among a plurality of driving image information and configuring a sub screen based on the remaining driving image information, the surroundings of the mobile device 10 are configured. It is possible to provide driving image information with improved readability with respect to the environment.

추가적인 실시예에서, 프로세서(130)는 지연 시간 정보에 기초하여 긴급 제어 신호를 생성하여 이동 장치(10)로 전송할 것을 결정할 수 있다. 구체적으로, 프로세서(130)는 발생되는 지연 시간이 기 설정된 임계치 이상인 경우, 긴급 제어 신호를 생성하고, 생성된 긴급 제어 신호를 이동 장치(10)로 전송하여 이동 장치(10)의 동작이 긴급 제어되도록 제어할 수 있다. 예컨대, 지나치게 큰 지연이 발생하는 경우, 주행 영상 정보에 대한 보정을 수행하더라도, 실제 주행 환경과 유사한 보정이 수행되지 않을 수 있다. 예를 들어, 지연 시간이 매우 크게 발생됨에 따라, 조정 영역이 매우 작게 설정될 수 있으며, 해당 조정 영역에 대응하여 큰 배율의 확대가 수행될 수 있다. 이 경우, 보정된 주행 영상 정보는 큰 지연에 따른 큰 비율의 확대로 인해 가독성이 현저히 떨어질 수 있으며, 이에 따라, 주행 환경의 식별이 어려워질 수 있다. 다시 말해, 지연이 지나치게 많이 발생되는 것으로 판단되는 경우, 프로세서(130)는 이동 장치(10) 제어를 위한 영상 정보의 식별이 용이하지 않은 것으로 판단하여 이동 장치(10)로 긴급 제어 신호를 전송할 수 있다. 이에 따라, 이동 장치(10)는 긴급 제어 신호를 통해 기 설정된 제어 동작을 수행할 수 있게 된다. 여기서 기 설정된 제어 동작은, 예컨대, 이동 장치(10)의 동작을 서서히 중지시키는 제어 동작 및 지연 시간이 최소가 되는 위치로 이동 장치(10)를 이동시키는 제어 동작 중 적어도 하나를 포함할 수 있다. 즉, 지연이 너무 크게 발생하는 경우, 이동 장치(10)로 하여금 긴급 제어를 수행하도록 하여, 지연된 주행 영상 정보에 기반한 사용자의 늦은 조작으로 인한 사고 발생을 사전에 방지할 수 있다.In a further embodiment, processor 130 may determine to generate and transmit an emergency control signal to mobile device 10 based on the latency information. Specifically, the processor 130 generates an emergency control signal when the generated delay time is equal to or greater than a preset threshold, and transmits the generated emergency control signal to the mobile device 10 so that the operation of the mobile device 10 is under emergency control. can be controlled as much as possible. For example, when an excessively large delay occurs, correction similar to an actual driving environment may not be performed even though driving image information is corrected. For example, as the delay time is very large, the adjustment area may be set to be very small, and a large magnification may be performed corresponding to the adjustment area. In this case, readability of the corrected driving image information may be remarkably deteriorated due to a high ratio of enlargement due to a large delay, and accordingly, identification of the driving environment may be difficult. In other words, when it is determined that too much delay occurs, the processor 130 determines that it is not easy to identify image information for controlling the mobile device 10 and transmits an emergency control signal to the mobile device 10. there is. Accordingly, the mobile device 10 can perform a preset control operation through the emergency control signal. Here, the preset control operation may include, for example, at least one of a control operation of gradually stopping the operation of the mobile device 10 and a control operation of moving the mobile device 10 to a position where the delay time is minimized. That is, when the delay is too great, the mobile device 10 may perform an emergency control, thereby preventing an accident due to a user's late manipulation based on the delayed driving image information.

본 발명의 일 실시예에 따르면, 프로세서(130)는 보정된 주행 영상 정보를 사용자 단말로 제공할 수 있다(S130). 사용자 단말(20)은 복수의 주행 영상 서브 정보 중 적어도 일부를 디스플레이하기 위한 디스플레이부(21)를 포함할 수 있다. According to an embodiment of the present invention, the processor 130 may provide the corrected driving image information to the user terminal (S130). The user terminal 20 may include a display unit 21 for displaying at least some of the plurality of driving image sub information.

실시예에서, 사용자 단말(20)의 디스플레이부(21)는 복수 개로 구비될 수 있다. 예컨대, 주행 영상 정보는, 이동 장치(10)에 구비된 복수의 카메라 모듈 각각으로부터 획득됨에 따라, 복수 개로 획득될 수 있다. 이 경우, 복수 개의 주행 영상 정보는 사용자 단말(20)의 복수 개의 디스플레이부 각각에 표시될 수 있다. 구체적인 예를 들어, 이동 장치(10)에는 전방, 좌측 및 우측 각각에 관련하여 3개의 카메라 모듈이 구비될 수 있으며, 이에 따라, 사용자 단말(20)은 전방, 좌측 및 우측 각각에 관련한 3개의 주행 영상 정보를 수신할 수 있다. 이 경우, 사용자 단말(20)은, 도 2에 도시된 바와 같이, 각 주행 영상 정보를 3개의 디스플레이부 각각에 디스플레이할 수 있다. 예를 들어, 사용자 단말(20)은 실제 주행 환경과 동일하게 전방에 관련한 주행 영상 정보는 중앙에 위치한 제1 디스플레이부에 표시하고, 좌측에 관련한 주행 영상 정보는 제1디스플레이부의 좌측에 위치한 제2 디스플레이부에 표시하고 그리고, 우측에 관련한 주행 영상 정보는 제1디스플레이부의 우측에 위치한 제3디스플레이부에 표시할 수 있다. 이에 따라, 사용자는 실제 주행 환경과 유사한 조작 환경 즉, 실제 이동 장치(10)의 내부에서 장치의 동작을 제어하는 것과 유사한 조작 환경을 제공받을 수 있다. In an embodiment, the display unit 21 of the user terminal 20 may be provided in plurality. For example, driving image information may be obtained in plural pieces as each of the plurality of camera modules included in the mobile device 10 is obtained. In this case, a plurality of pieces of driving image information may be displayed on each of a plurality of display units of the user terminal 20 . For example, the mobile device 10 may be provided with three camera modules in relation to the front, left, and right directions, respectively, and thus, the user terminal 20 has three driving modes in relation to the front, left, and right directions, respectively. Image information may be received. In this case, the user terminal 20 may display driving image information on each of the three display units, as shown in FIG. 2 . For example, the user terminal 20 displays driving image information related to the front on a first display unit located in the center, and driving image information related to the left side is displayed on a second display unit located on the left side of the first display unit in the same way as in an actual driving environment. Displayed on the display unit, and driving image information related to the right side may be displayed on the third display unit located on the right side of the first display unit. Accordingly, the user may be provided with a manipulation environment similar to an actual driving environment, that is, a manipulation environment similar to controlling an operation of the device inside the actual mobile device 10 .

또한, 사용자 단말(20)이 프로세서(130)로부터 수신하여 디스플레이부(21)를 통해 디스플레이하는 주행 영상 정보는, 변화하는 지연 시간 정보에 대응하여 보정된 주행 영상 정보이므로, 실시간 주행에 관련하여 보다 향상된 신뢰도를 가질 수 있다. 즉, 다양한 지연 시간 발생 환경에서도, 실제 이동 장치(10)의 주변 환경과 유사하도록 보정된 주행 영상 정보를 제공하므로, 이동 장치(10)의 원격 제어에 있어, 안정성 향상을 도모하는 효과를 가질 수 있다.In addition, since the driving image information that the user terminal 20 receives from the processor 130 and displays through the display unit 21 is driving image information corrected in response to the changing delay time information, it is more relevant to real-time driving. You can have improved reliability. That is, since driving image information corrected to be similar to the surrounding environment of the actual mobile device 10 is provided even in various delay time environments, it may have an effect of improving stability in remote control of the mobile device 10. there is.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.Steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, implemented in a software module executed by hardware, or implemented by a combination thereof. A software module may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art to which the present invention pertains.

본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.Components of the present invention may be implemented as a program (or application) to be executed in combination with a computer, which is hardware, and stored in a medium. Components of the present invention may be implemented as software programming or software elements, and similarly, embodiments may include various algorithms implemented as data structures, processes, routines, or combinations of other programming constructs, such as C, C++ , Java (Java), can be implemented in a programming or scripting language such as assembler (assembler). Functional aspects may be implemented in an algorithm running on one or more processors.

본 발명의 기술 분야에서 통상의 지식을 가진 자는 여기에 개시된 실시예들과 관련하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 프로세서들, 수단들, 회로들 및 알고리즘 단계들이 전자 하드웨어, (편의를 위해, 여기에서 "소프트웨어"로 지칭되는) 다양한 형태들의 프로그램 또는 설계 코드 또는 이들 모두의 결합에 의해 구현될 수 있다는 것을 이해할 것이다. 하드웨어 및 소프트웨어의 이러한 상호 호환성을 명확하게 설명하기 위해, 다양한 예시적인 컴포넌트들, 블록들, 모듈들, 회로들 및 단계들이 이들의 기능과 관련하여 위에서 일반적으로 설명되었다. 이러한 기능이 하드웨어 또는 소프트웨어로서 구현되는지 여부는 특정한 애플리케이션 및 전체 시스템에 대하여 부과되는 설계 제약들에 따라 좌우된다. 본 발명의 기술 분야에서 통상의 지식을 가진 자는 각각의 특정한 애플리케이션에 대하여 다양한 방식들로 설명된 기능을 구현할 수 있으나, 이러한 구현 결정들은 본 발명의 범위를 벗어나는 것으로 해석되어서는 안 될 것이다.Those skilled in the art will understand that the various illustrative logical blocks, modules, processors, means, circuits, and algorithm steps described in connection with the embodiments disclosed herein are electronic hardware, (for convenience) , may be implemented by various forms of program or design code (referred to herein as “software”) or a combination of both. To clearly illustrate this interchangeability of hardware and software, various illustrative components, blocks, modules, circuits, and steps have been described above generally in terms of their functionality. Whether such functionality is implemented as hardware or software depends on the particular application and the design constraints imposed on the overall system. Skilled artisans may implement the described functionality in varying ways for each particular application, but such implementation decisions should not be interpreted as causing a departure from the scope of the present invention.

여기서 제시된 다양한 실시예들은 방법, 장치, 또는 표준 프로그래밍 및/또는 엔지니어링 기술을 사용한 제조 물품(article)으로 구현될 수 있다. 용어 "제조 물품"은 임의의 컴퓨터-판독가능 장치로부터 액세스 가능한 컴퓨터 프로그램, 캐리어, 또는 매체(media)를 포함한다. 예를 들어, 컴퓨터-판독가능 매체는 자기 저장 장치(예를 들면, 하드 디스크, 플로피 디스크, 자기 스트립, 등), 광학 디스크(예를 들면, CD, DVD, 등), 스마트 카드, 및 플래쉬 메모리 장치(예를 들면, EEPROM, 카드, 스틱, 키 드라이브, 등)를 포함하지만, 이들로 제한되는 것은 아니다. 또한, 여기서 제시되는 다양한 저장 매체는 정보를 저장하기 위한 하나 이상의 장치 및/또는 다른 기계-판독가능한 매체를 포함한다. 용어 "기계-판독가능 매체"는 명령(들) 및/또는 데이터를 저장, 보유, 및/또는 전달할 수 있는 무선 채널 및 다양한 다른 매체를 포함하지만, 이들로 제한되는 것은 아니다.Various embodiments presented herein may be implemented as a method, apparatus, or article of manufacture using standard programming and/or engineering techniques. The term "article of manufacture" includes a computer program, carrier, or media accessible from any computer-readable device. For example, computer-readable media include magnetic storage devices (eg, hard disks, floppy disks, magnetic strips, etc.), optical disks (eg, CDs, DVDs, etc.), smart cards, and flash memory. device (eg, EEPROM, card, stick, key drive, etc.), but is not limited thereto. Additionally, various storage media presented herein include one or more devices and/or other machine-readable media for storing information. The term “machine-readable medium” includes, but is not limited to, wireless channels and various other media that can store, hold, and/or convey instruction(s) and/or data.

제시된 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조는 예시적인 접근들의 일례임을 이해하도록 한다. 설계 우선순위들에 기반하여, 본 발명의 범위 내에서 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조가 재배열될 수 있다는 것을 이해하도록 한다. 첨부된 방법 청구항들은 샘플 순서로 다양한 단계들의 엘리먼트들을 제공하지만 제시된 특정한 순서 또는 계층 구조에 한정되는 것을 의미하지는 않는다.It is to be understood that the specific order or hierarchy of steps in the processes presented is an example of example approaches. Based upon design priorities, it is to be understood that the specific order or hierarchy of steps in the processes may be rearranged while remaining within the scope of the present invention. The accompanying method claims present elements of the various steps in a sample order, but are not meant to be limited to the specific order or hierarchy presented.

제시된 실시예들에 대한 설명은 임의의 본 발명의 기술 분야에서 통상의 지식을 가진 자가 본 발명을 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이며, 여기에 정의된 일반적인 원리들은 본 발명의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 발명은 여기에 제시된 실시예들로 한정되는 것이 아니라, 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.The description of the presented embodiments is provided to enable any person skilled in the art to use or practice the present invention. Various modifications to these embodiments will be apparent to those skilled in the art, and the general principles defined herein may be applied to other embodiments without departing from the scope of the present invention. Thus, the present invention is not to be limited to the embodiments presented herein, but is to be construed in the widest scope consistent with the principles and novel features presented herein.

10 : 이동 장치
20 : 사용자 단말
100 : 영상 보정 컴퓨팅 장치
10: mobile device
20: user terminal
100: image correction computing device

Claims (10)

컴퓨팅 장치의 하나 이상의 프로세서에서 수행되는 방법에 있어서,
이동 장치의 주행 영상 정보 및 상기 주행 영상 정보에 대응하는 지연 시간 정보를 획득하는 단계;
상기 지연 시간 정보에 기초하여 상기 주행 영상 정보에 대한 보정을 수행하는 단계; 및
상기 보정된 주행 영상 정보를 사용자 단말로 제공하는 단계;
를 포함하며,
상기 사용자 단말은,
상기 주행 영상 정보 또는 상기 보정된 주행 영상 정보에 기반하여 상기 이동 장치의 동작을 제어하는 사용자에게 관련한 단말인 것을 특징으로 하며,
상기 주행 영상 정보에 대한 보정을 수행하는 단계는,
상기 사용자 단말로부터 상기 이동 장치의 동작 조정에 관련한 동작 제어 신호를 수신하는 단계;
상기 동작 제어 신호에 기초하여 상기 주행 영상 정보에서 조정 영역을 식별하는 단계; 및
상기 식별된 조정 영역 및 상기 지연 시간 정보에 기초하여 상기 주행 영상 정보에 대한 보정을 수행하는 단계;
를 포함하며,
상기 동작 제어 신호는,
상기 이동 장치의 이동 방향에 관련한 제어 신호를 포함하는,
이동 장치의 원격제어를 위한 영상 보정 방법.
A method performed on one or more processors of a computing device, comprising:
obtaining driving image information of a mobile device and delay time information corresponding to the driving image information;
correcting the driving image information based on the delay time information; and
providing the corrected driving image information to a user terminal;
Including,
The user terminal,
Characterized in that it is a terminal related to a user who controls an operation of the mobile device based on the driving image information or the corrected driving image information,
In the step of correcting the driving image information,
receiving an operation control signal related to operation adjustment of the mobile device from the user terminal;
identifying an adjustment area in the driving image information based on the operation control signal; and
correcting the driving image information based on the identified adjustment area and the delay time information;
Including,
The operation control signal,
Including a control signal related to the direction of movement of the mobile device,
An image correction method for remote control of a mobile device.
제1항에 있어서,
상기 주행 영상 정보에 대한 보정을 수행하는 단계는,
상기 지연 시간 정보에 대응하는 지연 정도에 따라 상기 주행 영상 정보에 대한 보정 정도를 상이하게 결정하는 것을 특징으로 하는,
이동 장치의 원격제어를 위한 영상 보정 방법.
According to claim 1,
In the step of correcting the driving image information,
Characterized in that the degree of correction for the driving image information is differently determined according to the degree of delay corresponding to the delay time information,
An image correction method for remote control of a mobile device.
삭제delete 삭제delete 제1항에 있어서,
상기 주행 영상 정보는,
상기 이동 장치의 다양한 위치 각각에 구비된 복수의 카메라 모듈을 통해 복수 개로 획득되는 것을 특징으로 하며,
상기 사용자 단말은,
상기 복수의 주행 영상 서브 정보 중 적어도 일부를 디스플레이하기 위한 디스플레이부를 포함하는 것을 특징으로 하는,
이동 장치의 원격제어를 위한 영상 보정 방법.
According to claim 1,
The driving image information,
Characterized in that a plurality of cameras are obtained through a plurality of camera modules provided at various positions of the mobile device,
The user terminal,
Characterized in that it comprises a display unit for displaying at least some of the plurality of driving image sub information.
An image correction method for remote control of a mobile device.
제5항에 있어서,
상기 방법은,
동작 제어 신호에 기초하여 상기 복수 개의 주행 영상 정보 각각을 메인 화면 및 서브 화면 중 적어도 하나로 분류하는 단계; 및
상기 메인 화면 및 상기 서브 화면에 기초하여 상기 보정된 주행 영상 정보를 생성하는 단계;
를 더 포함하며,
상기 메인 화면은, 시간 지연 발생에 대응하여 보정이 필요한 주행 영상 정보를 포함하며,
상기 서브 화면은, 보정에 관련하지 않은 주행 영상 정보를 포함하는,
이동 장치의 원격제어를 위한 영상 보정 방법.
According to claim 5,
The method,
classifying each of the plurality of pieces of driving image information into at least one of a main screen and a sub screen based on an operation control signal; and
generating the corrected driving image information based on the main screen and the sub screen;
Including more,
The main screen includes driving image information that needs to be corrected in response to the occurrence of time delay,
The sub screen includes driving image information not related to correction,
An image correction method for remote control of a mobile device.
제6항에 있어서,
상기 방법은,
상기 복수 개의 주행 영상 정보에 기초하여 파노라마 영상 정보를 획득하는 단계; 및
상기 파노라마 영상 정보에 기초하여 상기 서브 화면을 구성하는 단계;
를 더 포함하는,
이동 장치의 원격제어를 위한 영상 보정 방법.
According to claim 6,
The method,
obtaining panoramic image information based on the plurality of driving image information; and
configuring the sub-screen based on the panoramic image information;
Including more,
An image correction method for remote control of a mobile device.
제1항에 있어서,
상기 방법은
상기 지연 시간 정보에 기초하여 긴급 제어 신호를 생성하여 상기 이동 장치로 전송할 것을 결정하는 단계;
를 더 포함하는,
이동 장치의 원격제어를 위한 영상 보정 방법.
According to claim 1,
The above method
determining to generate and transmit an emergency control signal to the mobile device based on the delay time information;
Including more,
An image correction method for remote control of a mobile device.
하나 이상의 인스트럭션을 저장하는 메모리; 및
상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
제1항의 방법을 수행하는, 장치.
a memory that stores one or more instructions; and
a processor to execute the one or more instructions stored in the memory;
By executing the one or more instructions, the processor:
An apparatus that performs the method of claim 1 .
하드웨어인 컴퓨터와 결합되어, 제1항의 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터 프로그램.A computer program stored in a computer-readable recording medium to be combined with a computer, which is hardware, to perform the method of claim 1.
KR1020210151225A 2021-11-05 2021-11-05 Image correction method for remote control of driving device KR102553130B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210151225A KR102553130B1 (en) 2021-11-05 2021-11-05 Image correction method for remote control of driving device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210151225A KR102553130B1 (en) 2021-11-05 2021-11-05 Image correction method for remote control of driving device

Publications (2)

Publication Number Publication Date
KR20230065550A KR20230065550A (en) 2023-05-12
KR102553130B1 true KR102553130B1 (en) 2023-07-07

Family

ID=86385550

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210151225A KR102553130B1 (en) 2021-11-05 2021-11-05 Image correction method for remote control of driving device

Country Status (1)

Country Link
KR (1) KR102553130B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018103974A (en) * 2016-12-22 2018-07-05 カルソニックカンセイ株式会社 Image display control device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102069735B1 (en) * 2018-04-12 2020-02-11 주식회사 아르비존 Method and apparatus for monitoring of vehicle
KR20210055116A (en) 2019-11-06 2021-05-17 엘지전자 주식회사 Remote control unit of remote control service in autonomous driving system
KR20210089284A (en) * 2020-01-07 2021-07-16 엘지전자 주식회사 Correction of video for remote control of the vehicle in autonomous driving system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018103974A (en) * 2016-12-22 2018-07-05 カルソニックカンセイ株式会社 Image display control device

Also Published As

Publication number Publication date
KR20230065550A (en) 2023-05-12

Similar Documents

Publication Publication Date Title
CN107369197B (en) Picture processing method, device and equipment
US8433336B2 (en) Method for guiding route using augmented reality and mobile terminal using the same
US20200294304A1 (en) Method, apparatus, and recording medium for processing image
US10929999B2 (en) Obstacle avoidance during target tracking
US9919598B2 (en) Mobile terminal, image display apparatus mounted in vehicle and data processing method using the same
US10040450B1 (en) Method of controlling an autonomous vehicle and a collision avoidance device thereof
JP5884816B2 (en) Information display system having transmissive HMD and display control program
US20110271198A1 (en) Method and apparatus for providing cooperative user interface layer management with respect to inter-device communications
US20210300440A1 (en) Method and system of determining trajectory for an autonomous vehicle
CN113032065A (en) Screen refresh control method, mobile terminal and computer readable storage medium
US10362277B2 (en) Following apparatus and following system
KR102553130B1 (en) Image correction method for remote control of driving device
KR20180061916A (en) Display device and method for controlling the same
US20220196427A1 (en) Mobile Device and Vehicle
CN108037879B (en) Information display method, terminal and computer readable storage medium
CN105892753A (en) Method and device for touch screen equipment
CN113885752A (en) Icon processing method, intelligent terminal and storage medium
KR20170084810A (en) Mirroring control method and mirroring system for construction machine
CN104603862A (en) Method of enhancing moving graphical elements
CN112533047A (en) Image processing apparatus and recording medium
KR20210059457A (en) Mobile terminal
WO2019183959A1 (en) Method for updating waypoint and movable platform
WO2016140218A1 (en) Information output system, control method, and control program
JP6124777B2 (en) Display control apparatus, display control method, and image design method
CN113703441B (en) Control method, device and system of unmanned equipment

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant