KR102559789B1 - System for providing visual impairment support service using realtime streaming - Google Patents

System for providing visual impairment support service using realtime streaming Download PDF

Info

Publication number
KR102559789B1
KR102559789B1 KR1020230011643A KR20230011643A KR102559789B1 KR 102559789 B1 KR102559789 B1 KR 102559789B1 KR 1020230011643 A KR1020230011643 A KR 1020230011643A KR 20230011643 A KR20230011643 A KR 20230011643A KR 102559789 B1 KR102559789 B1 KR 102559789B1
Authority
KR
South Korea
Prior art keywords
guide
terminal
user terminal
guidance
wearable device
Prior art date
Application number
KR1020230011643A
Other languages
Korean (ko)
Inventor
문경진
Original Assignee
문경진
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 문경진 filed Critical 문경진
Priority to KR1020230011643A priority Critical patent/KR102559789B1/en
Application granted granted Critical
Publication of KR102559789B1 publication Critical patent/KR102559789B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/907Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/909Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/024Guidance services

Abstract

실시간 스트리밍을 이용한 시각장애인 안내 서비스 제공 시스템이 제공되며, 기 설정된 방향을 촬영하는 웨어러블 기기, 안내 요청을 입력받고, 웨어러블 기기로부터 촬영된 영상을 실시간으로 업로드하는 사용자 단말, 사용자 단말의 안내 요청으로 연결되고, 웨어러블 기기로부터 스트리밍되는 영상을 화면에 출력할 때 화면 내 각 객체에 대한 방향 및 거리를 오버레이하여 출력하는 안내 단말 및 사용자 단말과 웨어러블 기기가 연동되도록 매핑하여 저장하는 등록부, 사용자 단말에서 안내 요청을 전송하는 경우, 안내 단말과 사용자 단말 간을 연결하며 안내 단말로 웨어러블 기기에서 촬영된 영상이 스트리밍되도록 하는 실시간중계부, 안내 단말의 화면 내 각 객체에 대한 방향 및 거리를 오버레이되도록 표시하는 표시부, 안내 단말에서 사용자 단말의 요청에 대응하는 객체의 방향 및 거리를 안내하여 전달하는 안내부를 포함하는 안내 서비스 제공 서버를 포함한다.A system for providing a guide service for the visually impaired using real-time streaming is provided, and a wearable device that shoots a preset direction, a user terminal that receives a guide request and uploads the video captured from the wearable device in real time, and is connected to the user terminal's guide request and a guide terminal that overlays and outputs the direction and distance for each object on the screen when the video streamed from the wearable device is output on the screen, a registration unit that maps and stores the map so that the user terminal and the wearable device are interlocked, and a request for guidance from the user terminal In case of transmitting, a real-time relay unit that connects the guidance terminal and the user terminal and streams the video captured by the wearable device to the guidance terminal, a display unit that displays the direction and distance of each object in the screen of the guidance terminal in an overlay manner, and a guide service providing server including a guide unit for guiding and transmitting a direction and distance of an object corresponding to a request of a user terminal in a guide terminal.

Description

실시간 스트리밍을 이용한 시각장애인 안내 서비스 제공 시스템{SYSTEM FOR PROVIDING VISUAL IMPAIRMENT SUPPORT SERVICE USING REALTIME STREAMING}System for providing guidance service for the blind using real-time streaming {SYSTEM FOR PROVIDING VISUAL IMPAIRMENT SUPPORT SERVICE USING REALTIME STREAMING}

본 발명은 실시간 스트리밍을 이용한 시각장애인 안내 서비스 제공 시스템에 관한 것으로, 웨어러블 기기로 촬영된 영상을 안내 단말에서 실시간으로 스트리밍받아 사용자 단말로 음성으로 안내를 할 수 있도록 하는 시스템을 제공한다.The present invention relates to a system for providing a guide service for the visually impaired using real-time streaming, and provides a system that allows a user terminal to provide voice guidance by receiving real-time streaming from a guide terminal of an image captured by a wearable device.

일반적으로 보행은 길을 걸어가는 방향과 움직이는 형태인 이동과정을 통하여 이루어지는데, 방향은 어떠한 길을 걷는 환경에서 본인의 위치와 공간적개념을 알고 느낌과 시각적, 청각적 감각을 이용하는 것을 말하며, 이동은 이러한 과정에서 보다 안전하고 실시간적 판단을 통해 움직여 나가는 과정을 말한다. 시각장애인은 앞을 볼 수 없는 특성에서 보행의 요소인 방향과 이동 모두를 제약 받는다. 물론 시각장애인이 실명정도에 따라 모두 동일하다고는 볼 수 없지만, 본인 스스로 이동하는 주변 환경을 분석하고 안전하게 이동할 수가 없기 때문에 많은 제약이 따른다. 시각장애인의 보행은 실명정도에 따라 각각의 보행차이를 보이는데, 전맹자라도 태어날때 부터 선천적인 시각장애인은 아무런 회상의 개념이 없는 반면에 중도실명자는 기존의 공간적 개념을 알고 있기 때문에 머리속으로 생각하고 이해할 수 있는 정보를 가지고 있다. 처음부터 장애를 가진 선천적 시각장애인과 사고, 질병 등으로 발생된 후천적 시각장애인은 보행 시 차이가 발생되며, 정보를 인지하는데도 차이가 발생된다. 비시각장애인은 공간에 대한 감각이 눈으로 보고 이를 판단하지만 시각장애인은 손을 뻗어 닫는 범위만 인지가 가능하다.In general, walking is accomplished through the direction of walking down the street and the movement process, which is a form of movement. Direction refers to knowing one's position and spatial concept in a walking environment and using feeling, visual, and auditory senses. In this process, it refers to the process of moving through safer and real-time judgment. Visually impaired people are restricted in both direction and movement, which are elements of walking, due to their inability to see. Of course, it cannot be said that all visually impaired people are the same according to the degree of blindness, but many restrictions follow because they cannot analyze the surrounding environment and move safely by themselves. The gait of the blind person shows each gait difference according to the degree of blindness. The blind person from birth has no concept of recollection, whereas the severely blind person knows the existing spatial concept, so they think in their head. It has information you can understand. There is a difference between a congenital blind person who has a disability from the beginning and an acquired blind person caused by an accident or disease when walking and a difference in recognizing information. The non-blind person has a sense of space and judges it with their eyes, but the blind person can only perceive the extent to which they extend and close their hand.

이때, 시각장애인의 길을 안내하기 위하여 시각장애인 단말과 상담사 단말을 연결하여 길을 안내하는 방법이 연구 및 개발되었는데, 이와 관련하여, 선행기술인 한국공개특허 제2014-0048169호(2014년04월23일 공개) 및 한국등록특허 제10-0952244호(2010년04월09일 공고)에는, 시각장애인 단말과 상담사 단말을 연결하고, 시각장애인 단말에서 촬영된 촬영정보 및 위치정보를 상담사 단말로 전송하고, 상담사 단말에서 길안내를 할 수 있도록 시각장애인 단말로 전송함으로써, 시각장애인의 주변상황을 촬영하여 서버를 경유하여 상담원 단말로 중계하고, 시각장애인은 상담원으로부터 주변정보에 대한 자세한 상담을 받을 수 있는 구성과, 길안내 콜센터로 시각장애인의 이동통신단말을 연결하고, 길안내 콜센터로 길안내 서비스를 신청함과 동시에 사용자의 목적지와 현재위치정보를 제공하며, 길안내 콜센터로부터 사용자의 목적지와 현재위치정보에 기초한 다음 이동위치를 사용자에게 안내함으로써, 계단의 유무, 육교와 건널목의 유무, 신호등의 상태와 같은 필요한 정보를 실시간으로 제공하는 구성이 각각 개시되어 있다.At this time, in order to guide the way of the visually impaired, a method of guiding the way by connecting a terminal for the visually impaired and a counselor terminal has been researched and developed. Publication) and Korean Registered Patent No. 10-0952244 (published on April 9, 2010), the blind terminal and the counselor terminal are connected, and the shooting information and location information taken from the blind terminal are transmitted to the counselor terminal , By transmitting from the counselor's terminal to the terminal of the blind so that directions can be given, the surroundings of the visually impaired are filmed and relayed to the counselor's terminal via the server, and the visually impaired can receive detailed consultation on surrounding information from the counselor. Configuration, connecting the mobile communication terminal of the visually impaired to the route guidance call center, applying for route guidance service to the route guidance call center, providing the user's destination and current location information, and providing the user's destination and current location from the route guidance call center By guiding the user to the next movement location based on the information, configurations are disclosed that provide necessary information in real time, such as presence or absence of stairs, presence or absence of overpasses and crossings, and status of traffic lights.

다만, 전자의 경우 상담원 단말에서 촬영된 영상을 본다고 할지라도 영상 내 정확한 거리나 방향이 표시되지 않기 때문에 원하는 위치까지 몇 발자국을 더 가야 하는지, 어느 방향으로 가야하는지에 대한 정확한 설명이 불가하다. 후자의 경우에도 계단과 육교와 같은 장애물의 유무는 알려줄 수 있어도 몇 발자국을 더 가야 하는지 등과 같은 상세한 정보는 상담사가 알려줄 수 없다. 이에, 안내 단말의 화면 상에 공간지리정보를 결합하여 표시해줌으로써 상담사가 정확한 거리 및 방향을 사용자에게 안내해줄 수 있도록 하는 시스템의 연구 및 개발이 요구된다.However, in the former case, even if the video captured by the counselor terminal is viewed, the exact distance or direction in the video is not displayed, so it is impossible to accurately explain how many more steps to take to the desired location and which direction to go. Even in the latter case, the counselor cannot provide detailed information, such as how many more steps to go, even though it can inform the presence or absence of obstacles such as stairs and overpasses. Therefore, it is required to research and develop a system that allows a counselor to guide a user with an accurate distance and direction by combining and displaying spatial geographic information on a screen of a guidance terminal.

본 발명의 일 실시예는, 사용자 단말과 웨어러블 기기를 연동하고, 사용자 단말에서 길안내 요청을 감지한 경우, 사용자 단말과 안내 단말을 연결하여 사용자 단말의 웨어러블 기기로부터 촬영된 영상이 실시간으로 안내 단말로 전송되도록 스트리밍하고, 안내 단말의 화면 상에 촬영된 영상에 오버레이되도록 공간지리정보를 GIS(Geographic Information System) 기반으로 표시하여 제공하며, 촬영된 영상 내에서 각 객체까지의 거리 및 방향을 벡터(Vector) 포맷으로 표시해줌으로써 안내 단말에서 사용자가 보행 뿐만 아니라 키오스크, 매표소, 대중교통 이용에 도움을 받을 수 있도록 하고, 외부 뿐만 아니라 댁 내에서도 각종 물건을 찾거나 일상생활을 수행하는데 어려움이 없도록 도와줄 수 있는, 실시간 스트리밍을 이용한 시각장애인 안내 서비스 제공 시스템을 제공할 수 있다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.According to an embodiment of the present invention, when a user terminal and a wearable device are interlocked and a request for route guidance is detected by the user terminal, the user terminal and the guidance terminal are connected so that an image captured from the wearable device of the user terminal is provided to the guidance terminal in real time. It is streamed to be transmitted to, and spatial geographic information is displayed and provided based on GIS (Geographic Information System) so that it is overlaid on the image captured on the screen of the guide terminal, and the distance and direction to each object in the captured image is vector ( Vector) format, the guide terminal can help users not only walk, but also use kiosks, ticket offices, and public transportation, and help them find various things or carry out daily life not only outside but also inside the house. It is possible to provide a guide service providing system for the visually impaired using real-time streaming. However, the technical problem to be achieved by the present embodiment is not limited to the technical problem as described above, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예는, 기 설정된 방향을 촬영하는 웨어러블 기기, 안내 요청을 입력받고, 웨어러블 기기로부터 촬영된 영상을 실시간으로 업로드하는 사용자 단말, 사용자 단말의 안내 요청으로 연결되고, 웨어러블 기기로부터 스트리밍되는 영상을 화면에 출력할 때 화면 내 각 객체에 대한 방향 및 거리를 오버레이하여 출력하는 안내 단말 및 사용자 단말과 웨어러블 기기가 연동되도록 매핑하여 저장하는 등록부, 사용자 단말에서 안내 요청을 전송하는 경우, 안내 단말과 사용자 단말 간을 연결하며 안내 단말로 웨어러블 기기에서 촬영된 영상이 스트리밍되도록 하는 실시간중계부, 안내 단말의 화면 내 각 객체에 대한 방향 및 거리를 오버레이되도록 표시하는 표시부, 안내 단말에서 사용자 단말의 요청에 대응하는 객체의 방향 및 거리를 안내하여 전달하는 안내부를 포함하는 안내 서비스 제공 서버를 포함한다.As a technical means for achieving the above-described technical problem, an embodiment of the present invention is a wearable device for photographing a preset direction, a user terminal for receiving a guide request and uploading an image captured from the wearable device in real time, and a user A guide terminal that is connected to the terminal's guidance request and outputs the direction and distance of each object on the screen as an overlay when outputting an image streamed from the wearable device on the screen, and a registration unit that maps and stores the user terminal and the wearable device so that they work together. , When a user terminal sends a guide request, a real-time relay unit that connects the guide terminal and the user terminal and streams the video captured by the wearable device to the guide terminal, and displays the direction and distance for each object on the screen of the guide terminal and a guide service providing server including a display unit for overlaying display, and a guide unit for guiding and transmitting the direction and distance of an object corresponding to a request of a user terminal in a guide terminal.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 사용자 단말과 웨어러블 기기를 연동하고, 사용자 단말에서 길안내 요청을 감지한 경우, 사용자 단말과 안내 단말을 연결하여 사용자 단말의 웨어러블 기기로부터 촬영된 영상이 실시간으로 안내 단말로 전송되도록 스트리밍하고, 안내 단말의 화면 상에 촬영된 영상에 오버레이되도록 공간지리정보를 GIS(Geographic Information System) 기반으로 표시하여 제공하며, 촬영된 영상 내에서 각 객체까지의 거리 및 방향을 벡터(Vector) 포맷으로 표시해줌으로써 안내 단말에서 사용자가 보행 뿐만 아니라 키오스크, 매표소, 대중교통 이용에 도움을 받을 수 있도록 하고, 외부 뿐만 아니라 댁 내에서도 각종 물건을 찾거나 일상생활을 수행하는데 어려움이 없도록 도와줄 수 있다.According to any one of the above-described problem solving means of the present invention, when the user terminal and the wearable device are interlocked and the user terminal detects a request for route guidance, the user terminal and the guidance terminal are connected to detect a photographed image from the wearable device of the user terminal. The video is streamed so that it is transmitted to the guide terminal in real time, and spatial geographic information is displayed and provided based on the Geographic Information System (GIS) so that it is overlaid on the video captured on the screen of the guide terminal. By displaying the distance and direction in a vector format, the guidance terminal enables the user to receive assistance not only for walking but also for using kiosks, ticket offices, and public transportation. We can help you out of trouble.

도 1은 본 발명의 일 실시예에 따른 실시간 스트리밍을 이용한 시각장애인 안내 서비스 제공 시스템을 설명하기 위한 도면이다.
도 2는 도 1의 시스템에 포함된 안내 서비스 제공 서버를 설명하기 위한 블록 구성도이다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 실시간 스트리밍을 이용한 시각장애인 안내 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 실시간 스트리밍을 이용한 시각장애인 안내 서비스 제공 방법을 설명하기 위한 동작 흐름도이다.
1 is a diagram for explaining a system for providing a guide service for the blind using real-time streaming according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a guide service providing server included in the system of FIG. 1 .
3 and 4 are diagrams for explaining an embodiment in which a guide service for the visually impaired using real-time streaming according to an embodiment of the present invention is implemented.
5 is an operational flowchart illustrating a method of providing a guide service for the visually impaired using real-time streaming according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail so that those skilled in the art can easily practice the present invention with reference to the accompanying drawings. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case where it is "directly connected" but also the case where it is "electrically connected" with another element interposed therebetween. . In addition, when a part "includes" a certain component, this means that it may further include other components, not excluding other components, unless otherwise stated, and one or more other characteristics. However, it should be understood that it does not preclude the possibility of existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

명세서 전체에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본 발명의 이해를 돕기 위해 정확하거나 절대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 본 발명의 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다. As used throughout the specification, the terms "about", "substantially", etc., are used at or approximating that value when manufacturing and material tolerances inherent in the stated meaning are given, and do not convey an understanding of the present invention. Accurate or absolute figures are used to help prevent exploitation by unscrupulous infringers of the disclosed disclosure. The term "step of (doing)" or "step of" as used throughout the specification of the present invention does not mean "step for".

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체 지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.In this specification, a "unit" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Further, one unit may be realized using two or more hardware, and two or more units may be realized by one hardware. On the other hand, '~ unit' is not limited to software or hardware, and '~ unit' may be configured to be in an addressable storage medium or configured to reproduce one or more processors. Thus, as an example, '~unit' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. Functions provided within components and '~units' may be combined into smaller numbers of components and '~units' or further separated into additional components and '~units'. In addition, components and '~units' may be implemented to play one or more CPUs in a device or a secure multimedia card.

본 명세서에 있어서 단말, 장치 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말, 장치 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말, 장치 또는 디바이스에서 수행될 수도 있다. In this specification, some of the operations or functions described as being performed by a terminal, device, or device may be performed instead by a server connected to the terminal, device, or device. Likewise, some of the operations or functions described as being performed by the server may also be performed by a terminal, apparatus, or device connected to the server.

본 명세서에서 있어서, 단말과 매핑(Mapping) 또는 매칭(Matching)으로 기술된 동작이나 기능 중 일부는, 단말의 식별 정보(Identifying Data)인 단말기의 고유번호나 개인의 식별정보를 매핑 또는 매칭한다는 의미로 해석될 수 있다.In this specification, some of the operations or functions described as mapping or matching with the terminal mean mapping or matching the terminal's unique number or personal identification information, which is the terminal's identifying data. can be interpreted as

이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 실시간 스트리밍을 이용한 시각장애인 안내 서비스 제공 시스템을 설명하기 위한 도면이다. 도 1을 참조하면, 실시간 스트리밍을 이용한 시각장애인 안내 서비스 제공 시스템(1)은, 적어도 하나의 사용자 단말(100), 안내 서비스 제공 서버(300), 적어도 하나의 안내 단말(400), 적어도 하나의 웨어러블 기기(500)를 포함할 수 있다. 다만, 이러한 도 1의 실시간 스트리밍을 이용한 시각장애인 안내 서비스 제공 시스템(1)은, 본 발명의 일 실시예에 불과하므로, 도 1을 통하여 본 발명이 한정 해석되는 것은 아니다.1 is a diagram for explaining a system for providing a guide service for the blind using real-time streaming according to an embodiment of the present invention. Referring to FIG. 1 , a system 1 for providing a guide service for the visually impaired using real-time streaming includes at least one user terminal 100, a guide service providing server 300, at least one guide terminal 400, and at least one A wearable device 500 may be included. However, since the system 1 for providing a guide service for the visually impaired using real-time streaming of FIG. 1 is only one embodiment of the present invention, the present invention is not limitedly interpreted through FIG. 1 .

이때, 도 1의 각 구성요소들은 일반적으로 네트워크(Network, 200)를 통해 연결된다. 예를 들어, 도 1에 도시된 바와 같이, 적어도 하나의 사용자 단말(100)은 네트워크(200)를 통하여 안내 서비스 제공 서버(300)와 연결될 수 있다. 그리고, 안내 서비스 제공 서버(300)는, 네트워크(200)를 통하여 적어도 하나의 사용자 단말(100), 적어도 하나의 안내 단말(400), 적어도 하나의 웨어러블 기기(500)와 연결될 수 있다. 또한, 적어도 하나의 안내 단말(400)은, 네트워크(200)를 통하여 안내 서비스 제공 서버(300)와 연결될 수 있다. 그리고, 적어도 하나의 웨어러블 기기(500)는, 네트워크(200)를 통하여 적어도 하나의 사용자 단말(100), 안내 서비스 제공 서버(300) 및 적어도 하나의 안내 단말(400)과 연결될 수 있다. At this time, each component of FIG. 1 is generally connected through a network (Network, 200). For example, as shown in FIG. 1 , at least one user terminal 100 may be connected to a guidance service providing server 300 through a network 200 . Also, the guidance service providing server 300 may be connected to at least one user terminal 100 , at least one guidance terminal 400 , and at least one wearable device 500 through the network 200 . In addition, at least one guide terminal 400 may be connected to the guide service providing server 300 through the network 200 . Also, at least one wearable device 500 may be connected to at least one user terminal 100 , a guidance service providing server 300 , and at least one guidance terminal 400 through the network 200 .

여기서, 네트워크는, 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷(WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), 5GPP(5th Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), RF(Radio Frequency), 블루투스(Bluetooth) 네트워크, NFC(Near-Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.Here, the network refers to a connection structure capable of exchanging information between nodes such as a plurality of terminals and servers, and examples of such networks include a local area network (LAN) and a wide area network (WAN: Wide Area Network), the Internet (WWW: World Wide Web), wired and wireless data communications networks, telephone networks, and wired and wireless television communications networks. Examples of wireless data communication networks include 3G, 4G, 5G, 3rd Generation Partnership Project (3GPP), 5th Generation Partnership Project (5GPP), Long Term Evolution (LTE), World Interoperability for Microwave Access (WIMAX), Wi-Fi , Internet (Internet), LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network), RF (Radio Frequency), Bluetooth (Bluetooth) network, NFC ( A Near-Field Communication (Near-Field Communication) network, a satellite broadcasting network, an analog broadcasting network, a Digital Multimedia Broadcasting (DMB) network, etc. are included, but not limited thereto.

하기에서, 적어도 하나의 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다. 또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시예에 따라 변경가능하다 할 것이다.In the following, the term at least one is defined as a term including singular and plural, and even if at least one term does not exist, each component may exist in singular or plural, and may mean singular or plural. It will be self-evident. In addition, the singular or plural number of each component may be changed according to embodiments.

적어도 하나의 사용자 단말(100)은, 실시간 스트리밍을 이용한 시각장애인 안내 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 안내를 요청하는 시각장애인인 사용자의 단말일 수 있다. 이를 위하여, 사용자 단말(100)은 웨어러블 기기(500)와 연동되고, 웨어러브 기기(500)에서 촬영된 영상을 안내 서비스 제공 서버(300)를 경유하여 안내 단말(400)로 전달하는 사용자의 단말일 수 있다. 그리고, 사용자 단말(100)은 스피커 또는 이어폰으로 안내 단말(400)의 음성을 출력하는 단말일 수 있다.At least one user terminal 100 may be a terminal of a visually impaired user requesting guidance using a web page, app page, program, or application related to a guide service for the visually impaired using real-time streaming. To this end, the user terminal 100 is a user terminal that is linked with the wearable device 500 and transmits an image captured by the wearable device 500 to the guide terminal 400 via the guide service providing server 300 can be Also, the user terminal 100 may be a terminal that outputs the voice of the guidance terminal 400 through a speaker or an earphone.

여기서, 적어도 하나의 사용자 단말(100)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 사용자 단말(100)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 사용자 단말(100)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, at least one user terminal 100 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, a laptop, a desktop, a laptop, and the like equipped with a navigation system and a web browser. In this case, at least one user terminal 100 may be implemented as a terminal capable of accessing a remote server or terminal through a network. At least one user terminal 100 is, for example, a wireless communication device that ensures portability and mobility, navigation, PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet ) may include all types of handheld-based wireless communication devices such as terminals, smartphones, smart pads, tablet PCs, and the like.

안내 서비스 제공 서버(300)는, 실시간 스트리밍을 이용한 시각장애인 안내 서비스 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 제공하는 서버일 수 있다. 그리고, 안내 서비스 제공 서버(300)는, 사용자 단말(100)과 웨어러블 기기(500)를 매핑하여 등록하는 서버일 수 있다. 또, 안내 서비스 제공 서버(300)는, 사용자 단말(100)과 안내 단말(400) 간 연결에 지연이 발생하지 않도록 채널을 생성할 때 네트워크 자원 및 컴퓨팅 자원을 고려하여 채널을 생성하고 화면 전송에 지연(Delay)이 발생하지 않도록 하는 서버일 수 있다. 그리고, 안내 서비스 제공 서버(300)는 GIS를 구축하고 각 공간정보, 벡터정보 및 속성정보를 저장하고, 길안내에 필요한 적어도 하나의 POI(Point of Interest)를 설정한 후, 안내 단말(400)과 연결이 지연될 때, 딥러닝 기반 객체탐지 모델과 함께 POI 정보 및 객체 정보를 TTS(Text To Speech)로 안내하도록 하는 서버일 수 있다. 또한, 안내 서비스 제공 서버(300)는 웨어러블 기기(500)에서 촬영된 화면을 안내 단말(400)에서 실시간으로 스트리밍할 때, GIS 기반 공간정보를 오버레이(Overlay)하여 출력하도록 하는 서버일 수 있다. 이때, 안내 서비스 제공 서버(300)는 각 객체의 거리 및 방향을 벡터 포맷으로 오버레이함으로써, 안내자가 현장에 있지 않음으로 인해 발생하는 공간지각력이 낮아지는 상황을 방지하도록 하는 서버일 수 있다.The guide service providing server 300 may be a server that provides a guide service web page for the visually impaired using real-time streaming, an app page, a program, or an application. Also, the guidance service providing server 300 may be a server that maps and registers the user terminal 100 and the wearable device 500 . In addition, the guide service providing server 300 creates a channel in consideration of network resources and computing resources when creating a channel so that there is no delay in connection between the user terminal 100 and the guide terminal 400, and screen transmission is performed. It may be a server that prevents delay from occurring. In addition, the guidance service providing server 300 builds a GIS, stores each spatial information, vector information, and attribute information, sets at least one POI (Point of Interest) required for route guidance, and then sends the guidance terminal 400 It may be a server that guides POI information and object information to Text To Speech (TTS) along with a deep learning-based object detection model when the connection is delayed. In addition, the guide service providing server 300 may be a server that overlays and outputs GIS-based spatial information when the screen captured by the wearable device 500 is streamed in real time on the guide terminal 400. At this time, the guide service providing server 300 may be a server that overlays the distance and direction of each object in a vector format to prevent a situation in which spatial perception is lowered due to the guide not being on site.

여기서, 안내 서비스 제공 서버(300)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다.Here, the guidance service providing server 300 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, a laptop, a desktop, a laptop, and the like equipped with a navigation system and a web browser.

적어도 하나의 안내 단말(400)은, 실시간 스트리밍을 이용한 시각장애인 안내 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 사용자 단말(100)로부터 안내 요청을 수신하고, 웨어러블 기기(500)의 제어권을 획득하며, 웨어러블 기기(500)에서 송출되는 영상을 실시간으로 표시하면서 실외라면 GIS 기반 공간 정보를, 실내라면 딥러닝 기반 객체탐지 모델로 각 객체의 정보를 화면상에 출력함으로써 안내를 할 수 있는 가이드를 출력하는 단말일 수 있다. At least one guide terminal 400 receives a guide request from the user terminal 100 using a web page, app page, program, or application related to a guide service for the visually impaired using real-time streaming, and controls the wearable device 500 Obtaining, while displaying the image transmitted from the wearable device 500 in real time, GIS-based spatial information if outdoors, and deep learning-based object detection model if indoors, Guidance can be provided by outputting information on each object on the screen It may be a terminal outputting a guide.

여기서, 적어도 하나의 안내 단말(400)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 안내 단말(400)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 안내 단말(400)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, at least one guide terminal 400 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, a laptop, a desktop, a laptop, and the like equipped with a navigation system and a web browser. At this time, at least one guide terminal 400 may be implemented as a terminal capable of accessing a remote server or terminal through a network. At least one guide terminal 400 is, for example, a wireless communication device that ensures portability and mobility, and includes navigation, PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet ) may include all types of handheld-based wireless communication devices such as terminals, smartphones, smart pads, tablet PCs, and the like.

적어도 하나의 웨어러블 기기(500)는, 실시간 스트리밍을 이용한 시각장애인 안내 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 전방, 후방, 좌우측 또는 360 도를 촬영하여 사용자 단말(100)로 전송하는 기기일 수 있다. 이때, 웨어러블 기기(500)의 제어권이 안내 단말(400)로 핸드오버된 경우, 웨어러블 기기(500)는 초점, 시야각 등을 안내 단말(400)의 제어에 의해 조절하는 기기일 수 있다.At least one wearable device 500 captures front, back, left and right or 360 degrees using a web page, app page, program or application related to a guide service for the visually impaired using real-time streaming and transmits it to the user terminal 100 can be a device. In this case, when the control right of the wearable device 500 is handed over to the guidance terminal 400, the wearable device 500 may be a device that adjusts a focus, viewing angle, etc. under the control of the guidance terminal 400.

여기서, 적어도 하나의 웨어러블 기기(500)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 웨어러블 기기(500)는, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 웨어러블 기기(500)는, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, at least one wearable device 500 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, a laptop, a desktop, a laptop, and the like equipped with a navigation system and a web browser. In this case, at least one wearable device 500 may be implemented as a terminal capable of accessing a remote server or terminal through a network. At least one wearable device 500 is, for example, a wireless communication device that ensures portability and mobility, and includes navigation, PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet ) may include all types of handheld-based wireless communication devices such as terminals, smartphones, smart pads, tablet PCs, and the like.

도 2는 도 1의 시스템에 포함된 안내 서비스 제공 서버를 설명하기 위한 블록 구성도이고, 도 3 및 도 4는 본 발명의 일 실시예에 따른 실시간 스트리밍을 이용한 시각장애인 안내 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.2 is a block diagram illustrating a guide service providing server included in the system of FIG. 1, and FIGS. 3 and 4 are implementations of a guide service for the visually impaired using real-time streaming according to an embodiment of the present invention. It is a drawing for explaining an example.

도 2를 참조하면, 안내 서비스 제공 서버(300)는, 등록부(310), 실시간중계부(320), 표시부(330), 안내부(340), 공간정보제공부(350), 객체정보제공부(360), 키오스크지원부(370), 깊이추정부(380), 기계안내부(390) 및 화각조절부(391)를 포함할 수 있다.Referring to FIG. 2 , the guide service providing server 300 includes a registration unit 310, a real-time relay unit 320, a display unit 330, a guidance unit 340, a spatial information providing unit 350, and an object information providing unit. 360, a kiosk support unit 370, a depth estimation unit 380, a machine guide unit 390, and a view angle adjusting unit 391 may be included.

본 발명의 일 실시예에 따른 안내 서비스 제공 서버(300)나 연동되어 동작하는 다른 서버(미도시)가 적어도 하나의 사용자 단말(100), 적어도 하나의 안내 단말(400) 및 적어도 하나의 웨어러블 기기(500)로 실시간 스트리밍을 이용한 시각장애인 안내 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 전송하는 경우, 적어도 하나의 사용자 단말(100), 적어도 하나의 안내 단말(400) 및 적어도 하나의 웨어러블 기기(500)는, 실시간 스트리밍을 이용한 시각장애인 안내 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 설치하거나 열 수 있다. 또한, 웹 브라우저에서 실행되는 스크립트를 이용하여 서비스 프로그램이 적어도 하나의 사용자 단말(100), 적어도 하나의 안내 단말(400) 및 적어도 하나의 웨어러블 기기(500)에서 구동될 수도 있다. 여기서, 웹 브라우저는 웹(WWW: World Wide Web) 서비스를 이용할 수 있게 하는 프로그램으로 HTML(Hyper Text Mark-up Language)로 서술된 하이퍼 텍스트를 받아서 보여주는 프로그램을 의미하며, 예를 들어 넷스케이프(Netscape), 익스플로러(Explorer), 크롬(Chrome) 등을 포함한다. 또한, 애플리케이션은 단말 상의 응용 프로그램(Application)을 의미하며, 예를 들어, 모바일 단말(스마트폰)에서 실행되는 앱(App)을 포함한다.The guidance service providing server 300 according to an embodiment of the present invention or another server (not shown) operating in conjunction with at least one user terminal 100, at least one guidance terminal 400, and at least one wearable device In the case of transmitting a guide service application for the blind using real-time streaming to 500, a program, an app page, a web page, etc., at least one user terminal 100, at least one guidance terminal 400, and at least one wearable device (500), it is possible to install or open a guide service application for the visually impaired using real-time streaming, a program, an app page, a web page, and the like. Also, the service program may be driven in at least one user terminal 100 , at least one guidance terminal 400 , and at least one wearable device 500 by using a script executed in a web browser. Here, the web browser is a program that allows users to use the web (WWW: World Wide Web) service, and means a program that receives and displays hypertext described in HTML (Hyper Text Mark-up Language). For example, Netscape , Explorer, Chrome, and the like. In addition, an application means an application on a terminal, and includes, for example, an app running on a mobile terminal (smart phone).

도 2를 참조하면, 등록부(310)는, 사용자 단말(100)과 웨어러블 기기(500)가 연동되도록 매핑하여 저장할 수 있다. 이때, 웨어러블 기기(500)는 안경이 될 수도 있고, 바디캠일 수도 있으며, 목걸이 또는 모자 형태일 수도 있으며, 인체 각 부위에 착용할 수 있는 것이라면 어느 것이든 가능하다. 다만, 나열된 것들로 한정되지 않고, 열거되지 않은 이유로 배제되지 않는다.Referring to FIG. 2 , the registration unit 310 may map and store the mapping so that the user terminal 100 and the wearable device 500 are linked. In this case, the wearable device 500 may be glasses, a body cam, a necklace or a hat, and may be worn on various parts of the body. However, it is not limited to those listed, and is not excluded for reasons not listed.

실시간중계부(320)는, 사용자 단말(100)에서 안내 요청을 전송하는 경우, 안내 단말(400)과 사용자 단말(100) 간을 연결하며 안내 단말(400)로 웨어러블 기기(500)에서 촬영된 영상이 스트리밍되도록 할 수 있다. 웨어러블 기기(500)는, 기 설정된 방향을 촬영할 수 있다. 사용자 단말(100)은, 안내 요청을 입력받고, 웨어러블 기기(500)로부터 촬영된 영상을 실시간으로 업로드할 수 있다. 안내 단말(400)은, 사용자 단말(100)의 안내 요청으로 연결될 수 있다. 이때, 웨어러블 기기(500)가 스마트 글래스이고, CCTV 등을 연계하여 안내 단말(400)로 전송할 수도 있는데, 이에 대한 상세한 설명은 본 출원인의 선등록특허인 한국등록특허 제10-1929875호(2018년12월18일 공고)에 개시되어 있으므로 중복된 내용은 기재하지 않기로 한다.When a guide request is transmitted from the user terminal 100, the real-time relay unit 320 connects the guide terminal 400 and the user terminal 100 and transmits information captured by the wearable device 500 to the guide terminal 400. The video can be streamed. The wearable device 500 may photograph a preset direction. The user terminal 100 may receive a guidance request and upload an image captured from the wearable device 500 in real time. The guide terminal 400 may be connected to the guide request of the user terminal 100 . At this time, the wearable device 500 is a smart glass, and may be transmitted to the guidance terminal 400 in conjunction with a CCTV, etc. A detailed description thereof is provided in Korean Patent Registration No. 10-1929875 (2018 Notice on December 18th), so duplicate contents will not be described.

실시간중계부(320)는, 실시간으로 업로드하는 경우, 비디오 또는 오디오의 버퍼링 또는 딜레이가 발생할 수 있으므로, 사용자 단말(100)의 업로드 성능 등 네트워크 정보를 실시간으로 수집하고, 네트워크 정보에 기초하여 인코딩율을 설정할 수 있다. 일반적인 ABR(Adaptive Bitrate Rate) 스트리밍 시스템은 비디오를 작은 시간 단위의 파일로 분리하여 여러 개의 해상도로 인코딩하고 각 안내 단말(400)이겪는 네트워크 가용 전송량 변화에 맞게 비디오를 전송하도록 하여 실시간 스트리밍을 제공하지만, ABR 형태로 비디오를 준비하기 위해 미디어 서버가 실시간으로 생성되는 비디오 프레임을 트랜스코딩(Transcoding)해야 하므로 수 초 이상의 지연시간이 필연적으로 발생하며, 비디오가 사용자 단말(100) 및 안내 단말(400) 간 연결된 네트워크 상황을 고려하지 않고 미리 정의된 인코딩율로 인코딩되어 저지연 보장을 위해서는 빈번하게 품질을 급격히 낮출 수밖에 없다.When uploading in real time, the real-time relay unit 320 collects network information such as the upload performance of the user terminal 100 in real time, since buffering or delay of video or audio may occur, and the encoding rate based on the network information. can be set. A typical ABR (Adaptive Bitrate Rate) streaming system provides real-time streaming by dividing video into files of small time units, encoding them in several resolutions, and transmitting the video according to the change in network available transmission rate experienced by each guide terminal 400. , In order to prepare the video in ABR format, the media server must transcode the video frame generated in real time, so a delay time of several seconds or more inevitably occurs, and the video is transmitted to the user terminal 100 and the guidance terminal 400 It is encoded at a predefined encoding rate without considering the network conditions connected to each other, so that the quality must be rapidly lowered frequently to guarantee low latency.

이에 따라, 본 발명의 일 실시예에서는, 송신단이 다수의 인코딩율로 실시간 비디오를 인코딩하고, 인코딩된 프레임을 세그먼트 단위(Group of Pictures, GoP)로 미디어 서버에 전송하는 구조를 이용할 수 있다. 이때, 수신단의 ABR 스트리밍과 호환되기 위해서 각 세그먼트의 처음 프레임은 키 프레임으로 인코딩하며, 미디어 서버는 세그먼트 버퍼에 세크먼트를 저장하여 수신단 요청시 전달할 수 있다. 목표 지연시간 이상으로 세그먼트가 저장되면, 저지연 전송을 위해서 미디어 서버는 이전 세그먼트를 누락시킨다. 이런 구조를 통해 트랜스코딩 없는 저지연 전송이 실현할 수 있다. 이에 더해, 시스템상에서 미디어 서버는 인코딩을 수행하여 비디오 품질을 최대화하기 위한 최적화된 인코딩율을 계산할 수 있다. 먼저, 미디어 서버는 수신단으로부터 수집한 가용 전송량을 추정하며, K-Means 클러스터링(Clustering)을 통해 추정된 가용 전송량을 인코딩율 개수만큼 클러스터링한다. 최종적으로 그룹별로 가용 전송량의 최솟값을 인코딩율로 결정함으로써 저지연 성능을 보장하면서도 최적화된 비디오 품질을 보장하는 인코딩율을 설정할 수 있다.Accordingly, in one embodiment of the present invention, a structure in which a transmitter encodes real-time video at multiple encoding rates and transmits encoded frames to a media server in units of segments (Group of Pictures, GoP) may be used. In this case, in order to be compatible with the ABR streaming of the receiving end, the first frame of each segment is encoded as a key frame, and the media server can store the segment in a segment buffer and transmit it when requested by the receiving end. If a segment is stored beyond the target delay time, the media server drops the previous segment for low-latency transmission. Through this structure, low-latency transmission without transcoding can be realized. In addition to this, the media server on the system may calculate an optimized encoding rate for maximizing video quality by performing encoding. First, the media server estimates the available transmission amount collected from the receiving end, and clusters the estimated available transmission amount by the number of encoding rates through K-Means clustering. Finally, by determining the minimum value of the available transmission amount for each group as an encoding rate, it is possible to set an encoding rate that guarantees optimized video quality while guaranteeing low-latency performance.

이에 따라, 트랜스코딩으로 인해 발생하는 지연시간을 줄이기 위해 송신단 기반 ABR 인코딩 기법을 이용할 수 있고, 수신단의 네트워크 상황을 반영한 인코딩율 계산을 통해 최적화된 비디오 품질을 제공할 수 있다. 이에 따라 수 초 수준으로 발생하던 종단간(End-to-End) 지연시간을 저지연 애플리케이션이 필수적으로 보장받아야 하는 500ms 이하로 보장하면서도, 비디오 품질 또한 다수 수신단의 네트워크 상황에 맞게 실시간으로 최적화할 수 있어서 시각장애인의 영상이 수 초만 지연되도 자칫하면 지하철 난간에서 떨어질 수도 있고 지나가는 차를 안내자가 못보고 안내를 못하는 불상사를 미연에 방지할 수 있다.Accordingly, a transmitter-based ABR encoding technique can be used to reduce a delay time caused by transcoding, and optimized video quality can be provided through an encoding rate calculation reflecting a network condition of a receiver. As a result, it is possible to optimize the video quality in real time according to the network conditions of multiple receivers while guaranteeing the end-to-end latency that occurred at the level of several seconds to less than 500 ms, which is essential for low-latency applications. Therefore, even if the video of the visually impaired is delayed by only a few seconds, it is possible to prevent accidents in which the blind person may fall from the railing of the subway or the guide cannot see and guide the passing car.

표시부(330)는, 안내 단말(400)의 화면 내 각 객체에 대한 방향 및 거리를 오버레이되도록 표시할 수 있다. 안내 단말(400)은, 웨어러블 기기(500)로부터 스트리밍되는 영상을 화면에 출력할 때 화면 내 각 객체에 대한 방향 및 거리를 오버레이하여 출력할 수 있다. 이때, 영상 내 객체(Object)를 인식 및 식별한 후, 카메라로부터 객체까지의 거리 및 방향을 구하기 위해서는 기하학의 기본개념이 요구된다. 사용자가 알아내고 싶은 것, 즉 안내자가 안내를 해주어야 하는 것은 각 물체가 카메라, 즉 사용자로부터 실제로 얼마나 멀리 떨어져 있는지, 또 그 크기, 폭이나 높이 등은 얼마인지 등이다. 이에 풀고자 하는 문제는 영상 내 객체의 좌표인 픽셀좌표에 대해 대응하는 2D 지면 좌표(Ground Plane Coordinate)를 구하는 문제로 귀결된다. 일단, 객체의 위치인 2D 지면좌표가 구해지면 물체의 크기는 간단한 비례식을 통해 손 쉽게 계산될 수 있다. 이때, 이 문제의 가정은 카메라의 높이와 방향이 고정되어 있다는 것, 즉 사용자가 안경으로 착용하거나 목걸이로 걸거나 바디캠을 부착하는 등으로 고정되어 있는 경우를 전제하고, 객체는 항상 지면에 붙어있다는 것을 전제하며, 카메라의 파라미터, 예를 들어, 렌즈의 왜곡계수, 높이 및 각도 등을 미리 알고 있다고 전제하며, 풀고자 하는 문제는 객체의 영상좌표에 대응하는 2D 지면좌표를 구하는 것이다. 이때, 크게 3 가지 접근방법이 가능한데, 실제로 수동적으로 손과 연필을 이용하여 기하학적으로 푸는 방법은 수동으로 계산해야 하므로 넘어가고, 호모그래피(HomoGraphy)를 이용하는 방법 및 3D 변환을 이용하는 방법 등을 이용할 수 있다. 또는 최근 AR 콘텐츠를 증강시키기 위해서 각 객체의 위치와 방향을 추정하고 이 객체 상에 AR 콘텐츠를 오버레이시키는데, 이를 안내 단말(400)에 적용하여 사용자가 현재 각 객체와 몇 미터 떨어져 있는지, 어느 방향에 위치하고 있는지를 벡터 포맷으로 표시하되, 이를 AR 콘텐츠로 각 객체에 증강시켜줄 수도 있다.The display unit 330 may display the direction and distance of each object on the screen of the guidance terminal 400 in an overlay manner. When displaying an image streamed from the wearable device 500 on the screen, the guidance terminal 400 may overlay and output directions and distances for each object on the screen. At this time, after recognizing and identifying an object in the image, a basic concept of geometry is required to obtain the distance and direction from the camera to the object. What the user wants to know—that is, what the guide needs to be guided by—how far away each object actually is from the camera (the user), and what size, width, or height it is. Therefore, the problem to be solved is the problem of obtaining the corresponding 2D ground coordinates for the pixel coordinates, which are the coordinates of the object in the image. Once the 2D ground coordinates, which are the location of the object, are obtained, the size of the object can be easily calculated through a simple proportional formula. At this time, the assumption of this problem is that the height and direction of the camera are fixed, that is, if the user wears them as glasses, hangs them as a necklace, or attaches a body cam, the object is always attached to the ground. It is assumed that the parameters of the camera, for example, the distortion coefficient, height and angle of the lens, are known in advance, and the problem to be solved is to obtain 2D ground coordinates corresponding to the image coordinates of the object. At this time, three approaches are possible. In fact, the method of manually solving geometrically using a hand and a pencil is skipped because it needs to be calculated manually, and the method using HomoGraphy and the method using 3D transformation can be used. there is. Alternatively, in order to augment the recent AR content, the position and direction of each object is estimated and the AR content is overlaid on the object. This is applied to the guidance terminal 400 to determine how many meters the user is currently away from each object and in which direction. Whether it is located is displayed in a vector format, but it may be augmented with AR content for each object.

안내부(340)는, 안내 단말(400)에서 사용자 단말(100)의 요청에 대응하는 객체의 방향 및 거리를 안내하여 전달할 수 있다. 예를 들어, 계단의 손잡이는 몇 발자국 어느 방향으로 가야 하는지, 오른쪽인지 왼쪽인지 대각선 방향인지, 상하좌우 어느 방향인지 등을 상세히 말할 수 있도록 상술한 영상기하학으로 표시된 데이터에 기반하여 설명해주도록 할 수 있다. 또, 맥도날드에서 빅맥 세트를 시키고 싶다면, 현재 화면에서 손가락의 위치를 몇 센티 옆으로 이동시켜야 하는지, 그 다음 페이지로 넘어가는 버튼은 어디에 있는지, 몇 뼘 만큼 또는 손가락 몇 마디 만큼 이동시켜야 하는지 등을 안내해줄 수 있다. The guidance unit 340 may guide and deliver the direction and distance of the object corresponding to the request of the user terminal 100 in the guidance terminal 400 . For example, the handrail of a stairway can be explained based on the data indicated by the above-described image geometry so that it can tell in detail how many steps to go in which direction, whether it is right or left, diagonal direction, up, down, left, right, etc. . In addition, if you want to order a Big Mac set at McDonald's, how many centimeters should you move your finger on the current screen, where is the button to go to the next page, how many spans or how many fingers should you move, etc. can do it

공간정보제공부(350)는, 사용자 단말(100)의 위치가 실외인 경우, 기 구축된 GIS(Geographic Information System) 기반 공간정보를 안내 단말(400)의 화면 상에 오버레이하여 출력하도록 할 수 있다. 정부는 국가지리정보시스템(NGIS) 구축 사업을 시작한 이래로, 종이지도를 수치지도의 형태로 제작하고 있으며, 이는 수치지도 1.0과 2.0의 형태로 제작되었다. 국토교통부령 제209호 「수치지도 작성 작업규칙」에 의하면 수치지도 1.0이란 지리조사 및 현지측량(現地測量)에서 얻어진 자료를 이용하여 도화(圖化) 데이터 또는 지도입력 데이터를 수정·보완하는 정위치 편집 작업이 완료된 지도를 말한다. 그리고 수치지도 2.0이란 데이터 간의 지리적 상관관계를 파악하기 위하여 정위치 편집된 지형·지물을 기하학적 형태로 구성하는 구조화 편집 작업이 완료된 수치지도를 의미한다. 특히 수치지도 2.0은 8 개의 대분류(교통, 식생, 지형, 경계, 주기, 수계·해양, 문화·시설, 건물·시설물)와 104개의 소분류로 구성된 레이어 항목을 기준으로 지형·지물을 표현한다. 한편 시각장애인 등 보행약자의 안전한 이동과 편리한 보행을 돕기 위해 요구되는 공간정보 필요항목은 관련 법령의 검토·분석 및 시각장애인 대상 설문조사 결과를 종합하여 도출할 수 있다. 또, 현재 국내에서는 대표적으로 수치지도 형태의 국가지리정보가 제작되고 있으며, 이러한 분석을 통하여 시각장애인을 위한 이동에 필요한 공간정보의 구축 항목을 분석 및 구축할 수 있다. 국토지리정보원은 축척별(즉, 1:1,000, 1:5,000, 1:25,000)로 수치 지도를 제작 중이며, 표현되는 지형과 지물에 대한 표준코드의 범례 표를 제공한다. 보행약자의 안전하고 편리한 보행을 위해 해당 목적과 관련이 있는 공간정보 항목을 국토지리정보원 고시 수치지형도 작성 작업규정에 의해 제공되는 수치지형도 지형·지물 표준코드를 추출할 수 있다.When the location of the user terminal 100 is outdoors, the geospatial information providing unit 350 may overlay geographic information system (GIS)-based geospatial information on the screen of the guidance terminal 400 and output the result. . Since the start of the National Geographic Information System (NGIS) construction project, the government has been producing paper maps in the form of digital maps, which were produced in the form of digital maps 1.0 and 2.0. According to the Ordinance of the Ministry of Land, Infrastructure and Transport No. 209 「Digital Map Preparation Work Rules」, digital map 1.0 is a method for correcting or supplementing drawing data or map input data using data obtained from geographic surveys and field surveys. Refers to the map where the location editing work has been completed. In addition, digital map 2.0 refers to a digital map that has been structured and edited to compose geographic features that have been edited in place in order to grasp the geographical correlation between data. In particular, digital map 2.0 expresses topography and features based on layer items composed of 8 major categories (transportation, vegetation, topography, boundary, cycle, water system/ocean, culture/facility, and building/facility) and 104 sub-categories. On the other hand, necessary items of spatial information required to assist the safe movement and convenient walking of the walking weak, such as the visually impaired, can be derived by reviewing and analyzing related laws and integrating the survey results for the visually impaired. In addition, national geographic information in the form of a digital map is currently being produced in Korea, and through this analysis, it is possible to analyze and build items of spatial information necessary for movement for the visually impaired. The National Geographic Information Institute is producing digital maps by scale (ie, 1:1,000, 1:5,000, 1:25,000), and provides a legend table of standard codes for expressed topography and features. For safe and convenient walking of the walking weak, the spatial information items related to the purpose can be extracted from the digital topographic map topographical and feature standard codes provided by the National Geographic Information Institute notification digital topographic map creation work regulations.

또, 국내에서는 국가의 고유 업무를 수행함으로써 생성된 각종 데이터베이스를 위치기반 서비스 목적으로 통합하고 가공하고 있다. 해당 결과물은 국가관심지점정보(관심지점정보, Point of Interest)의 형태로 구축되어 현재 국토지리정보원의 국가인터넷지도로 서비스된다. 국가인터넷지도에서는 개별 건물의 위치뿐만 아니라 명칭의 확인도 가능하다. 이는 면형으로 표현된 건물의 위치 및 연계 명칭이 데이터베이스로 구축된 결과이므로, 해당 자료를 활용하는 경우, 데이터베이스 구축에 큰 시간과 인력을 들이지 않고서도 보행약자를 위한 공간정보의 구축이 가능하다. 또, 국내에서는「국가통합교통체계효율화법」제90조 제4항과 동법 시행령 제82조 제6항에 따라 대중교통정보를 표준화된 방식으로 연계·통합함으로써 대국민 서비스 제공을 목적으로 국가대중교통정보센터(TAGO)가 운영되고 있다. 해당 센터는 버스, 철도, 항공 및 해운 등과 관련된 정보를 생산하는 중앙정부부처 또는 지방자치단체와의 정보 연계를 통해 교통정보를 제공한다. 시내버스의 경우 각 지방자치단체에서 운영 중인 교통정보시스템을 해당 센터의 홈페이지에 링크하여 제공하고 있다. 이에 따라, 각 정류소에 정차하는 버스의 노선정보가 제공되고 있으며, 시내버스 정류소 및 노선 번호에 대한 속성정보는 각 지방자치단체에서 관리 중인 교통정보 관련 자료를 활용할 수 있다.In addition, in Korea, various databases created by performing national tasks are integrated and processed for the purpose of location-based services. The result is constructed in the form of information on points of interest (Point of Interest) and is currently serviced as a national Internet map of the National Geographic Information Institute. In the national internet map, it is possible to check not only the location of individual buildings but also their names. This is the result of building location and linkage names expressed in planar shapes as a database, so when using the data, it is possible to build spatial information for the walking handicapped without spending a lot of time and manpower in building the database. In addition, in Korea, public transportation information is linked and integrated in a standardized manner in accordance with Article 90, Paragraph 4 of the 「National Integrated Transport System Efficiency Act」 and Article 82, Paragraph 6 of the Enforcement Decree of the same Act for the purpose of providing national public transportation services. The Information Center (TAGO) is in operation. The center provides traffic information through information linkage with central government departments or local governments that produce information related to bus, rail, air, and shipping. In the case of city buses, the traffic information system operated by each local government is provided by linking to the center's homepage. Accordingly, route information of buses stopping at each bus stop is provided, and traffic information-related data managed by each local government can be used as attribute information on city bus stops and route numbers.

<노드 및 링크><nodes and links>

GIS 기반 공간정보는 지도 상에 각종 정보를 레이어(Layer)로 겹겹이 쌓을 수 있고, 각각의 POI인 노드(Node)와 이 사이를 잇는 링크(Link) 정보를 정의하는 경우, 안내 단말(400)에서 안내를 할 때 각종 정보를 함께 출력하게 되므로 안내가 쉽고, 설사 안내자가 금방 연결이 되지 않더라도 각 노드와 링크 또 목적지까지 가는데 옆에 어떠한 POI들이 있는지를 설명해주게 되므로 사용자가 현재 어디쯤을 지나고 있는지를 파악하기에도 좋다. 또, 국가에서 제작한 지도를 이용하므로 GPS의 오차가 거의 발생하지 않아 정확도 면에서도 우수한 안내가 될 수 있다. 이때, 수치지도 2.0 레이어의 위치와 속성정보를 포함하여 새로이 부가될 레이어까지를 정리하면 이하 표 1과 같을 수 있다. 물론, GIS 기반 공간정보는 수정, 추가 및 변형될 수 있으므로 이에 한정되지는 않는다.GIS-based geospatial information can layer various types of information on a map in layers, and when defining nodes that are POIs and link information connecting them, in the guidance terminal 400 When guiding, various information is displayed together, so the guiding is easy, and even if the guide is not connected right away, it explains where the user is currently passing because it explains each node, link, and what kind of POIs are on the way to the destination. Also good to understand. In addition, since the map produced by the country is used, there is almost no GPS error, so it can be an excellent guide in terms of accuracy. At this time, including the location and attribute information of the digital map 2.0 layer, the newly added layer may be summarized as shown in Table 1 below. Of course, GIS-based geospatial information can be modified, added, and transformed, so it is not limited thereto.

건물building 공공시설, 관공서, 사회복지시설, 의료시설, 학교 등Public facilities, government offices, social welfare facilities, medical facilities, schools, etc. 지하도underpass 지하도 입구, 장애인시설(승강기 등) 유무Underpass entrance, facilities for the disabled (elevator, etc.) 시내버스 정류소city bus stop 노선번호, 음성정보제공여부, 점자안내판 설치 여부Route number, whether voice information is provided, whether braille information boards are installed 육교Overpass 보행가능 경사로 및 승강기 유무Presence of walkable ramps and elevators 지하철역subway station 승강기 휠체어 리프트 유무 및 위치(출입구 번호 연계)Elevator Wheelchair Lift Presence and location (linked to the entrance number) 음향신호기beacon 신호기 유형(수동 또는 리모콘식), 정상작동 유무Beacon type (manual or remote control), normal operation 보행접근로주출입구Pedestrian access road main entrance 폭 및 기울기 적절성, 높이차 제거 여부Adequacy of width and slope, elimination of height differences 차량속도저감vehicle speed reduction 고원식 교차로, 횡단보도, 과속방지턱 설치 위치Plateau intersection, crosswalk, speed bump installation location 장애인주차구역Disabled parking area 주차면수, 높이차 제거여부, 기울기(경사) 적절성Number of parking surfaces, elimination of height difference, appropriateness of slope (slope) 보행교통섬Pedestrian Traffic Island 설치 위치, 폭의 적절성, 볼라드 설치 유무Adequacy of installation location, width, presence or absence of bollard installation 보도sidewalk 폭 및 기울기 적절성, 턱 낮추기, 차도분리 여부, 보행안전지대 유무, 차량 진출입부 공사구간 유무Appropriateness of width and inclination, lowering of the chin, separation of roads, existence of pedestrian safety zones, existence of construction zones at vehicle entrances and exits 교통신호기traffic signal 신호버튼 설치 높이 적절성, 정상작동 여부Appropriateness of signal button installation height, normal operation 횡단보도crosswalk 횡단보도 설치유무Crosswalk installation 방호울타리protective fence 설치 위치 및 재질Installation location and material 점자블록braille block 점형 및 선형블록의 설치 유무 및 적절성Presence and appropriateness of point-type and linear blocks 조명시설lighting facility 인공조명 설치 시설물Artificial lighting installation facilities 영상정보기기video information device CCTV 및 긴급단추 설치, 시각장애인 이용가능 여부Installation of CCTV and emergency button, availability of blind people 블라드vlad 충격흡수 여부, 점형 블록 설치 여부 및 적절성Whether or not to absorb shock, whether or not to install point-type blocks and their appropriateness

지표상에 존재하는 사물을 종이 또는 수치지도에 표현 시 각 항목을 대표하는 것으로, 기호 및 심벌을 제작하는 방법을 통해 관련 레이어의 공간범위 내에 구현한다. 수치지도의 경우 레이어에 관한 기호를 각각의 지형·지물별로 제작·활용하고 있다. 그리고 지리정보시스템 환경에서는 공간정보 레이어의 효과적인 활용을 위해 축척에 따른 각 지형·지물을 점, 선, 면 등 기하학적 형태로 정의하고 지도에 표현할 수 있다. 보행자 통행을 위한 장소인 보행자길의 경우 보도 및 보차혼용 보행자길, 보행전용 보행자길, 도로횡단시설, 출입구연결 보행자길 등으로 구분될 수 있다. 국토지리정보원에서 제작한 보행자를 위한 상세 도로망도 설명서에 나타난 노드 및 링크 중 보행자용 상세 도로망도는 도로명주소 기본도, 수치지형도 2.0, 연속수치지형도를 이용하여 시범 제작되었다. 또 하나의 유형은 국가기본도를 이용하여 도로기반 네트워크를 구성하여 활용하고 있으며, 매년 국가기본도 사업을 통해 이를 유지갱신 하고 있다. 다만, 노드 속성에는 도로를 중심으로 교차하는 노드 정보는 포함되어 있으나 도로와 교차하는 선로나 철길의 항목이 빠져있으므로 이에 대한 레이어를 새로 제작한 후 GIS 기반 공간정보에 추가할 수 있다.보행자용 상세 도로망도 링크와 관련된 테이블 또한 배포 및 관리로 구성되어 있고 배포정보의 속성항목으로는 보행자길 유형(WROAD_CATE), 링크 시설물 정보(LINK_FACIL), 링크 종별(LINK_CATE), 보행 제한 유무(LIMIT) 등으로 입력되고 관리정보의 속성 항목에는 구축방법(W_TYPE) 및 갱신작업방법(U_TYPE)이 포함되어 있다. 이때, 보행자길 유형을 더욱 세분화하고 보행자길 유형에서 고려하지 못한 승강기, 휠체어 리프트 등의 보행길에 대해 코드화하여 추가할 수 있다. 또, 링크 시설물 정보 코드는 보행자가 특정 장소에서 다른 장소로 이동하기 위한 목적으로 연결·설치된 시설물의 정보를 나타내는데, 보행 제한 유무 코드는 링크된 시설물에 따라 구분되며, 보행이 가능한 경우와 그렇지 않은 경우로 구분한다. 하지만, 보행환경개선을 위한 보행길 보수, 공사 등의 이유로 인해 보행이 일시적으로 금지되는 일시폐쇄의 경우에도 별도의 코드를 추가하는 것이 필요하므로 이에 대한 데이터베이스를 추가하고 GIS 기반 공간정보에도 추가할 수 있다. 또, 노드속성의 선로교차점, 짧은 도로구간, 곡선부구간, 연석, 음향신호 코드 내역, 빗물받이 덮개 코드를 추가하여 시각장애인 길안내가 가능할 수 있도록 노드속성을 추가 또는 수정할 수 있다.When objects existing on the surface are expressed on paper or digital maps, they represent each item, and are implemented within the spatial range of the relevant layer through a method of producing signs and symbols. In the case of digital maps, symbols related to layers are produced and used for each topography and feature. In addition, in the geographic information system environment, each topography and feature according to the scale can be defined in geometric form such as a point, line, and plane and expressed on a map for effective utilization of the spatial information layer. Pedestrian roads, which are places for pedestrian traffic, can be divided into pedestrian roads for mixed sidewalks and pedestrians, pedestrian roads exclusively for walking, road crossing facilities, and pedestrian roads connecting entrances and exits. Among the nodes and links shown in the detailed road network map manual for pedestrians produced by the National Geographic Information Institute, the detailed road network map for pedestrians was pilot-produced using the road name address base map, digital topographic map 2.0, and serial digital topographic map. Another type uses the national base map to construct and utilize a road-based network, which is maintained and updated through the annual national base map project. However, node properties include node information that intersects with roads, but items of tracks or railroads that intersect with roads are missing. So, a new layer for this layer can be created and added to GIS-based spatial information. Details for pedestrians Tables related to road network links are also composed of distribution and management. Attribute items of distribution information include pedestrian road type (WROAD_CATE), link facility information (LINK_FACIL), link type (LINK_CATE), walking restrictions (LIMIT), etc. Attributes of management information include construction method (W_TYPE) and update operation method (U_TYPE). At this time, the type of pedestrian path may be further subdivided, and pedestrian paths such as elevators and wheelchair lifts, which are not considered in the type of pedestrian path, may be coded and added. In addition, the link facility information code indicates information on facilities connected and installed for the purpose of allowing pedestrians to move from a specific place to another place. separated by However, it is necessary to add a separate code even in the case of temporary closure in which walking is temporarily prohibited due to reasons such as repairing or construction of a walking path to improve the walking environment. there is. In addition, the node properties can be added or modified so that route guidance for the visually impaired is possible by adding the line intersection, short road section, curved section, curb, sound signal code details, and rain gutter cover code of the node properties.

번호number 코드내역code history 노드의 설정기준Node setting standard 1One 보행길교차점Pedestrian road intersection 보행자길이 서로 교차하는 지점Point where pedestrian roads intersect 22 속성 변화점Attribute change point 보도의 폭과 같이 보행자길의 속성이 변화하는 지점The point at which the properties of a pedestrian path change, such as the width of a sidewalk. 33 보행자길시설물Pedestrian road facilities 횡단보도나 육교, 지하보도와 같은 도로횡단시설이나 도로시설물(터널, 교량, 고가차도, 지하차도 등)의 시작점과 끝점Starting and ending points of road crossing facilities such as crosswalks, overpasses, and underpasses, or road facilities (tunnels, bridges, overpasses, underpasses, etc.) 44 보행제한점walking limit 고속도로나 자동차전용도로와 같이 보행자의 이동이 물리적으로 통제되는 지점Points where pedestrian movement is physically controlled, such as highways or motorways 55 행정경계교차점Administrative boundary crossing 시, 군, 구 경계로 구분되는 지점A point that is divided into city, county, and district boundaries 66 의사(Pseudo)교차점Pseudo Intersection 지하철이나 지하도 출입구로 이루어진 지하공공보도시설
보행자길, 횡단보도, 고가도로나 지하도로 등에 의해 실제로 교차되지는 않으나 2차원으로 돌 때 교차되는 것처럼 보이는 지점
Underground public sidewalk facilities consisting of subway or underpass entrances
Points that are not actually crossed by pedestrian roads, crosswalks, overpasses or underpasses, but appear to intersect when turning in two dimensions
77 도엽교차점Doyeop intersection 국토지리정보원에서 고시하는 5천분의 1 축척의 수치지형도 2.0 도엽의 도엽경계로 구분되는 지점A point that is divided by the map leaf boundary of the 2.0 map leaf on a digital topographic map at a scale of 1/5000 announced by the National Geographic Information Institute 88 선로교차점railroad crossing 보행자길과 선로가 교차하는 지점The point where the pedestrian road and the track intersect 99 곡선부구간section of the curve 곡선을 포함하는 보행자길 지점Pedestrian path points with curves 1010 빗물받이 덮개rain gutter cover 보행자길에 빗물받이 덮개가 있는 지점The point where the rain gutter cover is located on the pedestrian path 1111 짧은도로구간short road section 짧은도로구간의 시작점과 종료지점The starting point and ending point of the short road section 1212 연석curb 보행자길에 연석이 있는 지점Point where there is a curb on the pedestrian path 1313 음향신호기beacon 보행자길에 음향신호기가 있는 지점The point where there is an acoustic signal on the pedestrian path

링크의 경우에도 보도, 보차혼용 보행자길, 도로횡단시설 보행자길, 출입구연결 보행자길, 보행전용 보행자길, 지하공공보도시설 보행자길, 자전거혼용 보행자길로 구분하고, 그 재질도 아스팔트, 아스팔트콘크리트, 일반콘크리트, 특수콘크리트, 콘크리트 보도블록, 흙콘크리트, 고무칩과 수지혼합물, 우드칩과 폴리우레탄, 바닥타일, 비포장 및 기타 등으로 구분하여 시각장애인이 바닥의 재질을 예상하지 못해 미끄러지는 일이 없도록 데이터베이스를 구축한다. 시각장애인의 보행길 안내를 위한 데이터 모델에서는 휠체어와 관련된 부분을 고려할 필요가 없기 때문에 배제하고, 보행길 안내의 측면에서 위험요소와 관련이 있는 정보를 추가하여 구축할 수 있다.Even in the case of links, they are classified into sidewalks, pedestrian paths for mixed use of pedestrians, pedestrian paths for road crossing facilities, pedestrian paths connecting entrances and exits, pedestrian paths exclusively for walking, pedestrian paths for underground public sidewalks, and pedestrian paths for mixed bicycles. It is divided into general concrete, special concrete, concrete sidewalk block, soil concrete, rubber chip and resin mixture, wood chip and polyurethane, floor tile, unpaved and others so that the visually impaired do not slip because they cannot predict the material of the floor. build a database In the data model for walking route guidance for the visually impaired, since there is no need to consider wheelchair-related parts, it can be excluded and constructed by adding information related to risk factors in terms of walking route guidance.

<시각장애인용 POI><POI for the visually impaired>

국토교통부 국토지리정보원에서 구축한 국가관심지점정보에서는 행정, 교육/보건, 공공/환경, 시설물, 숙박/음식, 레저/관광/예술, 주거, 산업, 선형지형·지물로 나뉜다. 본 발명의 일 실시예서는 기 구축된 국가관심지점정보 분류항목과 관심지점종류에 대한 분석을 실시하여 시각장애인만의 맞춤형 관심지점 제공을 위한 방안을 이용할 수 있다. 이를 위해 현재 국토지리정보원에서 제공하고 있는 오프라인 점자지도의 레이어를 참조할 수 있고, 여기에 시각장애인에게 필요한 POI를 추가할 수 있다. 즉 각 개인에게는 필요한, 백화점, 식료품 매장, 은행, 매표소, 찜질방, 휴게실, 음식점, 병원 등의 소분류 항목을 더 추가할 수 있다. 길안내에 대한 데이터 모델은, 보행자접근성을 보행공간과 보행부가정보로 구분할 수 있다. 보행공간은 보행자길 및 랜드마크로 구성되고, 보행부가정보는 안내 및 위험으로 구성될 수 있다.The information on points of national interest constructed by the National Geographic Information Institute of the Ministry of Land, Infrastructure and Transport is divided into administration, education/health, public/environment, facilities, lodging/food, leisure/tourism/art, residence, industry, and linear topography/landmarks. In an embodiment of the present invention, a scheme for providing a customized POI only for the visually impaired can be used by analyzing the pre-established national POI information classification items and POI types. To this end, the layer of the offline braille map currently provided by the National Geographic Information Institute can be referred to, and POIs necessary for the visually impaired can be added to it. That is, it is possible to add additional subcategory items necessary for each individual, such as department stores, grocery stores, banks, ticket offices, jjimjilbangs, rest rooms, restaurants, and hospitals. In the data model for road guidance, pedestrian accessibility can be divided into walking space and walking additional information. The walking space is composed of pedestrian roads and landmarks, and the walking additional information may be composed of guidance and danger.

객체정보제공부(360)는, 사용자 단말(100)의 위치가 실내인 경우, 웨어러블 기기(500)에서 촬영되는 영상 내 각 객체를 딥러닝 기반 객체탐지 모델로 인식 및 식별한 후, 사용자 단말(100)의 사용자와 객체 간 거리 및 방향을 딥러닝 기반 객체탐지 모델로 측정하여 벡터 포맷으로 안내 단말(400)의 화면 상에 오버레이하여 출력하도록 할 수 있다. 상술한 GIS 기반 공간정보를 구축해놓았다고 할지라도 실내에 들어오면 GIS 기반 공간정보를 이용할 수가 없다. 물론 각종 공공기관 등 국가기관의 경우 GIS 기반 공간정보를 구축했을 수도 있지만 GPS가 실내에서는 잘 잡히지 않아 위치가 정확하지 않을 수 있고, 민간건물 등은 내부구조가 건축물대장을 보지 않는 한 구조를 알 수도 없고, 건축물대장을 다운로드받는다고 할지라도 내부 가벽 등 철근 콘크리트 이외의 구조는 알 수 없고 이는 GIS 공간정보에 포함되어 있지도 않기 때문에 실내에서는 GIS 공간정보가 아니라 딥러닝 기반 객체탐지 모델을 이용할 수 있다. 물론, 실외에서도 딥러닝 기반 객체탐지 모델을 함께 이용할 수 있다.When the location of the user terminal 100 is indoors, the object information providing unit 360 recognizes and identifies each object in the image captured by the wearable device 500 with a deep learning-based object detection model, and then detects the user terminal ( 100), the distance and direction between the user and the object may be measured with a deep learning-based object detection model, and may be overlaid and output on the screen of the guidance terminal 400 in a vector format. Even if the above-described GIS-based spatial information is established, the GIS-based spatial information cannot be used when entering the room. Of course, national institutions such as various public institutions may have built GIS-based spatial information, but GPS is not well captured indoors, so the location may not be accurate. Even if the building ledger is downloaded, structures other than reinforced concrete, such as interior temporary walls, are unknown and are not included in GIS spatial information. Of course, the deep learning-based object detection model can also be used outdoors.

<객체인식><object recognition>

인공지능을 통해 인간의 시각적 능력을 재현하고자 하는 객체 인식(Object Detection)은 하나의 특정 이미지를 입력했을 때, 주어진 이미지를 분석하여 특정한 객체(Object)의 위치(Location)와 종류(Class)를 파악하는 것이다. 객체 검출 알고리즘은 우선 영상에서 객체의 위치(Localization)를 찾아야하고, 그 위치의 객체가 어떤 물체인지를 분류(Classification)해야 된다. 이를 수행하기 위하여 다양한 방법들이 시도되어왔는데, 단일단계(1-Stage) 검출 방법과 두단계(2-Stage) 검출 방법으로 좁혀지고 있다. 단일단계 검출 방법은 모든 영역에 대해서 위치 검출과 분류를 동시에 수행한다. 두단계 검출 방법은 대략적인 위치 검출을 수행하고, 선출된 후보군들에서 분류를 수행한다. 단일단계 검출은 모든 영역에서 객체의 위치 검출과 분류를 동시에 수행하다보니, 속도는 빠르지만 정확도는 두단계 검출 방법보다 조금 떨어지는 단점이 존재한다. 반대로 두단계 검출기는 객체 위치 검출과 분류가 순차적으로 이루어지므로, 정확도는 상대적으로 뛰어나지만 속도가 느리다는 단점을 가지고 있다. 본 발명의 일 실시예에서는 두 가지 방법 모두 이용하되 긴급한 경우에는 단일단계 검출 방법을, 시간이 걸리더라도 상세한 지시가 필요할 때에는 두단계 검출 방법을 이용할 수 있다.Object Detection, which aims to reproduce human visual abilities through artificial intelligence, analyzes the given image to determine the location and class of a specific object when a specific image is input. is to do The object detection algorithm first needs to find the localization of an object in an image, and then classifies what kind of object the object at that location is. Various methods have been tried to perform this, but it is narrowed down to a single-stage (1-Stage) detection method and a two-stage (2-Stage) detection method. The single-step detection method simultaneously performs position detection and classification for all regions. The two-step detection method performs coarse position detection and then performs classification on selected candidates. Since single-step detection simultaneously detects and classifies objects in all areas, it is faster but has a disadvantage that its accuracy is slightly lower than that of the two-step detection method. On the contrary, the two-stage detector has relatively high accuracy but low speed because object position detection and classification are performed sequentially. In one embodiment of the present invention, both methods are used, but a single-step detection method can be used in an urgent case, and a two-step detection method can be used when detailed instructions are required even if it takes time.

키오스크지원부(370)는, 사용자 단말(100)에서 전송된 영상이 키오스크의 영상인 경우, 안내 단말(400)로 키오스크 내 화면을 설명하도록 요청하고, 사용자 단말(100)에서 요청하는 항목이 선택되도록 사용자의 손가락과 요청하는 항목 간 방향 및 거리를 안내 단말(400)의 화면 상에 표시하여 사용자 단말(100)로 음성안내가 되도록 지원할 수 있다.When the image transmitted from the user terminal 100 is an image of the kiosk, the kiosk support unit 370 requests the guide terminal 400 to describe the screen within the kiosk, and selects an item requested by the user terminal 100. The direction and distance between the user's finger and the requested item may be displayed on the screen of the guidance terminal 400 to provide voice guidance to the user terminal 100 .

깊이추정부(380)는, 사용자 단말(100)에서 전송된 영상에서 기 설정된 적어도 하나의 POI(Point of Interest)까지의 깊이(Depth)를 추정하여 적어도 하나의 POI까지의 거리를 제공할 수 있다. 이때, 스테레오 카메라가 아닌 단일렌즈로 깊이를 추정하기 위해서는 상술한 바와 같은 영상기하학을 이용할 수도 있지만, 스테레오 카메라의 경우, 즉 카메라가 2 개 이상인 경우에는 3D 카메라 모듈 기술을 이용할 수 있는데, 이는 Computational Camera의 한 종류로써 기존의 2D에서 할 수 없었던 이미지 각 픽셀의 깊이 값을 계산할 수 있는 기술이다. 이를 이용하여 깊이를 추정하고 사용자의 위치에서부터 각 POI까지의 거리를 추정할 수 있으며, 안내자가 현장에 있지 않아 영상만을 보면서 거리감이 없는 경우, 깊이를 추정해주면 안내자가 사용자에게 몇 걸음을 가면 매표소로 갈 수 있는지 등의 상세한 안내가 가능해진다. The depth estimator 380 may estimate a depth from an image transmitted from the user terminal 100 to at least one preset point of interest (POI) and provide a distance to the at least one POI. . At this time, in order to estimate the depth with a single lens rather than a stereo camera, the image geometry as described above can be used, but in the case of a stereo camera, that is, in the case of two or more cameras, a 3D camera module technology can be used, which is Computational Camera It is a technology that can calculate the depth value of each pixel of an image, which was not possible in the existing 2D. Using this, the depth can be estimated and the distance from the user's location to each POI can be estimated. If the guide is not on-site and there is no sense of distance while only watching the video, if the depth is estimated, the guide will take a few steps to the user to the ticket office. Detailed guidance such as whether you can go is possible.

기계안내부(390)는, 사용자 단말(100)과 안내 단말(400) 간 즉시연결이 불가한 경우, 안내 단말(400)과 연결이 되는 동안 웨어러블 기기(500)로 촬영된 영상을 스트리밍받아 촬영된 영상 내 포함된 적어도 하나의 객체에 대한 설명을 자동으로 생성하여 사용자 단말(100)에서 음성으로 출력되도록 할 수 있다. 상술한 딥러닝 또는 GIS 기반 공간정보를 이용하여 안내자에게 바로 연결이 되지 않는 경우 등에 또는 통화대기 중이나 연결중에 기계가 안내자에게 연결될 때까지 안내를 해줄 수도 있다.When an immediate connection between the user terminal 100 and the guidance terminal 400 is not possible, the machine guidance unit 390 receives and captures images captured by the wearable device 500 while being connected to the guidance terminal 400 by streaming. A description of at least one object included in the image may be automatically generated and output as a voice in the user terminal 100 . Using the above-described deep learning or GIS-based spatial information, guidance may be provided until the machine is connected to the guide when the guide is not immediately connected, or during call waiting or connection.

화각조절부(391)는, 사용자 단말(100)과 안내 단말(400) 간 연동이 된 경우, 안내 단말(400)에서 웨어러블 기기(500) 내 카메라의 화각(Field of View)을 증감하도록 제어권에 대한 엑세스권을 제공할 수 있다. 웨어러블 기기(500)는, 전면, 후면, 좌면, 우면 및 360 도 촬영 중 적어도 하나를 수행하는 카메라를 포함하는 기기일 수 있다. 카메라는 화각이나 초점 등을 조절할 수 있는데, 초점이 잘 맞지 않는 경우 원격지에 있는 안내자는 영상이 흐릿하게 보일 수 있고, 만약 화각이 좁혀진 상태라면 이를 넓혀야 하는데 안내자가 직접 카메라를 조작하는 것이 아니기 때문에 이를 더 넓힐 수가 없다. 이에 따라, 안내자에게 카메라의 제어권을 넘김으로써 안내자가 카메라의 시야각을 넓혀 더 넓은 곳을 볼 수 있도록 하거나, 초점을 맞춰 흐릿한 초점의 영상을 선명한 영상으로 변경하도록 할 수도 있다. When the user terminal 100 and the guidance terminal 400 are interlocked, the view angle adjusting unit 391 controls the guidance terminal 400 to increase or decrease the field of view of the camera in the wearable device 500. access rights can be provided. The wearable device 500 may be a device including a camera that performs at least one of front, rear, left, right, and 360 degree shooting. The camera can adjust the angle of view or focus. If the focus is not good, the guide at a remote location may see a blurry image, and if the angle of view is narrowed, it must be widened, but this is can't expand it any further. Accordingly, by handing over control of the camera to the guide, the guide may widen the viewing angle of the camera to see a wider area, or change a blurred image into a clear image by focusing.

이하, 상술한 도 2의 안내 서비스 제공 서버의 구성에 따른 동작 과정을 도 3 및 도 4를 예로 들어 상세히 설명하기로 한다. 다만, 실시예는 본 발명의 다양한 실시예 중 어느 하나일 뿐, 이에 한정되지 않음은 자명하다 할 것이다.Hereinafter, an operation process according to the configuration of the information service providing server of FIG. 2 described above will be described in detail with reference to FIGS. 3 and 4 as examples. However, it will be apparent that the embodiment is only any one of various embodiments of the present invention, and is not limited thereto.

도 3을 참조하면, (a) 안내 서비스 제공 서버(300)는 사용자 단말(100)과 웨어러블 기기(500) 간 연동을 통하여 두 기기를 매핑하여 저장하고, (b)와 같이 GIS 기반 공간정보를 구축하며, (c)와 같이 사용자 단말(100)의 안내요청이 존재하는 경우, 안내 단말(400)을 연결하며 웨어러블 기기(500)로부터 전송되는 영상을 안내 단말(400)로 전송한다. 이때, (d)와 같이 실내외에서는 GIS 기반 공간정보와 딥러닝 기반 객체탐지 모델을 함께 이용할 수 있고, 실내에서는 딥러닝 기반 객체탐지 모델로 탐지되는 객체를 안내 단말(400)의 동영상 스트리밍 화면 상에 표시해줌으로써 어떠한 물체가 앞에 있고 또 얼마나 멀리 또는 가까이 있는지, 또 방향은 어디인지 등에 대한 안내가 상세히 이루어질 수 있도록 레이어를 제공할 수 있다. Referring to FIG. 3, (a) the information service providing server 300 maps and stores the two devices through linkage between the user terminal 100 and the wearable device 500, and, as shown in (b), GIS-based spatial information When there is a guide request from the user terminal 100 as shown in (c), the guide terminal 400 is connected and the image transmitted from the wearable device 500 is transmitted to the guide terminal 400. At this time, as shown in (d), the GIS-based spatial information and the deep learning-based object detection model can be used together indoors and outdoors, and the object detected by the deep-learning-based object detection model indoors is displayed on the video streaming screen of the guidance terminal 400. By displaying, layers can be provided so that guidance on which object is in front, how far or near it is, and where the direction is, etc. can be made in detail.

또 도 4의 (a)와 같이 공간정보를 제공함으로써 안내 단말(400)에서 볼 수 없는 사항, 예를 들어, 도로 위 안내점자가 끊겼는지, 턱이 있는지, 바닥의 재질은 무엇인지 등에 대한 사항을 안내 단말(400)에서 안내를 할 수 있도록 하고 (b)와 같이 안내 단말(400)에서 웨어러블 기기(500)의 화각을 제어하거나 초점을 제어할 수 있도록 함으로써, 초점이 맞지 않거나 화각을 넓히거나 좁힐 수 있도록 한다. 또, 키오스크 등의 경우에도 (c)와 같이 사용자가 손가락을 얼마나 또 어디로 움직여야 원하는 버튼을 누를 수 있는지 등을 안내할 수 있고, (d)와 같이 POI 깊이 추정으로 각 객체와 사용자 간 거리를 추정한 후 안내 단말(400)로 안내할 수 있도록 정보를 제공할 수 있다.In addition, by providing spatial information as shown in FIG. 4 (a), matters that cannot be seen in the guide terminal 400, for example, whether the guide braille on the road is broken, whether there is a chin, what the material of the floor is, etc. can be guided by the guide terminal 400, and by allowing the guide terminal 400 to control the angle of view or focus of the wearable device 500 as shown in (b), it is out of focus or the angle of view is widened or allow it to be narrowed down. In addition, in the case of a kiosk, etc., as in (c), it is possible to guide the user how much and where to move his or her finger to press a desired button, etc., and estimate the distance between each object and the user through POI depth estimation as in (d) After that, information can be provided so that guidance can be provided to the guidance terminal 400 .

이와 같은 도 2 내지 도 4의 실시간 스트리밍을 이용한 시각장애인 안내 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1을 통해 실시간 스트리밍을 이용한 시각장애인 안내 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.Matters not described for the method of providing a guide service for the visually impaired using real-time streaming of FIGS. 2 to 4 are the same as or described for the method of providing a guide service for the visually impaired using real-time streaming through FIG. 1 above. Since it can be easily inferred from the contents, the following description will be omitted.

도 5는 본 발명의 일 실시예에 따른 도 1의 실시간 스트리밍을 이용한 시각장애인 안내 서비스 제공 시스템에 포함된 각 구성들 상호 간에 데이터가 송수신되는 과정을 나타낸 도면이다. 이하, 도 5를 통해 각 구성들 상호간에 데이터가 송수신되는 과정의 일 예를 설명할 것이나, 이와 같은 실시예로 본원이 한정 해석되는 것은 아니며, 앞서 설명한 다양한 실시예들에 따라 도 5에 도시된 데이터가 송수신되는 과정이 변경될 수 있음은 기술분야에 속하는 당업자에게 자명하다.5 is a diagram illustrating a process of transmitting and receiving data between components included in the system for providing a guide service for the visually impaired using real-time streaming of FIG. 1 according to an embodiment of the present invention. Hereinafter, an example of a process of transmitting and receiving data between each component will be described through FIG. 5, but the present application is not limited to such an embodiment, and according to various embodiments described above, It is obvious to those skilled in the art that a process of transmitting and receiving data may be changed.

도 5를 참조하면, 안내 서비스 제공 서버는, 사용자 단말과 웨어러블 기기가 연동되도록 매핑하여 저장하고(S5100), 사용자 단말에서 안내 요청을 전송하는 경우, 안내 단말과 사용자 단말 간을 연결하며 안내 단말로 웨어러블 기기에서 촬영된 영상이 스트리밍되도록 한다(S5200).Referring to FIG. 5, the guidance service providing server maps and stores the information so that the user terminal and the wearable device are interlocked (S5100), and when the user terminal transmits a guidance request, connecting the guidance terminal and the user terminal to the guidance terminal. An image captured by the wearable device is streamed (S5200).

또, 안내 서비스 제공 서버는, 안내 단말의 화면 내 각 객체에 대한 방향 및 거리를 오버레이되도록 표시하고(S5300), 안내 단말에서 사용자 단말의 요청에 대응하는 객체의 방향 및 거리를 안내하여 전달한다(S5400).In addition, the guide service providing server displays the direction and distance of each object on the screen of the guide terminal in an overlay manner (S5300), and guides and delivers the direction and distance of the object corresponding to the request of the user terminal in the guide terminal (S5300). S5400).

상술한 단계들(S5100~S5400)간의 순서는 예시일 뿐, 이에 한정되지 않는다. 즉, 상술한 단계들(S5100~S5400)간의 순서는 상호 변동될 수 있으며, 이중 일부 단계들은 동시에 실행되거나 삭제될 수도 있다.The order between the above-described steps (S5100 to S5400) is only an example, and is not limited thereto. That is, the order of the above-described steps (S5100 to S5400) may be mutually changed, and some of the steps may be simultaneously executed or deleted.

이와 같은 도 5의 실시간 스트리밍을 이용한 시각장애인 안내 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1 내지 도 4를 통해 실시간 스트리밍을 이용한 시각장애인 안내 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.Matters not described in the method for providing a guide service for the visually impaired using real-time streaming in FIG. 5 are the same as or described for the method for providing a guide service for the visually impaired using real-time streaming through FIGS. 1 to 4 above. Since it can be easily inferred from the contents, the following description will be omitted.

도 5를 통해 설명된 일 실시예에 따른 실시간 스트리밍을 이용한 시각장애인 안내 서비스 제공 방법은, 컴퓨터에 의해 실행되는 애플리케이션이나 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. The method of providing a guide service for the visually impaired using real-time streaming according to an embodiment described with reference to FIG. 5 is implemented in the form of a recording medium including instructions executable by a computer, such as an application or program module executed by a computer. It can be. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. Also, computer readable media may include all computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

전술한 본 발명의 일 실시예에 따른 실시간 스트리밍을 이용한 시각장애인 안내 서비스 제공 방법은, 단말기에 기본적으로 설치된 애플리케이션(이는 단말기에 기본적으로 탑재된 플랫폼이나 운영체제 등에 포함된 프로그램을 포함할 수 있음)에 의해 실행될 수 있고, 사용자가 애플리케이션 스토어 서버, 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버를 통해 마스터 단말기에 직접 설치한 애플리케이션(즉, 프로그램)에 의해 실행될 수도 있다. 이러한 의미에서, 전술한 본 발명의 일 실시예에 따른 실시간 스트리밍을 이용한 시각장애인 안내 서비스 제공 방법은 단말기에 기본적으로 설치되거나 사용자에 의해 직접 설치된 애플리케이션(즉, 프로그램)으로 구현되고 단말기에 등의 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.The above-described method for providing a guide service for the visually impaired using real-time streaming according to an embodiment of the present invention is based on an application (this may include a program included in a platform or operating system, etc., which is basically installed in the terminal) It can also be executed by an application (i.e., a program) that a user directly installs in the master terminal through an application providing server such as an application store server, an application or a web server related to the corresponding service. In this sense, the above-described method for providing a guide service for the visually impaired using real-time streaming according to an embodiment of the present invention is implemented as an application (ie, a program) that is basically installed in a terminal or directly installed by a user, and is installed on a computer such as a terminal. can be recorded on a readable recording medium.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The above description of the present invention is for illustrative purposes, and those skilled in the art can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the detailed description above, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts should be construed as being included in the scope of the present invention. do.

Claims (7)

기 설정된 방향을 촬영하는 웨어러블 기기;
안내 요청을 입력받고, 상기 웨어러블 기기로부터 촬영된 영상을 실시간으로 업로드하는 사용자 단말;
상기 사용자 단말의 안내 요청으로 연결되고, 상기 웨어러블 기기로부터 스트리밍되는 영상을 화면에 출력할 때 화면 내 각 객체에 대한 방향 및 거리를 오버레이하여 출력하는 안내 단말; 및
상기 사용자 단말과 웨어러블 기기가 연동되도록 매핑하여 저장하는 등록부, 상기 사용자 단말에서 안내 요청을 전송하는 경우, 상기 안내 단말과 상기 사용자 단말 간을 연결하며 상기 안내 단말로 상기 웨어러블 기기에서 촬영된 영상이 스트리밍되도록 하는 실시간중계부, 상기 안내 단말의 화면 내 각 객체에 대한 방향 및 거리를 오버레이되도록 표시하는 표시부, 상기 안내 단말에서 상기 사용자 단말의 요청에 대응하는 객체의 방향 및 거리를 안내하여 전달하는 안내부 및 상기 사용자 단말의 위치가 실내인 경우, 상기 웨어러블 기기에서 촬영되는 영상 내 각 객체를 딥러닝 기반 객체탐지 모델로 인식 및 식별한 후, 상기 사용자 단말의 사용자와 상기 객체 간 거리 및 방향을 상기 딥러닝 기반 객체탐지 모델로 측정하여 벡터 포맷으로 상기 안내 단말의 화면 상에 오버레이하여 출력하도록 하는 객체정보제공부를 포함하는 안내 서비스 제공 서버;
를 포함하는 실시간 스트리밍을 이용한 시각장애인 안내 서비스 제공 시스템.
a wearable device that captures a preset direction;
a user terminal receiving a guide request and uploading an image taken from the wearable device in real time;
a guide terminal that is connected to the guide request of the user terminal and outputs an overlay of directions and distances for each object in the screen when outputting an image streamed from the wearable device to the screen; and
A registration unit that maps and stores the mapping so that the user terminal and the wearable device are interlocked, and when the user terminal transmits a guide request, the guide terminal and the user terminal are connected, and the video taken by the wearable device is streamed to the guide terminal a real-time relay unit for providing information, a display unit for overlaying display of the direction and distance of each object on the screen of the guidance terminal, and a guide unit for guiding and transmitting the direction and distance of the object corresponding to the request of the user terminal in the guidance terminal. And when the location of the user terminal is indoors, after recognizing and identifying each object in the image captured by the wearable device with a deep learning-based object detection model, the distance and direction between the user of the user terminal and the object are determined by the deep learning. a guide service providing server including an object information providing unit that measures measurements using a running-based object detection model and outputs the overlay on the screen of the guide terminal in a vector format;
A guide service providing system for the visually impaired using real-time streaming including a.
제 1 항에 있어서,
상기 안내 서비스 제공 서버는,
상기 사용자 단말의 위치가 실외인 경우, 기 구축된 GIS(Geographic Information System) 기반 공간정보를 상기 안내 단말의 화면 상에 오버레이하여 출력하도록 하는 공간정보제공부;
를 더 포함하는 것을 특징으로 하는 실시간 스트리밍을 이용한 시각장애인 안내 서비스 제공 시스템.
According to claim 1,
The guidance service providing server,
a geospatial information provider configured to overlay geographic information system (GIS)-based geospatial information on the screen of the guide terminal and output the result when the location of the user terminal is outdoors;
A system for providing a guide service for the visually impaired using real-time streaming, characterized in that it further comprises.
삭제delete 제 1 항에 있어서,
상기 안내 서비스 제공 서버는,
상기 사용자 단말에서 전송된 영상이 키오스크의 영상인 경우, 상기 안내 단말로 상기 키오스크 내 화면을 설명하도록 요청하고, 상기 사용자 단말에서 요청하는 항목이 선택되도록 사용자의 손가락과 요청하는 항목 간 방향 및 거리를 상기 안내 단말의 화면 상에 표시하여 상기 사용자 단말로 음성안내가 되도록 지원하는 키오스크지원부;
를 더 포함하는 것을 특징으로 하는 실시간 스트리밍을 이용한 시각장애인 안내 서비스 제공 시스템.
According to claim 1,
The guidance service providing server,
When the image transmitted from the user terminal is an image of a kiosk, the guide terminal is requested to describe the screen in the kiosk, and the direction and distance between the user's finger and the requested item are determined so that the requested item is selected from the user terminal. a kiosk support unit that displays on the screen of the guide terminal and supports voice guidance to the user terminal;
A system for providing a guide service for the visually impaired using real-time streaming, characterized in that it further comprises.
제 1 항에 있어서,
상기 안내 서비스 제공 서버는,
상기 사용자 단말에서 전송된 영상에서 기 설정된 적어도 하나의 POI(Point of Interest)까지의 깊이(Depth)를 추정하여 상기 적어도 하나의 POI까지의 거리를 제공하는 깊이추정부;
를 더 포함하는 것을 특징으로 하는 실시간 스트리밍을 이용한 시각장애인 안내 서비스 제공 시스템.
According to claim 1,
The guidance service providing server,
a depth estimation unit estimating a depth from the image transmitted from the user terminal to at least one predetermined POI (Point of Interest) and providing a distance to the at least one POI;
A system for providing a guide service for the visually impaired using real-time streaming, characterized in that it further comprises.
제 1 항에 있어서,
상기 안내 서비스 제공 서버는,
상기 사용자 단말과 상기 안내 단말 간 즉시연결이 불가한 경우, 상기 안내 단말과 연결이 되는 동안 상기 웨어러블 기기로 촬영된 영상을 스트리밍받아 상기 촬영된 영상 내 포함된 적어도 하나의 객체에 대한 설명을 자동으로 생성하여 상기 사용자 단말에서 음성으로 출력되도록 하는 기계안내부;
를 더 포함하는 것을 특징으로 하는 실시간 스트리밍을 이용한 시각장애인 안내 서비스 제공 시스템.
According to claim 1,
The guidance service providing server,
When an immediate connection between the user terminal and the guide terminal is not possible, while being connected to the guide terminal, an image captured by the wearable device is streamed and a description of at least one object included in the captured image is automatically provided. a machine guidance unit that generates and outputs a voice in the user terminal;
A system for providing a guide service for the visually impaired using real-time streaming, characterized in that it further comprises.
제 1 항에 있어서,
상기 웨어러블 기기는,
전면, 후면, 좌면, 우면 및 360 도 촬영 중 적어도 하나를 수행하는 카메라를 포함하는 기기이고,
상기 안내 서비스 제공 서버는,
상기 사용자 단말과 상기 안내 단말 간 연동이 된 경우, 상기 안내 단말에서 상기 웨어러블 기기 내 카메라의 화각(Field of View)을 증감하도록 제어권에 대한 엑세스권을 제공하는 화각조절부;
를 더 포함하는 것을 특징으로 하는 실시간 스트리밍을 이용한 시각장애인 안내 서비스 제공 시스템.
According to claim 1,
The wearable device,
A device including a camera that performs at least one of front, rear, left, right, and 360-degree shooting;
The guidance service providing server,
an angle-of-view adjusting unit for providing access to a control right to increase or decrease a field of view of a camera in the wearable device in the guidance terminal when interworking between the user terminal and the guide terminal is established;
A system for providing a guide service for the visually impaired using real-time streaming, characterized in that it further comprises.
KR1020230011643A 2023-01-30 2023-01-30 System for providing visual impairment support service using realtime streaming KR102559789B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230011643A KR102559789B1 (en) 2023-01-30 2023-01-30 System for providing visual impairment support service using realtime streaming

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230011643A KR102559789B1 (en) 2023-01-30 2023-01-30 System for providing visual impairment support service using realtime streaming

Publications (1)

Publication Number Publication Date
KR102559789B1 true KR102559789B1 (en) 2023-07-28

Family

ID=87427081

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230011643A KR102559789B1 (en) 2023-01-30 2023-01-30 System for providing visual impairment support service using realtime streaming

Country Status (1)

Country Link
KR (1) KR102559789B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150005072A (en) * 2013-07-04 2015-01-14 주식회사 엠씨넥스 Apparatus for Parking Assist having a function of warning for obstacles
KR20180079116A (en) * 2016-12-30 2018-07-10 김영록 System and method for providing information service for people with visually impairment
KR101929875B1 (en) * 2018-05-18 2018-12-18 문경진 Method for providing voice guidance service for vision impairment using stream live broadcast in real time
KR20210012198A (en) * 2019-07-24 2021-02-03 이상현 Apparatus and method of speaking object location information for blind person
KR20210022394A (en) * 2019-08-20 2021-03-03 강서호 A moving robot for the blind and control method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150005072A (en) * 2013-07-04 2015-01-14 주식회사 엠씨넥스 Apparatus for Parking Assist having a function of warning for obstacles
KR20180079116A (en) * 2016-12-30 2018-07-10 김영록 System and method for providing information service for people with visually impairment
KR101929875B1 (en) * 2018-05-18 2018-12-18 문경진 Method for providing voice guidance service for vision impairment using stream live broadcast in real time
KR20210012198A (en) * 2019-07-24 2021-02-03 이상현 Apparatus and method of speaking object location information for blind person
KR20210022394A (en) * 2019-08-20 2021-03-03 강서호 A moving robot for the blind and control method thereof

Similar Documents

Publication Publication Date Title
JP7307259B2 (en) Three-dimensional information processing method and three-dimensional information processing apparatus
Helal et al. Drishti: An integrated navigation system for visually impaired and disabled
KR102192916B1 (en) System and method for providing navigation service of disabled person based on image analysis
JP3697454B1 (en) Route guidance system according to individual body characteristics
US20110153193A1 (en) Navigation systems and methods for users having different physical classifications
US11166338B2 (en) Intelligent disaster prevention system and intelligent disaster prevention method
KR20100089218A (en) Apparatus and method for searching path
JP2014190725A (en) Route guidance system, route guidance method and computer program
CN111084710B (en) Method and system for providing navigation for special user
KR20050013445A (en) Position tracing system and method using digital video process technic
US20230343208A1 (en) Pedestrian device, information collection device, base station device, positioning method, user management method, information collection method, and facility monitoring method
CN112665606A (en) Walking navigation method, device, equipment and storage medium
KR20140113768A (en) The system of providing traveling information for the disabled and the method thereof
US11835353B2 (en) Computer implemented method for guiding traffic participants
Bujacz et al. Remote guidance for the blind—A proposed teleassistance system and navigation trials
Somyat et al. NavTU: android navigation app for Thai people with visual impairments
JP4415861B2 (en) Pedestrian crossing support system and pedestrian crossing support method
KR102559789B1 (en) System for providing visual impairment support service using realtime streaming
JP6838597B2 (en) Navigation service provision system and method for persons with disabilities based on image analysis
KR102225456B1 (en) Road mate system, and road mate service providing method
KR101873489B1 (en) Crossroad passing support system for visually handicapped person, and method for the same
KR20190023017A (en) A navigation system for visually impaired person and method for navigating using the same
Gintner et al. Improving reverse geocoding: Localization of blind pedestrians using conversational ui
KR20190066523A (en) Method for directing personal route considering walk type and apparatus using the same
US10876854B2 (en) System and method for providing navigation service of disabled person based on image analysis

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant