KR20230047889A - Apparatus and method for sensory substitution and multi-path transmission of visual information - Google Patents

Apparatus and method for sensory substitution and multi-path transmission of visual information Download PDF

Info

Publication number
KR20230047889A
KR20230047889A KR1020220081959A KR20220081959A KR20230047889A KR 20230047889 A KR20230047889 A KR 20230047889A KR 1020220081959 A KR1020220081959 A KR 1020220081959A KR 20220081959 A KR20220081959 A KR 20220081959A KR 20230047889 A KR20230047889 A KR 20230047889A
Authority
KR
South Korea
Prior art keywords
information
sensory
signal
user
alternative
Prior art date
Application number
KR1020220081959A
Other languages
Korean (ko)
Inventor
김무섭
정치윤
문경덕
박윤경
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US17/952,493 priority Critical patent/US20230103788A1/en
Publication of KR20230047889A publication Critical patent/KR20230047889A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/08Devices or methods enabling eye-patients to replace direct visual perception by another kind of perception
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/225Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/52Scale-space analysis, e.g. wavelet analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/007Teaching or communicating with blind persons using both tactile and audible presentation of the information

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Educational Technology (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Vascular Medicine (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to an apparatus and method for sensory substitution and multi-path transfer of visual information to efficiently transfer visual information to a user. According to the present invention, the apparatus comprises: a target information extraction module extracting information corresponding to a type requested by a user from externally received image information on the basis of user input information; a sensory path determination module determining at least one sensory path through which the extracted information is transferred on the basis of the user input information; a replacement signal generation module converting the extracted information to generate a replacement signal corresponding to each of the at least one sensory path; and a control and output module outputting the replacement signal through the user's sensory signal transfer device.

Description

시각정보의 감각 치환 및 다중경로 전달 장치 및 방법{APPARATUS AND METHOD FOR SENSORY SUBSTITUTION AND MULTI-PATH TRANSMISSION OF VISUAL INFORMATION}Apparatus and method for sensory substitution and multi-path transmission of visual information

본 발명은 뇌가소성에 기반하여 특정 감각에 관한 정보를 다른 감각 기관이 감지할 수 있는 정보로 치환하여 전달함으로써 뇌가 변환된 신호로부터 상기 특정 감각에 관한 정보를 인지할 수 있게 하는 감각 치환 및 전달 장치 및 방법에 관한 것이다. 본 발명은 단순히 감각 정보를 대체하는 기술은 물론이고, 사용자로 하여금 증강된 감각을 가질 수 있도록, 시각정보를 다양한 감각신호로 전달하는 기술 및 방법을 포함한다.The present invention substitutes and transmits information about a specific sense based on brain plasticity by substituting information that can be sensed by other sensory organs, thereby allowing the brain to recognize information about the specific sense from a converted signal. It relates to an apparatus and method. The present invention includes not only a technology for simply replacing sensory information, but also a technology and method for transmitting visual information as various sensory signals so that a user can have enhanced senses.

일반적으로 감각 치환(sensory substitution)은 사고나 노화로 기능이 손상되거나 저하된 신체의 감각 정보를 다른 감각신호로 변환해서 전달하면 일정기간의 학습과정을 거친 사용자가 원래의 감각 정보를 대체된 신호를 통해 지각할 수 있도록 하는 방법을 의미한다. 이러한 감각 치환 기술은, 사람의 뇌가 새로운 환경에 적응하기 위하여 구조적으로 또는 기능적으로 변화하고 재조직되는 특성, 즉 뇌 가소성(brain plasticity)에 기반하는 것으로 알려져 있다.In general, sensory substitution is when the sensory information of the body whose functions are damaged or deteriorated due to accidents or aging is converted into other sensory signals and transmitted, and the user who has gone through a period of learning process replaces the original sensory information with the sensory information. It means a way to make it perceptible through. It is known that such a sensory substitution technique is based on a characteristic in which the human brain structurally or functionally changes and reorganizes to adapt to a new environment, that is, brain plasticity.

사람이 생활 중에 외부로부터 인지하는 정보의 80%가량이 시각을 통해 이루어진다고 알려져 있다. 따라서 시각은 인체의 감각기관 중에서 가장 중요한 정보수집 기관이며, 시각을 상실한 경우 보행의 불편, 상황 파악의 어려움 등의 문제가 발생한다. 이러한 문제에 대응하기 위하여 시각정보를 다른 감각신호로 변환하여 전달하려는 다양한 연구가 진행되어 왔다.It is known that about 80% of the information that people perceive from the outside in their lives is made through vision. Therefore, vision is the most important information collection organ among the sense organs of the human body, and when vision is lost, problems such as inconvenience in walking and difficulty in grasping situations occur. In order to cope with these problems, various studies have been conducted to convert visual information into other sensory signals and transmit them.

시각정보를 다른 감각신호로 변환하는 기존 방법에는 시각정보를 청각 신호로 변환하는 청각치환 기술과 시각정보를 촉각 신호로 변환하는 촉각치환 기술 등이 있다. 기존의 청각치환이나 촉각치환 기술은 주로 입력 영상을 전처리 과정을 통해 흑백이나 그레이 영상으로 변환한 후 사전에 정의된 규칙에 따라 시각적 신호 이외의 다른 감각신호로 변환하여 전달하는 기술이다.Existing methods for converting visual information into other sensory signals include an auditory replacement technology for converting visual information into an auditory signal and a tactile replacement technology for converting visual information into a tactile signal. Existing auditory or tactile substitution technologies mainly convert input images into black and white or gray images through a pre-processing process, and then convert them into sensory signals other than visual signals according to pre-defined rules and transmit them.

청각치환 기술에서 가장 대표적인 기술인 vOICe는 입력 영상을 그레이 스케일의 64x64 해상도의 2차원 이미지로 변환한 후 시간 축을 기준으로 이미지 프레임을 64개의 열 단위로 구분하여 각 열에서 픽셀의 위치와 밝기 정보를 소리의 주파수, 진폭 등으로 매핑하여 소리 정보를 생성한 후 전달하는 기술이다. 또한, 청각치환 기술 중 EyeMusic은 이미지나 영상을 그레이 스케일로 변환하여 처리함으로써 영상에서 중요한 요소인 색상 정보의 손실이 발생하는 문제를 해결하기 위하여, 입력 영상에서 동일 색상 영역을 군집화해서, 색상마다 다른 악기 소리에 매핑하여 소리 신호로 전달하는 기술이다.vOICe, the most representative technology in auditory replacement technology, converts the input image into a gray scale 64x64 resolution 2D image, divides the image frame into 64 columns based on the time axis, and outputs pixel position and brightness information in each column as sound. It is a technology that generates sound information by mapping it to the frequency and amplitude of the sound and then transmits it. In addition, among auditory replacement technologies, EyeMusic converts images or videos into gray scale and processes them to solve the problem of loss of color information, which is an important element in images, by clustering the same color area in the input image and different colors for each color. It is a technology that maps the sound of an instrument and transmits it as a sound signal.

일반적으로 사람이 인지하는 시각정보에는 윤곽선을 포함한 형태, 객체의 위치, 거리, 색상, 질감, 경로나 방향, 빛의 유무와 분위기 또는 감성까지 다양한 정보가 있다. 그러나 기존의 청각치환 또는 촉각치환 기술들은 시각정보 중에서 형태나 색상 등에 국한된 정보를 다른 감각 정보로 치환하여 제공하므로 다양한 시각정보를 전달할 수 없다. 구체적으로, 시각정보를 다른 감각신호로 대체하여 전달하는 기존의 감각치환 기술은 영상이나 이미지를 사전에 정해진 방법으로 변환하여 단일 감각기관으로 전달함으로써, 다양한 시각정보를 사용자에게 효과적으로 전달할 수 없다는 문제점이 있다.In general, visual information recognized by humans includes a variety of information, including shape including outlines, position of objects, distance, color, texture, path or direction, presence or absence of light, atmosphere, or emotion. However, existing auditory substitution or tactile substitution technologies cannot transmit various visual information because information limited to shape or color among visual information is replaced with other sensory information and provided. Specifically, the existing sensory substitution technology that transmits visual information by replacing it with other sensory signals has a problem in that it cannot effectively convey various visual information to the user by converting images or images in a predetermined way and delivering them to a single sensory organ. there is.

또한, 기존의 감각치환 기술은 신호를 단순하게 전달하는 방식을 따르므로, 사용자가 필요로 하는 시각정보를 선택적으로 전달하지 못한다는 문제점이 있다.In addition, since the existing sensory substitution technology follows a method of simply transmitting signals, there is a problem in that the visual information required by the user cannot be selectively transmitted.

한편, 최근 코로나로 도래된 비대면 사회 및 메타버스로 대변되는 가상/증강 환경에서 시각정보의 효율적인 전달과 사용자의 감각을 증강 내지 향상하기 위한 기술의 필요성이 증가하고 있다. 그런데, 전술한 감각대체 기술은 단순하게 손실된 기능의 제공을 위한 우회적인 경로만을 제공할 수 있다는 한계가 있다.On the other hand, in the virtual/augmented environment represented by the non-face-to-face society and metaverse recently introduced by the corona, the need for technology for efficient transmission of visual information and augmentation or improvement of users' senses is increasing. However, the sensory replacement technology described above has a limitation in that it can provide only a detour path for simply providing lost functions.

또한, 대부분의 감각 정보의 경우 감각 기관의 특성에 따라 감각 수용체가 감지할 수 있는 정보의 양이 제한적일 수 있는데, 기존의 감각치환 기술은 단일한 대체 감각 정보를 활용하기 때문에(단일한 경로로 전달하기 때문에), 영상이나 이미지의 시각정보를 충실히 전달하는 데 한계가 있다.In addition, in the case of most sensory information, the amount of information that can be sensed by sensory receptors may be limited depending on the characteristics of the sensory organ, and since the existing sensory substitution technology utilizes a single alternative sensory information (transmitted through a single path), Therefore, there is a limit to faithfully conveying the visual information of a video or image.

본 발명은 상기와 같은 문제점 및 한계를 극복하기 위하여, 영상이나 이미지에 포함된 다양한 시각정보 중에서 사용자가 전달받기를 원하는 복수의 시각정보를 그 정보의 특성에 적합한 다른 감각신호로 변환하고, 이를 복수 개의 감각기관으로 전달함으로써 사용자에게 효율적으로 시각정보를 전달할 수 있는, 시각정보의 감각 치환 및 다중경로 전달 장치 및 방법을 제공하는 것을 그 목적으로 한다.In order to overcome the above problems and limitations, the present invention converts a plurality of visual information that a user wants to receive among various visual information included in a video or image into other sensory signals suitable for the characteristics of the information, and converts the plurality of visual information into a plurality of sense signals. An object of the present invention is to provide an apparatus and method for sensory substitution and multi-path transmission of visual information, which can efficiently deliver visual information to a user by transmitting it to a dog's sensory organ.

특히, 기존 청각대체 또는 촉각대체 기술들이 시각장애인들의 보행이나 생활에 도움을 주는 것이 주요 목적이었다면, 본 발명은 기존 시각장애인 뿐만 아니라 은밀한 정보의 전달이 필요한 군사작전 및 지하나 심야의 극한 작업환경에서 시각정보를 효율적으로 전달하거나, 메타버스로 대변되는 가상현실이나 증강현실에서 사용자의 체험을 극대화하기 위하여 시각정보를 증강하여 전달할 수 있는 시각정보의 감각 치환 및 다중경로 전달 장치 및 방법을 제공하는 것을 그 목적으로 한다.In particular, if the main purpose of the existing hearing or tactile replacement technologies was to help the visually impaired people walk or live, the present invention is not only for the visually impaired, but also for military operations that require confidential information transmission and in extreme working environments underground or late at night. To efficiently transmit visual information or to maximize the user's experience in virtual reality or augmented reality represented by the metaverse, to provide a device and method for sensory substitution and multipath transmission of visual information that can augment and transmit visual information. for that purpose

본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The object of the present invention is not limited to the object mentioned above, and other objects not mentioned will be clearly understood by those skilled in the art from the description below.

본 발명의 일 실시예에 따른 시각정보의 감각 치환 및 다중경로 전달 장치는, 사용자 입력 정보에 기초하여 외부에서 수신한 영상정보에서 사용자가 요청하는 유형에 해당하는 정보를 추출하는 목표정보 추출 모듈; 상기 사용자 입력 정보에 기초하여 상기 추출된 정보가 전달되는 적어도 하나의 감각경로를 결정하는 감각경로 결정 모듈; 상기 추출된 정보를 변환하여 상기 적어도 하나의 감각경로 각각에 대응하는 대체신호를 생성하는 대체신호 생성 모듈; 및 상기 대체신호를 상기 사용자의 감각신호 전달 장치를 통해 출력하는 제어 및 출력 모듈을 포함한다. 상기 유형은 상기 사용자 입력 정보에 포함된다.An apparatus for sensory substitution and multipath transmission of visual information according to an embodiment of the present invention includes a target information extraction module for extracting information corresponding to a type requested by a user from image information received from the outside based on user input information; a sensory path determining module configured to determine at least one sensory path through which the extracted information is transmitted based on the user input information; an alternative signal generation module for generating an alternative signal corresponding to each of the at least one sensory pathway by converting the extracted information; and a control and output module outputting the alternative signal through the user's sensory signal transmission device. The type is included in the user input information.

본 발명의 일 실시예에서, 상기 적어도 하나의 감각경로는 복수 개의 감각경로이고, 상기 대체신호 생성 모듈은, 상기 추출된 정보를 변환하여 상기 복수의 감각경로 각각에 대응하는 대체신호를 생성할 수 있다.In an embodiment of the present invention, the at least one sensory pathway is a plurality of sensory pathways, and the alternative signal generating module may convert the extracted information to generate alternative signals corresponding to each of the plurality of sensory pathways. there is.

본 발명의 일 실시예에서, 상기 복수 개의 감각경로는, 시각, 청각, 촉각 및 열감 중 적어도 2개 이상의 감각에 해당하는 감각경로를 포함할 수 있다.In one embodiment of the present invention, the plurality of sensory pathways may include sensory pathways corresponding to at least two or more senses among sight, hearing, touch, and thermal sensation.

본 발명의 일 실시예에서, 상기 목표정보 추출 모듈은, 상기 영상정보를 분석하여 형태정보, 공간정보, 전역정보 및 복합정보 중 적어도 어느 하나를 포함하는 전체 시각정보를 생성할 수 있고, 상기 사용자 입력 정보에 기초하여 상기 전체 시각정보 중에서 상기 유형에 해당하는 정보를 추출할 수 있다.In one embodiment of the present invention, the target information extraction module may generate total visual information including at least one of shape information, spatial information, global information, and composite information by analyzing the image information, and the user Based on the input information, information corresponding to the type may be extracted from the total visual information.

본 발명의 일 실시예에서, 상기 제어 및 출력 모듈은, 상기 영상정보의 프레임을 기준으로 상기 복수 개의 감각경로 각각에 대응하는 대체신호들을 동기화하고, 상기 동기화된 대체신호를 상기 감각신호 전달 장치를 통해 출력할 수 있다.In one embodiment of the present invention, the control and output module synchronizes the alternative signals corresponding to each of the plurality of sensory pathways based on the frame of the image information, and transmits the synchronized alternative signals to the sensory signal transmission device. can be output through

본 발명의 일 실시예에서, 상기 제어 및 출력 모듈은, 상기 영상정보를 기초로 상기 사용자의 행동을 인식하고, 상기 사용자의 행동에 기초하여 상기 대체신호의 특성을 보정하며, 상기 보정된 대체신호를 상기 감각신호 전달 장치를 통해 출력할 수 있다.In one embodiment of the present invention, the control and output module recognizes the user's behavior based on the image information, corrects characteristics of the alternative signal based on the user's behavior, and corrects the corrected alternative signal. Can be output through the sensory signal transmission device.

본 발명의 일 실시예에서, 상기 제어 및 출력 모듈은, 상기 영상정보의 입력 장치의 위치와 상기 감각신호 전달 장치의 위치에 기초하여 상기 대체신호의 특성을 보정하며, 상기 보정된 대체신호를 상기 감각신호 전달 장치를 통해 출력할 수 있다.In one embodiment of the present invention, the control and output module corrects the characteristics of the substitute signal based on the position of the image information input device and the position of the sensory signal transmission device, and converts the corrected substitute signal into the It can be output through a sensory signal transmission device.

본 발명의 일 실시예에서, 상기 사용자 입력 정보는, 전달 강도에 관한 정보를 포함할 수 있다. 이 경우 상기 제어 및 출력 모듈은, 상기 전달 강도에 따라 상기 대체신호의 강도를 보정하며, 상기 보정된 대체신호를 상기 감각신호 전달 장치를 통해 출력한다.In one embodiment of the present invention, the user input information may include information about transmission strength. In this case, the control and output module corrects the strength of the substitute signal according to the transmission strength, and outputs the corrected substitute signal through the sensory signal transmission device.

본 발명의 일 실시예에서, 상기 제어 및 출력 모듈은, 상기 대체신호 생성 모듈에서 상기 추출된 정보를 상기 대체신호로 변환하는 데 소요되는 시간을 산출할 수 있다. 이 경우, 상기 대체신호 생성 모듈은, 상기 시간에 기초하여 상기 추출된 정보를 상기 대체신호로 변환하는 과정을 단순화할 것인지 여부를 판단한다.In one embodiment of the present invention, the control and output module may calculate the time required to convert the extracted information into the alternative signal by the alternative signal generating module. In this case, the alternative signal generation module determines whether to simplify the process of converting the extracted information into the alternative signal based on the time.

그리고, 본 발명의 일 실시예에 따른 시각정보의 감각 치환 및 다중경로 전달 방법은, 사용자 입력 정보에 기초하여 외부에서 수신한 영상정보에서 사용자가 요청하는 유형에 해당하는 정보를 추출하는 단계; 상기 사용자 입력 정보에 기초하여 상기 추출된 정보가 전달되는 적어도 하나의 감각경로를 결정하는 단계; 상기 추출된 정보를 변환하여 상기 적어도 하나의 감각경로 각각에 대응하는 대체신호를 생성하는 단계; 및 상기 대체신호를 상기 사용자의 감각신호 전달 장치를 통해 출력하는 단계;를 포함한다.Further, a method for sensory substitution and multipath transmission of visual information according to an embodiment of the present invention includes extracting information corresponding to a type requested by a user from image information received from the outside based on user input information; determining at least one sensory pathway through which the extracted information is transmitted based on the user input information; generating an alternative signal corresponding to each of the at least one sensory pathway by converting the extracted information; and outputting the alternative signal through the user's sensory signal transmission device.

본 발명의 일 실시예에서, 상기 적어도 하나의 감각경로는, 복수 개의 감각경로일 수 있다. 이 경우, 상기 대체신호를 생성하는 단계에서, 상기 추출된 정보를 상기 복수의 감각경로 각각에 대응하는 대체신호를 생성할 수 있다.In one embodiment of the present invention, the at least one sensory pathway may be a plurality of sensory pathways. In this case, in the generating of the alternative signal, the extracted information may be used to generate an alternative signal corresponding to each of the plurality of sensory pathways.

본 발명의 일 실시예에서, 상기 복수 개의 감각경로는, 시각, 청각, 촉각 및 열감 중 적어도 2개 이상의 감각에 해당하는 감각경로를 포함할 수 있다.In one embodiment of the present invention, the plurality of sensory pathways may include sensory pathways corresponding to at least two or more senses among sight, hearing, touch, and thermal sensation.

본 발명의 일 실시예에 따른 시각정보의 감각 치환 및 다중경로 전달 방법은, 상기 대체신호를 생성하는 단계 이후, 상기 대체신호를 상기 영상정보의 프레임을 기준으로 동기화하는 대체신호 동기화 단계를 더 포함할 수 있다.The method for transmitting sensory substitution and multipath of visual information according to an embodiment of the present invention further includes an alternative signal synchronization step of synchronizing the alternative signal based on a frame of the image information after the generating of the alternative signal. can do.

본 발명의 일 실시예에 따른 시각정보의 감각 치환 및 다중경로 전달 방법은, 상기 대체신호를 생성하는 단계 이후, 상기 영상정보의 입력 장치의 위치와 상기 감각신호 전달 장치의 위치에 기초하여 상기 대체신호의 특성을 보정하는 대체신호 보정 단계를 더 포함할 수 있다. 이 경우, 상기 출력하는 단계에서, 상기 보정된 대체신호를 상기 감각신호 전달 장치를 통하여 출력한다.In the method for sensory substitution and multi-path transmission of visual information according to an embodiment of the present invention, after the step of generating the substitution signal, the substitution is performed based on the location of the image information input device and the location of the sensory signal transmission device. An alternative signal correction step of correcting the characteristics of the signal may be further included. In this case, in the outputting step, the corrected replacement signal is outputted through the sensory signal transmission device.

본 발명의 일 실시예에서, 상기 사용자가 요청하는 유형에 해당하는 정보를 추출하는 단계에서, 상기 영상정보를 분석하여 형태정보, 공간정보, 전역정보 및 복합정보 중 적어도 어느 하나를 포함하는 전체 시각정보를 생성하고, 상기 사용자 입력 정보에 기초하여 상기 전체 시각정보 중에서 상기 유형에 해당하는 정보를 추출할 수 있다.In one embodiment of the present invention, in the step of extracting the information corresponding to the type requested by the user, the image information is analyzed to provide a total view including at least one of shape information, spatial information, global information, and complex information. Information may be generated, and information corresponding to the type may be extracted from the total visual information based on the user input information.

본 발명의 일 실시예에서, 상기 출력하는 단계에서, 상기 영상정보의 프레임을 기준으로 상기 복수 개의 감각경로 각각에 대응하는 대체신호들을 동기화하고, 상기 동기화된 대체신호를 상기 감각신호 전달 장치를 통해 출력할 수 있다.In one embodiment of the present invention, in the outputting, alternative signals corresponding to each of the plurality of sensory pathways are synchronized based on a frame of the image information, and the synchronized alternative signals are transmitted through the sensory signal transmission device. can be printed out.

본 발명의 일 실시예에서, 상기 사용자 입력 정보는, 전달 강도에 관한 정보를 포함할 수 있다. 이 경우, 상기 대체신호를 생성하는 단계에서, 상기 전달 강도를 반영하여 상기 대체신호의 강도를 보정할 수 있다.In one embodiment of the present invention, the user input information may include information about transmission strength. In this case, in the step of generating the replacement signal, the strength of the replacement signal may be corrected by reflecting the transmission strength.

본 발명의 일 실시예에서, 상기 대체신호를 생성하는 단계에서, 상기 추출된 정보를 상기 대체신호로 변환하는 데 소요되는 시간을 산출하고, 상기 시간에 기초하여 상기 추출된 정보를 상기 대체신호로 변환하는 과정을 단순화할 것인지 여부를 판단하고, 그 판단 결과에 기초하여 상기 추출된 정보를 변환하여 상기 대체신호를 생성할 수 있다.In one embodiment of the present invention, in the step of generating the alternative signal, a time required to convert the extracted information into the alternative signal is calculated, and the extracted information is converted into the alternative signal based on the time. It is possible to determine whether to simplify the conversion process, and to generate the replacement signal by converting the extracted information based on the determination result.

본 발명의 일 실시예에 따르면, 영상으로부터 생성된 형태정보, 공간정보 및 복합정보와 같이 다양한 시각정보 중에서 사용자가 전달받기를 원하는 적어도 일부의 시각정보를 추출하여 사용자 맞춤형 정보를 생성할 수 있다. According to an embodiment of the present invention, user-customized information can be created by extracting at least some of the visual information that the user wants to receive from among various visual information such as shape information, spatial information, and complex information generated from an image.

본 발명의 일 실시예에 따르면, 추출된 시각정보를 시각정보 각각의 특성에 적합한 다른 감각신호로 변환하여 사용자에게 개선된 몰입감을 제공할 수 있다. 본 발명의 일 실시예에 따르면, 추출된 시각정보로부터 변환된 감각신호를 사용자의 행동에 따라 보정하여 사용자에게 개선된 몰입감을 제공할 수 있다.According to an embodiment of the present invention, it is possible to provide an improved sense of immersion to the user by converting the extracted visual information into other sensory signals suitable for each characteristic of the visual information. According to an embodiment of the present invention, a sensory signal converted from the extracted visual information may be corrected according to a user's action to provide an improved sense of immersion to the user.

본 발명의 일 실시예에 따르면, 영상정보로부터 복수의 변환된 감각신호들을 동기화하여 전달함으로써, 사용자가 대체 감각을 통해 필요한 시각정보를 더욱 정확하게 인지하도록 유도할 수 있다.According to an embodiment of the present invention, by synchronizing and transmitting a plurality of converted sensory signals from image information, it is possible to induce a user to more accurately recognize necessary visual information through alternative senses.

그리고, 본 발명을 통해 다양한 시각정보를 정확하게 전달할 수 있으므로, 본 발명은 기존 감각치환 기술의 적용 범위였던 시각장애인의 보행/생활에 대한 지원은 물론이고, 은밀한 정보의 전달이 필요한 군사작전 및 지하나 심야의 극한 작업환경에도 적용할 수 있다는 효과가 있다.In addition, since various visual information can be accurately transmitted through the present invention, the present invention supports the walking / life of the visually impaired, which was the scope of application of the existing sensory replacement technology, as well as military operations and underground or It has the effect of being applicable to the extreme working environment at night.

또한, 본 발명에 따르면, 실감형 가상환경, 증강현실 또는 비대면 사회에서 시각정보를 개인 맞춤형으로 보다 효율적이고 실감나게 전달하여 사용자가 시각정보를 체험할 수 있는 다양한 서비스에 적용할 수 있다는 효과도 있다.In addition, according to the present invention, visual information can be applied to various services in which users can experience visual information by delivering personalized visual information more efficiently and realistically in an immersive virtual environment, augmented reality, or non-face-to-face society. there is.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. will be.

도 1은 본 발명의 일 실시예에 따른 시각정보의 감각 치환 및 다중경로 전달 장치의 구성을 나타낸 블록도.
도 2는 본 발명의 일 실시예에 따른 시각정보의 감각 치환 및 다중경로 전달 장치의 세부 구성을 나타낸 블록도.
도 3은 본 발명에 따른 시각정보의 감각 치환 및 다중경로 전달 개념을 예시적으로 나타낸 도면.
도 4는 본 발명의 다른 실시예에 따른 시각정보의 감각 치환 및 다중경로 전달 장치의 구성을 나타낸 블록도.
도 5(도 5a 및 도 5b)는 본 발명의 일 실시예에 따른 시각정보의 감각 치환 및 다중경로 전달 방법을 설명하기 위한 흐름도.
1 is a block diagram showing the configuration of an apparatus for sensory substitution and multipath transmission of visual information according to an embodiment of the present invention.
2 is a block diagram showing the detailed configuration of an apparatus for sensory substitution and multi-path transmission of visual information according to an embodiment of the present invention.
3 is a diagram showing the concept of sensory substitution and multipath transmission of visual information according to the present invention by way of example.
4 is a block diagram showing the configuration of an apparatus for sensory substitution and multi-path transmission of visual information according to another embodiment of the present invention.
5 ( FIGS. 5A and 5B ) is a flowchart illustrating a method for sensory substitution and multipath transfer of visual information according to an embodiment of the present invention;

사람이 눈으로 인지하는 시각정보(視覺情報, visual information)는 영상에 존재하는 객체의 모양과 색상, 빛의 유무와 질감을 포함하는 형태정보, 위치, 거리 및 방향과 같은 기하학적 측면의 공간정보 및 영상 내 존재하는 객체와 배경을 포함하는 영상 전체 영역에서 추출하는 색상, 모양 등의 전역정보와 형태정보, 공간정보 및 전역정보 등 복수의 정보를 활용하여 얻어지는, 경로, 감정 및 분위기 등을 포함하는 복합정보 등으로 구분된다. 그러나 시각정보를 다른 감각에 관한 정보로 변환하는 기존의 감각치환 장치들은 주로 이차원의 컬러 영상정보를 변환하여 전달하였기 때문에 거리감을 사용자에게 전달하기 어렵거나, 입력 영상 전체를 사전에 정해진 방법으로 변환하여 단일 감각기관으로 전달함으로써 사용자가 다양한 시각정보를 효율적으로 전달받기 어려운 단점이 있다. 또한 기존의 감각치환 기술은 주로 시각장애인을 위한 정보의 전달을 목적으로 개발되었기 때문에 다양한 분야에 적용하는 데 어려움이 있다.Visual information perceived by the human eye is shape information including the shape and color of an object existing in an image, presence or absence of light and texture, spatial information in geometric aspects such as location, distance and direction, and Global information such as color and shape extracted from the entire region of the image, including objects and backgrounds existing in the image, and multiple information such as shape information, spatial information, and global information, including path, emotion and atmosphere, etc. It is divided into complex information, etc. However, existing sensory replacement devices that convert visual information into information about other senses mainly convert and transmit two-dimensional color image information, so it is difficult to convey a sense of distance to the user, or it is difficult to convey a sense of distance to the user by converting the entire input image in a predetermined method. There is a disadvantage in that it is difficult for the user to efficiently receive various visual information by transmitting it to a single sensory organ. In addition, existing sensory substitution technologies are mainly developed for the purpose of conveying information for the visually impaired, so it is difficult to apply them to various fields.

영상이나 이미지에 포함되어 있는 다양한 시각정보에 대한 감각치환 기술은 시각장애인 뿐만 아니라 적진 침투나 정찰과 같은 군사분야나 지하나 사고로 인한 정전 등으로 조명이 부재한 상황 및 심야 작업, 일반 산업현장에서 시각정보로 분석한 위험 상황을 작업자에게 안전하게 전달하는 등의 극한환경에서 사용자가 주위 환경을 효율적으로 인지하는데 활용할 수 있다. 또한, 전달되는 시각정보에 따라 변환된 정보를 동기화하여 다양한 경로로 전달함으로써 가상현실이나 증강현실에서 사용자가 시각정보를 보다 실감 있게 느낄 수 있도록 활용할 수 있다.Sensory replacement technology for various visual information included in video or image is used not only for visually impaired people, but also in military fields such as infiltration or reconnaissance, underground or accidental power outages, night work, and general industrial sites. It can be used to efficiently recognize the surrounding environment in extreme environments, such as safely conveying dangerous situations analyzed by visual information to workers. In addition, by synchronizing the information converted according to the transmitted visual information and delivering it through various routes, it can be utilized so that the user can feel the visual information more realistically in virtual reality or augmented reality.

본 발명에 따르면, 사용자가 전달받기를 원하는 복수의 시각정보를 입력받고, 수집된 영상에 포함된 형태정보, 공간정보, 전역정보 및 복합정보 등의 다양한 시각정보 중에서 사용자가 요구하는 정보를 추출한 후, 추출된 정보를 그 특성에 적합한 다른 감각신호로 변환하여 복수의 감각기관으로 전달함으로써 사용자에게 효율적으로 정보를 전달할 수 있다.According to the present invention, a plurality of visual information that a user wants to be received is received, and information requested by the user is extracted from various visual information such as shape information, spatial information, global information, and complex information included in the collected images. However, by converting the extracted information into other sensory signals suitable for its characteristics and delivering them to a plurality of sensory organs, information can be efficiently delivered to the user.

본 발명에 따른, 다양한 시각정보를 다중경로로 전달하기 위한 장치와 방법에 대하여, 시각정보를 청각 신호와 촉각 신호 및 열감 신호로 변환하는 실시 예를 통해 설명한다. 그러나 본 발명의 장치와 방법은 실시예에 따른 변환 방식에 국한하지 않고 다른 감각 정보에도 적용될 수 있다.An apparatus and method for transmitting various visual information through a multi-path according to the present invention will be described through an embodiment in which visual information is converted into an auditory signal, a tactile signal, and a thermal sensation signal. However, the device and method of the present invention are not limited to the conversion method according to the embodiment and can be applied to other sensory information.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성소자, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성소자, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various different forms, only these embodiments make the disclosure of the present invention complete, and common knowledge in the art to which the present invention belongs. It is provided to fully inform the holder of the scope of the invention, and the present invention is only defined by the scope of the claims. Meanwhile, terms used in this specification are for describing the embodiments and are not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase. As used herein, "comprises" and/or "comprising" means that a stated component, step, operation, and/or element is the presence of one or more other components, steps, operations, and/or elements. or do not rule out additions.

본 명세서에서 '요청정보'는 사용자가 관심을 가지는 객체의 종류에 대한 정보 또는 영상정보로부터 사용자가 전달받기를 원하는 시각정보의 유형을 나타내는 정보를 의미한다.In this specification, 'request information' refers to information about the type of object that the user is interested in or information indicating the type of visual information that the user wants to receive from image information.

본 명세서에서 '요청감각 정보'는 사용자가 상기 요청정보를 전달받을 감각에 대하여 요청하는 정보로서, 요청정보 전달의 매개가 되는 감각에 대하여 사용자의 의사가 표현된 정보를 의미한다.In this specification, 'requested sensory information' is information that a user requests for a sense to receive the requested information, and refers to information in which the user's intention is expressed with respect to a sense that is a medium for transmitting the requested information.

본 명세서에서 '전달 강도 정보'는 감각의 전달 강도를 표현하는 정보를 의미한다.In this specification, 'transfer intensity information' refers to information expressing the transfer intensity of sensation.

본 명세서에서 '시각정보(視覺情報, visual information)'는 영상정보를 기초로 생성된 정보를 통칭하는 의미로 사용되며, 형태정보, 공간정보, 전역정보 및 복합정보를 포함할 수 있다. 본 명세서에서 언급되는 시각정보는 색상이나 외곽선과 같이 시각을 통해 인식할 수 있는 정보는 물론이고, 사용자와 객체 간의 거리와 같이 영상정보의 분석을 통해 얻을 수 있는 정보도 포함한다.In this specification, 'visual information' is used as a general term for information generated based on image information, and may include shape information, spatial information, global information, and composite information. Visual information referred to in this specification includes not only visually recognizable information such as colors and outlines, but also information obtained through analysis of image information, such as a distance between a user and an object.

본 명세서에서 '목표정보'는 사용자의 요청정보에 부합하는 시각정보를 의미한다.In this specification, 'target information' refers to visual information that meets the user's requested information.

본 명세서에서 '감각신호'는 본 발명에 따른 감각 치환 및 다중경로 전달 장치가 사용자의 감각기관에 전달하는 신호를 의미한다.In this specification, 'sensory signal' refers to a signal transmitted to the user's sensory organ by the sensory substitution and multipath delivery device according to the present invention.

본 명세서에서 '대체신호'는 목표정보를 대체하는 감각신호이다. 대체신호는, 본 발명에 따른 시각정보의 감각 치환 및 다중경로 전달 장치가, 목표정보를 다른 형태로 변환하여 사용자의 감각기관에 전달하기 위하여 생성한다. 예를 들어, 목표정보가 '공의 색상'이라는 시각정보라면, 그 대체신호는 '공의 색상'에 따라 결정되는, 소정의 온도를 가지는 열감 신호일 수 있다.In this specification, 'alternative signal' is a sensory signal that replaces target information. The alternative signal is generated by the apparatus for sensory substitution and multi-path transmission of visual information according to the present invention to convert target information into another form and transmit it to the user's sensory organs. For example, if the target information is visual information such as 'color of the ball', the replacement signal may be a thermal sensation signal having a predetermined temperature determined according to the 'color of the ball'.

본 명세서에서 '감각기관(sense organ)'은 외부의 자극을 느끼고 받아들이는 인체 기관으로서, 촉각, 온각, 냉각, 통각, 고유감각 등 감각을 받아들이는 다양한 수용체로 구성된 기관을 의미한다.In the present specification, a 'sense organ' is a human body organ that feels and receives external stimuli, and refers to an organ composed of various receptors that accept senses such as touch, warmth, cooling, pain, and proprioception.

본 명세서에서 '감각경로(sensory pathway)'는 사용자의 감각 기관에서 사용자의 뇌의 감각 영역까지 신경 자극이 따라가는 경로를 의미한다. 본 명세서에서, '감각경로를 결정한다'는 것은 목표정보나 대체신호를 전달받을 사용자의 감각 기관을 결정한다는 의미가 된다.In the present specification, a 'sensory pathway' means a path along which nerve stimulation follows from a user's sensory organ to a sensory region of the user's brain. In this specification, 'determining a sensory path' means determining a user's sensory organ to which target information or an alternative signal is to be delivered.

본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In describing the present invention, if it is determined that a detailed description of related known technologies may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted.

본 발명의 실시예를 설명하기에 앞서, 본 발명의 핵심이 되는 동작을 설명한다. 본 발명의 핵심이 되는 동작은 S1 내지 S4의 네 단계로 구성된다.Prior to describing the embodiments of the present invention, the core operation of the present invention will be described. The core operation of the present invention consists of four steps S1 to S4.

S1 단계는 사용자 입력 정보 및 영상정보에 기초하여 목표정보를 생성하는 단계이다. 구체적으로, 본 발명에 따른 시각정보의 감각 치환 및 다중경로 전달 장치는, 사용자 입력 정보에 기초하여, 외부에서 수신한 영상정보로부터 사용자의 요청에 부합하는 시각정보(이하, 목표정보)를 생성한다. 목표정보는 하나일 수도 있으나, 복수 개의 정보일 수도 있다. 즉, 본 발명에 따른 시각정보의 감각 치환 및 다중경로 전달 장치는 사용자 입력 정보 및 영상정보에 기초하여 적어도 하나의 목표정보를 생성한다. 더욱 구체적으로, 본 발명에 따른 시각정보의 감각 치환 및 다중경로 전달 장치는 사용자 입력 정보에서 요청정보를 추출하고, 요청정보에 기초하여 사용자가 원하는 시각정보의 유형을 결정한다. 상기 장치는 결정된 유형에 부합하는 시각정보를 영상정보로부터 추출하여 목표정보를 생성한다.Step S1 is a step of generating target information based on user input information and image information. Specifically, the apparatus for sensory substitution and multipath transmission of visual information according to the present invention generates visual information (hereinafter, target information) meeting a user's request from image information received from the outside, based on user input information. . The target information may be one or may be a plurality of pieces of information. That is, the apparatus for sensory substitution and multipath delivery of visual information according to the present invention generates at least one piece of target information based on user input information and image information. More specifically, the apparatus for sensory substitution and multipath transfer of visual information according to the present invention extracts requested information from user input information and determines the type of visual information desired by the user based on the requested information. The device generates target information by extracting visual information corresponding to the determined type from image information.

S2 단계는 사용자 입력 정보에 기초하여 목표정보가 전달되는 적어도 하나의 감각경로를 결정하는 단계이다. 구체적으로, 본 발명에 따른 시각정보의 감각 치환 및 다중경로 전달 장치는 사용자 입력 정보로부터 요청감각 정보를 파싱/추출하여 목표정보가 전달되는 감각경로를 결정한다. 상기 장치는 목표정보가 전달되는 하나 이상의 감각경로를 결정한다.Step S2 is a step of determining at least one sensory path through which target information is transmitted based on user input information. Specifically, the apparatus for sensory substitution and multipath delivery of visual information according to the present invention parses/extracts requested sensory information from user input information to determine a sensory pathway through which target information is delivered. The device determines one or more sensory pathways through which target information is conveyed.

S3 단계는 목표정보를 S2 단계에서 결정된 감각경로에 대응하는 대체신호로 변환하는 단계이다.Step S3 is a step of converting the target information into an alternative signal corresponding to the sensory path determined in step S2.

S4 단계는 대체신호를 사용자의 감각신호 전달 장치를 통해 출력하는 단계이다.Step S4 is a step of outputting an alternative signal through the user's sensory signal transmission device.

이하, 본 발명의 실시예를 첨부한 도면들을 참조하여 상세히 설명한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면 번호에 상관없이 동일한 수단에 대해서는 동일한 참조 번호를 사용하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In order to facilitate overall understanding in describing the present invention, the same reference numerals will be used for the same means regardless of the drawing numbers.

도 1은 본 발명의 일 실시예에 따른 시각정보의 감각 치환 및 다중경로 전달 장치(100)의 구성을 나타낸 블록도이다.1 is a block diagram showing the configuration of an apparatus 100 for sensory substitution and multi-path delivery of visual information according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 시각정보의 감각 치환 및 다중경로 전달 장치(100)는 입력 모듈(110), 감각경로 결정 모듈(120), 영상정보 분할 모듈(130), 목표정보 추출 모듈(140), 대체신호 생성 모듈(150) 및 제어 및 출력 모듈(160)을 포함한다. 도 1에 도시된 시각정보의 감각 치환 및 다중경로 전달 장치(100)는 일 실시예에 따른 것이고, 상기 장치(100)의 구성요소들이 도 1에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 통합, 부가, 변경 또는 삭제될 수 있다.An apparatus for sensory substitution and multipath delivery of visual information 100 according to an embodiment of the present invention includes an input module 110, a sensory path determination module 120, an image information division module 130, and a target information extraction module 140. ), an alternative signal generation module 150 and a control and output module 160. The device 100 for sensory substitution and multipath transmission of visual information shown in FIG. 1 is according to an embodiment, and components of the device 100 are not limited to the embodiment shown in FIG. may be incorporated, added, changed or deleted according to

입력 모듈(110)은 사용자 입력 정보와 영상정보를 외부에서 수신한다. 상기 사용자 입력 정보는 '요청정보'를 포함할 수 있다. '요청정보'에는 사용자가 관심을 가지는 객체의 종류에 대한 정보 또는 영상정보로부터 사용자가 전달받기를 원하는 시각정보의 유형을 나타내는 정보가 포함될 수 있다. 객체의 종류에 관한 요청정보의 예를 들면, 인물, 자동차, 동물 등이 있을 수 있고, 시각정보의 유형에 관한 요청정보의 예를 들면, 모양, 위치, 거리, 이동 방향, 색상 등이 있을 수 있다. 객체의 종류와 시각정보의 유형을 혼합한 요청정보의 예를 들면, 동물의 이동 방향, 자동차의 위치, 인물과의 거리 등이 있을 수 있다.The input module 110 receives user input information and image information from the outside. The user input information may include 'request information'. The 'request information' may include information about the type of object that the user is interested in or information indicating the type of visual information the user wants to receive from the image information. Examples of requested information about the type of object may include people, cars, and animals, and examples of requested information about the type of visual information may include shape, location, distance, direction of movement, color, and the like. there is. Examples of requested information in which the type of object and the type of visual information are mixed may include an animal's movement direction, a vehicle's location, and a distance to a person.

사용자 입력 정보는 요청정보를 전달받을 감각에 대한 정보(이하 '요청감각 정보')와 감각의 전달 강도를 표현하는 정보(이하 '전달 강도 정보') 중 적어도 어느 하나의 정보를 더 포함할 수 있다. 요청감각 정보의 예를 들면, 시각, 청각, 압력, 진동, 열감 등이 있을 수 있다. 전달 강도 정보의 예를 들면, 상(high), 중(medium), 하(low) 등이 있을 수 있다.The user input information may further include at least one of information about a sense to receive the requested information (hereinafter referred to as 'requested sensory information') and information expressing a transmission intensity of a sense (hereinafter referred to as 'transfer intensity information'). . Examples of requested sensory information may include sight, hearing, pressure, vibration, and heat sensation. For example, transfer intensity information may include high, medium, and low.

사용자 입력 정보는 요청정보, 요청감각 정보 및 전달 강도 정보 중 적어도 어느 하나 또는 이들의 조합을 포함할 수 있다. 요청감각 정보 및 요청정보는 감각경로 결정 모듈(120)이 사용자의 요청에 부합하는 시각정보(목표정보)를 사용자에게 전달할 감각경로를 결정하는 데 사용될 수 있다. 달리 말하면, 요청감각 정보 및 요청정보는 감각경로 결정 모듈(120)이 요청정보에 대응되는 목표정보를 사용자에게 어떤 감각신호로 전달할 것인지 결정하는 데 사용될 수 있다. 사용자 입력 정보에 포함되는 요청감각 정보와 전달 강도 정보는 사용자에 대한 개인화(personalization)를 위한 정보이다. 사용자에 따라 인식하기 용이한 감각신호가 상이할 수 있으며, 감각신호별 감도도 달라질 수 있기 때문이다.The user input information may include at least one or a combination of request information, request sense information, and transfer strength information. The requested sensory information and the requested information may be used by the sensory path determining module 120 to determine a sensory path to deliver visual information (target information) meeting the user's request to the user. In other words, the requested sensory information and the requested information may be used by the sensory path determining module 120 to determine which sensory signal to transmit target information corresponding to the requested information to the user. The request sense information and transmission strength information included in the user input information are information for personalization of the user. This is because sensory signals that are easy to recognize may be different for each user, and sensitivity for each sensory signal may also be different.

입력 모듈(110)은 사용자 입력 정보를 다양한 방식으로 입력받을 수 있다. 예를 들어, 입력 모듈(110)은 버튼이나 텍스트 입력을 통해 사용자 입력 정보를 수신할 수 있다. 입력 모듈(110)은 사용자 입력 정보에서 요청정보, 요청감각 정보 및 전달 강도 정보를 각각 분리하여 추출할 수 있다. 예를 들어, 입력 모듈(110)은 사용자 입력 정보를 파싱하여 요청정보, 요청감각 정보 또는 전달 강도 정보를 얻을 수 있다.The input module 110 may receive user input information in various ways. For example, the input module 110 may receive user input information through a button or text input. The input module 110 may separate and extract request information, request sense information, and transfer strength information from user input information. For example, the input module 110 may obtain request information, request sense information, or transfer strength information by parsing user input information.

입력 모듈(110)이 수신하는 영상정보에는 정지 이미지 및 연속 이미지(동영상) 중 적어도 어느 하나가 포함될 수 있다. 또한, 상기 영상정보는 RGB 카메라, 깊이 카메라(3D depth camera) 또는 열화상카메라 등을 통해 얻어진 영상(즉, 컬러 영상, 깊이 영상 또는 열화상 영상)일 수 있다. 입력 모듈(110)은 영상정보 분할 모듈(130)에 상기 영상정보를 전송한다. 그리고 입력 모듈(110)은 감각경로 결정 모듈(120), 목표정보 추출 모듈(140) 및 대체신호 생성 모듈(150)에 사용자 입력 정보를 전송한다. 입력 모듈(110)은 사용자 입력 정보에서 추출한 요청정보, 요청감각 정보 및 전달 강도 정보를 감각경로 결정 모듈(120), 목표정보 추출 모듈(140) 및 대체신호 생성 모듈(150)에 전송할 수 있다. 예를 들어, 입력 모듈(110)은 감각경로 결정 모듈(120)에 요청감각 정보와 요청정보를 전송하고, 목표정보 추출 모듈(140)에 요청정보를 전송하고, 대체신호 생성 모듈(150)에 전달 강도 정보를 전송할 수 있다.The image information received by the input module 110 may include at least one of still images and continuous images (moving images). Also, the image information may be an image (ie, a color image, a depth image, or a thermal image) obtained through an RGB camera, a 3D depth camera, or a thermal image camera. The input module 110 transmits the image information to the image information division module 130 . The input module 110 transmits user input information to the sensory path determination module 120, the target information extraction module 140, and the alternative signal generation module 150. The input module 110 may transmit request information, requested sensory information, and transmission strength information extracted from user input information to the sensory path determination module 120, the target information extraction module 140, and the alternative signal generation module 150. For example, the input module 110 transmits the requested sensory information and requested information to the sensory path determining module 120, transmits the requested information to the target information extraction module 140, and transmits the requested information to the alternative signal generating module 150. Transmission strength information may be transmitted.

감각경로 결정 모듈(120)은 사용자 입력 정보를 기초로 목표정보를 전달할 감각경로를 결정한다. 감각경로 결정 모듈(120)은 요청정보별로 감각경로를 결정할 수 있다. 예를 들어, 감각경로 결정 모듈(120)은 '휴대폰의 위치와 거리'라는 요청정보에 대하여, 기 설정된 테이블에 따라, 사용자가 착용한 고글을 통하여 시각정보를 전달하는 감각경로와 사용자가 착용한 이어폰을 통하여 청각신호를 전달하는 감각경로로 구성된 복수의 감각경로를 결정할 수 있다.The sensory path determining module 120 determines a sensory path to deliver target information based on user input information. The sensory path determining module 120 may determine a sensory path for each requested information. For example, the sensory path determining module 120 determines the sensory path for transmitting visual information through the goggles worn by the user and the sensory path according to a preset table with respect to the requested information 'location and distance of the mobile phone' and A plurality of sensory pathways composed of sensory pathways that transmit auditory signals through earphones may be determined.

감각경로 결정 모듈(120)은 사용자 입력 정보에 포함된 요청감각 정보에 따라 감각경로를 결정할 수 있지만, 사용자 입력 정보에 포함된 요청정보에 따라 감각경로를 결정할 수도 있다. 또한, 감각경로 결정 모듈(120)은 목표정보에 따라 감각경로를 결정할 수도 있다. The sensory path determination module 120 may determine the sensory path according to the requested sensory information included in the user input information, but may also determine the sensory path according to the requested sensory information included in the user input information. Also, the sensory path determining module 120 may determine a sensory path according to target information.

감각경로 결정 모듈(120)은 목표정보별로 감각경로를 결정할 수 있는데, 감각경로 결정 모듈(120)은 목표정보와 감각경로를 매칭하기 위하여 요청정보 또는 목표정보를 이용할 수 있다. 감각경로 결정 모듈(120)가 감각경로를 결정하는 방법에 대해서는 도 2를 참조하여 후술한다. 감각경로 결정 모듈(120)은 목표정보별로 결정된 감각경로에 대한 정보를 대체신호 생성 모듈(150)에 전송할 수 있다.The sensory path determining module 120 may determine a sensory path for each target information, and the sensory path determining module 120 may use requested information or target information to match the target information and the sensory path. A method for the sensory path determination module 120 to determine the sensory path will be described later with reference to FIG. 2 . The sensory path determining module 120 may transmit information on the sensory path determined for each target information to the alternative signal generating module 150 .

영상정보 분할 모듈(130)은 영상정보를 분할 또는 분석하여 형태정보, 공간정보 및 전역정보 등의 다양한 유형의 시각정보를 생성하며, 생성한 시각정보를 목표정보 추출 모듈(140)에 전송한다. 영상정보 분할 모듈(130)은 영상정보의 각 프레임에 대응하는 시각정보를 생성할 수 있으며, 영상정보의 복수의 프레임에 대응하는 시각정보를 생성할 수도 있다. 예를 들어, 영상정보 분할 모듈(130)은 영상정보의 각 프레임 별로 동물의 위치정보를 생성할 수 있고, 100개의 프레임에 대응하는 동물의 이동 경로 정보를 생성할 수 있다. 영상정보 분할 모듈(130)에서 생성하는 시각정보는 형태정보, 공간정보 및 전역정보 중 적어도 어느 하나 또는 이들의 조합을 포함할 수 있다.The image information division module 130 divides or analyzes the image information to generate various types of visual information such as shape information, spatial information, and global information, and transmits the generated visual information to the target information extraction module 140. The image information division module 130 may generate time information corresponding to each frame of image information, or may generate time information corresponding to a plurality of frames of image information. For example, the image information segmentation module 130 may generate animal location information for each frame of image information, and may generate animal movement path information corresponding to 100 frames. The visual information generated by the image information segmentation module 130 may include at least one or a combination of shape information, spatial information, and global information.

목표정보 추출 모듈(140)은 영상정보 분할 모듈(130)가 생성한 시각정보를 기초로 복합정보를 생성할 수 있다. 또한, 목표정보 추출 모듈(140)은 영상정보 분할 모듈(130)가 생성한 시각정보와 복합정보 중에서 사용자의 요청정보에 부합하는 목표정보를 추출할 수 있다.The target information extraction module 140 may generate composite information based on the visual information generated by the image information division module 130 . In addition, the target information extraction module 140 may extract target information that meets the user's request information from among the visual information and composite information generated by the image information segmentation module 130 .

이하, 본 명세서에서 '시각정보'는 영상정보를 기초로 생성된 형태정보, 공간정보, 전역정보 및 복합정보를 통칭하는 의미로 사용된다.Hereinafter, in this specification, 'visual information' is used as a generic term for shape information, spatial information, global information, and composite information generated based on image information.

목표정보 추출 모듈(140)은 시각정보(형태정보, 공간정보, 전역정보 및 복합정보) 중에서 요청정보에 부합하는 시각정보, 즉 목표정보를 추출한다. 즉, 목표정보 추출 모듈(140)은 요청정보를 기초로 시각정보에서 목표정보를 추출한다. The target information extraction module 140 extracts time information that meets the requested information, that is, target information, from among time information (shape information, spatial information, global information, and composite information). That is, the target information extraction module 140 extracts target information from time information based on the requested information.

목표정보는 단일한 정보일 수도 있으나 복수의 정보일 수도 있다. The target information may be single information or may be a plurality of pieces of information.

목표정보 추출 모듈(140)은 목표정보를 대체신호 생성 모듈(150)에 전송한다. 또한 목표정보 추출 모듈(140)은 목표정보를 제어 및 출력 모듈(160)에 전송할 수 있다.The target information extraction module 140 transmits the target information to the alternative signal generating module 150 . Also, the target information extraction module 140 may transmit the target information to the control and output module 160 .

대체신호 생성 모듈(150)은 감각경로를 기초로 목표정보를 변환하여 대체신호를 생성한다. 대체신호 생성 모듈(150)은 목표정보 추출 모듈(140)이 추출한 시각정보를 그 시각정보와 대응하는 감각신호, 즉 대체신호로 변환한다. 대체신호 생성 모듈(150)은 목표정보에 해당하는 시각정보를 대체신호로 변환함에 있어서 감각경로 결정 모듈(120)이 결정한 감각경로를 이용한다. 대체신호는 목표정보를 대체하는 감각신호로서, 목표정보를 다른 형태로 변환하여 사용자의 감각기관에 전달하기 위하여 대체신호 생성 모듈(150)이 생성하는 신호로서, 시각 신호, 청각 신호, 촉각 신호 및 열감 신호 중 적어도 어느 하나의 감각신호 또는 이들의 조합일 수 있다. 예를 들어, 목표정보가 공의 색상이라는 시각정보라면, 그 대체신호는 소정의 온도를 가지는 열감 신호일 수 있다. 대체신호 생성 모듈(150)이 시각정보를 그와 대응하는 대체신호로 변환하는 방법은 수치적인 변환이나 매핑의 방식을 따를 수 있으나, 이에 제한되지 않는다. 대체신호 생성 모듈(150)은 목표정보별로 결정된 감각경로에 따라 목표정보를 변환하여 대체신호로 생성한다.The substitute signal generation module 150 converts target information based on the sensory path to generate substitute signals. The alternative signal generation module 150 converts the visual information extracted by the target information extraction module 140 into a sensory signal corresponding to the visual information, that is, an alternative signal. The alternative signal generation module 150 uses the sensory path determined by the sensory path determination module 120 when converting visual information corresponding to target information into an alternative signal. The substitute signal is a sensory signal that replaces target information, and is a signal generated by the substitute signal generation module 150 to convert the target information into a different form and deliver it to the user's sensory organ, including visual, auditory, tactile and It may be at least one sensory signal or a combination thereof among heat sensation signals. For example, if the target information is visual information such as the color of a ball, the replacement signal may be a thermal sensation signal having a predetermined temperature. A method of converting visual information into an alternative signal corresponding thereto by the alternative signal generation module 150 may follow a method of numerical conversion or mapping, but is not limited thereto. The alternative signal generating module 150 converts the target information according to the sensory path determined for each target information and generates an alternative signal.

대체신호 생성 모듈(150)은 사용자 입력 정보 중 전달 강도 정보를 대체신호 생성 과정에 반영할 수 있다. 즉, 대체신호 생성 모듈(150)은 전달 강도 정보와 감각경로를 기초로 목표정보를 변환하여 대체신호를 생성할 수 있다. 예를 들어, 대체신호 생성 모듈(150)이 목표정보를 변환하여 청각신호를 생성할 때, 전달 강도 정보가 '상(high)'이라면 주파수나 진폭이 높은 음파를 생성할 수 있다.The alternative signal generation module 150 may reflect transmission strength information among user input information in the process of generating an alternative signal. That is, the alternative signal generation module 150 may generate an alternative signal by converting the target information based on the transmission strength information and the sensory path. For example, when the alternative signal generation module 150 converts the target information to generate an auditory signal, if the transfer intensity information is 'high', a sound wave having a high frequency or amplitude may be generated.

대체신호 생성 모듈(150)은 생성한 대체신호를 제어 및 출력 모듈(160)에 전송한다.The replacement signal generation module 150 transmits the generated replacement signal to the control and output module 160 .

제어 및 출력 모듈(160)은 시각정보의 변환 과정과 대체 신호를 사용자에게 전달하는 과정을 제어한다. 제어 및 출력 모듈(160)은 복수의 하드웨어의 형태로 구현될 수 있다. 예를 들어, 제어 및 출력 모듈(160)은 제어 장치와 출력 장치로 구현될 수 있다. 또한, 제어 및 출력 모듈(160)은 개별 감각신호를 복수의 경로로 동시에 전달하기 위해 필요한 제어신호를 생성한다. 그리고 제어 및 출력 모듈(160)은 대체신호를 단일 또는 복수의 전달 경로로 출력한다.The control and output module 160 controls the conversion of visual information and the transmission of alternative signals to the user. Control and output module 160 may be implemented in the form of a plurality of hardware. For example, the control and output module 160 may be implemented as a control device and an output device. In addition, the control and output module 160 generates control signals required to simultaneously transmit individual sensory signals to a plurality of paths. And, the control and output module 160 outputs the replacement signal through a single or multiple transmission paths.

제어 및 출력 모듈(160)은 대체신호의 출력 순서 설정과 전달 시점의 동기화와 관련된 전반적인 동작을 제어한다. 또한 제어 및 출력 모듈(160)은 대체신호를 사용자에게 전달한다. 예를 들어, 제어 및 출력 모듈(160)은 청각신호, 열감신호 및 진동신호를 사용자가 착용하고 있는 이어폰, 히터 및 진동장치에 전달하여 상기 장치들에서 소리, 열 및 진동 등의 출력이 일어나도록 하여 대체신호를 사용자에게 전달한다. 대체신호는 단일한 신호일 수도 있지만 예시한 바와 같이 복수 개의 신호일 수도 있다.The control and output module 160 controls overall operations related to setting the output order of alternative signals and synchronizing delivery time points. In addition, the control and output module 160 delivers alternative signals to the user. For example, the control and output module 160 transmits an auditory signal, a heat sensation signal, and a vibration signal to an earphone, a heater, and a vibration device worn by the user so that sound, heat, and vibration are output from the devices. and transmits an alternative signal to the user. The replacement signal may be a single signal, but may also be a plurality of signals as illustrated.

제어 및 출력 모듈(160)은 대체신호와 함께 목표정보 추출 모듈(140)에서 전달받은 목표정보를 그대로 사용자에게 전달할 수 있다. 예를 들어, 목표정보 추출 모듈(140)은 야간에 적외선 카메라로 촬영된 영상에서 생성된 시각정보에서 목표정보 추출 모듈(140)이 추출한 목표정보(동물의 외곽선, 사용자와 동물과의 거리)를 대체신호 생성 모듈(150)와 제어 및 출력 모듈(160)에 전송한다. 대체신호 생성 모듈(150)는 목표정보를 변환하여 청각 대체신호를 생성하여 제어 및 출력 모듈(160)에 전송한다. 제어 및 출력 모듈(160)은 목표정보를 사용자가 착용한 고글에 표시하면서 동시에 청각 대체신호(음파)를 사용자가 착용한 이어폰을 통해 출력할 수 있다.The control and output module 160 may deliver the target information received from the target information extraction module 140 to the user as it is along with the replacement signal. For example, the target information extraction module 140 extracts the target information (animal outline, distance between the user and the animal) extracted by the target information extraction module 140 from visual information generated from an image captured by an infrared camera at night. It is transmitted to the alternative signal generation module 150 and the control and output module 160. The alternative signal generation module 150 converts the target information to generate an auditory alternative signal and transmits it to the control and output module 160 . The control and output module 160 may display target information on goggles worn by the user and simultaneously output an auditory alternative signal (sound wave) through earphones worn by the user.

도 2는 본 발명의 일 실시예에 따른 시각정보의 감각 치환 및 다중경로 전달 장치(100)의 세부 구성을 나타낸 블록도이다.2 is a block diagram showing a detailed configuration of an apparatus 100 for sensory substitution and multi-path delivery of visual information according to an embodiment of the present invention.

입력 모듈(110)은 사용자 입력 정보 및 영상정보를 수신한다. 입력 모듈(110)은 사용자 입력부(111), 사용자 입력 정보 처리부(112) 및 영상 입력부(113)를 포함하여 구성된다.The input module 110 receives user input information and image information. The input module 110 includes a user input unit 111 , a user input information processing unit 112 and an image input unit 113 .

사용자 입력부(111)는 사용자 입력 정보를 외부에서 수신한다. 사용자 입력 정보는 요청정보, 요청감각 정보 및 전달 강도 정보 중 적어도 어느 하나 또는 이들의 조합을 포함할 수 있다. 구체적으로, 사용자 입력 정보에는 사용자가 관심을 가지는 객체의 종류에 대한 정보 또는 영상정보로부터 사용자가 전달받기를 원하는 시각정보의 유형을 나타내는 정보(요청정보), 요청정보를 전달받을 감각에 대한 정보(요청감각 정보)과 감각의 전달 강도를 표현하는 정보(전달 강도 정보) 등이 포함될 수 있다. 예를 들어, 요청정보는 영상정보에 포함되는 특정한 종류의 객체의 위치 정보일 수 있다. 본 발명이 가상 현실에 적용될 경우의 사용자 입력 정보의 구체적인 예를 들면, 요청정보는 메타버스 상에서 다른 사용자의 위치 및 거리 정보가 될 수 있고, 요청감각 정보는 진동 및 온도(열감)가 될 수 있다. 전달 강도 정보는 상(high)/중(medium)/하(low) 중에서 상(high)으로 설정될 수 있다. 시각정보의 감각 치환 및 다중경로 전달 장치(100)는 시각 이외에 다른 감각을 동원하여 사용자의 체험을 극대화할 수 있다. 예컨대, 메타버스 상에서 상대방 사용자가 접근해 오는 경우, 진동과 열감 신호가 증대됨으로 인해 사용자의 감각이 증폭될 수 있다. The user input unit 111 receives user input information from the outside. The user input information may include at least one or a combination of request information, request sense information, and transfer strength information. Specifically, the user input information includes information on the type of object the user is interested in or information indicating the type of visual information the user wants to receive from the image information (request information), information on the senses to receive the requested information ( Requested sensory information) and information expressing the transmission intensity of sensation (transfer intensity information) may be included. For example, the request information may be location information of a specific type of object included in image information. As a specific example of user input information when the present invention is applied to virtual reality, the requested information may be location and distance information of other users on the metaverse, and the requested sensory information may be vibration and temperature (feeling of heat). . The transfer strength information may be set to high among high/medium/low. The apparatus 100 for sensor substitution and multi-path delivery of visual information can maximize the user's experience by mobilizing other senses in addition to sight. For example, when the other user approaches on the metaverse, the user's senses may be amplified due to increased vibration and heat sensation signals.

사용자 입력부(111)는 요청정보를 입력받기 위해 음성이나 화면을 통한 터치를 활용할 수 있다. 예를 들어, 사용자는 음성이나 화면 터치를 통해 영상에 나타난 배경, 사람, 동물 또는 상품 중 원하는 정보를 지정한다. 구체적인 예를 들면, 사용자가 화면에서 영상의 배경 부분을 터치했을 경우, 사용자 입력부(111)는 사용자 입력 정보 중 요청정보인 '배경'이 입력된 것으로 인식할 수 있다. 사용자가 화면에서 영상에 포함된 인물 부분을 터치했을 경우, 사용자 입력부(111)는 사용자 입력 정보 중 요청정보인 '인물'이 입력된 것으로 인식할 수 있다. 요청정보는 단일한 정보일수도 있고, 복수의 정보일 수도 있다. 한편, 사용자 입력부(111)는 은밀한 환경이 필요한 군작전이나 소음이 심한 환경과 같이 특수한 작업환경 등에서는 소정의 버튼이나 레버 등을 통하여 미리 설정된 값이 적용되는 방식으로 사용자 입력 정보를 수신할 수 있다. 예를 들어, 사용자 입력부(111)는 특정 버튼('사람' 버튼, '위치' 버튼, '거리' 버튼, '촉각' 버튼)이 눌러진 경우, 영상에 나타난 사람의 위치 정보와 거리 정보를 사용자의 요청정보로 간주하고, '촉각'을 사용자가 입력한 요청감각 정보로 간주할 수 있다. 또한, 사용자 입력부(111)는 텍스트 형태로 사용자 입력 정보를 입력받을 수도 있다. 예를 들어, 사용자 입력부(111)는 '동물과의 거리를 촉각으로 전달해 줘'와 같은 텍스트의 형태로 요청정보와 요청감각 정보를 포함한 사용자 입력 정보를 수신할 수 있다.The user input unit 111 may use voice or touch through a screen to receive requested information. For example, a user designates desired information among backgrounds, people, animals, or products displayed in an image through voice or screen touch. For example, when a user touches a background part of an image on the screen, the user input unit 111 may recognize that 'background', which is request information, among user input information is input. When a user touches a person part included in an image on the screen, the user input unit 111 may recognize that 'person', which is requested information, among user input information is input. The requested information may be a single piece of information or a plurality of pieces of information. On the other hand, the user input unit 111 may receive user input information in a manner in which a preset value is applied through a predetermined button or lever in a special working environment, such as a military operation requiring a confidential environment or a noisy environment. . For example, when a specific button ('person' button, 'position' button, 'distance' button, or 'tactile sense' button) is pressed, the user input unit 111 transmits location information and distance information of a person appearing in the image to the user. It can be regarded as requested information, and 'touch' can be regarded as requested sensory information input by the user. Also, the user input unit 111 may receive user input information in the form of text. For example, the user input unit 111 may receive user input information including request information and request sensory information in the form of text, such as 'Give me the distance to the animal through a tactile sense'.

사용자 입력 정보 처리부(112)는 사용자 입력 정보에서 요청정보, 요청감각 정보 및 전달 강도 정보를 각각 분리하여 추출한다. 예를 들어, 사용자 입력 정보 처리부(112)는 텍스트 형태로 되어 있는 사용자 입력 정보를 파싱하여 요청정보, 요청감각 정보 또는 전달 강도 정보를 얻을 수 있다. 사용자 입력 정보 처리부(112)는 사용자 입력 정보에서 추출한 요청정보, 요청감각 정보 및 전달 강도 정보를 감각경로 결정 모듈(120), 목표정보 추출 모듈(140) 및 대체신호 생성 모듈(150)에 전송할 수 있다. 예를 들어, 사용자 입력 정보 처리부(112)는 감각경로 결정 모듈(120)에 요청감각 정보와 요청정보를 전송하고, 목표정보 추출 모듈(140)에 요청정보를 전송하고, 대체신호 생성 모듈(150)에 전달 강도 정보를 전송할 수 있다.The user input information processor 112 separates and extracts request information, request sense information, and transfer strength information from user input information. For example, the user input information processing unit 112 may obtain request information, request sense information, or transfer strength information by parsing user input information in text form. The user input information processing unit 112 may transmit request information, requested sensory information, and transmission strength information extracted from user input information to the sensory path determination module 120, the target information extraction module 140, and the alternative signal generation module 150. there is. For example, the user input information processing unit 112 transmits the requested sensory information and requested information to the sensory path determination module 120, transmits the requested information to the target information extraction module 140, and substitute signal generation module 150. ) can transmit forwarding strength information.

영상 입력부(113)는 본 발명에서 사용자에게 전달될 대상이 되는 영상정보를 수집한다. 상기 영상정보에는 정지 이미지 및 연속 이미지(동영상) 중 적어도 어느 하나가 포함될 수 있다. 영상 입력부(113)는 영상정보를 수집하기 위하여 RGB 카메라, 깊이 카메라(3D depth camera), ToF(Time-of-Flight) 이미지센서 또는 적외선카메라 등을 포함할 수 있다. 일반적으로 영상정보에는 다양한 시각정보가 포함되어 있는데, 본 명세서에서는 구체적인 설명을 위해 형태, 테두리, 위치, 거리, 색상, 질감, 경로, 방향, 빛의 유무, 감정 및 전체적인 분위기 등을 시각정보의 예시로 들어 설명한다.The image input unit 113 collects image information to be transmitted to the user in the present invention. The image information may include at least one of still images and continuous images (moving images). The image input unit 113 may include an RGB camera, a 3D depth camera, a time-of-flight (ToF) image sensor, or an infrared camera to collect image information. In general, image information includes various visual information. In this specification, examples of visual information include shape, border, position, distance, color, texture, path, direction, presence or absence of light, emotion, and overall atmosphere for detailed description. listen and explain.

감각경로 결정 모듈(120)은 사용자 입력 정보를 기초로 목표정보를 전달할 감각경로를 결정한다. 감각경로 결정 모듈(120)은 요청정보별로 감각경로를 결정할 수 있다. 감각경로 결정 모듈(120)은 사용자 입력 정보에 포함된 요청감각 정보에 따라 감각경로를 결정할 수 있지만, 사용자 입력 정보에 포함된 요청정보에 따라 감각경로를 결정할 수도 있다. 또한, 감각경로 결정 모듈(120)은 목표정보에 따라 감각경로를 결정할 수도 있다. 감각경로 결정 모듈(120)은 목표정보별로 감각경로를 결정할 수 있는데, 감각경로 결정 모듈(120)은 목표정보와 감각경로를 매칭하기 위하여 요청정보 또는 목표정보를 이용할 수 있다. 감각경로 결정 모듈(120)은 사용자 입력 정보를 기반으로, 목표정보가 사용자에게 전달되는 감각 경로를 결정한다. 구체적으로, 감각경로 결정 모듈(120)은 사용자 입력 정보를 기반으로, 목표정보에 해당하는 시각정보를 단일 신호로 전달할 것인지 또는 복수의 신호로 전달할 것인지를 결정한다. 감각경로 결정 모듈(120)은 복수의 목표정보 각각을 그에 대응하는 감각신호로 변환하여 사용자에게 전달하는 감각 경로를 결정할 수도 있으며, 동일한 목표정보를 복수의 감각신호로 변환하여 사용자에게 전달하는 감각 경로를 결정할 수도 있다. 예를 들어, 감각경로 결정 모듈(120)은 영상정보에 나타난 특정 물체의 위치정보가 목표정보인 경우, 소리를 통해 좌우 또는 상하 위치가 전달되도록 감각 경로를 결정할 수도 있고, 촉각, 진동 및 열감 신호를 통해 위치정보가 전달되도록 하는 감각 경로를 결정할 수도 있다. 감각경로 결정 모듈(120)은 사용자 입력 정보에 기초하여 감각경로를 결정하는데, 사용자 입력 정보에 포함된 요청감각 정보에 기초하여 감각경로를 결정할 수 있다. 또한, 감각경로 결정 모듈(120)은 사용자 입력 정보에 포함된 요청정보에 기초하여 감각경로를 결정할 수 있다. 예를 들어, 감각경로 결정 모듈(120)은 요청감각 정보가 '열감'일 경우, 설정 또는 사용자의 선택에 따라 그에 해당하는 감각경로(예: 온도를 왼손을 통해 전달하는 열감 감각경로)를 결정할 수 있다. 다른 예로, 감각경로 결정 모듈(120)은 요청정보가 '차량의 거리'일 경우, '거리'에 대하여 기 설정된 감각경로(예: 소리를 왼쪽 귀를 통해 전달하는 청각 감각경로 및 진동을 왼손을 통해 전달하는 촉각 감각경로)를 결정할 수 있다. 감각경로를 어떤 정보에 기초하여 결정할 것인지는 사용자의 선택이나 설정에 의한다.The sensory path determining module 120 determines a sensory path to deliver target information based on user input information. The sensory path determining module 120 may determine a sensory path for each requested information. The sensory path determination module 120 may determine the sensory path according to the requested sensory information included in the user input information, but may also determine the sensory path according to the requested sensory information included in the user input information. Also, the sensory path determining module 120 may determine a sensory path according to target information. The sensory path determining module 120 may determine a sensory path for each target information, and the sensory path determining module 120 may use requested information or target information to match the target information and the sensory path. The sensory path determining module 120 determines a sensory path through which target information is transmitted to the user based on user input information. Specifically, the sensory path determination module 120 determines whether to transmit visual information corresponding to target information as a single signal or as a plurality of signals based on user input information. The sensory path determining module 120 may determine a sensory path that converts each of a plurality of target information into a corresponding sensory signal and transmits the result to the user, and converts the same target information into a plurality of sensory signals and transmits the sensory path to the user. can also decide For example, when the positional information of a specific object shown in the image information is target information, the sensory path determination module 120 may determine the sensory path so that the left and right or vertical position is transmitted through sound, and tactile, vibration, and thermal signals. It is also possible to determine a sensory path through which location information is transmitted. The sensory path determining module 120 determines a sensory path based on user input information, and may determine a sensory path based on requested sensory information included in the user input information. Also, the sensory path determination module 120 may determine the sensory path based on request information included in user input information. For example, when the requested sensory information is 'a sense of heat', the sensory path determination module 120 determines a corresponding sensory path (eg, a sensory path that transmits temperature through the left hand) according to settings or a user's selection. can As another example, when the requested information is 'vehicle distance', the sensory path determination module 120 selects a preset sensory path for 'distance' (eg, an auditory sensory path that transmits sound through the left ear and vibration to the left hand). tactile sensory pathways) can be determined. A user's choice or setting determines which information a sensory pathway is to be determined on the basis of.

감각경로 결정 모듈(120)은 목표정보별로 결정된 감각경로에 대한 정보를 대체신호 생성 모듈(150)에 전송할 수 있다.The sensory path determining module 120 may transmit information on the sensory path determined for each target information to the alternative signal generating module 150 .

영상정보 분할 모듈(130)은 영상정보를 분할하거나 분석하여 형태정보, 공간정보 및 전역정보 등의 다양한 유형의 시각정보를 생성하며, 생성한 시각정보를 목표정보 추출 모듈(140)에 전송한다. 영상정보 분할 모듈(130)은 영상정보의 각 프레임에 대응하는 시각정보를 생성할 수 있으며, 영상정보의 복수의 프레임에 대응하는 시각정보를 생성할 수도 있다. 예를 들어, 영상정보 분할 모듈(130)은 영상정보의 각 프레임 별로 동물의 위치정보를 생성할 수 있고, 100개의 프레임에 대응하는 동물의 이동 경로 정보를 생성할 수 있다. 영상정보 분할 모듈(130)은 영상정보를 단계적으로 분할하여 이미지나 동영상의 프레임에 포함된 다양한 시각정보를 추출할 수 있다. 영상정보 분할 모듈(130)에 의해 생성된 시각정보는, 프레임을 구성하는 픽셀의 좌표와 같은 원시정보 및 프레임의 채널과 같이 영상처리로 획득한 정보를 포함한다. 또한 상기 시각정보에는 딥러닝 기반 객체 검출, 영역 분할, 관계 정보 분석 등의 알고리즘을 활용한 추론 기법을 이용하여 획득한 유의미한 분석결과도 포함될 수 있다. 따라서 영상정보 분할 모듈(130)은 이미지나 동영상 프레임에서 간단한 작업으로 추출이 가능한 형태정보를 우선적으로 분할하고, 그 후에 상대적으로 사용자 입력이나 추가적인 분석 작업을 더 요구하는 공간정보를 분할하며, 마지막으로 전역정보 또는 복합정보를 생성하는 순서로 분할 및 분석 작업을 수행할 수 있다. 영상정보 분할 모듈(130)은 형태정보 생성부(131), 공간정보 생성부(132) 및 전역정보 생성부(133)를 포함하여 구성될 수 있는데, 형태정보 생성부(131)는 영상정보를 분할하여 형태정보를 생성하고, 공간정보 생성부(132)는 영상정보를 분할하여 공간정보를 생성하며, 전역정보 생성부(133)는 영상정보를 분석하여 전역정보 또는 복합정보를 생성한다. 형태정보, 공간정보, 전역정보 및 복합정보의 예시는 표 1과 같다.The image information division module 130 divides or analyzes the image information to generate various types of visual information such as shape information, spatial information, and global information, and transmits the generated visual information to the target information extraction module 140. The image information division module 130 may generate time information corresponding to each frame of image information, or may generate time information corresponding to a plurality of frames of image information. For example, the image information segmentation module 130 may generate animal location information for each frame of image information, and may generate animal movement path information corresponding to 100 frames. The image information division module 130 may extract various visual information included in a frame of an image or video by dividing the image information step by step. The visual information generated by the image information segmentation module 130 includes raw information such as coordinates of pixels constituting a frame and information acquired through image processing such as a channel of a frame. In addition, the visual information may also include meaningful analysis results obtained using inference techniques using algorithms such as deep learning-based object detection, region segmentation, and relationship information analysis. Therefore, the image information division module 130 first divides morphological information that can be extracted from an image or video frame with a simple operation, then divides spatial information that relatively requires user input or additional analysis work, and finally Segmentation and analysis can be performed in order to generate global or composite information. The image information division module 130 may include a shape information generator 131, a spatial information generator 132, and a global information generator 133. The shape information generator 131 generates image information Shape information is generated by division, the spatial information generation unit 132 divides the image information to generate spatial information, and the global information generation unit 133 analyzes the image information to generate global information or composite information. Table 1 shows examples of shape information, spatial information, global information, and composite information.

시각정보visual information 예시example 형태정보shape information 모양, 외곽선(테두리), 색상, 빛의 유무, 질감Shape, outline (border), color, presence or absence of light, texture 공간정보Spatial information 위치, 거리, 방향, 경로location, distance, direction, route 전역정보global information 영상 전체 영역에서 추출된 색상이나 모양Color or shape extracted from the entire video area 복합정보complex information (위치 정보를 기초로 생성된)경로, 감정, 분위기Route, emotion, mood (generated based on location information)

목표정보 추출 모듈(140)은 영상정보 분할 모듈(130)가 생성한 시각정보를 기초로 복합정보를 생성할 수 있다. 또한, 목표정보 추출 모듈(140)은 영상정보 분할 모듈(130)가 생성한 시각정보와 복합정보 중에서 사용자의 요청정보에 부합하는 목표정보를 추출할 수 있다. 예를 들어, 요청정보가 '동물의 외곽선'일 경우, 목표정보 추출 모듈(140)은 시각정보 중에서 개나 고양이의 외곽선이 나타난 시각정보를 목표정보로서 추출할 수 있을 것이다.The target information extraction module 140 may generate composite information based on the visual information generated by the image information division module 130 . In addition, the target information extraction module 140 may extract target information that meets the user's request information from among the visual information and composite information generated by the image information segmentation module 130 . For example, when the requested information is 'animal outline', the target information extraction module 140 may extract the visual information showing the outline of a dog or cat from among the visual information as the target information.

목표정보 추출 모듈(140)은 상술한 바와 같이 영상정보 분할 모듈(130)이 영상정보를 기초로 생성한 시각정보(예: 형태정보, 공간정보 및 전역정보)를 수신하는데, 이 경우 요청정보를 참조로 사용하여 필요한 시각정보를 선택적으로 수신할 수 있다.As described above, the target information extraction module 140 receives the visual information (eg, shape information, spatial information, and global information) generated by the image information segmentation module 130 based on the image information. It can be used as a reference to selectively receive necessary visual information.

목표정보 추출 모듈(140)은 목표정보를 대체신호 생성 모듈(150)에 전송한다. 목표정보 추출 모듈(140)은 형태정보, 공간정보, 전역정보 및 복합정보 등의 시각정보 중에서 요청정보에 부합하는 시각정보, 즉 목표정보를 추출한다. 즉, 목표정보 추출 모듈(140)은 영상정보 분할 모듈(130)에서 생성한 시각정보(형태정보, 공간정보 및 전역정보) 및 목표정보 추출 모듈(140)이 생성한 시각정보(복합정보) 중에서 요청정보와 부합하는 목표정보를 추출한다. 목표정보 추출 모듈(140)은 복합정보 생성부(141) 및 목표정보 추출부(142)를 포함하여 구성된다.The target information extraction module 140 transmits the target information to the alternative signal generating module 150 . The target information extraction module 140 extracts visual information, that is, target information, that meets the requested information from among visual information such as shape information, spatial information, global information, and complex information. That is, the target information extraction module 140 selects among the visual information (shape information, spatial information, and global information) generated by the image information segmentation module 130 and the visual information (composite information) generated by the target information extraction module 140. Extract target information that matches the requested information. The target information extraction module 140 includes a composite information generator 141 and a target information extractor 142 .

복합정보 생성부(141)는 영상정보 분할 모듈(130)에서 생성한 시각정보를 기초로 복합정보를 생성한다. 예를 들어, 복합정보 생성부(141)는 객체의 모양, 테두리(외곽선) 등의 형태 정보와 영상 전체 영역에 추출된 색상 등의 전역 정보를 기초로 분위기 정보를 얻을 수 있다. 복합정보 생성부(141)는 복수의 형태정보 또는 복수의 공간정보를 기초로 복합정보를 생성할 수 있으며, 전체적인 영상정보(전역 정보)에 기초하여 감정이나 분위기 정보 등의 복합정보를 생성할 수 있는데, 이러한 복합정보 생성 과정에서 인공지능 기법을 활용할 수 있다.The composite information generation unit 141 generates composite information based on the visual information generated by the image information segmentation module 130 . For example, the composite information generating unit 141 may obtain mood information based on shape information such as the shape and frame (outline) of an object and global information such as color extracted from the entire image area. The composite information generation unit 141 may generate composite information based on a plurality of shape information or a plurality of spatial information, and may generate composite information such as emotion or mood information based on overall image information (global information). In the process of creating such complex information, artificial intelligence techniques can be used.

목표정보 추출부(142)는 시각정보(형태정보, 공간정보, 전역정보 및 복합정보)에서 요청정보와 부합하는 목표정보를 추출한다.The target information extraction unit 142 extracts target information matching the requested information from visual information (shape information, spatial information, global information, and composite information).

대체신호 생성 모듈(150)은 감각경로를 기초로 목표정보를 변환하여 대체신호를 생성한다. 대체신호 생성 모듈(150)은 목표정보 추출 모듈(140)이 추출한 목표정보를 그 목표정보를 대체하는 감각신호, 즉 대체신호로 변환한다. 대체신호 생성 모듈(150)은 목표정보 추출 모듈(140)이 추출한 목표정보를 그 목표정보와 대응하는 대체신호로 변환한다. 대체신호 생성 모듈(150)은 목표정보별 감각 경로(예: 차량과 사용자 간의 거리를 왼쪽 귀를 통한 청각 감각경로로 전달함)를 기초로 그 목표정보에 부합하는 대체신호(음파)가 무엇인지 설정 테이블 등의 참조 데이터를 근거로 판단하고, 목표정보를 변환하여 대체신호를 생성한다. 즉, 대체신호 생성 모듈(150)은 목표정보별로 결정된 감각경로에 따라 목표정보를 변환하여 그와 대응하는 대체신호를 생성한다.The substitute signal generation module 150 converts target information based on the sensory path to generate substitute signals. The substitute signal generation module 150 converts the target information extracted by the target information extraction module 140 into a sensory signal that replaces the target information, that is, a substitute signal. The alternative signal generation module 150 converts the target information extracted by the target information extraction module 140 into an alternative signal corresponding to the target information. The alternative signal generation module 150 identifies an alternative signal (sound wave) that meets the target information based on the sensory path for each target information (eg, the distance between the vehicle and the user is transmitted to the auditory sensory path through the left ear). It is judged based on reference data such as a setting table, and converts target information to generate an alternative signal. That is, the alternative signal generation module 150 converts the target information according to the sensory path determined for each target information and generates an alternative signal corresponding thereto.

한편, 대체신호 생성 모듈(150)은 제어 및 출력 모듈(160)에서 산출한 시간 정보(정보변환시간(Tc), 전달시간(Tt), 지연시간(Td), 인지시간(Tp))를 대체신호 생성 과정에 반영할 수 있다. 예를 들어, 대체신호 생성 모듈(150)은, 제어 및 출력 모듈(160)의 시간 분석 결과에 따라 전달에 필요한 시간이 부족한 것으로 판단되는 경우, 감각신호 변환 과정이나 그 변환 결과를 단순화하여 정보변환시간(Tc)이나 전달시간(Tt)을 단축할 수 있다. 만약 대체신호 생성 모듈(150)에서 정보변환시간(Tc)이나 전달시간(Tt)을 단축할 수 없는 경우, 제어 및 출력 모듈(160)의 전달신호 동기화부(162)는 전달에 필요한 시간만큼 전달 시간을 확보하기 위해 동기화 시간(시점)을 연장한다.On the other hand, the alternative signal generation module 150 uses the time information (information conversion time (T c ), transmission time (T t ), delay time (T d ), recognition time (T p )) calculated by the control and output module 160 )) can be reflected in the process of generating alternative signals. For example, when it is determined that the time necessary for delivery is insufficient according to the time analysis result of the control and output module 160, the alternative signal generation module 150 simplifies the sensory signal conversion process or the conversion result to convert information. Time (T c ) or transfer time (T t ) can be shortened. If the information conversion time (T c ) or transmission time (T t ) cannot be shortened in the alternative signal generation module 150, the transmission signal synchronization unit 162 of the control and output module 160 determines the time required for transmission. Synchronization time (time point) is extended to secure the delivery time as much as possible.

본 실시예에서 대체신호 생성 모듈(150)은 목표정보를 청각 신호(소리)로 변환하는 제1 정보변환부(151), 목표정보를 촉각 신호(진동)로 변환하는 제2 정보변환부(152) 및 목표정보를 열감 신호(온도)로 변환하는 제3 정보변환부(153)을 포함하여 구성될 수 있다. 다만, 변환할 수 있는 감각이 추가되거나(예:후각), 감각의 세분화(예: 촉각 신호를 진동, 촉감, 압력으로 세분화)에 따라 대체신호 생성 모듈(150)의 구성 요소는 추가될 수 있다.In this embodiment, the alternative signal generating module 150 includes a first information conversion unit 151 that converts target information into an auditory signal (sound) and a second information conversion unit 152 that converts target information into a tactile signal (vibration). ) and a third information conversion unit 153 that converts target information into a thermal sensation signal (temperature). However, components of the alternative signal generation module 150 may be added according to the addition of a convertible sense (eg, olfaction) or segmentation of the senses (eg, segmentation of a tactile signal into vibration, touch, and pressure). .

제1 정보변환부(151)는 목표정보를 청각 신호(음파)로 변환한다. 제1 정보변환부(151)는 주로 모양, 위치, 빛의 유무, 색상 및 방향 등과 같은 형태정보나 공간정보를 음파로 변환한다. 구체적인 예를 들면, 제1 정보변환부(151)는 이미지의 수직 위치의 픽셀이나 픽셀 군마다 주파수를 사전에 정의하여 객체의 수직 위치의 차이가 주파수로 구분되도록 음파를 생성할 수 있다. 즉 제1 정보변환부(151)는 이미지의 수직 위치를 음파의 주파수로 매핑할 수 있다. 또한 제1 정보변환부(151)는 이미지의 수평 위치를 소리의 재생 시간 정보나 스테레오 신호로 매핑할 수 있으며, 객체의 형태나 테두리에 해당하는 픽셀의 밝기 값을 진폭으로 매핑하여 음파를 생성할 수 있다. 또한, 제1 정보변환부(151)는 공간정보를 소리로 표현하는 경우에는 주파수와 진폭을 복합적으로 조합하여 객체의 거리가 가까울수록 재생 빈도와 크기(volume)가 증가된 음파를 생성할 수 있고, 객체의 거리가 멀수록 재생빈도와 크기가 감소된 음파를 생성할 수 있다. 시각정보가 색상 정보(예컨대 객체의 색상, 영상 전체 영역에서 추출된 색상, 전역정보에 기초한 감정이나 분위기 등)인 경우, 색상의 분포에 대하여 딥러닝 기술을 이용한 분석이 가능하므로, 제1 정보변환부(151)는 분석된 정보가 밝은 느낌이나 분위기의 경우 경쾌한 음조의 음파로 표현하고, 어둡거나 우울한 분위기나 감정의 경우 느리거나 낮은 음계의 음파로 표현하는 방식으로 시각정보를 변환할 수 있다.The first information conversion unit 151 converts the target information into an auditory signal (sound wave). The first information conversion unit 151 mainly converts form information or space information such as shape, location, presence or absence of light, color and direction into sound waves. For example, the first information conversion unit 151 may generate sound waves so that a difference in the vertical position of an object is divided into frequencies by defining a frequency for each pixel or group of pixels at a vertical position of the image in advance. That is, the first information conversion unit 151 may map the vertical position of the image to the frequency of the sound wave. In addition, the first information conversion unit 151 may map the horizontal position of the image to reproduction time information of sound or a stereo signal, and generate sound waves by mapping the brightness value of a pixel corresponding to the shape or edge of an object to an amplitude. can In addition, when spatial information is expressed as sound, the first information conversion unit 151 can generate a sound wave whose reproduction frequency and volume increase as the object distance is closer by combining frequency and amplitude in a complex manner. , sound waves with reduced reproduction frequency and reduced size can be generated as the distance between the objects increases. If the visual information is color information (e.g., object color, color extracted from the entire image area, emotion or mood based on global information, etc.), the distribution of color can be analyzed using deep learning technology, so the first information conversion The unit 151 may convert the visual information in such a way that the analyzed information is expressed as light-pitched sound waves in the case of a bright feeling or atmosphere, and expressed as slow or low-pitched sound waves in the case of a dark or gloomy atmosphere or emotion.

제2 정보변환부(152)는 목표정보를 촉각 신호로 변환한다. 제2 정보변환부(152)는 주로 거리, 질감, 위치, 경로나 방향 등의 목표정보를 촉각 신호로 변환한다. 시각정보의 감각 치환 및 다중경로 전달 장치(100)에서 촉각신호가 최종적으로 전달되는 장치는 손목에 부착하거나 신체에 착용하는 진동장치 등이 될 수 있다. 손목에 부착하는 진동장치의 상하좌우 위치에 진동발생 소자가 위치하는 경우, 제2 정보변환부(152)는 특정 경로나 방향에 해당하는 소자만 진동을 발생하도록 복수의 채널에 대한 촉각 신호를 생성할 수 있다. 제어 및 출력 모듈(160)은 이와 같이 생성된 촉각 신호를 기초로 진동장치에 제어 신호를 전송하여 경로나 방향에 부합하는 소자가 진동을 발생하도록 함으로써 사용자에게 객체의 방향이나 경로를 전달할 수 있다.The second information conversion unit 152 converts the target information into a tactile signal. The second information conversion unit 152 mainly converts target information such as distance, texture, location, path or direction into tactile signals. In the apparatus 100 for sensory substitution and multipath transmission of visual information, a device to which the tactile signal is finally transmitted may be a vibration device attached to a wrist or worn on the body. When the vibration generating elements are located in the top, bottom, left, and right positions of the vibration device attached to the wrist, the second information conversion unit 152 generates tactile signals for a plurality of channels so that only elements corresponding to a specific path or direction generate vibration can do. The control and output module 160 transmits a control signal to the vibrating device based on the tactile signal generated in this way so that elements corresponding to the path or direction generate vibration, thereby conveying the direction or path of the object to the user.

한편, 제2 정보변환부(152)는 목표정보가 거리 정보인 경우, 거리에 따라 진동의 주기나 세기를 변화시키는 방식으로 거리 정보를 촉각 신호로 변환할 수 있다.Meanwhile, when the target information is distance information, the second information conversion unit 152 may convert the distance information into a tactile signal by changing a period or intensity of vibration according to the distance.

제3 정보변환부(153)는 목표정보를 열감 신호로 변환한다. 제3 정보변환부(153)는 주로 색상, 감정이나 분위기에 관한 목표정보를 열감 신호로 변환할 수 있다. 시각정보의 감각 치환 및 다중경로 전달 장치(100)에서 열감 신호가 최종적으로 전달되는 장치는 열전달 장치(히터)가 될 수 있다. 구체적인 예로, 제3 정보변환부(153)는 열전달 장치에서 전달할 수 있는 온도 범위를 기준으로 파란색이나 어두운 분위기의 목표정보는 낮은 온도를 가지는 열감 신호로 변환하고, 빨간색이나 뜨거운 분위기의 목표정보는 설정된 온도 범위 중에서 높은 온도를 가지는 열감 신호로 변환할 수 있다.The third information conversion unit 153 converts the target information into a sensation signal. The third information conversion unit 153 may convert target information mainly about color, emotion or atmosphere into a heat sensation signal. In the device 100 for sensory substitution and multipath transmission of visual information, a device to which the heat sensation signal is finally transmitted may be a heat transfer device (heater). As a specific example, the third information conversion unit 153 converts target information of blue or dark atmosphere into a thermal sensation signal having a low temperature based on the temperature range that can be transmitted by the heat transfer device, and target information of red or hot atmosphere is set It can be converted into a thermal sensation signal having a high temperature in the temperature range.

대체신호 생성 모듈(150)의 각 정보변환부(151,152,153)는 전달 강도 정보와 감각경로를 기초로 목표정보를 변환하여 대체신호를 생성할 수 있다. 예를 들어, 제1 정보변환부(151)가 목표정보를 변환하여 청각신호를 생성할 때, 제1 정보변환부(151)는 사용자 입력 정보에 포함된 전달 강도 정보가 '상(high)'인 것을 반영하여 주파수나 진폭을 증가시킨 음파를 생성할 수 있다.Each of the information conversion units 151 , 152 , and 153 of the alternative signal generating module 150 may generate an alternative signal by converting the target information based on the transmitted intensity information and the sensory path. For example, when the first information conversion unit 151 converts target information to generate an auditory signal, the first information conversion unit 151 determines that the transmission strength information included in the user input information is 'high'. It is possible to generate a sound wave with increased frequency or amplitude by reflecting the

대체신호 생성 모듈(150)은 사용자에게 목표정보를 효율적으로 전달하기 위하여, 복수의 목표정보를 개별적으로 각각 다른 대체신호로 변환할 수도 있고, 동일한 시각정보를 복수의 대체신호로 변환할 수도 있다. 이 경우 대체신호 생성 모듈(150)은 복수의 정보변환부(151,152,153)의 변환 결과를 조합하여 최종 변환 결과를 도출할 수 있다. 예를 들어, 단일한 위치정보를 변환하는 경우라도 대체신호 생성 모듈(150)은 상기 위치정보를 제1 정보변환부(151)를 통해 좌우를 나타내는 음파로 변환하고, 제2 정보변환부(152)를 통해 상기 위치정보를 왼손의 손목에 착용된 진동 장치의 좌측 방향의 소자에 전달할 진동 신호로 변환할 수 있다. 이 경우 제어 및 출력 모듈(160)은 상기 위치정보에 관한 음파와 진동 신호를 동시에 출력하여, 사용자로 하여금 위치 정보를 보다 효율적으로 인지할 수 있도록 한다.The alternative signal generation module 150 may individually convert a plurality of target information into different alternative signals or convert the same visual information into a plurality of alternative signals in order to efficiently deliver the target information to the user. In this case, the alternative signal generating module 150 may derive a final conversion result by combining the conversion results of the plurality of information conversion units 151, 152, and 153. For example, even in the case of converting single location information, the alternative signal generation module 150 converts the location information into sound waves indicating left and right through the first information conversion unit 151, and the second information conversion unit 152 ), the location information may be converted into a vibration signal to be transmitted to a leftward element of the vibration device worn on the wrist of the left hand. In this case, the control and output module 160 simultaneously outputs sound waves and vibration signals related to the location information so that the user can recognize the location information more efficiently.

대체신호 생성 모듈(150)은 생성된 대체신호를 제어 및 출력 모듈(160)에 전송한다.The replacement signal generation module 150 transmits the generated replacement signal to the control and output module 160 .

제어 및 출력 모듈(160)은 대체신호의 출력 순서 설정과 전달 시점의 동기화와 관련된 전반적인 동작을 제어한다. 제어 및 출력 모듈(160)은 대체신호 생성 모듈(150)이 생성한 대체신호를 사용자에게 전달한다. 제어 및 출력 모듈(160)은 목표정보의 다중경로 전송을 위한 전반적인 동작에 필요한 전달신호의 흐름을 제어하고 관리한다. 또한 제어 및 출력 모듈(160)은 대체신호를 다중경로로 출력할 수 있다. The control and output module 160 controls overall operations related to setting the output order of alternative signals and synchronizing delivery time points. The control and output module 160 delivers the replacement signal generated by the replacement signal generation module 150 to the user. The control and output module 160 controls and manages the flow of transmission signals necessary for overall operation for multipath transmission of target information. Also, the control and output module 160 may output the alternate signal to multipath.

한편, 제어 및 출력 모듈(160)은 물리적으로 별개의 장치로 구분될 수 있다. 예를 들어, 제어 및 출력 모듈(160)은 제어 장치와 출력 장치를 포함하여 구현할 수 있다.Meanwhile, the control and output module 160 may be physically separated as a separate device. For example, the control and output module 160 may be implemented by including a control device and an output device.

제어 및 출력 모듈(160)은 전달경로 설정부(164), 다중경로 출력부(165)를 포함한다. 제어 및 출력 모듈(160)은 대체신호의 동기화를 위하여 시간 분석부(161)와 전달신호 동기화부(162)를 더 포함할 수 있고, 대체신호를 보정하는 대체신호 보정부(163)를 더 포함할 수 있다. 제어 및 출력 모듈(160)의 대체신호 동기화 및 보정 작업은 목표정보를 사용자에게 효과적으로 전달하기 위하여 필요하다.The control and output module 160 includes a transfer path setting unit 164 and a multipath output unit 165. The control and output module 160 may further include a time analysis unit 161 and a transmission signal synchronization unit 162 to synchronize the alternative signal, and further include an alternative signal correction unit 163 to correct the alternative signal. can do. Synchronization and correction of alternative signals of the control and output module 160 are necessary to effectively deliver target information to the user.

제어 및 출력 모듈(160)은 감각경로 결정 모듈(120)에서 결정된 목표정보별 감각 경로를 기초로 복수의 대체신호들을 목표정보별로 동기화하여 사용자에게 전달한다. 또한, 제어 및 출력 모듈(160)은 영상정보 및 사용자 행동(사용자 반응)에 따라 대체신호의 특성(예: 강도) 또는 종류를 보정한다. 제어 및 출력 모듈(160)은 영상정보에 대한 분석을 통해 사용자 행동(사용자 반응)을 인식할 수 있다.The control and output module 160 synchronizes a plurality of alternative signals for each target information based on the sensory path for each target information determined in the sensory path determination module 120 and delivers them to the user. In addition, the control and output module 160 corrects the characteristics (eg, intensity) or type of the substitute signal according to the image information and user behavior (user reaction). The control and output module 160 may recognize user behavior (user reaction) through analysis of image information.

우선, 대체신호 동기화 작업을 담당하는 시간 분석부(161) 및 전달신호 동기화부(162)의 기능에 대하여 설명한다. 시간 분석부(161)는 전달신호 동기화부(162)가 동기화 시점을 판단하는 데 필요한 시간 정보를 전달신호 동기화부(162)에게 제공한다. 시간 분석부(161)는 목표정보별 감각 경로에 기초하여 ① 감각별 정보변환시간(Tc), ② 감각별 전달시간(Tt), ③ 전달장치의 지연시간(Td) 및 ④ 감각기관별 인지시간(Tp)을 산출하고, 산출한 시간 정보(Tc,Tt,Td,Tp)를 전달신호 동기화부(162)에 전달한다. 표 2는 시간 분석부(161)가 산출하는 각 시간에 대한 설명이다.First, the functions of the time analyzer 161 and the transmission signal synchronizer 162 in charge of synchronizing alternative signals will be described. The time analysis unit 161 provides the transmission signal synchronization unit 162 with time information necessary for the transmission signal synchronization unit 162 to determine the synchronization time point. The time analysis unit 161 determines information conversion time (T c ) for each sense, ② transmission time (T t ) for each sense, ③ delay time (T d ) of the transmission device, and ④ information conversion time (T c ) for each sense, based on the sensory path for each target information. The recognition time (T p ) is calculated, and the calculated time information (T c , T t , T d , T p ) is transmitted to the transfer signal synchronization unit 162 . Table 2 is a description of each time calculated by the time analyzer 161.

구분division 기호sign 설명explanation 정보변환시간information conversion time
(Time for conversion)(Time for conversion)
TT cc 목표정보를 감각별 대체신호로 변환하는데 걸리는 시간Time required to convert target information into alternative signals for each sense
전달시간delivery time
(Time for transmission)(Time for transmission)
TT tt 감각별로 전달 또는 재생하는데 필요한 시간Time required for transmission or reproduction per sense
지연시간delay time
(Time for delay)(Time for delay)
TT dd 감각기관별로 전달하는 장치의 지연시간Delay time of the device that transmits to each sensory organ
인지시간perception time
(Time for perception)(Time for perception)
TT pp 대상 감각수용체에서 전달 신호를 인지하는 시간Time to recognize the transmitted signal in the target sensory receptor

시간 분석부(161)는 대체신호 생성 모듈(150)의 각 변환부(151,152,153)가 목표정보를 대체 신호로 변환할 때 소요되는 시간(대체 신호 생성에 소요되는 시간)을 기초로 감각별 정보변환 시간(Tc)을 산출할 수 있다. 그리고, 감각별 전달시간(Tt)은 목표 감각 기관별로 정보를 전달하는데 필요한 시간을 의미한다. 감각별 전달시간(Tt)은 감각별로 다를 수 있다. 예를 들어, 청각은 0.5초, 촉각은 0.8초, 열감은 1초 등 감각별로 다른 길이의 시간이 필요할 수 있다. 그리고, 전달장치의 지연시간(Td)은 전달 장치의 전송시간이라고 볼 수 있는데, 장비의 특성에 따라 달라진다. 따라서 시간 분석부(161)는 장치 제조사에서 공개하는 정보를 반영하여 지연시간(Td)을 산출할 수 있다. 그리고, 시간 분석부(161)는 일반적으로 알려진 값(선행 연구 결과)에 기반하여 감각기관별 인지시간(Tp)을 산출할 수 있다. 다만, 사용자마다 인지시간의 차이가 있을 수 있고, 특정한 감각을 느끼지 못하는 사람이 있으므로, 대체신호 보정부(163)는 사용자 행동이나 사용자 반응에 따라 대체신호를 보정한다.The time analysis unit 161 converts information for each sense based on the time required when each conversion unit 151, 152, 153 of the alternative signal generation module 150 converts target information into an alternative signal (time required to generate an alternative signal). Time (T c ) can be calculated. And, the transmission time for each sense (T t ) means the time required to deliver information for each target sensory organ. The transit time (T t ) for each sense may be different for each sense. For example, different lengths of time may be required for each sense, such as hearing for 0.5 seconds, touch for 0.8 seconds, and heat for 1 second. And, the delay time (T d ) of the delivery device can be regarded as the transmission time of the delivery device, and varies depending on the characteristics of the equipment. Accordingly, the time analyzer 161 may calculate the delay time T d by reflecting the information disclosed by the device manufacturer. In addition, the time analyzer 161 may calculate the recognition time Tp for each sensory organ based on a generally known value (result of previous research). However, since there may be a difference in perception time for each user and some people do not feel a specific sense, the substitute signal correction unit 163 corrects the substitute signal according to user behavior or user reaction.

전달신호 동기화부(162)는 목표정보 추출 모듈(140)이 추출한 각 시각정보의 프레임과 시간 분석부(161)가 산출한 시간 정보를 기초로, 사용자에게 전달하고자 하는 복수의 대체신호에 대한 동기화 시점을 판단하고, 동기화 작업을 수행한다. 전달신호 동기화부(162)가 복수의 대체신호를 동기화하기 위해서는 목표 감각별로 목표정보를 대체신호로 변환하는데 걸리는 시간(Tc: Time for conversion)과 감각별로 전달 또는 재생하는데 필요한 시간(Tt: Time for transmission), 감각기관별로 전달하는 장치의 지연시간(Td: Time for delay) 및 대상 감각수용체에서 전달 신호를 인지하는 시간(Tp: Time for perception)을 고려해야 한다. 동기화를 위해 이러한 시간적 고려가 필요한 이유는 영상이나 이미지의 다양한 시각정보들을 복수의 대체신호들로 전송하는 경우, 감각 기관마다 전달할 수 있는 신호의 강도와 정보량에 한계가 있고 동일한 신호라도 사용자에 따라 인식에 차이가 있기 때문이다. 예를 들면, 음파 형태의 대체신호는 그 특성상 재생 시간이 필요하다. 한편, 진동신호 형태의 대체신호는 음파의 재생시간보다 짧을 수도 있고 길 수도 있다. 따라서 동일한 이미지 프레임에서 도출된 각기 다른 목표정보를 변환한 대체신호를 복수의 감각 경로를 통하여 전송하는 경우, 제어 및 출력 모듈(160)은 동일한 프레임에 관한 대체신호를 동기화하여 동일한 시점에 사용자에게 전달하여야 한다. The transmission signal synchronization unit 162 synchronizes a plurality of alternative signals to be transmitted to the user based on the frame of each time information extracted by the target information extraction module 140 and the time information calculated by the time analysis unit 161. Determine the point in time and perform synchronization work. In order for the transmission signal synchronizer 162 to synchronize the plurality of alternative signals, the time required to convert target information into alternative signals for each target sense (T c : Time for conversion) and the time required for transmission or reproduction for each sense (T t : Time for transmission), delay time (T d : Time for delay) of the device that transmits to each sensory organ, and time for perceiving the transmitted signal in the target sensory receptor (T p : Time for perception). The reason why such temporal consideration is necessary for synchronization is that when various visual information of a video or image is transmitted as a plurality of alternative signals, there is a limit to the strength and amount of information that can be transmitted for each sensory organ, and even the same signal is recognized by the user because there is a difference in For example, a replacement signal in the form of a sound wave requires a reproduction time due to its characteristics. On the other hand, the replacement signal in the form of a vibration signal may be shorter or longer than the reproduction time of the sound wave. Therefore, when the alternative signals obtained by converting different target information derived from the same image frame are transmitted through a plurality of sensory pathways, the control and output module 160 synchronizes the alternative signals for the same frame and delivers them to the user at the same time. shall.

다른 예로서, 동일한 시각정보를 사용자에게 복수의 감각 경로로 전달하는 경우에도 감각 기관마다 전달할 수 있는 정보량이 다르므로 전달하는 정보들을 동기화해야 한다. 변환된 대체신호를 단일 또는 복수의 경로로 전달하기 위한 동기화 시점(Ts: Sync. Time)은, 요청정보 또는 목표정보에 따라 달라질 수 있다. 전달신호 동기화부(162)는 목표정보 추출 모듈(140)에서 추출된 목표정보에 대한 정보변환시간(Tc), 전달시간(재생시간)과 지연시간의 합(Tt+Td) 및 감각기관별 인지시간(Tp)을 고려하여 수학식 1과 같이 가장 소요시간이 긴 시간을 동기화 시점으로 결정할 수 있다.As another example, even when the same visual information is transmitted to a user through a plurality of sensory pathways, since the amount of information that can be transmitted is different for each sensory organ, the transmitted information must be synchronized. A synchronization point (Ts: Sync. Time) for transmitting the converted alternative signal through a single path or a plurality of paths may vary according to request information or target information. The transmission signal synchronizer 162 converts the information for the target information extracted by the target information extraction module 140 (T c ), the sum of the transmission time (playback time) and the delay time (T t +T d ), and sense In consideration of the recognition time (T p ) for each institution, the longest required time can be determined as the synchronization time point as shown in Equation 1.

Figure pat00001
Figure pat00001

다음으로, 대체신호의 보정을 수행하는 대체신호 보정부(163)에 대하여 하기와 같이 설명한다. 영상정보를 입력하는 카메라의 부착위치와 변환된 대체신호가 전달되는 장치의 위치가 상이함에도 불구하고 대체신호를 보정 없이 사용자에게 전달하는 경우, 사용자는 물체의 위치나 거리를 정확하게 인지하기 어렵다. 따라서 대체신호 보정부(163)는 이러한 불일치를 해결하여 대체신호를 보정하는 기능을 수행한다. 예를 들어, 일반적으로 영상정보를 입력하는 카메라는 안경이나 목걸이 또는 가슴에 고정장치를 이용하여 부착하는 반면, 위치 정보나 깊이 정보는 소리나 손에 부착한 진동 장치로 전달된다. 이 경우, 머리나 가슴에서 바라보는 위치/거리와, 대체신호를 전달받는 귀 또는 손의 위치가 상대적으로 다르므로 위치 정보나 거리 정보가 소리나 촉각 장치로 일치하여 전달되지 않는다. 따라서 영상정보가 입력되는 위치와 대체신호가 전달되는 위치의 차이를 보정하여 사용자가 효율적으로 인지할 수 있도록 하는 기능이 필수적인데, 대체신호 보정부(163)에서 이러한 기능을 수행한다.Next, the replacement signal correction unit 163 for correcting the replacement signal will be described as follows. When the replacement signal is transmitted to the user without correction despite the difference between the attachment position of the camera inputting the image information and the position of the device to which the converted alternative signal is transmitted, it is difficult for the user to accurately recognize the location or distance of the object. Therefore, the substitute signal correction unit 163 performs a function of correcting the substitute signal by resolving the inconsistency. For example, while a camera for inputting image information is generally attached to glasses, a necklace, or a chest using a fixing device, location information or depth information is transmitted to a vibration device attached to a sound or hand. In this case, since the position/distance viewed from the head or chest is relatively different from the position of the ear or hand that receives the alternative signal, the position information or distance information is not transmitted to the sound or tactile device. Therefore, it is essential to correct the difference between the location where the image information is input and the location where the alternative signal is transmitted so that the user can efficiently recognize it, and the alternative signal correction unit 163 performs this function.

또한 대체신호 보정부(163)는 영상정보, 사용자 행동 또는 사용자 반응에 따라 대체신호의 특성(예: 강도) 또는 종류를 보정한다. 대체신호 보정부(163)는 영상정보를 분석하여 사용자 행동(또는 사용자 반응)을 인식할 수 있다. 대체신호 보정부(163)는 영상정보 및 사용자 행동을 기초로 사용자의 감도를 판단할 수 있으며, 사용자의 감도를 기초로 대체신호의 특성이나 종류를 보정한다. 구체적으로 설명하면, 시각정보를 청각이나 촉각, 열감 등으로 변환해서 전달할 때 사용자에 따라 특정 감각을 느끼는 감도가 다를 수 있다. 따라서 대체신호 보정부(163)는 대체신호에 대한 사용자의 감도가 낮은 수준이라고 판단하는 경우, 대체신호의 강도를 높이거나, 해당 목표정보에 대한 감각 경로를 다른 감각 경로로 전환한다(예: 청각을 열감으로 전환). 대체신호의 강도를 높이는 예로서, 청각 신호의 크기를 증가시키는 것이 있을 수 있다.In addition, the substitute signal correction unit 163 corrects the characteristics (eg, intensity) or type of the substitute signal according to image information, user behavior, or user response. The alternative signal correction unit 163 may recognize a user's behavior (or user's reaction) by analyzing image information. The substitute signal correction unit 163 may determine the user's sensitivity based on the image information and the user's behavior, and corrects the characteristics or types of the substitute signal based on the user's sensitivity. Specifically, when visual information is converted into auditory, tactile, or thermal sensations and transmitted, the sensitivity of feeling a specific sense may vary depending on the user. Therefore, when the alternative signal correction unit 163 determines that the user's sensitivity to the alternative signal is at a low level, it increases the strength of the alternative signal or converts the sensory path for the target information to another sensory path (eg, hearing). into a sense of heat). An example of increasing the strength of an alternative signal may be increasing the loudness of an auditory signal.

제어 및 출력 모듈(160)은 전달신호 동기화부(162)의 동기화 결과를 참조하여 단일 또는 복수의 경로를 설정하고, 설정된 전달 경로를 통해 대체신호를 사용자에 부착된 장치에 출력한다. 전달경로 설정부(164)는 대체신호 생성 모듈(150)에서 변환이 완료된 대체신호를 입력받고, 목표정보별 감각 경로를 기초로 각 경로별 정보변환시간(Tc), 감각별 전달시간(Tt), 감각별 전달장치의 지연시간(Td) 및 감각별 인지시간(Tp)을 고려하여 대체신호의 전달 경로를 설정한다. 제어 및 출력 모듈(160)은 시간 분석부(161)에서 산출한 4가지 시간(① 감각별 정보변환 시간(Tc), ② 감각별 전달시간(Tt), ③ 전달장치의 지연시간(Td) 및 ④ 감각기관별 인지시간(Tp))에 기초하여 전달신호 동기화부(162)가 도출한 동기화 시점에 따라 개별 대체신호를 사용자에게 전달하며, 개별 감각에 대한 사용자의 행동이나 사용자 반응을 고려하여 대체신호의 전달 경로와 세기(강도)를 보정할 수 있다. 시각정보는 오감정보 중 정보량이 가장 많으므로 다른 감각으로 변환할 경우 정보의 축약이 발생하게 된다. 따라서 동일하지 않은 시각정보의 변환을 통해 동일한 대체신호가 생성될 수 있어서 문제되는데, 사용자 행동에 기초한 개인화 보정을 통하여 상기 문제를 해결할 수 있다. 다중경로 출력부(165)는 소정의 시간적 범위에 포함되는 개별 대체신호를, 전달신호 동기화부(162)에서 생성된 동기화 신호를 참조하여, 전달경로 설정부(164)가 설정한 전달경로를 통해 동시에 전달한다.The control and output module 160 sets a single path or a plurality of paths by referring to the synchronization result of the transfer signal synchronization unit 162, and outputs an alternative signal to a device attached to the user through the set transfer path. The transmission path setting unit 164 receives the alternative signal converted by the alternative signal generation module 150, and based on the sensory path for each target information, the information conversion time for each path (T c ) and the transfer time for each sense (T t ), the delay time (T d ) of the transmission device for each sense, and the perception time (T p ) for each sense are taken into account to set the transmission path of the alternative signal. The control and output module 160 has four times calculated by the time analysis unit 161 (① information conversion time for each sense (T c ), ② transmission time for each sense (T t ), ③ delay time of the transmission device (T d ) and ④ individual alternative signals are delivered to the user according to the synchronization time point derived by the transmission signal synchronizing unit 162 based on the recognition time (T p ) for each sensory organ, and the user's action or user response to the individual senses is determined. Taking into account the transmission path and intensity (strength) of the alternative signal can be corrected. Visual information has the largest amount of information among the five senses, so information is reduced when converted to other senses. Accordingly, there is a problem in that an identical substitute signal can be generated through conversion of non-identical visual information, but the above problem can be solved through personalization correction based on user behavior. The multipath output unit 165 refers to the synchronization signal generated by the transmission signal synchronization unit 162 for individual replacement signals included in a predetermined temporal range through a transmission path set by the transmission path setting unit 164. deliver at the same time

도 3은 본 발명에 따른 시각정보의 감각 치환 및 다중경로 전달 개념을 예시적으로 나타낸 도면이다. 도 3은 본 발명의 다양한 적용 예시 중에서 군사작전을 수행하는 경우 목표정보를 대체신호로 변환하여 다중경로를 통해 사용자에게 전달하는 상황을 도시한 것이다. 3 is a diagram exemplarily illustrating the concept of sensory substitution and multipath transmission of visual information according to the present invention. FIG. 3 illustrates a situation in which target information is converted into an alternative signal and transmitted to a user through a multipath when performing a military operation among various application examples of the present invention.

입력 모듈(110)은 사용자 입력 정보와 영상정보(정지 이미지 또는 동영상)를 수신하는데, 이 경우 사용자 입력 정보에 포함된 요청정보는 정찰이나 군사 작전을 수행하는 사용자의 목적에 부합하는 정보로서, 인물의 위치, 인물의 거리, 차량의 위치, 차량의 거리 등이 될 수 있다. 입력 모듈(110)은 사용자 입력 정보를 파싱하여 요청정보, 요청감각 정보 및 전달강도 정보를 추출한다. 예를 들어, 요청정보는 '차량의 거리'이고, 요청감각 정보는 '열감'이고, 전달강도 정보는 '상(high)'일 수 있다. The input module 110 receives user input information and image information (still image or video). In this case, the requested information included in the user input information is information suitable for the user's purpose of performing reconnaissance or military operations. It may be the position of the person, the distance of the person, the position of the vehicle, the distance of the vehicle, and the like. The input module 110 parses user input information to extract request information, request sense information, and transfer strength information. For example, the requested information may be 'vehicle distance', the requested sensory information may be 'feeling of heat', and the transfer intensity information may be 'high'.

감각경로 결정 모듈(120)은 사용자 입력 정보에 기초하여 감각경로를 결정한다. 감각경로 결정 모듈(120)은 요청감각 정보에 기초하여 감각경로를 결정할 수 있으며, 요청정보에 기초하여 감각경로를 결정할 수도 있다. 예를 들어, 감각경로 결정 모듈(120)은 요청감각 정보가 '열감'일 경우, 그에 해당하는 감각경로(예: 온도를 왼손을 통해 전달하는 열감 감각경로)를 결정할 수 있다. 다른 예로, 감각경로 결정 모듈(120)은 요청정보가 '차량의 거리'일 경우, '거리'에 대하여 기 설정된 감각경로(예: 소리를 왼쪽 귀를 통해 전달하는 청각 감각경로 및 진동을 왼손을 통해 전달하는 촉각 감각경로)를 결정할 수 있다. 감각경로를 어떤 정보에 기초하여 결정할 것인지는 설정에 의한다.The sensory path determination module 120 determines a sensory path based on user input information. The sensory path determining module 120 may determine a sensory path based on the requested sensory information, or may determine a sensory path based on the requested sensory information. For example, when the requested sensory information is 'a sense of heat', the sensory path determining module 120 may determine a corresponding sensory path (eg, a sensory path that transmits temperature through the left hand). As another example, when the requested information is 'vehicle distance', the sensory path determination module 120 selects a preset sensory path for 'distance' (eg, an auditory sensory path that transmits sound through the left ear and vibration to the left hand). tactile sensory pathways) can be determined. It depends on what information the sensory pathway is determined on the basis of.

영상정보 분할 모듈(130)은 영상정보를 분할하여 다양한 시각정보를 생성한다. 예를 들어, 영상정보 분할 모듈(130)은 영상정보를 분할하여, 객체의 모양, 객체의 테두리, 배경의 외곽선, 객체의 색상, 배경 색상, 빛의 유무, 객체의 질감 등의 형태정보, 객체의 위치, 사용자와 객체 간의 거리, 객체와 다른 객체 간의 거리, 객체의 이동 방향 등의 공간정보, 영상 전체의 지배적인 색상이나 모양 등의 전역정보를 생성한다.The image information division module 130 divides the image information to generate various visual information. For example, the image information segmentation module 130 divides the image information to form information such as the shape of the object, the border of the object, the outline of the background, the color of the object, the presence or absence of light, the texture of the object, and the object. It generates spatial information such as the location of the user, the distance between the user and the object, the distance between the object and other objects, the movement direction of the object, and the global information such as the dominant color or shape of the entire image.

목표정보 추출 모듈(140)은 영상정보 분할 모듈(130)이 생성한 시각정보를 기초로 요청정보에 부합하는 시각정보인 목표정보를 추출한다. 예를 들어, 목표정보 추출 모듈(140)은 요청정보인 '차량의 위치'와 '차량의 거리'에 부합하는 목표정보인 차량의 위치 정보 및 사용자와 차량 간의 거리 정보를 추출한다.The target information extraction module 140 extracts target information, which is time information corresponding to the requested information, based on the time information generated by the image information segmentation module 130. For example, the target information extraction module 140 extracts vehicle location information and distance information between the user and the vehicle as target information corresponding to the requested information 'vehicle location' and 'vehicle distance'.

대체신호 생성 모듈(150)은 사용자 입력 정보에 포함된 전달 강도 정보를 참고하여 목표정보를 변환하여 대체신호를 생성한다. 예를 들어, 대체신호 생성 모듈(150)은 차량의 거리 정보를 변환하여 전달 강도 '상(high)' 수준의 청각 신호와 진동 신호를 생성한다.The alternative signal generation module 150 converts the target information by referring to the transmission strength information included in the user input information to generate an alternative signal. For example, the alternative signal generation module 150 converts the distance information of the vehicle to generate an audible signal and a vibration signal with a 'high' transmission intensity.

제어 및 출력 모듈(160)은 대체신호를 다중 경로로 전달하여 사용자가 필요한 정보를 효율적으로 지각할 수 있게 한다. 예를 들어, 제어 및 출력 모듈(160)은 사용자가 착용한 스와 진동 장치를 통해 청각 신호와 진동 신호를 동시에 출력하여 사용자가 차량의 거리 정보를 인지할 수 있도록 한다.The control and output module 160 transmits alternative signals through multiple paths so that the user can efficiently perceive necessary information. For example, the control and output module 160 simultaneously outputs an auditory signal and a vibration signal through a Suwa vibration device worn by the user so that the user can recognize distance information of the vehicle.

본 발명에 따른 감각 치환 및 다중경로 전송 기법은, 기존의 감각 치환 기술과 달리, 복잡한 시각정보의 동기화된 전달이 가능하여 사용자의 지각을 향상할 수 있다. 하나의 예로, 도 3에 도시된 바와 같이, 총을 든 병사의 왼쪽 가까이에 있는 빨간색 공에 대한 정보는 기존 감각치환 기술이나 장치에서 전달할 수 없었던 복잡한 정보이다. 본 발명에 따른 감각 치환 및 다중경로 전송 기법에 따를 경우, 형태정보(공의 둥근 모양)는 소리로 변환하고, 위치정보(병사의 왼쪽)는 손목에 부착한 진동 장치의 왼쪽 진동 소자에 정보를 전달함과 동시에 거리 정보(병사와 병사 앞에 있는 객체와의 거리)는 진동장치의 진동 주기나 진동 세기로 전달하며, 색상정보(빨간색)는 높은 단계(high)로 설정된 열감 신호(온도 정보)를 열전달 장치를 통해 동시에 전달할 수 있다. Unlike conventional sensory substitution techniques, the sensory substitution and multipath transmission technique according to the present invention enables synchronized delivery of complex visual information, thereby improving user perception. As an example, as shown in FIG. 3 , information about a red ball near the left of a soldier holding a gun is complex information that could not be conveyed by existing sensory substitution technologies or devices. According to the sensory substitution and multipath transmission technique according to the present invention, the shape information (the round shape of the ball) is converted into sound, and the position information (the left side of the soldier) is transmitted to the left vibration element of the vibration device attached to the wrist. At the same time, the distance information (the distance between the soldier and the object in front of the soldier) is transmitted as the vibration period or intensity of the vibration device, and the color information (red) transmits the heat signal (temperature information) set to a high level. It can be transferred simultaneously through a heat transfer device.

도 4는 본 발명의 다른 실시예에 따른 시각정보의 감각 치환 및 다중경로 전달 장치(100')의 구성을 나타낸 블록도이다.4 is a block diagram showing the configuration of an apparatus 100' for sensory substitution and multi-path transmission of visual information according to another embodiment of the present invention.

본 발명의 다른 실시예에 따른 시각정보의 감각 치환 및 다중경로 전달 장치(100')는 입력 모듈(110), 감각경로 결정 모듈(120), 목표정보 추출 모듈(140'), 대체신호 생성 모듈(150)과 제어 및 출력 모듈(160)을 포함한다.An apparatus 100' for sensory substitution and multipath delivery of visual information according to another embodiment of the present invention includes an input module 110, a sensory path determination module 120, a target information extraction module 140', and an alternative signal generation module. 150 and a control and output module 160.

도 4의 실시예는 도 1의 실시예와 장치 구성에 있어서 차이가 있다. 도 4의 실시예는 도 1의 실시예의 영상정보 분할 모듈(130)과 목표정보 추출 모듈(140)의 기능을 통합하여 하나의 목표정보추출 모듈(140')로 구현하였다. 도 4의 실시예는 도 1의 실시예에 대비하여 작업 부하가 크지 않아 영상정보의 분할 작업과 목표정보 추출 작업의 병렬적 처리가 필요하지 않은 경우에 적용할 수 있다.The embodiment of FIG. 4 is different from the embodiment of FIG. 1 in device configuration. The embodiment of FIG. 4 integrates the functions of the image information division module 130 and the target information extraction module 140 of the embodiment of FIG. 1 and implemented as one target information extraction module 140'. The embodiment of FIG. 4 can be applied to a case in which parallel processing of dividing image information and extracting target information is not required because the work load is not large compared to the embodiment of FIG. 1 .

목표정보추출 모듈(140')은 입력 모듈(110)에서 전송받은 영상정보를 분할하여 형태정보, 공간정보 및 전역정보 등의 다양한 시각정보를 생성하며, 상기 시각정보를 기초로 복합정보를 생성하며, 생성된 형태정보, 공간정보, 전역정보 및 복합정보 중에서 감각경로 결정 모듈(120)에서 전송받은 요청정보에 부합하는 목표정보를 추출하고, 추출된 목표정보를 대체신호 생성 모듈(150)에 전송한다. 또한 목표정보추출 모듈(140')은 목표정보를 제어 및 출력 모듈(160)에 전송할 수 있다. 목표정보추출 모듈(140')은 상술한 기능을 수행하기 위하여 형태정보 생성부(131), 공간정보 생성부(132), 전역정보 생성부(133), 복합정보 생성부(141) 및 목표정보 추출부(142)를 포함하여 구성되며, 목표정보추출 모듈(140')의 각 구성 요소의 기능은 도 2를 참조하여 전술한 내용과 동일하다.The target information extraction module 140' divides the image information received from the input module 110 to generate various visual information such as shape information, spatial information, and global information, and generates composite information based on the visual information. , Target information corresponding to the requested information transmitted from the sensory path determination module 120 is extracted from the generated shape information, spatial information, global information, and composite information, and the extracted target information is transmitted to the alternative signal generation module 150. do. Also, the target information extraction module 140' may transmit the target information to the control and output module 160. The target information extraction module 140' includes the shape information generator 131, spatial information generator 132, global information generator 133, complex information generator 141, and target information to perform the above functions. It is composed of an extraction unit 142, and the functions of each component of the target information extraction module 140' are the same as those described above with reference to FIG. 2.

한편, 시각정보의 감각 치환 및 다중경로 전달 장치(100')에 포함된 입력 모듈(110), 감각경로 결정 모듈(120), 대체신호 생성 모듈(150)과 제어 및 출력 모듈(160)의 기능은 도 1 내지 도 3에서 전술한 내용과 동일하므로 그 설명을 생략한다.Meanwhile, functions of the input module 110, the sensory path determination module 120, the alternative signal generation module 150, and the control and output module 160 included in the device 100' for sensory substitution and multipath transmission of visual information Since is the same as the above in FIGS. 1 to 3, the description thereof is omitted.

도 5(도 5a 및 도 5b)는 본 발명의 일 실시예에 따른 시각정보의 감각 치환 및 다중경로 전달 방법을 설명하기 위한 흐름도이다.5 ( FIGS. 5A and 5B ) is a flowchart for explaining a method for sensory substitution and multipath transfer of visual information according to an embodiment of the present invention.

본 발명에 따른 시각정보의 감각 치환 및 다중경로 전달 방법은 S210 단계 내지 S280 단계를 포함한다.The sensory substitution and multipath transfer method of visual information according to the present invention includes steps S210 to S280.

S210 단계는 요청정보 추출 단계이다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 사용자 입력 정보를 수신하는데, 사용자 입력 정보에는 요청정보(사용자가 전달받기를 원하는 시각정보의 유형을 나타내는 정보), 요청감각 정보(요청정보 전달의 매개가 되는 감각에 대한 정보), 전달 강도 정보 등이 포함될 수 있다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 사용자 입력 정보에서 요청정보를 추출할 수 있다.Step S210 is a request information extraction step. The sensory permutation and multipath transmission of visual information (100, 100′) receives user input information, and the user input information includes request information (information indicating the type of visual information the user wants to receive), requested sensory information ( Information about senses that are mediators of request information delivery), transmission strength information, and the like may be included. The apparatuses 100 and 100' for sensory substitution and multipath delivery of visual information may extract requested information from user input information.

S220 단계는 영상정보 분할 단계(시각정보 생성 단계)이다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 외부에서 영상정보를 수집한다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 영상정보 수집을 위해 RGB 카메라, 깊이 카메라(3D depth camera), ToF(Time-of-Flight) 이미지센서 또는 적외선카메라 등을 이용할 수 있다. 영상정보에는 정지 이미지 및 연속 이미지(동영상) 중 적어도 어느 하나가 포함될 수 있다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 영상정보를 분할하여 형태정보, 공간정보, 전역정보 등의 시각정보를 생성하며, 생성된 시각정보를 기초로 복합정보를 생성한다. 전술한 바와 같이, 본 발명은 형태정보, 공간정보, 전역정보 및 복합정보 등 영상정보를 기초로 생성된 정보를 '시각정보'로 통칭한다.Step S220 is an image information division step (visual information generation step). Sensory substitution of visual information and multi-path delivery devices 100 and 100' collect image information from the outside. Sensory substitution of visual information and multi-path delivery devices (100, 100') may use an RGB camera, a 3D depth camera, a Time-of-Flight (ToF) image sensor, or an infrared camera to collect image information. there is. The image information may include at least one of still images and continuous images (moving images). Sensory substitution of visual information and multi-path delivery devices (100, 100') generate visual information such as shape information, spatial information, and global information by segmenting image information, and create composite information based on the generated visual information. . As described above, in the present invention, information generated based on image information, such as shape information, spatial information, global information, and composite information, is collectively referred to as 'visual information'.

S230 단계는 목표정보를 추출하는 단계이다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 요청정보 분석을 거쳐 S220 단계에서 생성된 각 시각정보의 필요 여부를 판단하고, 요청정보에 부합하는 시각정보, 즉 목표정보를 추출한다. 요청정보에 따라 필요한 정보가 복합적으로 나타날 수 있으므로, 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 요청정보에 따라 필요한 형태정보를 먼저 추출하고, 그 다음으로 요청정보에 해당하는 공간정보를 추출하며, 요청정보와 전역정보/복합정보의 연관성을 분석하여 필요한 경우 전역정보 또는 복합정보를 추출한다. 그리고, 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 추출한 시각정보(형태정보, 공간정보, 전역정보 및 복합정보)를 목표정보로 정한다.Step S230 is a step of extracting target information. Sensory substitution of visual information and multi-path delivery device (100, 100') determines whether each visual information generated in step S220 is necessary through analysis of the requested information, and extracts visual information that meets the requested information, that is, target information do. Since necessary information may appear in a complex manner according to the requested information, the sensory substitution and multi-path transmission apparatus 100, 100' of visual information first extracts necessary form information according to the requested information, and then extracts the information corresponding to the requested information. Spatial information is extracted, and the correlation between requested information and global/composite information is analyzed to extract global or composite information if necessary. In addition, the apparatuses 100 and 100' for sensory substitution and multi-path transmission of visual information set the extracted visual information (shape information, spatial information, global information, and composite information) as target information.

S230 단계는 도 5b를 참조하여 하기에 상세하게 설명한다. S230 단계는 S231 단계 내지 S237 단계를 포함한다.Step S230 will be described in detail below with reference to FIG. 5B. Step S230 includes steps S231 to S237.

S231 단계는 요청정보 분석 단계이다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 요청정보를 분석하여 필요한 정보를 구체화한다. 예를 들어, 본 발명이 가상 현실의 서바이벌 게임에 적용된 경우, 사용자 입력(화면이나 버튼 터치)에 기초하여 요청정보가 '사람'으로 결정된 경우, 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 요청정보와 연관성이 있는 시각정보로서 모양, 외곽선(테두리), 위치, 거리, 경로 등을 도출할 수 있다. 이러한 결과에 기초하여, 표 1을 기준으로 하는 경우, 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 이후의 단계(S232 단계, S234 단계, S236 단계)에서 형태 정보(모양, 외곽선), 공간 정보(위치, 거리), 복합 정보(경로)가 필요하다고 판단할 수 있다.Step S231 is a request information analysis step. The apparatuses 100 and 100' for sensory substitution and multipath delivery of visual information analyze the requested information and materialize necessary information. For example, when the present invention is applied to a survival game in virtual reality, when the requested information is determined to be 'human' based on a user input (screen or button touch), sensory substitution of visual information and multi-path transmission device 100, 100') is visual information that is related to the requested information, and can derive a shape, an outline (border), a location, a distance, a route, and the like. Based on these results, based on Table 1, the sensory substitution of visual information and the multi-path delivery device 100, 100' provide shape information (shape, Outline), spatial information (location, distance), and complex information (route) may be determined to be necessary.

S232 단계는 형태정보의 필요 여부를 판단하는 단계이다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 요청정보 분석 결과 형태정보가 필요하면 S233 단계로, 그렇지 않은 경우 S234 단계를 수행한다.Step S232 is a step of determining whether shape information is required. The apparatuses 100 and 100' for sensory substitution and multipath transmission of visual information perform step S233 if shape information is required as a result of analyzing the requested information, and step S234 otherwise.

S233 단계는 형태정보 추출 단계이다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 S220 단계에서 생성된 시각정보 중에서 요청정보에 부합하는 형태정보를 추출한 후, S234 단계로 진행한다.Step S233 is a step of extracting shape information. The apparatuses 100 and 100' for sensory substitution and multipath transmission of visual information extract form information corresponding to the requested information from among the visual information generated in step S220, and then proceed to step S234.

S234 단계는 공간정보의 필요 여부를 판단하는 단계이다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 목표정보 분석 결과 공간정보가 필요하면 S235 단계로, 그렇지 않은 경우 S236 단계를 수행한다.Step S234 is a step of determining whether spatial information is needed. The apparatuses 100 and 100' for sensory substitution and multipath delivery of visual information perform step S235 if spatial information is required as a result of analyzing the target information, and step S236 otherwise.

S235 단계는 공간정보 추출 단계이다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 S220 단계에서 생성된 시각정보 중에서 요청정보에 부합하는 공간정보를 추출한 후, S236 단계로 진행한다.Step S235 is a spatial information extraction step. The apparatuses 100 and 100' for sensory substitution and multipath transmission of visual information extract spatial information corresponding to the requested information from among the visual information generated in step S220, and then proceed to step S236.

S236 단계는 전역정보/복합정보의 필요 여부를 판단하는 단계이다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 목표정보 분석 결과 전역정보나 복합정보가 필요하면 S237 단계로, 그렇지 않은 경우 S240 단계로 진행한다.Step S236 is a step of determining whether global information/composite information is necessary. The apparatuses 100 and 100' for sensory substitution and multipath delivery of visual information proceed to step S237 if global information or complex information is required as a result of analyzing the target information, and otherwise proceed to step S240.

S237 단계는 전역정보/복합정보 추출 단계이다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 S220 단계에서 생성된 시각정보 중에서 요청정보에 부합하는 전역정보 또는 복합정보를 추출한 후, S240 단계로 진행한다.Step S237 is a global information/composite information extraction step. The apparatuses 100 and 100' for sensory substitution and multipath transmission of visual information extract global information or composite information corresponding to the requested information from among the visual information generated in step S220, and then proceed to step S240.

다시 도 5a로 돌아와, 하기와 같이 S240 단계 이하의 단계에 대하여 설명한다.Returning to FIG. 5A again, steps below step S240 will be described as follows.

S240 단계는 감각경로를 결정하는 단계이다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 사용자 입력 정보에 포함된 요청감각 정보에 따라 감각경로를 결정할 수 있지만, 사용자 입력 정보에 포함된 요청정보에 따라 감각경로를 결정할 수도 있다. 또한, 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 목표정보에 따라 감각경로를 결정할 수도 있다.Step S240 is a step of determining a sensory pathway. The sensory permutation and multipath transmission of visual information (100, 100') may determine a sensory pathway according to requested sensory information included in user input information, but may also determine a sensory pathway according to requested information included in user input information. there is. In addition, the apparatus 100, 100' for sensory substitution and multipath transmission of visual information may determine a sensory pathway according to target information.

시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 목표정보별로 감각경로를 결정할 수 있는데, 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 목표정보와 감각경로를 매칭하기 위하여 요청정보 또는 목표정보를 이용할 수 있다.The sensory substitution and multipath transmission devices 100 and 100' of visual information may determine sensory pathways for each target information. Request information or target information may be used for matching.

S250 단계는 목표정보를 변환하여 대체신호를 생성하는 단계이다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 S230 단계에서 추출한 목표정보를 그와 대응하는 대체신호로 변환한다. 상기 대체신호는 목표정보를 사용자의 감각기관에 전달하기 위한 신호로서, 시각 신호, 청각 신호, 촉각 신호 또는 열감 신호일 수 있다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 단일한 목표정보를 여러 대체신호로 변환할 수도 있고, 복수의 목표정보를 목표정보 각각에 대응하는 개별적인 대체신호로 변환할 수도 있다. 예를 들어, 하나의 목표정보가 음파, 촉각 신호 및 열감 신호 등 복수의 대체신호로 변환될 수 있고, 3개의 목표정보가 각각 음파, 촉각 신호, 열감 신호로 변환될 수 있다.Step S250 is a step of generating an alternative signal by converting target information. The apparatuses 100 and 100' for sensory substitution and multipath transmission of visual information convert the target information extracted in step S230 into an alternative signal corresponding thereto. The alternative signal is a signal for transmitting target information to the user's sensory organs, and may be a visual signal, an auditory signal, a tactile signal, or a heat sensation signal. The sensory substitution of visual information and the multi-path transmission apparatus 100, 100' may convert single target information into several alternative signals or convert a plurality of target information into individual alternative signals corresponding to each target information. . For example, one piece of target information may be converted into a plurality of alternative signals such as a sound wave, a tactile signal, and a heat sensation signal, and three pieces of target information may be converted into sound waves, a tactile signal, and a heat sensation signal, respectively.

S260 단계는 대체신호 동기화 단계이다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 목표정보와 목표정보별 감각 경로를 기초로 S250 단계에서 생성된 복수의 대체신호들을 동기화한다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')은 목표정보별 감각 경로에 기초하여 목표정보별로 ① 감각별 정보변환시간(Tc), ② 감각별 전달시간(Tt), ③ 전달장치의 지연시간(Td) 및 ④ 감각기관별 인지시간(Tp)을 산출하고, 산출된 ① 내지 ④ 시간 정보를 기초로 복수의 대체신호에 대한 동기화를 수행한다. 동기화 시점 판단에 있어서 전술한 수학식 1이 사용될 수 있다.Step S260 is an alternative signal synchronization step. The apparatuses 100 and 100' for sensory substitution and multipath delivery of visual information synchronize the plurality of substitute signals generated in step S250 based on the target information and the sensory pathways for each target information. Sensory substitution and multi-path delivery devices (100, 100') of visual information are based on sensory pathways for each target information, ① information conversion time for each sense (T c ), ② transfer time for each sense (T t ), ③ The delay time (T d ) of the transmission device and the recognition time (T p ) for each sensory organ are calculated, and synchronization is performed for a plurality of alternative signals based on the calculated time information from ① to ④. In determining the synchronization time point, Equation 1 described above may be used.

S270 단계는 대체신호 보정 단계이다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 영상정보 및 사용자 행동에 따라 대체신호의 특성(예:강도) 또는 종류를 보정한다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 상기 영상정보에 대한 분석을 통해 상기 사용자 행동을 인식할 수 있다. 또한, 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 영상정보 입력장치의 위치와 대체신호 전달 장치의 위치에 기초하여 대체신호를 보정할 수 있다. 예를 들어, 영상정보가 입력되는 카메라가 목걸이에 있고, 목표정보는 객체의 위치 정보와 거리 정보이며, 상기 위치 정보가 손에 부착된 진동 장치를 통해 사용자에게 전달되는 경우, 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 카메라의 위치와 진동 장치의 위치 간의 위치의 차이에 기초하여 진동 장치로 전달되는 촉각 신호(진동 신호)를 보정한다. 이 경우 카메라의 위치와 진동 장치의 위치는 3차원 좌표로 표현될 수 있고, 두 위치 간의 차이는 3차원 벡터로 표현될 수 있다.Step S270 is an alternative signal correction step. Sensory substitution of visual information and multi-path delivery devices (100, 100') correct characteristics (eg, intensity) or types of alternative signals according to image information and user behavior. The apparatuses 100 and 100' for sensory substitution and multi-path transmission of visual information may recognize the user's behavior through analysis of the image information. In addition, the sensory substitution and multi-path transmission devices 100 and 100' of visual information may correct an alternative signal based on the location of the image information input device and the location of the alternative signal transmission device. For example, when a camera into which image information is input is located on a necklace, target information is location information and distance information of an object, and the location information is transmitted to the user through a vibration device attached to the hand, sensory substitution of visual information and the multi-path transmission devices 100 and 100' correct a tactile signal (vibration signal) transmitted to the vibration device based on a positional difference between the position of the camera and the position of the vibration device. In this case, the position of the camera and the position of the vibration device may be expressed as 3D coordinates, and a difference between the two positions may be expressed as a 3D vector.

S280 단계는 대체신호 출력 단계이다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 대체신호의 동기화 시점을 참조하여 각 대체신호에 대하여 단일 또는 복수의 경로를 설정하고, 설정된 전달 경로를 통해 대체신호를 사용자에 부착된 장치에 출력한다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')은 단일 정보를 복수의 전달 경로로 사용자에게 전달할 수도 있고, 복수의 정보를 서로 구분된 다른 경로로 사용자에게 전달할 수도 있다. 시각정보의 감각 치환 및 다중경로 전달 장치(100)는 동기신호에 따라 순차적으로 대체신호를 출력한다.Step S280 is an alternative signal output step. The sensory substitution and multi-path transmission device for visual information (100, 100') sets a single or multiple paths for each alternative signal by referring to the synchronization time of the alternative signal, and attaches the alternative signal to the user through the set transmission path. output to the device. The apparatuses 100 and 100' for sensory substitution and multi-path delivery of visual information may deliver single information to the user through a plurality of delivery routes or deliver a plurality of information to the user through different routes separated from each other. The apparatus 100 for transmitting sensory substitution and multipath of visual information sequentially outputs substitution signals according to synchronization signals.

한편 도 5(도 5a 및 도 5b)를 참조한 설명에서, 각 단계는 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. 아울러, 기타 생략된 내용이라 하더라도 도 1 내지 도 4의 내용은 도 5의 내용에 적용될 수 있다. 또한, 도 5의 내용은 도 1 내지 도 4의 내용에 적용될 수 있다.Meanwhile, in the description with reference to FIG. 5 ( FIGS. 5A and 5B ), each step may be further divided into additional steps or combined into fewer steps, depending on an embodiment of the present invention. Also, some steps may be omitted if necessary, and the order of steps may be changed. In addition, even if other omitted contents, the contents of FIGS. 1 to 4 may be applied to the contents of FIG. 5 . In addition, the contents of FIG. 5 may be applied to the contents of FIGS. 1 to 4 .

전술한 시각정보의 감각 치환 및 다중경로 전달 방법은 도면에 제시된 흐름도를 참조로 하여 설명되었다. 간단히 설명하기 위하여 상기 방법은 일련의 블록들로 도시되고 설명되었으나, 본 발명은 상기 블록들의 순서에 한정되지 않고, 몇몇 블록들은 다른 블록들과 본 명세서에서 도시되고 기술된 것과 상이한 순서로 또는 동시에 일어날 수도 있으며, 동일한 또는 유사한 결과를 달성하는 다양한 다른 분기, 흐름 경로, 및 블록의 순서들이 구현될 수 있다. 또한, 본 명세서에서 기술되는 방법의 구현을 위하여 도시된 모든 블록들이 요구되지 않을 수도 있다.The sensory substitution and multi-path transmission method of the above-described visual information has been described with reference to the flow chart presented in the drawings. For simplicity, the method is shown and described as a series of blocks, but the invention is not limited to the order of the blocks, and some blocks may occur in a different order or concurrently with other blocks than shown and described herein. and various other branches, flow paths, and sequences of blocks that achieve the same or similar results may be implemented. Also, not all blocks shown may be required for implementation of the methods described herein.

참고로, 본 발명의 실시예에서 사용되는 '~부' 또는 '~모듈'이라는 용어는 소프트웨어 또는 FPGA또는 ASIC과 같은 하드웨어 구성요소일 수 있고, 어떤 역할들을 수행하지만, 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. 모듈 각각의 동작은 하나의 하드웨어를 통해 수행될 수 있고, 각기 다른 하드웨어를 통해 수행될 수도 있다. 복수의 모듈의 동작이 하나의 하드웨어를 통해 수행될 수 있고, 하나의 모듈의 동작이 복수의 하드웨어를 통해 수행될 수도 있다.For reference, the terms '~unit' or '~module' used in the embodiments of the present invention may be software or hardware components such as FPGAs or ASICs, and perform certain roles, but are limited to software or hardware. is not Each operation of the module may be performed through one hardware or may be performed through different hardware. Operations of a plurality of modules may be performed through one hardware, and operations of one module may be performed through a plurality of hardware.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will variously modify and change the present invention within the scope not departing from the spirit and scope of the present invention described in the claims below. You will understand that it can be done.

100, 100': 시각정보의 감각 치환 및 다중경로 전달 장치
110: 입력 모듈
111: 사용자 입력부
112: 사용자 입력 정보 처리부
113: 영상 입력부
120: 감각경로 결정 모듈
130: 영상정보 분할 모듈
131: 형태정보 생성부
132: 공간정보 생성부
133: 전역정보 생성부
140, 140': 목표정보 추출 모듈
141: 복합정보 생성부
142: 시각정보 추출부
150: 대체신호 생성 모듈
151: 제1 정보변환부
152: 제2 정보변환부
153: 제3 정보변환부
160: 제어 및 출력 모듈
161: 시간 분석부
162: 전달신호 동기화부
163: 대체신호 보정부
164: 전달경로 설정부
165: 다중경로 출력부
100, 100': sensory substitution of visual information and multi-path transmission device
110: input module
111: user input unit
112: user input information processing unit
113: video input unit
120: sensory pathway determination module
130: image information segmentation module
131: form information generation unit
132: spatial information generator
133: global information generation unit
140, 140': target information extraction module
141: complex information generation unit
142: visual information extraction unit
150: alternative signal generation module
151: first information conversion unit
152: second information conversion unit
153: third information conversion unit
160: control and output module
161: time analysis unit
162: transmission signal synchronization unit
163: alternative signal correction unit
164: delivery route setting unit
165: multipath output unit

Claims (18)

사용자 입력 정보에 기초하여 외부에서 수신한 영상정보에서 사용자가 요청하는 유형에 해당하는 정보를 추출하는 목표정보 추출 모듈;
상기 사용자 입력 정보에 기초하여 상기 추출된 정보가 전달되는 적어도 하나의 감각경로를 결정하는 감각경로 결정 모듈;
상기 추출된 정보를 변환하여 상기 적어도 하나의 감각경로 각각에 대응하는 대체신호를 생성하는 대체신호 생성 모듈; 및
상기 대체신호를 상기 사용자의 감각신호 전달 장치를 통해 출력하는 제어 및 출력 모듈;
을 포함하고,
상기 유형은 상기 사용자 입력 정보에 포함되는 것
인 시각정보의 감각 치환 및 다중경로 전달 장치.
A target information extraction module for extracting information corresponding to a type requested by a user from image information received from the outside based on user input information;
a sensory path determining module configured to determine at least one sensory path through which the extracted information is transmitted based on the user input information;
an alternative signal generation module for generating an alternative signal corresponding to each of the at least one sensory pathway by converting the extracted information; and
a control and output module for outputting the alternative signal through the user's sensory signal transmission device;
including,
The type is included in the user input information
A device for sensory substitution and multipath transmission of human visual information.
제1항에 있어서, 상기 적어도 하나의 감각경로는,
복수 개의 감각경로이고,
상기 대체신호 생성 모듈은,
상기 추출된 정보를 변환하여 상기 복수의 감각경로 각각에 대응하는 대체신호를 생성하는 것
인 시각정보의 감각 치환 및 다중경로 전달 장치.
The method of claim 1, wherein the at least one sensory pathway,
multiple sensory pathways,
The alternative signal generation module,
converting the extracted information to generate an alternative signal corresponding to each of the plurality of sensory pathways;
A device for sensory substitution and multipath transmission of human visual information.
제2항에 있어서, 상기 복수 개의 감각경로는,
시각, 청각, 촉각 및 열감 중 적어도 2개 이상의 감각에 해당하는 감각경로를 포함하는 것
인 시각정보의 감각 치환 및 다중경로 전달 장치.
The method of claim 2, wherein the plurality of sensory pathways,
Including sensory pathways corresponding to at least two or more senses among sight, hearing, touch and heat
A device for sensory substitution and multipath transmission of human visual information.
제1항에 있어서, 상기 목표정보 추출 모듈은,
상기 영상정보를 분석하여 형태정보, 공간정보, 전역정보 및 복합정보 중 적어도 어느 하나를 포함하는 전체 시각정보를 생성하고,
상기 사용자 입력 정보에 기초하여 상기 전체 시각정보 중에서 상기 유형에 해당하는 정보를 추출하는 것
인 시각정보의 감각 치환 및 다중경로 전달 장치.
The method of claim 1, wherein the target information extraction module,
Analyzing the image information to generate overall visual information including at least one of shape information, spatial information, global information, and composite information;
Extracting information corresponding to the type from among the total visual information based on the user input information
A device for sensory substitution and multipath transmission of human visual information.
제2항에 있어서, 상기 제어 및 출력 모듈은,
상기 영상정보의 프레임을 기준으로 상기 복수 개의 감각경로 각각에 대응하는 대체신호들을 동기화하고, 상기 동기화된 대체신호를 상기 감각신호 전달 장치를 통해 출력하는 것
인 시각정보의 감각 치환 및 다중경로 전달 장치.
The method of claim 2, wherein the control and output module,
Synchronizing alternative signals corresponding to each of the plurality of sensory pathways based on a frame of the image information, and outputting the synchronized alternative signals through the sensory signal transmission device.
A device for sensory substitution and multipath transmission of human visual information.
제1항에 있어서, 상기 제어 및 출력 모듈은,
상기 영상정보를 기초로 상기 사용자의 행동을 인식하고, 상기 사용자의 행동에 기초하여 상기 대체신호의 특성을 보정하며, 상기 보정된 대체신호를 상기 감각신호 전달 장치를 통해 출력하는 것
인 시각정보의 감각 치환 및 다중경로 전달 장치.
The method of claim 1, wherein the control and output module,
Recognizing the user's behavior based on the image information, correcting characteristics of the alternative signal based on the user's behavior, and outputting the corrected alternative signal through the sensory signal transmission device.
A device for sensory substitution and multipath transmission of human visual information.
제1항에 있어서, 상기 제어 및 출력 모듈은,
상기 영상정보의 입력 장치의 위치와 상기 감각신호 전달 장치의 위치에 기초하여 상기 대체신호의 특성을 보정하며, 상기 보정된 대체신호를 상기 감각신호 전달 장치를 통해 출력하는 것
인 시각정보의 감각 치환 및 다중경로 전달 장치.
The method of claim 1, wherein the control and output module,
Correcting characteristics of the substitute signal based on the position of the image information input device and the position of the sensory signal transmission device, and outputting the corrected substitute signal through the sensory signal transmission device.
A device for sensory substitution and multipath transmission of human visual information.
제1항에 있어서, 상기 사용자 입력 정보는,
전달 강도에 관한 정보를 포함하고,
상기 제어 및 출력 모듈은,
상기 전달 강도에 따라 상기 대체신호의 강도를 보정하며, 상기 보정된 대체신호를 상기 감각신호 전달 장치를 통해 출력하는 것
인 시각정보의 감각 치환 및 다중경로 전달 장치.
The method of claim 1, wherein the user input information,
contains information about the strength of transmission;
The control and output module,
Correcting the strength of the alternative signal according to the transmission strength, and outputting the corrected replacement signal through the sensory signal transmission device.
A device for sensory substitution and multipath transmission of human visual information.
제1항에 있어서, 상기 제어 및 출력 모듈은,
상기 대체신호 생성 모듈에서 상기 추출된 정보를 상기 대체신호로 변환하는 데 소요되는 시간을 산출하고,
상기 대체신호 생성 모듈은,
상기 시간에 기초하여 상기 추출된 정보를 상기 대체신호로 변환하는 과정을 단순화할 것인지 여부를 판단하는 것
인 시각정보의 감각 치환 및 다중경로 전달 장치.
The method of claim 1, wherein the control and output module,
Calculate the time required to convert the extracted information into the alternative signal in the alternative signal generating module;
The alternative signal generation module,
Determining whether to simplify a process of converting the extracted information into the alternative signal based on the time
A device for sensory substitution and multipath transmission of human visual information.
사용자 입력 정보에 기초하여 외부에서 수신한 영상정보에서 사용자가 요청하는 유형에 해당하는 정보를 추출하는 단계;
상기 사용자 입력 정보에 기초하여 상기 추출된 정보가 전달되는 적어도 하나의 감각경로를 결정하는 단계;
상기 추출된 정보를 변환하여 상기 적어도 하나의 감각경로 각각에 대응하는 대체신호를 생성하는 단계; 및
상기 대체신호를 상기 사용자의 감각신호 전달 장치를 통해 출력하는 단계;
를 포함하는 시각정보의 감각 치환 및 다중경로 전달 방법.
Extracting information corresponding to a type requested by a user from image information received from the outside based on user input information;
determining at least one sensory pathway through which the extracted information is transmitted based on the user input information;
generating an alternative signal corresponding to each of the at least one sensory pathway by converting the extracted information; and
outputting the alternative signal through the user's sensory signal transmission device;
Sensory substitution and multi-path transmission method of visual information including.
제10항에 있어서, 상기 적어도 하나의 감각경로는,
복수 개의 감각경로이고,
상기 대체신호를 생성하는 단계는,
상기 추출된 정보를 상기 복수의 감각경로 각각에 대응하는 대체신호를 생성하는 것
인 시각정보의 감각 치환 및 다중경로 전달 방법.
The method of claim 10, wherein the at least one sensory pathway,
multiple sensory pathways,
Generating the replacement signal,
Generating the extracted information into an alternative signal corresponding to each of the plurality of sensory pathways
Sensory substitution and multipath transmission method of human visual information.
제11항에 있어서, 상기 복수 개의 감각경로는,
시각, 청각, 촉각 및 열감 중 적어도 2개 이상의 감각에 해당하는 감각경로를 포함하는 것
인 시각정보의 감각 치환 및 다중경로 전달 방법.
The method of claim 11, wherein the plurality of sensory pathways,
Including sensory pathways corresponding to at least two or more senses among sight, hearing, touch and heat
Sensory substitution and multipath transmission method of human visual information.
제10항에 있어서, 상기 대체신호를 생성하는 단계 이후,
상기 대체신호를 상기 영상정보의 프레임을 기준으로 동기화하는 대체신호 동기화 단계;를 더 포함하는 시각정보의 감각 치환 및 다중경로 전달 방법.
The method of claim 10, after generating the replacement signal,
An alternative signal synchronization step of synchronizing the alternative signal based on the frame of the image information; a sensory substitution and multi-path transmission method of visual information.
제10항에 있어서, 상기 대체신호를 생성하는 단계 이후,
상기 영상정보의 입력 장치의 위치와 상기 감각신호 전달 장치의 위치에 기초하여 상기 대체신호의 특성을 보정하는 대체신호 보정 단계;를 더 포함하고,
상기 출력하는 단계는,
상기 보정된 대체신호를 상기 감각신호 전달 장치를 통하여 출력하는 것
인 시각정보의 감각 치환 및 다중경로 전달 방법.
The method of claim 10, after generating the replacement signal,
Further comprising a substitute signal correction step of correcting the characteristics of the substitute signal based on the position of the image information input device and the position of the sense signal transmission device,
The outputting step is
Outputting the corrected alternative signal through the sensory signal transmission device
Sensory substitution and multipath transmission method of human visual information.
제10항에 있어서, 상기 사용자가 요청하는 유형에 해당하는 정보를 추출하는 단계는,
상기 영상정보를 분석하여 형태정보, 공간정보, 전역정보 및 복합정보 중 적어도 어느 하나를 포함하는 전체 시각정보를 생성하고,
상기 사용자 입력 정보에 기초하여 상기 전체 시각정보 중에서 상기 유형에 해당하는 정보를 추출하는 것
인 시각정보의 감각 치환 및 다중경로 전달 방법.
The method of claim 10, wherein the step of extracting information corresponding to the type requested by the user comprises:
Analyzing the image information to generate overall visual information including at least one of shape information, spatial information, global information, and composite information;
Extracting information corresponding to the type from among the total visual information based on the user input information
Sensory substitution and multipath transmission method of human visual information.
제11항에 있어서, 상기 출력하는 단계는,
상기 영상정보의 프레임을 기준으로 상기 복수 개의 감각경로 각각에 대응하는 대체신호들을 동기화하고, 상기 동기화된 대체신호를 상기 감각신호 전달 장치를 통해 출력하는 것
인 시각정보의 감각 치환 및 다중경로 전달 방법.
The method of claim 11, wherein the outputting step,
Synchronizing alternative signals corresponding to each of the plurality of sensory pathways based on a frame of the image information, and outputting the synchronized alternative signals through the sensory signal transmission device.
Sensory substitution and multipath transmission method of human visual information.
제10항에 있어서, 상기 사용자 입력 정보는,
전달 강도에 관한 정보를 포함하고,
상기 대체신호를 생성하는 단계는,
상기 전달 강도를 반영하여 상기 대체신호의 강도를 보정하는 것
인 시각정보의 감각 치환 및 다중경로 전달 방법.
The method of claim 10, wherein the user input information,
contains information about the strength of transmission;
Generating the replacement signal,
Correcting the intensity of the replacement signal by reflecting the transmission intensity
Sensory substitution and multipath transmission method of human visual information.
제10항에 있어서, 상기 대체신호를 생성하는 단계는,
상기 추출된 정보를 상기 대체신호로 변환하는 데 소요되는 시간을 산출하고,
상기 시간에 기초하여 상기 추출된 정보를 상기 대체신호로 변환하는 과정을 단순화할 것인지 여부를 판단하고, 그 판단 결과에 기초하여 상기 추출된 정보를 변환하여 상기 대체신호를 생성하는 것
인 시각정보의 감각 치환 및 다중경로 전달 방법.
11. The method of claim 10, wherein generating the replacement signal comprises:
Calculate the time required to convert the extracted information into the alternative signal;
Determining whether to simplify the process of converting the extracted information into the alternative signal based on the time, and generating the alternative signal by converting the extracted information based on the determination result
Sensory substitution and multipath transmission method of human visual information.
KR1020220081959A 2021-10-01 2022-07-04 Apparatus and method for sensory substitution and multi-path transmission of visual information KR20230047889A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/952,493 US20230103788A1 (en) 2021-10-01 2022-09-26 Apparatus and method for sensory substitution and multi-path transmission of visual information

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20210130969 2021-10-01
KR1020210130969 2021-10-01

Publications (1)

Publication Number Publication Date
KR20230047889A true KR20230047889A (en) 2023-04-10

Family

ID=85984603

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220081959A KR20230047889A (en) 2021-10-01 2022-07-04 Apparatus and method for sensory substitution and multi-path transmission of visual information

Country Status (1)

Country Link
KR (1) KR20230047889A (en)

Similar Documents

Publication Publication Date Title
KR102615844B1 (en) A portable system that allows blind or visually impaired people to understand their surroundings through sound or touch.
CN204744865U (en) Device for environmental information around reception and registration of visual disability personage based on sense of hearing
CN110413108B (en) Virtual picture processing method, device and system, electronic equipment and storage medium
JP2014508596A (en) Optical device for individuals with visual impairment
US11943602B1 (en) Systems and methods for spatial update latency compensation for head-tracked audio
Ni et al. A walking assistant robotic system for the visually impaired based on computer vision and tactile perception
KR101083824B1 (en) stereo camera system and parallax detection method using thereof
CN108919498A (en) A kind of augmented reality glasses based on multi-modality imaging and Multilayer Perception
CN110717344A (en) Auxiliary communication system based on intelligent wearable equipment
KR20210008062A (en) Personalizing the head transfer function using simulation
EP3058926A1 (en) Method of transforming visual data into acoustic signals and aid device for visually impaired or blind persons
US20150070477A1 (en) Image processing device, image processing method, and program
Bologna et al. On the use of the auditory pathway to represent image scenes in real-time
Hoang et al. Obstacle detection and warning for visually impaired people based on electrode matrix and mobile Kinect
KR20230047889A (en) Apparatus and method for sensory substitution and multi-path transmission of visual information
KR102305403B1 (en) Method of detection gesture of wearable augmented reality device using depth map and wearable augmented reality device capable of detecting gesture using depth map
CN113674593A (en) Head-wearing forehead machine system for touch display
Bologna et al. Toward local and global perception modules for vision substitution
US20230103788A1 (en) Apparatus and method for sensory substitution and multi-path transmission of visual information
Fusiello et al. A multimodal electronic travel aid device
CN106726378A (en) Blind person's Circuit Finder based on stereoscopic vision and electroluminescent tactile array
KR20120017183A (en) Visual aid system based on the analysis of visual attention and visual aiding method for using the analysis of visual attention
US11250675B2 (en) Systems and methods for characterization of mechanical impedance of biological tissues
KR20160090781A (en) Apparatus for Converting Video Signal to Sound Method for Converting Video Signal into Voice Signal for the Visually Impaired
CN113362243A (en) Model training method, image processing method and apparatus, medium, and electronic device