KR20230047889A - Apparatus and method for sensory substitution and multi-path transmission of visual information - Google Patents
Apparatus and method for sensory substitution and multi-path transmission of visual information Download PDFInfo
- Publication number
- KR20230047889A KR20230047889A KR1020220081959A KR20220081959A KR20230047889A KR 20230047889 A KR20230047889 A KR 20230047889A KR 1020220081959 A KR1020220081959 A KR 1020220081959A KR 20220081959 A KR20220081959 A KR 20220081959A KR 20230047889 A KR20230047889 A KR 20230047889A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- sensory
- signal
- user
- alternative
- Prior art date
Links
- 230000001953 sensory effect Effects 0.000 title claims abstract description 280
- 230000000007 visual effect Effects 0.000 title claims abstract description 206
- 238000006467 substitution reaction Methods 0.000 title claims abstract description 97
- 238000000034 method Methods 0.000 title claims abstract description 67
- 230000005540 biological transmission Effects 0.000 title claims description 116
- 238000000605 extraction Methods 0.000 claims abstract description 52
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 claims abstract description 43
- 230000009155 sensory pathway Effects 0.000 claims description 49
- 239000002131 composite material Substances 0.000 claims description 32
- 230000008054 signal transmission Effects 0.000 claims description 22
- 238000012937 correction Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 11
- 230000001360 synchronised effect Effects 0.000 claims description 7
- 238000012546 transfer Methods 0.000 abstract description 32
- 238000006243 chemical reaction Methods 0.000 description 50
- 238000005516 engineering process Methods 0.000 description 23
- 239000000284 extract Substances 0.000 description 23
- 210000000697 sensory organ Anatomy 0.000 description 22
- 230000035807 sensation Effects 0.000 description 21
- 230000011218 segmentation Effects 0.000 description 16
- 241001465754 Metazoa Species 0.000 description 11
- 230000006399 behavior Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000008451 emotion Effects 0.000 description 8
- 230000008447 perception Effects 0.000 description 6
- 210000004556 brain Anatomy 0.000 description 5
- 230000001771 impaired effect Effects 0.000 description 5
- 230000010365 information processing Effects 0.000 description 5
- 230000035945 sensitivity Effects 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 4
- 230000036651 mood Effects 0.000 description 4
- 210000000707 wrist Anatomy 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 210000000056 organ Anatomy 0.000 description 3
- 210000002265 sensory receptor cell Anatomy 0.000 description 3
- 102000027509 sensory receptors Human genes 0.000 description 3
- 108091008691 sensory receptors Proteins 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000007654 immersion Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000015541 sensory perception of touch Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000008595 infiltration Effects 0.000 description 1
- 238000001764 infiltration Methods 0.000 description 1
- 230000001483 mobilizing effect Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000007383 nerve stimulation Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000009023 proprioceptive sensation Effects 0.000 description 1
- 102000005962 receptors Human genes 0.000 description 1
- 108020003175 receptors Proteins 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000008786 sensory perception of smell Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000004083 survival effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F9/00—Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
- A61F9/08—Devices or methods enabling eye-patients to replace direct visual perception by another kind of perception
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/225—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/52—Scale-space analysis, e.g. wavelet analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
- G09B21/001—Teaching or communicating with blind persons
- G09B21/007—Teaching or communicating with blind persons using both tactile and audible presentation of the information
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Educational Technology (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Ophthalmology & Optometry (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Vascular Medicine (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 발명은 뇌가소성에 기반하여 특정 감각에 관한 정보를 다른 감각 기관이 감지할 수 있는 정보로 치환하여 전달함으로써 뇌가 변환된 신호로부터 상기 특정 감각에 관한 정보를 인지할 수 있게 하는 감각 치환 및 전달 장치 및 방법에 관한 것이다. 본 발명은 단순히 감각 정보를 대체하는 기술은 물론이고, 사용자로 하여금 증강된 감각을 가질 수 있도록, 시각정보를 다양한 감각신호로 전달하는 기술 및 방법을 포함한다.The present invention substitutes and transmits information about a specific sense based on brain plasticity by substituting information that can be sensed by other sensory organs, thereby allowing the brain to recognize information about the specific sense from a converted signal. It relates to an apparatus and method. The present invention includes not only a technology for simply replacing sensory information, but also a technology and method for transmitting visual information as various sensory signals so that a user can have enhanced senses.
일반적으로 감각 치환(sensory substitution)은 사고나 노화로 기능이 손상되거나 저하된 신체의 감각 정보를 다른 감각신호로 변환해서 전달하면 일정기간의 학습과정을 거친 사용자가 원래의 감각 정보를 대체된 신호를 통해 지각할 수 있도록 하는 방법을 의미한다. 이러한 감각 치환 기술은, 사람의 뇌가 새로운 환경에 적응하기 위하여 구조적으로 또는 기능적으로 변화하고 재조직되는 특성, 즉 뇌 가소성(brain plasticity)에 기반하는 것으로 알려져 있다.In general, sensory substitution is when the sensory information of the body whose functions are damaged or deteriorated due to accidents or aging is converted into other sensory signals and transmitted, and the user who has gone through a period of learning process replaces the original sensory information with the sensory information. It means a way to make it perceptible through. It is known that such a sensory substitution technique is based on a characteristic in which the human brain structurally or functionally changes and reorganizes to adapt to a new environment, that is, brain plasticity.
사람이 생활 중에 외부로부터 인지하는 정보의 80%가량이 시각을 통해 이루어진다고 알려져 있다. 따라서 시각은 인체의 감각기관 중에서 가장 중요한 정보수집 기관이며, 시각을 상실한 경우 보행의 불편, 상황 파악의 어려움 등의 문제가 발생한다. 이러한 문제에 대응하기 위하여 시각정보를 다른 감각신호로 변환하여 전달하려는 다양한 연구가 진행되어 왔다.It is known that about 80% of the information that people perceive from the outside in their lives is made through vision. Therefore, vision is the most important information collection organ among the sense organs of the human body, and when vision is lost, problems such as inconvenience in walking and difficulty in grasping situations occur. In order to cope with these problems, various studies have been conducted to convert visual information into other sensory signals and transmit them.
시각정보를 다른 감각신호로 변환하는 기존 방법에는 시각정보를 청각 신호로 변환하는 청각치환 기술과 시각정보를 촉각 신호로 변환하는 촉각치환 기술 등이 있다. 기존의 청각치환이나 촉각치환 기술은 주로 입력 영상을 전처리 과정을 통해 흑백이나 그레이 영상으로 변환한 후 사전에 정의된 규칙에 따라 시각적 신호 이외의 다른 감각신호로 변환하여 전달하는 기술이다.Existing methods for converting visual information into other sensory signals include an auditory replacement technology for converting visual information into an auditory signal and a tactile replacement technology for converting visual information into a tactile signal. Existing auditory or tactile substitution technologies mainly convert input images into black and white or gray images through a pre-processing process, and then convert them into sensory signals other than visual signals according to pre-defined rules and transmit them.
청각치환 기술에서 가장 대표적인 기술인 vOICe는 입력 영상을 그레이 스케일의 64x64 해상도의 2차원 이미지로 변환한 후 시간 축을 기준으로 이미지 프레임을 64개의 열 단위로 구분하여 각 열에서 픽셀의 위치와 밝기 정보를 소리의 주파수, 진폭 등으로 매핑하여 소리 정보를 생성한 후 전달하는 기술이다. 또한, 청각치환 기술 중 EyeMusic은 이미지나 영상을 그레이 스케일로 변환하여 처리함으로써 영상에서 중요한 요소인 색상 정보의 손실이 발생하는 문제를 해결하기 위하여, 입력 영상에서 동일 색상 영역을 군집화해서, 색상마다 다른 악기 소리에 매핑하여 소리 신호로 전달하는 기술이다.vOICe, the most representative technology in auditory replacement technology, converts the input image into a gray scale 64x64 resolution 2D image, divides the image frame into 64 columns based on the time axis, and outputs pixel position and brightness information in each column as sound. It is a technology that generates sound information by mapping it to the frequency and amplitude of the sound and then transmits it. In addition, among auditory replacement technologies, EyeMusic converts images or videos into gray scale and processes them to solve the problem of loss of color information, which is an important element in images, by clustering the same color area in the input image and different colors for each color. It is a technology that maps the sound of an instrument and transmits it as a sound signal.
일반적으로 사람이 인지하는 시각정보에는 윤곽선을 포함한 형태, 객체의 위치, 거리, 색상, 질감, 경로나 방향, 빛의 유무와 분위기 또는 감성까지 다양한 정보가 있다. 그러나 기존의 청각치환 또는 촉각치환 기술들은 시각정보 중에서 형태나 색상 등에 국한된 정보를 다른 감각 정보로 치환하여 제공하므로 다양한 시각정보를 전달할 수 없다. 구체적으로, 시각정보를 다른 감각신호로 대체하여 전달하는 기존의 감각치환 기술은 영상이나 이미지를 사전에 정해진 방법으로 변환하여 단일 감각기관으로 전달함으로써, 다양한 시각정보를 사용자에게 효과적으로 전달할 수 없다는 문제점이 있다.In general, visual information recognized by humans includes a variety of information, including shape including outlines, position of objects, distance, color, texture, path or direction, presence or absence of light, atmosphere, or emotion. However, existing auditory substitution or tactile substitution technologies cannot transmit various visual information because information limited to shape or color among visual information is replaced with other sensory information and provided. Specifically, the existing sensory substitution technology that transmits visual information by replacing it with other sensory signals has a problem in that it cannot effectively convey various visual information to the user by converting images or images in a predetermined way and delivering them to a single sensory organ. there is.
또한, 기존의 감각치환 기술은 신호를 단순하게 전달하는 방식을 따르므로, 사용자가 필요로 하는 시각정보를 선택적으로 전달하지 못한다는 문제점이 있다.In addition, since the existing sensory substitution technology follows a method of simply transmitting signals, there is a problem in that the visual information required by the user cannot be selectively transmitted.
한편, 최근 코로나로 도래된 비대면 사회 및 메타버스로 대변되는 가상/증강 환경에서 시각정보의 효율적인 전달과 사용자의 감각을 증강 내지 향상하기 위한 기술의 필요성이 증가하고 있다. 그런데, 전술한 감각대체 기술은 단순하게 손실된 기능의 제공을 위한 우회적인 경로만을 제공할 수 있다는 한계가 있다.On the other hand, in the virtual/augmented environment represented by the non-face-to-face society and metaverse recently introduced by the corona, the need for technology for efficient transmission of visual information and augmentation or improvement of users' senses is increasing. However, the sensory replacement technology described above has a limitation in that it can provide only a detour path for simply providing lost functions.
또한, 대부분의 감각 정보의 경우 감각 기관의 특성에 따라 감각 수용체가 감지할 수 있는 정보의 양이 제한적일 수 있는데, 기존의 감각치환 기술은 단일한 대체 감각 정보를 활용하기 때문에(단일한 경로로 전달하기 때문에), 영상이나 이미지의 시각정보를 충실히 전달하는 데 한계가 있다.In addition, in the case of most sensory information, the amount of information that can be sensed by sensory receptors may be limited depending on the characteristics of the sensory organ, and since the existing sensory substitution technology utilizes a single alternative sensory information (transmitted through a single path), Therefore, there is a limit to faithfully conveying the visual information of a video or image.
본 발명은 상기와 같은 문제점 및 한계를 극복하기 위하여, 영상이나 이미지에 포함된 다양한 시각정보 중에서 사용자가 전달받기를 원하는 복수의 시각정보를 그 정보의 특성에 적합한 다른 감각신호로 변환하고, 이를 복수 개의 감각기관으로 전달함으로써 사용자에게 효율적으로 시각정보를 전달할 수 있는, 시각정보의 감각 치환 및 다중경로 전달 장치 및 방법을 제공하는 것을 그 목적으로 한다.In order to overcome the above problems and limitations, the present invention converts a plurality of visual information that a user wants to receive among various visual information included in a video or image into other sensory signals suitable for the characteristics of the information, and converts the plurality of visual information into a plurality of sense signals. An object of the present invention is to provide an apparatus and method for sensory substitution and multi-path transmission of visual information, which can efficiently deliver visual information to a user by transmitting it to a dog's sensory organ.
특히, 기존 청각대체 또는 촉각대체 기술들이 시각장애인들의 보행이나 생활에 도움을 주는 것이 주요 목적이었다면, 본 발명은 기존 시각장애인 뿐만 아니라 은밀한 정보의 전달이 필요한 군사작전 및 지하나 심야의 극한 작업환경에서 시각정보를 효율적으로 전달하거나, 메타버스로 대변되는 가상현실이나 증강현실에서 사용자의 체험을 극대화하기 위하여 시각정보를 증강하여 전달할 수 있는 시각정보의 감각 치환 및 다중경로 전달 장치 및 방법을 제공하는 것을 그 목적으로 한다.In particular, if the main purpose of the existing hearing or tactile replacement technologies was to help the visually impaired people walk or live, the present invention is not only for the visually impaired, but also for military operations that require confidential information transmission and in extreme working environments underground or late at night. To efficiently transmit visual information or to maximize the user's experience in virtual reality or augmented reality represented by the metaverse, to provide a device and method for sensory substitution and multipath transmission of visual information that can augment and transmit visual information. for that purpose
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The object of the present invention is not limited to the object mentioned above, and other objects not mentioned will be clearly understood by those skilled in the art from the description below.
본 발명의 일 실시예에 따른 시각정보의 감각 치환 및 다중경로 전달 장치는, 사용자 입력 정보에 기초하여 외부에서 수신한 영상정보에서 사용자가 요청하는 유형에 해당하는 정보를 추출하는 목표정보 추출 모듈; 상기 사용자 입력 정보에 기초하여 상기 추출된 정보가 전달되는 적어도 하나의 감각경로를 결정하는 감각경로 결정 모듈; 상기 추출된 정보를 변환하여 상기 적어도 하나의 감각경로 각각에 대응하는 대체신호를 생성하는 대체신호 생성 모듈; 및 상기 대체신호를 상기 사용자의 감각신호 전달 장치를 통해 출력하는 제어 및 출력 모듈을 포함한다. 상기 유형은 상기 사용자 입력 정보에 포함된다.An apparatus for sensory substitution and multipath transmission of visual information according to an embodiment of the present invention includes a target information extraction module for extracting information corresponding to a type requested by a user from image information received from the outside based on user input information; a sensory path determining module configured to determine at least one sensory path through which the extracted information is transmitted based on the user input information; an alternative signal generation module for generating an alternative signal corresponding to each of the at least one sensory pathway by converting the extracted information; and a control and output module outputting the alternative signal through the user's sensory signal transmission device. The type is included in the user input information.
본 발명의 일 실시예에서, 상기 적어도 하나의 감각경로는 복수 개의 감각경로이고, 상기 대체신호 생성 모듈은, 상기 추출된 정보를 변환하여 상기 복수의 감각경로 각각에 대응하는 대체신호를 생성할 수 있다.In an embodiment of the present invention, the at least one sensory pathway is a plurality of sensory pathways, and the alternative signal generating module may convert the extracted information to generate alternative signals corresponding to each of the plurality of sensory pathways. there is.
본 발명의 일 실시예에서, 상기 복수 개의 감각경로는, 시각, 청각, 촉각 및 열감 중 적어도 2개 이상의 감각에 해당하는 감각경로를 포함할 수 있다.In one embodiment of the present invention, the plurality of sensory pathways may include sensory pathways corresponding to at least two or more senses among sight, hearing, touch, and thermal sensation.
본 발명의 일 실시예에서, 상기 목표정보 추출 모듈은, 상기 영상정보를 분석하여 형태정보, 공간정보, 전역정보 및 복합정보 중 적어도 어느 하나를 포함하는 전체 시각정보를 생성할 수 있고, 상기 사용자 입력 정보에 기초하여 상기 전체 시각정보 중에서 상기 유형에 해당하는 정보를 추출할 수 있다.In one embodiment of the present invention, the target information extraction module may generate total visual information including at least one of shape information, spatial information, global information, and composite information by analyzing the image information, and the user Based on the input information, information corresponding to the type may be extracted from the total visual information.
본 발명의 일 실시예에서, 상기 제어 및 출력 모듈은, 상기 영상정보의 프레임을 기준으로 상기 복수 개의 감각경로 각각에 대응하는 대체신호들을 동기화하고, 상기 동기화된 대체신호를 상기 감각신호 전달 장치를 통해 출력할 수 있다.In one embodiment of the present invention, the control and output module synchronizes the alternative signals corresponding to each of the plurality of sensory pathways based on the frame of the image information, and transmits the synchronized alternative signals to the sensory signal transmission device. can be output through
본 발명의 일 실시예에서, 상기 제어 및 출력 모듈은, 상기 영상정보를 기초로 상기 사용자의 행동을 인식하고, 상기 사용자의 행동에 기초하여 상기 대체신호의 특성을 보정하며, 상기 보정된 대체신호를 상기 감각신호 전달 장치를 통해 출력할 수 있다.In one embodiment of the present invention, the control and output module recognizes the user's behavior based on the image information, corrects characteristics of the alternative signal based on the user's behavior, and corrects the corrected alternative signal. Can be output through the sensory signal transmission device.
본 발명의 일 실시예에서, 상기 제어 및 출력 모듈은, 상기 영상정보의 입력 장치의 위치와 상기 감각신호 전달 장치의 위치에 기초하여 상기 대체신호의 특성을 보정하며, 상기 보정된 대체신호를 상기 감각신호 전달 장치를 통해 출력할 수 있다.In one embodiment of the present invention, the control and output module corrects the characteristics of the substitute signal based on the position of the image information input device and the position of the sensory signal transmission device, and converts the corrected substitute signal into the It can be output through a sensory signal transmission device.
본 발명의 일 실시예에서, 상기 사용자 입력 정보는, 전달 강도에 관한 정보를 포함할 수 있다. 이 경우 상기 제어 및 출력 모듈은, 상기 전달 강도에 따라 상기 대체신호의 강도를 보정하며, 상기 보정된 대체신호를 상기 감각신호 전달 장치를 통해 출력한다.In one embodiment of the present invention, the user input information may include information about transmission strength. In this case, the control and output module corrects the strength of the substitute signal according to the transmission strength, and outputs the corrected substitute signal through the sensory signal transmission device.
본 발명의 일 실시예에서, 상기 제어 및 출력 모듈은, 상기 대체신호 생성 모듈에서 상기 추출된 정보를 상기 대체신호로 변환하는 데 소요되는 시간을 산출할 수 있다. 이 경우, 상기 대체신호 생성 모듈은, 상기 시간에 기초하여 상기 추출된 정보를 상기 대체신호로 변환하는 과정을 단순화할 것인지 여부를 판단한다.In one embodiment of the present invention, the control and output module may calculate the time required to convert the extracted information into the alternative signal by the alternative signal generating module. In this case, the alternative signal generation module determines whether to simplify the process of converting the extracted information into the alternative signal based on the time.
그리고, 본 발명의 일 실시예에 따른 시각정보의 감각 치환 및 다중경로 전달 방법은, 사용자 입력 정보에 기초하여 외부에서 수신한 영상정보에서 사용자가 요청하는 유형에 해당하는 정보를 추출하는 단계; 상기 사용자 입력 정보에 기초하여 상기 추출된 정보가 전달되는 적어도 하나의 감각경로를 결정하는 단계; 상기 추출된 정보를 변환하여 상기 적어도 하나의 감각경로 각각에 대응하는 대체신호를 생성하는 단계; 및 상기 대체신호를 상기 사용자의 감각신호 전달 장치를 통해 출력하는 단계;를 포함한다.Further, a method for sensory substitution and multipath transmission of visual information according to an embodiment of the present invention includes extracting information corresponding to a type requested by a user from image information received from the outside based on user input information; determining at least one sensory pathway through which the extracted information is transmitted based on the user input information; generating an alternative signal corresponding to each of the at least one sensory pathway by converting the extracted information; and outputting the alternative signal through the user's sensory signal transmission device.
본 발명의 일 실시예에서, 상기 적어도 하나의 감각경로는, 복수 개의 감각경로일 수 있다. 이 경우, 상기 대체신호를 생성하는 단계에서, 상기 추출된 정보를 상기 복수의 감각경로 각각에 대응하는 대체신호를 생성할 수 있다.In one embodiment of the present invention, the at least one sensory pathway may be a plurality of sensory pathways. In this case, in the generating of the alternative signal, the extracted information may be used to generate an alternative signal corresponding to each of the plurality of sensory pathways.
본 발명의 일 실시예에서, 상기 복수 개의 감각경로는, 시각, 청각, 촉각 및 열감 중 적어도 2개 이상의 감각에 해당하는 감각경로를 포함할 수 있다.In one embodiment of the present invention, the plurality of sensory pathways may include sensory pathways corresponding to at least two or more senses among sight, hearing, touch, and thermal sensation.
본 발명의 일 실시예에 따른 시각정보의 감각 치환 및 다중경로 전달 방법은, 상기 대체신호를 생성하는 단계 이후, 상기 대체신호를 상기 영상정보의 프레임을 기준으로 동기화하는 대체신호 동기화 단계를 더 포함할 수 있다.The method for transmitting sensory substitution and multipath of visual information according to an embodiment of the present invention further includes an alternative signal synchronization step of synchronizing the alternative signal based on a frame of the image information after the generating of the alternative signal. can do.
본 발명의 일 실시예에 따른 시각정보의 감각 치환 및 다중경로 전달 방법은, 상기 대체신호를 생성하는 단계 이후, 상기 영상정보의 입력 장치의 위치와 상기 감각신호 전달 장치의 위치에 기초하여 상기 대체신호의 특성을 보정하는 대체신호 보정 단계를 더 포함할 수 있다. 이 경우, 상기 출력하는 단계에서, 상기 보정된 대체신호를 상기 감각신호 전달 장치를 통하여 출력한다.In the method for sensory substitution and multi-path transmission of visual information according to an embodiment of the present invention, after the step of generating the substitution signal, the substitution is performed based on the location of the image information input device and the location of the sensory signal transmission device. An alternative signal correction step of correcting the characteristics of the signal may be further included. In this case, in the outputting step, the corrected replacement signal is outputted through the sensory signal transmission device.
본 발명의 일 실시예에서, 상기 사용자가 요청하는 유형에 해당하는 정보를 추출하는 단계에서, 상기 영상정보를 분석하여 형태정보, 공간정보, 전역정보 및 복합정보 중 적어도 어느 하나를 포함하는 전체 시각정보를 생성하고, 상기 사용자 입력 정보에 기초하여 상기 전체 시각정보 중에서 상기 유형에 해당하는 정보를 추출할 수 있다.In one embodiment of the present invention, in the step of extracting the information corresponding to the type requested by the user, the image information is analyzed to provide a total view including at least one of shape information, spatial information, global information, and complex information. Information may be generated, and information corresponding to the type may be extracted from the total visual information based on the user input information.
본 발명의 일 실시예에서, 상기 출력하는 단계에서, 상기 영상정보의 프레임을 기준으로 상기 복수 개의 감각경로 각각에 대응하는 대체신호들을 동기화하고, 상기 동기화된 대체신호를 상기 감각신호 전달 장치를 통해 출력할 수 있다.In one embodiment of the present invention, in the outputting, alternative signals corresponding to each of the plurality of sensory pathways are synchronized based on a frame of the image information, and the synchronized alternative signals are transmitted through the sensory signal transmission device. can be printed out.
본 발명의 일 실시예에서, 상기 사용자 입력 정보는, 전달 강도에 관한 정보를 포함할 수 있다. 이 경우, 상기 대체신호를 생성하는 단계에서, 상기 전달 강도를 반영하여 상기 대체신호의 강도를 보정할 수 있다.In one embodiment of the present invention, the user input information may include information about transmission strength. In this case, in the step of generating the replacement signal, the strength of the replacement signal may be corrected by reflecting the transmission strength.
본 발명의 일 실시예에서, 상기 대체신호를 생성하는 단계에서, 상기 추출된 정보를 상기 대체신호로 변환하는 데 소요되는 시간을 산출하고, 상기 시간에 기초하여 상기 추출된 정보를 상기 대체신호로 변환하는 과정을 단순화할 것인지 여부를 판단하고, 그 판단 결과에 기초하여 상기 추출된 정보를 변환하여 상기 대체신호를 생성할 수 있다.In one embodiment of the present invention, in the step of generating the alternative signal, a time required to convert the extracted information into the alternative signal is calculated, and the extracted information is converted into the alternative signal based on the time. It is possible to determine whether to simplify the conversion process, and to generate the replacement signal by converting the extracted information based on the determination result.
본 발명의 일 실시예에 따르면, 영상으로부터 생성된 형태정보, 공간정보 및 복합정보와 같이 다양한 시각정보 중에서 사용자가 전달받기를 원하는 적어도 일부의 시각정보를 추출하여 사용자 맞춤형 정보를 생성할 수 있다. According to an embodiment of the present invention, user-customized information can be created by extracting at least some of the visual information that the user wants to receive from among various visual information such as shape information, spatial information, and complex information generated from an image.
본 발명의 일 실시예에 따르면, 추출된 시각정보를 시각정보 각각의 특성에 적합한 다른 감각신호로 변환하여 사용자에게 개선된 몰입감을 제공할 수 있다. 본 발명의 일 실시예에 따르면, 추출된 시각정보로부터 변환된 감각신호를 사용자의 행동에 따라 보정하여 사용자에게 개선된 몰입감을 제공할 수 있다.According to an embodiment of the present invention, it is possible to provide an improved sense of immersion to the user by converting the extracted visual information into other sensory signals suitable for each characteristic of the visual information. According to an embodiment of the present invention, a sensory signal converted from the extracted visual information may be corrected according to a user's action to provide an improved sense of immersion to the user.
본 발명의 일 실시예에 따르면, 영상정보로부터 복수의 변환된 감각신호들을 동기화하여 전달함으로써, 사용자가 대체 감각을 통해 필요한 시각정보를 더욱 정확하게 인지하도록 유도할 수 있다.According to an embodiment of the present invention, by synchronizing and transmitting a plurality of converted sensory signals from image information, it is possible to induce a user to more accurately recognize necessary visual information through alternative senses.
그리고, 본 발명을 통해 다양한 시각정보를 정확하게 전달할 수 있으므로, 본 발명은 기존 감각치환 기술의 적용 범위였던 시각장애인의 보행/생활에 대한 지원은 물론이고, 은밀한 정보의 전달이 필요한 군사작전 및 지하나 심야의 극한 작업환경에도 적용할 수 있다는 효과가 있다.In addition, since various visual information can be accurately transmitted through the present invention, the present invention supports the walking / life of the visually impaired, which was the scope of application of the existing sensory replacement technology, as well as military operations and underground or It has the effect of being applicable to the extreme working environment at night.
또한, 본 발명에 따르면, 실감형 가상환경, 증강현실 또는 비대면 사회에서 시각정보를 개인 맞춤형으로 보다 효율적이고 실감나게 전달하여 사용자가 시각정보를 체험할 수 있는 다양한 서비스에 적용할 수 있다는 효과도 있다.In addition, according to the present invention, visual information can be applied to various services in which users can experience visual information by delivering personalized visual information more efficiently and realistically in an immersive virtual environment, augmented reality, or non-face-to-face society. there is.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. will be.
도 1은 본 발명의 일 실시예에 따른 시각정보의 감각 치환 및 다중경로 전달 장치의 구성을 나타낸 블록도.
도 2는 본 발명의 일 실시예에 따른 시각정보의 감각 치환 및 다중경로 전달 장치의 세부 구성을 나타낸 블록도.
도 3은 본 발명에 따른 시각정보의 감각 치환 및 다중경로 전달 개념을 예시적으로 나타낸 도면.
도 4는 본 발명의 다른 실시예에 따른 시각정보의 감각 치환 및 다중경로 전달 장치의 구성을 나타낸 블록도.
도 5(도 5a 및 도 5b)는 본 발명의 일 실시예에 따른 시각정보의 감각 치환 및 다중경로 전달 방법을 설명하기 위한 흐름도.1 is a block diagram showing the configuration of an apparatus for sensory substitution and multipath transmission of visual information according to an embodiment of the present invention.
2 is a block diagram showing the detailed configuration of an apparatus for sensory substitution and multi-path transmission of visual information according to an embodiment of the present invention.
3 is a diagram showing the concept of sensory substitution and multipath transmission of visual information according to the present invention by way of example.
4 is a block diagram showing the configuration of an apparatus for sensory substitution and multi-path transmission of visual information according to another embodiment of the present invention.
5 ( FIGS. 5A and 5B ) is a flowchart illustrating a method for sensory substitution and multipath transfer of visual information according to an embodiment of the present invention;
사람이 눈으로 인지하는 시각정보(視覺情報, visual information)는 영상에 존재하는 객체의 모양과 색상, 빛의 유무와 질감을 포함하는 형태정보, 위치, 거리 및 방향과 같은 기하학적 측면의 공간정보 및 영상 내 존재하는 객체와 배경을 포함하는 영상 전체 영역에서 추출하는 색상, 모양 등의 전역정보와 형태정보, 공간정보 및 전역정보 등 복수의 정보를 활용하여 얻어지는, 경로, 감정 및 분위기 등을 포함하는 복합정보 등으로 구분된다. 그러나 시각정보를 다른 감각에 관한 정보로 변환하는 기존의 감각치환 장치들은 주로 이차원의 컬러 영상정보를 변환하여 전달하였기 때문에 거리감을 사용자에게 전달하기 어렵거나, 입력 영상 전체를 사전에 정해진 방법으로 변환하여 단일 감각기관으로 전달함으로써 사용자가 다양한 시각정보를 효율적으로 전달받기 어려운 단점이 있다. 또한 기존의 감각치환 기술은 주로 시각장애인을 위한 정보의 전달을 목적으로 개발되었기 때문에 다양한 분야에 적용하는 데 어려움이 있다.Visual information perceived by the human eye is shape information including the shape and color of an object existing in an image, presence or absence of light and texture, spatial information in geometric aspects such as location, distance and direction, and Global information such as color and shape extracted from the entire region of the image, including objects and backgrounds existing in the image, and multiple information such as shape information, spatial information, and global information, including path, emotion and atmosphere, etc. It is divided into complex information, etc. However, existing sensory replacement devices that convert visual information into information about other senses mainly convert and transmit two-dimensional color image information, so it is difficult to convey a sense of distance to the user, or it is difficult to convey a sense of distance to the user by converting the entire input image in a predetermined method. There is a disadvantage in that it is difficult for the user to efficiently receive various visual information by transmitting it to a single sensory organ. In addition, existing sensory substitution technologies are mainly developed for the purpose of conveying information for the visually impaired, so it is difficult to apply them to various fields.
영상이나 이미지에 포함되어 있는 다양한 시각정보에 대한 감각치환 기술은 시각장애인 뿐만 아니라 적진 침투나 정찰과 같은 군사분야나 지하나 사고로 인한 정전 등으로 조명이 부재한 상황 및 심야 작업, 일반 산업현장에서 시각정보로 분석한 위험 상황을 작업자에게 안전하게 전달하는 등의 극한환경에서 사용자가 주위 환경을 효율적으로 인지하는데 활용할 수 있다. 또한, 전달되는 시각정보에 따라 변환된 정보를 동기화하여 다양한 경로로 전달함으로써 가상현실이나 증강현실에서 사용자가 시각정보를 보다 실감 있게 느낄 수 있도록 활용할 수 있다.Sensory replacement technology for various visual information included in video or image is used not only for visually impaired people, but also in military fields such as infiltration or reconnaissance, underground or accidental power outages, night work, and general industrial sites. It can be used to efficiently recognize the surrounding environment in extreme environments, such as safely conveying dangerous situations analyzed by visual information to workers. In addition, by synchronizing the information converted according to the transmitted visual information and delivering it through various routes, it can be utilized so that the user can feel the visual information more realistically in virtual reality or augmented reality.
본 발명에 따르면, 사용자가 전달받기를 원하는 복수의 시각정보를 입력받고, 수집된 영상에 포함된 형태정보, 공간정보, 전역정보 및 복합정보 등의 다양한 시각정보 중에서 사용자가 요구하는 정보를 추출한 후, 추출된 정보를 그 특성에 적합한 다른 감각신호로 변환하여 복수의 감각기관으로 전달함으로써 사용자에게 효율적으로 정보를 전달할 수 있다.According to the present invention, a plurality of visual information that a user wants to be received is received, and information requested by the user is extracted from various visual information such as shape information, spatial information, global information, and complex information included in the collected images. However, by converting the extracted information into other sensory signals suitable for its characteristics and delivering them to a plurality of sensory organs, information can be efficiently delivered to the user.
본 발명에 따른, 다양한 시각정보를 다중경로로 전달하기 위한 장치와 방법에 대하여, 시각정보를 청각 신호와 촉각 신호 및 열감 신호로 변환하는 실시 예를 통해 설명한다. 그러나 본 발명의 장치와 방법은 실시예에 따른 변환 방식에 국한하지 않고 다른 감각 정보에도 적용될 수 있다.An apparatus and method for transmitting various visual information through a multi-path according to the present invention will be described through an embodiment in which visual information is converted into an auditory signal, a tactile signal, and a thermal sensation signal. However, the device and method of the present invention are not limited to the conversion method according to the embodiment and can be applied to other sensory information.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성소자, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성소자, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various different forms, only these embodiments make the disclosure of the present invention complete, and common knowledge in the art to which the present invention belongs. It is provided to fully inform the holder of the scope of the invention, and the present invention is only defined by the scope of the claims. Meanwhile, terms used in this specification are for describing the embodiments and are not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase. As used herein, "comprises" and/or "comprising" means that a stated component, step, operation, and/or element is the presence of one or more other components, steps, operations, and/or elements. or do not rule out additions.
본 명세서에서 '요청정보'는 사용자가 관심을 가지는 객체의 종류에 대한 정보 또는 영상정보로부터 사용자가 전달받기를 원하는 시각정보의 유형을 나타내는 정보를 의미한다.In this specification, 'request information' refers to information about the type of object that the user is interested in or information indicating the type of visual information that the user wants to receive from image information.
본 명세서에서 '요청감각 정보'는 사용자가 상기 요청정보를 전달받을 감각에 대하여 요청하는 정보로서, 요청정보 전달의 매개가 되는 감각에 대하여 사용자의 의사가 표현된 정보를 의미한다.In this specification, 'requested sensory information' is information that a user requests for a sense to receive the requested information, and refers to information in which the user's intention is expressed with respect to a sense that is a medium for transmitting the requested information.
본 명세서에서 '전달 강도 정보'는 감각의 전달 강도를 표현하는 정보를 의미한다.In this specification, 'transfer intensity information' refers to information expressing the transfer intensity of sensation.
본 명세서에서 '시각정보(視覺情報, visual information)'는 영상정보를 기초로 생성된 정보를 통칭하는 의미로 사용되며, 형태정보, 공간정보, 전역정보 및 복합정보를 포함할 수 있다. 본 명세서에서 언급되는 시각정보는 색상이나 외곽선과 같이 시각을 통해 인식할 수 있는 정보는 물론이고, 사용자와 객체 간의 거리와 같이 영상정보의 분석을 통해 얻을 수 있는 정보도 포함한다.In this specification, 'visual information' is used as a general term for information generated based on image information, and may include shape information, spatial information, global information, and composite information. Visual information referred to in this specification includes not only visually recognizable information such as colors and outlines, but also information obtained through analysis of image information, such as a distance between a user and an object.
본 명세서에서 '목표정보'는 사용자의 요청정보에 부합하는 시각정보를 의미한다.In this specification, 'target information' refers to visual information that meets the user's requested information.
본 명세서에서 '감각신호'는 본 발명에 따른 감각 치환 및 다중경로 전달 장치가 사용자의 감각기관에 전달하는 신호를 의미한다.In this specification, 'sensory signal' refers to a signal transmitted to the user's sensory organ by the sensory substitution and multipath delivery device according to the present invention.
본 명세서에서 '대체신호'는 목표정보를 대체하는 감각신호이다. 대체신호는, 본 발명에 따른 시각정보의 감각 치환 및 다중경로 전달 장치가, 목표정보를 다른 형태로 변환하여 사용자의 감각기관에 전달하기 위하여 생성한다. 예를 들어, 목표정보가 '공의 색상'이라는 시각정보라면, 그 대체신호는 '공의 색상'에 따라 결정되는, 소정의 온도를 가지는 열감 신호일 수 있다.In this specification, 'alternative signal' is a sensory signal that replaces target information. The alternative signal is generated by the apparatus for sensory substitution and multi-path transmission of visual information according to the present invention to convert target information into another form and transmit it to the user's sensory organs. For example, if the target information is visual information such as 'color of the ball', the replacement signal may be a thermal sensation signal having a predetermined temperature determined according to the 'color of the ball'.
본 명세서에서 '감각기관(sense organ)'은 외부의 자극을 느끼고 받아들이는 인체 기관으로서, 촉각, 온각, 냉각, 통각, 고유감각 등 감각을 받아들이는 다양한 수용체로 구성된 기관을 의미한다.In the present specification, a 'sense organ' is a human body organ that feels and receives external stimuli, and refers to an organ composed of various receptors that accept senses such as touch, warmth, cooling, pain, and proprioception.
본 명세서에서 '감각경로(sensory pathway)'는 사용자의 감각 기관에서 사용자의 뇌의 감각 영역까지 신경 자극이 따라가는 경로를 의미한다. 본 명세서에서, '감각경로를 결정한다'는 것은 목표정보나 대체신호를 전달받을 사용자의 감각 기관을 결정한다는 의미가 된다.In the present specification, a 'sensory pathway' means a path along which nerve stimulation follows from a user's sensory organ to a sensory region of the user's brain. In this specification, 'determining a sensory path' means determining a user's sensory organ to which target information or an alternative signal is to be delivered.
본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In describing the present invention, if it is determined that a detailed description of related known technologies may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted.
본 발명의 실시예를 설명하기에 앞서, 본 발명의 핵심이 되는 동작을 설명한다. 본 발명의 핵심이 되는 동작은 S1 내지 S4의 네 단계로 구성된다.Prior to describing the embodiments of the present invention, the core operation of the present invention will be described. The core operation of the present invention consists of four steps S1 to S4.
S1 단계는 사용자 입력 정보 및 영상정보에 기초하여 목표정보를 생성하는 단계이다. 구체적으로, 본 발명에 따른 시각정보의 감각 치환 및 다중경로 전달 장치는, 사용자 입력 정보에 기초하여, 외부에서 수신한 영상정보로부터 사용자의 요청에 부합하는 시각정보(이하, 목표정보)를 생성한다. 목표정보는 하나일 수도 있으나, 복수 개의 정보일 수도 있다. 즉, 본 발명에 따른 시각정보의 감각 치환 및 다중경로 전달 장치는 사용자 입력 정보 및 영상정보에 기초하여 적어도 하나의 목표정보를 생성한다. 더욱 구체적으로, 본 발명에 따른 시각정보의 감각 치환 및 다중경로 전달 장치는 사용자 입력 정보에서 요청정보를 추출하고, 요청정보에 기초하여 사용자가 원하는 시각정보의 유형을 결정한다. 상기 장치는 결정된 유형에 부합하는 시각정보를 영상정보로부터 추출하여 목표정보를 생성한다.Step S1 is a step of generating target information based on user input information and image information. Specifically, the apparatus for sensory substitution and multipath transmission of visual information according to the present invention generates visual information (hereinafter, target information) meeting a user's request from image information received from the outside, based on user input information. . The target information may be one or may be a plurality of pieces of information. That is, the apparatus for sensory substitution and multipath delivery of visual information according to the present invention generates at least one piece of target information based on user input information and image information. More specifically, the apparatus for sensory substitution and multipath transfer of visual information according to the present invention extracts requested information from user input information and determines the type of visual information desired by the user based on the requested information. The device generates target information by extracting visual information corresponding to the determined type from image information.
S2 단계는 사용자 입력 정보에 기초하여 목표정보가 전달되는 적어도 하나의 감각경로를 결정하는 단계이다. 구체적으로, 본 발명에 따른 시각정보의 감각 치환 및 다중경로 전달 장치는 사용자 입력 정보로부터 요청감각 정보를 파싱/추출하여 목표정보가 전달되는 감각경로를 결정한다. 상기 장치는 목표정보가 전달되는 하나 이상의 감각경로를 결정한다.Step S2 is a step of determining at least one sensory path through which target information is transmitted based on user input information. Specifically, the apparatus for sensory substitution and multipath delivery of visual information according to the present invention parses/extracts requested sensory information from user input information to determine a sensory pathway through which target information is delivered. The device determines one or more sensory pathways through which target information is conveyed.
S3 단계는 목표정보를 S2 단계에서 결정된 감각경로에 대응하는 대체신호로 변환하는 단계이다.Step S3 is a step of converting the target information into an alternative signal corresponding to the sensory path determined in step S2.
S4 단계는 대체신호를 사용자의 감각신호 전달 장치를 통해 출력하는 단계이다.Step S4 is a step of outputting an alternative signal through the user's sensory signal transmission device.
이하, 본 발명의 실시예를 첨부한 도면들을 참조하여 상세히 설명한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면 번호에 상관없이 동일한 수단에 대해서는 동일한 참조 번호를 사용하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In order to facilitate overall understanding in describing the present invention, the same reference numerals will be used for the same means regardless of the drawing numbers.
도 1은 본 발명의 일 실시예에 따른 시각정보의 감각 치환 및 다중경로 전달 장치(100)의 구성을 나타낸 블록도이다.1 is a block diagram showing the configuration of an
본 발명의 일 실시예에 따른 시각정보의 감각 치환 및 다중경로 전달 장치(100)는 입력 모듈(110), 감각경로 결정 모듈(120), 영상정보 분할 모듈(130), 목표정보 추출 모듈(140), 대체신호 생성 모듈(150) 및 제어 및 출력 모듈(160)을 포함한다. 도 1에 도시된 시각정보의 감각 치환 및 다중경로 전달 장치(100)는 일 실시예에 따른 것이고, 상기 장치(100)의 구성요소들이 도 1에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 통합, 부가, 변경 또는 삭제될 수 있다.An apparatus for sensory substitution and multipath delivery of
입력 모듈(110)은 사용자 입력 정보와 영상정보를 외부에서 수신한다. 상기 사용자 입력 정보는 '요청정보'를 포함할 수 있다. '요청정보'에는 사용자가 관심을 가지는 객체의 종류에 대한 정보 또는 영상정보로부터 사용자가 전달받기를 원하는 시각정보의 유형을 나타내는 정보가 포함될 수 있다. 객체의 종류에 관한 요청정보의 예를 들면, 인물, 자동차, 동물 등이 있을 수 있고, 시각정보의 유형에 관한 요청정보의 예를 들면, 모양, 위치, 거리, 이동 방향, 색상 등이 있을 수 있다. 객체의 종류와 시각정보의 유형을 혼합한 요청정보의 예를 들면, 동물의 이동 방향, 자동차의 위치, 인물과의 거리 등이 있을 수 있다.The
사용자 입력 정보는 요청정보를 전달받을 감각에 대한 정보(이하 '요청감각 정보')와 감각의 전달 강도를 표현하는 정보(이하 '전달 강도 정보') 중 적어도 어느 하나의 정보를 더 포함할 수 있다. 요청감각 정보의 예를 들면, 시각, 청각, 압력, 진동, 열감 등이 있을 수 있다. 전달 강도 정보의 예를 들면, 상(high), 중(medium), 하(low) 등이 있을 수 있다.The user input information may further include at least one of information about a sense to receive the requested information (hereinafter referred to as 'requested sensory information') and information expressing a transmission intensity of a sense (hereinafter referred to as 'transfer intensity information'). . Examples of requested sensory information may include sight, hearing, pressure, vibration, and heat sensation. For example, transfer intensity information may include high, medium, and low.
사용자 입력 정보는 요청정보, 요청감각 정보 및 전달 강도 정보 중 적어도 어느 하나 또는 이들의 조합을 포함할 수 있다. 요청감각 정보 및 요청정보는 감각경로 결정 모듈(120)이 사용자의 요청에 부합하는 시각정보(목표정보)를 사용자에게 전달할 감각경로를 결정하는 데 사용될 수 있다. 달리 말하면, 요청감각 정보 및 요청정보는 감각경로 결정 모듈(120)이 요청정보에 대응되는 목표정보를 사용자에게 어떤 감각신호로 전달할 것인지 결정하는 데 사용될 수 있다. 사용자 입력 정보에 포함되는 요청감각 정보와 전달 강도 정보는 사용자에 대한 개인화(personalization)를 위한 정보이다. 사용자에 따라 인식하기 용이한 감각신호가 상이할 수 있으며, 감각신호별 감도도 달라질 수 있기 때문이다.The user input information may include at least one or a combination of request information, request sense information, and transfer strength information. The requested sensory information and the requested information may be used by the sensory
입력 모듈(110)은 사용자 입력 정보를 다양한 방식으로 입력받을 수 있다. 예를 들어, 입력 모듈(110)은 버튼이나 텍스트 입력을 통해 사용자 입력 정보를 수신할 수 있다. 입력 모듈(110)은 사용자 입력 정보에서 요청정보, 요청감각 정보 및 전달 강도 정보를 각각 분리하여 추출할 수 있다. 예를 들어, 입력 모듈(110)은 사용자 입력 정보를 파싱하여 요청정보, 요청감각 정보 또는 전달 강도 정보를 얻을 수 있다.The
입력 모듈(110)이 수신하는 영상정보에는 정지 이미지 및 연속 이미지(동영상) 중 적어도 어느 하나가 포함될 수 있다. 또한, 상기 영상정보는 RGB 카메라, 깊이 카메라(3D depth camera) 또는 열화상카메라 등을 통해 얻어진 영상(즉, 컬러 영상, 깊이 영상 또는 열화상 영상)일 수 있다. 입력 모듈(110)은 영상정보 분할 모듈(130)에 상기 영상정보를 전송한다. 그리고 입력 모듈(110)은 감각경로 결정 모듈(120), 목표정보 추출 모듈(140) 및 대체신호 생성 모듈(150)에 사용자 입력 정보를 전송한다. 입력 모듈(110)은 사용자 입력 정보에서 추출한 요청정보, 요청감각 정보 및 전달 강도 정보를 감각경로 결정 모듈(120), 목표정보 추출 모듈(140) 및 대체신호 생성 모듈(150)에 전송할 수 있다. 예를 들어, 입력 모듈(110)은 감각경로 결정 모듈(120)에 요청감각 정보와 요청정보를 전송하고, 목표정보 추출 모듈(140)에 요청정보를 전송하고, 대체신호 생성 모듈(150)에 전달 강도 정보를 전송할 수 있다.The image information received by the
감각경로 결정 모듈(120)은 사용자 입력 정보를 기초로 목표정보를 전달할 감각경로를 결정한다. 감각경로 결정 모듈(120)은 요청정보별로 감각경로를 결정할 수 있다. 예를 들어, 감각경로 결정 모듈(120)은 '휴대폰의 위치와 거리'라는 요청정보에 대하여, 기 설정된 테이블에 따라, 사용자가 착용한 고글을 통하여 시각정보를 전달하는 감각경로와 사용자가 착용한 이어폰을 통하여 청각신호를 전달하는 감각경로로 구성된 복수의 감각경로를 결정할 수 있다.The sensory
감각경로 결정 모듈(120)은 사용자 입력 정보에 포함된 요청감각 정보에 따라 감각경로를 결정할 수 있지만, 사용자 입력 정보에 포함된 요청정보에 따라 감각경로를 결정할 수도 있다. 또한, 감각경로 결정 모듈(120)은 목표정보에 따라 감각경로를 결정할 수도 있다. The sensory
감각경로 결정 모듈(120)은 목표정보별로 감각경로를 결정할 수 있는데, 감각경로 결정 모듈(120)은 목표정보와 감각경로를 매칭하기 위하여 요청정보 또는 목표정보를 이용할 수 있다. 감각경로 결정 모듈(120)가 감각경로를 결정하는 방법에 대해서는 도 2를 참조하여 후술한다. 감각경로 결정 모듈(120)은 목표정보별로 결정된 감각경로에 대한 정보를 대체신호 생성 모듈(150)에 전송할 수 있다.The sensory
영상정보 분할 모듈(130)은 영상정보를 분할 또는 분석하여 형태정보, 공간정보 및 전역정보 등의 다양한 유형의 시각정보를 생성하며, 생성한 시각정보를 목표정보 추출 모듈(140)에 전송한다. 영상정보 분할 모듈(130)은 영상정보의 각 프레임에 대응하는 시각정보를 생성할 수 있으며, 영상정보의 복수의 프레임에 대응하는 시각정보를 생성할 수도 있다. 예를 들어, 영상정보 분할 모듈(130)은 영상정보의 각 프레임 별로 동물의 위치정보를 생성할 수 있고, 100개의 프레임에 대응하는 동물의 이동 경로 정보를 생성할 수 있다. 영상정보 분할 모듈(130)에서 생성하는 시각정보는 형태정보, 공간정보 및 전역정보 중 적어도 어느 하나 또는 이들의 조합을 포함할 수 있다.The image
목표정보 추출 모듈(140)은 영상정보 분할 모듈(130)가 생성한 시각정보를 기초로 복합정보를 생성할 수 있다. 또한, 목표정보 추출 모듈(140)은 영상정보 분할 모듈(130)가 생성한 시각정보와 복합정보 중에서 사용자의 요청정보에 부합하는 목표정보를 추출할 수 있다.The target
이하, 본 명세서에서 '시각정보'는 영상정보를 기초로 생성된 형태정보, 공간정보, 전역정보 및 복합정보를 통칭하는 의미로 사용된다.Hereinafter, in this specification, 'visual information' is used as a generic term for shape information, spatial information, global information, and composite information generated based on image information.
목표정보 추출 모듈(140)은 시각정보(형태정보, 공간정보, 전역정보 및 복합정보) 중에서 요청정보에 부합하는 시각정보, 즉 목표정보를 추출한다. 즉, 목표정보 추출 모듈(140)은 요청정보를 기초로 시각정보에서 목표정보를 추출한다. The target
목표정보는 단일한 정보일 수도 있으나 복수의 정보일 수도 있다. The target information may be single information or may be a plurality of pieces of information.
목표정보 추출 모듈(140)은 목표정보를 대체신호 생성 모듈(150)에 전송한다. 또한 목표정보 추출 모듈(140)은 목표정보를 제어 및 출력 모듈(160)에 전송할 수 있다.The target
대체신호 생성 모듈(150)은 감각경로를 기초로 목표정보를 변환하여 대체신호를 생성한다. 대체신호 생성 모듈(150)은 목표정보 추출 모듈(140)이 추출한 시각정보를 그 시각정보와 대응하는 감각신호, 즉 대체신호로 변환한다. 대체신호 생성 모듈(150)은 목표정보에 해당하는 시각정보를 대체신호로 변환함에 있어서 감각경로 결정 모듈(120)이 결정한 감각경로를 이용한다. 대체신호는 목표정보를 대체하는 감각신호로서, 목표정보를 다른 형태로 변환하여 사용자의 감각기관에 전달하기 위하여 대체신호 생성 모듈(150)이 생성하는 신호로서, 시각 신호, 청각 신호, 촉각 신호 및 열감 신호 중 적어도 어느 하나의 감각신호 또는 이들의 조합일 수 있다. 예를 들어, 목표정보가 공의 색상이라는 시각정보라면, 그 대체신호는 소정의 온도를 가지는 열감 신호일 수 있다. 대체신호 생성 모듈(150)이 시각정보를 그와 대응하는 대체신호로 변환하는 방법은 수치적인 변환이나 매핑의 방식을 따를 수 있으나, 이에 제한되지 않는다. 대체신호 생성 모듈(150)은 목표정보별로 결정된 감각경로에 따라 목표정보를 변환하여 대체신호로 생성한다.The substitute
대체신호 생성 모듈(150)은 사용자 입력 정보 중 전달 강도 정보를 대체신호 생성 과정에 반영할 수 있다. 즉, 대체신호 생성 모듈(150)은 전달 강도 정보와 감각경로를 기초로 목표정보를 변환하여 대체신호를 생성할 수 있다. 예를 들어, 대체신호 생성 모듈(150)이 목표정보를 변환하여 청각신호를 생성할 때, 전달 강도 정보가 '상(high)'이라면 주파수나 진폭이 높은 음파를 생성할 수 있다.The alternative
대체신호 생성 모듈(150)은 생성한 대체신호를 제어 및 출력 모듈(160)에 전송한다.The replacement
제어 및 출력 모듈(160)은 시각정보의 변환 과정과 대체 신호를 사용자에게 전달하는 과정을 제어한다. 제어 및 출력 모듈(160)은 복수의 하드웨어의 형태로 구현될 수 있다. 예를 들어, 제어 및 출력 모듈(160)은 제어 장치와 출력 장치로 구현될 수 있다. 또한, 제어 및 출력 모듈(160)은 개별 감각신호를 복수의 경로로 동시에 전달하기 위해 필요한 제어신호를 생성한다. 그리고 제어 및 출력 모듈(160)은 대체신호를 단일 또는 복수의 전달 경로로 출력한다.The control and
제어 및 출력 모듈(160)은 대체신호의 출력 순서 설정과 전달 시점의 동기화와 관련된 전반적인 동작을 제어한다. 또한 제어 및 출력 모듈(160)은 대체신호를 사용자에게 전달한다. 예를 들어, 제어 및 출력 모듈(160)은 청각신호, 열감신호 및 진동신호를 사용자가 착용하고 있는 이어폰, 히터 및 진동장치에 전달하여 상기 장치들에서 소리, 열 및 진동 등의 출력이 일어나도록 하여 대체신호를 사용자에게 전달한다. 대체신호는 단일한 신호일 수도 있지만 예시한 바와 같이 복수 개의 신호일 수도 있다.The control and
제어 및 출력 모듈(160)은 대체신호와 함께 목표정보 추출 모듈(140)에서 전달받은 목표정보를 그대로 사용자에게 전달할 수 있다. 예를 들어, 목표정보 추출 모듈(140)은 야간에 적외선 카메라로 촬영된 영상에서 생성된 시각정보에서 목표정보 추출 모듈(140)이 추출한 목표정보(동물의 외곽선, 사용자와 동물과의 거리)를 대체신호 생성 모듈(150)와 제어 및 출력 모듈(160)에 전송한다. 대체신호 생성 모듈(150)는 목표정보를 변환하여 청각 대체신호를 생성하여 제어 및 출력 모듈(160)에 전송한다. 제어 및 출력 모듈(160)은 목표정보를 사용자가 착용한 고글에 표시하면서 동시에 청각 대체신호(음파)를 사용자가 착용한 이어폰을 통해 출력할 수 있다.The control and
도 2는 본 발명의 일 실시예에 따른 시각정보의 감각 치환 및 다중경로 전달 장치(100)의 세부 구성을 나타낸 블록도이다.2 is a block diagram showing a detailed configuration of an
입력 모듈(110)은 사용자 입력 정보 및 영상정보를 수신한다. 입력 모듈(110)은 사용자 입력부(111), 사용자 입력 정보 처리부(112) 및 영상 입력부(113)를 포함하여 구성된다.The
사용자 입력부(111)는 사용자 입력 정보를 외부에서 수신한다. 사용자 입력 정보는 요청정보, 요청감각 정보 및 전달 강도 정보 중 적어도 어느 하나 또는 이들의 조합을 포함할 수 있다. 구체적으로, 사용자 입력 정보에는 사용자가 관심을 가지는 객체의 종류에 대한 정보 또는 영상정보로부터 사용자가 전달받기를 원하는 시각정보의 유형을 나타내는 정보(요청정보), 요청정보를 전달받을 감각에 대한 정보(요청감각 정보)과 감각의 전달 강도를 표현하는 정보(전달 강도 정보) 등이 포함될 수 있다. 예를 들어, 요청정보는 영상정보에 포함되는 특정한 종류의 객체의 위치 정보일 수 있다. 본 발명이 가상 현실에 적용될 경우의 사용자 입력 정보의 구체적인 예를 들면, 요청정보는 메타버스 상에서 다른 사용자의 위치 및 거리 정보가 될 수 있고, 요청감각 정보는 진동 및 온도(열감)가 될 수 있다. 전달 강도 정보는 상(high)/중(medium)/하(low) 중에서 상(high)으로 설정될 수 있다. 시각정보의 감각 치환 및 다중경로 전달 장치(100)는 시각 이외에 다른 감각을 동원하여 사용자의 체험을 극대화할 수 있다. 예컨대, 메타버스 상에서 상대방 사용자가 접근해 오는 경우, 진동과 열감 신호가 증대됨으로 인해 사용자의 감각이 증폭될 수 있다. The user input unit 111 receives user input information from the outside. The user input information may include at least one or a combination of request information, request sense information, and transfer strength information. Specifically, the user input information includes information on the type of object the user is interested in or information indicating the type of visual information the user wants to receive from the image information (request information), information on the senses to receive the requested information ( Requested sensory information) and information expressing the transmission intensity of sensation (transfer intensity information) may be included. For example, the request information may be location information of a specific type of object included in image information. As a specific example of user input information when the present invention is applied to virtual reality, the requested information may be location and distance information of other users on the metaverse, and the requested sensory information may be vibration and temperature (feeling of heat). . The transfer strength information may be set to high among high/medium/low. The
사용자 입력부(111)는 요청정보를 입력받기 위해 음성이나 화면을 통한 터치를 활용할 수 있다. 예를 들어, 사용자는 음성이나 화면 터치를 통해 영상에 나타난 배경, 사람, 동물 또는 상품 중 원하는 정보를 지정한다. 구체적인 예를 들면, 사용자가 화면에서 영상의 배경 부분을 터치했을 경우, 사용자 입력부(111)는 사용자 입력 정보 중 요청정보인 '배경'이 입력된 것으로 인식할 수 있다. 사용자가 화면에서 영상에 포함된 인물 부분을 터치했을 경우, 사용자 입력부(111)는 사용자 입력 정보 중 요청정보인 '인물'이 입력된 것으로 인식할 수 있다. 요청정보는 단일한 정보일수도 있고, 복수의 정보일 수도 있다. 한편, 사용자 입력부(111)는 은밀한 환경이 필요한 군작전이나 소음이 심한 환경과 같이 특수한 작업환경 등에서는 소정의 버튼이나 레버 등을 통하여 미리 설정된 값이 적용되는 방식으로 사용자 입력 정보를 수신할 수 있다. 예를 들어, 사용자 입력부(111)는 특정 버튼('사람' 버튼, '위치' 버튼, '거리' 버튼, '촉각' 버튼)이 눌러진 경우, 영상에 나타난 사람의 위치 정보와 거리 정보를 사용자의 요청정보로 간주하고, '촉각'을 사용자가 입력한 요청감각 정보로 간주할 수 있다. 또한, 사용자 입력부(111)는 텍스트 형태로 사용자 입력 정보를 입력받을 수도 있다. 예를 들어, 사용자 입력부(111)는 '동물과의 거리를 촉각으로 전달해 줘'와 같은 텍스트의 형태로 요청정보와 요청감각 정보를 포함한 사용자 입력 정보를 수신할 수 있다.The user input unit 111 may use voice or touch through a screen to receive requested information. For example, a user designates desired information among backgrounds, people, animals, or products displayed in an image through voice or screen touch. For example, when a user touches a background part of an image on the screen, the user input unit 111 may recognize that 'background', which is request information, among user input information is input. When a user touches a person part included in an image on the screen, the user input unit 111 may recognize that 'person', which is requested information, among user input information is input. The requested information may be a single piece of information or a plurality of pieces of information. On the other hand, the user input unit 111 may receive user input information in a manner in which a preset value is applied through a predetermined button or lever in a special working environment, such as a military operation requiring a confidential environment or a noisy environment. . For example, when a specific button ('person' button, 'position' button, 'distance' button, or 'tactile sense' button) is pressed, the user input unit 111 transmits location information and distance information of a person appearing in the image to the user. It can be regarded as requested information, and 'touch' can be regarded as requested sensory information input by the user. Also, the user input unit 111 may receive user input information in the form of text. For example, the user input unit 111 may receive user input information including request information and request sensory information in the form of text, such as 'Give me the distance to the animal through a tactile sense'.
사용자 입력 정보 처리부(112)는 사용자 입력 정보에서 요청정보, 요청감각 정보 및 전달 강도 정보를 각각 분리하여 추출한다. 예를 들어, 사용자 입력 정보 처리부(112)는 텍스트 형태로 되어 있는 사용자 입력 정보를 파싱하여 요청정보, 요청감각 정보 또는 전달 강도 정보를 얻을 수 있다. 사용자 입력 정보 처리부(112)는 사용자 입력 정보에서 추출한 요청정보, 요청감각 정보 및 전달 강도 정보를 감각경로 결정 모듈(120), 목표정보 추출 모듈(140) 및 대체신호 생성 모듈(150)에 전송할 수 있다. 예를 들어, 사용자 입력 정보 처리부(112)는 감각경로 결정 모듈(120)에 요청감각 정보와 요청정보를 전송하고, 목표정보 추출 모듈(140)에 요청정보를 전송하고, 대체신호 생성 모듈(150)에 전달 강도 정보를 전송할 수 있다.The user input information processor 112 separates and extracts request information, request sense information, and transfer strength information from user input information. For example, the user input information processing unit 112 may obtain request information, request sense information, or transfer strength information by parsing user input information in text form. The user input information processing unit 112 may transmit request information, requested sensory information, and transmission strength information extracted from user input information to the sensory
영상 입력부(113)는 본 발명에서 사용자에게 전달될 대상이 되는 영상정보를 수집한다. 상기 영상정보에는 정지 이미지 및 연속 이미지(동영상) 중 적어도 어느 하나가 포함될 수 있다. 영상 입력부(113)는 영상정보를 수집하기 위하여 RGB 카메라, 깊이 카메라(3D depth camera), ToF(Time-of-Flight) 이미지센서 또는 적외선카메라 등을 포함할 수 있다. 일반적으로 영상정보에는 다양한 시각정보가 포함되어 있는데, 본 명세서에서는 구체적인 설명을 위해 형태, 테두리, 위치, 거리, 색상, 질감, 경로, 방향, 빛의 유무, 감정 및 전체적인 분위기 등을 시각정보의 예시로 들어 설명한다.The image input unit 113 collects image information to be transmitted to the user in the present invention. The image information may include at least one of still images and continuous images (moving images). The image input unit 113 may include an RGB camera, a 3D depth camera, a time-of-flight (ToF) image sensor, or an infrared camera to collect image information. In general, image information includes various visual information. In this specification, examples of visual information include shape, border, position, distance, color, texture, path, direction, presence or absence of light, emotion, and overall atmosphere for detailed description. listen and explain.
감각경로 결정 모듈(120)은 사용자 입력 정보를 기초로 목표정보를 전달할 감각경로를 결정한다. 감각경로 결정 모듈(120)은 요청정보별로 감각경로를 결정할 수 있다. 감각경로 결정 모듈(120)은 사용자 입력 정보에 포함된 요청감각 정보에 따라 감각경로를 결정할 수 있지만, 사용자 입력 정보에 포함된 요청정보에 따라 감각경로를 결정할 수도 있다. 또한, 감각경로 결정 모듈(120)은 목표정보에 따라 감각경로를 결정할 수도 있다. 감각경로 결정 모듈(120)은 목표정보별로 감각경로를 결정할 수 있는데, 감각경로 결정 모듈(120)은 목표정보와 감각경로를 매칭하기 위하여 요청정보 또는 목표정보를 이용할 수 있다. 감각경로 결정 모듈(120)은 사용자 입력 정보를 기반으로, 목표정보가 사용자에게 전달되는 감각 경로를 결정한다. 구체적으로, 감각경로 결정 모듈(120)은 사용자 입력 정보를 기반으로, 목표정보에 해당하는 시각정보를 단일 신호로 전달할 것인지 또는 복수의 신호로 전달할 것인지를 결정한다. 감각경로 결정 모듈(120)은 복수의 목표정보 각각을 그에 대응하는 감각신호로 변환하여 사용자에게 전달하는 감각 경로를 결정할 수도 있으며, 동일한 목표정보를 복수의 감각신호로 변환하여 사용자에게 전달하는 감각 경로를 결정할 수도 있다. 예를 들어, 감각경로 결정 모듈(120)은 영상정보에 나타난 특정 물체의 위치정보가 목표정보인 경우, 소리를 통해 좌우 또는 상하 위치가 전달되도록 감각 경로를 결정할 수도 있고, 촉각, 진동 및 열감 신호를 통해 위치정보가 전달되도록 하는 감각 경로를 결정할 수도 있다. 감각경로 결정 모듈(120)은 사용자 입력 정보에 기초하여 감각경로를 결정하는데, 사용자 입력 정보에 포함된 요청감각 정보에 기초하여 감각경로를 결정할 수 있다. 또한, 감각경로 결정 모듈(120)은 사용자 입력 정보에 포함된 요청정보에 기초하여 감각경로를 결정할 수 있다. 예를 들어, 감각경로 결정 모듈(120)은 요청감각 정보가 '열감'일 경우, 설정 또는 사용자의 선택에 따라 그에 해당하는 감각경로(예: 온도를 왼손을 통해 전달하는 열감 감각경로)를 결정할 수 있다. 다른 예로, 감각경로 결정 모듈(120)은 요청정보가 '차량의 거리'일 경우, '거리'에 대하여 기 설정된 감각경로(예: 소리를 왼쪽 귀를 통해 전달하는 청각 감각경로 및 진동을 왼손을 통해 전달하는 촉각 감각경로)를 결정할 수 있다. 감각경로를 어떤 정보에 기초하여 결정할 것인지는 사용자의 선택이나 설정에 의한다.The sensory
감각경로 결정 모듈(120)은 목표정보별로 결정된 감각경로에 대한 정보를 대체신호 생성 모듈(150)에 전송할 수 있다.The sensory
영상정보 분할 모듈(130)은 영상정보를 분할하거나 분석하여 형태정보, 공간정보 및 전역정보 등의 다양한 유형의 시각정보를 생성하며, 생성한 시각정보를 목표정보 추출 모듈(140)에 전송한다. 영상정보 분할 모듈(130)은 영상정보의 각 프레임에 대응하는 시각정보를 생성할 수 있으며, 영상정보의 복수의 프레임에 대응하는 시각정보를 생성할 수도 있다. 예를 들어, 영상정보 분할 모듈(130)은 영상정보의 각 프레임 별로 동물의 위치정보를 생성할 수 있고, 100개의 프레임에 대응하는 동물의 이동 경로 정보를 생성할 수 있다. 영상정보 분할 모듈(130)은 영상정보를 단계적으로 분할하여 이미지나 동영상의 프레임에 포함된 다양한 시각정보를 추출할 수 있다. 영상정보 분할 모듈(130)에 의해 생성된 시각정보는, 프레임을 구성하는 픽셀의 좌표와 같은 원시정보 및 프레임의 채널과 같이 영상처리로 획득한 정보를 포함한다. 또한 상기 시각정보에는 딥러닝 기반 객체 검출, 영역 분할, 관계 정보 분석 등의 알고리즘을 활용한 추론 기법을 이용하여 획득한 유의미한 분석결과도 포함될 수 있다. 따라서 영상정보 분할 모듈(130)은 이미지나 동영상 프레임에서 간단한 작업으로 추출이 가능한 형태정보를 우선적으로 분할하고, 그 후에 상대적으로 사용자 입력이나 추가적인 분석 작업을 더 요구하는 공간정보를 분할하며, 마지막으로 전역정보 또는 복합정보를 생성하는 순서로 분할 및 분석 작업을 수행할 수 있다. 영상정보 분할 모듈(130)은 형태정보 생성부(131), 공간정보 생성부(132) 및 전역정보 생성부(133)를 포함하여 구성될 수 있는데, 형태정보 생성부(131)는 영상정보를 분할하여 형태정보를 생성하고, 공간정보 생성부(132)는 영상정보를 분할하여 공간정보를 생성하며, 전역정보 생성부(133)는 영상정보를 분석하여 전역정보 또는 복합정보를 생성한다. 형태정보, 공간정보, 전역정보 및 복합정보의 예시는 표 1과 같다.The image
목표정보 추출 모듈(140)은 영상정보 분할 모듈(130)가 생성한 시각정보를 기초로 복합정보를 생성할 수 있다. 또한, 목표정보 추출 모듈(140)은 영상정보 분할 모듈(130)가 생성한 시각정보와 복합정보 중에서 사용자의 요청정보에 부합하는 목표정보를 추출할 수 있다. 예를 들어, 요청정보가 '동물의 외곽선'일 경우, 목표정보 추출 모듈(140)은 시각정보 중에서 개나 고양이의 외곽선이 나타난 시각정보를 목표정보로서 추출할 수 있을 것이다.The target
목표정보 추출 모듈(140)은 상술한 바와 같이 영상정보 분할 모듈(130)이 영상정보를 기초로 생성한 시각정보(예: 형태정보, 공간정보 및 전역정보)를 수신하는데, 이 경우 요청정보를 참조로 사용하여 필요한 시각정보를 선택적으로 수신할 수 있다.As described above, the target
목표정보 추출 모듈(140)은 목표정보를 대체신호 생성 모듈(150)에 전송한다. 목표정보 추출 모듈(140)은 형태정보, 공간정보, 전역정보 및 복합정보 등의 시각정보 중에서 요청정보에 부합하는 시각정보, 즉 목표정보를 추출한다. 즉, 목표정보 추출 모듈(140)은 영상정보 분할 모듈(130)에서 생성한 시각정보(형태정보, 공간정보 및 전역정보) 및 목표정보 추출 모듈(140)이 생성한 시각정보(복합정보) 중에서 요청정보와 부합하는 목표정보를 추출한다. 목표정보 추출 모듈(140)은 복합정보 생성부(141) 및 목표정보 추출부(142)를 포함하여 구성된다.The target
복합정보 생성부(141)는 영상정보 분할 모듈(130)에서 생성한 시각정보를 기초로 복합정보를 생성한다. 예를 들어, 복합정보 생성부(141)는 객체의 모양, 테두리(외곽선) 등의 형태 정보와 영상 전체 영역에 추출된 색상 등의 전역 정보를 기초로 분위기 정보를 얻을 수 있다. 복합정보 생성부(141)는 복수의 형태정보 또는 복수의 공간정보를 기초로 복합정보를 생성할 수 있으며, 전체적인 영상정보(전역 정보)에 기초하여 감정이나 분위기 정보 등의 복합정보를 생성할 수 있는데, 이러한 복합정보 생성 과정에서 인공지능 기법을 활용할 수 있다.The composite information generation unit 141 generates composite information based on the visual information generated by the image
목표정보 추출부(142)는 시각정보(형태정보, 공간정보, 전역정보 및 복합정보)에서 요청정보와 부합하는 목표정보를 추출한다.The target information extraction unit 142 extracts target information matching the requested information from visual information (shape information, spatial information, global information, and composite information).
대체신호 생성 모듈(150)은 감각경로를 기초로 목표정보를 변환하여 대체신호를 생성한다. 대체신호 생성 모듈(150)은 목표정보 추출 모듈(140)이 추출한 목표정보를 그 목표정보를 대체하는 감각신호, 즉 대체신호로 변환한다. 대체신호 생성 모듈(150)은 목표정보 추출 모듈(140)이 추출한 목표정보를 그 목표정보와 대응하는 대체신호로 변환한다. 대체신호 생성 모듈(150)은 목표정보별 감각 경로(예: 차량과 사용자 간의 거리를 왼쪽 귀를 통한 청각 감각경로로 전달함)를 기초로 그 목표정보에 부합하는 대체신호(음파)가 무엇인지 설정 테이블 등의 참조 데이터를 근거로 판단하고, 목표정보를 변환하여 대체신호를 생성한다. 즉, 대체신호 생성 모듈(150)은 목표정보별로 결정된 감각경로에 따라 목표정보를 변환하여 그와 대응하는 대체신호를 생성한다.The substitute
한편, 대체신호 생성 모듈(150)은 제어 및 출력 모듈(160)에서 산출한 시간 정보(정보변환시간(Tc), 전달시간(Tt), 지연시간(Td), 인지시간(Tp))를 대체신호 생성 과정에 반영할 수 있다. 예를 들어, 대체신호 생성 모듈(150)은, 제어 및 출력 모듈(160)의 시간 분석 결과에 따라 전달에 필요한 시간이 부족한 것으로 판단되는 경우, 감각신호 변환 과정이나 그 변환 결과를 단순화하여 정보변환시간(Tc)이나 전달시간(Tt)을 단축할 수 있다. 만약 대체신호 생성 모듈(150)에서 정보변환시간(Tc)이나 전달시간(Tt)을 단축할 수 없는 경우, 제어 및 출력 모듈(160)의 전달신호 동기화부(162)는 전달에 필요한 시간만큼 전달 시간을 확보하기 위해 동기화 시간(시점)을 연장한다.On the other hand, the alternative
본 실시예에서 대체신호 생성 모듈(150)은 목표정보를 청각 신호(소리)로 변환하는 제1 정보변환부(151), 목표정보를 촉각 신호(진동)로 변환하는 제2 정보변환부(152) 및 목표정보를 열감 신호(온도)로 변환하는 제3 정보변환부(153)을 포함하여 구성될 수 있다. 다만, 변환할 수 있는 감각이 추가되거나(예:후각), 감각의 세분화(예: 촉각 신호를 진동, 촉감, 압력으로 세분화)에 따라 대체신호 생성 모듈(150)의 구성 요소는 추가될 수 있다.In this embodiment, the alternative
제1 정보변환부(151)는 목표정보를 청각 신호(음파)로 변환한다. 제1 정보변환부(151)는 주로 모양, 위치, 빛의 유무, 색상 및 방향 등과 같은 형태정보나 공간정보를 음파로 변환한다. 구체적인 예를 들면, 제1 정보변환부(151)는 이미지의 수직 위치의 픽셀이나 픽셀 군마다 주파수를 사전에 정의하여 객체의 수직 위치의 차이가 주파수로 구분되도록 음파를 생성할 수 있다. 즉 제1 정보변환부(151)는 이미지의 수직 위치를 음파의 주파수로 매핑할 수 있다. 또한 제1 정보변환부(151)는 이미지의 수평 위치를 소리의 재생 시간 정보나 스테레오 신호로 매핑할 수 있으며, 객체의 형태나 테두리에 해당하는 픽셀의 밝기 값을 진폭으로 매핑하여 음파를 생성할 수 있다. 또한, 제1 정보변환부(151)는 공간정보를 소리로 표현하는 경우에는 주파수와 진폭을 복합적으로 조합하여 객체의 거리가 가까울수록 재생 빈도와 크기(volume)가 증가된 음파를 생성할 수 있고, 객체의 거리가 멀수록 재생빈도와 크기가 감소된 음파를 생성할 수 있다. 시각정보가 색상 정보(예컨대 객체의 색상, 영상 전체 영역에서 추출된 색상, 전역정보에 기초한 감정이나 분위기 등)인 경우, 색상의 분포에 대하여 딥러닝 기술을 이용한 분석이 가능하므로, 제1 정보변환부(151)는 분석된 정보가 밝은 느낌이나 분위기의 경우 경쾌한 음조의 음파로 표현하고, 어둡거나 우울한 분위기나 감정의 경우 느리거나 낮은 음계의 음파로 표현하는 방식으로 시각정보를 변환할 수 있다.The first information conversion unit 151 converts the target information into an auditory signal (sound wave). The first information conversion unit 151 mainly converts form information or space information such as shape, location, presence or absence of light, color and direction into sound waves. For example, the first information conversion unit 151 may generate sound waves so that a difference in the vertical position of an object is divided into frequencies by defining a frequency for each pixel or group of pixels at a vertical position of the image in advance. That is, the first information conversion unit 151 may map the vertical position of the image to the frequency of the sound wave. In addition, the first information conversion unit 151 may map the horizontal position of the image to reproduction time information of sound or a stereo signal, and generate sound waves by mapping the brightness value of a pixel corresponding to the shape or edge of an object to an amplitude. can In addition, when spatial information is expressed as sound, the first information conversion unit 151 can generate a sound wave whose reproduction frequency and volume increase as the object distance is closer by combining frequency and amplitude in a complex manner. , sound waves with reduced reproduction frequency and reduced size can be generated as the distance between the objects increases. If the visual information is color information (e.g., object color, color extracted from the entire image area, emotion or mood based on global information, etc.), the distribution of color can be analyzed using deep learning technology, so the first information conversion The unit 151 may convert the visual information in such a way that the analyzed information is expressed as light-pitched sound waves in the case of a bright feeling or atmosphere, and expressed as slow or low-pitched sound waves in the case of a dark or gloomy atmosphere or emotion.
제2 정보변환부(152)는 목표정보를 촉각 신호로 변환한다. 제2 정보변환부(152)는 주로 거리, 질감, 위치, 경로나 방향 등의 목표정보를 촉각 신호로 변환한다. 시각정보의 감각 치환 및 다중경로 전달 장치(100)에서 촉각신호가 최종적으로 전달되는 장치는 손목에 부착하거나 신체에 착용하는 진동장치 등이 될 수 있다. 손목에 부착하는 진동장치의 상하좌우 위치에 진동발생 소자가 위치하는 경우, 제2 정보변환부(152)는 특정 경로나 방향에 해당하는 소자만 진동을 발생하도록 복수의 채널에 대한 촉각 신호를 생성할 수 있다. 제어 및 출력 모듈(160)은 이와 같이 생성된 촉각 신호를 기초로 진동장치에 제어 신호를 전송하여 경로나 방향에 부합하는 소자가 진동을 발생하도록 함으로써 사용자에게 객체의 방향이나 경로를 전달할 수 있다.The second information conversion unit 152 converts the target information into a tactile signal. The second information conversion unit 152 mainly converts target information such as distance, texture, location, path or direction into tactile signals. In the
한편, 제2 정보변환부(152)는 목표정보가 거리 정보인 경우, 거리에 따라 진동의 주기나 세기를 변화시키는 방식으로 거리 정보를 촉각 신호로 변환할 수 있다.Meanwhile, when the target information is distance information, the second information conversion unit 152 may convert the distance information into a tactile signal by changing a period or intensity of vibration according to the distance.
제3 정보변환부(153)는 목표정보를 열감 신호로 변환한다. 제3 정보변환부(153)는 주로 색상, 감정이나 분위기에 관한 목표정보를 열감 신호로 변환할 수 있다. 시각정보의 감각 치환 및 다중경로 전달 장치(100)에서 열감 신호가 최종적으로 전달되는 장치는 열전달 장치(히터)가 될 수 있다. 구체적인 예로, 제3 정보변환부(153)는 열전달 장치에서 전달할 수 있는 온도 범위를 기준으로 파란색이나 어두운 분위기의 목표정보는 낮은 온도를 가지는 열감 신호로 변환하고, 빨간색이나 뜨거운 분위기의 목표정보는 설정된 온도 범위 중에서 높은 온도를 가지는 열감 신호로 변환할 수 있다.The third information conversion unit 153 converts the target information into a sensation signal. The third information conversion unit 153 may convert target information mainly about color, emotion or atmosphere into a heat sensation signal. In the
대체신호 생성 모듈(150)의 각 정보변환부(151,152,153)는 전달 강도 정보와 감각경로를 기초로 목표정보를 변환하여 대체신호를 생성할 수 있다. 예를 들어, 제1 정보변환부(151)가 목표정보를 변환하여 청각신호를 생성할 때, 제1 정보변환부(151)는 사용자 입력 정보에 포함된 전달 강도 정보가 '상(high)'인 것을 반영하여 주파수나 진폭을 증가시킨 음파를 생성할 수 있다.Each of the information conversion units 151 , 152 , and 153 of the alternative
대체신호 생성 모듈(150)은 사용자에게 목표정보를 효율적으로 전달하기 위하여, 복수의 목표정보를 개별적으로 각각 다른 대체신호로 변환할 수도 있고, 동일한 시각정보를 복수의 대체신호로 변환할 수도 있다. 이 경우 대체신호 생성 모듈(150)은 복수의 정보변환부(151,152,153)의 변환 결과를 조합하여 최종 변환 결과를 도출할 수 있다. 예를 들어, 단일한 위치정보를 변환하는 경우라도 대체신호 생성 모듈(150)은 상기 위치정보를 제1 정보변환부(151)를 통해 좌우를 나타내는 음파로 변환하고, 제2 정보변환부(152)를 통해 상기 위치정보를 왼손의 손목에 착용된 진동 장치의 좌측 방향의 소자에 전달할 진동 신호로 변환할 수 있다. 이 경우 제어 및 출력 모듈(160)은 상기 위치정보에 관한 음파와 진동 신호를 동시에 출력하여, 사용자로 하여금 위치 정보를 보다 효율적으로 인지할 수 있도록 한다.The alternative
대체신호 생성 모듈(150)은 생성된 대체신호를 제어 및 출력 모듈(160)에 전송한다.The replacement
제어 및 출력 모듈(160)은 대체신호의 출력 순서 설정과 전달 시점의 동기화와 관련된 전반적인 동작을 제어한다. 제어 및 출력 모듈(160)은 대체신호 생성 모듈(150)이 생성한 대체신호를 사용자에게 전달한다. 제어 및 출력 모듈(160)은 목표정보의 다중경로 전송을 위한 전반적인 동작에 필요한 전달신호의 흐름을 제어하고 관리한다. 또한 제어 및 출력 모듈(160)은 대체신호를 다중경로로 출력할 수 있다. The control and
한편, 제어 및 출력 모듈(160)은 물리적으로 별개의 장치로 구분될 수 있다. 예를 들어, 제어 및 출력 모듈(160)은 제어 장치와 출력 장치를 포함하여 구현할 수 있다.Meanwhile, the control and
제어 및 출력 모듈(160)은 전달경로 설정부(164), 다중경로 출력부(165)를 포함한다. 제어 및 출력 모듈(160)은 대체신호의 동기화를 위하여 시간 분석부(161)와 전달신호 동기화부(162)를 더 포함할 수 있고, 대체신호를 보정하는 대체신호 보정부(163)를 더 포함할 수 있다. 제어 및 출력 모듈(160)의 대체신호 동기화 및 보정 작업은 목표정보를 사용자에게 효과적으로 전달하기 위하여 필요하다.The control and
제어 및 출력 모듈(160)은 감각경로 결정 모듈(120)에서 결정된 목표정보별 감각 경로를 기초로 복수의 대체신호들을 목표정보별로 동기화하여 사용자에게 전달한다. 또한, 제어 및 출력 모듈(160)은 영상정보 및 사용자 행동(사용자 반응)에 따라 대체신호의 특성(예: 강도) 또는 종류를 보정한다. 제어 및 출력 모듈(160)은 영상정보에 대한 분석을 통해 사용자 행동(사용자 반응)을 인식할 수 있다.The control and
우선, 대체신호 동기화 작업을 담당하는 시간 분석부(161) 및 전달신호 동기화부(162)의 기능에 대하여 설명한다. 시간 분석부(161)는 전달신호 동기화부(162)가 동기화 시점을 판단하는 데 필요한 시간 정보를 전달신호 동기화부(162)에게 제공한다. 시간 분석부(161)는 목표정보별 감각 경로에 기초하여 ① 감각별 정보변환시간(Tc), ② 감각별 전달시간(Tt), ③ 전달장치의 지연시간(Td) 및 ④ 감각기관별 인지시간(Tp)을 산출하고, 산출한 시간 정보(Tc,Tt,Td,Tp)를 전달신호 동기화부(162)에 전달한다. 표 2는 시간 분석부(161)가 산출하는 각 시간에 대한 설명이다.First, the functions of the time analyzer 161 and the transmission signal synchronizer 162 in charge of synchronizing alternative signals will be described. The time analysis unit 161 provides the transmission signal synchronization unit 162 with time information necessary for the transmission signal synchronization unit 162 to determine the synchronization time point. The time analysis unit 161 determines information conversion time (T c ) for each sense, ② transmission time (T t ) for each sense, ③ delay time (T d ) of the transmission device, and ④ information conversion time (T c ) for each sense, based on the sensory path for each target information. The recognition time (T p ) is calculated, and the calculated time information (T c , T t , T d , T p ) is transmitted to the transfer signal synchronization unit 162 . Table 2 is a description of each time calculated by the time analyzer 161.
(Time for conversion)(Time for conversion)
(Time for transmission)(Time for transmission)
(Time for delay)(Time for delay)
(Time for perception)(Time for perception)
시간 분석부(161)는 대체신호 생성 모듈(150)의 각 변환부(151,152,153)가 목표정보를 대체 신호로 변환할 때 소요되는 시간(대체 신호 생성에 소요되는 시간)을 기초로 감각별 정보변환 시간(Tc)을 산출할 수 있다. 그리고, 감각별 전달시간(Tt)은 목표 감각 기관별로 정보를 전달하는데 필요한 시간을 의미한다. 감각별 전달시간(Tt)은 감각별로 다를 수 있다. 예를 들어, 청각은 0.5초, 촉각은 0.8초, 열감은 1초 등 감각별로 다른 길이의 시간이 필요할 수 있다. 그리고, 전달장치의 지연시간(Td)은 전달 장치의 전송시간이라고 볼 수 있는데, 장비의 특성에 따라 달라진다. 따라서 시간 분석부(161)는 장치 제조사에서 공개하는 정보를 반영하여 지연시간(Td)을 산출할 수 있다. 그리고, 시간 분석부(161)는 일반적으로 알려진 값(선행 연구 결과)에 기반하여 감각기관별 인지시간(Tp)을 산출할 수 있다. 다만, 사용자마다 인지시간의 차이가 있을 수 있고, 특정한 감각을 느끼지 못하는 사람이 있으므로, 대체신호 보정부(163)는 사용자 행동이나 사용자 반응에 따라 대체신호를 보정한다.The time analysis unit 161 converts information for each sense based on the time required when each conversion unit 151, 152, 153 of the alternative
전달신호 동기화부(162)는 목표정보 추출 모듈(140)이 추출한 각 시각정보의 프레임과 시간 분석부(161)가 산출한 시간 정보를 기초로, 사용자에게 전달하고자 하는 복수의 대체신호에 대한 동기화 시점을 판단하고, 동기화 작업을 수행한다. 전달신호 동기화부(162)가 복수의 대체신호를 동기화하기 위해서는 목표 감각별로 목표정보를 대체신호로 변환하는데 걸리는 시간(Tc: Time for conversion)과 감각별로 전달 또는 재생하는데 필요한 시간(Tt: Time for transmission), 감각기관별로 전달하는 장치의 지연시간(Td: Time for delay) 및 대상 감각수용체에서 전달 신호를 인지하는 시간(Tp: Time for perception)을 고려해야 한다. 동기화를 위해 이러한 시간적 고려가 필요한 이유는 영상이나 이미지의 다양한 시각정보들을 복수의 대체신호들로 전송하는 경우, 감각 기관마다 전달할 수 있는 신호의 강도와 정보량에 한계가 있고 동일한 신호라도 사용자에 따라 인식에 차이가 있기 때문이다. 예를 들면, 음파 형태의 대체신호는 그 특성상 재생 시간이 필요하다. 한편, 진동신호 형태의 대체신호는 음파의 재생시간보다 짧을 수도 있고 길 수도 있다. 따라서 동일한 이미지 프레임에서 도출된 각기 다른 목표정보를 변환한 대체신호를 복수의 감각 경로를 통하여 전송하는 경우, 제어 및 출력 모듈(160)은 동일한 프레임에 관한 대체신호를 동기화하여 동일한 시점에 사용자에게 전달하여야 한다. The transmission signal synchronization unit 162 synchronizes a plurality of alternative signals to be transmitted to the user based on the frame of each time information extracted by the target
다른 예로서, 동일한 시각정보를 사용자에게 복수의 감각 경로로 전달하는 경우에도 감각 기관마다 전달할 수 있는 정보량이 다르므로 전달하는 정보들을 동기화해야 한다. 변환된 대체신호를 단일 또는 복수의 경로로 전달하기 위한 동기화 시점(Ts: Sync. Time)은, 요청정보 또는 목표정보에 따라 달라질 수 있다. 전달신호 동기화부(162)는 목표정보 추출 모듈(140)에서 추출된 목표정보에 대한 정보변환시간(Tc), 전달시간(재생시간)과 지연시간의 합(Tt+Td) 및 감각기관별 인지시간(Tp)을 고려하여 수학식 1과 같이 가장 소요시간이 긴 시간을 동기화 시점으로 결정할 수 있다.As another example, even when the same visual information is transmitted to a user through a plurality of sensory pathways, since the amount of information that can be transmitted is different for each sensory organ, the transmitted information must be synchronized. A synchronization point (Ts: Sync. Time) for transmitting the converted alternative signal through a single path or a plurality of paths may vary according to request information or target information. The transmission signal synchronizer 162 converts the information for the target information extracted by the target information extraction module 140 (T c ), the sum of the transmission time (playback time) and the delay time (T t +T d ), and sense In consideration of the recognition time (T p ) for each institution, the longest required time can be determined as the synchronization time point as shown in Equation 1.
다음으로, 대체신호의 보정을 수행하는 대체신호 보정부(163)에 대하여 하기와 같이 설명한다. 영상정보를 입력하는 카메라의 부착위치와 변환된 대체신호가 전달되는 장치의 위치가 상이함에도 불구하고 대체신호를 보정 없이 사용자에게 전달하는 경우, 사용자는 물체의 위치나 거리를 정확하게 인지하기 어렵다. 따라서 대체신호 보정부(163)는 이러한 불일치를 해결하여 대체신호를 보정하는 기능을 수행한다. 예를 들어, 일반적으로 영상정보를 입력하는 카메라는 안경이나 목걸이 또는 가슴에 고정장치를 이용하여 부착하는 반면, 위치 정보나 깊이 정보는 소리나 손에 부착한 진동 장치로 전달된다. 이 경우, 머리나 가슴에서 바라보는 위치/거리와, 대체신호를 전달받는 귀 또는 손의 위치가 상대적으로 다르므로 위치 정보나 거리 정보가 소리나 촉각 장치로 일치하여 전달되지 않는다. 따라서 영상정보가 입력되는 위치와 대체신호가 전달되는 위치의 차이를 보정하여 사용자가 효율적으로 인지할 수 있도록 하는 기능이 필수적인데, 대체신호 보정부(163)에서 이러한 기능을 수행한다.Next, the replacement signal correction unit 163 for correcting the replacement signal will be described as follows. When the replacement signal is transmitted to the user without correction despite the difference between the attachment position of the camera inputting the image information and the position of the device to which the converted alternative signal is transmitted, it is difficult for the user to accurately recognize the location or distance of the object. Therefore, the substitute signal correction unit 163 performs a function of correcting the substitute signal by resolving the inconsistency. For example, while a camera for inputting image information is generally attached to glasses, a necklace, or a chest using a fixing device, location information or depth information is transmitted to a vibration device attached to a sound or hand. In this case, since the position/distance viewed from the head or chest is relatively different from the position of the ear or hand that receives the alternative signal, the position information or distance information is not transmitted to the sound or tactile device. Therefore, it is essential to correct the difference between the location where the image information is input and the location where the alternative signal is transmitted so that the user can efficiently recognize it, and the alternative signal correction unit 163 performs this function.
또한 대체신호 보정부(163)는 영상정보, 사용자 행동 또는 사용자 반응에 따라 대체신호의 특성(예: 강도) 또는 종류를 보정한다. 대체신호 보정부(163)는 영상정보를 분석하여 사용자 행동(또는 사용자 반응)을 인식할 수 있다. 대체신호 보정부(163)는 영상정보 및 사용자 행동을 기초로 사용자의 감도를 판단할 수 있으며, 사용자의 감도를 기초로 대체신호의 특성이나 종류를 보정한다. 구체적으로 설명하면, 시각정보를 청각이나 촉각, 열감 등으로 변환해서 전달할 때 사용자에 따라 특정 감각을 느끼는 감도가 다를 수 있다. 따라서 대체신호 보정부(163)는 대체신호에 대한 사용자의 감도가 낮은 수준이라고 판단하는 경우, 대체신호의 강도를 높이거나, 해당 목표정보에 대한 감각 경로를 다른 감각 경로로 전환한다(예: 청각을 열감으로 전환). 대체신호의 강도를 높이는 예로서, 청각 신호의 크기를 증가시키는 것이 있을 수 있다.In addition, the substitute signal correction unit 163 corrects the characteristics (eg, intensity) or type of the substitute signal according to image information, user behavior, or user response. The alternative signal correction unit 163 may recognize a user's behavior (or user's reaction) by analyzing image information. The substitute signal correction unit 163 may determine the user's sensitivity based on the image information and the user's behavior, and corrects the characteristics or types of the substitute signal based on the user's sensitivity. Specifically, when visual information is converted into auditory, tactile, or thermal sensations and transmitted, the sensitivity of feeling a specific sense may vary depending on the user. Therefore, when the alternative signal correction unit 163 determines that the user's sensitivity to the alternative signal is at a low level, it increases the strength of the alternative signal or converts the sensory path for the target information to another sensory path (eg, hearing). into a sense of heat). An example of increasing the strength of an alternative signal may be increasing the loudness of an auditory signal.
제어 및 출력 모듈(160)은 전달신호 동기화부(162)의 동기화 결과를 참조하여 단일 또는 복수의 경로를 설정하고, 설정된 전달 경로를 통해 대체신호를 사용자에 부착된 장치에 출력한다. 전달경로 설정부(164)는 대체신호 생성 모듈(150)에서 변환이 완료된 대체신호를 입력받고, 목표정보별 감각 경로를 기초로 각 경로별 정보변환시간(Tc), 감각별 전달시간(Tt), 감각별 전달장치의 지연시간(Td) 및 감각별 인지시간(Tp)을 고려하여 대체신호의 전달 경로를 설정한다. 제어 및 출력 모듈(160)은 시간 분석부(161)에서 산출한 4가지 시간(① 감각별 정보변환 시간(Tc), ② 감각별 전달시간(Tt), ③ 전달장치의 지연시간(Td) 및 ④ 감각기관별 인지시간(Tp))에 기초하여 전달신호 동기화부(162)가 도출한 동기화 시점에 따라 개별 대체신호를 사용자에게 전달하며, 개별 감각에 대한 사용자의 행동이나 사용자 반응을 고려하여 대체신호의 전달 경로와 세기(강도)를 보정할 수 있다. 시각정보는 오감정보 중 정보량이 가장 많으므로 다른 감각으로 변환할 경우 정보의 축약이 발생하게 된다. 따라서 동일하지 않은 시각정보의 변환을 통해 동일한 대체신호가 생성될 수 있어서 문제되는데, 사용자 행동에 기초한 개인화 보정을 통하여 상기 문제를 해결할 수 있다. 다중경로 출력부(165)는 소정의 시간적 범위에 포함되는 개별 대체신호를, 전달신호 동기화부(162)에서 생성된 동기화 신호를 참조하여, 전달경로 설정부(164)가 설정한 전달경로를 통해 동시에 전달한다.The control and
도 3은 본 발명에 따른 시각정보의 감각 치환 및 다중경로 전달 개념을 예시적으로 나타낸 도면이다. 도 3은 본 발명의 다양한 적용 예시 중에서 군사작전을 수행하는 경우 목표정보를 대체신호로 변환하여 다중경로를 통해 사용자에게 전달하는 상황을 도시한 것이다. 3 is a diagram exemplarily illustrating the concept of sensory substitution and multipath transmission of visual information according to the present invention. FIG. 3 illustrates a situation in which target information is converted into an alternative signal and transmitted to a user through a multipath when performing a military operation among various application examples of the present invention.
입력 모듈(110)은 사용자 입력 정보와 영상정보(정지 이미지 또는 동영상)를 수신하는데, 이 경우 사용자 입력 정보에 포함된 요청정보는 정찰이나 군사 작전을 수행하는 사용자의 목적에 부합하는 정보로서, 인물의 위치, 인물의 거리, 차량의 위치, 차량의 거리 등이 될 수 있다. 입력 모듈(110)은 사용자 입력 정보를 파싱하여 요청정보, 요청감각 정보 및 전달강도 정보를 추출한다. 예를 들어, 요청정보는 '차량의 거리'이고, 요청감각 정보는 '열감'이고, 전달강도 정보는 '상(high)'일 수 있다. The
감각경로 결정 모듈(120)은 사용자 입력 정보에 기초하여 감각경로를 결정한다. 감각경로 결정 모듈(120)은 요청감각 정보에 기초하여 감각경로를 결정할 수 있으며, 요청정보에 기초하여 감각경로를 결정할 수도 있다. 예를 들어, 감각경로 결정 모듈(120)은 요청감각 정보가 '열감'일 경우, 그에 해당하는 감각경로(예: 온도를 왼손을 통해 전달하는 열감 감각경로)를 결정할 수 있다. 다른 예로, 감각경로 결정 모듈(120)은 요청정보가 '차량의 거리'일 경우, '거리'에 대하여 기 설정된 감각경로(예: 소리를 왼쪽 귀를 통해 전달하는 청각 감각경로 및 진동을 왼손을 통해 전달하는 촉각 감각경로)를 결정할 수 있다. 감각경로를 어떤 정보에 기초하여 결정할 것인지는 설정에 의한다.The sensory
영상정보 분할 모듈(130)은 영상정보를 분할하여 다양한 시각정보를 생성한다. 예를 들어, 영상정보 분할 모듈(130)은 영상정보를 분할하여, 객체의 모양, 객체의 테두리, 배경의 외곽선, 객체의 색상, 배경 색상, 빛의 유무, 객체의 질감 등의 형태정보, 객체의 위치, 사용자와 객체 간의 거리, 객체와 다른 객체 간의 거리, 객체의 이동 방향 등의 공간정보, 영상 전체의 지배적인 색상이나 모양 등의 전역정보를 생성한다.The image
목표정보 추출 모듈(140)은 영상정보 분할 모듈(130)이 생성한 시각정보를 기초로 요청정보에 부합하는 시각정보인 목표정보를 추출한다. 예를 들어, 목표정보 추출 모듈(140)은 요청정보인 '차량의 위치'와 '차량의 거리'에 부합하는 목표정보인 차량의 위치 정보 및 사용자와 차량 간의 거리 정보를 추출한다.The target
대체신호 생성 모듈(150)은 사용자 입력 정보에 포함된 전달 강도 정보를 참고하여 목표정보를 변환하여 대체신호를 생성한다. 예를 들어, 대체신호 생성 모듈(150)은 차량의 거리 정보를 변환하여 전달 강도 '상(high)' 수준의 청각 신호와 진동 신호를 생성한다.The alternative
제어 및 출력 모듈(160)은 대체신호를 다중 경로로 전달하여 사용자가 필요한 정보를 효율적으로 지각할 수 있게 한다. 예를 들어, 제어 및 출력 모듈(160)은 사용자가 착용한 스와 진동 장치를 통해 청각 신호와 진동 신호를 동시에 출력하여 사용자가 차량의 거리 정보를 인지할 수 있도록 한다.The control and
본 발명에 따른 감각 치환 및 다중경로 전송 기법은, 기존의 감각 치환 기술과 달리, 복잡한 시각정보의 동기화된 전달이 가능하여 사용자의 지각을 향상할 수 있다. 하나의 예로, 도 3에 도시된 바와 같이, 총을 든 병사의 왼쪽 가까이에 있는 빨간색 공에 대한 정보는 기존 감각치환 기술이나 장치에서 전달할 수 없었던 복잡한 정보이다. 본 발명에 따른 감각 치환 및 다중경로 전송 기법에 따를 경우, 형태정보(공의 둥근 모양)는 소리로 변환하고, 위치정보(병사의 왼쪽)는 손목에 부착한 진동 장치의 왼쪽 진동 소자에 정보를 전달함과 동시에 거리 정보(병사와 병사 앞에 있는 객체와의 거리)는 진동장치의 진동 주기나 진동 세기로 전달하며, 색상정보(빨간색)는 높은 단계(high)로 설정된 열감 신호(온도 정보)를 열전달 장치를 통해 동시에 전달할 수 있다. Unlike conventional sensory substitution techniques, the sensory substitution and multipath transmission technique according to the present invention enables synchronized delivery of complex visual information, thereby improving user perception. As an example, as shown in FIG. 3 , information about a red ball near the left of a soldier holding a gun is complex information that could not be conveyed by existing sensory substitution technologies or devices. According to the sensory substitution and multipath transmission technique according to the present invention, the shape information (the round shape of the ball) is converted into sound, and the position information (the left side of the soldier) is transmitted to the left vibration element of the vibration device attached to the wrist. At the same time, the distance information (the distance between the soldier and the object in front of the soldier) is transmitted as the vibration period or intensity of the vibration device, and the color information (red) transmits the heat signal (temperature information) set to a high level. It can be transferred simultaneously through a heat transfer device.
도 4는 본 발명의 다른 실시예에 따른 시각정보의 감각 치환 및 다중경로 전달 장치(100')의 구성을 나타낸 블록도이다.4 is a block diagram showing the configuration of an apparatus 100' for sensory substitution and multi-path transmission of visual information according to another embodiment of the present invention.
본 발명의 다른 실시예에 따른 시각정보의 감각 치환 및 다중경로 전달 장치(100')는 입력 모듈(110), 감각경로 결정 모듈(120), 목표정보 추출 모듈(140'), 대체신호 생성 모듈(150)과 제어 및 출력 모듈(160)을 포함한다.An apparatus 100' for sensory substitution and multipath delivery of visual information according to another embodiment of the present invention includes an
도 4의 실시예는 도 1의 실시예와 장치 구성에 있어서 차이가 있다. 도 4의 실시예는 도 1의 실시예의 영상정보 분할 모듈(130)과 목표정보 추출 모듈(140)의 기능을 통합하여 하나의 목표정보추출 모듈(140')로 구현하였다. 도 4의 실시예는 도 1의 실시예에 대비하여 작업 부하가 크지 않아 영상정보의 분할 작업과 목표정보 추출 작업의 병렬적 처리가 필요하지 않은 경우에 적용할 수 있다.The embodiment of FIG. 4 is different from the embodiment of FIG. 1 in device configuration. The embodiment of FIG. 4 integrates the functions of the image
목표정보추출 모듈(140')은 입력 모듈(110)에서 전송받은 영상정보를 분할하여 형태정보, 공간정보 및 전역정보 등의 다양한 시각정보를 생성하며, 상기 시각정보를 기초로 복합정보를 생성하며, 생성된 형태정보, 공간정보, 전역정보 및 복합정보 중에서 감각경로 결정 모듈(120)에서 전송받은 요청정보에 부합하는 목표정보를 추출하고, 추출된 목표정보를 대체신호 생성 모듈(150)에 전송한다. 또한 목표정보추출 모듈(140')은 목표정보를 제어 및 출력 모듈(160)에 전송할 수 있다. 목표정보추출 모듈(140')은 상술한 기능을 수행하기 위하여 형태정보 생성부(131), 공간정보 생성부(132), 전역정보 생성부(133), 복합정보 생성부(141) 및 목표정보 추출부(142)를 포함하여 구성되며, 목표정보추출 모듈(140')의 각 구성 요소의 기능은 도 2를 참조하여 전술한 내용과 동일하다.The target information extraction module 140' divides the image information received from the
한편, 시각정보의 감각 치환 및 다중경로 전달 장치(100')에 포함된 입력 모듈(110), 감각경로 결정 모듈(120), 대체신호 생성 모듈(150)과 제어 및 출력 모듈(160)의 기능은 도 1 내지 도 3에서 전술한 내용과 동일하므로 그 설명을 생략한다.Meanwhile, functions of the
도 5(도 5a 및 도 5b)는 본 발명의 일 실시예에 따른 시각정보의 감각 치환 및 다중경로 전달 방법을 설명하기 위한 흐름도이다.5 ( FIGS. 5A and 5B ) is a flowchart for explaining a method for sensory substitution and multipath transfer of visual information according to an embodiment of the present invention.
본 발명에 따른 시각정보의 감각 치환 및 다중경로 전달 방법은 S210 단계 내지 S280 단계를 포함한다.The sensory substitution and multipath transfer method of visual information according to the present invention includes steps S210 to S280.
S210 단계는 요청정보 추출 단계이다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 사용자 입력 정보를 수신하는데, 사용자 입력 정보에는 요청정보(사용자가 전달받기를 원하는 시각정보의 유형을 나타내는 정보), 요청감각 정보(요청정보 전달의 매개가 되는 감각에 대한 정보), 전달 강도 정보 등이 포함될 수 있다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 사용자 입력 정보에서 요청정보를 추출할 수 있다.Step S210 is a request information extraction step. The sensory permutation and multipath transmission of visual information (100, 100′) receives user input information, and the user input information includes request information (information indicating the type of visual information the user wants to receive), requested sensory information ( Information about senses that are mediators of request information delivery), transmission strength information, and the like may be included. The
S220 단계는 영상정보 분할 단계(시각정보 생성 단계)이다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 외부에서 영상정보를 수집한다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 영상정보 수집을 위해 RGB 카메라, 깊이 카메라(3D depth camera), ToF(Time-of-Flight) 이미지센서 또는 적외선카메라 등을 이용할 수 있다. 영상정보에는 정지 이미지 및 연속 이미지(동영상) 중 적어도 어느 하나가 포함될 수 있다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 영상정보를 분할하여 형태정보, 공간정보, 전역정보 등의 시각정보를 생성하며, 생성된 시각정보를 기초로 복합정보를 생성한다. 전술한 바와 같이, 본 발명은 형태정보, 공간정보, 전역정보 및 복합정보 등 영상정보를 기초로 생성된 정보를 '시각정보'로 통칭한다.Step S220 is an image information division step (visual information generation step). Sensory substitution of visual information and
S230 단계는 목표정보를 추출하는 단계이다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 요청정보 분석을 거쳐 S220 단계에서 생성된 각 시각정보의 필요 여부를 판단하고, 요청정보에 부합하는 시각정보, 즉 목표정보를 추출한다. 요청정보에 따라 필요한 정보가 복합적으로 나타날 수 있으므로, 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 요청정보에 따라 필요한 형태정보를 먼저 추출하고, 그 다음으로 요청정보에 해당하는 공간정보를 추출하며, 요청정보와 전역정보/복합정보의 연관성을 분석하여 필요한 경우 전역정보 또는 복합정보를 추출한다. 그리고, 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 추출한 시각정보(형태정보, 공간정보, 전역정보 및 복합정보)를 목표정보로 정한다.Step S230 is a step of extracting target information. Sensory substitution of visual information and multi-path delivery device (100, 100') determines whether each visual information generated in step S220 is necessary through analysis of the requested information, and extracts visual information that meets the requested information, that is, target information do. Since necessary information may appear in a complex manner according to the requested information, the sensory substitution and
S230 단계는 도 5b를 참조하여 하기에 상세하게 설명한다. S230 단계는 S231 단계 내지 S237 단계를 포함한다.Step S230 will be described in detail below with reference to FIG. 5B. Step S230 includes steps S231 to S237.
S231 단계는 요청정보 분석 단계이다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 요청정보를 분석하여 필요한 정보를 구체화한다. 예를 들어, 본 발명이 가상 현실의 서바이벌 게임에 적용된 경우, 사용자 입력(화면이나 버튼 터치)에 기초하여 요청정보가 '사람'으로 결정된 경우, 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 요청정보와 연관성이 있는 시각정보로서 모양, 외곽선(테두리), 위치, 거리, 경로 등을 도출할 수 있다. 이러한 결과에 기초하여, 표 1을 기준으로 하는 경우, 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 이후의 단계(S232 단계, S234 단계, S236 단계)에서 형태 정보(모양, 외곽선), 공간 정보(위치, 거리), 복합 정보(경로)가 필요하다고 판단할 수 있다.Step S231 is a request information analysis step. The
S232 단계는 형태정보의 필요 여부를 판단하는 단계이다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 요청정보 분석 결과 형태정보가 필요하면 S233 단계로, 그렇지 않은 경우 S234 단계를 수행한다.Step S232 is a step of determining whether shape information is required. The
S233 단계는 형태정보 추출 단계이다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 S220 단계에서 생성된 시각정보 중에서 요청정보에 부합하는 형태정보를 추출한 후, S234 단계로 진행한다.Step S233 is a step of extracting shape information. The
S234 단계는 공간정보의 필요 여부를 판단하는 단계이다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 목표정보 분석 결과 공간정보가 필요하면 S235 단계로, 그렇지 않은 경우 S236 단계를 수행한다.Step S234 is a step of determining whether spatial information is needed. The
S235 단계는 공간정보 추출 단계이다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 S220 단계에서 생성된 시각정보 중에서 요청정보에 부합하는 공간정보를 추출한 후, S236 단계로 진행한다.Step S235 is a spatial information extraction step. The
S236 단계는 전역정보/복합정보의 필요 여부를 판단하는 단계이다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 목표정보 분석 결과 전역정보나 복합정보가 필요하면 S237 단계로, 그렇지 않은 경우 S240 단계로 진행한다.Step S236 is a step of determining whether global information/composite information is necessary. The
S237 단계는 전역정보/복합정보 추출 단계이다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 S220 단계에서 생성된 시각정보 중에서 요청정보에 부합하는 전역정보 또는 복합정보를 추출한 후, S240 단계로 진행한다.Step S237 is a global information/composite information extraction step. The
다시 도 5a로 돌아와, 하기와 같이 S240 단계 이하의 단계에 대하여 설명한다.Returning to FIG. 5A again, steps below step S240 will be described as follows.
S240 단계는 감각경로를 결정하는 단계이다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 사용자 입력 정보에 포함된 요청감각 정보에 따라 감각경로를 결정할 수 있지만, 사용자 입력 정보에 포함된 요청정보에 따라 감각경로를 결정할 수도 있다. 또한, 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 목표정보에 따라 감각경로를 결정할 수도 있다.Step S240 is a step of determining a sensory pathway. The sensory permutation and multipath transmission of visual information (100, 100') may determine a sensory pathway according to requested sensory information included in user input information, but may also determine a sensory pathway according to requested information included in user input information. there is. In addition, the
시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 목표정보별로 감각경로를 결정할 수 있는데, 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 목표정보와 감각경로를 매칭하기 위하여 요청정보 또는 목표정보를 이용할 수 있다.The sensory substitution and
S250 단계는 목표정보를 변환하여 대체신호를 생성하는 단계이다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 S230 단계에서 추출한 목표정보를 그와 대응하는 대체신호로 변환한다. 상기 대체신호는 목표정보를 사용자의 감각기관에 전달하기 위한 신호로서, 시각 신호, 청각 신호, 촉각 신호 또는 열감 신호일 수 있다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 단일한 목표정보를 여러 대체신호로 변환할 수도 있고, 복수의 목표정보를 목표정보 각각에 대응하는 개별적인 대체신호로 변환할 수도 있다. 예를 들어, 하나의 목표정보가 음파, 촉각 신호 및 열감 신호 등 복수의 대체신호로 변환될 수 있고, 3개의 목표정보가 각각 음파, 촉각 신호, 열감 신호로 변환될 수 있다.Step S250 is a step of generating an alternative signal by converting target information. The
S260 단계는 대체신호 동기화 단계이다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 목표정보와 목표정보별 감각 경로를 기초로 S250 단계에서 생성된 복수의 대체신호들을 동기화한다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')은 목표정보별 감각 경로에 기초하여 목표정보별로 ① 감각별 정보변환시간(Tc), ② 감각별 전달시간(Tt), ③ 전달장치의 지연시간(Td) 및 ④ 감각기관별 인지시간(Tp)을 산출하고, 산출된 ① 내지 ④ 시간 정보를 기초로 복수의 대체신호에 대한 동기화를 수행한다. 동기화 시점 판단에 있어서 전술한 수학식 1이 사용될 수 있다.Step S260 is an alternative signal synchronization step. The
S270 단계는 대체신호 보정 단계이다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 영상정보 및 사용자 행동에 따라 대체신호의 특성(예:강도) 또는 종류를 보정한다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 상기 영상정보에 대한 분석을 통해 상기 사용자 행동을 인식할 수 있다. 또한, 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 영상정보 입력장치의 위치와 대체신호 전달 장치의 위치에 기초하여 대체신호를 보정할 수 있다. 예를 들어, 영상정보가 입력되는 카메라가 목걸이에 있고, 목표정보는 객체의 위치 정보와 거리 정보이며, 상기 위치 정보가 손에 부착된 진동 장치를 통해 사용자에게 전달되는 경우, 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 카메라의 위치와 진동 장치의 위치 간의 위치의 차이에 기초하여 진동 장치로 전달되는 촉각 신호(진동 신호)를 보정한다. 이 경우 카메라의 위치와 진동 장치의 위치는 3차원 좌표로 표현될 수 있고, 두 위치 간의 차이는 3차원 벡터로 표현될 수 있다.Step S270 is an alternative signal correction step. Sensory substitution of visual information and multi-path delivery devices (100, 100') correct characteristics (eg, intensity) or types of alternative signals according to image information and user behavior. The
S280 단계는 대체신호 출력 단계이다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')는 대체신호의 동기화 시점을 참조하여 각 대체신호에 대하여 단일 또는 복수의 경로를 설정하고, 설정된 전달 경로를 통해 대체신호를 사용자에 부착된 장치에 출력한다. 시각정보의 감각 치환 및 다중경로 전달 장치(100, 100')은 단일 정보를 복수의 전달 경로로 사용자에게 전달할 수도 있고, 복수의 정보를 서로 구분된 다른 경로로 사용자에게 전달할 수도 있다. 시각정보의 감각 치환 및 다중경로 전달 장치(100)는 동기신호에 따라 순차적으로 대체신호를 출력한다.Step S280 is an alternative signal output step. The sensory substitution and multi-path transmission device for visual information (100, 100') sets a single or multiple paths for each alternative signal by referring to the synchronization time of the alternative signal, and attaches the alternative signal to the user through the set transmission path. output to the device. The
한편 도 5(도 5a 및 도 5b)를 참조한 설명에서, 각 단계는 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. 아울러, 기타 생략된 내용이라 하더라도 도 1 내지 도 4의 내용은 도 5의 내용에 적용될 수 있다. 또한, 도 5의 내용은 도 1 내지 도 4의 내용에 적용될 수 있다.Meanwhile, in the description with reference to FIG. 5 ( FIGS. 5A and 5B ), each step may be further divided into additional steps or combined into fewer steps, depending on an embodiment of the present invention. Also, some steps may be omitted if necessary, and the order of steps may be changed. In addition, even if other omitted contents, the contents of FIGS. 1 to 4 may be applied to the contents of FIG. 5 . In addition, the contents of FIG. 5 may be applied to the contents of FIGS. 1 to 4 .
전술한 시각정보의 감각 치환 및 다중경로 전달 방법은 도면에 제시된 흐름도를 참조로 하여 설명되었다. 간단히 설명하기 위하여 상기 방법은 일련의 블록들로 도시되고 설명되었으나, 본 발명은 상기 블록들의 순서에 한정되지 않고, 몇몇 블록들은 다른 블록들과 본 명세서에서 도시되고 기술된 것과 상이한 순서로 또는 동시에 일어날 수도 있으며, 동일한 또는 유사한 결과를 달성하는 다양한 다른 분기, 흐름 경로, 및 블록의 순서들이 구현될 수 있다. 또한, 본 명세서에서 기술되는 방법의 구현을 위하여 도시된 모든 블록들이 요구되지 않을 수도 있다.The sensory substitution and multi-path transmission method of the above-described visual information has been described with reference to the flow chart presented in the drawings. For simplicity, the method is shown and described as a series of blocks, but the invention is not limited to the order of the blocks, and some blocks may occur in a different order or concurrently with other blocks than shown and described herein. and various other branches, flow paths, and sequences of blocks that achieve the same or similar results may be implemented. Also, not all blocks shown may be required for implementation of the methods described herein.
참고로, 본 발명의 실시예에서 사용되는 '~부' 또는 '~모듈'이라는 용어는 소프트웨어 또는 FPGA또는 ASIC과 같은 하드웨어 구성요소일 수 있고, 어떤 역할들을 수행하지만, 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. 모듈 각각의 동작은 하나의 하드웨어를 통해 수행될 수 있고, 각기 다른 하드웨어를 통해 수행될 수도 있다. 복수의 모듈의 동작이 하나의 하드웨어를 통해 수행될 수 있고, 하나의 모듈의 동작이 복수의 하드웨어를 통해 수행될 수도 있다.For reference, the terms '~unit' or '~module' used in the embodiments of the present invention may be software or hardware components such as FPGAs or ASICs, and perform certain roles, but are limited to software or hardware. is not Each operation of the module may be performed through one hardware or may be performed through different hardware. Operations of a plurality of modules may be performed through one hardware, and operations of one module may be performed through a plurality of hardware.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will variously modify and change the present invention within the scope not departing from the spirit and scope of the present invention described in the claims below. You will understand that it can be done.
100, 100': 시각정보의 감각 치환 및 다중경로 전달 장치
110: 입력 모듈
111: 사용자 입력부
112: 사용자 입력 정보 처리부
113: 영상 입력부
120: 감각경로 결정 모듈
130: 영상정보 분할 모듈
131: 형태정보 생성부
132: 공간정보 생성부
133: 전역정보 생성부
140, 140': 목표정보 추출 모듈
141: 복합정보 생성부
142: 시각정보 추출부
150: 대체신호 생성 모듈
151: 제1 정보변환부
152: 제2 정보변환부
153: 제3 정보변환부
160: 제어 및 출력 모듈
161: 시간 분석부
162: 전달신호 동기화부
163: 대체신호 보정부
164: 전달경로 설정부
165: 다중경로 출력부100, 100': sensory substitution of visual information and multi-path transmission device
110: input module
111: user input unit
112: user input information processing unit
113: video input unit
120: sensory pathway determination module
130: image information segmentation module
131: form information generation unit
132: spatial information generator
133: global information generation unit
140, 140': target information extraction module
141: complex information generation unit
142: visual information extraction unit
150: alternative signal generation module
151: first information conversion unit
152: second information conversion unit
153: third information conversion unit
160: control and output module
161: time analysis unit
162: transmission signal synchronization unit
163: alternative signal correction unit
164: delivery route setting unit
165: multipath output unit
Claims (18)
상기 사용자 입력 정보에 기초하여 상기 추출된 정보가 전달되는 적어도 하나의 감각경로를 결정하는 감각경로 결정 모듈;
상기 추출된 정보를 변환하여 상기 적어도 하나의 감각경로 각각에 대응하는 대체신호를 생성하는 대체신호 생성 모듈; 및
상기 대체신호를 상기 사용자의 감각신호 전달 장치를 통해 출력하는 제어 및 출력 모듈;
을 포함하고,
상기 유형은 상기 사용자 입력 정보에 포함되는 것
인 시각정보의 감각 치환 및 다중경로 전달 장치.A target information extraction module for extracting information corresponding to a type requested by a user from image information received from the outside based on user input information;
a sensory path determining module configured to determine at least one sensory path through which the extracted information is transmitted based on the user input information;
an alternative signal generation module for generating an alternative signal corresponding to each of the at least one sensory pathway by converting the extracted information; and
a control and output module for outputting the alternative signal through the user's sensory signal transmission device;
including,
The type is included in the user input information
A device for sensory substitution and multipath transmission of human visual information.
복수 개의 감각경로이고,
상기 대체신호 생성 모듈은,
상기 추출된 정보를 변환하여 상기 복수의 감각경로 각각에 대응하는 대체신호를 생성하는 것
인 시각정보의 감각 치환 및 다중경로 전달 장치.The method of claim 1, wherein the at least one sensory pathway,
multiple sensory pathways,
The alternative signal generation module,
converting the extracted information to generate an alternative signal corresponding to each of the plurality of sensory pathways;
A device for sensory substitution and multipath transmission of human visual information.
시각, 청각, 촉각 및 열감 중 적어도 2개 이상의 감각에 해당하는 감각경로를 포함하는 것
인 시각정보의 감각 치환 및 다중경로 전달 장치.The method of claim 2, wherein the plurality of sensory pathways,
Including sensory pathways corresponding to at least two or more senses among sight, hearing, touch and heat
A device for sensory substitution and multipath transmission of human visual information.
상기 영상정보를 분석하여 형태정보, 공간정보, 전역정보 및 복합정보 중 적어도 어느 하나를 포함하는 전체 시각정보를 생성하고,
상기 사용자 입력 정보에 기초하여 상기 전체 시각정보 중에서 상기 유형에 해당하는 정보를 추출하는 것
인 시각정보의 감각 치환 및 다중경로 전달 장치.The method of claim 1, wherein the target information extraction module,
Analyzing the image information to generate overall visual information including at least one of shape information, spatial information, global information, and composite information;
Extracting information corresponding to the type from among the total visual information based on the user input information
A device for sensory substitution and multipath transmission of human visual information.
상기 영상정보의 프레임을 기준으로 상기 복수 개의 감각경로 각각에 대응하는 대체신호들을 동기화하고, 상기 동기화된 대체신호를 상기 감각신호 전달 장치를 통해 출력하는 것
인 시각정보의 감각 치환 및 다중경로 전달 장치.The method of claim 2, wherein the control and output module,
Synchronizing alternative signals corresponding to each of the plurality of sensory pathways based on a frame of the image information, and outputting the synchronized alternative signals through the sensory signal transmission device.
A device for sensory substitution and multipath transmission of human visual information.
상기 영상정보를 기초로 상기 사용자의 행동을 인식하고, 상기 사용자의 행동에 기초하여 상기 대체신호의 특성을 보정하며, 상기 보정된 대체신호를 상기 감각신호 전달 장치를 통해 출력하는 것
인 시각정보의 감각 치환 및 다중경로 전달 장치.The method of claim 1, wherein the control and output module,
Recognizing the user's behavior based on the image information, correcting characteristics of the alternative signal based on the user's behavior, and outputting the corrected alternative signal through the sensory signal transmission device.
A device for sensory substitution and multipath transmission of human visual information.
상기 영상정보의 입력 장치의 위치와 상기 감각신호 전달 장치의 위치에 기초하여 상기 대체신호의 특성을 보정하며, 상기 보정된 대체신호를 상기 감각신호 전달 장치를 통해 출력하는 것
인 시각정보의 감각 치환 및 다중경로 전달 장치.The method of claim 1, wherein the control and output module,
Correcting characteristics of the substitute signal based on the position of the image information input device and the position of the sensory signal transmission device, and outputting the corrected substitute signal through the sensory signal transmission device.
A device for sensory substitution and multipath transmission of human visual information.
전달 강도에 관한 정보를 포함하고,
상기 제어 및 출력 모듈은,
상기 전달 강도에 따라 상기 대체신호의 강도를 보정하며, 상기 보정된 대체신호를 상기 감각신호 전달 장치를 통해 출력하는 것
인 시각정보의 감각 치환 및 다중경로 전달 장치.The method of claim 1, wherein the user input information,
contains information about the strength of transmission;
The control and output module,
Correcting the strength of the alternative signal according to the transmission strength, and outputting the corrected replacement signal through the sensory signal transmission device.
A device for sensory substitution and multipath transmission of human visual information.
상기 대체신호 생성 모듈에서 상기 추출된 정보를 상기 대체신호로 변환하는 데 소요되는 시간을 산출하고,
상기 대체신호 생성 모듈은,
상기 시간에 기초하여 상기 추출된 정보를 상기 대체신호로 변환하는 과정을 단순화할 것인지 여부를 판단하는 것
인 시각정보의 감각 치환 및 다중경로 전달 장치.The method of claim 1, wherein the control and output module,
Calculate the time required to convert the extracted information into the alternative signal in the alternative signal generating module;
The alternative signal generation module,
Determining whether to simplify a process of converting the extracted information into the alternative signal based on the time
A device for sensory substitution and multipath transmission of human visual information.
상기 사용자 입력 정보에 기초하여 상기 추출된 정보가 전달되는 적어도 하나의 감각경로를 결정하는 단계;
상기 추출된 정보를 변환하여 상기 적어도 하나의 감각경로 각각에 대응하는 대체신호를 생성하는 단계; 및
상기 대체신호를 상기 사용자의 감각신호 전달 장치를 통해 출력하는 단계;
를 포함하는 시각정보의 감각 치환 및 다중경로 전달 방법.Extracting information corresponding to a type requested by a user from image information received from the outside based on user input information;
determining at least one sensory pathway through which the extracted information is transmitted based on the user input information;
generating an alternative signal corresponding to each of the at least one sensory pathway by converting the extracted information; and
outputting the alternative signal through the user's sensory signal transmission device;
Sensory substitution and multi-path transmission method of visual information including.
복수 개의 감각경로이고,
상기 대체신호를 생성하는 단계는,
상기 추출된 정보를 상기 복수의 감각경로 각각에 대응하는 대체신호를 생성하는 것
인 시각정보의 감각 치환 및 다중경로 전달 방법.The method of claim 10, wherein the at least one sensory pathway,
multiple sensory pathways,
Generating the replacement signal,
Generating the extracted information into an alternative signal corresponding to each of the plurality of sensory pathways
Sensory substitution and multipath transmission method of human visual information.
시각, 청각, 촉각 및 열감 중 적어도 2개 이상의 감각에 해당하는 감각경로를 포함하는 것
인 시각정보의 감각 치환 및 다중경로 전달 방법.The method of claim 11, wherein the plurality of sensory pathways,
Including sensory pathways corresponding to at least two or more senses among sight, hearing, touch and heat
Sensory substitution and multipath transmission method of human visual information.
상기 대체신호를 상기 영상정보의 프레임을 기준으로 동기화하는 대체신호 동기화 단계;를 더 포함하는 시각정보의 감각 치환 및 다중경로 전달 방법.The method of claim 10, after generating the replacement signal,
An alternative signal synchronization step of synchronizing the alternative signal based on the frame of the image information; a sensory substitution and multi-path transmission method of visual information.
상기 영상정보의 입력 장치의 위치와 상기 감각신호 전달 장치의 위치에 기초하여 상기 대체신호의 특성을 보정하는 대체신호 보정 단계;를 더 포함하고,
상기 출력하는 단계는,
상기 보정된 대체신호를 상기 감각신호 전달 장치를 통하여 출력하는 것
인 시각정보의 감각 치환 및 다중경로 전달 방법.The method of claim 10, after generating the replacement signal,
Further comprising a substitute signal correction step of correcting the characteristics of the substitute signal based on the position of the image information input device and the position of the sense signal transmission device,
The outputting step is
Outputting the corrected alternative signal through the sensory signal transmission device
Sensory substitution and multipath transmission method of human visual information.
상기 영상정보를 분석하여 형태정보, 공간정보, 전역정보 및 복합정보 중 적어도 어느 하나를 포함하는 전체 시각정보를 생성하고,
상기 사용자 입력 정보에 기초하여 상기 전체 시각정보 중에서 상기 유형에 해당하는 정보를 추출하는 것
인 시각정보의 감각 치환 및 다중경로 전달 방법.The method of claim 10, wherein the step of extracting information corresponding to the type requested by the user comprises:
Analyzing the image information to generate overall visual information including at least one of shape information, spatial information, global information, and composite information;
Extracting information corresponding to the type from among the total visual information based on the user input information
Sensory substitution and multipath transmission method of human visual information.
상기 영상정보의 프레임을 기준으로 상기 복수 개의 감각경로 각각에 대응하는 대체신호들을 동기화하고, 상기 동기화된 대체신호를 상기 감각신호 전달 장치를 통해 출력하는 것
인 시각정보의 감각 치환 및 다중경로 전달 방법.The method of claim 11, wherein the outputting step,
Synchronizing alternative signals corresponding to each of the plurality of sensory pathways based on a frame of the image information, and outputting the synchronized alternative signals through the sensory signal transmission device.
Sensory substitution and multipath transmission method of human visual information.
전달 강도에 관한 정보를 포함하고,
상기 대체신호를 생성하는 단계는,
상기 전달 강도를 반영하여 상기 대체신호의 강도를 보정하는 것
인 시각정보의 감각 치환 및 다중경로 전달 방법.The method of claim 10, wherein the user input information,
contains information about the strength of transmission;
Generating the replacement signal,
Correcting the intensity of the replacement signal by reflecting the transmission intensity
Sensory substitution and multipath transmission method of human visual information.
상기 추출된 정보를 상기 대체신호로 변환하는 데 소요되는 시간을 산출하고,
상기 시간에 기초하여 상기 추출된 정보를 상기 대체신호로 변환하는 과정을 단순화할 것인지 여부를 판단하고, 그 판단 결과에 기초하여 상기 추출된 정보를 변환하여 상기 대체신호를 생성하는 것
인 시각정보의 감각 치환 및 다중경로 전달 방법.
11. The method of claim 10, wherein generating the replacement signal comprises:
Calculate the time required to convert the extracted information into the alternative signal;
Determining whether to simplify the process of converting the extracted information into the alternative signal based on the time, and generating the alternative signal by converting the extracted information based on the determination result
Sensory substitution and multipath transmission method of human visual information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/952,493 US20230103788A1 (en) | 2021-10-01 | 2022-09-26 | Apparatus and method for sensory substitution and multi-path transmission of visual information |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20210130969 | 2021-10-01 | ||
KR1020210130969 | 2021-10-01 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230047889A true KR20230047889A (en) | 2023-04-10 |
Family
ID=85984603
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220081959A KR20230047889A (en) | 2021-10-01 | 2022-07-04 | Apparatus and method for sensory substitution and multi-path transmission of visual information |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230047889A (en) |
-
2022
- 2022-07-04 KR KR1020220081959A patent/KR20230047889A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102615844B1 (en) | A portable system that allows blind or visually impaired people to understand their surroundings through sound or touch. | |
CN204744865U (en) | Device for environmental information around reception and registration of visual disability personage based on sense of hearing | |
CN110413108B (en) | Virtual picture processing method, device and system, electronic equipment and storage medium | |
JP2014508596A (en) | Optical device for individuals with visual impairment | |
US11943602B1 (en) | Systems and methods for spatial update latency compensation for head-tracked audio | |
Ni et al. | A walking assistant robotic system for the visually impaired based on computer vision and tactile perception | |
KR101083824B1 (en) | stereo camera system and parallax detection method using thereof | |
CN108919498A (en) | A kind of augmented reality glasses based on multi-modality imaging and Multilayer Perception | |
CN110717344A (en) | Auxiliary communication system based on intelligent wearable equipment | |
KR20210008062A (en) | Personalizing the head transfer function using simulation | |
EP3058926A1 (en) | Method of transforming visual data into acoustic signals and aid device for visually impaired or blind persons | |
US20150070477A1 (en) | Image processing device, image processing method, and program | |
Bologna et al. | On the use of the auditory pathway to represent image scenes in real-time | |
Hoang et al. | Obstacle detection and warning for visually impaired people based on electrode matrix and mobile Kinect | |
KR20230047889A (en) | Apparatus and method for sensory substitution and multi-path transmission of visual information | |
KR102305403B1 (en) | Method of detection gesture of wearable augmented reality device using depth map and wearable augmented reality device capable of detecting gesture using depth map | |
CN113674593A (en) | Head-wearing forehead machine system for touch display | |
Bologna et al. | Toward local and global perception modules for vision substitution | |
US20230103788A1 (en) | Apparatus and method for sensory substitution and multi-path transmission of visual information | |
Fusiello et al. | A multimodal electronic travel aid device | |
CN106726378A (en) | Blind person's Circuit Finder based on stereoscopic vision and electroluminescent tactile array | |
KR20120017183A (en) | Visual aid system based on the analysis of visual attention and visual aiding method for using the analysis of visual attention | |
US11250675B2 (en) | Systems and methods for characterization of mechanical impedance of biological tissues | |
KR20160090781A (en) | Apparatus for Converting Video Signal to Sound Method for Converting Video Signal into Voice Signal for the Visually Impaired | |
CN113362243A (en) | Model training method, image processing method and apparatus, medium, and electronic device |