KR20060133140A - Reproduction of visual image using auditory stimulation and method controlling of the same - Google Patents

Reproduction of visual image using auditory stimulation and method controlling of the same Download PDF

Info

Publication number
KR20060133140A
KR20060133140A KR1020050052789A KR20050052789A KR20060133140A KR 20060133140 A KR20060133140 A KR 20060133140A KR 1020050052789 A KR1020050052789 A KR 1020050052789A KR 20050052789 A KR20050052789 A KR 20050052789A KR 20060133140 A KR20060133140 A KR 20060133140A
Authority
KR
South Korea
Prior art keywords
data
sound
distance
auditory
axis
Prior art date
Application number
KR1020050052789A
Other languages
Korean (ko)
Other versions
KR100690562B1 (en
Inventor
이종민
조진호
Original Assignee
경북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경북대학교 산학협력단 filed Critical 경북대학교 산학협력단
Priority to KR1020050052789A priority Critical patent/KR100690562B1/en
Publication of KR20060133140A publication Critical patent/KR20060133140A/en
Application granted granted Critical
Publication of KR100690562B1 publication Critical patent/KR100690562B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/006Teaching or communicating with blind persons using audible presentation of the information

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Stereophonic System (AREA)

Abstract

A device of reproducing a visual image by using auditory stimulation and a control method thereof are provided to entirely sense forward visual information through plural distance sensors or at least one or more image sensors and configure the visual information into three-dimensional information before converting the three-dimensional information into auditory information so that a user can entirely recognize the three-dimensional information expressed as the auditory information. A device of reproducing a visual image by using auditory stimulation comprises the followings: an input unit(10) including plural distance sensors and one or more image sensors; and a controller(20). The controller(20) generates a plurality of three-dimensional information through information. The information includes distance sensed by the plural distance sensors and includes location where the distance sensors are arranged or includes plural pixels included in image data sensed by the image sensor. The controller(20) generates a plurality of voice data based on the three-dimensional information, and divides the voice data into left and right data for left and right output units so that a user can simultaneously recognize the voice data.

Description

청각을 이용한 시각 재현 장치 및 제어방법{Reproduction of Visual Image using Auditory Stimulation and Method Controlling of the same}Reproduction of Visual Image using Auditory Stimulation and Method Controlling of the same}

도 1은 종래기술인 시각정보를 청각 정보로 변환하는 장치의 구성도를 나타낸 것이다.1 is a block diagram of a device for converting visual information into audio information according to the prior art.

도 2는 본 발명의 제1 실시예에 해당하는 장치구성도의 예시를 나타낸 것이다.Figure 2 shows an example of the device configuration corresponding to the first embodiment of the present invention.

도 3은 본 발명의 제1 실시예를 실시한 모습을 예시적으로 나타낸 것이다.3 exemplarily shows an embodiment of the first embodiment of the present invention.

도 4는 본 발명의 제1 실시예에 있어서, 3차원정보를 얻는 방법을 나타낸 것이다.4 shows a method of obtaining three-dimensional information in the first embodiment of the present invention.

도 5는 본 발명의 제2 실시예를 실시한 모습을 예시적으로 나타낸 것이다.5 exemplarily shows an embodiment of the second embodiment of the present invention.

도 6은 본 발명의 제2 실시예에 있어서, 3차원 정보를 얻는 방법을 나타낸 것이다.6 shows a method of obtaining three-dimensional information in the second embodiment of the present invention.

*도면의 주요부호 설명** Description of Major Symbols in Drawings *

10…입력부10... Input

11…거리센서11... Distance sensor

12…이미지센서12... Image sensor

20…제어부20... Control

21…프로세서21... Processor

30…출력부30... Output

31…좌측출력부31... Left output part

32…우측출력부32... Right output

본 발명은 시각정보를 청각정보로 변환하여 시각장애우들이 귀로 감지할 수 있는 소리의 변화를 통해 시각정보를 얻을 수 있도록 한 청각을 이용한 시각 재현 장치 및 제어방법에 관한 것이다. 보다 상세하게는, 다수개의 거리센서 또는 하나 이상의 이미지센서를 포함하는 입력부와 상기 입력부에 포함되는 다수개의 거리센서에 의해 감지되는 거리와 상기 거리센서가 배열된 위치 또는 상기 이미지센서에 의해 감지된 이미지데이터에 포함되는 다수개의 픽셀에 포함된 정보를 통해 다수개의 3차원정보를 생성하고, 상기 3차원정보를 바탕으로 다수개의 소리데이터를 생성하여, 좌측 및 우측 출력부에 구분하여 상기 소리데이터를 동시에 인식시키는 것을 특징으로 한다.The present invention relates to a visual reproducing apparatus and a control method using the auditory to convert the visual information into auditory information to obtain visual information by changing the sound that can be perceived by the hearing impaired. More specifically, an input unit including a plurality of distance sensors or one or more image sensors and a distance detected by a plurality of distance sensors included in the input unit, a position where the distance sensors are arranged, or an image detected by the image sensor Generate a plurality of three-dimensional information through the information contained in the plurality of pixels included in the data, generate a plurality of sound data based on the three-dimensional information, and divide the sound data at the left and right outputs at the same time It is characterized in that the recognition.

시각장애우들은 전방에 위치한 장애물통과, 계단통로이동 및 길찾기등은 시각을 제외한 촉각 및 청각등을 이용하는 것이 일반적이었다. 보다 상세하게는, 상기 시각장애우들은 시각장애우용 지팡이를 사용하여 장애물통과 및 계단확인등을 할 수 있었으며, 보행자통로에 부분부분 위치한 점자안내문이나 시각장애우용보도 블록을 이용하여 보행할 수 있었다. 상기 시각장애우용 지팡이는 소모되는 비용이 작아서, 모르는 길을 찾아갈 때에 보행에 있어서 발에 걸리는 장애물의 유무를 확인하거나, 계단 등 보행도로의 변형유무를 확인할 수 있는 장치로서 널리 사용되지만, 지팡이에 걸리거나 또는 타인에게 불쾌감을 조성할 수 있는 등, 상기 지팡이에 의해 오히려 더욱 시각장애우들이 위험해질 수 있는 단점이 있었다. 또한 지팡이에 의해서는 머리에 걸릴 수 있는 상부에 위치한 장애물을 감지할 수 없어, 상기 상부에 위치한 장애물에 의해 부상당할 위험이 있었다.For the blind, it was common to use the sense of touch and hearing, except vision, for obstacle passage, stairway movement, and pathfinding. In more detail, the visually impaired people were able to pass obstacles and check stairs using a wand for visually impaired persons, and could walk using a braille guide or a visually impaired visual aid block located in a pedestrian passage. Although the cane for the visually impaired is low in cost, it is widely used as a device for checking the presence or absence of obstacles on the foot when walking a road or checking the deformation of a walking road such as a stairway. There was a drawback that the cane could be more dangerous by the cane, such as being hungry or causing discomfort to others. In addition, the cane could not detect the obstacle located in the upper part that could be caught on the head, there was a risk of being injured by the obstacle located in the upper part.

또는 특별훈련을 수행한 맹도견(盲導犬)의 도움을 받는 방법을 사용할 수 있으나, 상기 맹도견을 시각장애우들의 길안내를 위한 필수적 도우미로 인식되지 않고, 일반적인 애완견으로 취급받아 출입이 허용되지 않는 공간이 있어, 시각장애우들이 편리하게 사용할 수 없는 단점이 있었으며, 또한, 높은 비용에 의해 널리 사용되지 못하는 단점이 있었다.Or you can use the method of receiving help from the guide dog who performed special training, but there is a space where the guide dog is not recognized as an essential helper to guide the visually impaired, and is treated as a general dog and is not allowed to enter. In addition, the visually impaired people had a disadvantage in that they could not be used conveniently, and also had a disadvantage in that they were not widely used due to high cost.

상기와 같은 시각장애우들의 안전보행을 위한 장치 또는 방법들을 대치하기 위하여, 시각정보를 인지할 수 없는 시각장애우들이 보행 또는 활동할 때에 전방에 장애물이 존재할 경우, 상기 장애물에 대하여 인지할 수 있도록 보조하는 장치들이 개발되고 있다. 상기 장치들에 대한 예로는 종래의 장치로는 한국공개특허 제10-2003-0083031호(시각정보를 청각 정보로 변환하는 방법 및 그 장치)를 들 수 있다.In order to replace the devices or methods for safe walking of the visually impaired people, a device that assists the visually impaired people who can not recognize visual information when there is an obstacle in front of them when walking or doing activities. Are being developed. As an example of the devices, a conventional device may include Korean Patent Laid-Open Publication No. 10-2003-0083031 (Method and apparatus for converting visual information into auditory information).

상기 한국공개특허 제10-2003-0083031호(시각정보를 청각 정보로 변환하는 방법 및 그 장치)는 도 1에 도시한 바와 같이, 시각정보를 주파수를 다르게 할당하 여 가청음으로 변환하여 제공하는 방식으로 시각정보를 청각 정보로 변환하는 방법 및 이를 이용하는 장치를 제시하고 있다. 상기 '시각정보를 청각 정보로 변환하는 방법 및 그 장치'는 물체까지의 거리에 따라 주파수를 다르게 할당하여 양측의 거리센서에 의해 다르게 감지되는 경로를 청각으로 변환하여 제공함으로써, 물체의 거리 및 위치를 시각 대신 청각을 이용하여 반복적인 학습을 통하여 알 수 있도록 하였으며, 전방의 물체에 대한 거리 및 위치정보를 얻기 위해 빔을 조사하고 반사파를 좌, 우로 이격된 장치에서 수신하여, 수신장치와 물체와의 거리정보를 가청음으로 구분하여 들려줌으로써, 사용자가 수신장치의 좌우 이격거리 및 좌우 귀에 인지되는 음색의 편차를 이용하여 물체의 거리 및 위치를 추정하게 하도록 하였다. 상기 '시각정보를 청각 정보로 변환하는 방법 및 그 장치'는 물체와의 거리를 주파수를 통해 나타냄으로써, 물체와의 거리를 인지할 수 있도록 한 장점이 있으나, 사용자 전방에 있는 물체의 한 점만을 인지하기 때문에, 전방의 상태를 전체적으로 인식할 수 없는 단점이 있었다.The Korean Patent Publication No. 10-2003-0083031 (method and apparatus for converting visual information into auditory information), as shown in FIG. A method of converting visual information into auditory information and an apparatus using the same are provided. The method and apparatus for converting visual information into auditory information allocates frequencies differently according to distances to objects, and converts and provides paths that are differently sensed by distance sensors on both sides, thereby providing distances and positions of objects. It can be known through repetitive learning using auditory instead of visual. To obtain distance and position information about the object in front, the beam is irradiated and the reflected wave is received from the device spaced left and right. By telling the distance information of the audible sound, the user can estimate the distance and position of the object by using the left and right separation distance of the receiver and the deviation of the tone perceived by the left and right ears. The method and apparatus for converting visual information into auditory information has an advantage of allowing a distance to an object to be recognized by displaying a distance to the object through a frequency, but only one point of the object in front of the user. Because of the perception, there was a drawback of not being able to fully recognize the state of the front.

따라서 시각장애우들이 시각정보에 대한 전체적인 데이터를 청각을 통해 인지할 수 있도록 하는 장치 및 방법이 개발되고 있다.Therefore, a device and a method for allowing the visually impaired to recognize the overall data on visual information through hearing are being developed.

본 발명은 상기 문제점을 해결하기 위한 것으로서, 시각장애우들이 시각정보로서 받아들일 수 있는 전방의 시각정보를 청각정보로 변환하여 상기 시각정보를 전체적으로 인지할 수 있도록 하는 장치 및 방법을 제안하는 데에 그 목적이 있다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and proposes an apparatus and method for converting forward visual information that can be accepted as visual information into auditory information so that the visual information can be recognized as a whole. There is a purpose.

또한 본 발명은 시각정보에 대한 3차원 정보를 생성하기 위하여, 다수개의 거리센서 또는 이미지센서를 포함하여, 상기 다수개의 거리센서를 통해 인식되는 다수개의 거리값과, 상기 거리센서가 배열된 위치를 통해 3차원 정보를 생성하거나 또는 적어도 하나 이상의 이미지센서를 통해 입력된 이미지데이터에 포함되는 다수개의 픽셀이 갖는 정보를 통해 3차원정보를 생성하는 장치 및 방법을 제안하는 데에 그 목적이 있다.In addition, the present invention includes a plurality of distance sensors or image sensors, in order to generate three-dimensional information about the visual information, a plurality of distance values recognized by the plurality of distance sensors and the position where the distance sensor is arranged An object of the present invention is to propose an apparatus and method for generating three-dimensional information through information generated by a plurality of pixels included in image data input through at least one or more image sensors.

또한 상기 3차원정보를 소리의 파라미터인 크기, 높이, 음색(종류), 시차, 좌우측스피커를 이용한 스트레오사운드방법 중 세 개의 파라미터를 선택하여, 상기 3차원정보에 상기 선택한 소리의 파라미터를 각각 대비시켜, 상기 삼차원정보를 나타내는 소리데이터를 생성하고, 상기 3차원정보에 대한 각각의 소리데이터를 동시에 들려줌으로서, 동시에 들리는 다양한 소리를 듣고 사용자가 전방에 대한 전체적인 모습을 인식할 수 있도록 한 장치 및 방법을 제안하는 것을 목적으로 한다.In addition, the three-dimensional information is selected from the three parameters among the stereo sound method using the size, height, tone (kind), parallax, left and right speakers that are the parameters of the sound, and contrasts the selected parameter of the sound with the three-dimensional information, respectively By generating sound data representing the three-dimensional information, and simultaneously listening to each sound data for the three-dimensional information, the device and method for listening to a variety of simultaneous sounds to allow the user to recognize the overall appearance of the front It is for the purpose of suggestion.

또한 사용자가 장치를 능숙하게 사용하는지에 대한 여부에 따라, 즉, 상기 다양한 소리가 혼합된 청각정보를 구분할 수 있는 능력에 따라, 상기 청각정보로 변환시키는 시각정보의 양을 조절할 수 있는 장치 및 방법을 제안하는 것을 목적으로 한다.In addition, the apparatus and method that can adjust the amount of visual information to be converted into the auditory information according to whether the user skillfully use the device, that is, the ability to distinguish the auditory information mixed with the various sounds The purpose is to propose.

본 발명은 상기 목적을 달성하기 위하여, 주파수를 갖는 발신신호를 외부로 내보내는 송신부와 발신신호가 반사되어 되돌아오는 수신신호를 실시간으로 수신하는 수신부로 구성되는 다수개의 거리센서가 소정 간격으로 이격되어 배열되는 거리거리센서배열을 적어도 하나 이상 포함하는 입력부; 상기 발신신호가 송신부에 의해 발 신된 때부터 상기 발신신호가 반사되어 생성된 수신신호를 수신부에서 감지할 때까지의 시간인 수신시간을 측정하는 타이머와, 상기 발신신호 또는 수신신호의 특성과 상기 수신시간을 통해 상기 다수개의 거리센서에 대한 각각의 거리데이터를 생성하고, 상기 거리센서가 거리거리센서배열에 위치한 가로배열을 x축데이터로, 세로배열을 y축데이터로 하고, 상기 생성된 거리데이터를 z축데이터로 한 3차원 정보를 포함하는 거리프로파일이미지데이터(range profile image data)를 생성하고, 소리의 크기, 소리의 높이, 소리의 종류, 소리의 시차 및 스트레오 사운드중 선택하여, 상기 x축데이터, y축데이터 및 z축 데이터에 따라 상기 선택한 세 개의 파라미터가 변화하도록 상기 거리프로파일이미지데이터에 포함된 다수개의 3차원정보에 대한 각각의 소리데이터를 생성하고, 상기 다수개의 소리데이터를 통해 좌측출력부 및 우측 출력부에 출력되는 좌측 및 우측 청각데이터를 생성하는 디지털 신호 처리 장치(Digital Signal Processor : DSP) 또는 초소형 연산처리장치(Micro-processing unit : MPU) 중 어느 하나 이상을 포함하는 조합으로 구성되는 프로세서를 포함하는 제어부; 및 좌측 및 우측이 구분가능하도록 표시되어 있는 이어폰, 헤드폰 또는 골전도장치 중 어느 하나로 구성되고, 상기 좌측청각데이터 및 우측청각데이터를 사용자가 들을 수 있도록 출력하는 출력부;를 포함하는 청각을 이용한 시각재현장치를 제안한다. In order to achieve the above object, in the present invention, a plurality of distance sensors, each consisting of a transmitter for transmitting an outgoing signal having a frequency to the outside and a receiver for receiving a received signal reflected by the outgoing signal in real time, are spaced apart at predetermined intervals. An input unit including at least one distance sensor array; A timer for measuring a reception time, which is a time from when the transmission signal is transmitted by the transmitter to the reception unit when the reception signal is reflected and generated, the characteristics of the transmission signal or reception signal, and the reception signal; Each distance data of the plurality of distance sensors is generated through time, and the distance sensor is located in the distance distance sensor array, the horizontal array is x-axis data, the vertical array is y-axis data, and the generated distance data. Generate range profile image data including three-dimensional information using z-axis data, and select from among loudness, height of sound, type of sound, parallax of sound and stereo sound. A plurality of distance profile image data included in the distance profile image data such that the selected three parameters change according to the axis data, the y axis data, and the z axis data. A digital signal processor (DSP) for generating respective sound data for three-dimensional information and generating left and right auditory data output to the left and right output units through the plurality of sound data; A control unit including a processor configured in a combination including at least one of a micro-processing unit (MPU); And an output unit configured to include one of an earphone, a headphone, or a bone conduction device in which left and right sides are distinguishable, and outputting the left auditory data and the right auditory data so that a user can listen. We propose a reproduction device.

상기 청각을 이용한 시각재현장치의 상기 입력부에 포함되는 거리센서의 주파수를 갖는 발신신호는 초음파, 적외선, 전자파, 레이저 중 어느 하나인 것이 바람직하다. Preferably, the transmission signal having the frequency of the distance sensor included in the input unit of the visual reproducing apparatus using the auditory sound is any one of ultrasonic waves, infrared rays, electromagnetic waves, and lasers.

또한 상기 제어부는 상기 입력부에서 전송한 수신신호를 디지털 신호 처리 장치(Digital Signal Processor : DSP) 또는 초소형 연산처리장치(Micro-processing unit : MPU)에 의해 처리할 수 있도록 아날로그 신호에서 디지털신호로 변환하는 A/D컨버터(Analog/Digital Converter)를 추가적으로 포함하고, 수신부에서 수신신호를 감지하였을 때, 상기 수신신호를 생성한 발신신호를 구분하기 위하여, 상기 입력부의 송신부에서 외부로 방출하는 발신신호의 간격을 조절하는 펄스생성부를 추가적으로 포함하는 것이 바람직하다. 또한 거리프로파일이미지데이터의 일부분만을 소리데이터로 변환시키기 위하여, 상기 거리프로파일이미지데이터의 일부분을 조절하는 조절부를 추가적으로 포함하는 것이 바람직하다.The control unit may convert an analog signal into a digital signal so that the received signal transmitted from the input unit may be processed by a digital signal processor (DSP) or a micro-processing unit (MPU). An additional A / D converter (Analog / Digital Converter), and when the receiving unit detects the received signal, in order to distinguish the outgoing signal that generated the received signal, the interval of the outgoing signal emitted from the transmitting unit to the outside It is preferable to further include a pulse generating unit for controlling the. In addition, in order to convert only a part of the distance profile image data into sound data, it is preferable to further include an adjusting unit for adjusting a part of the distance profile image data.

상기 거리데이터는 발신신호 또는 수신신호의 주파수 또는 진폭과 상기 수신시간을 2로 나눈값을 통해 생성되거나, 상기 거리데이터는 기온을 변수로 사용하는 음속계산법을 통해 생성한 음속데이터와 상기 수신시간을 2로 나눈값을 통해 생성되는 것이 바람직하다. 또한 상기 음속데이터를 생성하기 위하여, 음속계산법의 변수중 하나인 기온을 측정하기 위한 온도를 측정하여 디지털 형태의 데이터로 제어부에 전송할 수있는 온도계를 추가적으로 포함하는 것을 추가적으로 포함하는 것이 더욱 바람직하다. 더욱 바람직하게는 상기 거리데이터는 음속계산법에 사용되는 기온을 평균기온으로 설정하여, 상기 평균음속을 통해 생성될 수 있다.The distance data is generated by dividing the frequency or amplitude of the outgoing signal or the received signal by the reception time by two, or the distance data is generated by the sound speed data generated by the sound speed calculation method using temperature as a variable. Preferably generated by dividing by two. In addition, in order to generate the sound speed data, it is more preferable to further include a thermometer for measuring the temperature for measuring the temperature, which is one of the variables of the sound speed calculation method, and transmits the digital data to the control unit. More preferably, the distance data may be generated through the average sound speed by setting the temperature used in the sound speed calculation method to an average temperature.

또한 상기 입력부의 거리거리센서배열은 사용자를 중심으로 좌측과 우측에 소정거리를 두고 이격되어 위치하는 것이 바람직하다. 상기 x축중심의 좌측에 위치하는 x축데이터는 좌측에 위치한 거리거리센서배열에 포함된 거리센서에 의해 생성 되고, 우측에 위치하는 x축데이터는 우측에 위치한 거리거리센서배열에 의해 생성되는 것일 수 있다.In addition, the distance sensor array of the input unit is preferably spaced apart from the user at a predetermined distance on the left and right. The x-axis data located on the left side of the x-axis center is generated by the distance sensor included in the distance distance sensor array on the left side, and the x-axis data on the right side is generated by the distance distance sensor array on the right side. Can be.

상기 소리데이터는 상기 y축데이터가 커질수록 소리의 높이가 커지고(주파수가 작아지고), 상기 z축데이터가 커질수록 소리의 크기(음압 또는 세기(intensity), 음압레벨(dB수))가 커지도록 생성하고, 상기 x축 중심의 좌측에 위치한 x축데이터를 갖는 거리프로파일이미지데이터에 대한 소리데이터는 좌측청각데이터로 생성하고, 우측에 위치한 x축데이터를 갖는 거리프로파일이미지데이터에 대한 소리데이터는 우측청각데이터로 생성하는 것이 바람직하다.As the y-axis data becomes larger, the sound data becomes louder (the frequency becomes smaller), and as the z-axis data becomes larger, the loudness (sound pressure or intensity, sound pressure level (dB number)) becomes larger. The sound data for the distance profile image data having the x-axis data located on the left side of the center of the x-axis is generated as left audio data, and the sound data for the distance profile image data having the x-axis data on the right side is generated. It is preferable to generate the right auditory data.

상기 출력부는 상기 거리프로파일이미지데이터에 대하여 생성된 다수개의 소리데이터를 통해 생성된 좌측 및 우측 청각데이터를 출력함에 있어서, 상기 좌측 및 우측 청각데이터에 포함된 다수개의 소리데이터를 동시에 출력하는 것이 바람직하다. In the output unit outputting left and right auditory data generated through a plurality of sound data generated with respect to the distance profile image data, it is preferable to simultaneously output a plurality of sound data included in the left and right auditory data. .

또한 본 발명은 이미지센서를 적어도 하나 이상 포함하는 입력부; 상기 이미지센서의 동작간격을 설정하는 펄스생성부와, 상기 이미지센서를 통해 입력된 이미지데이터에 포함되는 다수개의 픽셀이 상기 이미지데이터에 위치한 가로배열을 x축데이터로, 세로배열을 y축데이터로 하고, 상기 픽셀에 저장된 색상정보, 명암정보, 채도정보 및 상기 다수개의 이미지 센서의 특성을 통해 생성되는 상기 픽셀과 상기 픽셀이 가르키는 지점과의 거리를 z축데이터로 하는 3차원 정보를 생성하고, 소리의 크기, 높이, 종류, 시차 및 스트레오사운드중 어느 하나를 선택하여 상기 x축 데이터, y축데이터 및 z축데이터에 따라 상기 선택한 파라미터가 변화하는 상기 다 수 개의 픽셀에 대한 각각의 소리데이터를 생성하고, 상기 다수개의 소리데이터를 통해 좌측출력부 및 우측 출력부에 출력되는 좌측 및 우측 청각데이터를 생성하는 디지털 신호 처리 장치(Digital Signal Processor : DSP) 또는 초소형 연산처리장치(Micro-processing unit : MPU)를 포함하는 제어부; 좌측 및 우측이 구분가능하도록 표시되어 있는 이어폰, 헤드폰 또는 골전도장치 중 어느 하나로 사용가능하며, 상기 좌측청각데이터 및 우측청각데이터를 사용자가 들을 수 있도록 출력하는 출력부;를 포함하는 청각을 이용한 시각재현장치를 제안한다. The present invention also includes an input unit including at least one image sensor; A pulse generator configured to set an operation interval of the image sensor, a plurality of pixels included in the image data input through the image sensor, the horizontal arrangement of which is located in the image data as x-axis data, and the vertical arrangement as y-axis data And generating three-dimensional information using z-axis data as a distance between the pixel generated by the color information, the contrast information, the chroma information, the saturation information, and the characteristics of the plurality of image sensors. And selecting one of loudness, height, type, parallax, and stereo sound, respectively, for each of the plurality of pixels for which the selected parameter changes according to the x-axis data, y-axis data, and z-axis data. Generating the left and right auditory data output to the left output unit and the right output unit through the plurality of sound data; A control unit including a digital signal processor (DSP) or a micro-processing unit (MPU); A hearing using the sound, including; an output unit for using any one of the earphone, headphone or bone conduction device that the left and right are distinguishable, and outputs the left auditory data and the right auditory data so that the user can hear; We propose a reproduction device.

상기 제어부는 상기 입력부의 다수개의 이미지센서를 통해 인식된 값을 디지털 신호 처리 장치(Digital Signal Processor : DSP) 또는 초소형 연산처리장치(Micro-processing unit : MPU)에 의해 처리할 수 있도록 아날로그 신호에서 디지털신호로 변환하는 A/D컨버터(Analog/Digital Converter)를 추가적으로 포함하는 것이 바람직하다.The control unit may control the digital signal from the analog signal so that the value recognized by the plurality of image sensors of the input unit may be processed by a digital signal processor (DSP) or a micro-processing unit (MPU). It is preferable to further include an A / D converter (Analog / Digital Converter) for converting into a signal.

또한 상기 입력부는 사용자를 중심으로 좌측 및 우측에 위치하는 이미지센서를 포함하며, 상기 좌측이미지센서와 우측이미지센서는 같은 지점을 인식하도록 위치하는 것이 바람직하다. 또한, 상기 제어부는 상기 좌측이미지센서와 우측이미지센서가 동시에 동작하도록 펄스 생성부를 통해 제어하고, 상기 좌측이미지센서에 의해 인식된 것은 좌측이미지데이터로 생성하고, 우측이미지센서에 의해 인식된 것은 우측이미지데이터를 생성하는 것이 바람직하며, 상기 좌측 및 우측 이미지데이터에 포함된 픽셀의 색채정보, 명암정보, 채도정보등을 검토하여, 같은 지점을 나타내는 좌측이미지데이터에 포함된 픽셀과 우측이미지데이터에 포함된 픽셀을 인식 하고, 상기 같은 지점을 나타내는 픽셀이 좌측이미지데이터 및 우측이미지데이터에 배열된 위치와 상기 좌측 및 우측 이미지데이터를 생성한 좌측 및 우측 이미지센서의 간격을 통해 상기 z축데이터를 생성하는 것이 바람직하다.The input unit may include image sensors positioned at left and right sides of the user, and the left image sensor and the right image sensor may be positioned to recognize the same point. In addition, the control unit controls the left image sensor and the right image sensor to operate at the same time through the pulse generating unit, the recognition by the left image sensor generates the left image data, the right image sensor is recognized by the right image It is preferable to generate data, and the color information, the contrast information, the chroma information, etc. of the pixels included in the left and right image data are examined, and the pixels included in the left image data and the right image data indicating the same point are included. Recognizing the pixel, and generating the z-axis data through the interval between the left and right image sensor that generated the left and right image data and the position where the pixels representing the same point is arranged in the left image data and the right image data desirable.

상기 소리데이터는 상기 y축데이터가 커질수록 소리의 높이가 커지고(주파수가 작아지고), 상기 z축데이터가 커질수록 소리의 크기(음압 또는 세기(intensity), 음압레벨(dB수))가 커지도록 생성하고, 상기 x축 중심의 좌측에 위치한 x축데이터를 갖는 거리프로파일이미지데이터에 대한 소리데이터는 좌측청각데이터로 생성하고, 우측에 위치한 x축데이터를 갖는 거리프로파일이미지데이터에 대한 소리데이터는 우측청각데이터로 생성하는 것이 바람직하며, 상기 출력부는 상기 거리프로파일이미지데이터에 대하여 생성된 다수개의 소리데이터를 통해 생성된 좌측 및 우측 청각데이터를 출력함에 있어서, 상기 좌측 및 우측 청각데이터에 포함된 다수개의 소리데이터를 동시에 출력하는 것이 바람직하다.As the y-axis data becomes larger, the sound data becomes louder (the frequency becomes smaller), and as the z-axis data becomes larger, the loudness (sound pressure or intensity, sound pressure level (dB number)) becomes larger. The sound data for the distance profile image data having the x-axis data located on the left side of the center of the x-axis is generated as left audio data, and the sound data for the distance profile image data having the x-axis data on the right side is generated. It is preferable to generate the right auditory data, and the output unit outputs left and right auditory data generated through a plurality of sound data generated with respect to the distance profile image data, and includes a plurality of auditory data included in the left and right auditory data. It is preferable to output two sound data simultaneously.

또한 상기 이미지데이터를 통해 각각의 픽셀에 대한 색 또는 질감에 대한 데이터를 추가적으로 생성하고, 상기 소리데이터는 상기 색 또는 질감에 대한 데이터에 대비한 음색을 포함하는 것이 바람직하다.In addition, it is preferable to additionally generate data on color or texture for each pixel through the image data, and the sound data includes a tone in contrast to data on the color or texture.

또한 상기 제어부는 상기 적어도 하나 이상의 이미지 센서로부터 입력된 이미지데이터의 일부분만을 소리데이터로 변환시키기 위하여, 상기 거리프로파일이미지데이터의 일부분을 조절하는 조절부를 추가적으로 포함할 수 있다.The controller may further include an adjusting unit for adjusting a portion of the distance profile image data so as to convert only a portion of the image data input from the at least one image sensor into sound data.

또한 상기 청각을 이용한 시각재현장치는 상기 입력부가 고글의 렌즈부분에 위치하고, 상기 출력부가 고글의 귀고정부에 근접하면서도 위치이동이 자유롭도록 위치한 고글 형상인 것일 수 있으며, 상기 입력부가 안경의 렌즈부분에 위치하고, 상기 출력부가 고글의 귀고정부에 근접하면서도 위치이동이 자유롭도록 위치한 안경 형상인 것일 수 있다.In addition, the visual reproducing apparatus using the hearing may have a goggle shape in which the input portion is located in the lens portion of the goggles, and the output portion is located close to the ear fixing portion of the goggles, and the position is freely moved. Located, the output unit may be in the shape of glasses located close to the ear of the goggles while being free to move.

또한 상기 입력부가 안경 또는 고글의 경첩부분에 위치하고, 상기 출력부가 고글의 귀고정부에 근접하면서도 위치이동이 자유롭도록 위치한 안경 또는 고글 형상인 것일 수 있다. 또한 상기 입력부 및 출력부가 헤드폰에 각각 구비된 헤드폰 형상인 것일 수 있다.In addition, the input portion may be located in the hinge portion of the glasses or goggles, the output portion may be in the shape of glasses or goggles located close to the ear fixing portion of the goggles while being free to move. In addition, the input unit and the output unit may be in the shape of a headphone provided in each of the headphones.

이하에는 첨부한 도면에 따라 본 발명에 대하여 보다 상세히 설명한다.Hereinafter, the present invention will be described in more detail with reference to the accompanying drawings.

본 발명에서 제안하는 청각을 이용한 시각재현장치는 입력부, 제어부 및 출력부로 구성된다. 상기 입력부는 송신부와 수신부를 갖는 다수개의 거리센서를 배열한 적어도 하나 이상의 거리센서배열, 또는 적어도 하나 이상의 이미지센서로 구성할 수 있다. The visual representation apparatus using hearing proposed by the present invention includes an input unit, a controller, and an output unit. The input unit may be configured with at least one or more distance sensor arrays or at least one or more image sensors arranged with a plurality of distance sensors having a transmitter and a receiver.

상기 제어부는 디지털 신호 처리 장치(Digital Signal Processor : DSP) 또는 초소형 연산처리장치(Micro-processing unit : MPU)중 어느 하나 이상을 포함하는 조합으로 구성되는 프로세서를 포함한다. 상기 제어부는 거리센서의 송신부에 의해 방출된 발신신호가 반사되어 수신부에 수신신호로서 감지될때까지를 측정하는 타이머를 포함할 수 있다. 또한 상기 입력부에 의해 입력되는 수신신호를 아날로그 신호에서 디지털신호로 변경할 수 있도록 A/D컨버터(Analog/Digital Converter)를 추가적으로 포함할 수 있다. 또한 입력부가 동작되는 간격을 설정하는 펄스생성부 를 추가적으로 포함할 수 있으며, 상기 음속을 이용하여 거리를 측정하는 경우에 상기 음속을 구하기 위하여 필요한 변수 중 하나인 기온을 측정하기 위하여, 온도를 측정하여 얻어진 디지털 신호를 생성하는 온도측정부를 추가적으로 포함할 수 있다. 또한 사용자의 장치사용 능숙도, 즉 장치에 의해 인식되는 청각정보를 통해 전방의 시각정보를 파악할 수 있는 숙련도에 따라, 상기 청각정보로 변환시키는 시각정보를 한정하거나 혹은 확대시키는 조절부를 추가적으로 포함할 수 있다.The control unit includes a processor including a combination including any one or more of a digital signal processor (DSP) or a micro-processing unit (MPU). The control unit may include a timer for measuring until the outgoing signal emitted by the transmitter of the distance sensor is reflected and detected as a reception signal in the receiver. In addition, an A / D converter (Analog / Digital Converter) may be additionally included to change the received signal input by the input unit from an analog signal to a digital signal. The apparatus may further include a pulse generator configured to set an interval at which the input unit is operated. In order to measure the temperature, which is one of the variables necessary to obtain the sound velocity when measuring the distance using the sound velocity, the temperature may be measured. It may further include a temperature measuring unit for generating the obtained digital signal. In addition, according to the user's proficiency in using the device, that is, the proficiency of grasping the visual information in front of the user through auditory information recognized by the device, the control unit may further include a control unit for limiting or expanding the visual information converted into the auditory information. .

상기 펄스생성부는 입력부에서 발신신호가 방출되는 간격과 수신신호를 제어부에서 받아들이는 간격을 설정하는 부분이다. 상기 펄스생성부에 의해 발신신호의 간격을 다르게 설정하여 수신부에서 수신되는 수신신호가 어느 발신신호가 반사되어 되돌아온 신호인 지를 구분하는 것이 바람직하다. 본 발명에서 제안하는 청각을 이용한 시각재현장치는 실시간으로 전방에 대한 정보를 받아들인 후 이를 청각을 통해 인식할 수 있도록 청각정보로 변환하는 것을 특징으로 하므로, 멀리있는 물체와 가까이에 있는 물체에 의해 반사되어 수신부에 도달하는 시간이 다른 경우에 어느 발신신호에 의해 반사되어 도달된 것인지를 구분하는 것이 필요하다. 따라서 상기 발신신호의 간격을 달리 결정함으로서, 상기 도달된 수신신호의 간격으로 어느 발신신호에 의한 수신신호인지를 확인할 수 있다.The pulse generator is a part for setting an interval at which an outgoing signal is emitted from an input unit and an interval at which a control unit receives a received signal. Preferably, the pulse generator sets different intervals of the outgoing signals to distinguish which outgoing signals are returned by reflecting the received signals received at the receiver. The visual reproducing apparatus using the hearing proposed by the present invention is characterized by receiving the information on the front in real time and converting it into auditory information so that it can be recognized by hearing, so that by the object near and far It is necessary to distinguish which transmission signal is reflected and reached when the time of reflection and arrival at the reception part is different. Therefore, by determining the interval of the outgoing signal, it is possible to determine which outgoing signal by the outgoing signal at the interval of the received signal.

상기 타이머는 거리를 구하기 위하여 필요한 변수인 상기 거리센서의 송신부에서 발신신호를 외부로 방출한 때부터 상기 발신신호에 의한 수신신호가 수신될 때까지의 시간을 측정하기 위하여, 일정간격으로 숫자를 세는 부분이 된다. 상기 타이머는 발신신호가 외부로 방출된 때를 0으로 하고 일정간격에 따라 숫자를 세어 수신신호가 도달될 때까지를 측정하여, 수신시간을 결정지을 수 있도록 돕는다. 거리는 속력(또는 속도)과 시간을 곱하여 구할 수 있으므로, 상기 수신시간은 거리를 측정하기 위한 중요한 변수가 된다.The timer counts a number at regular intervals to measure the time from when the transmitting signal of the distance sensor, which is a variable necessary for obtaining the distance, to the reception of the received signal by the transmitting signal. Becomes a part. The timer counts a time when the outgoing signal is emitted to the outside and counts the number according to a predetermined interval, and measures until the reception signal is reached, thereby helping to determine the reception time. Since distance can be obtained by multiplying speed (or speed) by time, the reception time is an important variable for measuring distance.

상기 A/D컨버터(Analog / Digital Converter)는 상기 거리센서배열에 배열된 센서의 수신부에 의해 수신되는 수신신호를 아날로그 신호 형태에서 디지털 신호 형태로 변환하는 부분이다. 상기 디지털 신호 처리 장치(Digital Signal Processor : DSP) 또는 초소형 연산처리장치(Micro-processing unit : MPU)에서 분석 및 계산등을 수행하기 위해서는 데이터가 이산연산이 가능하도록 디지털 신호형태이어야 하므로, 상기 A/D컨버터(Analog / Digital Converter)는 상기 아날로그 신호를 샘플링하여 디지털 신호형태로 변환시키는 기능을 수행한다.The A / D converter (Analog / Digital Converter) is a part for converting the received signal received by the receiver of the sensor arranged in the distance sensor array from the analog signal form to the digital signal form. In order to perform analysis and calculation in the digital signal processor (DSP) or micro-processing unit (MPU), the data must be in the form of a digital signal to enable discrete operation. The D converter (Analog / Digital Converter) performs the function of sampling the analog signal and converting it into a digital signal form.

상기 온도측정부는 물질팽창, 저항변화, 열기 전력발생등이 증폭 선형화함으로서 전기적인 신호로 처리되어 아날로그 또는 디지탈 신호로 변환되는 온도센서를 포함하는 것이 바람직하다. 상기 온도측정부는 앞서 설명한 바와 같이, 입력부에 있어서 주파수를 갖는 발신신호가 초음파인 경우에, 거리를 측정하기 위하여 필요한 변수인 음속을 보다 정밀하게 계산하기 위하여 필요한 기온을 측정하는 장치이다. 상기 온도측정부는 초음파를 사용하는 경우, 즉 음파를 상기 발신신호로 사용하는 경우에 추가적으로 제어부에 포함될 수 있다.The temperature measuring unit preferably includes a temperature sensor that is converted into an analog or digital signal by being processed into an electrical signal by amplifying and linearizing material expansion, resistance change, and thermal power generation. As described above, when the transmission signal having a frequency in the input unit is an ultrasonic wave, the temperature measuring unit measures an air temperature required to more accurately calculate a sound velocity, which is a variable necessary for measuring a distance. The temperature measuring unit may be additionally included in the controller when using ultrasonic waves, that is, when using sound waves as the transmission signal.

상기 조절부는 청각정보로 변환하는 시각정보의 양을 조절하는 부분이다. 만약 사용자가 본 발명에서 제안하는 청각을 이용한 시각재현장치를 사용하여 전방의 시각정보에 대한 청각정보를 받아들이는 경우, 상기 인식한 청각정보를 통해 시각 정보를 파악할 수 있는 숙련도에 따라, 상기 청각정보를 시각정보로서 제대로 인식할 수 없을 가능성이 있으므로, 상기 시각정보를 청각정보로 전환하는 부분을 조절하는 부분이다. 상기 조절부의 조절정도를 제어부의 프로세서가 인식하여, 상기 입력부에 의해 인식되는 시각정보 중 상기 조절부의 조절정도만큼만 청각정보로 변환한다. The control unit is a part for adjusting the amount of visual information converted into auditory information. If the user receives the auditory information of the visual information in the front by using the visual reproduction apparatus using the hearing proposed by the present invention, the auditory information according to the proficiency to grasp the visual information through the recognized auditory information May not be properly recognized as visual information, and thus a part for adjusting a part for converting the visual information into auditory information. The processor of the controller recognizes the degree of adjustment of the controller, and converts only the degree of adjustment of the controller into auditory information among the visual information recognized by the input unit.

상기 디지털 신호 처리 장치(Digital Signal Processor : DSP) 또는 초소형 연산처리장치(Micro-processing unit : MPU)중 어느 하나 이상을 포함하는 조합으로 구성되는 프로세서는 제어부에 있어서 가장 중요한 연산을 수행하는 부분이다. 장치의 원가절감 및 연산의 단순화를 위하여 상기 프로세서는 DSP로 구성하는 것이 더욱 바람직하며, 보다 바람직하게는 상기 DSP와 MPU를 혼용하여 구성할 수 있다. 상기와 같이, DSP와 MPU를 혼용하여 구성할 경우에는, 실시간 데이터 연산을 수행하기 위하여 보다 빠르게 연산을 수행할 수 있는 DSP는 연산을 수행하고, 명령 및 제어를 위해서는 상기 MPU를 사용하는 것일 수 있다.A processor composed of a combination including at least one of the digital signal processor (DSP) and the micro-processing unit (MPU) is a part that performs the most important calculation in the controller. In order to reduce the cost and simplify the operation of the device, the processor is more preferably configured as a DSP, and more preferably, the DSP and the MPU may be mixed. As described above, when the DSP and the MPU are configured to be mixed, the DSP capable of performing the operation faster to perform the real-time data operation may perform the operation, and the MPU may be used for the command and the control. .

상기 DSP는 아날로그 신호를 A/D컨버터를 통해 변환하여 얻어진 디지털 데이터에 대해 대수적인 연산을 함으로서, 필터링이나 스펙트럼분석등의 신호처리를 할 수 있도록 상기 디지털 데이터를 수학적으로 빨리 계산할 수 있는 연산 전문 반도체이다. 물론 MPU에서도 상기 수학 연산을 수행할 수 있으나, 전문적으로 수학 연산만을 수행하는 DSP에 비해 속도가 느리다. DSP는 디지털 신호를 고속으로 처리하기 위하여, 덧셈, 뺄셈, 곱셈 등의 반복 연산을 고속으로 처리할 수 있는 회로를 포함하고 있다. 처음에는 매우 제한적으로 사용되었으나, 최근에는 그 사용범위가 매우 넓어져, 음성신호를 디지털신호로 변환하는 음성 코딩에 사용되어, 디지털 이동통신, 자동 응답기, 화상 전화기 및 멀티미디어 각종 부분에 사용된다. 또한 수학 연산을 전문으로 하므로, 3차원 영상처리 및 애니메이션 분야에도 사용되며, 소형의 기계장치도 제어할 수 있다. 또한 통신을 위한 디지털 필터로서도 작용되며, MPU와 함께 사용하여 상기 MPU의 처리량을 줄여주는 역할도 수행한다.The DSP performs arithmetic operations on digital data obtained by converting an analog signal through an A / D converter, so that the digital data can be quickly calculated mathematically for signal processing such as filtering or spectrum analysis. to be. Of course, the MPU may be performed in the MPU, but it is slower than a DSP that performs only mathematical operations. The DSP includes circuits capable of processing repetitive operations such as addition, subtraction and multiplication at high speed in order to process digital signals at high speed. Although initially used very limitedly, in recent years, its use has become very wide, and is used for voice coding for converting voice signals into digital signals, and is used in digital mobile communications, answering machines, video telephones, and multimedia. It also specializes in mathematical operations, so it is also used in the field of 3D image processing and animation, and can control small machines. It also acts as a digital filter for communication, and works with the MPU to reduce the throughput of the MPU.

상기 프로세서는 상기 입력부 및 타이머, 온도측정부, 조절부등에서 전송하는 여러 정보들을 조합 연산하여, 출력부에 전송할 우측청각데이터 및 좌측청각데이터를 생성한다. The processor generates a combination of various pieces of information transmitted from the input unit, the timer, the temperature measuring unit, and the adjusting unit, and generates right audio data and left audio data to be transmitted to the output unit.

상기 출력부는 상기 제어부의 프로세서에 의해 생성된 좌측청각데이터와 우측청각데이터를 사용자에게 인식시키는 장치로서, 상기 좌측청각데이터를 출력하는 좌측출력부와 상기 우측청각데이터를 출력하는 우측출력부로 구성된다. 상기 출력부는 좌측출력부와 우측출력부를 구분가능하도록 표시되어 있는 것이 바람직하다. 상기 출력부는 전송되는 전기적인 신호에 의해 진동판이 울리도록 구성되는 이어폰이나 헤드폰 등의 장치로서 구성할 수 있다. 또한 사람의 두개골에서 음진동(音振動)이 직접 내이(內耳) 림프로 전달되어 청신경을 자극함으로서 음감각을 생기게 하는 전도(傳導) 양식을 이용하는 골전도(骨傳導, bone conduction)장치로서 구성하는 것도 가능하다.The output unit is a device for recognizing the left auditory data and the right auditory data generated by the processor of the controller, the left output unit for outputting the left audio data and the right output unit for outputting the right audio data. Preferably, the output unit is displayed to distinguish the left output unit and the right output unit. The output unit may be configured as a device such as an earphone or a headphone configured to ring the diaphragm by an electrical signal transmitted. In addition, it is configured as a bone conduction device using a conduction mode that causes sound sensation by transmitting sound vibration directly from the human skull to the inner ear lymph and stimulating the auditory nerve. It is also possible.

상기 청각을 이용한 시각재현장치는 도 3에 도시한 바와 같이, 고글형태로 구성할 수 있으며, 도시하지는 않았으나 안경형태 또는 헤드폰형태등으로 다양하게 구성할 수 있다. 입력부는 사용자의 전방을 바라보도록 구성하고, 출력부는 사용자 의 귀에 근접하도록 위치한다면, 어떤 형태이든 적용가능하다는 것은 자명하다.As shown in FIG. 3, the visual representation apparatus using hearing may be configured in a goggle form, and may be variously configured in a glasses form or a headphone form although not shown. If the input is configured to look forward of the user and the output is located close to the user's ear, it is obvious that any form is applicable.

보다 바람직하게는 상기 입력부가 송신부와 수신부를 포함하는 다수개의 거리센서로 구성되는 적어도 하나 이상의 거리센서배열로 구성될 경우에는 도 3에 도시한 바와 같이, 고글의 렌즈부분에 해당하는 부분에 구성하고, 상기 출력부는 고글의 귀고정부분에 위치하여, 귀에 근접하도록 위치하고, 상기 위치변환이 자유롭도록 구성되는 것일 수 있다. 또한 상기 출력부는 도 3에 도시한 것처럼 유선으로 연결될 수 있으며, 또는 무선으로 제어부와 연결되는 것일 수 있음은 자명하다.More preferably, when the input unit is composed of at least one distance sensor array including a plurality of distance sensors including a transmitter and a receiver, as shown in FIG. The output unit may be located at an ear fixing portion of the goggles, located close to the ear, and configured to freely change the position. In addition, the output unit may be connected by wire as shown in FIG. 3, or may be connected to the controller wirelessly.

또한 도 5에 도시한 바와 같이, 안경형태로 구성하는 것도 가능하다. 안경의 렌즈부분을 넓게 위치하여 거리센서배열을 구성하고, 출력부는 상기 고글형태인 것과 같이 귀에 근접하고 위치변환이 자유롭도록 위치하는 것일 수 있다.In addition, as shown in Figure 5, it is possible to configure in the form of glasses. Positioning the lens portion of the glasses wide to configure the distance sensor array, the output portion may be positioned so as to be close to the ear and the position change free, as in the form of the goggles.

또한 입력부의 거리센서배열을 좌측 및 우측에 각기 하나 이상씩 위치하도록 구성하거나 또는 상기 입력부를 사용자를 중심으로 좌측 및 우측에 위치하는 적어도 하나 이상의 이미지센서로 구성한다면, 입력부를 안경이나 고글의 경첩부분에 위치하도록 구성할 수 있다. 이외에도 장치를 사용자가 장착하였을 때, 타인에게 어색하게 보이지 않도록 구성되는 형태라면 어떤 형태이든지 본 발명을 적용할 수 있다는 것은 자명하다.In addition, if the distance sensor array of the input unit is configured to be located at least one each on the left and right, or if the input unit is composed of at least one or more image sensors located on the left and right around the user, the input unit hinges of glasses or goggles It can be configured to be located at. In addition, it is obvious that the present invention may be applied in any form as long as the device is configured so that it does not look awkward to others when the user is mounted.

제1 실시예First embodiment

도 2는 본 발명의 제1 실시예에 해당하는 장치구성도의 예시를 나타낸 것이다. 도 3은 본 발명의 제1 실시예를 실시한 모습을 예시적으로 나타낸 것이다. Figure 2 shows an example of the device configuration corresponding to the first embodiment of the present invention. 3 exemplarily shows an embodiment of the first embodiment of the present invention.

본 발명의 제1 실시예는 송신부와 수신부로 구성되는 다수 개의 거리센서를 일정 간격으로 배열한 적어도 하나 이상의 거리센서배열로 구성된 입력부를 갖는 청각을 이용한 시각재현장치를 제안한다.A first embodiment of the present invention proposes a visual representation apparatus using hearing having an input unit including at least one distance sensor array having a plurality of distance sensors including a transmitter and a receiver arranged at predetermined intervals.

제1 실시예에서의 상기 입력부는 거리를 측정할 수 있도록 주파수(펄스)를 갖는 발신신호를 외부로 방출하는 송신부와 상기 발신신호가 전방에 위치한 물체에 의해 반사된 수신신호를 수신하는 수신부로 구성되는 다수 개의 거리센서를 일정 간격으로 배열한 거리센서배열을 적어도 하나 이상 포함한다.The input unit according to the first embodiment includes a transmitter that emits an outgoing signal having a frequency (pulse) to the outside so as to measure a distance, and a receiver that receives a received signal reflected by an object located in front of the outgoing signal. At least one distance sensor array comprising a plurality of distance sensors arranged at a predetermined interval.

상기 주파수를 갖는 발신신호로는 초음파, 적외선, 레이저, 전자파(electromagnetic wave)등이 있으며, 특히, 상기 초음파는 거리를 측정하기 위한 목적으로 자주 사용되는 발신신호이다. 또한 상기 적외선은 가까운 거리에 위치한 물체와의 거리를 감지할 수 있으며, 반사된 신호를 통해 물체의 색이 밝은지 어두운지를 감지할 수 있다. The outgoing signal having the frequency includes an ultrasonic wave, an infrared ray, a laser, an electromagnetic wave, and the like, and in particular, the ultrasonic wave is an outgoing signal frequently used for the purpose of measuring a distance. In addition, the infrared ray may detect a distance from an object located at a close distance, and may detect whether the color of the object is light or dark based on the reflected signal.

상기 초음파(超音波, ultrasonic wave)는 사람의 귀에 들리는 음(音)의 주파수 이상으로서 일반적으로는 약 16000㎐이상의 음파이며, 상기 적외선(赤外線, infrared rays)은 가시광선에 이어지는 파장범위가 약 0.75㎛∼1㎜정도인 전자기파로서 빛의 스펙트럼에서는 적색 부분의 바깥쪽에 해당한다. 또한 레이저(laser)는 상기 파장영역에 따라 자외레이저·가시레이저·적외레이저·원적외레이저 있으며, 동작매질에 관해서는 기체·고체·액체·반도체 각각의 종류가 있다. The ultrasonic wave is a sound wave of about 16000 kHz or more, which is generally equal to or more than a frequency of a sound heard in a human ear, and the infrared ray has a wavelength range of about 0.75 following visible light. An electromagnetic wave having a thickness of about 1 to 1 mm, which corresponds to the outside of the red portion in the light spectrum. In addition, there are ultraviolet lasers, visible lasers, infrared lasers, and far infrared lasers in accordance with the above-mentioned wavelength range. There are various kinds of gases, solids, liquids, and semiconductors for the operating medium.

거리를 측정하기 위하여 주로 사용되는 초음파 센서의 발신신호인 상기 초음파는 물체가 투명하거나 불투명하거나 상관치 않으며, 금속성 또는 비금속성, 액체 상태 또는 고체상태, 분상같은 것이 상관치 않으며, 환경적 조건에 의해 초음파의 수신거리가 좁아지는 문제점이 발생하지 않는 장점이 있다. The ultrasonic wave, which is an originating signal of an ultrasonic sensor mainly used to measure distance, does not correlate to transparent, opaque or correlated objects, and does not care about metallic or non-metallic, liquid or solid state, powder phase, and environmental conditions. There is an advantage that the problem that the receiving distance of the ultrasound is narrow does not occur.

초음파는 명칭에서 나타나는 바와 같이, 음파이므로 기온을 변수로 하는 음속계산법을 통해 생성한 음속을 이용하여 보다 손쉽게 거리를 감지할 수 있다.As the name indicates that the ultrasonic wave is a sound wave, the distance can be detected more easily by using the sound velocity generated by the sound velocity calculation method using temperature as a variable.

상기 음속 계산법은 수학식1에 나타낸 바와 같다.The sound velocity calculation method is as shown in Equation (1).

Figure 112005032402134-PAT00001
Figure 112005032402134-PAT00001

평균기온이 25℃라고 가정한다면 음속은 상기 계산법에 의하여, 346㎧라고 가정할 수 있다. 상기와 같이 구해진 음속과 발신된 때부터 수신된 때까지의 시간까지의 시간을 측정하여, 상기 시간의 절반값을 곱하여 거리를 구할 수 있다.Assuming that the average temperature is 25 ° C, the sound velocity can be assumed to be 346 kHz by the above calculation method. The distance between the sound velocity obtained as described above and the time from when it is transmitted to when it is received may be measured and multiplied by half of the time.

이하에서는 초음파센서를 중심으로 제1 실시예를 설명한다.Hereinafter, a first embodiment will be described based on the ultrasonic sensor.

입력부는 송신부와 수신부로 구성되는 다수 개의 거리센서를 일정 간격으로 이격하여 배열한 적어도 하나 이상의 거리센서배열로 구성될 수 있으며, 상기 거리센서배열에 있어서, 상기 거리센서의 간격은 상기 센서의 특성 즉, 거리센서의 감지각도등을 고려하여 결정하는 것이 바람직하다. 이는 다른 송신기에서 발신된 발신신호가 반사된 수신신호에 의해 간섭이 일어나는 것을 방지하기 위함이다. 초음파센서의 경우에는 약 45°의 감지각도를 갖고 있으며, 45°를 벗어난 값일 경우에는 정확도가 떨어진다. 초음파센서의 경우에는 간섭에 의한 오류가 일어날 가능성이 높으므로, 상기 간격을 결정하는 것은 중요하다. The input unit may include at least one distance sensor array arranged at a predetermined interval apart from a plurality of distance sensors including a transmitter and a receiver. In the distance sensor array, the distance between the distance sensors is a characteristic of the sensor. In this case, it is desirable to determine in consideration of the sensing angle of the distance sensor. This is to prevent interference caused by the received signal reflected from the outgoing signal transmitted from another transmitter. Ultrasonic sensors have a sensing angle of about 45 ° and are less accurate than values outside of 45 °. In the case of an ultrasonic sensor, it is very likely that errors due to interference occur, so it is important to determine the interval.

또한 보다 넓은 범위의 전방을 인식할 수 있도록 거리센서배열의 중심을 기준으로 우측에 위치한 거리센서는 우측에 치우치도록 좌측에 위치한 거리센서는 좌측에 치우치도록 방향을 결정하는 것이 바람직하며, 중심으로부터 멀리 떨어져서 위치한 거리센서일수록, 우측 또는 좌측에 보다 더 치우치는 것이 바람직하다. 또한 거리센서배열의 중심을 기준으로 상측에 위치한 거리센서는 상측에 치우치도록 하측에 위치한 거리센서는 하측에 치우치도록 방향을 결정하는 것이 바람직하며, 중심으로부터 멀어질수록 상측 또는 하측에 보다 더 치우치는 방향을 갖는 것이 바람직하다.In addition, it is preferable to determine the direction so that the distance sensor located on the right side is biased to the right side so that the distance sensor located on the right side is centered on the right side so as to recognize a wider range forward. The farther away the distance sensor is, the more biased it is to the right or left side. In addition, the distance sensor located on the upper side with respect to the center of the distance sensor array is preferably oriented so that the distance sensor located on the lower side is biased to the lower side. It is desirable to have a biased direction.

상기 거리센서배열에 배열되는 센서는 도 3에 도시한 바와 같이, 16열×16행일 수 있으며, 보다 넓은 범위를 인식하기 위해서 상기 예시로 든 것보다 더 많은 센서로서 거리센서배열을 구성할 수 있음은 자명하다.The sensors arranged in the distance sensor array may be 16 columns × 16 rows, as shown in FIG. 3, and the distance sensor array may be configured as more sensors than the above examples in order to recognize a wider range. Is self explanatory.

상기 거리센서배열에 배열된 센서는 제어부에 포함될 수 있는 펄스생성부에 의해 동작하며, 보다 자세하게는 상기 센서의 발신부는 일정 규칙을 갖도록 발신신호를 외부로 방출하며, 상기와 같이 발신신호가 어느 규칙을 갖도록 발신하는 까닭은 수신부에서 수신신호를 감지하였을 때, 상기 수신신호가 어떤 발신신호가 반사되어 생성된 수신신호인지를 용이하게 판단할 수 있도록 하기 위함이다.The sensor arranged in the distance sensor array is operated by a pulse generator which may be included in the control unit, and more specifically, the transmitter of the sensor emits the outgoing signal to have a certain rule, the outgoing signal as described above The reason for transmitting the signal is to make it easy to determine which transmission signal is a reception signal generated by reflecting the reception signal when the reception unit detects the reception signal.

제어부의 타이머는 상기 발신신호가 방출된 때로부터 수신부가 상기 발신신호에 대한 수신신호를 감지할 때까지를 측정하여 이를 수신시간으로 생성하고, 상기 수신시간을 제어부의 프로세서에 전송한다.The timer of the controller measures from the time when the transmission signal is emitted until the receiver detects the reception signal for the transmission signal, generates it as a reception time, and transmits the reception time to the processor of the controller.

상기 제어부의 프로세서는 상기 각각의 센서에 대한 수신시간을 인식하여, 상기 각각의 수신시간을 통해 상기 센서와 반사된 물체와의 거리를 거리데이터로서 생성한다. 상기 센서와 반사된 물체와의 거리는 상기 수신시간과, 상기 센서의 발신신호 및 수신신호의 특성에 의한 신호의 속력을 통해 얻어질 수 있다. 입력부의 센서가 초음파센서의 경우에는 음속과 상기 수신시간을 통해 거리데이터를 생성할 수 있다. 상기 음속은 특정값으로 미리 설정할 수 있으며, 또는 앞서 언급한 바와 같이, 기온을 변수로 하는 음속계산법을 통해, 보다 정확한 초음파의 속력을 구할 수 있다. 상기 제어부는 음속계산법을 통해 초음파의 속력을 구하기 위하여, 기온을 측정하는 온도측정부를 추가적으로 포함할 수 있다.The processor of the controller recognizes the reception time for each sensor, and generates distances between the sensor and the reflected object as distance data through the reception time. The distance between the sensor and the reflected object may be obtained through the reception time and the speed of the signal by the characteristics of the transmission signal and the reception signal of the sensor. When the sensor of the input unit is an ultrasonic sensor, distance data may be generated through sound speed and the reception time. The sound speed may be preset to a specific value, or as mentioned above, a more accurate speed of the ultrasonic wave may be obtained through a sound speed calculation method using temperature as a variable. The control unit may further include a temperature measuring unit for measuring the temperature in order to obtain the speed of the ultrasonic wave through the sound velocity calculation method.

상기 거리센서배열에 일정간격으로 이격되어 배열된 센서의 위치와, 상기 각각의 센서에 의해 생성된 수신시간을 통해 생성된 거리데이터를 대비하여 3차원정보를 포함하는 거리프로파일이미지데이터(range profile image data)를 생성한다. 상기 센서의 위치를 통해 상기 거리프로파일이미지데이터의 x축(가로)과 y축(높이)이 결정하며, 상기 거리데이터를 통해 상기 거리프로파일이미지데이터의 z축(세로)이 결정함으로써 3차원정보를 구성한다. 이후, 소리의 파라미터인 크기, 높이, 종류(음색), 시차 및 좌우측 출력부에 다른 크기로 소리를 출력함으로서 나타나는 스트레오사운드 중 세 개의 파라미터를 선택하여, 상기 x축데이터, y축데이터 및 z축데이터에 따라 값이 변화하도록 한 소리데이터를 생성한다. 상기 소리의 크기는 음압, 세기(intensity) 또는 음압레벨(dB수) 중 어느 하나로서 나타낼 수 있으며, 상기 소리의 높이는 주파수로서 나타낼 수 있다. 또한 소리의 종류(음색)은 악기의 소리, 즉, 바이올린, 첼로 등의 현악기 피아노, 오르간등의 건반악기, 플룻, 트럼 펫등의 관악기등으로 구분되도록 나타낼 수 있다. 또한 상기 시차는 모르스부호처럼 소리가 발생되는 간격을 의미한다. 바람직하게는, 상기 상기 y축데이터의 변화는 소리의 높이로, z축데이터의 변화는 소리의 크기로 나타내고, x축데이터의 변화는 스트레오사운드로 나타내는 것일 수 있다.Range profile image data including three-dimensional information in relation to the position of the sensor spaced apart at regular intervals in the distance sensor array and the distance data generated through the reception time generated by each sensor. data). The x-axis (horizontal) and y-axis (height) of the distance profile image data are determined based on the position of the sensor, and the z-axis (length) of the distance profile image data is determined through the distance data. Configure. Subsequently, three parameters are selected among the stereo sound, which is displayed by outputting the sound at different sizes, such as loudness, height, type (tone), parallax, and left and right output units, and the x-axis data, y-axis data, and z-axis. Generates sound data whose values change in accordance with the data. The loudness may be represented by any one of sound pressure, intensity, or sound pressure level (dB number), and the height of the sound may be represented as a frequency. In addition, the type of sound (tone) may be represented to be divided into sounds of musical instruments, that is, string instruments such as violins and cellos, pianos, keyboard instruments such as organs, and wind instruments such as flutes and trumpets. In addition, the parallax means an interval in which sound is generated like a morse code. Preferably, the change of the y-axis data is represented by the height of the sound, the change of the z-axis data is represented by the volume of the sound, and the change of the x-axis data may be represented by the stereo sound.

도 4는 거리프로파일이미지데이터의 x축과 z축을 예시적으로 도시한 것이다. 도 4에 도시한 바와 같이, 가로 16열(A~Q), 높이 16행(101~116)으로 배열한 센서에서 발신된 발신신호는 직진하여 반사되어 수신신호로 변환되어 수신부에 의해 감지된다. 상기 각 센서의 위치에 의해 거리프로파일이미지데이터의 x축(A~Q)과 z축(101~116)이 결정된다. 상기 A101내지 Q116에 위치한 센서에 있어서, 상기 수신시간이 결정되면, 상기 수신시간에 따라 상기 각 물체와 센서와의 거리가 결정되며, 상기 거리가 y축이 된다. 4 exemplarily shows the x-axis and the z-axis of the distance profile image data. As shown in FIG. 4, the outgoing signal transmitted from the sensors arranged in horizontal 16 columns A to Q and the height 16 rows 101 to 116 is straightly reflected and converted into a received signal and sensed by the receiving unit. The x-axis (A-Q) and the z-axis (101-116) of the distance profile image data are determined by the position of each sensor. In the sensors located at A101 to Q116, when the reception time is determined, the distance between each object and the sensor is determined according to the reception time, and the distance becomes the y axis.

상기와 같이, 거리프로파일이미지데이터에 의해 상기 A101내지 Q116의 256개의 값에 대한 소리데이터를 생성한다. As described above, sound data for 256 values of A101 to Q116 is generated from the distance profile image data.

상기 소리데이터를 생성하는 과정의 예시는 다음과 같다.An example of a process of generating the sound data is as follows.

상기 소리데이터는 y축에 있어서 아래쪽에 위치할수록 낮은 크기를 갖는다. 상기 소리데이터의 크기는 사용자가 느끼는 귀의 압력을 의미하며, 음압, 세기(intensity), 음압레벨(dB수)에 의해 나타내질 수 있다. 또한 상기 소리데이터는 z축에 있어서 작은 값을 가질 수록 높은 높이(작아지는 주파수, frequency)를 갖는다. 상기 소리데이터의 크기는 소리의 음계를 의미하며, 주파수로 나타내어질 수 있다. The sound data has a lower size as it is positioned below the y axis. The size of the sound data refers to the pressure of the ear felt by the user, and may be represented by sound pressure, intensity, and sound pressure level (dB number). In addition, the sound data has a higher height (smaller frequency, frequency) as it has a smaller value on the z-axis. The size of the sound data refers to the scale of the sound, and may be represented by a frequency.

상기와 같이 A101내지 Q116에 대비한 즉, 각 거리프로파일이미지데이터에 대비한 소리데이터를 생성하며, 상기 거리프로파일이미지데이터의 x축 중심을 기준으로 좌측에 위치한 소리데이터를 통해 좌측청각데이터를 생성하고, 우측에 위치한 소리데이터를 통해 우측청각데이터를 생성한다. Generates sound data in preparation for A101 to Q116, that is, for each distance profile image data, and generates left audio data through sound data located on the left side of the distance profile image data based on the x-axis center. The right auditory data is generated through the sound data located on the right side.

도 4를 예로 들면, A열에서 I열에 대비되는 소리데이터를 통해 좌측청각데이터로 생성되고, J열에서 Q열에 대비되는 소리데이터를 통해 우측청각데이터를 생성한다. 상기 소리데이터를 통해 좌측 또는 우측청각데이터를 생성하는 방법은 상기 각각의 소리데이터의 합이라고 설명할 수 있으며, 각각의 소리데이터를 동시에 출력부에 전송하는 것을 의미한다. For example, in the column A, the left audio data is generated through sound data compared to the column I in column A, and the right audio data is generated through the sound data compared to the column Q in column J. FIG. The method of generating left or right auditory data through the sound data may be described as the sum of the respective sound data, and means transmitting the sound data simultaneously to the output unit.

만약 사용자의 전방이 도 4와 같다면, 사용자는 좌측출력부를 통해 큰 크기의 낮은음과 작은크기의 높은음을 갖는 A101~I116에 해당되는 소리데이터를 들을 수 있을 것이다. 또한 우측출력부를 통해서는 J101~Q116에 해당하는 소리데이터를 들을 수 있을것이다. 상기 J101~Q116에 해당하는 소리데이터는 좌측보다는 멀지만 비교적 사용자에게 가까이 위치한 쪽은 하부쪽이며, 좌측보다는 약간 높은 하부를 포함하고 있으므로, 좌측보다는 크지않은 큰 크기이며, 좌측보다는 낮지않은 낮은음을 포함하고, 좌측보다 작은 작은 크기이며, 좌측보다 높지않은 높은 음을 포함하게 될 것이다. 상기와 같은 경우에 사용자는 정확히 무엇인지는 분간할 수 없지만, 좌측과 우측출력부에 의해 좌측하부에 사용자와 가장 가까운 무언가가 있음을 인식할 수 있게 될 것이다.If the front of the user is as shown in FIG. 4, the user may hear sound data corresponding to A101 to I116 having a large loud sound and a small loud sound through the left output unit. You can also hear the sound data corresponding to J101 ~ Q116 through the right output. The sound data corresponding to J101 to Q116 are farther than the left side but relatively close to the user, and the lower side is slightly lower than the left side, and therefore is a large size not larger than the left side and includes a low tone not lower than the left side. It will be smaller in size than the left, and will contain high notes not higher than the left. In this case, the user may not know exactly what, but the left and right outputs will recognize that there is something closest to the user in the lower left.

또한 사용자의 훈련정도에 따라 상기 좌측 및 우측 출력부에 의해 출력되는 각각의 소리데이터를 구분할 수 있게되어 보다 정확히 전방을 인식할 수 있다. 사용자가 상기 소리데이터를 구분할 수 있는 장치 사용의 숙련도에 따라 청각정보로 변환하는 시각정보의 양을 조절할 수 있다. 상기 시각정보의 조절은 가까운 거리에 위치한 전방의 시각정보에 대해 청각정보로 변환하거나 또는 초점을 맞춰 중앙에 위치하는 시각정보에 대해 청각정보로 변환하는 방법이 있을 수 있다. 그러나 이는 예시일 뿐이며, 시각정보의 양을 조절하는 방법은 보다 다양한 방법으로도 가능하다는 것은 자명하다. 상기 장치를 통해 청각정보를 인식하는 사용자의 숙련도에 따라 청각정보로 변환시키는 시각정보의 양을 보다 많아지도록 조절할 수 있다. In addition, it is possible to distinguish the respective sound data output by the left and right output unit according to the degree of training of the user can recognize the front more accurately. The amount of visual information converted into auditory information may be adjusted according to a user's proficiency of using a device capable of distinguishing the sound data. The adjustment of the visual information may include a method of converting the visual information in the near distance to the auditory information or converting the visual information to the auditory information in the center in focus. However, this is only an example, and it is obvious that a method of controlling the amount of visual information can be used in more various ways. The apparatus may adjust the amount of visual information to be converted into auditory information according to the user's proficiency of recognizing auditory information.

제2 실시예Second embodiment

본 발명의 제2 실시예는 적어도 하나 이상의 이미지센서로 구성되는 입력부를 포함하는 청각을 이용한 시각재현장치를 제안한다. 도 5는 제2 실시예를 실시한 모습을 예시적으로 나타낸 것이다.A second embodiment of the present invention proposes a visual representation apparatus using hearing that includes an input unit including at least one image sensor. 5 exemplarily shows an embodiment of the second embodiment.

상기 이미지센서는 CCD(Charge Coupled Device;전하결합소자) 또는 CMOS기술을 이용할 수 있다. 상기 CCD(Charge Coupled Device;전하결합소자)는 이미지센서 즉, 카메라를 설계하거나 제조하는데에 오랫동안 사용된 기술로서, 고품질의 카메라에 주로 적용되는 기술이다. 상기 CCD(Charge Coupled Device;전하결합소자)는 낮은 조명 조건에서도 뛰어난 품질의 이미지를 생성할 수 있는 뛰어난 조명감도와, CMOS기술에 비해 뛰어난 색상 및 선명한 이미지를 얻을 수 있는 장점이 있다. 또한 낮은 배경소음을 갖는 장점이 있다. 상기 CCD(Charge Coupled Device;전하결합소 자)는 이미지센서가 사용되는 여러 장치에 널리 사용되는 방법이다. 또한 상기 CMOS기술은 메모리나 마이크로프로세서등과 같은 칩이 제조되는 표준기술로서, 상기 CCD기술보다는 보다 용이하게 사용될 수 있다. 상기 CMOS기술은 표준공정으로 인해 상기 CCD기술에 비해 특수한 구성요소를 필요로 하지 않으며, 비용을 많이 요하지 않는다는 장점이 있다. 또한 작은 크기의 카메라를 제조하기에 용이한 장점이 있다. 본 발명에서 제안하는 청각을 이용한 시각재현장치의 입력부에 포함되는 이미지센서의 기술은 상기 두 방법 모두 적용가능하다는 것은 자명하다.The image sensor may use CCD (Charge Coupled Device) or CMOS technology. The CCD (Charge Coupled Device) is a technology that has been used for a long time in designing or manufacturing an image sensor, that is, a camera, and is mainly applied to a high quality camera. The CCD (Charge Coupled Device) has an excellent illumination sensitivity capable of generating an image of excellent quality even under low lighting conditions, and has an advantage of obtaining excellent color and vivid images compared to CMOS technology. It also has the advantage of having low background noise. The CCD (Charge Coupled Device) is a method widely used in various devices in which an image sensor is used. In addition, the CMOS technology is a standard technology that a chip such as a memory or a microprocessor is manufactured, and can be used more easily than the CCD technology. The CMOS technology does not require special components and costs a lot more than the CCD technology due to the standard process. In addition, there is an advantage that is easy to manufacture a small size camera. It is apparent that the technique of the image sensor included in the input unit of the visual reproducing apparatus using the hearing proposed by the present invention is applicable to both methods.

상기 이미지센서는 상기 이미지(영상)정보를 디지털 형태로서 저장하며, 상기 이미지정보는 다수의 픽셀로 구성되며, 상기 픽셀에는 상기 픽셀의 위치 및 상기 픽셀을 나타내는 컬러정보, 명암정보, 채도정보 등을 포함할 수 있다.The image sensor stores the image (image) information in a digital form, and the image information includes a plurality of pixels, and the pixel includes color information, contrast information, saturation information, etc. indicating the position of the pixel and the pixel. It may include.

상기 입력부에 구성하는 이미지센서가 두 개 이상이라면, 보다 적은 연산을 수행하기 위하여 상기 두 개 이상의 이미지센서는 서로 같은 특성을 갖는 것이 바람직하다.If there are two or more image sensors constituting the input unit, the two or more image sensors preferably have the same characteristics in order to perform less computation.

이미지센서에 의해 입력되는 전방에 대한 이미지에 대한 데이터인 이미지데이터는 다수개의 픽셀을 포함하며, 상기 각각의 픽셀에 포함된 컬러정보, 명암정보, 및 채도정보와 상기 이미지센서의 초점특성, 조리개특성등을 통해 상기 이미지센서와 각 픽셀에 나타내어진 부분과의 거리를 측정할 수 있다.Image data, which is data about an image of the front inputted by the image sensor, includes a plurality of pixels, and includes color information, contrast information, and chroma information included in each pixel, and focal characteristics and aperture characteristics of the image sensor. The distance between the image sensor and the portion shown in each pixel may be measured by using the same or the like.

보다 바람직하게는 보다 정확한 3차원 정보를 얻기 위하여, 상기 적어도 두 개 이상의 이미지센서를 포함하여, 상기 두 이미지센서 사이의 거리와 상기 두 이미지 센서를 통해 생성된 이미지데이터를 통해 거리를 측정하는 것일 수 있다. 상 기와 같이 두 개 이상의 이미지 데이터를 통해 3차원정보를 얻는 방법은 상기 이미지 센서 외에 특별한 장비를 요구하지 않는 반면, 상기 이미지 센서에 의해 생성된 이미지 데이터에 포함되어 있는 각각의 픽셀에 대한 계산을 수행하여야 하므로, 계산량이 많은 단점이 있다. 그러나 인간의 시각처리방법과 유사한 3차원인식방법으로서, 보다 정확한 3차원정보를 얻을 수 있으므로, 3차원구현을 위하여 자주 사용되는 방법이다. 이하에는 상기 두 이미지 데이터를 통해 3차원정보를 얻는 과정을 서술한다.More preferably, in order to obtain more accurate three-dimensional information, including the at least two or more image sensors, the distance between the two image sensors and the distance between the image data generated by the two image sensors may be measured have. As described above, the method of obtaining three-dimensional information through two or more image data does not require any special equipment other than the image sensor, while performing calculation for each pixel included in the image data generated by the image sensor. Since it should be, there is a disadvantage in that a large amount of calculation. However, as a three-dimensional recognition method similar to the human visual processing method, more accurate three-dimensional information can be obtained, it is a frequently used method for three-dimensional implementation. Hereinafter, a process of obtaining three-dimensional information through the two image data will be described.

소정 간격으로 이격되어 배열되고, 같은 방향을 보도록 위치한 두개의 이미지센서를 포함하는 입력부에 의해, 두개의 이미지 데이터를 생성하여 이를 제어부에 전송한다. 상기 두개의 이미지 데이터는 동시에 생성되는 것이 바람직하며, 연속적으로 소정의 시간간격마다 생성되는 것이 바람직하다. 상기 두 개의 이미지 센서는 사용자를 중심으로 좌측 및 우측에 위치하는 것이 더욱 바람직하다.The input unit including two image sensors spaced apart at predetermined intervals and positioned to look in the same direction generates two image data and transmits the two image data to the control unit. Preferably, the two image data are generated at the same time, and are preferably generated at predetermined time intervals in succession. More preferably, the two image sensors are located on the left and right sides of the user.

상기 제어부는 각 픽셀의 정보를 포함하는 두 개의 이미지 데이터를 수신하여, 상기 두 이미지 데이터에 포함된 픽셀정보를 분석하여, 같은 지점을 나타내는 부분을 검색한다. The controller receives two image data including information of each pixel, analyzes pixel information included in the two image data, and searches for a portion representing the same point.

보다 상세히 설명하면, 상기 좌측이미지센서에 의해 생성된 좌측이미지데이터와 우측이미지센서에 의해 생성된 우측이미지데이터에 포함된 각각의 픽셀이 가진 정보에 포함된 특징점을 분석하며, 교차되는 점, 경계선, 모서리 골, 면적등의 주위와 다른 정보를 갖는 픽셀의 연속점들을 통해, 상기 특징점을 인식한다. 어느 한 이미지데이터의 특징점이 다른 이미지데이터의 특징점과 같은 지점을 나타내는 대응점인지를 검토한다. 상기 대응점에 대한 검토는 밝기정보의 변화가 비슷하거나 동일한 영역의 분석, 밝기정보의 유사성등을 변수로 하여 수행될 수 있다.In more detail, the feature points included in the information of each pixel included in the left image data generated by the left image sensor and the right image data generated by the right image sensor are analyzed, and intersecting points, boundary lines, The feature point is recognized through consecutive points of the pixel having information different from the periphery of edge valleys, areas, and the like. Examine whether the feature point of one of the image data corresponds to the point representing the same point as that of the other image data. The review of the corresponding point may be performed by using the analysis of similar or identical areas of brightness information, similarity of brightness information, and the like as variables.

상기와 같이 좌측이미지데이터의 특징점과 우측이미지데이터의 대응점을 인식한 후, 상기 두 개의 이미지 데이터의 대응점에 대한 2차원 변위를 검토한 후, 상기 2차원 변위와 상기 두 개의 이미지 데이터를 생성한 두 개의 이미지 센서 사이의 간격을 이용하여, 상기 두 개의 이미지 센서와 상기 각각의 2차원 변위를 나타내는 지점과의 거리를 계산하여, 이를 거리데이터로 생성한다.After recognizing the corresponding point of the left image data and the feature point of the left image data as described above, after reviewing the two-dimensional displacement of the corresponding point of the two image data, the two-dimensional displacement and the two image data generated Using distances between two image sensors, distances between the two image sensors and the points representing the respective two-dimensional displacements are calculated and generated as distance data.

도 6는 상기 이미지센서를 통해 생성된 이미지데이터에 포함된 픽셀이 갖는 정보를 통해 거리데이터를 생성하는 방법을 나타내기 위하여, 간략하게 그 구성도를 나타낸 것이다. FIG. 6 is a block diagram briefly illustrating a method of generating distance data based on information included in pixels included in image data generated by the image sensor.

도 6a에 도시한 바와 같이, 이미지1(우측)의 (x1, y1)과 이미지2(좌측)의 (x2, y2)는 외부공간 w를 나타내고 있다. 이미지센서의 초점을 중심으로 x1은 w의 X1좌표와 대응되고, x2는 w의 X2좌표와 대응된다. 따라서 수학식 2에 의한 방법으로 이미지센서와 w와의 거리를 구할 수 있으며, 상기 거리는 Z로 나타내어진다. 수학식 2의 'B'는 5a 및 도 6b에 도시한 바와 같이, 두 이미지 센서 사이의 거리를 의미한다.As shown in Fig. 6A, (x 1 , y 1 ) of image 1 (right) and (x 2 , y 2 ) of image 2 (left) represent the external space w. With respect to the focal point of the image sensor, x 1 corresponds to the X 1 coordinate of w and x 2 corresponds to the X 2 coordinate of w. Therefore, the distance between the image sensor and w can be obtained by the method according to Equation 2, and the distance is represented by Z. 'B' in Equation 2 means a distance between two image sensors, as shown in FIGS. 5A and 6B.

Figure 112005032402134-PAT00002
Figure 112005032402134-PAT00003
Figure 112005032402134-PAT00002
Figure 112005032402134-PAT00003

Figure 112005032402134-PAT00004
Figure 112005032402134-PAT00005
Figure 112005032402134-PAT00004
Figure 112005032402134-PAT00005

Figure 112005032402134-PAT00006
Figure 112005032402134-PAT00007
Figure 112005032402134-PAT00006
Figure 112005032402134-PAT00007

Figure 112005032402134-PAT00008
Figure 112005032402134-PAT00008

Figure 112005032402134-PAT00009
Figure 112005032402134-PAT00009

상기와 같은 방법 외에도, 두 개의 이미지데이터를 겹쳐서 분석한 후, 상기 두 이미지데이터의 불일치점을 찾아내고, 상기 두 이미지데이터의 불일치점을 나타낸 불일치이미지(Disparity Image)를 생성하여, 상기 불일치이미지에 필터링을 수행하여, 명암이나 색채등을 나타내는 변수를 통해 거리를 나타내는 이미지(Depth Image)로 변환한 후, 상기 거리이미지를 통해 거리데이터를 계산해내는 방법을 사용할 수 있다. 상기의 경우에는 상기 이미지센서의 초점거리, 상기 거리이미지의 가로 및 세로의 최대값과 이미지데이터의 가로 및 세로의 최대값을 사용하여 상기의 비율로서 상기 거리데이터를 생성하는 방법일 수 있다.In addition to the above method, after analyzing two image data by overlapping, finding the inconsistency of the two image data, and generating a disparity image (Disparity Image) indicating the inconsistency of the two image data, After filtering, the image may be converted into an image representing a distance through a variable representing contrast or color, and then a distance data may be calculated using the distance image. In this case, the distance data may be generated as the ratio using the focal length of the image sensor, the maximum value of the horizontal and vertical values of the distance image, and the maximum value of the horizontal and vertical values of the image data.

도 6c는 불일치이미지와 상기 불일치 이미지를 필터링을 통해 거리이미지로 나타낸 것을 도시한 것이다. 도 6c의 왼쪽이미지는 원본 불일치 이미지로서 색채와 밝기등으로 명암이 구분되고 있다. 또한 도 6c의 중간이미지는 상기 도 6c의 왼쪽이미지에 필터링(Post-Processing)을 수행하여 불규칙하게 나타나는 픽셀값을 보다 규칙적으로 나타낸 것이다. 도 6d의 우측에 도시한 것은 도 6c의 왼쪽이미지에 대한 불일치한 정도를 수치로 나타낸 것이다. 또한 도 6c의 오른쪽이미지는 상기 도 6c의 중간이미지에 필터링(Post-Processing)을 수행하여 거리이미지로 변환한 것이다. 도 6c의 오른쪽이미지에 도시한 바와 같이, 사용자와의 거리가 가까운 곳은 보다 작은 명암값으로 표기하고, 사용자와의 거리가 먼 곳은 큰 명암값을 갖도록 표기하였다. 도 6e의 우측에 도시한 것은, 상기 도 6d의 오른쪽이미지에 포함된 각 픽셀의 거리데이터를 수치로 표기한 것이다. 수치가 커질수록 상기 픽셀이 나타내는 지점과 사용자와의 거리가 멀다는 것을 나타낸다. FIG. 6C illustrates the disparity image and the disparity image as a distance image through filtering. The left image of FIG. 6C is an original mismatched image, and contrast is distinguished by color and brightness. In addition, the intermediate image of FIG. 6C more regularly shows pixel values that appear irregularly by performing post-processing on the left image of FIG. 6C. Shown on the right side of FIG. 6D is a numerical representation of the degree of discrepancy with respect to the left image of FIG. 6C. In addition, the right image of FIG. 6C is converted into a distance image by performing post-processing on the intermediate image of FIG. 6C. As shown in the image on the right of FIG. 6C, a place where the distance from the user is close is represented by a smaller contrast value, and a place where the distance from the user is far away is represented by a large contrast value. 6E, the distance data of each pixel included in the right image of FIG. 6D is expressed numerically. The larger the value, the greater the distance between the point indicated by the pixel and the user.

제어부의 프로세서는 적어도 하나 이상의 이미지센서를 포함하는 입력부로부터 전송되어온 적어도 하나 이상의 이미지데이터를 상기와 같은 방법으로 분석하여, 상기 이미지 데이터에 포함된 각 픽셀에 대하여 상기 픽셀이 나타내는 지점에 대한 3차원정보를 생성한다.The processor of the controller analyzes at least one or more image data transmitted from an input unit including at least one image sensor in the same manner as described above, and thus three-dimensional information on a point represented by the pixel for each pixel included in the image data. Create

이후, 상기 제1 실시예와 동일한 방법으로 상기 다수개의 3차원정보에 대한 소리데이터를 각각 생성한다. 보다 상세히 설명하자면, 소리의 크기, 높이, 종류, 시차 및 스트레오사운드 중 선택하여, 상기 3차원정보에 따라 상기 선택한 세 개의 파라미터가 변화되도록 소리데이터를 생성한다. Thereafter, sound data for the plurality of 3D information is generated in the same manner as in the first embodiment. In more detail, the sound data is generated such that the selected three parameters are changed according to the three-dimensional information by selecting among loudness, height, type, parallax, and stereo sound.

더욱 바람직하게는 상기 소리데이터는 상기 거리데이터(제2 실시예의 설명중에는 z좌표)가 커질수록 높이가 작아지며(주파수가 커지며), 이미지데이터에서 상 측에 위치할수록 (제2 실시예의 설명중에는 y좌표값이 커질수록) 크기가 커지도록 생성한다. 또한 우측에 위치한 픽셀(제2 실시예의 설명중에는 x좌표를 기준)에 대한 소리데이터의 합을 우측청각데이터로서 생성하고, 좌측에 위치한 픽셀에 대한 소리데이터의 합을 좌측청각데이터로서 생성한다. More preferably, the sound data becomes smaller in height as the distance data (z coordinate in the description of the second embodiment) becomes larger (frequency is increased), and is located higher in the image data (y in the description of the second embodiment). The larger the coordinate value), the larger the size. In addition, the sum of sound data for pixels located on the right side (based on the x coordinate in the description of the second embodiment) is generated as right audio data, and the sum of sound data for pixels located on the left side is generated as left audio data.

이후 상기 제어부는 상기 우측청각데이터와 좌측청각데이터를 출력부에 전송한다.Thereafter, the controller transmits the right auditory data and the left auditory data to an output unit.

상기 제1 실시예에서와 같이, 사용자가 상기 소리데이터를 구분할 수 있는 장치 사용의 숙련도에 따라 청각정보로 변환하는 시각정보의 양을 조절할 수 있다. 상기 시각정보의 조절은 가까운 거리에 위치한 전방의 시각정보에 대해 청각정보로 변환하거나 또는 초점을 맞춰 중앙에 위치하는 시각정보에 대해 청각정보로 변환하는 방법이 있을 수 있다. 그러나 이는 예시일 뿐이며, 시각정보의 양을 조절하는 방법은 보다 다양한 방법으로도 가능하다는 것은 자명하다. 상기 장치를 통해 청각정보를 인식하는 사용자의 숙련도에 따라 청각정보로 변환시키는 시각정보의 양을 보다 많아지도록 조절할 수 있다. As in the first embodiment, the user can adjust the amount of visual information converted into auditory information according to the user's skill in using the device that can distinguish the sound data. The adjustment of the visual information may include a method of converting the visual information in the near distance to the auditory information or converting the visual information to the auditory information in the center in focus. However, this is only an example, and it is obvious that a method of controlling the amount of visual information can be used in more various ways. The apparatus may adjust the amount of visual information to be converted into auditory information according to the user's proficiency of recognizing auditory information.

본 발명은 다수개의 거리센서 또는 적어도 하나 이상의 이미지센서를 통해 전방의 시각정보를 전체적으로 감지하고, 상기 시각정보를 3차원정보로 구성하여, 상기 3차원정보를 청각정보로 전환하여 사용자에게 들려줌으로서, 사용자가 청각정보로 표현된 3차원시각정보를 전체적으로 인식할 수 있는 장점이 있다.The present invention detects the visual information of the front through a plurality of distance sensors or at least one or more image sensors as a whole, and configures the visual information to three-dimensional information, by converting the three-dimensional information to auditory information, to the user, There is an advantage that the user can fully recognize the three-dimensional visual information represented by the auditory information.

또한 본 발명은 사용자의 숙련도에 따라 인식되는 다수 개의 소리데이터를 구분하여, 보다 전체적인 시각정보를 얻을 수 있도록 하였으며, 거리가 가까운 지점에 대한 소리데이터는 큰 소리가 나도록 하여, 사용자의 인식정도가 높아지도록 한 장점이 있다. In addition, the present invention divides a plurality of sound data recognized according to the user's proficiency, so that the overall visual information can be obtained, and the sound data for a point close to a distance makes a loud sound, thereby increasing the user's recognition level. There is one advantage.

또한 물체의 좌우 위치를 좌측 출력부 및 우측 출력부로 구분하여 방출함으로 물체의 좌우위치를 구분할 수 있도록 하였으며, 물체와의 거리, 물체의 높이는 크기, 높이, 종류, 시차 중 선택되는 두개의 소리의 파라미터를 통해 나타냄으로서, 전방에 위치한 시각정보를 전체적으로 인식하여 보다 안전한 보행을 할 수 있는 장점이 있다.In addition, the left and right positions of the object are separated into the left output unit and the right output unit so that the left and right positions of the object can be distinguished.The distance to the object and the height of the object are two sound parameters selected from the size, height, type, and parallax. By showing through, there is an advantage that can be more safely walking by recognizing the visual information located in front.

Claims (26)

주파수를 갖는 발신신호를 외부로 내보내는 송신부와 발신신호가 반사되어 되돌아오는 수신신호를 실시간으로 수신하는 수신부로 구성되는 다수개의 거리센서가 소정 간격으로 이격되어 배열되는 거리거리센서배열을 적어도 하나 이상 포함하는 입력부;At least one distance distance sensor array comprising a plurality of distance sensors composed of a transmitter for transmitting a transmission signal having a frequency to the outside and a receiver for receiving a reception signal reflected by the transmission signal in real time spaced at a predetermined interval An input unit to perform; 상기 발신신호가 송신부에 의해 발신된 때부터 상기 발신신호가 반사되어 생성된 수신신호를 수신부에서 감지할 때까지의 시간인 수신시간을 측정하는 타이머와, 상기 발신신호 또는 수신신호의 특성과 상기 수신시간을 통해 상기 다수개의 거리센서에 대한 각각의 거리데이터를 생성하고, 상기 거리센서가 거리거리센서배열에 위치한 가로배열을 x축데이터로, 세로배열을 y축데이터로 하고, 상기 생성된 거리데이터를 z축데이터로 한 3차원 정보를 포함하는 거리프로파일이미지데이터(range profile image data)를 생성하고, 소리의 크기, 소리의 높이, 소리의 종류, 소리의 시차 및 스트레오 사운드중 선택하여, 상기 x축데이터, y축데이터 및 z축 데이터에 따라 상기 선택한 세 개의 파라미터가 변화하도록 상기 거리프로파일이미지데이터에 포함된 다수개의 3차원정보에 대한 각각의 소리데이터를 생성하고, 상기 다수개의 소리데이터를 통해 좌측출력부 및 우측 출력부에 출력되는 좌측 및 우측 청각데이터를 생성하는 디지털 신호 처리 장치(Digital Signal Processor : DSP) 또는 초소형 연산처리장치(Micro-processing unit : MPU) 중 어느 하나 이상을 포함하는 조합으로 구성되는 프로세서를 포함하는 제어부; 및A timer for measuring a reception time which is a time from when the transmission signal is transmitted by the transmission unit to the reception unit detecting the reception signal generated by the reflection of the transmission signal, characteristics of the transmission signal or reception signal, and the reception signal; Each distance data of the plurality of distance sensors is generated through time, and the distance sensor is located in the distance distance sensor array, the horizontal array is x-axis data, the vertical array is y-axis data, and the generated distance data. Generate range profile image data including three-dimensional information using z-axis data, and select from among loudness, height of sound, type of sound, parallax of sound and stereo sound. A plurality of distance profile image data included in the distance profile image data such that the selected three parameters change according to the axis data, the y axis data, and the z axis data. A digital signal processor (DSP) for generating respective sound data for three-dimensional information and generating left and right auditory data output to the left and right output units through the plurality of sound data; A control unit including a processor configured in a combination including at least one of a micro-processing unit (MPU); And 좌측 및 우측이 구분가능하도록 표시되어 있는 이어폰, 헤드폰 또는 골전도장치 중 어느 하나로 구성되고, 상기 좌측청각데이터 및 우측청각데이터를 사용자가 들을 수 있도록 출력하는 출력부;를 포함하는 청각을 이용한 시각재현장치.Visual reproduction using hearing, including; an output unit configured to any one of the earphone, headphone or bone conduction device is displayed so that the left and right sides are distinguishable, the user can hear the left auditory data and the right auditory data Device. 제 1항에 있어서,The method of claim 1, 상기 입력부에 포함되는 거리센서의 주파수를 갖는 발신신호는 초음파, 적외선, 전자파, 레이저 중 어느 하나인 것을 특징으로 하는 청각을 이용한 시각재현장치.The outgoing signal having a frequency of the distance sensor included in the input unit is a visual representation apparatus using the auditory, characterized in that any one of ultrasonic waves, infrared rays, electromagnetic waves, laser. 제 1항에 있어서,The method of claim 1, 상기 제어부는 상기 입력부에서 전송한 수신신호를 디지털 신호 처리 장치(Digital Signal Processor : DSP) 또는 초소형 연산처리장치(Micro-processing unit : MPU)에 의해 처리할 수 있도록 아날로그 신호에서 디지털신호로 변환하는 A/D컨버터(Analog/Digital Converter)를 추가적으로 포함하는 것을 특징으로 하는 청각을 이용한 시각재현장치.The control unit converts the received signal transmitted from the input unit into an analog signal to a digital signal to be processed by a digital signal processor (DSP) or a micro-processing unit (MPU). / D converter (Analog / Digital Converter) characterized in that it further comprises a visual reproducing apparatus using the auditory. 제 1항에 있어서,The method of claim 1, 상기 제어부는 수신부에서 수신신호를 감지하였을 때, 상기 수신신호를 생성한 발신신호를 구분하기 위하여, 상기 입력부의 송신부에서 외부로 방출하는 발신신호의 간격을 조절하는 펄스생성부를 추가적으로 포함하는 것을 특징으로 하는 청 각을 이용한 시각재현장치.The control unit further includes a pulse generator for adjusting the interval of the outgoing signal emitted from the transmitter of the input unit to distinguish the outgoing signal generating the received signal when the receiver detects the received signal, characterized in that Visual representation apparatus using hearing. 제 1항에 있어서,The method of claim 1, 상기 제어부는 거리프로파일이미지데이터의 일부분만을 소리데이터로 변환시키기 위하여, 상기 거리프로파일이미지데이터의 일부분을 조절하는 조절부를 추가적으로 포함하는 것을 특징으로 하는 청각을 이용한 시각재현장치.And the control unit further comprises an adjusting unit for adjusting a portion of the distance profile image data to convert only a portion of the distance profile image data into sound data. 제 1항에 있어서,The method of claim 1, 상기 거리데이터는 발신신호 또는 수신신호의 주파수 또는 진폭과 상기 수신시간을 2로 나눈값을 통해 생성되는 것을 특징으로 하는 청각을 이용한 시각재현장치.And the distance data is generated by dividing a frequency or amplitude of an outgoing signal or a received signal by the reception time by two. 제 1항에 있어서,The method of claim 1, 상기 거리데이터는 기온을 변수로 사용하는 음속계산법을 통해 생성한 음속데이터와 상기 수신시간을 2로 나눈값을 통해 생성되는 것을 특징으로 하는 청각을 이용한 시각재현장치.The distance data is a visual representation device using the auditory, characterized in that the sound speed data generated by the sound speed calculation method using the temperature as a variable divided by the reception time divided by two. 제 7항에 있어서, The method of claim 7, wherein 상기 제어부는 상기 음속데이터를 생성하기 위하여, 음속계산법의 변수중 하나인 기온을 측정하기 위한 온도를 측정하여 디지털 형태의 데이터로 제어부에 전 송할 수있는 온도계를 추가적으로 포함하는 것을 추가적으로 포함하는 것을 특징으로 하는 청각을 이용한 시각재현장치.The control unit may further include a thermometer for measuring the temperature for measuring the temperature, which is one of the variables of the sound velocity calculation method, and transmitting the digital speed data to the control unit to generate the sound speed data. Visual representation apparatus using hearing. 제 7항에 있어서,The method of claim 7, wherein 상기 거리데이터는 음속계산법에 사용되는 기온을 평균기온으로 설정하여, 상기 평균음속을 통해 생성되는 것을 특징으로 하는 청각을 이용한 시각재현장치.The distance data is a visual representation apparatus using the auditory, characterized in that generated by the average sound speed by setting the temperature used in the sound speed calculation method. 제 1항에 있어서,The method of claim 1, 상기 입력부의 거리거리센서배열은 사용자를 중심으로 좌측과 우측에 소정거리를 두고 이격되어 위치하는 것을 특징으로 하는 청각을 이용한 시각재현장치.The distance sensor array of the input unit is a visual representation device using the auditory, characterized in that spaced apart at a predetermined distance on the left and right with respect to the user. 제 10항에 있어서,The method of claim 10, 상기 x축중심의 좌측에 위치하는 x축데이터는 좌측에 위치한 거리거리센서배열에 포함된 거리센서에 의해 생성되고, 우측에 위치하는 x축데이터는 우측에 위치한 거리거리센서배열에 의해 생성되는 것을 특징으로 하는 청각을 이용한 시각재현장치.The x-axis data located on the left side of the x-axis center is generated by the distance sensor included in the distance distance sensor array on the left side, and the x-axis data on the right side is generated by the distance distance sensor array on the right side. A visual representation apparatus using hearing. 제 1항에 있어서,The method of claim 1, 상기 소리데이터는 상기 y축데이터가 커질수록 소리의 높이가 커지고(주파수가 작아지고), 상기 z축데이터가 커질수록 소리의 크기(음압 또는 세기 (intensity), 음압레벨(dB수))가 커지도록 생성하고, 상기 x축 중심의 좌측에 위치한 x축데이터를 갖는 거리프로파일이미지데이터에 대한 소리데이터는 좌측청각데이터로 생성하고, 우측에 위치한 x축데이터를 갖는 거리프로파일이미지데이터에 대한 소리데이터는 우측청각데이터로 생성하는 것을 특징으로 하는 청각을 이용한 시각재현장치.As the y-axis data increases, the sound data becomes louder (the frequency becomes smaller), and as the z-axis data increases, the loudness (sound pressure or intensity, sound pressure level (dB number)) becomes larger. The sound data for the distance profile image data having the x-axis data located on the left side of the center of the x-axis is generated as left audio data, and the sound data for the distance profile image data having the x-axis data on the right side is generated. A visual representation apparatus using hearing, which is generated by right auditory data. 제 1항에 있어서,The method of claim 1, 상기 출력부는 상기 거리프로파일이미지데이터에 대하여 생성된 다수개의 소리데이터를 통해 생성된 좌측 및 우측 청각데이터를 출력함에 있어서, 상기 좌측 및 우측 청각데이터에 포함된 다수개의 소리데이터를 동시에 출력하는 것을 특징으로 하는 청각을 이용한 시각재현장치.The output unit outputs left and right auditory data generated through a plurality of sound data generated with respect to the distance profile image data, and simultaneously outputs a plurality of sound data included in the left and right auditory data. Visual representation apparatus using hearing. 이미지센서를 적어도 하나 이상 포함하는 입력부;An input unit including at least one image sensor; 상기 이미지센서의 동작간격을 설정하는 펄스생성부와, 상기 이미지센서를 통해 입력된 이미지데이터에 포함되는 다수개의 픽셀이 상기 이미지데이터에 위치한 가로배열을 x축데이터로, 세로배열을 y축데이터로 하고, 상기 픽셀에 저장된 색상정보, 명암정보, 채도정보 및 상기 다수개의 이미지 센서의 특성을 통해 생성되는 상기 픽셀과 상기 픽셀이 가르키는 지점과의 거리를 z축데이터로 하는 3차원 정보를 생성하고, 소리의 크기, 높이, 종류, 시차 및 스트레오사운드중 어느 하나를 선택하여 상기 x축 데이터, y축데이터 및 z축데이터에 따라 상기 선택한 파라미터 가 변화하는 상기 다수 개의 픽셀에 대한 각각의 소리데이터를 생성하고, 상기 다수개의 소리데이터를 통해 좌측출력부 및 우측 출력부에 출력되는 좌측 및 우측 청각데이터를 생성하는 디지털 신호 처리 장치(Digital Signal Processor : DSP) 또는 초소형 연산처리장치(Micro-processing unit : MPU)를 포함하는 제어부;A pulse generator configured to set an operation interval of the image sensor, a plurality of pixels included in the image data input through the image sensor, the horizontal arrangement of which is located in the image data as x-axis data, and the vertical arrangement as y-axis data And generating three-dimensional information using z-axis data as a distance between the pixel generated by the color information, the contrast information, the chroma information, the saturation information, and the characteristics of the plurality of image sensors. Selecting one of sound volume, height, type, parallax, and stereo sound to obtain respective sound data for the plurality of pixels in which the selected parameter changes according to the x-axis data, y-axis data, and z-axis data. Generating left and right auditory data output to a left output unit and a right output unit through the plurality of sound data; A control unit including a digital signal processor (DSP) or a micro-processing unit (MPU); 좌측 및 우측이 구분가능하도록 표시되어 있는 이어폰, 헤드폰 또는 골전도장치 중 어느 하나로 사용가능하며, 상기 좌측청각데이터 및 우측청각데이터를 사용자가 들을 수 있도록 출력하는 출력부;를 포함하는 청각을 이용한 시각재현장치.A hearing using the sound, including; an output unit for using any one of the earphone, headphone or bone conduction device that the left and right are distinguishable, and outputs the left auditory data and the right auditory data so that the user can hear; Reproducing device. 제 14항에 있어서,The method of claim 14, 상기 제어부는 상기 입력부의 다수개의 이미지센서를 통해 인식된 값을 디지털 신호 처리 장치(Digital Signal Processor : DSP) 또는 초소형 연산처리장치(Micro-processing unit : MPU)에 의해 처리할 수 있도록 아날로그 신호에서 디지털신호로 변환하는 A/D컨버터(Analog/Digital Converter)를 추가적으로 포함하는 것을 특징으로 하는 청각을 이용한 시각재현장치.The control unit may control the digital signal from the analog signal so that the value recognized by the plurality of image sensors of the input unit may be processed by a digital signal processor (DSP) or a micro-processing unit (MPU). An audio / visual reproducing apparatus, comprising: an A / D converter (Analog / Digital Converter) for converting into a signal. 제 14항에 있어서,The method of claim 14, 상기 입력부는 사용자를 중심으로 좌측 및 우측에 위치하는 이미지센서를 포함하며, 상기 좌측이미지센서와 우측이미지센서는 같은 지점을 인식하도록 위치하는 것을 특징으로 하는 청각을 이용한 시각재현장치.The input unit includes an image sensor positioned on the left and right sides of the user, and the left image sensor and the right image sensor is a visual representation apparatus using the auditory, characterized in that positioned to recognize the same point. 제 16항에 있어서,The method of claim 16, 상기 제어부는 상기 좌측이미지센서와 우측이미지센서가 동시에 동작하도록 펄스 생성부를 통해 제어하고, 상기 좌측이미지센서에 의해 인식된 것은 좌측이미지데이터로 생성하고, 우측이미지센서에 의해 인식된 것은 우측이미지데이터를 생성하는 것을 특징으로 하는 청각을 이용한 시각재현장치.The control unit controls the left image sensor and the right image sensor to operate at the same time through the pulse generating unit, and the recognition by the left image sensor generates the left image data, the right image sensor is recognized by the right image data Visual representation apparatus using the auditory, characterized in that the generation. 제 17항에 있어서,The method of claim 17, 상기 제어부의 프로세서는 상기 좌측 및 우측 이미지데이터에 포함된 픽셀의 색채정보, 명암정보, 채도정보등을 검토하여, 같은 지점을 나타내는 좌측이미지데이터에 포함된 픽셀과 우측이미지데이터에 포함된 픽셀을 인식하고, 상기 같은 지점을 나타내는 픽셀이 좌측이미지데이터 및 우측이미지데이터에 배열된 위치와 상기 좌측 및 우측 이미지데이터를 생성한 좌측 및 우측 이미지센서의 간격을 통해 상기 z축데이터를 생성하는 것을 특징으로 하는 청각을 이용한 시각재현장치.The processor of the controller examines the color information, the contrast information, the chroma information of the pixel included in the left and right image data, and recognizes the pixel included in the left image data and the right image data indicating the same point. And generating the z-axis data through a gap between a position at which pixels representing the same point are arranged in left image data and right image data, and a left and right image sensor generating the left and right image data. A visual representation apparatus using hearing. 제 14항에 있어서,The method of claim 14, 상기 소리데이터는 상기 y축데이터가 커질수록 소리의 높이가 커지고(주파수가 작아지고), 상기 z축데이터가 커질수록 소리의 크기(음압 또는 세기(intensity), 음압레벨(dB수))가 커지도록 생성하고, 상기 x축 중심의 좌측에 위치한 x축데이터를 갖는 거리프로파일이미지데이터에 대한 소리데이터는 좌측청각데이터로 생성하고, 우측에 위치한 x축데이터를 갖는 거리프로파일이미지데이터에 대한 소리데이터는 우측청각데이터로 생성하는 것을 특징으로 하는 청각을 이용한 시각재현장치.As the y-axis data becomes larger, the sound data becomes louder (the frequency becomes smaller), and as the z-axis data becomes larger, the loudness (sound pressure or intensity, sound pressure level (dB number)) becomes larger. The sound data for the distance profile image data having the x-axis data located on the left side of the center of the x-axis is generated as left audio data, and the sound data for the distance profile image data having the x-axis data on the right side is generated. A visual representation apparatus using hearing, which is generated by right auditory data. 제 14항에 있어서,The method of claim 14, 상기 출력부는 상기 거리프로파일이미지데이터에 대하여 생성된 다수개의 소리데이터를 통해 생성된 좌측 및 우측 청각데이터를 출력함에 있어서, 상기 좌측 및 우측 청각데이터에 포함된 다수개의 소리데이터를 동시에 출력하는 것을 특징으로 하는 청각을 이용한 시각재현장치.The output unit outputs left and right auditory data generated through a plurality of sound data generated with respect to the distance profile image data, and simultaneously outputs a plurality of sound data included in the left and right auditory data. Visual representation apparatus using hearing. 제 14항에 있어서,The method of claim 14, 상기 공간이미지데이터를 통해 각각의 픽셀에 대한 색 또는 질감에 대한 데이터를 추가적으로 생성하고, 상기 소리데이터는 상기 색 또는 질감에 대한 데이터에 대비한 음색을 포함하는 것을 특징으로 하는 청각을 이용한 시각재현장치.The visual representation apparatus using the auditory sound, characterized in that additionally generating data on the color or texture for each pixel through the spatial image data, the sound data includes a tone contrasted with the data for the color or texture . 제 14항에 있어서,The method of claim 14, 상기 제어부는 상기 적어도 하나 이상의 이미지 센서로부터 입력된 이미지데이터의 일부분만을 소리데이터로 변환시키기 위하여, 상기 거리프로파일이미지데이터의 일부분을 조절하는 조절부를 추가적으로 포함하는 것을 특징으로 하는 청각을 이용한 시각재현장치.The control unit further comprises a control unit for adjusting a portion of the distance profile image data to convert only a portion of the image data input from the at least one image sensor into sound data. 제 1항 내지 제 22항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 22, 상기 입력부가 고글의 렌즈부분에 위치하고, 상기 출력부가 고글의 귀고정부에 근접하면서도 위치이동이 자유롭도록 위치한 고글 형상인 것을 특징으로 하는 청각을 이용한 시각재현장치.The input is located in the lens portion of the goggles, the output is a visual reproduction device using the auditory, characterized in that the goggle shape is positioned so as to move freely near the ear of the goggles. 제 1항 내지 제 22항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 22, 상기 입력부가 안경의 렌즈부분에 위치하고, 상기 출력부가 고글의 귀고정부에 근접하면서도 위치이동이 자유롭도록 위치한 안경 형상인 것을 특징으로 하는 청각을 이용한 시각재현장치.And the input unit is located on the lens portion of the glasses, and the output unit is in the shape of glasses positioned so as to move freely while being close to the ear of the goggles. 제 1항 내지 제 22항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 22, 상기 입력부가 안경 또는 고글의 경첩부분에 위치하고, 상기 출력부가 고글의 귀고정부에 근접하면서도 위치이동이 자유롭도록 위치한 안경 또는 고글 형상인 것을 특징으로 하는 청각을 이용한 시각재현장치.The input is located on the hinge portion of the glasses or goggles, and the output is a visual representation device using the auditory, characterized in that the glasses or goggles shape is located so as to move freely near the ear of the goggles. 제 8항 내지 제 22항중 어느 한 항에 있어서,The method according to any one of claims 8 to 22, 상기 입력부 및 출력부가 헤드폰에 각각 구비된 헤드폰 형상인 것을 특징으로 하는 청각을 이용한 시각재현장치.The visual representation apparatus using hearing, characterized in that the input unit and the output unit is a headphone shape provided in each of the headphones.
KR1020050052789A 2005-06-20 2005-06-20 Reproduction of Visual Image using Auditory Stimulation and Method Controlling of the same KR100690562B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050052789A KR100690562B1 (en) 2005-06-20 2005-06-20 Reproduction of Visual Image using Auditory Stimulation and Method Controlling of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050052789A KR100690562B1 (en) 2005-06-20 2005-06-20 Reproduction of Visual Image using Auditory Stimulation and Method Controlling of the same

Publications (2)

Publication Number Publication Date
KR20060133140A true KR20060133140A (en) 2006-12-26
KR100690562B1 KR100690562B1 (en) 2007-03-09

Family

ID=37812084

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050052789A KR100690562B1 (en) 2005-06-20 2005-06-20 Reproduction of Visual Image using Auditory Stimulation and Method Controlling of the same

Country Status (1)

Country Link
KR (1) KR100690562B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100747510B1 (en) * 2006-07-07 2007-08-08 학교법인 영광학원 Walking guidance system for the blind
CN114120960A (en) * 2021-11-19 2022-03-01 武汉大学 Auxiliary space perception system and method based on hearing

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07229962A (en) * 1994-02-18 1995-08-29 Osaka Kiden Kk Ultrasonic blind guidance apparatus
JP3369458B2 (en) 1998-01-30 2003-01-20 三菱電機株式会社 Object representation apparatus and method using three-dimensional sound image
JP2002065721A (en) 2000-08-29 2002-03-05 Komatsu Ltd Device and method for supporting environmental recognition for visually handicapped
KR20030015936A (en) * 2001-08-18 2003-02-26 양철호 Guide apparatus for the blind
US6684176B2 (en) 2001-09-25 2004-01-27 Symbol Technologies, Inc. Three dimensional (3-D) object locator system for items or sites using an intuitive sound beacon: system and method of operation
KR20050036179A (en) * 2003-10-15 2005-04-20 현대자동차주식회사 A forward area monitoring device of vehicle and method thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100747510B1 (en) * 2006-07-07 2007-08-08 학교법인 영광학원 Walking guidance system for the blind
CN114120960A (en) * 2021-11-19 2022-03-01 武汉大学 Auxiliary space perception system and method based on hearing
CN114120960B (en) * 2021-11-19 2024-05-03 武汉大学 Auxiliary space sensing system and method based on hearing

Also Published As

Publication number Publication date
KR100690562B1 (en) 2007-03-09

Similar Documents

Publication Publication Date Title
Balakrishnan et al. Wearable real-time stereo vision for the visually impaired.
US10694313B2 (en) Audio communication system and method
US7424118B2 (en) Moving object equipped with ultra-directional speaker
CN107708624B (en) Portable system allowing blind or visually impaired people to understand the surroundings acoustically or by touch
Wallmeier et al. Self-motion facilitates echo-acoustic orientation in humans
Bujacz et al. Sonification: Review of auditory display solutions in electronic travel aids for the blind
US7957224B2 (en) Human echolocation system
US11544036B2 (en) Multi-frequency sensing system with improved smart glasses and devices
KR100690562B1 (en) Reproduction of Visual Image using Auditory Stimulation and Method Controlling of the same
Dunai et al. Virtual sound localization by blind people
Vítek et al. New possibilities for blind people navigation
Yano et al. A study on personal difference in the transfer functions of sound localization using stereo earphones
US20150086023A1 (en) Audio control apparatus and method
KR20160090781A (en) Apparatus for Converting Video Signal to Sound Method for Converting Video Signal into Voice Signal for the Visually Impaired
US11150868B2 (en) Multi-frequency sensing method and apparatus using mobile-clusters
JP2018078444A (en) Perceptual support system
Davies et al. Using ecological interface design to develop an auditory interface for visually impaired travellers
JP4891375B2 (en) Image hearing device
Davies et al. Where did that sound come from? Comparing the ability to localise using audification and audition
Balakrishnan et al. Stereo image to stereo sound methods for vision based ETA
KR20150092811A (en) Apparatus for Converting Video Signal to Sound Method for Converting Video Signal into Voice Signal for the Visually Impaired
JP3369458B2 (en) Object representation apparatus and method using three-dimensional sound image
KR100357779B1 (en) Sound surveillance system for underwater
Zhang Navigation system based on depth camera and portable device for visual impairments
王鋭 Method for estimating monaural DOA and distance using modulation spectrum analysis

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130125

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140127

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20150130

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20160126

Year of fee payment: 10

LAPS Lapse due to unpaid annual fee