WO2014017719A1 - Method and system for guiding visually impaired person using multi-view camera having parallel image filtering module, and computer-readable recording medium - Google Patents

Method and system for guiding visually impaired person using multi-view camera having parallel image filtering module, and computer-readable recording medium Download PDF

Info

Publication number
WO2014017719A1
WO2014017719A1 PCT/KR2013/001040 KR2013001040W WO2014017719A1 WO 2014017719 A1 WO2014017719 A1 WO 2014017719A1 KR 2013001040 W KR2013001040 W KR 2013001040W WO 2014017719 A1 WO2014017719 A1 WO 2014017719A1
Authority
WO
WIPO (PCT)
Prior art keywords
feature point
camera
image
observer
image filtering
Prior art date
Application number
PCT/KR2013/001040
Other languages
French (fr)
Korean (ko)
Inventor
박영성
한동숭
Original Assignee
전주대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전주대학교 산학협력단 filed Critical 전주대학교 산학협력단
Publication of WO2014017719A1 publication Critical patent/WO2014017719A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves

Definitions

  • the present invention relates to a visually impaired guide method, a system and a computer-readable recording medium using a multi-view camera having a parallel image filtering module, and more particularly, to a distance from an obstacle located in front of a plurality of cameras and
  • the present invention relates to a visually impaired guide method, a system and a computer-readable recording medium using a multi-view camera equipped with a parallel image filtering module that detects a direction and notifies the observer, so that even a blind person can walk independently.
  • the present invention aims to solve all the above-mentioned problems.
  • the present invention obtains a multi-view image using a plurality of cameras, by using the same to obtain the position and direction of the obstacle located in front of the observer to provide to the observer so that the observer can walk independently when the visually impaired It is an object of the present invention to provide a visually impaired guide method, a system and a computer-readable recording medium.
  • Another object of the present invention is to provide an image processing algorithm capable of processing a large amount of image data more quickly and accurately by connecting a plurality of image filtering modules in parallel.
  • a method for guiding a visually impaired person using a multi-view camera having a parallel image filtering module comprising: (a) extracting a common feature point from each input image from a plurality of cameras; Calculating a relative distance between the feature point and the observer, and (c) generating an alarm having a stimulus corresponding to the relative distance between the feature point and the observer.
  • a visually impaired guide system using a multi-view camera having a parallel image filtering module wherein a plurality of cameras and a common feature point are extracted from each input image from the camera
  • a system includes a central processing unit for calculating a relative distance of and an alarm device for generating an alarm having a stimulus corresponding to the relative distance between the feature point and the observer.
  • the present invention by using a plurality of cameras to detect the distance and the direction of the obstacle located in front and to notify the observer can be able to walk independently even in the case of the visually impaired.
  • a plurality of image filtering modules may be connected in parallel to process a large amount of image data more quickly and accurately.
  • FIG. 1 is a block diagram illustrating a visually impaired guide system using a multi-view camera having a parallel image filtering module according to an embodiment of the present invention.
  • FIG. 2 is a flowchart illustrating an object searching method using a multiview camera having a parallel image filtering module according to an embodiment of the present invention.
  • FIG. 3 is a diagram for describing a method of calculating a relative distance between a feature point and an observer common in an object searching system using a multiview camera having a parallel image filtering module according to an embodiment of the present invention.
  • FIG. 1 is a block diagram illustrating a visually impaired guide system using a multi-view camera having a parallel image filtering module according to an embodiment of the present invention.
  • the visually impaired guide system includes a plurality of cameras 100, a gap adjusting device 200 for adjusting a gap between the cameras 100, and a plurality of cameras connected in parallel with each other.
  • the image filtering module 300 may include a central processing unit 400 interoperating with the image filtering module 300.
  • the camera 100 may include an image memory 110 for temporarily storing an image captured therein, and the image filtering module 300 may include at least one graphic memory 310 and a graphic. And a central processing unit (400), wherein the central processing unit (400) includes a central processing unit (410), a central processing unit (420), a persistent storage unit (430), and a network communication unit (440). ), And an alarm device 450.
  • the central processing unit (400) includes a central processing unit (410), a central processing unit (420), a persistent storage unit (430), and a network communication unit (440).
  • an alarm device 450 includes a central processing unit (410), a central processing unit (420), a persistent storage unit (430), and a network communication unit (440).
  • the visually impaired guide system is a digital device, and includes a microprocessor and a memory means such as a personal computer (for example, a tablet computer, a laptop computer, etc.), a PDA, a web pad, a mobile phone, and the like.
  • a personal computer for example, a tablet computer, a laptop computer, etc.
  • PDA personal digital assistant
  • a web pad a mobile phone
  • Any portable digital device equipped with a computing power may be adopted as a visually impaired guide system according to the present invention.
  • the portable digital device may be manufactured in the form of accessories such as glasses or necklaces so that the visually impaired person can easily equip and move.
  • the camera 100 may be a digital camera 100 configured as a conventional general imaging device, for example, using a CCD and generating a digital image signal.
  • Image information input through the camera 100 may be temporarily stored in the image memory 110 of the camera 100, and may be stored in the center through a plurality of image filtering modules 300 connected in parallel with the camera 100. May be sent to the processing device 400.
  • the interval adjusting device 200 adjusts the interval between the cameras 100 to obtain a common feature point from each image input from the camera 100. Performs a function that enables extraction. That is, in the multi-view camera system, if the distance between the cameras 100 is sufficiently small, the distance between the respective cameras 100 is increased by using a possibility that a common feature point is extracted from an image input from each camera 100. By adjusting the common feature point can be extracted.
  • the feature point may be a portion of an obstacle located in front of the observer.
  • the image filtering module 300 may include at least one graphic memory 310 and a graphic computing device 320 therein, and the image filtering module 300 may include It is connected in parallel with the camera 100 and performs a function of receiving and filtering image information photographed using the camera 100 from the image memory 110.
  • the graphic memory 310 may receive and load a filtering program to be used for image filtering from the CPU 400, and the graphic computing device 320 may use the filtering program to load the camera 100. Performs a filtering operation on the image information input from the.
  • the computing device 320 may transmit and receive filtered image information by communicating with the central processing unit 400 in a bidirectional manner.
  • the image filtering module 300 is connected to the camera 100 in parallel and performs a function of processing two or more image information in real time.
  • the filtering operation through the image filtering module 300 requires various algorithms or various threshold processing according to the information to be extracted from the input image, and the time required for individual image processing is large so that two or more pieces of information can be simultaneously extracted. There is a limit.
  • the plurality of image filtering modules 300 may be connected to the camera 100 in parallel to satisfy a speed required for real-time image processing.
  • the graphic memory 310 and the graphic computing device 320 may be program modules in which at least some of them are in communication with the camera 100 or the central processing unit 400.
  • Such program modules may be included in the image filtering module 300 in the form of an operating system, an application module, and other program modules, and may be physically stored on various known storage devices.
  • program modules may be stored in a remote storage device that can communicate with the image filtering module 300.
  • program modules include, but are not limited to, routines, subroutines, programs, objects, components, data structures, etc. that perform particular tasks or execute particular abstract data types, described below, in accordance with the present invention.
  • the central processing unit 400 includes a central processing unit 410, a central processing unit 420, a persistent storage unit 430, a network communication unit 440, and an alarm unit. 450, and performs a function of controlling the flow of data between the camera 100 and the image filtering module 300. That is, the central processing unit 400 controls the flow of data to and from the outside or between the components of the visually impaired guide system, so that the camera 100 and the image filtering module 300 each have unique functions. Control to perform.
  • the central processing memory 410 is connected in parallel with the image filtering module 300 to store image information transmitted from the plurality of image filtering modules 300, and each processed and stored image. Loads a program that can aggregate information and extract other information.
  • the central processing unit 420 aggregates a plurality of image information input through a plurality of cameras 100 and filtered through the image filtering module 300, and is located in front of an observer. Calculates the position and direction of the camera, and configures the visually impaired guide system 100, the image filtering module 300, the central processing unit 410, the persistent storage device 430, the network in the central processing unit 400 It performs a function of controlling the communication device 440, the alarm device 450 and the like.
  • the persistent storage device 430 stores the data processed by the central processing unit 420.
  • the network communication device 440 performs a function of receiving data from the outside or transmitting data to the outside through a communication network.
  • the network communication device 440 may receive an externally created program through the communication network.
  • the communication network may be configured as an aspect of wireless communication and may be configured with various communication networks such as a mobile communication network and a satellite communication network. More specifically, the communication network according to the present invention includes a concept including all known wireless LAN (WLAN), code division multiple access (CDMA), wideband code division multiple access (WCDMA), global system for mobile communications (GSM), and the like. It should be understood that
  • the alarm device 450 functions to generate an alarm having a stimulus corresponding to the relative distance according to the relative distance between the obstacle and the observer calculated by the central processing unit 420. In addition, the alarm device 450 performs a function of notifying the observer of the direction in which the obstacle is located.
  • the central operation memory 410, the central processing unit 420, the persistent storage device 430, the network communication device 440, and the alarm device 450 is at least a portion thereof
  • the image filtering module 300 may be program modules communicating with an external system.
  • Such program modules may be included in the central processing unit 400 in the form of operating systems, application modules, and other program modules, and may be physically stored on a variety of known storage devices.
  • Such program modules may also be stored in a remote storage device that can communicate with the central processing unit 400.
  • program modules include, but are not limited to, routines, subroutines, programs, objects, components, data structures, etc. that perform particular tasks or execute particular abstract data types, described below, in accordance with the present invention.
  • FIG. 2 is a flowchart illustrating an object searching method using a multiview camera having a parallel image filtering module according to an embodiment of the present invention.
  • the guide method of the visually impaired person of the present invention photographs an image using a plurality of cameras 100 (S100), and extracts feature points from the photographed images (S110).
  • the feature point refers to a predetermined portion of a subject photographed using the camera 100 and may be set to, for example, a portion protruding most toward the observer of the subject or a point closest to the observer.
  • the process returns to step S100 to again use the plurality of cameras 100.
  • the video will be taken.
  • a SIFT or SURF algorithm may be used.
  • the Scale Invariant Feature Transform (SIFT) algorithm was proposed by David G. Lowe, which extracts feature points generated from edges or vertices of objects as vectors, and provides excellent matching for deformations due to image size changes, rotations, and light changes. Has performance.
  • the SIFT Descriptor maintains constant feature matching even with image transformation, scale, rotation, and noise effects.
  • the feature extraction process using SIFT can be divided into two stages: finding a feature point and generating a descriptor of the selected feature point. First, in the step of extracting the feature points, the candidate feature points in the scale space are extracted and the stability of the candidate feature points is examined to correct the positions of the stable feature points to the detailed positions. In the generating of the descriptor, the direction component is obtained through the gradient of the peripheral area around the selected points, and the descriptor is generated by resetting the region of interest based on the obtained direction component.
  • the Speeded Up Robust Features (SURF) algorithm is an algorithm for extracting feature points that are robust to changes in size and rotation, like the SIFT algorithm, and is used for object recognition, panorama image generation, and 3D image reconstruction.
  • the SURF algorithm generates image pyramids and extracts feature points from the generated image pyramids to represent a scale space for extracting feature points robust to a change in size.
  • the relative distance between the feature point and the observer is calculated using the common feature point (S140).
  • a method of calculating the relative distance between the feature point and the observer will be described in more detail with reference to FIG. 3.
  • the alarm device 450 of the central processing unit 400 generates an alarm having a stimulus corresponding to the relative distance between the feature point and the observer based on the calculated distance (S150).
  • the alarm may include a loudness or an intensity of vibration, and the closer the feature point is to the observer, the louder the sound or the stronger the vibration so as to inform the observer of the distance to the obstacle. More preferably, the observer may be notified of the direction of the feature point using the x and y coordinate values of the feature point obtained as described with reference to FIG. 3 below (S160).
  • FIG. 3 is a diagram for describing a method of calculating a relative distance between a feature point and an observer common in an object searching system using a multiview camera having a parallel image filtering module according to an embodiment of the present invention.
  • the coordinate F of the first camera is (u, v, w) and the coordinate F of the second camera. If '(u', v ', w') and the coordinate of the feature point P is (x, y, z), the feature point P is located within the shooting radius of the fan shape of the first and second cameras. May be a common feature point in images captured by the first and second cameras.
  • the feature point P forms an image at (px, py) spaced apart by a focal length f of the first camera, and similarly the feature point P in the image photographed using the second camera.
  • the image is formed at (p'x, p'y) separated by the focal length f 'of the second camera.
  • the coordinates (x, y, z) of the feature point P can be obtained.
  • the relative coordinates of the feature point and the minimum distance of the origin can be calculated to calculate the relative position between the observer and the obstacle.
  • Embodiments according to the present invention described above may be implemented in the form of program instructions that may be executed by various computer components, and may be recorded in a computer-readable recording medium.
  • the computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination.
  • Program instructions recorded on the computer-readable recording medium may be those specially designed and configured for the present invention, or may be known and available to those skilled in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs, DVDs, and magneto-optical media such as floptical disks. media), and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware device may be configured to operate as one or more software modules to perform the process according to the invention, and vice versa.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

A method for guiding a visually impaired person using a multi-view camera having a parallel image filtering module, according to one aspect of the present invention, comprises the steps of: (a) extracting a common feature point from images respectively inputted from a plurality of cameras;(b) calculating a relative distance between the feature point and an observer; and (c) generating an alarm having stimulation corresponding to the relative distance between the feature point and the observer.

Description

병렬 영상 필터링 모듈을 구비한 다시점 카메라를 이용한 시각 장애인 가이드 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체Visually impaired guide method, system and computer readable recording medium using multi-view camera with parallel image filtering module
본 발명은 병렬 영상 필터링 모듈을 구비한 다시점 카메라를 이용한 시각 장애인 가이드 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체에 관한 것으로 보다 상세하게는, 복수의 카메라를 이용하여 전방에 위치하는 장애물과의 거리 및 방향을 탐지하고 이를 관찰자에게 통지함으로써 시각 장애인의 경우에도 혼자 독자적인 보행이 가능하도록 하는 병렬 영상 필터링 모듈을 구비한 다시점 카메라를 이용한 시각 장애인 가이드 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체에 관한 것이다.The present invention relates to a visually impaired guide method, a system and a computer-readable recording medium using a multi-view camera having a parallel image filtering module, and more particularly, to a distance from an obstacle located in front of a plurality of cameras and The present invention relates to a visually impaired guide method, a system and a computer-readable recording medium using a multi-view camera equipped with a parallel image filtering module that detects a direction and notifies the observer, so that even a blind person can walk independently.
최근 대용량의 화소수를 가지는 고성능 디지털 카메라가 개발되고, 소형 CCD 카메라가 널리 보급되었을 뿐만 아니라 고성능의 연산처리 장치와 갈수록 소형화, 고속화되고 있는 메모리 덕분에 대량의 영상 데이터들을 더욱 빠르고 정확하게 처리할 수 있는 영상 처리 기술이 비약적으로 발전하고 있다.Recently, high-performance digital cameras with a large number of pixels have been developed, small CCD cameras have not only become widespread, but also high-performance computing devices and increasingly smaller and faster memories can process large amounts of image data more quickly and accurately. Image processing technology is rapidly evolving.
이러한 추세에 따라 최근 동일 시간에 촬영된 다시점 영상에 대한 분석 알고리즘 역시 다방면에서 활발히 연구 개발되고 있다. 대표적인 예로 3D 영화, 3D 카메라, 3D TV와 관련하여 둘 이상의 카메라를 이용하여 동영상으로부터 대상 물체의 3차원 데이터를 복원하는 기술이나 영상에 가상물체를 합성하는 등의 기술들이 활발하게 연구되고 있다.In accordance with this trend, an analysis algorithm for multi-view images taken at the same time has also been actively researched and developed in various fields. As a representative example, technologies related to 3D movies, 3D cameras, 3D TVs, etc., using two or more cameras to restore 3D data of a target object from a video, or to synthesize a virtual object in an image, have been actively studied.
이와 같이 복수의 카메라를 하나의 디바이스 내에 장착하여 다시점 영상을 제공하는 기술은 2008년 8월 8일 공개, 공개번호 10-2008-0073073, 발명의 명칭 '듀얼 카메라모듈'을 통하여 개시된 바 있다. 위 기술을 참조하면, 근거리 화상과 원거리 화상을 촬영하는 데 사용되는 듀얼 카메라 모듈에 구현된 두 개의 이미지 센서와 효율적으로 통신하는 장치 및 방법이 개시된다. 그러나 위 종래 기술은 듀얼 카메라를 이용한 영상 처리 알고리즘의 구체적인 활용예에 대해서는 개시하는 바가 없다.As described above, a technology for providing a multi-view image by mounting a plurality of cameras in a single device has been disclosed through the August 8, 2008 publication, No. 10-2008-0073073, titled 'Dual Camera Module'. Referring to the above technique, an apparatus and method for efficiently communicating with two image sensors implemented in a dual camera module used for capturing near and far images are disclosed. However, the above prior art does not disclose a specific application of the image processing algorithm using a dual camera.
이와 같이 최근에는 동일 시각에 촬영된 다시점 영상에 대한 영상처리 알고리즘 자체뿐만 아니라 영상처리 알고리즘의 응용 연구를 위한 시스템 개발의 필요성이 증가하고 있는 실정이다.As such, in recent years, the necessity of developing a system for application research of an image processing algorithm as well as an image processing algorithm itself for a multi-view image photographed at the same time is increasing.
본 발명은 상술한 문제점들을 모두 해결하는 것을 그 목적으로 한다.The present invention aims to solve all the above-mentioned problems.
또한, 본 발명은 복수의 카메라를 이용하여 다시점 영상을 획득하고, 이를 이용하여 관찰자의 전방에 위치하는 장애물의 위치 및 방향을 획득하여 관찰자에게 제공함으로써 관찰자가 시각 장애인일 경우 독자적인 보행이 가능하도록 하는 시각 장애인 가이드 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체를 제공하는 것을 그 목적으로 한다.In addition, the present invention obtains a multi-view image using a plurality of cameras, by using the same to obtain the position and direction of the obstacle located in front of the observer to provide to the observer so that the observer can walk independently when the visually impaired It is an object of the present invention to provide a visually impaired guide method, a system and a computer-readable recording medium.
또한, 본 발명은 복수의 영상 필터링 모듈을 병렬로 연결하여 대량의 영상 데이터들을 더욱 빠르고 정확하게 처리할 수 있는 영상 처리 알고리즘을 제공하는 것을 다른 목적으로 한다.Another object of the present invention is to provide an image processing algorithm capable of processing a large amount of image data more quickly and accurately by connecting a plurality of image filtering modules in parallel.
상기 목적을 달성하기 위한 본 발명의 대표적인 구성은 다음과 같다.Representative configuration of the present invention for achieving the above object is as follows.
본 발명의 일 태양에 따르면, 병렬 영상 필터링 모듈을 구비한 다시점 카메라를 이용한 시각 장애인 가이드 방법으로서, (a) 복수의 카메라로부터 각 입력되는 영상으로부터 공통되는 특징점을 추출하는 단계, (b) 상기 특징점과 관찰자와의 상대적 거리를 계산하는 단계, 및 (c) 상기 특징점과 관찰자와의 상대적 거리에 상응하는 자극을 가지는 경보를 발생시키는 단계를 포함하는 방법이 제공된다.According to an aspect of the present invention, a method for guiding a visually impaired person using a multi-view camera having a parallel image filtering module, comprising: (a) extracting a common feature point from each input image from a plurality of cameras; Calculating a relative distance between the feature point and the observer, and (c) generating an alarm having a stimulus corresponding to the relative distance between the feature point and the observer.
본 발명의 다른 태양에 따르면, 병렬 영상 필터링 모듈을 구비한 다시점 카메라를 이용한 시각 장애인 가이드 시스템으로서, 복수의 카메라, 상기 카메라로부터 각 입력되는 영상으로부터 공통되는 특징점을 추출하고, 상기 특징점과 관찰자와의 상대적 거리를 계산하는 중앙 처리 장치, 및 상기 특징점과 관찰자와의 상대적 거리에 상응하는 자극을 가지는 경보를 발생시키는 경보 장치를 포함하는 시스템이 제공된다.According to another aspect of the present invention, there is provided a visually impaired guide system using a multi-view camera having a parallel image filtering module, wherein a plurality of cameras and a common feature point are extracted from each input image from the camera, A system is provided that includes a central processing unit for calculating a relative distance of and an alarm device for generating an alarm having a stimulus corresponding to the relative distance between the feature point and the observer.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하기 위한 컴퓨터 판독 가능한 기록 매체가 더 제공된다.In addition, there is further provided a computer readable recording medium for recording another method, system for implementing the present invention and a computer program for executing the method.
본 발명에 의하면, 복수의 카메라를 이용하여 전방에 위치하는 장애물과의 거리 및 방향을 탐지하고 이를 관찰자에게 통지함으로써 시각 장애인의 경우에도 독자적인 보행이 가능하도록 할 수 있다.According to the present invention, by using a plurality of cameras to detect the distance and the direction of the obstacle located in front and to notify the observer can be able to walk independently even in the case of the visually impaired.
또한, 본 발명에 의하면 복수의 영상 필터링 모듈을 병렬로 연결하여 대량의 영상 데이터들을 더욱 빠르고 정확하게 처리할 수 있게 된다.According to the present invention, a plurality of image filtering modules may be connected in parallel to process a large amount of image data more quickly and accurately.
도 1은 본 발명의 일 실시예에 따른 병렬 영상 필터링 모듈을 구비한 다시점 카메라를 이용한 시각 장애인 가이드 시스템을 도시한 블럭도이다.1 is a block diagram illustrating a visually impaired guide system using a multi-view camera having a parallel image filtering module according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 병렬 영상 필터링 모듈을 구비한 다시점 카메라를 이용한 물체 탐색 방법을 설명하기 위한 플로우 차트이다.2 is a flowchart illustrating an object searching method using a multiview camera having a parallel image filtering module according to an embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따른 병렬 영상 필터링 모듈을 구비한 다시점 카메라를 이용한 물체 탐색 시스템에서 공통되는 특징점과 관찰자 사이의 상대적 거리를 계산하는 방법을 설명하기 위한 도면이다.FIG. 3 is a diagram for describing a method of calculating a relative distance between a feature point and an observer common in an object searching system using a multiview camera having a parallel image filtering module according to an embodiment of the present invention.
<부호의 설명><Description of the code>
100: 카메라100: camera
110: 영상 메모리110: image memory
200: 간격 조절 장치200: spacer
300: 영상 필터링 모듈300: image filtering module
310: 그래픽 메모리310: graphics memory
320: 그래픽 연산 장치320: graphics computing device
400: 중앙 처리 장치400: central processing unit
410: 중앙 연산 메모리410: central operation memory
420: 중앙 연산 처리 장치420: central processing unit
430: 영속 저장 장치430: persistent storage
440: 네트워크 통신 장치440: network communication device
450: 경보 장치450: alarm device
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.DETAILED DESCRIPTION The following detailed description of the invention refers to the accompanying drawings that show, by way of illustration, specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different but need not be mutually exclusive. For example, certain shapes, structures, and characteristics described herein may be embodied in other embodiments without departing from the spirit and scope of the invention with respect to one embodiment. In addition, it is to be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the invention. The following detailed description, therefore, is not to be taken in a limiting sense, and the scope of the present invention, if properly described, is defined only by the appended claims, along with the full range of equivalents to which such claims are entitled. Like reference numerals in the drawings refer to the same or similar functions throughout the several aspects.
이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily implement the present invention.
[본 발명의 바람직한 실시예][Preferred Embodiments of the Invention]
전체 시스템의 구성Configuration of the entire system
도 1은 본 발명의 일 실시예에 따른 병렬 영상 필터링 모듈을 구비한 다시점 카메라를 이용한 시각 장애인 가이드 시스템을 도시한 블럭도이다.1 is a block diagram illustrating a visually impaired guide system using a multi-view camera having a parallel image filtering module according to an embodiment of the present invention.
도 1을 참조하면, 상기 시각 장애인 가이드 시스템은 복수의 카메라(100), 상기 각 카메라(100) 사이의 간격을 조절하는 간격 조절 장치(200), 상기 카메라(100)와 상호 병렬로 연결된 복수의 영상 필터링 모듈(300), 상기 영상 필터링 모듈(300)과 상호 연동하는 중앙 처리 장치(400)를 포함할 수 있다.Referring to FIG. 1, the visually impaired guide system includes a plurality of cameras 100, a gap adjusting device 200 for adjusting a gap between the cameras 100, and a plurality of cameras connected in parallel with each other. The image filtering module 300 may include a central processing unit 400 interoperating with the image filtering module 300.
보다 상세히, 상기 카메라(100)는 내부에 촬상된 이미지를 임시 저장하는 영상 메모리(110)를 포함할 수 있고, 상기 영상 필터링 모듈(300)은 적어도 하나의 그래픽 메모리(Graphic Memory;310)와 그래픽 연산 장치(Graphical Processing Unit;320)를 포함할 수 있으며, 상기 중앙 처리 장치(400)는 중앙 연산 메모리(410), 중앙 연산 처리 장치(420), 영속 저장 장치(430), 네트워크 통신 장치(440), 및 경보 장치(450)를 포함할 수 있다.In more detail, the camera 100 may include an image memory 110 for temporarily storing an image captured therein, and the image filtering module 300 may include at least one graphic memory 310 and a graphic. And a central processing unit (400), wherein the central processing unit (400) includes a central processing unit (410), a central processing unit (420), a persistent storage unit (430), and a network communication unit (440). ), And an alarm device 450.
여기서, 본 발명의 일 실시예에 따른 시각 장애인 가이드 시스템은 디지털 기기로서, 개인용 컴퓨터(예를 들어, 타블렛 컴퓨터, 노트북 컴퓨터 등), PDA, 웹 패드, 이동 전화기 등과 같이 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 휴대용 디지털 기기라면 얼마든지 본 발명에 따른 시각 장애인 가이드 시스템으로서 채택될 수 있다. 보다 바람직하게는 상기 휴대용 디지털 기기는 안경이나 목걸이와 같은 악세서리 형태로 제작되어 시각 장애인이 용이하게 구비하고 이동할 수 있도록 제공될 수 있다.Here, the visually impaired guide system according to an embodiment of the present invention is a digital device, and includes a microprocessor and a memory means such as a personal computer (for example, a tablet computer, a laptop computer, etc.), a PDA, a web pad, a mobile phone, and the like. Any portable digital device equipped with a computing power may be adopted as a visually impaired guide system according to the present invention. More preferably, the portable digital device may be manufactured in the form of accessories such as glasses or necklaces so that the visually impaired person can easily equip and move.
본 발명의 일 실시예에 따른 상기 카메라(100)는 종래 일반적인 촬상 소자로 구성된 것으로서 예를 들어 CCD를 이용하고 디지털 화상 신호를 생성하는 디지털 카메라(100)일 수 있다. 상기 카메라(100)를 통하여 입력된 영상정보는 카메라(100)의 영상 메모리(110)에 일시 저장될 수 있으며, 상기 카메라(100)와 병렬로 연결된 복수의 영상 필터링 모듈(300)을 거쳐 상기 중앙 처리 장치(400)로 전송될 수 있다.The camera 100 according to an embodiment of the present invention may be a digital camera 100 configured as a conventional general imaging device, for example, using a CCD and generating a digital image signal. Image information input through the camera 100 may be temporarily stored in the image memory 110 of the camera 100, and may be stored in the center through a plurality of image filtering modules 300 connected in parallel with the camera 100. May be sent to the processing device 400.
다음으로, 본 발명의 일 실시예에 따른 상기 간격 조절 장치(200)는 상기 각 카메라(100) 사이의 간격을 조절하여 상기 카메라(100)로부터 각 입력되는 영상으로부터 공통되는 특징점(Feature Point)을 추출할 수 있도록 하는 기능을 수행한다. 즉, 다시점 카메라 시스템에서 카메라(100)간의 거리가 충분히 작다면 각 카메라(100)로부터 입력되는 영상으로부터 공통되는 특징점이 추출될 가능성이 커진다는 점을 이용하여 상기 각 카메라(100) 사이의 거리를 조절하여 상기 공통되는 특징점을 추출할 수 있도록 한다. 상기 특징점은 관찰자의 전방에 위치한 장애물의 소정 부분일 수 있다.Next, the interval adjusting device 200 according to an embodiment of the present invention adjusts the interval between the cameras 100 to obtain a common feature point from each image input from the camera 100. Performs a function that enables extraction. That is, in the multi-view camera system, if the distance between the cameras 100 is sufficiently small, the distance between the respective cameras 100 is increased by using a possibility that a common feature point is extracted from an image input from each camera 100. By adjusting the common feature point can be extracted. The feature point may be a portion of an obstacle located in front of the observer.
다음으로, 본 발명의 일 실시예에 따른 상기 영상 필터링 모듈(300)은 내부에 적어도 하나의 그래픽 메모리(310)와 그래픽 연산 장치(320)를 포함할 수 있으며, 상기 영상 필터링 모듈(300)은 상기 카메라(100)와 병렬로 연결되어 상기 영상 메모리(110)로부터 상기 카메라(100)를 이용하여 촬영된 영상정보를 입력 받아 필터링하는 기능을 수행한다. 보다 상세히, 상기 그래픽 메모리(310)는 상기 중앙 처리 장치(400)로부터 영상 필터링에 사용될 필터링 프로그램을 전송받아 적재할 수 있고, 상기 그래픽 연산 장치(320)는 상기 필터링 프로그램을 이용하여 상기 카메라(100)로부터 입력되는 영상정보의 필터링 연산을 수행한다. 이는 현재 컴퓨터 시스템에서 사용되는 3D 그래픽 카드의 쉐이더 프로그램과 유사하다고 할 수 있으나 그래픽 카드에서의 연산과정은 중앙 연산 처리 장치에서 그래픽 카드로 일방적으로 정보를 전송하는 일방향적 특성을 보이나, 본 발명의 그래픽 연산 장치(320)는 상기 중앙 처리 장치(400)와 양방향성을 가지고 통신하여 필터링된 영상정보를 송수신할 수 있다.Next, the image filtering module 300 according to an embodiment of the present invention may include at least one graphic memory 310 and a graphic computing device 320 therein, and the image filtering module 300 may include It is connected in parallel with the camera 100 and performs a function of receiving and filtering image information photographed using the camera 100 from the image memory 110. In more detail, the graphic memory 310 may receive and load a filtering program to be used for image filtering from the CPU 400, and the graphic computing device 320 may use the filtering program to load the camera 100. Performs a filtering operation on the image information input from the. This is similar to the shader program of the 3D graphics card used in the current computer system, but the computation process in the graphics card shows a one-way characteristic of unilaterally transmitting information from the central processing unit to the graphics card, The computing device 320 may transmit and receive filtered image information by communicating with the central processing unit 400 in a bidirectional manner.
한편, 상기 영상 필터링 모듈(300)은 상기 카메라(100)와 병렬로 연결되어 실시간으로 둘 이상의 영상정보를 처리하는 기능을 수행한다. 상기 영상 필터링 모듈(300)을 통한 필터링 연산에는 입력된 영상으로부터 추출하고자 하는 정보에 따라 다양한 알고리즘이나 다양한 임계값 처리가 요구되며 개별 영상처리에 소요되는 시간이 커서 둘 이상의 정보들을 동시에 추출하여 이용하는 데 한계가 있다. 특히 실시간으로 영상을 처리하기 위해서는 더욱 빠른 영상 처리 속도가 요구된다. 때문에 본 발명의 일 실시예에 따르면 복수의 영상 필터링 모듈(300)을 상기 카메라(100)와 병렬로 연결하여 실시간 영상 처리에 요구되는 속도를 충족시킬 수 있다.Meanwhile, the image filtering module 300 is connected to the camera 100 in parallel and performs a function of processing two or more image information in real time. The filtering operation through the image filtering module 300 requires various algorithms or various threshold processing according to the information to be extracted from the input image, and the time required for individual image processing is large so that two or more pieces of information can be simultaneously extracted. There is a limit. In particular, in order to process an image in real time, a faster image processing speed is required. Therefore, according to an exemplary embodiment of the present invention, the plurality of image filtering modules 300 may be connected to the camera 100 in parallel to satisfy a speed required for real-time image processing.
본 발명의 일 실시예에 따르면, 상기 그래픽 메모리(310), 및 그래픽 연산 장치(320)는 그 중 적어도 일부가 카메라(100) 또는 중앙 처리 장치(400)와 통신하는 프로그램 모듈들일 수 있다. 이러한 프로그램 모듈들은 운영 시스템, 응용 프로그램 모듈 및 기타 프로그램 모듈의 형태로 영상 필터링 모듈(300)에 포함될 수 있으며, 물리적으로는 여러 가지 공지의 기억 장치상에 저장될 수 있다. 또한, 이러한 프로그램 모듈들은 영상 필터링 모듈(300)과 통신 가능한 원격 기억 장치에 저장될 수도 있다. 한편, 이러한 프로그램 모듈들은 본 발명에 따라 후술할 특정 업무를 수행하거나 특정 추상 데이터 유형을 실행하는 루틴, 서브루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조 등을 포괄하지만, 이에 제한되지는 않는다.According to an embodiment of the present disclosure, the graphic memory 310 and the graphic computing device 320 may be program modules in which at least some of them are in communication with the camera 100 or the central processing unit 400. Such program modules may be included in the image filtering module 300 in the form of an operating system, an application module, and other program modules, and may be physically stored on various known storage devices. In addition, such program modules may be stored in a remote storage device that can communicate with the image filtering module 300. On the other hand, such program modules include, but are not limited to, routines, subroutines, programs, objects, components, data structures, etc. that perform particular tasks or execute particular abstract data types, described below, in accordance with the present invention.
마지막으로, 본 발명의 일 실시예에 따른 중앙 처리 장치(400)는 중앙 연산 메모리(410), 중앙 연산 처리 장치(420), 영속 저장 장치(430), 네트워크 통신 장치(440), 및 경보 장치(450)를 포함하고, 상기 카메라(100) 및 영상 필터링 모듈(300) 간의 데이터의 흐름을 제어하는 기능을 수행한다. 즉, 중앙 처리 장치(400)는 외부로의/외부로부터의 또는 시각 장애인 가이드 시스템의 각 구성요소 간의 데이터의 흐름을 제어함으로써, 상기 카메라(100) 및 영상 필터링 모듈(300)에서 각각 고유 기능을 수행하도록 제어한다.Finally, the central processing unit 400 according to the embodiment of the present invention includes a central processing unit 410, a central processing unit 420, a persistent storage unit 430, a network communication unit 440, and an alarm unit. 450, and performs a function of controlling the flow of data between the camera 100 and the image filtering module 300. That is, the central processing unit 400 controls the flow of data to and from the outside or between the components of the visually impaired guide system, so that the camera 100 and the image filtering module 300 each have unique functions. Control to perform.
보다 상세히, 상기 중앙 연산 메모리(Central Processing Memory;410)는 상기 영상 필터링 모듈(300)과 병렬로 연결되어 상기 복수의 영상 필터링 모듈(300)로부터 전달된 영상정보를 저장하고, 각각 처리되어 저장된 영상정보를 종합하여 다른 정보를 추출할 수 있는 프로그램을 로드하는 기능을 수행한다.In more detail, the central processing memory 410 is connected in parallel with the image filtering module 300 to store image information transmitted from the plurality of image filtering modules 300, and each processed and stored image. Loads a program that can aggregate information and extract other information.
상기 중앙 연산 처리 장치(Central Processing Unit;420)는 복수의 카메라(100)를 통하여 다시점으로 입력되어 상기 영상 필터링 모듈(300)을 통하여 필터링된 복수의 영상정보들을 종합하여 관찰자의 전방에 위치한 장애물의 위치와 방향을 계산하고, 시각 장애인 가이드 시스템을 구성하는 카메라(100), 영상 필터링 모듈(300), 및 중앙 처리 장치(400) 내 중앙 연산 메모리(410), 영속 저장 장치(430), 네트워크 통신 장치(440), 및 경보 장치(450) 등을 제어하는 기능을 수행한다.The central processing unit 420 aggregates a plurality of image information input through a plurality of cameras 100 and filtered through the image filtering module 300, and is located in front of an observer. Calculates the position and direction of the camera, and configures the visually impaired guide system 100, the image filtering module 300, the central processing unit 410, the persistent storage device 430, the network in the central processing unit 400 It performs a function of controlling the communication device 440, the alarm device 450 and the like.
상기 영속 저장 장치(430)는 상기 중앙 연산 처리 장치(420)에서 가공된 데이터를 저장하는 기능을 수행한다.The persistent storage device 430 stores the data processed by the central processing unit 420.
상기 네트워크 통신 장치(440)는 통신망을 통하여 외부로부터 데이터를 전송받거나 외부로 데이터를 전송하는 기능을 수행한다. 일 실시예로 상기 네트워크 통신 장치(440)는 외부에서 작성된 프로그램을 상기 통신망을 통하여 전송받을 수 있다. 본 발명의 일 실시예에 따르면, 상기 통신망은 무선 통신의 양태로 구성될 수 있으며 이동 통신망, 인공 위성 통신망 등 다양한 통신망으로 구성될 수 있다. 보다 구체적으로, 본 발명에서 말하는 통신망은 공지의 WLAN(Wireless LAN), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access) 또는 GSM(Global System for Mobile communications) 통신망 등을 모두 포함하는 개념인 것으로 이해되어야 한다.The network communication device 440 performs a function of receiving data from the outside or transmitting data to the outside through a communication network. In one embodiment, the network communication device 440 may receive an externally created program through the communication network. According to an embodiment of the present invention, the communication network may be configured as an aspect of wireless communication and may be configured with various communication networks such as a mobile communication network and a satellite communication network. More specifically, the communication network according to the present invention includes a concept including all known wireless LAN (WLAN), code division multiple access (CDMA), wideband code division multiple access (WCDMA), global system for mobile communications (GSM), and the like. It should be understood that
상기 경보 장치(450)는 상기 중앙 연산 처리 장치(420)에서 계산된 장애물과 관찰자의 상대적 거리에 따라 상대적 거리에 상응하는 자극을 가지는 경보를 발생시키는 기능을 수행한다. 또한, 상기 경보 장치(450)는 상기 장애물이 위치하는 방향을 관찰자에게 통지하는 기능을 수행한다.The alarm device 450 functions to generate an alarm having a stimulus corresponding to the relative distance according to the relative distance between the obstacle and the observer calculated by the central processing unit 420. In addition, the alarm device 450 performs a function of notifying the observer of the direction in which the obstacle is located.
본 발명의 일 실시예에 따르면, 중앙 연산 메모리(410), 중앙 연산 처리 장치(420), 영속 저장 장치(430), 네트워크 통신 장치(440), 및 경보 장치(450)는 그 중 적어도 일부가 영상 필터링 모듈(300) 또는 외부 시스템과 통신하는 프로그램 모듈들일 수 있다. 이러한 프로그램 모듈들은 운영 시스템, 응용 프로그램 모듈 및 기타 프로그램 모듈의 형태로 중앙 처리 장치(400)에 포함될 수 있으며, 물리적으로는 여러 가지 공지의 기억 장치상에 저장될 수 있다. 또한, 이러한 프로그램 모듈들은 중앙 처리 장치(400)와 통신 가능한 원격 기억 장치에 저장될 수도 있다. 한편, 이러한 프로그램 모듈들은 본 발명에 따라 후술할 특정 업무를 수행하거나 특정 추상 데이터 유형을 실행하는 루틴, 서브루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조 등을 포괄하지만, 이에 제한되지는 않는다.According to an embodiment of the present invention, the central operation memory 410, the central processing unit 420, the persistent storage device 430, the network communication device 440, and the alarm device 450 is at least a portion thereof The image filtering module 300 may be program modules communicating with an external system. Such program modules may be included in the central processing unit 400 in the form of operating systems, application modules, and other program modules, and may be physically stored on a variety of known storage devices. Such program modules may also be stored in a remote storage device that can communicate with the central processing unit 400. On the other hand, such program modules include, but are not limited to, routines, subroutines, programs, objects, components, data structures, etc. that perform particular tasks or execute particular abstract data types, described below, in accordance with the present invention.
전체 시스템의 동작Operation of the entire system
도 2는 본 발명의 일 실시예에 따른 병렬 영상 필터링 모듈을 구비한 다시점 카메라를 이용한 물체 탐색 방법을 설명하기 위한 플로우 차트이다.2 is a flowchart illustrating an object searching method using a multiview camera having a parallel image filtering module according to an embodiment of the present invention.
도 2를 참조하면, 본 발명의 시각 장애인 가이드 방법은 복수의 카메라(100)를 이용하여 영상을 촬영하고(S100), 촬영된 각 영상으로부터 특징점을 추출한다(S110). 상기 특징점은 상기 카메라(100)를 이용하여 촬영하는 피사체의 소정부를 의미하는 것으로서 예를 들어 상기 피사체의 관찰자 방향으로 가장 돌출된 부분 또는 관찰자와 가장 가까운 지점 등으로 설정될 수 있다. 상기 복수의 카메라(100)로부터 촬영된 각 영상에 있어서, 공통되는 특징점이 존재하는지 여부를 판단하고(S120), 공통되는 특징점이 존재하지 않는 경우에는 상기 간격 조절 장치(200)를 이용하여 카메라(100) 사이의 간격을 조절한다(S130). 예를 들어 상기 카메라(100) 사이의 간격이 너무 멀어 공통되는 특징점을 탐색할 수 없다고 판단되면 양 카메라(100) 사이의 간격을 좁힌 후 S100 단계로 회귀하여 재차 복수의 카메라(100)를 이용하여 영상을 촬영하게 된다. 상기 공통되는 특징점을 추출함에 있어서는 SIFT 또는 SURF 알고리즘을 이용할 수 있다.Referring to FIG. 2, the guide method of the visually impaired person of the present invention photographs an image using a plurality of cameras 100 (S100), and extracts feature points from the photographed images (S110). The feature point refers to a predetermined portion of a subject photographed using the camera 100 and may be set to, for example, a portion protruding most toward the observer of the subject or a point closest to the observer. In each of the images photographed by the plurality of cameras 100, it is determined whether a common feature point exists (S120), and when there is no common feature point, the camera (eg, using the interval adjusting device 200) is used. Adjust the interval between 100) (S130). For example, if it is determined that the distance between the cameras 100 is too far to search for a common feature point, the distance between the two cameras 100 is narrowed, and then the process returns to step S100 to again use the plurality of cameras 100. The video will be taken. In extracting the common feature points, a SIFT or SURF algorithm may be used.
상기 SIFT(Scale Invariant Feature Transform) 알고리즘은 David G. Lowe에 의하여 제안되었는데 이는 객체의 모서리나 꼭지점 등에서 생성되는 특징점을 벡터로 추출하여, 영상의 크기변화, 회전, 조명변화 등에 의한 변형에 대해 뛰어난 매칭 성능을 가진다. SIFT 서술자(Descriptor)는 영상 변환, 크기, 회전, 노이즈 영향에도 일정한 특징 정합 성능을 유지한다. SIFT 를 이용한 특징 추출 과정은 크게 특징점을 찾는 부분과 선택된 특징점의 서술자를 생성하는 두 단계로 구분할 수 있다. 먼저, 특징점을 추출하는 단계에서는 스케일 공간상의 후보 특징점을 추출하고 후보 특징점의 안정성을 검사하여 안정된 특징점의 위치를 세부 위치로 보정한다. 서술자를 생성하는 단계에서는 선택된 점들을 중심으로 주변 영역의 그래디언트를 통해 방향 성분을 얻고, 얻어진 방향 성분을 중심으로 관심 영역을 재설정하여 서술자를 생성하게 된다.The Scale Invariant Feature Transform (SIFT) algorithm was proposed by David G. Lowe, which extracts feature points generated from edges or vertices of objects as vectors, and provides excellent matching for deformations due to image size changes, rotations, and light changes. Has performance. The SIFT Descriptor maintains constant feature matching even with image transformation, scale, rotation, and noise effects. The feature extraction process using SIFT can be divided into two stages: finding a feature point and generating a descriptor of the selected feature point. First, in the step of extracting the feature points, the candidate feature points in the scale space are extracted and the stability of the candidate feature points is examined to correct the positions of the stable feature points to the detailed positions. In the generating of the descriptor, the direction component is obtained through the gradient of the peripheral area around the selected points, and the descriptor is generated by resetting the region of interest based on the obtained direction component.
상기 SURF(Speeded Up Robust Features) 알고리즘은 상기 SIFT 알고리즘과 같이 크기와 회전 변화에 강건한 특징점을 추출하는 알고리즘으로 객체 인식이나 파노라마 이미지 생성, 3차원 영상 복원 등에 활용된다. 상기 SURF 알고리즘은 크기 변화에 강건한 특징점을 추출하는 스케일 공간(Scale space)을 표현하기 위해 이미지 피라미드(Image pyramids)를 생성하고 생성된 이미지 피라미드에서 특징점을 추출한다.The Speeded Up Robust Features (SURF) algorithm is an algorithm for extracting feature points that are robust to changes in size and rotation, like the SIFT algorithm, and is used for object recognition, panorama image generation, and 3D image reconstruction. The SURF algorithm generates image pyramids and extracts feature points from the generated image pyramids to represent a scale space for extracting feature points robust to a change in size.
만약 상기 복수의 카메라(100)로부터 촬영된 영상으로부터 공통되는 특징점을 추출하였다면, 상기 공통되는 특징점을 이용하여 상기 특징점과 관찰자와의 상대적 거리를 계산한다(S140). 상기 특징점과 관찰자와의 상대적 거리를 계산하는 방법에 대하여는 이하 도 3을 참조로 하여 보다 상세히 설명하기로 한다. 다음 상기 계산된 거리를 기초로 하여 상기 중앙 처리 장치(400)의 경보 장치(450)에서 특징점과 관찰자와의 상대적 거리에 상응하는 자극을 가지는 경보를 발생시킨다(S150). 상기 경보의 예로는 소리의 크기나 진동의 세기를 들 수 있으며, 상기 특징점이 관찰자로부터 가까이 있을수록 소리가 커지거나 진동이 강해지도록 하여 상기 관찰자에게 장애물과의 거리를 알릴 수 있다. 더욱 바람직하게는 아래 도 3을 참조로 하여 설명하는 바와 같이 구해진 특징점의 x, y 좌표 값을 이용하여 상기 특징점의 방향을 관찰자에게 통지할 수 있다(S160).If a common feature point is extracted from the images captured by the plurality of cameras 100, the relative distance between the feature point and the observer is calculated using the common feature point (S140). A method of calculating the relative distance between the feature point and the observer will be described in more detail with reference to FIG. 3. Next, the alarm device 450 of the central processing unit 400 generates an alarm having a stimulus corresponding to the relative distance between the feature point and the observer based on the calculated distance (S150). Examples of the alarm may include a loudness or an intensity of vibration, and the closer the feature point is to the observer, the louder the sound or the stronger the vibration so as to inform the observer of the distance to the obstacle. More preferably, the observer may be notified of the direction of the feature point using the x and y coordinate values of the feature point obtained as described with reference to FIG. 3 below (S160).
도 3은 본 발명의 일 실시예에 따른 병렬 영상 필터링 모듈을 구비한 다시점 카메라를 이용한 물체 탐색 시스템에서 공통되는 특징점과 관찰자 사이의 상대적 거리를 계산하는 방법을 설명하기 위한 도면이다.FIG. 3 is a diagram for describing a method of calculating a relative distance between a feature point and an observer common in an object searching system using a multiview camera having a parallel image filtering module according to an embodiment of the present invention.
도 3을 참조하면, 원점을 중심으로 d 만큼 떨어진 곳에 제1 카메라와 제2 카메라가 위치한다고 가정할 때, 상기 제1 카메라의 좌표 F를 (u, v, w), 제2 카메라의 좌표 F'을 (u', v', w'), 특징점 P의 좌표를 (x, y, z)라고 하면 상기 특징점 P가 제1 카메라와 제2 카메라의 부채꼴 형상의 촬영 반경 안에 위치하고 있으므로 상기 특징점 P는 상기 제1 및 제2 카메라로 촬영된 영상에 있어 공통되는 특징점이라 할 수 있다.Referring to FIG. 3, assuming that the first camera and the second camera are located at a distance d from the origin, the coordinate F of the first camera is (u, v, w) and the coordinate F of the second camera. If '(u', v ', w') and the coordinate of the feature point P is (x, y, z), the feature point P is located within the shooting radius of the fan shape of the first and second cameras. May be a common feature point in images captured by the first and second cameras.
상기 제1 카메라를 이용하여 촬영된 영상 속에서 상기 특징점 P는 제1 카메라의 초점거리 f만큼 떨어진 (px, py)에 상이 맺히고, 마찬가지로 상기 제2 카메라를 이용하여 촬영된 영상 속에서 상기 특징점 P는 제2 카메라의 초점거리 f'만큼 떨어진 (p'x, p'y)에 상이 맺히게 된다.In the image photographed using the first camera, the feature point P forms an image at (px, py) spaced apart by a focal length f of the first camera, and similarly the feature point P in the image photographed using the second camera. The image is formed at (p'x, p'y) separated by the focal length f 'of the second camera.
상기 px, py, p'x, p'y를 이용하면 특징점 P의 좌표 (x, y, z)를 구할 수 있다. 보다 상세히,Using px, py, p'x, and p'y, the coordinates (x, y, z) of the feature point P can be obtained. In more detail,
Figure PCTKR2013001040-appb-I000001
Figure PCTKR2013001040-appb-I000001
Figure PCTKR2013001040-appb-I000002
Figure PCTKR2013001040-appb-I000002
Figure PCTKR2013001040-appb-I000003
Figure PCTKR2013001040-appb-I000003
상기 식을 이용하여 상기 특징점의 상대적 좌표를 계산할 수 있게 된다.By using the above equation it is possible to calculate the relative coordinates of the feature point.
만약 상기 원점을 관찰자의 위치라고 한다면, 상기 특징점의 상대적 좌표와 원점의 최소 거리를 계산해 관찰자와 장애물 사이의 상대적 위치를 계산할 수 있게 된다.If the origin is the position of the observer, the relative coordinates of the feature point and the minimum distance of the origin can be calculated to calculate the relative position between the observer and the obstacle.
이상 설명된 본 발명에 따른 실시예들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Embodiments according to the present invention described above may be implemented in the form of program instructions that may be executed by various computer components, and may be recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the computer-readable recording medium may be those specially designed and configured for the present invention, or may be known and available to those skilled in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs, DVDs, and magneto-optical media such as floptical disks. media), and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform the process according to the invention, and vice versa.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.Although the present invention has been described by specific embodiments such as specific components and the like, but the embodiments and the drawings are provided to assist in a more general understanding of the present invention, the present invention is not limited to the above embodiments. For those skilled in the art, various modifications and variations can be made from these descriptions.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.Accordingly, the spirit of the present invention should not be limited to the above-described embodiments, and all of the equivalents or equivalents of the claims, as well as the appended claims, fall within the scope of the spirit of the present invention. I will say.

Claims (13)

  1. 병렬 영상 필터링 모듈을 구비한 다시점 카메라를 이용한 시각 장애인 가이드 방법으로서,A visually impaired guide method using a multi-view camera with a parallel image filtering module,
    (a) 복수의 카메라로부터 각 입력되는 영상으로부터 공통되는 특징점을 추출하는 단계;(a) extracting a common feature point from each input image from a plurality of cameras;
    (b) 상기 특징점과 관찰자와의 상대적 거리를 계산하는 단계; 및(b) calculating a relative distance between the feature point and the observer; And
    (c) 상기 특징점과 관찰자와의 상대적 거리에 상응하는 자극을 가지는 경보를 발생시키는 단계를 포함하는 방법.(c) generating an alert having a stimulus corresponding to the relative distance between the feature point and the observer.
  2. 제1항에 있어서,The method of claim 1,
    상기 (a) 단계는 SIFT 또는 SURF 알고리즘을 이용하여 공통되는 특징점을 추출하는 것을 특징으로 하는 방법.Step (a) is characterized in that to extract a common feature point using a SIFT or SURF algorithm.
  3. 제1항에 있어서,The method of claim 1,
    상기 (b) 단계는,In step (b),
    Figure PCTKR2013001040-appb-I000004
    Figure PCTKR2013001040-appb-I000004
    Figure PCTKR2013001040-appb-I000005
    Figure PCTKR2013001040-appb-I000005
    Figure PCTKR2013001040-appb-I000006
    Figure PCTKR2013001040-appb-I000006
    상기 식을 이용하여 상기 특징점의 상대적 좌표를 계산하는 것을 특징으로 하는 방법.And calculating a relative coordinate of the feature point using the equation.
  4. 제3항에 있어서,The method of claim 3,
    (d) 상기 x, y 좌표 값을 이용하여 구해진 특징점의 방향을 관찰자에게 통지하는 단계를 더 포함하는 것을 특징으로 하는 방법.and (d) informing the observer of the direction of the feature point obtained using the x and y coordinate values.
  5. 제1항에 있어서,The method of claim 1,
    그래픽 메모리와 그래픽 연산장치를 포함하는 상호 병렬로 연결된 복수의 영상 필터링 모듈이 상기 카메라와 상호 연동하여 상기 카메라로부터 입력되는 영상을 필터링하는 것을 특징으로 하는 방법.And a plurality of image filtering modules connected in parallel to each other including a graphic memory and a graphic computing device to filter images input from the camera in cooperation with the camera.
  6. 제1항에 있어서,The method of claim 1,
    상기 카메라는 각 카메라 사이의 간격을 조절하는 간격 조절 장치를 이용하여 각 카메라 사이의 간격을 조절함으로써 상기 카메라로부터 각 입력되는 영상으로부터 공통되는 특징점을 추출할 수 있도록 하는 것을 특징으로 하는 방법.The camera is characterized in that to extract a common feature point from each of the images input from the camera by adjusting the interval between each camera using a spacing device for adjusting the interval between each camera.
  7. 병렬 영상 필터링 모듈을 구비한 다시점 카메라를 이용한 시각 장애인 가이드 시스템으로서,A visually impaired guide system using a multi-view camera with a parallel image filtering module,
    복수의 카메라;A plurality of cameras;
    상기 카메라로부터 각 입력되는 영상으로부터 공통되는 특징점을 추출하고, 상기 특징점과 관찰자와의 상대적 거리를 계산하는 중앙 처리 장치; 및A central processing unit extracting a common feature point from each input image from the camera and calculating a relative distance between the feature point and an observer; And
    상기 특징점과 관찰자와의 상대적 거리에 상응하는 자극을 가지는 경보를 발생시키는 경보 장치를 포함하는 시스템.An alarm device for generating an alarm having a stimulus corresponding to the feature point and the relative distance to the observer.
  8. 제7항에 있어서,The method of claim 7, wherein
    상기 중앙 처리 장치는 SIFT 또는 SURF 알고리즘을 이용하여 공통되는 특징점을 추출하는 것을 특징으로 하는 시스템.And the central processing unit extracts common feature points using SIFT or SURF algorithm.
  9. 제7항에 있어서,The method of claim 7, wherein
    상기 중앙 처리 장치는,The central processing unit,
    Figure PCTKR2013001040-appb-I000007
    Figure PCTKR2013001040-appb-I000007
    Figure PCTKR2013001040-appb-I000008
    Figure PCTKR2013001040-appb-I000008
    Figure PCTKR2013001040-appb-I000009
    Figure PCTKR2013001040-appb-I000009
    상기 식을 이용하여 상기 특징점의 상대적 좌표를 계산하는 것을 특징으로 하는 시스템.And calculate a relative coordinate of the feature point using the equation.
  10. 제7항에 있어서,The method of claim 7, wherein
    상기 경보 장치는 상기 x, y 좌표 값을 이용하여 구해진 특징점의 방향을 관찰자에게 통지하는 것을 특징으로 하는 시스템.And the alerting device notifies the observer of the direction of the feature point obtained using the x and y coordinate values.
  11. 제7항에 있어서,The method of claim 7, wherein
    그래픽 메모리와 그래픽 연산장치를 포함하는 상호 병렬로 연결된 복수의 영상 필터링 모듈을 더 포함하고,Further comprising a plurality of image filtering modules connected in parallel to each other including a graphics memory and a graphics computing device,
    상기 영상 필터링 모듈은 상기 카메라와 상호 연동하여 상기 카메라로부터 입력되는 영상을 필터링하는 것을 특징으로 하는 시스템.The image filtering module is configured to filter an image input from the camera in cooperation with the camera.
  12. 제7항에 있어서,The method of claim 7, wherein
    상기 카메라 사이의 간격을 조절하는 간격 조절 장치를 더 포함하고,Further comprising a spacing device for adjusting the spacing between the camera,
    상기 간격 조절 장치를 이용하여 각 카메라 사이의 간격을 조절함으로써 상기 카메라로부터 각 입력되는 영상으로부터 공통되는 특징점을 추출할 수 있도록 하는 것을 특징으로 하는 시스템.And adjusting a gap between the cameras using the gap adjusting device to extract a common feature point from each of the images input from the cameras.
  13. 제1항 내지 제6항 중 어느 한 항에 따른 방법을 실행하기 위한 컴퓨터 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체.A computer-readable recording medium having recorded thereon a computer program for executing the method according to any one of claims 1 to 6.
PCT/KR2013/001040 2012-07-25 2013-02-08 Method and system for guiding visually impaired person using multi-view camera having parallel image filtering module, and computer-readable recording medium WO2014017719A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020120081301A KR101353860B1 (en) 2012-07-25 2012-07-25 Method, system and computer-readable recording medium for guiding a person who is visually impaired using multiview camera equipped parallel image filtering module
KR10-2012-0081301 2012-07-25

Publications (1)

Publication Number Publication Date
WO2014017719A1 true WO2014017719A1 (en) 2014-01-30

Family

ID=49997505

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/001040 WO2014017719A1 (en) 2012-07-25 2013-02-08 Method and system for guiding visually impaired person using multi-view camera having parallel image filtering module, and computer-readable recording medium

Country Status (2)

Country Link
KR (1) KR101353860B1 (en)
WO (1) WO2014017719A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104021549A (en) * 2014-05-19 2014-09-03 清华大学深圳研究生院 Total affine invariant SURF feature point detection method and device thereof

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101578523B1 (en) * 2014-03-20 2015-12-17 전주대학교 산학협력단 Method, system and computer-readable recording medium for utilizing multiview cameras equipped with parallel image filtering units and linear light source

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06205291A (en) * 1992-12-28 1994-07-22 Canon Inc Picture processing unit
JPH0843081A (en) * 1994-07-29 1996-02-16 Sony Corp Distance calculating device
JP2001318594A (en) * 2000-05-11 2001-11-16 Kumamoto Technopolis Foundation Walk support system for visually handicapped person and information recording medium
JP2003079685A (en) * 2001-09-17 2003-03-18 Seiko Epson Corp Auxiliary appliance for walking of visually handicapped person
JP2010181919A (en) * 2009-02-03 2010-08-19 Toyohashi Univ Of Technology Three-dimensional shape specifying device, three-dimensional shape specifying method, three-dimensional shape specifying program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011250928A (en) 2010-06-01 2011-12-15 Chuo Univ Device, method and program for space recognition for visually handicapped person

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06205291A (en) * 1992-12-28 1994-07-22 Canon Inc Picture processing unit
JPH0843081A (en) * 1994-07-29 1996-02-16 Sony Corp Distance calculating device
JP2001318594A (en) * 2000-05-11 2001-11-16 Kumamoto Technopolis Foundation Walk support system for visually handicapped person and information recording medium
JP2003079685A (en) * 2001-09-17 2003-03-18 Seiko Epson Corp Auxiliary appliance for walking of visually handicapped person
JP2010181919A (en) * 2009-02-03 2010-08-19 Toyohashi Univ Of Technology Three-dimensional shape specifying device, three-dimensional shape specifying method, three-dimensional shape specifying program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104021549A (en) * 2014-05-19 2014-09-03 清华大学深圳研究生院 Total affine invariant SURF feature point detection method and device thereof

Also Published As

Publication number Publication date
KR101353860B1 (en) 2014-01-23

Similar Documents

Publication Publication Date Title
EP3099056B1 (en) Method and apparatus for displaying a light field based image on a user&#39;s device, and corresponding computer program product
US10659768B2 (en) System and method for virtually-augmented visual simultaneous localization and mapping
CN110866480B (en) Object tracking method and device, storage medium and electronic device
US8928736B2 (en) Three-dimensional modeling apparatus, three-dimensional modeling method and computer-readable recording medium storing three-dimensional modeling program
CN112633306B (en) Method and device for generating countermeasure image
CN111145192B (en) Image processing method and electronic equipment
WO2015037957A1 (en) Apparatus and method for image stabilization using image blur correction
WO2015133159A1 (en) Image processing device, image processing method, and image processing program
CN110544272A (en) face tracking method and device, computer equipment and storage medium
KR102297217B1 (en) Method and apparatus for identifying object and object location equality between images
WO2020017825A1 (en) Method of combining content from multiple frames and electronic device therefor
CN115526983B (en) Three-dimensional reconstruction method and related equipment
WO2021101097A1 (en) Multi-task fusion neural network architecture
CN112270709B (en) Map construction method and device, computer readable storage medium and electronic equipment
KR102528453B1 (en) Method of extracting features from image, image matching method using the same and image processing method using the same
WO2019221340A1 (en) Method and system for calculating spatial coordinates of region of interest, and non-transitory computer-readable recording medium
CN105637852A (en) Image processing method and apparatus and electronic device
CN111652933B (en) Repositioning method and device based on monocular camera, storage medium and electronic equipment
WO2011078596A2 (en) Method, system, and computer-readable recording medium for adaptively performing image-matching according to conditions
JPWO2016088368A1 (en) Direction control device, direction control method, and direction control program
WO2014017719A1 (en) Method and system for guiding visually impaired person using multi-view camera having parallel image filtering module, and computer-readable recording medium
WO2014185691A1 (en) Apparatus and method for extracting high watermark image from continuously photographed images
CN111385481A (en) Image processing method and device, electronic device and storage medium
CN113936042B (en) Target tracking method and device and computer readable storage medium
CN113936064B (en) Positioning method and device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13822622

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13822622

Country of ref document: EP

Kind code of ref document: A1