WO2018043805A1 - 3차원 가상 버튼을 이용한 포인팅 장치 - Google Patents

3차원 가상 버튼을 이용한 포인팅 장치 Download PDF

Info

Publication number
WO2018043805A1
WO2018043805A1 PCT/KR2016/012198 KR2016012198W WO2018043805A1 WO 2018043805 A1 WO2018043805 A1 WO 2018043805A1 KR 2016012198 W KR2016012198 W KR 2016012198W WO 2018043805 A1 WO2018043805 A1 WO 2018043805A1
Authority
WO
WIPO (PCT)
Prior art keywords
layer
button
pointing
infrared
illumination
Prior art date
Application number
PCT/KR2016/012198
Other languages
English (en)
French (fr)
Inventor
조창석
Original Assignee
한신대학교 산학협력단
주식회사 아이비시스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한신대학교 산학협력단, 주식회사 아이비시스 filed Critical 한신대학교 산학협력단
Publication of WO2018043805A1 publication Critical patent/WO2018043805A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0289Field-of-view determination; Aiming or pointing of a spectrometer; Adjusting alignment; Encoding angular position; Size of measurement area; Position tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer

Definitions

  • the present invention relates to a pointing device using a three-dimensional virtual button.
  • the existing touch panel method is easy to expose the password by a secret camera installed on the upper part of the ATM machine, but the 3D virtual button is different from the three-dimensional stereoscopic image seen by our eyes, As it can contribute, the need for banking is increasing.
  • the virtual button is much more efficient in the job that needs to be buried in the liquid from time to time, it is expected to create a new demand in the device for each job.
  • 3D autostereoscopic technology uses an autostereoscopic filter such as a lenticular lens or a parallax barrier to superimpose the left and right images on both eyes of the user.
  • Technology is advanced.
  • a stereoscopic button screen by superposing an autostereoscopic filter on a liquid crystal display.
  • the liquid crystal display plays a role of combining the left and right images to the stereoscopic filter at the intersection.
  • the button is pressed, the liquid crystal can be replaced by a screen containing the pressed state of the button.
  • a button set equipped with a liquid crystal display is expected to be difficult to use as a low-cost supply type.
  • the technical problem when the button is implemented in autostereoscopic vision the problem of specifying the position of the finger pointed in a non-contact manner on the stereoscopic screen and the pointed button is distinguished from the non-pointed button. Is to give.
  • the problem of showing the pointed button different from the button not pointed out is a dynamic, as disclosed in Japanese Patent Laid-Open No. 2011-108152 (three-dimensional input display device, June 2, 2011).
  • a dynamic image transmission device such as a liquid crystal display needs to be essentially provided.
  • the present invention has an object of solving the above technical problem, and an object thereof is to provide a pointing device using a three-dimensional virtual button capable of minimizing mechanical failure in a non-contact button method.
  • an object of the present invention is to provide a pointing device using a three-dimensional virtual button that can only observe the image of the button by the three-dimensional stereoscopic vision, thereby preventing exposure of the button information by the camera. There is this.
  • an object of the present invention is to provide a pointing device using a three-dimensional virtual button that can be implemented at low cost by a simple structure, without having a dynamic image transmission device such as a liquid crystal display.
  • Pointing device a button display layer on which a plurality of buttons are displayed;
  • An illumination layer positioned below the button display layer and including a plurality of illumination devices capable of emitting light;
  • a stereoscopic filter layer positioned on the button display layer and capable of separating images of left and right eyes;
  • a pointing layer positioned on the stereoscopic filter layer and obtaining a pointing position of the user.
  • the pointing layer may include at least one infrared light emitting device; At least one infrared sensor; An infrared transmission filter located inside the at least one infrared light emitting element and the at least one infrared sensor; And a horizontal polarization filter positioned inside the at least one infrared light emitting element and the at least one infrared sensor.
  • the pointing device of the present invention is formed on the lower portion of the button display layer, it is preferable to further include a lighting partition layer for separating a plurality of lighting devices.
  • the pointing device of the present invention using a neural network to learn the pointing position of the finger, the neural network, the input value of the detected infrared value by the at least one infrared sensor, the button display layer
  • the output value is characterized in that the output value.
  • the illumination layer is a lighting device is disposed respectively corresponding to the position of the plurality of buttons displayed on the button display layer, when the user points the button, the lighting device corresponding to the position of the button You can display the pointing button to the user.
  • the button display layer is preferably displayed by crossing the left eye image and the right eye image, which are divided into respective viewpoints of the left eye and the right eye.
  • a mechanical failure can be minimized by a non-contact button method.
  • the user can observe the image of the button by the three-dimensional stereoscopic vision, it is possible to prevent the exposure of the button information by the camera.
  • a pointing device using a three-dimensional virtual button can be implemented at a low cost by a simple structure without having a dynamic image transmitting device such as a liquid crystal display.
  • FIG. 1 is an exploded perspective view of a pointing device using a three-dimensional virtual button according to an embodiment of the present invention.
  • FIG. 3 is an explanatory diagram of synthesis of left and right eye images by a button display layer and a filter layer;
  • FIG. 1 is an exploded perspective view of a pointing device 100 using a three-dimensional virtual button according to an embodiment of the present invention.
  • the pointing layer 10 includes an illumination partition wall layer 50, an illumination layer 60, and a control board 70.
  • the pointing layer 10 is located above the protective layer 20 and the stereoscopic filter layer 30, and preferably includes at least one infrared light emitting element 11 and at least one infrared sensor 12.
  • the pointing layer 10 is a part for obtaining the pointing position of the finger in three dimensions, and is preferably positioned at the top of the pointing device 100 of the present invention.
  • the pointing layer 10 is composed of at least one infrared light emitting element 11 and at least one infrared sensor 12 which is an infrared light receiving element to calculate a three-dimensional position of a finger.
  • the infrared light emitting element 11 a low-cost infrared lamp can be used.
  • the position calculation of the pointing layer 10 may be performed by calculating the integral value of the light emission amount of the infrared light emitting element 11 and the total integrated amount of infrared rays for each of the infrared sensors 12 which are light receiving elements. Specific position calculation principle in the present invention will be described later.
  • the height of the pointing layer 10 for the three-dimensional positioning is very limited, only the two-dimensional coordinates of the finger need to be confirmed. When a finger enters outside the height region of the pointing layer 10 and enters the three-dimensional region of the pointing layer 10, the position of the finger may be calculated.
  • the infrared light emitting element 11 and the infrared sensor 12 are each fixedly supported by a support 15 provided around the pointing layer 10, and the infrared light emitting element 11 and the infrared sensor 12 are supported. It is preferred that are arranged at the intersection.
  • FIG. 2 shows an enlarged cross-sectional view of the pointing layer 10.
  • the pointing layer 10 of the present invention preferably includes a horizontal polarizing filter 13 and an infrared ray transmitting filter 14.
  • the horizontal polarizing filter 13 and the infrared transmitting filter 14 are respectively located inside the at least one infrared light emitting element 11 and the at least one infrared sensor 12, and the infrared transmitting filter 14 is a horizontal polarizing filter ( 13) it is located inside.
  • the horizontal polarizing filter 13 and the infrared ray transmitting filter 14 are attached to the pointing layer 10 on which the infrared sensor 12 and the infrared light emitting element 11 are disposed to enter noise and diagonal lines due to general light. Infrared interfering light can be blocked as much as possible.
  • the blinds are arranged in the horizontal direction, and the infrared polarization filter 14 and the horizontal polarizing filter 13 which transmits only the light input in the horizontal direction are coupled to the infrared sensor 12, that is, External interference infrared rays can be minimized by disposing inside the at least one infrared light emitting element 11 and the at least one infrared sensor 12.
  • the protective layer 20 serves to protect the stereoscopic filter layer 30 and may be configured using a transparent protective film or a protective plate.
  • the stereoscopic filter layer 30 is positioned above the button display layer 40 and serves to separate the left eye image and the right eye image for 3D stereoscopic vision.
  • the stereoscopic filter layer 30 is configured to implement a 3D image by auto glasses, and may be implemented by using a parallax barrier or a lenticular lens method. Specifically, the stereoscopic filter layer 30 preferably uses a lenticular filter.
  • the images combined at the left and right lines are matched according to the shape of the lenticular lens designed to separate the left and right lines, respectively, so that the left and right images are separately separated and output.
  • the button display layer 40 is characterized in that a plurality of buttons 41 are displayed.
  • the part of the button display layer 40 in which the button 41 was displayed is translucent. That is, when the illumination device 61 of the illumination layer 60 emits light, the user may check whether the illumination device 61 of the illumination layer 60 emits light through the translucent button 41.
  • the method of displaying at least one button on the button display layer 40 may be implemented by printing the button 41 on a glass plate or a plastic plate.
  • FIG 3 is a diagram illustrating synthesis of left and right eye images by the button display layer 40 and the stereoscopic filter layer 30.
  • At least one button 41 displayed on the button display layer 40 is divided into respective viewpoints of the left eye and the right eye, and the left eye image and the right eye image are displayed alternately.
  • the at least one button 41 produces a three-dimensional image of the button 41 in three-dimensional graphics, divides it into respective viewpoints on both the left and right eyes, and combines the left and right images by one line. Images, which are combined in a line by left and right, are matched according to the filter shape of the stereoscopic filter layer 30, which is also designed to separate left and right by one line so that the left and right images are separately separated and output.
  • the illumination partition wall layer 50 has a lattice shape and is formed above the illumination layer 60, that is, below the button display layer 40, and serves to separate the plurality of illumination devices 61. That is, the light emitted from each illumination device 61 can display only the background of the corresponding button 41 by the illumination partition wall layer 50.
  • the illumination layer 60 is located under the button display layer 40, and preferably includes a plurality of illumination devices 61 capable of emitting light.
  • illumination device 61 of the illumination layer 60 various illumination elements can be used, including light emitting diodes and / or laser diodes.
  • the lighting layer 60 serves to recognize the pointing portion by causing the button 41 to be pointed to display a different color from the button 41 not pointing. That is, by using the position data acquired from the pointing layer 10, the control unit of the control board 70 controls the operation of the lighting layer 60 so that the lighting device 61 at the position corresponding to the corresponding button 41 is provided.
  • the button 41 is checked by emitting light.
  • all the lighting devices 61 included in the lighting layer 60 always emit light, and when the button 41 is pointing, the lighting device 61 at the position corresponding to the button 41 does not emit light. You may.
  • the lighting device at the position corresponding to the button 41 ( 61) may be emitted in a 'B' color.
  • the illumination layer 60 is characterized in that the illumination device 61 is disposed at a position corresponding to the position of the plurality of buttons 41 displayed on the button display layer 40.
  • the pointing button 41 can be displayed to the user by using the lighting device 61 corresponding to the position of the button 41.
  • the control board 70 of the present invention serves as a controller, and the infrared light emitting element 11 emits light, and the position value of the finger pointing by calculating the amount of light received from the infrared sensor 12 at this time. It serves to calculate. To this end, the controller generates a control signal for controlling the operation of the infrared light emitting element 11, the infrared sensor 12, and the lighting device 61.
  • control unit calculates the three-dimensional position of the finger by the values obtained by the plurality of infrared sensors 12 from the infrared light emitted from the plurality of infrared light emitting elements 11.
  • the controller may include a processor such as a CPU.
  • Calculation of the three-dimensional position of the finger by the control unit uses a neural network learning function. Specifically, the three-dimensional position is determined by learning the input value of the infrared ray and the two-dimensional pointing position of the finger for each infrared sensor 12. do.
  • the neural network may be composed of an input layer, an intermediate layer, and an output layer.
  • the neural network may be trained by an infrared brightness value input from each infrared sensor 12 to obtain a pointing position of a finger. The user lights up a light belonging to and informs the user that a value has been entered.
  • the neural network is used to learn the pointing position of the finger, but the neural network uses the detected infrared value by the at least one infrared sensor 12 as an input value and is displayed on the button display layer 40. It is preferable to make each button 41 an output value.
  • a virtual button set is displayed on a three-dimensional space using autostereoscopic vision representation technology, and a pointing position mounted on the virtual space. It can be seen that the position of the finger on the 3D through the pointing layer 10, which is a reading device, can confirm the on / off of the virtual button 41 and indicate that the button 41 has been pressed. .
  • Pointing device 100 in the form of a small general-purpose button, such as the present invention has two problems, one should be able to utilize in a narrow space, the other should be low cost hardware to implement the configuration Is that.
  • the infrared light emitting device 11 and the infrared sensor 12, such as an infrared lamp are arranged not in a camera method for analyzing the reflected light of the finger.
  • Infrared rays emitted from the infrared lamps for each position are detected by the infrared sensor 12 distributed in two-dimensional images.
  • Infrared intensity input from a plurality of sensors is converted into a finger pointing position by a pre-learned neural network.
  • the principle is that sensors placed in the direction of light obstruction have a relatively low sensitivity to light reception even with interferences, which are learned by neural networks.
  • interference light of the sunlight and other lamps is a problem.
  • the horizontal polarizing filter 13 and the infrared filter are attached to the panel surface on which the infrared light emitting element 11 and the infrared sensor 12 are arranged, thereby making the infrared rays invading with the noise and diagonal lines by the general light.
  • the interference light can be blocked as much as possible.
  • Other unfiltered interference lights are coped by pre-learning of various environments by neural networks.
  • buttons intended to be used indoors or outdoors the difference between solar infrared rays according to morning, day, night, and weather is large, and the direction is also changed. Therefore, the installation site may not be limited unless the adaptive learning method by neural network is used. There is a need. Pre-learning by neural networks enables pointing capture by taking into account changes in the amount of irregular infrared rays of sunlight and other lighting devices over time and weather.
  • the pointing device 100 of the present invention is inexpensive to use the infrared light emitting element 11 and the infrared sensor 12, and can be configured with a compact hardware, which can be used for a small general purpose button, and a plurality of infrared sensors 12 ) Can be arranged two-dimensionally, and each of the arranged inputs is connected to the input node of the neural network to provide a formula suitable for a factory, outdoor, indoor, etc. by prior learning.
  • the pointing device 100 using the 3D virtual button of the present invention a mechanical failure can be minimized by a non-contact button method.
  • the user can observe the image of the button by the three-dimensional stereoscopic vision, it is possible to prevent the exposure of the button information by the camera.
  • the pointing device 100 using the three-dimensional virtual button can be implemented at low cost by a simple structure without having a dynamic image transmission device such as a liquid crystal display.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Position Input By Displaying (AREA)

Abstract

포인팅 장치는, 다수의 버튼이 표시된 버튼 표시층; 상기 버튼 표시층의 하부에 위치하며, 발광할 수 있는 다수의 조명 디바이스를 포함하는 조명층; 상기 버튼 표시층의 상부에 위치하고, 좌안 및 우안의 영상을 분리할 수 있는 입체시용 필터층; 상기 입체시용 필터층의 상부에 위치하고, 사용자의 포인팅 위치를 획득하는 포인팅층;을 포함하되, 상기 포인팅층은, 적어도 하나의 적외선 발광 소자; 및 적어도 하나의 적외선 센서;를 포함한다.

Description

3차원 가상 버튼을 이용한 포인팅 장치
본 발명은 3차원 가상 버튼을 이용한 포인팅 장치에 관한 것이다.
자동차 버튼이나 무인 키오스크 버튼은 잦은 누름으로 인한 고장이 잘 일어나기 때문에, 이러한 기계식 버튼은 미려한 외관의 3차원 무안경식 비접촉 버튼으로의 전환의 필요성이 제기되고 있다.
아울러, 메르스 등의 전염성이 강한 병이 유행하는 시기에는 접촉식 버튼보다는 3차원 가상 버튼에 의한 비접촉식을 선호할 것으로 보여 위생적인 면에서도 수요가 증가할 것으로 판단된다.
또한, 기존의 터치 패널 방식은 현금인출기 등의 상부에 설치한 몰래 카메라 등에 의해 비밀번호가 노출되기 쉬우나, 3차원 가상 버튼은 카메라 찍히는 영상이 우리 눈에서 보는 3차원 입체 영상과 달라서 비밀번호 등의 보안에도 기여할 수 있어 뱅킹 등을 위해 그 필요성이 크게 대두되고 있다.
아울러, 손에 액체 등을 수시로 묻혀야 하는 직업에서는 가상 버튼이 훨씬 효율적이어서 직업별 기기에서의 수요가 새로이 창출될 것으로 예상된다.
3차원 무안경 입체시 기술은 사용자의 양안에 좌우 영상을 각기 보여줄 수 있도록 렌티큘라 렌즈(Lenticular Lens) 또는 패러렐랙스 배리어(Parallex Barrier)와 같은 무안경 입체시용 필터를 영상 위에 겹쳐서 사용하는 방식으로, 기술이 발전되어 있다.
아울러, 액정 디스플레이 위에 무안경 입체시용 필터를 겹쳐서 입체시 버튼 화면을 구현하도록 하는 시도도 있다. 이 경우에는 입체시용 필터에 좌우 영상을 교차로 배합하는 역할을 액정 디스플레이가 수행하도록 하여, 버튼이 눌려진 경우에는 버튼의 눌려진 모습을 담은 화면으로 액정을 교체하면 되기에 구현을 할 수 있다. 다만, 액정 디스플레이가 구비된 버튼 세트는 저가의 보급형으로 사용하기에는 어려움이 예상된다.
아울러, 버튼을 무안경 입체시로 구현할 경우의 기술적인 문제는, 입체 화면에 비접촉 방식으로 포인팅이 된 손가락의 위치를 특정하는 문제와 포인팅이 된 버튼을 포인팅이 되지 않은 버튼과 차별화된 모습으로 보여주어야 한다는 것에 있다. 포인팅이 된 버튼을 포인팅이 되지 않은 버튼과 차별화된 모습으로 보여주어야 하는 문제는, 일본 공개특허공보 특개2011-108152호(3차원 입력 표시 장치, 2011년 6월 2일)에 개시된 바와 같이, 동적인 액정 디스플레이 위에 무안경 입체시를 구현할 경우에 눌려진 버튼과 그렇지 않은 버튼을 담은 화면을 동적으로 송출하는 것으로 해결할 수 있다. 다만, 이 경우에는 상술한 바와 같이, 액정 디스플레이와 같은 동적 영상 송출 장치가 필수적으로 구비될 필요가 있다.
입체 화면에 비접촉식으로 포인팅이 된 손가락의 위치를 특정하는 문제는 버튼이라는 좁은 공간상에서 저비용으로 구현되어야 하는 특성을 고려하면 현재까지는 실용적인 해결책이 나와 있지 않다. 현재까지 제안되고 있는 방법들은 적외선 발광 램프와 적외선 카메라를 조합한 것이 대부분으로, 투사된 2차원 적외선 영상을 적외선 카메라로 입력받아 포인팅이 된 손끝의 반사광 밝기 변화를 해석하는 것이 주를 이룬다. 또한, 일본 공개특허공보 특개2011-108152호에서는 손가락의 포인팅 위치를 특정하는 문제를, 센서로부터 방출된 적외선 광을 손가락의 반사광 포착으로 해결할 수 있다고만 제안하고 있을 뿐, 더 이상의 구체적인 해결 방식을 제시하지 않았다.
참고로, 국제공개특허공보 WO2014/030902A1(INPUT METHOD AND APPARATUS OF PORTABLE DEVICE, 2014년 2월 27일)에서는 손바닥을 화면으로 한 방식이 제안되어 있다.
본 발명은 전술한 바와 같은 기술적 과제를 해결하는 데 목적이 있는 발명으로서, 비접촉 버튼 방식으로 기계적 고장을 최소화할 수 있는 3차원 가상 버튼을 이용한 포인팅 장치를 제공하는 것에 그 목적이 있다.
아울러, 본 발명은 3차원 입체시에 의해 버튼의 영상을 사용자만이 관찰할 수 있어, 카메라에 의한 버튼 정보의 노출을 방지할 수 있는 3차원 가상 버튼을 이용한 포인팅 장치를 제공하는 것에도 그 목적이 있다.
또한, 본 발명은 액정 디스플레이와 같은 동적 영상 송출 장치를 구비하지 않고도, 간단한 구조에 의해 저가로 구현할 수 있는 3차원 가상 버튼을 이용한 포인팅 장치를 제공하는 것에도 그 목적이 있다.
본 발명의 바람직한 일실시예에 따른 포인팅 장치는, 다수의 버튼이 표시된 버튼 표시층; 상기 버튼 표시층의 하부에 위치하며, 발광할 수 있는 다수의 조명 디바이스를 포함하는 조명층; 상기 버튼 표시층의 상부에 위치하고, 좌안 및 우안의 영상을 분리할 수 있는 입체시용 필터층; 및 상기 입체시용 필터층의 상부에 위치하고, 사용자의 포인팅 위치를 획득하는 포인팅층;을 포함한다.
구체적으로, 상기 포인팅층은, 적어도 하나의 적외선 발광 소자; 적어도 하나의 적외선 센서; 상기 적어도 하나의 적외선 발광 소자 및 상기 적어도 하나의 적외선 센서의 내측에 위치한 적외선 투과 필터; 및 상기 적어도 하나의 적외선 발광 소자 및 상기 적어도 하나의 적외선 센서의 내측에 위치한 수평 편광 필터;를 포함하고 있는 것을 특징으로 하는 한다.
아울러, 본 발명의 포인팅 장치는, 상기 버튼 표시층의 하부에 형성되어, 다수의 조명 디바이스를 분리하는 조명 격벽층;을 더 포함하는 것이 바람직하다.
또한, 본 발명의 포인팅 장치는, 신경 회로망을 이용하여, 손가락의 포인팅 위치를 학습시키되, 상기 신경 회로망은, 상기 적어도 하나의 적외선 센서에 의한 검출된 적외선 값을 입력값으로 하고, 상기 버튼 표시층에 표시된 각각의 버튼을 출력값으로 하는 것을 특징으로 한다.
바람직하게는, 상기 조명층은, 상기 버튼 표시층에 표시된 다수의 버튼의 위치에 대응하는 곳에 각각, 조명 디바이스가 배치되고, 사용자가 버튼을 포인팅한 경우, 해당 버튼의 위치에 대응하는 조명 디바이스를 이용하여 포인팅이 된 버튼을 사용자에게 표시할 수 있다.
아울러, 상기 버튼 표시층은, 좌안 및 우안의 각 시점으로 분할된, 좌안 영상 및 우안 영상이 교차되어 표시된 것이 바람직하다.
본 발명의 3차원 가상 버튼을 이용한 포인팅 장치에 따르면, 비접촉 버튼 방식으로 기계적 고장을 최소화할 수 있다. 아울러, 본 발명에 따르면, 3차원 입체시에 의해 버튼의 영상을 사용자만이 관찰할 수 있어, 카메라에 의한 버튼 정보의 노출을 방지할 수 있다. 또한, 본 발명에 따르면, 액정 디스플레이와 같은 동적 영상 송출 장치를 구비하지 않고도, 간단한 구조에 의해 저가로 3차원 가상 버튼을 이용한 포인팅 장치를 구현할 수 있다.
도 1은 본 발명의 바람직한 일실시예에 따른 3차원 가상 버튼을 이용한 포인팅 장치의 분해 사시도.
도 2는 포인팅층의 확대 단면도.
도 3은 버튼 표시층 및 필터층에 의한 좌안 및 우안 영상의 합성 설명도.
도 4는 제어 보드의 제어부에 의한 학습 방법의 설명도.
이하, 첨부된 도면을 참조하면서 본 발명의 실시예에 따른 3차원 가상 버튼을 이용한 포인팅 장치에 대해 상세히 설명하기로 한다.
본 발명의 하기의 실시예는 본 발명을 구체화하기 위한 것일 뿐 본 발명의 권리 범위를 제한하거나 한정하는 것이 아님은 물론이다. 본 발명의 상세한 설명 및 실시예로부터 본 발명이 속하는 기술 분야의 전문가가 용이하게 유추할 수 있는 것은 본 발명의 권리 범위에 속하는 것으로 해석된다.
도 1은 본 발명의 바람직한 일실시예에 따른 3차원 가상 버튼을 이용한 포인팅 장치(100)의 분해 사시도를 나타낸다.
도 1로부터 알 수 있는 바와 같이 본 발명의 바람직한 일실시예에 따른 3차원 가상 버튼을 이용한 포인팅 장치(100)는, 포인팅층(10), 보호층(20), 입체시용 필터층(30), 버튼 표시층(40), 조명 격벽층(50), 조명층(60) 및 제어 보드(70)를 포함한다.
포인팅층(10)은, 보호층(20) 및 입체시용 필터층(30)의 상부에 위치하며, 적어도 하나의 적외선 발광 소자(11) 및 적어도 하나의 적외선 센서(12)를 포함하는 것이 바람직하다.
즉, 포인팅층(10)은 손가락의 포인팅 위치를 3차원으로 획득하는 부분으로서, 본 발명의 포인팅 장치(100)의 최상부에 위치하는 것이 바람직하다. 포인팅층(10)은 적어도 하나의 적외선 발광 소자(11)와 적외선 수광 소자인 적어도 하나의 적외선 센서(12)로 구성되어 손가락의 3차원 위치를 산출한다. 적외선 발광 소자(11)로는, 저가의 적외선 램프를 이용할 수 있다.
본 발명에서 포인팅층(10)의 위치 산출은, 적외선 발광 소자(11)의 발광량의 적분값과 수광 소자인 적외선 센서(12)별 적외선의 총 적분량을 계산하는 것에 의해 이루어질 수 있다. 구체적인 본 발명에서의 위치 산출 원리는 후술하기로 한다. 아울러, 3차원의 위치 확인을 위한 포인팅층(10)의 높이는 매우 제한적이어서 손가락의 2차원 상의 좌표만을 확인하면 된다. 포인팅층(10)의 높이 영역 밖에서 손가락이 진입하여 포인팅층(10)의 3차원 영역대에 들어오면 손가락의 위치를 산출할 수 있다.
적외선 발광 소자(11)와 적외선 센서(12)는 각각, 다수개가 포인팅층(10)의 둘레에 구비된 지지대(15)에 고정 장착되어 지지되되, 적외선 발광 소자(11)와 적외선 센서(12)가 교차로 배열되는 것이 바람직하다.
도 2는 포인팅층(10)의 확대 단면도를 나타낸다.
도 2로부터 알 수 있는 바와 같이, 본 발명의 포인팅층(10)은, 수평 편광 필터(13)와 적외선 투과 필터(14)를 포함하는 것이 바람직하다.
수평 편광 필터(13)와 적외선 투과 필터(14)는 각각 적어도 하나의 적외선 발광 소자(11) 및 적어도 하나의 적외선 센서(12)의 내측에 위치하되, 적외선 투과 필터(14)가 수평 편광 필터(13)의 내측에 위치하는 것을 특징으로 한다.
본 발명과 같이 적외선 카메라가 아닌 적외선 센서(12)를 이용하는 기기를 실내외에서 이용하는 경우에는, 태양광 및 다른 램프의 간섭광이 문제가 될 수 있다. 본 발명에서는 적외선 센서(12)와 적외선 발광 소자(11)가 배치되어 있는 포인팅층(10)에 수평 편광 필터(13)와 적외선 투과 필터(14)를 부착하여 일반광에 의한 잡음과 사선으로 들어오는 적외선 간섭광들을 최대한 차단할 수 있다.
즉, 일반 가시 조명 혹은 태양광 하에서 적외선 센서(12)에는 많은 외부 간섭 적외선이 입력된다. 본 발명의 포인팅층(10)에서는 블라인드가 수평 방향으로 배열되어 수평 방향으로 입력되는 빛만을 투과시키는 수평 편광 필터(13)와 적외선 투과 필터(14)를 결합하여 적외선 센서(12) 앞, 즉, 적어도 하나의 적외선 발광 소자(11) 및 적어도 하나의 적외선 센서(12)의 내측에 배치하는 것에 의해 외부의 간섭 적외선을 최소화할 수 있는 것이다.
보호층(20)은, 입체시용 필터층(30)을 보호하는 역할을 하며, 투명한 보호막 또는 보호판을 이용하여 구성될 수 있다.
3차원을 인식하기 위하여는 좌우 양안의 각 시점에서 바라본 영상이 입력되어야 한다. 이를 위해 입체시용 필터층(30)은, 버튼 표시층(40)의 상부에 위치하며, 3차원 입체시를 위해 좌안 영상과 우안 영상을 분리하는 역할을 한다.
입체시용 필터층(30)은, 무안경에 의해 3차원 영상을 구현하기 위한 구성으로, 패럴랙스 배리어(Parallex Barrier) 또는 렌티큘라 렌즈(Lenticular Lens) 방식 등을 이용하여 구현할 수 있다. 구체적으로, 입체시용 필터층(30)은 렌티큘라 필터를 이용하는 것이 바람직하다.
즉, 본 발명에 따르면 좌우 한줄씩 교차로 배합된 영상은 역시 좌우 한줄 씩 분리하도록 설계된 렌티큘러 렌즈의 모양에 맞게 정합되어 좌우의 영상이 각기 분리되어 출력되도록 한다.
버튼 표시층(40)은, 다수의 버튼(41)이 표시된 것을 특징으로 한다.
버튼(41)이 표시된 버튼 표시층(40)의 부분은, 반투명한 것이 바람직하다. 즉, 조명층(60)의 조명 디바이스(61)가 발광할 경우, 반투명한 버튼(41)을 통해 사용자가 조명층(60)의 조명 디바이스(61)의 발광 여부를 확인할 수 있다. 버튼 표시층(40)에 적어도 하나의 버튼을 표시하는 방법은, 유리판 또는 플라스틱판 등에 버튼(41)을 인쇄하는 것에 의해 구현될 수 있을 것이다.
도 3은 버튼 표시층(40) 및 입체시용 필터층(30)에 의한 좌안 및 우안 영상의 합성 설명도이다.
도 3으로부터 알 수 있는 바와 같이, 버튼 표시층(40)에 표시된 적어도 하나의 버튼(41)은 좌안 및 우안의 각 시점으로 분할되어, 좌안 영상 및 우안 영상이 교차되어 표시된 것을 특징으로 한다.
즉, 적어도 하나의 버튼(41)은, 3차원 그래픽으로 버튼(41)의 3차원 영상을 제작하고 이를 좌우 양안의 각 시점으로 분할하여 한 줄씩 좌우 영상을 교차하여 배합 제작한다. 좌우 한줄씩 교차로 배합된 영상은 역시 좌우 한줄씩 분리하도록 설계된 입체시용 필터층(30)의 필터 모양에 맞게 정합되어 좌우의 이미지가 각기 분리되어 출력되도록 한다.
조명 격벽층(50)은, 격자 형상으로, 조명층(60)의 상부, 즉 버튼 표시층(40)의 하부에 형성되어, 다수의 조명 디바이스(61)를 분리하는 역할을 한다. 즉, 조명 격벽층(50)에 의해, 각각의 조명 디바이스(61)로부터 발광된 빛은 해당 버튼(41)의 배경만을 표시할 수 있게 된다.
조명층(60)은, 버튼 표시층(40)의 하부에 위치하며, 발광할 수 있는 다수의 조명 디바이스(61)를 포함하고 있는 것이 바람직하다. 조명층(60)의 조명 디바이스(61)로는, 발광 다이오드 및/또는 레이저 다이오드를 포함하여, 다양한 조명용 소자가 이용될 수 있다.
조명층(60)은, 포인팅이 된 버튼(41)이 포인팅이 안된 버튼(41)과 다른 색을 표시하게 하도록 함으로서 포인팅 부분을 인식하도록 하는 역할을 한다. 즉, 포인팅층(10)에서 획득된 위치 데이터를 이용하여, 제어 보드(70)의 제어부가 조명층(60)의 동작을 제어하여 해당 버튼(41)에 대응하는 위치의 조명 디바이스(61)가 발광하도록 함으로서 눌러진 버튼(41)을 확인하도록 한다.
또는, 조명층(60)에 포함된 모든 조명 디바이스(61)는 항시 발광하고 있다가, 버튼(41)이 포인팅된 경우 해당 버튼(41)에 대응하는 위치의 조명 디바이스(61)가 발광하지 않도록 할 수도 있다.
아울러, 조명층(60)에 포함된 모든 조명 디바이스(61)는 항시 'A'색으로 발광하고 있다가, 버튼(41)이 포인팅된 경우, 해당 버튼(41)에 대응하는 위치의 조명 디바이스(61)를 'B'색으로 발광하도록 할 수도 있다.
즉, 조명층(60)은, 버튼 표시층(40)에 표시된 다수의 버튼(41)의 위치에 대응하는 곳에 각각, 조명 디바이스(61)가 배치된 것을 특징으로 한다. 사용자가 버튼(41)을 포인팅한 경우, 해당 버튼(41)의 위치에 대응하는 조명 디바이스(61)를 이용하여 포인팅이 된 버튼(41)을 사용자에게 표시할 수 있게 된다.
본 발명의 제어 보드(70)는 제어부로서 역할을 하며, 적외선 발광 소자(11)가 빛을 발광하도록 하고, 이때의 적외선 센서(12)로부터 수광되는 빛의 양을 산출하여 손가락이 포인팅된 위치값을 산출하는 역할을 한다. 이를 위해 제어부는, 적외선 발광 소자(11), 적외선 센서(12) 및 조명 디바이스(61)의 동작을 제어하기 위한 제어 신호를 생성한다.
구체적으로, 제어부는, 다수의 적외선 발광 소자(11)에서 발광된 적외선 빛으로부터 다수의 적외선 센서(12)에서 획득한 값으로 손가락의 3차원 위치를 계산한다.
도 4는 제어 보드(70)의 제어부에 의한 학습 방법의 설명도이다. 참고로 제어부는, CPU 등의 프로세서를 포함하여 구성될 수 있다.
제어부에 의한 손가락의 3차원 위치의 계산은 신경 회로망의 학습 기능을 이용하며, 구체적으로 적외선 센서(12)별로 적외선의 입력값과 손가락의 2차원 포인팅 위치를 학습시키는 것에 의하여 3차원의 위치를 파악한다. 신경 회로망은 입력층과 중간층, 출력층으로 구성될 수 있으며, 각 적외선 센서(12)로부터 입력된 적외선 밝기값을 신경 회로망에 학습시켜서 손가락의 포인팅 위치를 구한 후, 파악된 입력 위치를 제어부에서 해당 위치에 속한 조명을 점등하여 값이 입력되었음을 사용자에게 알린다.
즉, 본 발명에서는 신경 회로망을 이용하여, 손가락의 포인팅 위치를 학습시키되, 신경 회로망은 적어도 하나의 적외선 센서(12)에 의한 검출된 적외선 값을 입력값으로 하고, 버튼 표시층(40)에 표시된 각각의 버튼(41)을 출력값으로 하는 것이 바람직하다.
상술한 바와 같은 본 발명의 3차원 가상 버튼을 이용한 포인팅 장치(100)에 따르면, 무안경 입체시 표현 기술을 이용하여 3차원 공간상에 가상 버튼 세트를 표시하고, 가상 공간상에 장착된 포인팅 위치 판독 장치인 포인팅층(10)을 통해 손가락의 3차원 상에서의 위치를 판독하여, 가상 버튼(41)의 온/오프를 확인하고 해당 버튼(41)이 눌려졌음을 표시해 줄 수 있음을 알 수 있다.
본 발명과 같은 작은 범용성 버튼 형태에서의 포인팅 장치(100)는 2가지의 해결 과제를 가지고 있는바, 하나는 좁은 공간에서 활용할 수 있어야 하고, 다른 하나는 구현을 위한 하드웨어가 저비용으로 구성할 수 있어야 한다는 점이다. 이를 위하여 본 발명에서의 포인팅 위치 특정 방식의 경우에는, 손가락의 반사광 분석을 위한 카메라 방식이 아닌 적외선 램프와 같은 적외선 발광 소자(11)와 적외선 센서(12)를 다수 배열하는 방식으로 구성되어 있다. 각 위치별 적외선 램프에서 송출하는 적외선은 2차원 상으로 분산 배치되어 있는 적외선 센서(12)에서 감지되는데 다수의 센서로부터 입력되는 적외선 강도는 사전 학습된 신경 회로망에 의해 손가락 포인팅 위치로 변환된다. 이의 원리는 빛이 가려지는 방향에 배치된 센서들은 간섭광들이 있더라도 상대적으로 수광 감도가 약해지고, 이는 신경 회로망에 의하여 학습 된다는 점이다.
아울러, 본 발명과 같이 적외선 카메라가 아닌 적외선 센서(12)를 이용하는 기기를 실내외에서 이용하는 경우는 태양광 및 다른 램프의 간섭광이 문제가 된다. 이러한 간섭광의 영향을 최소한으로 줄이기 위하여 적외선 발광 소자(11)와 적외선 센서(12)가 배치되어 있는 패널면에 수평 편광 필터(13)와 적외선 필터를 부착하여 일반광에 의한 잡음과 사선으로 들어오는 적외선 간섭광들을 최대한 차단할 수 있도록 하였다. 그 외 걸러지지 않은 간섭광들은 신경 회로망에 의한 다양한 환경에 대한 사전 학습에 의하여 대처가 된다. 실내외에서 사용되는 것을 목적으로 한 버튼의 경우에는 아침, 낮, 밤 및 날씨에 따른 태양광 적외선의 차이가 크고, 방향도 바뀌기 때문에 신경 회로망에 의한 적응적인 학습 방식을 사용하지 않으면 설치 장소가 제한될 필요가 있다. 신경 회로망에 의한 사전 학습에 의하여 시간 및 날씨에 따른 태양광 및 기타 조명기기들의 불규칙한 적외선량의 변화를 감안한 포인팅 포착이 가능하게 된다.
본 발명의 포인팅 장치(100)는, 적외선 발광 소자(11) 및 적외선 센서(12)를 사용하기에 저렴하고 소형화된 하드웨어를 구성할 수 있어 소형 범용성 버튼에 사용 가능하고, 다수의 적외선 센서(12)를 2차원적으로 배열하고 배열된 각 입력들을 신경 회로망의 입력 노드로 연결하도록 하여 사전 학습에 의하여 공장이나 야외, 실내 등에 적합한 수식을 제공할 수 있다.
상술한 바와 같이, 본 발명의 3차원 가상 버튼을 이용한 포인팅 장치(100)에 따르면, 비접촉 버튼 방식으로 기계적 고장을 최소화할 수 있다. 아울러, 본 발명에 따르면, 3차원 입체시에 의해 버튼의 영상을 사용자만이 관찰할 수 있어, 카메라에 의한 버튼 정보의 노출을 방지할 수 있다. 또한, 본 발명에 따르면, 액정 디스플레이와 같은 동적 영상 송출 장치를 구비하지 않고도, 간단한 구조에 의해 저가로 3차원 가상 버튼을 이용한 포인팅 장치(100)를 구현할 수 있음을 알 수 있다.

Claims (8)

  1. 다수의 버튼이 표시된 버튼 표시층;
    상기 버튼 표시층의 하부에 위치하며, 발광할 수 있는 다수의 조명 디바이스를 포함하는 조명층;
    상기 버튼 표시층의 상부에 위치하고, 좌안 및 우안의 영상을 분리할 수 있는 입체시용 필터층; 및
    상기 입체시용 필터층의 상부에 위치하고, 사용자의 포인팅 위치를 획득하는 포인팅층;을 포함하되,
    상기 포인팅층은,
    적어도 하나의 적외선 발광 소자; 및
    적어도 하나의 적외선 센서;를 포함하는 것을 특징으로 하는 포인팅 장치.
  2. 제1항에 있어서,
    상기 포인팅층은,
    상기 적어도 하나의 적외선 발광 소자 및 상기 적어도 하나의 적외선 센서의 내측에 위치한 적외선 투과 필터;를 더 포함하는 것을 특징으로 하는 포인팅 장치.
  3. 제1항에 있어서,
    상기 포인팅층은,
    상기 적어도 하나의 적외선 발광 소자 및 상기 적어도 하나의 적외선 센서의 내측에 위치한 수평 편광 필터;를 더 포함하는 것을 특징으로 하는 포인팅 장치.
  4. 제1항에 있어서,
    상기 포인팅 장치는,
    상기 버튼 표시층의 하부에 형성되어, 다수의 조명 디바이스를 분리하는 조명 격벽층;을 더 포함하는 것을 특징으로 하는 포인팅 장치.
  5. 제1항에 있어서,
    상기 포인팅 장치는,
    신경 회로망을 이용하여, 손가락의 포인팅 위치를 학습시키되,
    상기 신경 회로망은,
    상기 적어도 하나의 적외선 센서에 의한 검출된 적외선 값을 입력값으로 하고, 상기 버튼 표시층에 표시된 각각의 버튼을 출력값으로 하는 것을 특징으로 하는 포인팅 장치.
  6. 제1항에 있어서,
    상기 조명층은,
    상기 버튼 표시층에 표시된 다수의 버튼의 위치에 대응하는 곳에 각각, 조명 디바이스가 배치된 것을 특징으로 하는 포인팅 장치.
  7. 제6항에 있어서,
    상기 조명층은,
    사용자가 버튼을 포인팅한 경우, 해당 버튼의 위치에 대응하는 조명 디바이스를 이용하여 포인팅이 된 버튼을 사용자에게 표시할 수 있는 것을 특징으로 하는 포인팅 장치.
  8. 제1항에 있어서,
    상기 버튼 표시층은,
    좌안 및 우안의 각 시점으로 분할된, 좌안 영상 및 우안 영상이 교차되어 표시된 것을 특징으로 하는 포인팅 장치.
PCT/KR2016/012198 2016-08-29 2016-10-27 3차원 가상 버튼을 이용한 포인팅 장치 WO2018043805A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0110067 2016-08-29
KR1020160110067A KR101926819B1 (ko) 2016-08-29 2016-08-29 3차원 가상 버튼을 이용한 포인팅 장치

Publications (1)

Publication Number Publication Date
WO2018043805A1 true WO2018043805A1 (ko) 2018-03-08

Family

ID=61301773

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/012198 WO2018043805A1 (ko) 2016-08-29 2016-10-27 3차원 가상 버튼을 이용한 포인팅 장치

Country Status (2)

Country Link
KR (1) KR101926819B1 (ko)
WO (1) WO2018043805A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7503832B2 (ja) 2020-07-31 2024-06-21 不二精機株式会社 非接触センサを用いた飯盛付装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070132721A1 (en) * 2005-12-09 2007-06-14 Edge 3 Technologies Llc Three-Dimensional Virtual-Touch Human-Machine Interface System and Method Therefor
US20080068352A1 (en) * 2004-02-17 2008-03-20 Smart Technologies Inc. Apparatus for detecting a pointer within a region of interest
JP2011108152A (ja) * 2009-11-20 2011-06-02 Fujitsu Toshiba Mobile Communications Ltd 3次元入力表示装置
KR20120000663A (ko) * 2010-06-28 2012-01-04 주식회사 팬택 3d 객체 처리 장치
KR101168987B1 (ko) * 2006-07-25 2012-07-27 삼성전자주식회사 터치 키 조립체 및 이를 구비한 모바일 기기

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080068352A1 (en) * 2004-02-17 2008-03-20 Smart Technologies Inc. Apparatus for detecting a pointer within a region of interest
US20070132721A1 (en) * 2005-12-09 2007-06-14 Edge 3 Technologies Llc Three-Dimensional Virtual-Touch Human-Machine Interface System and Method Therefor
KR101168987B1 (ko) * 2006-07-25 2012-07-27 삼성전자주식회사 터치 키 조립체 및 이를 구비한 모바일 기기
JP2011108152A (ja) * 2009-11-20 2011-06-02 Fujitsu Toshiba Mobile Communications Ltd 3次元入力表示装置
KR20120000663A (ko) * 2010-06-28 2012-01-04 주식회사 팬택 3d 객체 처리 장치

Also Published As

Publication number Publication date
KR101926819B1 (ko) 2018-12-07
KR20180024242A (ko) 2018-03-08

Similar Documents

Publication Publication Date Title
EP1909255B1 (en) Image display device
WO2014081106A1 (ko) Rgb-ir 센서 및 이를 이용한 3차원 영상 획득 방법 및 장치
WO2015129966A1 (en) Head mounted display providing closed-view and method of controlling therefor
CN104299520B (zh) 多功能显示器
CN105988663A (zh) 显示装置、电子装置、手部穿戴式装置及控制系统
CN103365491A (zh) 位置检测装置
JP4963125B2 (ja) 立体画像表示システム
WO2012046964A9 (ko) 응시위치를 추적하여 입체영상을 표시하는 입체영상 표시장치
US20220086266A1 (en) Control Method of Electronic Device and Electronic Device
JP2013242850A (ja) 表示入力装置
CN107884942A (zh) 一种增强现实显示装置
JP2012242443A (ja) 立体映像表示装置
US20140176501A1 (en) Non-touch control system
WO2018043805A1 (ko) 3차원 가상 버튼을 이용한 포인팅 장치
WO2018113012A1 (zh) 智能投影幕墙
GB2363686A (en) Measuring convergence alignment of a projection system
WO2018016928A1 (ko) 가상 현실 구현 시스템 및 그의 가상 현실 구현 방법
WO2016006731A1 (ko) 촬영 모드를 제어하는 포터블 디바이스 및 그 제어 방법
CN210867879U (zh) 人脸识别模组及智能门锁
KR102254174B1 (ko) 야간 투시경 기능을 갖는 머리 착용형 디스플레이 장치
KR20080018682A (ko) 비상구 유도 표시장치
CN106341462A (zh) 一种用于智能写字楼复合层面节点控制的信息交换和监控系统
WO2014185578A1 (ko) 직교식 입체 카메라의 광축 정렬 방법 및 직교식 입체 카메라
WO2018124397A1 (ko) 증강현실을 이용한 경로 안내 장치 및 이를 이용한 경로 안내 방법
TR201606363A2 (tr) Çok işlevli bir algılama sistemi.

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16915285

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16915285

Country of ref document: EP

Kind code of ref document: A1