JP7226888B2 - 電磁放射線を用いた物体検出及び動き識別 - Google Patents
電磁放射線を用いた物体検出及び動き識別 Download PDFInfo
- Publication number
- JP7226888B2 JP7226888B2 JP2019570851A JP2019570851A JP7226888B2 JP 7226888 B2 JP7226888 B2 JP 7226888B2 JP 2019570851 A JP2019570851 A JP 2019570851A JP 2019570851 A JP2019570851 A JP 2019570851A JP 7226888 B2 JP7226888 B2 JP 7226888B2
- Authority
- JP
- Japan
- Prior art keywords
- receivers
- electromagnetic radiation
- emitters
- sensing modules
- sensing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0421—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0325—Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/046—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by electromagnetic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Circuit Arrangement For Electric Light Sources In General (AREA)
- User Interface Of Digital Computer (AREA)
- Geophysics And Detection Of Objects (AREA)
- Position Input By Displaying (AREA)
Description
が特定メモリを説明及び図示しているが、本開示は任意の適切なメモリを考慮する。
201 感知モジュール
202 電磁放射線エミッタ
203 電磁放射線受信機
204 制御モジュール
205 制御ボード
Claims (13)
- 複数の電磁放射線エミッタであって、前記複数のエミッタの各々は異なった視野に対応する、エミッタ;
複数の電磁放射線受信機であって、前記複数の受信機の各々は異なった視野に対応する、受信機;
複数の感知モジュールであって、前記複数の感知モジュールの各々は、
前記複数の電磁放射線エミッタの内の1つ以上のエミッタ;及び
前記複数の電磁放射線受信機の内の1つ以上の受信機
を含む感知モジュール;及び
1つ以上のプロセッサであって、
複数の予め定義された電力レベルに含まれる電力レベルを決定し、;
前記決定された電力レベルで、前記複数のエミッタの内の少なくとも1つを活性化し;
前記決定された電力レベルで電磁放射線を放出した結果として、少なくとも前記複数の受信機の内の少なくとも1つによって検出された電磁放射線に基づいて、前記複数の受信機の内の前記少なくとも1つの視野で物体の存在又は前記物体の動きを検出し、前記複数の受信機の内の前記少なくとも1つによって検出された前記電磁放射線の少なくとも一部は前記物体から前記1つ以上の受信機に反射され;
前記複数の感知モジュールの前記複数の受信機の内の前記1つ以上の受信機に対応する複数のバイトを含むデータベクターを生成し;
前記生成されたデータベクターに基づいて、前記複数の感知モジュールの複数の受信機の内の前記1つ以上の受信機の各々によって受信された電磁放射線の仮想物理空間へのマッピングに対応する複数のデータマトリックスを生成し;かつ
前記複数の感知モジュールの各々と前記仮想物理空間での1つ以上の区域との関連付けに基づいて、前記複数の予め定義された電力レベルの各々にそれぞれ対応する活性化されたエミッタの数を決定する
ように構成される、1つ以上のプロセッサ
を含む装置。 - 前記1つ以上のプロセッサは、前記物体の位置を決定するか、前記物体の動きを追跡するか、前記物体の動きを識別するか、又は複数の照射パターンを生成するようにさらに構成される、請求項1に記載の装置。
- 前記電磁放射線は、近赤外線を含む、請求項1に記載の装置。
- 前記複数のエミッタの各々は、1つ以上の発光ダイオード(light-emitting diode, LED)を含む、請求項1に記載の装置。
- 前記複数の受信機の各々は、1つ以上のフォトダイオードを含む、請求項1に記載の装置。
- 前記1つ以上のプロセッサは、前記決定された電力レベルで電磁放射線を放出するように前記複数の電磁放射線エミッタに指示するようにさらに構成される、請求項1に記載の装置。
- 前記複数の予め定義された電力レベルは、前記装置に対する複数の予め定義された深さに対応する、請求項6に記載の装置。
- 前記複数の感知モジュールの各々は、1つ以上のマイクロコントローラを含み、
前記1つ以上のマイクロコントローラは、
前記1つ以上のプロセッサと通信し;
対応する感知モジュールの前記1つ以上のエミッタによって放出される前記電磁放射線を変調し;
対応する感知モジュールの前記1つ以上のエミッタの放出電力を調節し;かつ
対応する感知モジュールの前記1つ以上の受信機によって受信される前記電磁放射線を処理するように構成される請求項1に記載の装置。 - 前記1つ以上のプロセッサは、
1つの感知モジュールの前記エミッタが一度に活性化されるように、前記決定された電力レベルで電磁放射線を放出するように前記複数の感知モジュールの各々の前記1つ以上のエミッタを順に活性化し;また
任意の感知モジュールの前記1つ以上のエミッタの内のいずれかが活性化された後、
前記1つ以上のエミッタが前記複数の感知モジュールの各々に対して活性化された後ごとに前記決定された電力レベルに対応する反射された電磁放射線を前記複数の受信機の内の1つ以上の受信機で受信するようにさらに構成され、前記複数の受信機の内の前記1つ以上の受信機は、前記反射された電磁放射線が前記複数の受信機の内の前記1つ以上の受信機に到達したか否かに基づいて選択される、請求項1に記載の装置。 - 前記1つ以上のプロセッサは、
前記生成された複数のデータマトリックス及び前記決定された活性化されたエミッタの数に基づいて前記物体の位置を決定するか、又は
しきい値より多い数のエミッタがしきい値より多い時間の間、活性化された場合、前記生成された複数のデータマトリックス及び前記決定された活性化されたエミッタの数に基づいて前記物体の動きを追跡するか、又は
しきい値より多い数のエミッタが予め決められた時間範囲内の持続期間の間、活性化された場合、前記生成された複数のデータマトリックス及び前記決定された活性化されたエミッタの数に基づいて物体の動きを識別するようにさらに構成される、請求項1に記載の装置。 - 1つ以上のプロセッサによって実行される場合に、前記1つ以上のプロセッサが動作を行うようにする命令を具現する1つ以上の非一時的コンピュータ可読な記憶媒体であって、前記動作は、
複数の予め定義された電力レベルに含まれる電力レベルを決定する動作;
前記決定された電力レベルで、複数の電磁放射線エミッタの内の少なくとも1つを活性化する動作であって、各々のエミッタは異なった視野に対応する、動作;
前記決定された電力レベルで電磁放射線を放出した結果として、少なくとも複数の電磁放射線受信機の内の1つ以上の受信機によって受信された電磁放射線に基づいて、前記複数の受信機の内の前記少なくとも1つの視野で物体の存在又は前記物体の動きを検出する動作であって、前記複数の受信機の各々は異なった視野に対応する、動作;
複数の感知モジュールの前記複数の受信機の内の前記1つ以上の受信機に対応する複数のバイトを含むデータベクターを生成する動作であって、前記複数の感知モジュールの各々は、前記複数の電磁放射線エミッタの内の1つ以上のエミッタ及び前記複数の電磁放射線受信機の内の1つ以上の受信機を含む、動作;
前記生成されたデータベクターに基づいて、前記複数の感知モジュールの複数の受信機の内の前記1つ以上の受信機の各々によって受信された電磁放射線の仮想物理空間へのマッピングに対応する複数のデータマトリックスを生成する動作;及び
前記複数の感知モジュールの各々と前記仮想物理空間での1つ以上の区域との関連付けに基づいて、前記複数の予め定義された電力レベルの各々にそれぞれ対応する活性化されたエミッタの数を決定する動作
を含む、非一時的コンピュータ可読記憶媒体。 - 前記動作は、照射パターンに対応する前記複数のエミッタを活性化する動作をさらに含む、請求項11に記載の非一時的コンピュータ可読記憶媒体。
- 複数の予め定義された電力レベルに含まれる電力レベルを決定するステップ;
前記決定された電力レベルで、複数の電磁放射線エミッタの内の少なくとも1つを活性化するステップであって、各々のエミッタは異なった視野に対応する、ステップ;
前記決定された電力レベルで電磁放射線を放出した結果として、少なくとも複数の電磁放射線受信機の内の1つ以上の受信機によって受信された電磁放射線に基づいて、前記複数の受信機の内の前記少なくとも1つの視野で物体の存在又は前記物体の動きを検出するステップであって、前記複数の受信機の各々は異なった視野に対応する、ステップ;
複数の感知モジュールの前記複数の受信機の内の前記1つ以上の受信機に対応する複数のバイトを含むデータベクターを生成するステップであって、前記複数の感知モジュールの各々は、前記複数の電磁放射線エミッタの内の1つ以上のエミッタ及び前記複数の電磁放射線受信機の内の1つ以上の受信機を含む、ステップ;
前記生成されたデータベクターに基づいて、前記複数の感知モジュールの複数の受信機の内の前記1つ以上の受信機の各々によって受信された電磁放射線の仮想物理空間へのマッピングに対応する複数のデータマトリックスを生成するステップ;及び
前記複数の感知モジュールの各々と前記仮想物理空間での1つ以上の区域との関連付けに基づいて、前記複数の予め定義された電力レベルの各々にそれぞれ対応する活性化されたエミッタの数を決定するステップを含む方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762523153P | 2017-06-21 | 2017-06-21 | |
US62/523,153 | 2017-06-21 | ||
US15/885,497 | 2018-01-31 | ||
US15/885,497 US10481736B2 (en) | 2017-06-21 | 2018-01-31 | Object detection and motion identification using electromagnetic radiation |
PCT/KR2018/005768 WO2018236056A1 (en) | 2017-06-21 | 2018-05-21 | OBJECT DETECTION AND MOTION IDENTIFICATION USING ELECTROMAGNETIC RADIATION |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020524856A JP2020524856A (ja) | 2020-08-20 |
JP7226888B2 true JP7226888B2 (ja) | 2023-02-21 |
Family
ID=64693180
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019570851A Active JP7226888B2 (ja) | 2017-06-21 | 2018-05-21 | 電磁放射線を用いた物体検出及び動き識別 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10481736B2 (ja) |
EP (1) | EP3639122B1 (ja) |
JP (1) | JP7226888B2 (ja) |
CN (1) | CN110785728B (ja) |
WO (1) | WO2018236056A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107788992B (zh) * | 2016-08-29 | 2022-03-08 | 松下知识产权经营株式会社 | 识别生物体的装置以及识别生物体的方法 |
US11461907B2 (en) * | 2019-02-15 | 2022-10-04 | EchoPixel, Inc. | Glasses-free determination of absolute motion |
JP7457625B2 (ja) * | 2020-10-07 | 2024-03-28 | パラマウントベッド株式会社 | ベッドシステム |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120293404A1 (en) | 2011-05-19 | 2012-11-22 | Panasonic Corporation | Low Cost Embedded Touchless Gesture Sensor |
US20140101620A1 (en) | 2012-10-08 | 2014-04-10 | Pixart Imaging Inc. | Method and system for gesture identification based on object tracing |
US20150062087A1 (en) | 2013-08-27 | 2015-03-05 | Lg Electronics Inc. | Electronic device having proximity touch function and control method thereof |
US20150258432A1 (en) | 2014-03-14 | 2015-09-17 | Sony Computer Entertainment Inc. | Gaming device with volumetric sensing |
US20150301591A1 (en) | 2012-10-31 | 2015-10-22 | Audi Ag | Method for inputting a control command for a component of a motor vehicle |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7164117B2 (en) * | 1992-05-05 | 2007-01-16 | Automotive Technologies International, Inc. | Vehicular restraint system control system and method using multiple optical imagers |
US4672364A (en) * | 1984-06-18 | 1987-06-09 | Carroll Touch Inc | Touch input device having power profiling |
CA2033515C (en) * | 1990-01-16 | 1997-06-17 | Alan Leigh Bartlett | Infrared touch input device and light emitter activation circuit |
US7876424B2 (en) * | 2008-08-20 | 2011-01-25 | Microsoft Corporation | Distance estimation based on image contrast |
CN101609647A (zh) * | 2009-07-30 | 2009-12-23 | 友达光电股份有限公司 | 触控式有机发光二极管显示装置及影像单元 |
US8547327B2 (en) * | 2009-10-07 | 2013-10-01 | Qualcomm Incorporated | Proximity object tracker |
EP2819410A1 (en) * | 2011-01-04 | 2014-12-31 | Samsung Electronics Co., Ltd | Display apparatus, 3D glasses, and control method thereof |
US20140035812A1 (en) | 2011-05-05 | 2014-02-06 | Maxim Integrated Products, Inc. | Gesture sensing device |
US9679215B2 (en) * | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
US9674436B2 (en) | 2012-06-18 | 2017-06-06 | Microsoft Technology Licensing, Llc | Selective imaging zones of an imaging sensor |
EP2872966A1 (en) | 2012-07-12 | 2015-05-20 | Dual Aperture International Co. Ltd. | Gesture-based user interface |
GB2504291A (en) * | 2012-07-24 | 2014-01-29 | St Microelectronics Ltd | A proximity and gesture detection module |
US9285893B2 (en) * | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
EP2738647B1 (en) | 2012-11-30 | 2018-08-29 | BlackBerry Limited | Method And Device For Identifying Contactless Gestures |
US9405376B2 (en) * | 2012-12-10 | 2016-08-02 | Invisage Technologies, Inc. | Sensors and systems for the capture of scenes and events in space and time |
US9304594B2 (en) | 2013-04-12 | 2016-04-05 | Microsoft Technology Licensing, Llc | Near-plane segmentation using pulsed light source |
US20140376773A1 (en) | 2013-06-21 | 2014-12-25 | Leap Motion, Inc. | Tunable operational parameters in motion-capture and touchless interface operation |
JP2015032101A (ja) * | 2013-08-01 | 2015-02-16 | 株式会社東芝 | 情報端末装置 |
US9029780B2 (en) | 2013-09-11 | 2015-05-12 | Google Technology Holdings LLC | Electronic device with gesture detection system and methods for using the gesture detection system |
US20150139483A1 (en) * | 2013-11-15 | 2015-05-21 | David Shen | Interactive Controls For Operating Devices and Systems |
EP2950596B1 (en) * | 2014-05-30 | 2019-06-26 | Apple Inc. | Method and system for determining whether device is on user's body |
KR102294945B1 (ko) | 2014-06-11 | 2021-08-30 | 삼성전자주식회사 | 기능 제어 방법 및 그 전자 장치 |
KR102278880B1 (ko) | 2014-11-14 | 2021-07-20 | 삼성디스플레이 주식회사 | 백라이트 유닛, 이를 포함하는 표시 장치, 및 영상 표시 시스템 |
SG11201704419PA (en) * | 2014-12-01 | 2017-06-29 | Singapore Univ Of Tech And Design | Gesture recognition devices, gesture recognition methods, and computer readable media |
US9746921B2 (en) | 2014-12-31 | 2017-08-29 | Sony Interactive Entertainment Inc. | Signal generation and detector systems and methods for determining positions of fingers of a user |
US10168193B2 (en) * | 2015-01-07 | 2019-01-01 | Infineon Technologies Ag | Sensor with switching matrix switch |
US9652047B2 (en) | 2015-02-25 | 2017-05-16 | Daqri, Llc | Visual gestures for a head mounted device |
US9910275B2 (en) | 2015-05-18 | 2018-03-06 | Samsung Electronics Co., Ltd. | Image processing for head mounted display devices |
-
2018
- 2018-01-31 US US15/885,497 patent/US10481736B2/en active Active
- 2018-05-21 WO PCT/KR2018/005768 patent/WO2018236056A1/en unknown
- 2018-05-21 EP EP18821570.1A patent/EP3639122B1/en active Active
- 2018-05-21 JP JP2019570851A patent/JP7226888B2/ja active Active
- 2018-05-21 CN CN201880041600.9A patent/CN110785728B/zh not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120293404A1 (en) | 2011-05-19 | 2012-11-22 | Panasonic Corporation | Low Cost Embedded Touchless Gesture Sensor |
US20140101620A1 (en) | 2012-10-08 | 2014-04-10 | Pixart Imaging Inc. | Method and system for gesture identification based on object tracing |
US20150301591A1 (en) | 2012-10-31 | 2015-10-22 | Audi Ag | Method for inputting a control command for a component of a motor vehicle |
US20150062087A1 (en) | 2013-08-27 | 2015-03-05 | Lg Electronics Inc. | Electronic device having proximity touch function and control method thereof |
US20150258432A1 (en) | 2014-03-14 | 2015-09-17 | Sony Computer Entertainment Inc. | Gaming device with volumetric sensing |
Also Published As
Publication number | Publication date |
---|---|
CN110785728B (zh) | 2022-04-29 |
US10481736B2 (en) | 2019-11-19 |
EP3639122A4 (en) | 2020-04-22 |
EP3639122B1 (en) | 2023-08-23 |
US20180373391A1 (en) | 2018-12-27 |
CN110785728A (zh) | 2020-02-11 |
JP2020524856A (ja) | 2020-08-20 |
WO2018236056A1 (en) | 2018-12-27 |
EP3639122A1 (en) | 2020-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11237625B2 (en) | Interaction engine for creating a realistic experience in virtual reality/augmented reality environments | |
US11875012B2 (en) | Throwable interface for augmented reality and virtual reality environments | |
Zhang et al. | Extending mobile interaction through near-field visible light sensing | |
JP7226888B2 (ja) | 電磁放射線を用いた物体検出及び動き識別 | |
TWI635415B (zh) | 以雷達為基礎的手勢辨識 | |
US8279091B1 (en) | RFID system for gesture recognition, information coding, and processing | |
US20110205151A1 (en) | Methods and Systems for Position Detection | |
US9645654B2 (en) | Initializing predictive information for free space gesture control and communication | |
CN103977539B (zh) | 颈椎康复保健辅助训练系统 | |
US11150318B2 (en) | System and method of camera-less optical motion capture | |
US9552073B2 (en) | Electronic device | |
US10739823B2 (en) | Motion control assembly with battery pack | |
CN114222986A (zh) | 使用社交图网络进行的随机轨迹预测 | |
CN105824411A (zh) | 基于虚拟现实的交互控制方法及装置 | |
Tsun et al. | A human orientation tracking system using Template Matching and active Infrared marker | |
Li et al. | Control your home with a smartwatch | |
Boner et al. | Tiny tcn model for gesture recognition with multi-point low power tof-sensors | |
Zhang et al. | Rofin: 3d hand pose reconstructing via 2d rolling fingertips | |
EP3278271A1 (en) | Method and apparatus for identifying a person by measuring body part distances of the person | |
Rathnayake et al. | Human computer interaction system for impaired people by using kinect motion sensor: Voice and gesture integrated smart home | |
KR20220074317A (ko) | 전자장치 및 라이다 센서를 이용한 전자장치 제어 방법 | |
Czuszynski et al. | Estimation of the amplitude of the signal for the active optical gesture sensor with sparse detectors | |
US20190196019A1 (en) | Method and device for determining position of a target | |
Czuszyński et al. | Analysis of properties of an active linear gesture sensor | |
CN105786221B (zh) | 信息处理方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210512 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220519 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220523 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220823 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220912 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220929 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230203 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7226888 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |