JP7199822B2 - Detection device and detection method - Google Patents

Detection device and detection method Download PDF

Info

Publication number
JP7199822B2
JP7199822B2 JP2018072516A JP2018072516A JP7199822B2 JP 7199822 B2 JP7199822 B2 JP 7199822B2 JP 2018072516 A JP2018072516 A JP 2018072516A JP 2018072516 A JP2018072516 A JP 2018072516A JP 7199822 B2 JP7199822 B2 JP 7199822B2
Authority
JP
Japan
Prior art keywords
unit
imaging
detection
detection device
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018072516A
Other languages
Japanese (ja)
Other versions
JP2019184312A (en
Inventor
大樹 山路
博之 箱田
渉 山田
宏幸 真鍋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2018072516A priority Critical patent/JP7199822B2/en
Publication of JP2019184312A publication Critical patent/JP2019184312A/en
Application granted granted Critical
Publication of JP7199822B2 publication Critical patent/JP7199822B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、検出装置および検出方法に関する。 The present invention relates to a detection device and detection method.

何らかの動作を行う物体をカメラで検出する方法として、例えば、特許文献1では、近赤外光を用いた光学式モーションキャプチャが知られている。 As a method for detecting an object that performs some action with a camera, for example, Patent Document 1 discloses optical motion capture using near-infrared light.

また、撮像により得られた画像からの対象物の検出精度を高める方法として、特許文献2では、画像の各画素の色に着目した検出を行う方法が開示されている。また、特許文献3では、背景差分法を用いて対象物を検出する方法が開示されている。 Further, as a method for improving the detection accuracy of an object from an image obtained by imaging, Patent Document 2 discloses a method of performing detection focusing on the color of each pixel of the image. Further, Patent Document 3 discloses a method of detecting an object using a background subtraction method.

特開2005-256232号公報JP 2005-256232 A 特開2012-14535号公報JP 2012-14535 A 特開2005-50382号公報JP-A-2005-50382

近年、スマートフォン等に搭載されたカメラなどを利用して、素早く移動する物体を検出したいというニーズがある。しかしながら、特許文献1記載の方法は近赤外光を利用するため、特別な機構等を追加する必要がある。また、特許文献2に記載の方法、および、特許文献3に記載の方法は、いずれも、対象物を検出するための画像処理が従来のカメラと比べて増大するため、画像処理を実行するためのソフトウェアの実装コストが増大する可能性がある。また、特許文献2に記載の方法、および、特許文献3に記載の方法は、いずれも、対象物の移動速度が速い場合に対象物を精度良く検出できない可能性も考えられる。 In recent years, there is a need to detect rapidly moving objects using cameras mounted on smartphones and the like. However, since the method described in Patent Document 1 uses near-infrared light, it is necessary to add a special mechanism or the like. In addition, both the method described in Patent Document 2 and the method described in Patent Document 3 require more image processing for detecting an object than in a conventional camera. software implementation costs may increase. Moreover, it is conceivable that neither the method described in Patent Document 2 nor the method described in Patent Document 3 can accurately detect the object when the moving speed of the object is high.

本発明は上記を鑑みてなされたものであり、より簡便な構成で、撮像した画像から移動する物体を検出することが可能な検出装置および検出方法を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a detection apparatus and a detection method capable of detecting a moving object from a captured image with a simpler configuration.

上記目的を達成するため、本発明の一形態に係る検出装置は、再帰性反射材が貼付された対象物に対して光を照射する光源部と、前記光源部からの光による前記再帰性反射材からの反射光を受光して前記対象物に係る撮像を行う撮像部と、前記撮像部での撮像により得られた画像データから、前記再帰性反射材を撮像した領域を特定する反射材検出部と、前記反射材検出部による検出結果に基づいて、前記対象物の配置に係るパラメータを推定するパラメータ推定部と、を有する。 In order to achieve the above object, a detection device according to one aspect of the present invention includes a light source unit that irradiates light onto an object to which a retroreflecting material is attached, and the retroreflection by the light from the light source unit. an imaging unit that receives reflected light from a material and captures an image of the object; and reflector detection that specifies an area where the retroreflective material is captured from image data obtained by imaging by the imaging unit. and a parameter estimation unit for estimating a parameter related to the arrangement of the object based on the detection result of the reflector detection unit.

また、本発明の一形態に係る検出方法は、再帰性反射材が貼付された対象物に対して光源部から光を照射して、前記光源部からの光による前記再帰性反射材からの反射光を撮像部により受光して前記対象物に係る撮像を行う撮像ステップと、反射材検出部において、前記撮像ステップにおける撮像により得られた画像データから、前記再帰性反射材を撮像した領域を特定する反射材検出ステップと、前記反射材検出ステップにおける検出結果に基づいて、前記対象物の配置に係るパラメータを推定するパラメータ推定ステップと、を有する。 Further, the detection method according to one aspect of the present invention includes irradiating an object to which a retroreflecting material is attached with light from a light source, and reflecting light from the retroreflecting material from the light source. An imaging step of receiving light by an imaging unit to capture an image of the object, and a reflector detecting unit specifying an area in which the retroreflecting material is imaged from image data obtained by imaging in the imaging step. and a parameter estimation step of estimating a parameter relating to the arrangement of the object based on the detection result in the reflector detection step.

本発明によれば、より簡便な構成で、撮像した画像から移動する物体を検出することが可能な検出装置および検出方法が提供される。 ADVANTAGE OF THE INVENTION According to this invention, the detection apparatus and detection method which can detect a moving object from the imaged image by simpler structure are provided.

本発明の一実施形態に係る検出装置の使用例を説明する図である。It is a figure explaining the usage example of the detection apparatus which concerns on one Embodiment of this invention. 検出装置の機能を説明するブロック図である。It is a block diagram explaining the function of a detection apparatus. 検出装置による対象物の検出に係る一連の処理の概略を説明する図である。It is a figure explaining the outline of a series of processings concerning the detection of the target object by a detection apparatus. パラメータ設定部によるパラメータの設定の手順について説明する図である。FIG. 5 is a diagram illustrating a procedure for setting parameters by a parameter setting unit; 反射材の検出に係る手順について説明する図である。It is a figure explaining the procedure concerning the detection of a reflector. パラメータの推定に係る手順について説明する図である。It is a figure explaining the procedure concerning estimation of a parameter. シャッタースピードの違いによる再帰性反射材の輪郭の変化を説明する図である。FIG. 10 is a diagram for explaining changes in contours of retroreflecting materials due to differences in shutter speed; 対象物の位置の算出等について説明する図である。It is a figure explaining calculation etc. of the position of a target object. 再帰性反射材の数を変化させる場合について説明する図である。It is a figure explaining the case where the number of retroreflective materials is changed. 検出装置のハードウェア構成を説明する図である。It is a figure explaining the hardware constitutions of a detection apparatus.

以下、添付図面を参照して、本発明を実施するための形態を詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and overlapping descriptions are omitted.

図1は、本発明の一実施形態に係る検出装置1の使用例を説明する図である。また、図2は、検出装置1の機能を説明するブロック図である。検出装置1は、例えば、スマートフォン等の携帯端末として実現される。また、検出装置1がスマートフォンである場合、検出装置1としての機能は、例えば、スマートフォンを用いてユーザに対してあたかも当該ユーザが仮想空間上に存在するかのような視界を提供することにより、仮想空間に没入させる仮想現実(VR:Virtual Reality)体験を提供する際に使用することができる。ただし、検出装置1としての機能は上記の用途以外にも適用できる。 FIG. 1 is a diagram illustrating a usage example of a detection device 1 according to one embodiment of the present invention. FIG. 2 is a block diagram illustrating functions of the detection device 1. As shown in FIG. The detection device 1 is implemented as a mobile terminal such as a smart phone, for example. Further, when the detection device 1 is a smartphone, the function of the detection device 1 is, for example, to provide the user with a view using the smartphone as if the user exists in a virtual space. It can be used in providing an immersive virtual reality (VR) experience. However, the function of the detection device 1 can be applied to applications other than those described above.

図1では、検出装置1がユーザUの装着するHMD(Head Mounted Display)2の一部として機能する例を示している。HMD2としては、公知のHMDを用いることができる。検出装置1は、検出の対象となる対象物Oを撮像し、この対象物Oを検出する機能を有する。対象物Oには、再帰性反射材3が貼付される。そして、対象物Oに対して検出装置1から光を照射することで、再帰性反射材3により反射された光を検出装置1により検出することで、対象物Oを検出する。また、検出された対象物Oに係る情報は、検出装置1のモニタ等に表示されることで、HMD2を介してユーザに提示される。 FIG. 1 shows an example in which the detection device 1 functions as part of an HMD (Head Mounted Display) 2 worn by a user U. As shown in FIG. A known HMD can be used as the HMD 2 . The detection device 1 has a function of capturing an image of an object O to be detected and detecting the object O. As shown in FIG. A retroreflective material 3 is attached to the object O. As shown in FIG. The object O is detected by irradiating the object O with light from the detection device 1 and detecting the light reflected by the retroreflective material 3 with the detection device 1 . Information related to the detected object O is presented to the user via the HMD 2 by being displayed on the monitor or the like of the detection device 1 .

対象物Oについては特に限定されず、例えば、ペットボトルなどの身の回りの物体、3Dプリンタなどにより制作されるオリジナルな物体、人体などが挙げられる。また、対象物Oに取り付け(貼付)される再帰性反射材3としては、例えば、カプセルレンズ型、封入レンズ型、露出レンズ型等の公知の再帰性反射材を適宜選択して使用することができる。なお、対象物Oに対して複数の再帰性反射材3が互いに離間して取り付けられることができる。複数の再帰性反射材3を対象物Oに取り付けた場合、複数の再帰性反射材3の配置から、対象物Oの位置および向き等を特定することが可能となる。この点については後述する。 The object O is not particularly limited, and examples thereof include familiar objects such as plastic bottles, original objects produced by a 3D printer, and human bodies. In addition, as the retroreflecting material 3 to be attached (pasted) to the object O, for example, a known retroreflecting material such as a capsule lens type, an enclosed lens type, and an exposed lens type can be appropriately selected and used. can. In addition, a plurality of retroreflectors 3 can be attached to the object O while being spaced apart from each other. When a plurality of retroreflecting materials 3 are attached to the object O, it is possible to specify the position, orientation, etc. of the object O from the arrangement of the plurality of retroreflecting materials 3 . This point will be described later.

図2に示すように、検出装置1は、撮像部11、光源部12、カメラパラメータ設定部13、反射材検出部14、パラメータ推定部15、および、表示部16を含んで構成される。 As shown in FIG. 2 , the detection device 1 includes an imaging section 11 , a light source section 12 , a camera parameter setting section 13 , a reflector detection section 14 , a parameter estimation section 15 and a display section 16 .

撮像部11は、対象物Oを撮像する機能を有する。撮像部11としては、例えば、RGBカメラを用いることができる。撮像部11として、スマートフォン等の携帯端末に一般的に搭載されているRGBカメラを使用することができる。ただし、RGBカメラとは異なる種類のカメラを用いてもよい。また、撮像部11は、対象物Oに係る画像を静止画像として取得してもよいし、動画像として取得してもよい。 The imaging unit 11 has a function of imaging the object O. As shown in FIG. For example, an RGB camera can be used as the imaging unit 11 . As the imaging unit 11, an RGB camera that is generally installed in mobile terminals such as smartphones can be used. However, a camera of a different type than the RGB camera may be used. Further, the imaging unit 11 may acquire the image of the object O as a still image or as a moving image.

光源部12は、対象物Oに対して光を照射する機能を有する。光源部12としては、例えば、フラッシュライト(懐中電灯)を用いることができる。光源部12から照射される光の波長は特に限定されないが、光源部12から照射される光には、撮像部11が検出可能な波長帯の光を含むことが求められる。光源部12として、スマートフォン等の携帯端末に一般的に搭載されているフラッシュライトを使用することができる。撮像部11および光源部12は、図1に示すように検出装置1の外側に設けられる。 The light source unit 12 has a function of irradiating the object O with light. As the light source unit 12, for example, a flashlight (flashlight) can be used. Although the wavelength of the light emitted from the light source unit 12 is not particularly limited, the light emitted from the light source unit 12 is required to include light in a wavelength band detectable by the imaging unit 11 . As the light source unit 12, a flashlight that is generally installed in mobile terminals such as smartphones can be used. The imaging unit 11 and the light source unit 12 are provided outside the detection device 1 as shown in FIG.

カメラパラメータ設定部13は、撮像部11および光源部12に係る各種設定を行う機能を有する。カメラパラメータ設定部13は、例えば、撮像部11における対象物Oの撮像時のシャッタースピードの設定変更、光源部12による光の出射/停止の切り替え等を制御する。カメラパラメータ設定部13の設定に基づいて、光源部12が対象物Oに対して光を照射し、再帰性反射材3からの反射光を撮像部11により撮像する。 The camera parameter setting unit 13 has a function of making various settings related to the imaging unit 11 and the light source unit 12 . The camera parameter setting unit 13 controls, for example, changes in shutter speed settings when the imaging unit 11 captures an image of the object O, switching between light emission/stop by the light source unit 12, and the like. Based on the setting of the camera parameter setting unit 13 , the light source unit 12 irradiates the object O with light, and the imaging unit 11 captures the reflected light from the retroreflection material 3 .

反射材検出部14は、撮像部11が撮像した画像から、再帰性反射材3を撮像した領域を特定する機能を有する。詳細は後述するが、反射材検出部14により再帰性反射材3を撮像した領域を特定することで、対象物Oの位置等を特定可能となる。 The reflector detection unit 14 has a function of specifying an area where the retroreflector 3 is captured from the image captured by the imaging unit 11 . Although the details will be described later, the position of the object O can be specified by specifying the area where the retroreflector 3 is imaged by the reflector detector 14 .

パラメータ推定部15は、反射材検出部14により特定された再帰性反射材3の撮像領域等の情報に基づいて、対象物Oの配置に係るパラメータを推定する機能を有する。対象物Oの配置に係るパラメータとは、例えば、対象物Oの位置および向きを特定するパラメータが挙げられるがこれらに限定されるものではない。パラメータの具体的な推定方法は後述する。 The parameter estimating section 15 has a function of estimating parameters relating to the arrangement of the object O based on information such as the imaging area of the retroreflecting material 3 specified by the reflecting material detecting section 14 . Parameters related to the placement of the object O include, but are not limited to, parameters specifying the position and orientation of the object O, for example. A specific parameter estimation method will be described later.

表示部16は、例えばモニタ等から構成され、パラメータ推定部15により推定されたパラメータに係る情報を表示する機能を有する。また、撮像部11において撮像された画像をそのまま表示部16において表示する構成としてもよい。また、検出装置1がユーザUに対してVR体験を提供する装置である場合、表示部16は、ユーザUに対してVR体験を提示するための画像を表示する。その際に、表示部16は、パラメータ推定部15により推定されたパラメータに基づく画像を表示する。 The display unit 16 is composed of, for example, a monitor or the like, and has a function of displaying information related to the parameters estimated by the parameter estimation unit 15 . Alternatively, the image picked up by the imaging unit 11 may be displayed on the display unit 16 as it is. Further, when the detection device 1 is a device that provides the user U with a VR experience, the display unit 16 displays an image for presenting the user U with the VR experience. At that time, the display unit 16 displays an image based on the parameters estimated by the parameter estimation unit 15 .

次に、図3および図4~図6を参照しながら、検出装置1による対象物Oの検出方法を説明する。図3は、検出装置1による対象物Oの検出に係る一連の処理の概略を説明する図である。また、図4~図6は、各ステップにおいて行われる処理の詳細を説明する図である。 Next, a method of detecting the object O by the detection device 1 will be described with reference to FIGS. 3 and 4 to 6. FIG. FIG. 3 is a diagram for explaining an outline of a series of processing related to detection of the object O by the detection device 1. As shown in FIG. 4 to 6 are diagrams for explaining the details of the processing performed in each step.

検出装置1は、まず、再帰性反射材3が取り付けられた対象物Oの撮像を行う(S01:撮像ステップ)。具体的には、光源部12が対象物Oに対して光を照射した際に、撮像部11が再帰性反射材3からの反射光を撮像する。この結果、再帰性反射材3からの反射光が撮像された画像データが得られる。次に、反射材検出部14により、撮像部11による画像データから再帰性反射材3が撮像された領域を特定することで、対象物Oを検出する(S02:反射材検出ステップ)。次に、パラメータ推定部15により、対象物Oの配置に関するパラメータの推定を行う(S03:パラメータ推定ステップ)。そして、推定結果が表示部16により表示される(S04:表示ステップ)。以下、具体的に説明する。 The detection device 1 first takes an image of the object O to which the retroreflection material 3 is attached (S01: imaging step). Specifically, when the light source unit 12 irradiates the object O with light, the imaging unit 11 images reflected light from the retroreflection material 3 . As a result, image data in which reflected light from the retroreflection material 3 is imaged is obtained. Next, the object O is detected by specifying the region where the retroreflector 3 is imaged from the image data by the imaging unit 11 by the reflector detector 14 (S02: reflector detection step). Next, the parameter estimation unit 15 estimates parameters related to the arrangement of the object O (S03: parameter estimation step). Then, the estimation result is displayed by the display unit 16 (S04: display step). A specific description will be given below.

撮像部11による撮像(S01)の際のカメラパラメータ設定部13によるパラメータ調整に係る処理の流れを図4に示す。カメラパラメータ設定部13では、撮像部11による撮像時のシャッタースピードを0.5ms~1ms程度に設定する(S11)。このシャッタースピードは、撮像部11がRGBカメラである場合の値である。また、上記のシャッタースピードはRGBカメラでの一般的なシャッタースピードよりも速い。シャッタースピードを上記の値に設定することで、対象物Oが素早く移動した場合でも、画像に生じるブレ等が低減することができる。また、上記のシャッタースピードに設定した場合、撮像部11が受光する光の光量は低減するため、得られる画像は通常のシャッタースピードの場合よりも暗くなる。これに対して、カメラパラメータ設定部13では、光源部12に関しては、撮像部11による撮像が行われる間を光源部12から対象物Oに対して光を常時照射する構成とする(S12)。このような構成とすることで、再帰性反射材3は光源部12からの光に対して反射光を出射するため、撮像部11では、再帰性反射材3以外の物体は暗く撮像されるが、再帰性反射材3については光量が十分に確保できた状態で撮像することができる。なお、シャッタースピードの設定(S11)と、光源部12の常時照射に係る制御(S12)と、は実行順序を変更してもよい。 FIG. 4 shows the flow of processing related to parameter adjustment by the camera parameter setting unit 13 when the imaging unit 11 performs imaging (S01). The camera parameter setting unit 13 sets the shutter speed of the imaging unit 11 to about 0.5 ms to 1 ms (S11). This shutter speed is a value when the imaging unit 11 is an RGB camera. Also, the above shutter speed is faster than a general shutter speed for an RGB camera. By setting the shutter speed to the above value, even if the object O moves quickly, it is possible to reduce blurring or the like that occurs in the image. Also, when the above shutter speed is set, the amount of light received by the imaging unit 11 is reduced, so the resulting image becomes darker than when the normal shutter speed is used. On the other hand, in the camera parameter setting unit 13, the light source unit 12 is configured to constantly irradiate the object O with light while the imaging unit 11 is performing imaging (S12). With such a configuration, the retroreflecting material 3 emits reflected light with respect to the light from the light source unit 12. Therefore, in the imaging unit 11, objects other than the retroreflecting material 3 are imaged darkly. , the retroreflective material 3 can be imaged in a state in which a sufficient amount of light is ensured. Note that the execution order of setting the shutter speed (S11) and controlling the constant illumination of the light source unit 12 (S12) may be changed.

次に、撮像部11により取得された画像データにおける対象物Oの検出(S02)に係る処理の流れを図5に示す。上述したように、撮像部11による対象物Oの撮像時には、シャッタースピードを速くして撮像部11が受光する光量を低減すると共に、光源部12から対象物Oに対して光を照射することで、再帰性反射材3からの反射光についてはその光量を確保する。このような構成とすることで、再帰性反射材3の検出を好適に行うことができる。ただし、光量によっては再帰性反射材3の検出が適切に行われない可能性がある。そこで、撮像部11が撮像した画像データから、再帰性反射材3を撮像した領域を特定する際に、撮像部11が受光した光量が適切ではなく再帰性反射材3を撮像した領域の特定が困難である場合には、シャッタースピードを調整して再度撮像を行う(S21)。図7(a)、図7(b)、および図7(c)は、シャッタースピードの違いにより、再帰性反射材3の形状がどのように画像データに現れるかを示した例である。図7(a)は、撮像部11によるシャッタースピードが、再帰性反射材3の撮像に対して適切な範囲よりも遅い場合(例えば、10ms以上)の画像の例を示した図である。シャッタースピードが適切な範囲よりも遅い場合、撮像部11で撮像された画像には、再帰性反射材3を撮像した領域A以外の物体の形状等の情報も含まれる。図7(b)は、撮像部11によるシャッタースピードが、再帰性反射材3の撮像に対して適切な範囲である場合(例えば、0.5ms~1ms)の画像の例を示した図である。シャッタースピードが適切な範囲である場合、撮像部11で撮像された画像には、再帰性反射材3を撮像した領域A’以外には、物体の形状等の情報が含まれない状態となる。図7(c)は、撮像部11によるシャッタースピードが、再帰性反射材3の撮像に対して適切な範囲よりも速い場合(例えば、0.2ms以下)の画像の例を示した図である。シャッタースピードが適切な範囲よりも速い場合、撮像部11では、再帰性反射材3の形状を認識できない程度の光量しか受光できない。したがって、撮像部11で撮像された画像には、再帰性反射材3の形状が認識できない程度の領域A’’が示された状態となる。 Next, FIG. 5 shows the flow of processing related to the detection of the object O in the image data acquired by the imaging unit 11 (S02). As described above, when the imaging unit 11 takes an image of the object O, the shutter speed is increased to reduce the amount of light received by the imaging unit 11, and the light source unit 12 irradiates the object O with light. , the amount of reflected light from the retroreflecting material 3 is ensured. With such a configuration, it is possible to suitably detect the retroreflection material 3 . However, depending on the amount of light, the retroreflection material 3 may not be properly detected. Therefore, when specifying the area where the retroreflection material 3 is imaged from the image data imaged by the imaging unit 11, the amount of light received by the imaging unit 11 is not appropriate, and the area where the retroreflection material 3 is imaged cannot be specified. If it is difficult, the shutter speed is adjusted and the image is captured again (S21). FIGS. 7(a), 7(b), and 7(c) are examples showing how the shape of the retroreflection material 3 appears in the image data due to the difference in shutter speed. FIG. 7A is a diagram showing an example of an image when the shutter speed of the imaging unit 11 is slower than the appropriate range for imaging the retroreflective material 3 (for example, 10 ms or longer). When the shutter speed is slower than the appropriate range, the image captured by the imaging unit 11 also includes information such as the shape of an object other than the area A where the retroreflection material 3 is captured. FIG. 7(b) is a diagram showing an example of an image when the shutter speed of the imaging unit 11 is within an appropriate range for imaging the retroreflective material 3 (for example, 0.5 ms to 1 ms). . When the shutter speed is within an appropriate range, the image captured by the imaging unit 11 does not include information such as the shape of the object other than the area A' where the retroreflection material 3 is captured. FIG. 7C is a diagram showing an example of an image when the shutter speed of the imaging unit 11 is faster than the appropriate range for imaging the retroreflective material 3 (for example, 0.2 ms or less). . If the shutter speed is faster than the appropriate range, the imaging unit 11 can only receive light in such an amount that the shape of the retroreflection material 3 cannot be recognized. Therefore, the image captured by the imaging unit 11 shows a region A'' in which the shape of the retroreflection material 3 cannot be recognized.

このように、シャッタースピードによって、得られた画像データ中の再帰性反射材3の形状が適切に検出できるかが変わる可能性がある。そこで、所定のシャッタースピードで撮像された画像データに基づいて、シャッタースピードを微調整して再度撮像を行ってもよい。 As described above, the shutter speed may change whether the shape of the retroreflection material 3 in the obtained image data can be appropriately detected. Therefore, based on image data captured at a predetermined shutter speed, the shutter speed may be finely adjusted and the image captured again.

なお、シャッタースピードの微調整は、検出装置1のユーザUが行ってもよいし、検出装置1のカメラパラメータ設定部13が、撮像された画像データに基づいて再撮像の要否を判定する構成としてもよい。 The fine adjustment of the shutter speed may be performed by the user U of the detection device 1, and the camera parameter setting unit 13 of the detection device 1 determines whether re-imaging is necessary based on the captured image data. may be

次に、反射材検出部14では、撮像部11で撮像された画像データを取得する(S22)。この段階では、ソフトウェア処理を軽減させるために、グレイスケール画像を扱うこととしてもよい。次に、グレイスケールの画像を二値化し、二値画像を取得する(S23)。グレイスケールの画像を構成する各画素に対し、輝度の閾値を設けて、この閾値を利用して二値化する。例えば、輝度の値の範囲が0以上255以下となっている場合に、閾値を200とし、輝度が200未満の画素は輝度を0とし、輝度が200以上の画素は輝度を255として取り扱う。画像を二値化することで、シャッタースピードや光量の調整が適切に行われている場合、再帰性反射材3からの反射光を受光した画素と、それ以外を区別することができる。 Next, the reflector detection unit 14 acquires image data captured by the imaging unit 11 (S22). At this stage, it may be possible to work with grayscale images to reduce software processing. Next, the grayscale image is binarized to obtain a binary image (S23). A luminance threshold value is set for each pixel constituting a grayscale image, and binarization is performed using this threshold value. For example, when the luminance value ranges from 0 to 255, the threshold is set to 200, pixels with luminance less than 200 are treated as luminance 0, and pixels with luminance 200 or more are treated as luminance 255. By binarizing the image, if the shutter speed and the amount of light are appropriately adjusted, pixels that have received the reflected light from the retroreflective material 3 can be distinguished from other pixels.

次に、二値化した画像を利用して、撮像した物体の輪郭を抽出する(S24)。輪郭を抽出した領域の面積が閾値以上(例えば、480×320ピクセルの画像において、20ピクセル)の場合には、当該領域が再帰性反射材3を撮像した領域、すなわち、再帰性反射材3が取り付けられた対象物Oを撮像した領域として検出される(S25)。 Next, the binarized image is used to extract the contour of the captured object (S24). If the area of the contour-extracted region is greater than or equal to the threshold value (for example, 20 pixels in a 480×320 pixel image), the region is the region where the retroreflector 3 is imaged, that is, the retroreflector 3 is It is detected as an imaged area of the mounted object O (S25).

次に、パラメータ推定部15による対象物Oの位置に関するパラメータの推定(S03)について、図6を参照しながら説明する。 Next, the parameter estimation (S03) regarding the position of the object O by the parameter estimator 15 will be described with reference to FIG.

反射材検出部14により、対象物Oに取り付けられた再帰性反射材3を撮像した領域が特定されることで、検出装置1側では、再帰性反射材3の位置を特定することができる。したがって、再帰性反射材3の位置に係る情報を利用して、検出装置1では、対象物Oの形状等に係るパラメータを推測可能となる。 The position of the retroreflecting material 3 can be identified on the detection device 1 side by specifying the area where the retroreflecting material 3 attached to the object O is imaged by the reflecting material detection unit 14 . Therefore, by using the information about the position of the retroreflection material 3, the detecting device 1 can estimate the parameters about the shape of the object O and the like.

具体的には、まず、パラメータ推定部15では、対象物Oに取り付けられた2つの再帰性反射材3の画像上での位置情報を取得した上で、その重心座標を算出する(S31)。ここでは、図8(a)に示すように、対象物Oに対して2つの再帰性反射材31,32が取り付けられた状態を想定して説明する。反射材検出部14により、再帰性反射材31,32それぞれの輪郭が抽出される(S24参照)と、再帰性反射材31の重心位置も算出することができる。したがって、例えば、再帰性反射材31,32について、それぞれを矩形近似することにより、再帰性反射材31の重心位置を算出することができる。ここでは、再帰性反射材31の重心位置P1(図8(a)参照)が(Gx1,Gy1)であり、再帰性反射材32の重心位置P2(図8(a)参照)が(Gx2,Gy2)と算出されたとする。なお、重心位置の算出に関する手順は特に限定されず、例えば、矩形近似を行わずに重心位置を算出する構成としてもよい。 Specifically, first, the parameter estimating unit 15 acquires the positional information on the image of the two retroreflective members 3 attached to the object O, and then calculates the barycentric coordinates (S31). Here, as shown in FIG. 8A, the description will be made assuming that two retroreflectors 31 and 32 are attached to the object O. FIG. When the contours of the retroreflectors 31 and 32 are extracted by the reflector detector 14 (see S24), the center-of-gravity position of the retroreflector 31 can also be calculated. Therefore, for example, the position of the center of gravity of the retroreflecting material 31 can be calculated by approximating each of the retroreflecting materials 31 and 32 to a rectangle. Here, the center-of-gravity position P1 (see FIG. 8A) of the retroreflecting material 31 is (G x1 , G y1 ), and the center-of-gravity position P2 of the retroreflecting material 32 (see FIG. 8A) is ( G x2 , G y2 ). Note that the procedure for calculating the center-of-gravity position is not particularly limited, and for example, the configuration may be such that the center-of-gravity position is calculated without performing rectangular approximation.

対象物Oに取り付けられた2つの再帰性反射材31,32の重心位置が算出できると、対象物Oに係るパラメータの推定を進めることができる。具体的には、対象物Oの位置を推定することができる。対象物Oにおける再帰性反射材31,32を取り付け位置は特に限定されないが、例えば、再帰性反射材31,32がそれぞれ対象物Oの中央を挟んだ両端に取り付けられていると想定して、2つの再帰性反射材31,32の間に対象物O(の中央位置)が設けられると仮定して、対象物Oの位置を推定することができる(S32)。このような前提で対象物Oの位置を推定すると、例えば、対象物Oの位置P(G,G)(図8(a)参照)を以下の数式(1)に基づいて算出することができる。

Figure 0007199822000001
If the center-of-gravity positions of the two retroreflectors 31 and 32 attached to the object O can be calculated, estimation of the parameters related to the object O can proceed. Specifically, the position of the object O can be estimated. The positions at which the retroreflecting materials 31 and 32 are attached to the object O are not particularly limited. Assuming that (the central position of) the object O is provided between the two retroreflectors 31 and 32, the position of the object O can be estimated (S32). If the position of the object O is estimated on this premise, for example, the position P (G x , G y ) of the object O (see FIG. 8A) can be calculated based on the following formula (1). can be done.
Figure 0007199822000001

また、2つの再帰性反射材31,32の間に対象物O(の中央位置)が設けられると仮定した場合、再帰性反射材31,32の配置から対象物Oの向き(方向)を推定することもできる(S33)。例えば、対象物Oの向きGθ(図8(a)参照)を以下の数式(2)に基づいて算出することができる。

Figure 0007199822000002
In addition, assuming that the object O (at the center position) is provided between the two retroreflectors 31 and 32, the orientation (direction) of the object O is estimated from the arrangement of the retroreflectors 31 and 32. (S33). For example, the orientation G θ (see FIG. 8A) of the object O can be calculated based on the following formula (2).
Figure 0007199822000002

なお、対象物Oの位置および向きの推定方法は上記に限定されず、適宜変更することができる。再帰性反射材31,32が対象物Oのどのような位置に取り付けられるかに基づいて、対象物Oの位置および向きに係るパラメータの推定方法(数式)を適宜変更することにより、パラメータの推定精度を高めることができる。 Note that the method of estimating the position and orientation of the object O is not limited to the above, and can be changed as appropriate. Parameters can be estimated by appropriately changing the parameter estimation method (formula) relating to the position and orientation of the object O based on the positions of the retroreflective materials 31 and 32 attached to the object O. Accuracy can be improved.

パラメータ推定部15において推定されたパラメータを反映して、表示部16による表示内容を変更することができる(S34)。検出装置1がユーザUに対してVR体験を提供する装置である場合、表示部16は、パラメータ推定部15により推定されたパラメータを、例えばVR環境における特定のキャラクタ(オブジェクト)の動作に紐付けることで、対象物O(再帰性反射材)のパラメータを反映した画像を表示することができる。 The display contents of the display unit 16 can be changed by reflecting the parameters estimated by the parameter estimation unit 15 (S34). When the detection device 1 is a device that provides a VR experience to the user U, the display unit 16 associates the parameters estimated by the parameter estimation unit 15 with, for example, actions of a specific character (object) in the VR environment. Thus, an image reflecting the parameters of the object O (retroreflecting material) can be displayed.

なお、パラメータ推定部15によるパラメータの推定方法は、対象物Oに取り付けられる再帰性反射材の個数等によっても適宜変更される。例えば、対象物Oに取り付けられる再帰性反射材が3以上である場合には、再帰性反射材の数および対象物Oに対する再帰性反射材の取り付け位置等を考慮して、対象物Oの位置および向きなどの対象物Oに係るパラメータを推定する構成とすることが好ましい。 Note that the method of estimating parameters by the parameter estimating unit 15 is appropriately changed depending on the number of retroreflecting materials attached to the object O and the like. For example, when the number of retroreflecting materials attached to the object O is three or more, the position of the object O is It is preferable to estimate the parameters related to the object O such as the direction and direction.

図8(b)に示す例は、図8(a)と比較して、再帰性反射材33が設けられている点が異なる。再帰性反射材33には、対象物Oの構成部品である可動式のカバーCが取り付けられていて、例えば対象物Oの操作者の制御によって再帰性反射材33に対するカバーCの取り外しが可能となっている。このような場合、カバーCの配置によって反射材検出部14が検出する再帰性反射材の数が異なる可能性がある。したがって、パラメータ推定部15では、対象物Oの位置および向きに係るパラメータの推定を行う際に、再帰性反射材33に係る情報は考慮せずに推定を行う態様とすることができる。 The example shown in FIG. 8(b) differs from the example shown in FIG. 8(a) in that a retroreflector 33 is provided. A movable cover C, which is a component of the object O, is attached to the retroreflection material 33. For example, the cover C can be removed from the retroreflection material 33 under the control of the operator of the object O. It's becoming In such a case, the number of retroreflectors detected by the reflector detector 14 may vary depending on the arrangement of the cover C. FIG. Therefore, the parameter estimator 15 can perform the estimation without considering the information on the retroreflector 33 when estimating the parameters related to the position and orientation of the object O. FIG.

なお、検出装置1がユーザUに対してVR体験を提供する装置である場合、図8(b)に示すようなカバーCの取り外しによる検出装置1において検出される再帰性反射材の数の変化を、VR環境においての検出装置1に対する入力インタフェースとして利用する構成としてもよい。 If the detection device 1 is a device that provides a VR experience to the user U, the change in the number of retroreflectors detected in the detection device 1 due to removal of the cover C as shown in FIG. 8(b) may be used as an input interface for the detection device 1 in the VR environment.

また、検出装置1において検出される再帰性反射材の数の変化を実現する方法は、上述のカバーCに限定されない。図9(a)および図9(b)は、PDLC40(polymer dispersed liquid crystal)を用いた再帰性反射材33の例を示している。PDLCとは、液晶に電圧を印加することによって、不透明な白色状態を透明状態にする性質がある。したがって、再帰性反射材33に対してPDLC40を重ねることで、再帰性反射材33を隠す状態を実現することができ、再帰性反射材の数を変化させることができる。具体的には、通常は図9(a)に示すように、再帰性反射材33に対して光が届かない状態としておくことができる。一方、スイッチなどによりPDLCに対する電圧の印加を動的に制御することで、図9(b)に示すように、再帰性反射材33に対して光が到達する状態(反射光を出射可能な状態)とすることが可能となる。このように対象物Oに対して取り付けられる再帰性反射材のうち、検出装置1側で検出する再帰性反射材の数を動的に変化させる構成は、種々の方法で実現することができる。 Further, the method for realizing a change in the number of retroreflectors detected by the detection device 1 is not limited to the cover C described above. FIGS. 9(a) and 9(b) show an example of the retroreflection material 33 using PDLC 40 (polymer dispersed liquid crystal). PDLC has the property of turning an opaque white state into a transparent state by applying a voltage to the liquid crystal. Therefore, by overlapping the PDLC 40 on the retroreflecting material 33, it is possible to hide the retroreflecting material 33 and change the number of the retroreflecting materials. Specifically, normally, as shown in FIG. 9A, the retroreflection material 33 can be kept in a state in which light does not reach it. On the other hand, by dynamically controlling the application of voltage to the PDLC using a switch or the like, a state in which light reaches the retroreflecting material 33 (a state in which reflected light can be emitted) is achieved, as shown in FIG. ). Such a configuration for dynamically changing the number of retroreflectors detected by the detection device 1 among the retroreflectors attached to the object O can be realized by various methods.

以上のように、本実施形態に係る検出装置1および検出方法では、光源部12からの光を再帰性反射材3が取り付けられた対象物Oに対して照射することで、再帰性反射材3からの反射光を撮像部11により撮像する。そして、反射材検出部14において再帰性反射材3を撮像した領域を特定した後に、パラメータ推定部15において、反射材検出部14による検出結果に基づいて、対象物Oの配置に係るパラメータを推定する。上記の検出装置では、撮像部11について特殊な構成等を設ける必要がなく、再帰性反射材3からの反射光を撮像することができる。また、反射材検出部14による再帰性反射材3を撮像した領域の特定およびその結果に基づくパラメータの推定についても、複雑な計算を行うことなく実施することができる。したがって、本実施形態に係る検出装置1および検出方法によれば、より簡便な構成で、撮像した画像から移動する物体を検出することが可能となる。 As described above, in the detecting device 1 and the detecting method according to the present embodiment, by irradiating the object O to which the retroreflecting material 3 is attached with the light from the light source unit 12, the retroreflecting material 3 The image pickup unit 11 picks up the reflected light from the . Then, after the reflecting material detection unit 14 identifies the area where the retroreflecting material 3 is imaged, the parameter estimation unit 15 estimates the parameters related to the placement of the object O based on the detection result of the reflecting material detection unit 14. do. In the above-described detection device, it is possible to capture an image of reflected light from the retroreflection material 3 without providing a special configuration or the like for the imaging section 11 . In addition, specifying the region where the retroreflecting material 3 is imaged by the reflecting material detection unit 14 and estimating the parameters based on the result can also be performed without performing complicated calculations. Therefore, according to the detection device 1 and detection method according to this embodiment, it is possible to detect a moving object from a captured image with a simpler configuration.

また、対象物には、再帰性反射材31,32にように再帰性反射材が複数取り付けられ、撮像部11は、対象物Oに取り付けられた複数の再帰性反射材31,32からの反射光を受光し、パラメータ推定部15は、対象物の配置に係るパラメータとして、対象物Oの位置または向きに係るパラメータを推定する。このような構成とすることで、複数の再帰性反射材を撮像した領域に係る情報に基づいて、対象物Oの位置または向きに係るパラメータを推定することができる。したがって、移動する物体についてより詳細に検出することができる。 In addition, a plurality of retroreflecting materials such as retroreflecting materials 31 and 32 are attached to the object, and the imaging unit 11 detects the reflection from the plurality of retroreflecting materials 31 and 32 attached to the object O. The light is received, and the parameter estimator 15 estimates a parameter related to the position or orientation of the object O as a parameter related to the arrangement of the object. By adopting such a configuration, it is possible to estimate a parameter related to the position or orientation of the object O based on information related to the regions in which a plurality of retroreflecting materials are imaged. Therefore, moving objects can be detected in more detail.

また、反射光の強度に基づいて、撮像部11でのシャッタースピードを変更可能なカメラパラメータ設定部13をさらに有する構成とすることができる。このような構成とすることで、再帰性反射材の材質や光源部12の光量に応じて、シャッタースピードを変更することができるため、再帰性反射材の撮像をより好適に行うことができ、移動する物体の検出精度も高められる。ただし、カメラパラメータ設定部13を設けることに代えて、予めシャッタースピードを固定とする構成としてもよい。その場合でも、撮像部11は再帰性反射材の撮像を行うことができる。 Further, the configuration may further include a camera parameter setting section 13 capable of changing the shutter speed of the imaging section 11 based on the intensity of the reflected light. With such a configuration, the shutter speed can be changed according to the material of the retroreflecting material and the light amount of the light source unit 12, so that the retroreflecting material can be imaged more preferably. Detection accuracy of moving objects is also enhanced. However, instead of providing the camera parameter setting unit 13, the shutter speed may be fixed in advance. Even in that case, the imaging unit 11 can image the retroreflective material.

また、パラメータ推定部15において推定されたパラメータを反映する表示部16をさらに有する構成とすることができる。このような構成とすることで、推定されたパラメータに応じた画像等を表示することが可能となる。ただし、表示部16を有する構成に代えて、例えば、推定されたパラメータを直接外部の装置等へ出力する構成としてもよい。 Moreover, the configuration may further include a display unit 16 that reflects the parameters estimated by the parameter estimation unit 15 . With such a configuration, it is possible to display an image or the like according to the estimated parameters. However, instead of the configuration having the display unit 16, for example, a configuration in which the estimated parameters are directly output to an external device or the like may be employed.

さらに、表示部16は、パラメータ推定部15において推定されたパラメータを、表示部16で表示する特定のオブジェクトに対して反映する構成とすることができる。このような構成とすることで、例えば、対象物O(再帰性反射材)のパラメータを反映して、対象物Oと同様に動作するオブジェクトを表示することが可能となる。 Furthermore, the display unit 16 can be configured to reflect the parameters estimated by the parameter estimation unit 15 on a specific object displayed on the display unit 16 . With such a configuration, for example, it is possible to display an object that behaves similarly to the object O by reflecting the parameters of the object O (retroreflection material).

また、反射材検出部14は、撮像部11での撮像により得られた画像データを二値化することにより、再帰性反射材の輪郭を特定することで、再帰性反射材を撮像した領域を特定することができる。このような構成とすることで、再帰性反射材を撮像した領域を好適に特定することができる。 In addition, the reflector detection unit 14 binarizes the image data obtained by imaging with the imaging unit 11 to specify the contour of the retroreflector, thereby detecting the area where the retroreflector is imaged. can be specified. With such a configuration, it is possible to preferably specify the region where the image of the retroreflecting material is captured.

なお、上記実施形態では、検出装置1が1台の装置により構成されている場合について説明したが、上記の検出装置1に係る機能が複数台の装置に分散配置された構成であってもよい。 In the above embodiment, the case where the detection device 1 is configured by one device has been described, but the functions related to the detection device 1 may be distributed to a plurality of devices. .

また、反射材検出部14による再帰性反射材を撮像した領域の検出方法、および、パラメータ推定部15によるパラメータの推定方法は、上記実施形態で説明した手順に限定されず、適宜変更することができる。
(その他)
Further, the method of detecting an area in which the retroreflecting material is imaged by the reflector detecting unit 14 and the method of estimating parameters by the parameter estimating unit 15 are not limited to the procedures described in the above embodiments, and can be changed as appropriate. can.
(others)

上記実施の形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線)で接続し、これら複数の装置により実現されてもよい。 The block diagrams used in the description of the above embodiments show blocks in functional units. These functional blocks (components) are implemented by any combination of hardware and/or software. Further, means for realizing each functional block is not particularly limited. That is, each functional block may be implemented by one device physically and/or logically coupled, or may be implemented by two or more physically and/or logically separated devices directly and/or indirectly. These multiple devices may be connected together (eg, wired and/or wirelessly).

例えば、本発明の一実施の形態における検出装置1は、本実施形態の検出装置1の処理を行うコンピュータとして機能してもよい。図10は、本実施形態に係る検出装置1のハードウェア構成の一例を示す図である。上述の検出装置1は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。 For example, the detection device 1 according to one embodiment of the present invention may function as a computer that performs the processing of the detection device 1 according to this embodiment. FIG. 10 is a diagram showing an example of the hardware configuration of the detection device 1 according to this embodiment. The detection device 1 described above may be physically configured as a computer device including a processor 1001, a memory 1002, a storage 1003, a communication device 1004, an input device 1005, an output device 1006, a bus 1007, and the like.

なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。検出装置1のハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。 Note that in the following description, the term "apparatus" can be read as a circuit, device, unit, or the like. The hardware configuration of the detection device 1 may be configured to include one or more of the devices shown in the figure, or may be configured without some devices.

検出装置1における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることで、プロセッサ1001が演算を行い、通信装置1004による通信や、メモリ1002及びストレージ1003におけるデータの読み出し及び/又は書き込みを制御することで実現される。 Each function in the detection device 1 is performed by the processor 1001, by loading predetermined software (program) on hardware such as the memory 1002, the processor 1001 performs calculation, communication by the communication device 1004, memory 1002 and storage 1003 It is realized by controlling the reading and/or writing of data in the .

プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインタフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)で構成されてもよい。例えば、検出装置1の各機能は、プロセッサ1001で実現されてもよい。 The processor 1001, for example, operates an operating system to control the entire computer. The processor 1001 may be configured with a central processing unit (CPU) including an interface with peripheral devices, a control device, an arithmetic device, registers, and the like. For example, each function of the detection device 1 may be implemented by the processor 1001 .

また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュールやデータを、ストレージ1003及び/又は通信装置1004からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態で説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、検出装置1の各機能は、メモリ1002に格納され、プロセッサ1001で動作する制御プログラムによって実現されてもよい。上述の各種処理は、1つのプロセッサ1001で実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップで実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。 The processor 1001 also reads programs (program codes), software modules, and data from the storage 1003 and/or the communication device 1004 to the memory 1002, and executes various processes according to them. As the program, a program that causes a computer to execute at least part of the operations described in the above embodiments is used. For example, each function of the detection device 1 may be stored in the memory 1002 and implemented by a control program running on the processor 1001 . Although it has been described that the above-described various processes are executed by one processor 1001, they may be executed by two or more processors 1001 simultaneously or sequentially. Processor 1001 may be implemented with one or more chips. Note that the program may be transmitted from a network via an electric communication line.

メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically ErasableProgrammable ROM)、RAM(Random Access Memory)などの少なくとも1つで構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本発明の一実施の形態に係る方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。 The memory 1002 is a computer-readable recording medium, and is composed of at least one of, for example, ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), and RAM (Random Access Memory). may The memory 1002 may also be called a register, cache, main memory (main storage device), or the like. The memory 1002 can store executable programs (program code), software modules, etc. to perform a method according to an embodiment of the invention.

ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つで構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及び/又はストレージ1003を含むデータベース、サーバその他の適切な媒体であってもよい。 The storage 1003 is a computer-readable recording medium, for example, an optical disc such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disc, a magneto-optical disc (for example, a compact disc, a digital versatile disc, a Blu-ray disk), smart card, flash memory (eg, card, stick, key drive), floppy disk, magnetic strip, and/or the like. Storage 1003 may also be called an auxiliary storage device. The storage medium described above may be, for example, a database, server, or other suitable medium including memory 1002 and/or storage 1003 .

通信装置1004は、有線及び/又は無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。例えば、検出装置1の各機能は、通信装置1004で実現されてもよい。 The communication device 1004 is hardware (transmitting/receiving device) for communicating between computers via a wired and/or wireless network, and is also called a network device, network controller, network card, communication module, or the like. For example, each function of the detection device 1 may be implemented by the communication device 1004 .

入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。 The input device 1005 is an input device (for example, keyboard, mouse, microphone, switch, button, sensor, etc.) that receives input from the outside. The output device 1006 is an output device (eg, display, speaker, LED lamp, etc.) that outputs to the outside. Note that the input device 1005 and the output device 1006 may be integrated (for example, a touch panel).

また、プロセッサ1001やメモリ1002などの各装置は、情報を通信するためのバス1007で接続される。バス1007は、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。 Devices such as the processor 1001 and the memory 1002 are connected by a bus 1007 for communicating information. The bus 1007 may be composed of a single bus, or may be composed of different buses between devices.

また、検出装置1は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つで実装されてもよい。 Further, the detection device 1 includes hardware such as a microprocessor, a digital signal processor (DSP), an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), and an FPGA (Field Programmable Gate Array). may be configured, and a part or all of each functional block may be realized by the hardware. For example, processor 1001 may be implemented with at least one of these hardware.

以上、本実施形態について詳細に説明したが、当業者にとっては、本実施形態が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本実施形態は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本実施形態に対して何ら制限的な意味を有するものではない。 Although the present embodiments have been described in detail above, it will be apparent to those skilled in the art that the present embodiments are not limited to the embodiments described herein. This embodiment can be implemented as modifications and changes without departing from the spirit and scope of the present invention defined by the description of the claims. Therefore, the description in this specification is for the purpose of illustration and explanation, and does not have any restrictive meaning with respect to the present embodiment.

情報の通知は、本明細書で説明した態様/実施形態に限られず、他の方法で行われてもよい。例えば、情報の通知は、物理レイヤシグナリング(例えば、DCI(Downlink Control Information)、UCI(Uplink Control Information))、上位レイヤシグナリング(例えば、RRC(Radio Resource Control)シグナリング、MAC(Medium Access Control)シグナリング、報知情報(MIB(Master Information Block)、SIB(System Information Block)))、その他の信号又はこれらの組み合わせによって実施されてもよい。また、RRCシグナリングは、RRCメッセージと呼ばれてもよく、例えば、RRC接続セットアップ(RRC Connection Setup)メッセージ、RRC接続再構成(RRCConnection Reconfiguration)メッセージなどであってもよい。 Notification of information is not limited to the aspects/embodiments described herein and may be done in other ways. For example, notification of information includes physical layer signaling (e.g., DCI (Downlink Control Information), UCI (Uplink Control Information)), higher layer signaling (e.g., RRC (Radio Resource Control) signaling, MAC (Medium Access Control) signaling, It may be implemented by broadcast information (MIB (Master Information Block), SIB (System Information Block)), other signals, or a combination thereof. RRC signaling may also be called an RRC message, and may be, for example, an RRC connection setup message, an RRC connection reconfiguration message, or the like.

本明細書で説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。 The procedures, sequences, flow charts, etc. of each aspect/embodiment described herein may be interchanged so long as there is no inconsistency. For example, the methods described herein present elements of the various steps in a sample order, and are not limited to the specific order presented.

入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、または追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 Input/output information and the like may be stored in a specific location (for example, memory), or may be managed in a management table. Input/output information and the like may be overwritten, updated, or appended. The output information and the like may be deleted. The entered information and the like may be transmitted to another device.

判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:trueまたはfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 The determination may be made by a value represented by one bit (0 or 1), by a true/false value (Boolean: true or false), or by numerical comparison (for example, a predetermined value).

本明細書で説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。 Each aspect/embodiment described herein may be used alone, in combination, or switched between implementations. In addition, the notification of predetermined information (for example, notification of “being X”) is not limited to being performed explicitly, but may be performed implicitly (for example, not notifying the predetermined information). good too.

ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。 Software, whether referred to as software, firmware, middleware, microcode, hardware description language or otherwise, includes instructions, instruction sets, code, code segments, program code, programs, subprograms, and software modules. , applications, software applications, software packages, routines, subroutines, objects, executables, threads of execution, procedures, functions, and the like.

また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。 Software, instructions, etc. may also be sent and received over a transmission medium. For example, the software can be used to access websites, servers, or other When transmitted from a remote source, these wired and/or wireless technologies are included within the definition of transmission media.

本明細書で説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。 Information, signals, etc. described herein may be represented using any of a variety of different technologies. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description may refer to voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. may be represented by a combination of

なお、本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。 The terms explained in this specification and/or terms necessary for understanding this specification may be replaced with terms having the same or similar meanings.

本明細書で使用する「システム」および「ネットワーク」という用語は、互換的に使用される。 As used herein, the terms "system" and "network" are used interchangeably.

また、本明細書で説明した情報、パラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。 In addition, the information, parameters, etc. described in this specification may be represented by absolute values, may be represented by relative values from a predetermined value, or may be represented by corresponding other information. .

上述したパラメータに使用する名称はいかなる点においても限定的なものではない。さらに、これらのパラメータを使用する数式等は、本明細書で明示的に開示したものと異なる場合もある。 The names used for the parameters described above are not limiting in any way. Further, the formulas, etc. using these parameters may differ from those explicitly disclosed herein.

本明細書で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up)(例えば、テーブル、データベースまたは別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。 As used herein, the terms "determining" and "determining" may encompass a wide variety of actions. "Judgement", "determining" are, for example, judging, calculating, computing, processing, deriving, investigating, looking up (e.g., table , searching in a database or other data structure), regarding ascertaining as "determining" or "determining". Also, "judgment" and "determination" are used for receiving (e.g., receiving information), transmitting (e.g., transmitting information), input, output, access (accessing) (for example, accessing data in memory) may include deeming that a "judgment" or "decision" has been made. In addition, "judgment" and "decision" are considered to be "judgment" and "decision" by resolving, selecting, choosing, establishing, comparing, etc. can contain. In other words, "judgment" and "decision" may include considering that some action is "judgment" and "decision".

「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。本明細書で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及び/又はプリント電気接続を使用することにより、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどの電磁エネルギーを使用することにより、互いに「接続」又は「結合」されると考えることができる。 The terms "connected", "coupled", or any variation thereof, mean any direct or indirect connection or coupling between two or more elements, It can include the presence of one or more intermediate elements between two elements being "connected" or "coupled." Couplings or connections between elements may be physical, logical, or a combination thereof. As used herein, two elements are referred to by the use of one or more wires, cables and/or printed electrical connections and, as some non-limiting and non-exhaustive examples, radio frequency They can be considered to be “connected” or “coupled” to each other through the use of electromagnetic energy, such as electromagnetic energy having wavelengths in the microwave, light (both visible and invisible) regions.

本明細書で使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 As used herein, the phrase "based on" does not mean "based only on," unless expressly specified otherwise. In other words, the phrase "based on" means both "based only on" and "based at least on."

本明細書で「第1の」、「第2の」などの呼称を使用した場合においては、その要素へのいかなる参照も、それらの要素の量または順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。したがって、第1および第2の要素への参照は、2つの要素のみがそこで採用され得ること、または何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。 Where "first," "second," etc. designations are used herein, any reference to such elements does not generally limit the quantity or order of those elements. These designations may be used herein as a convenient method of distinguishing between two or more elements. Thus, references to first and second elements do not imply that only two elements may be employed therein or that the first element must precede the second element in any way.

「含む(include)」、「含んでいる(including)」、およびそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「または(or)」は、排他的論理和ではないことが意図される。 Wherever "include," "including," and variations thereof are used in the specification or claims, these terms are synonymous with the term "comprising." are intended to be inclusive. Furthermore, the term "or" as used in this specification or the claims is not intended to be an exclusive OR.

本明細書において、文脈または技術的に明らかに1つのみしか存在しない装置である場合以外は、複数の装置をも含むものとする。本開示の全体において、文脈から明らかに単数を示したものではなければ、複数のものを含むものとする。 In this specification, plural devices are also included unless the context or technicality clearly dictates that there is only one. Throughout this disclosure, the plural shall be included unless the context clearly indicates the singular.

1…検出装置、3,31,32…再帰性反射材、11…撮像部、12…光源部、13…カメラパラメータ設定部、14…反射材検出部、15…パラメータ推定部、16…表示部。 DESCRIPTION OF SYMBOLS 1... Detection apparatus, 3, 31, 32... Retroreflection material, 11... Imaging part, 12... Light source part, 13... Camera parameter setting part, 14... Reflective material detection part, 15... Parameter estimation part, 16... Display part .

Claims (6)

ユーザが装着するHMDの一部として機能し、前記HMDを介して対象物に係る情報を前記ユーザに対して提示する検出装置であって、
再帰性反射材が貼付された前記対象物に対して光を照射する光源部と、
前記光源部からの光による前記再帰性反射材からの反射光を受光して前記対象物に係る撮像を行う撮像部と、
前記撮像部での撮像により得られた画像データから、前記再帰性反射材を撮像した領域を特定する反射材検出部と、
前記反射材検出部による検出結果に基づいて、前記対象物の配置に係るパラメータを推定するパラメータ推定部と、
前記反射光の強度に基づいて、前記撮像部でのシャッタースピードを変更可能なカメラパラメータ設定部と、
を有する、検出装置。
A detection device that functions as part of an HMD worn by a user and presents information about an object to the user via the HMD,
a light source unit that emits light to the object to which the retroreflecting material is attached;
an imaging unit that receives light reflected from the retroreflective material by the light from the light source unit and performs imaging of the object;
a reflecting material detection unit that identifies an area in which the retroreflecting material is imaged from image data obtained by imaging by the imaging unit;
a parameter estimating unit for estimating a parameter related to the placement of the object based on the detection result of the reflector detecting unit;
a camera parameter setting unit capable of changing the shutter speed of the imaging unit based on the intensity of the reflected light;
A detection device, comprising:
前記対象物には、前記再帰性反射材が複数取り付けられ、
前記撮像部は、前記対象物に取り付けられた複数の前記再帰性反射材からの反射光を受光し、
前記パラメータ推定部は、前記対象物の配置に係るパラメータとして、前記対象物の位置または向きに係るパラメータを推定する、請求項1に記載の検出装置。
A plurality of the retroreflective materials are attached to the object,
The imaging unit receives reflected light from the plurality of retroreflective materials attached to the object,
The detection device according to claim 1, wherein the parameter estimator estimates a parameter related to the position or orientation of the object as the parameter related to the arrangement of the object.
前記パラメータ推定部において推定された前記パラメータを反映する表示部をさらに有する、請求項1または2に記載の検出装置。 3. The detection device according to claim 1 , further comprising a display unit that reflects the parameters estimated in the parameter estimation unit. 前記表示部は、前記パラメータ推定部において推定された前記パラメータを、前記表示部で表示する特定のオブジェクトに対して反映する、請求項3に記載の検出装置。 4. The detection device according to claim 3 , wherein said display unit reflects said parameter estimated by said parameter estimation unit on a specific object displayed on said display unit. 前記反射材検出部は、前記撮像部での撮像により得られた画像データを二値化することにより、前記再帰性反射材の輪郭を特定することで、前記再帰性反射材を撮像した領域を特定する、請求項1~4のいずれか一項に記載の検出装置。 The reflecting material detection unit specifies the contour of the retroreflecting material by binarizing the image data obtained by the imaging by the imaging unit, thereby detecting the area where the retroreflecting material is imaged. A detection device according to any one of claims 1 to 4 , wherein the detection device is specified. ユーザが装着するHMDの一部として機能し、前記HMDを介して対象物に係る情報を前記ユーザに対して提示する検出装置における検出方法であって、
再帰性反射材が貼付された前記対象物に対して光源部から光を照射して、前記光源部からの光による前記再帰性反射材からの反射光を撮像部により受光して前記対象物に係る撮像を行うとともに、前記撮像部は、前記再帰性反射材を撮像した画像において当該再帰性反射材の形状が検出できない場合には、シャッタースピードを変更して再度撮像する、撮像ステップと、
反射材検出部において、前記撮像ステップにおける撮像により得られた画像データから、前記再帰性反射材を撮像した領域を特定する反射材検出ステップと、
前記反射材検出ステップにおける検出結果に基づいて、前記対象物の配置に係るパラメータを推定するパラメータ推定ステップと、
を有する、検出方法。
A detection method in a detection device that functions as part of an HMD worn by a user and presents information related to an object to the user via the HMD, comprising:
Light is emitted from a light source unit to the object to which the retroreflecting material is attached, and light reflected from the retroreflecting material by the light from the light source unit is received by an imaging unit, and is reflected on the object. an imaging step of performing such imaging, and performing imaging again by changing the shutter speed when the shape of the retroreflecting material cannot be detected in the image obtained by imaging the retroreflecting material;
a reflecting material detection step of identifying an area where the retroreflecting material is imaged from the image data obtained by imaging in the imaging step in the reflecting material detection unit;
a parameter estimating step of estimating a parameter related to the placement of the object based on the detection result of the reflector detecting step;
A detection method comprising:
JP2018072516A 2018-04-04 2018-04-04 Detection device and detection method Active JP7199822B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018072516A JP7199822B2 (en) 2018-04-04 2018-04-04 Detection device and detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018072516A JP7199822B2 (en) 2018-04-04 2018-04-04 Detection device and detection method

Publications (2)

Publication Number Publication Date
JP2019184312A JP2019184312A (en) 2019-10-24
JP7199822B2 true JP7199822B2 (en) 2023-01-06

Family

ID=68340697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018072516A Active JP7199822B2 (en) 2018-04-04 2018-04-04 Detection device and detection method

Country Status (1)

Country Link
JP (1) JP7199822B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001201455A (en) 2000-01-20 2001-07-27 Matsushita Electric Works Ltd Method and apparatus for inspection of surface defect of sheet-like material
JP2005253505A (en) 2004-03-09 2005-09-22 Yokohama Rubber Co Ltd:The Moving object measuring apparatus
JP2009134677A (en) 2007-02-28 2009-06-18 Fuji Xerox Co Ltd Gesture interface system, wand for gesture input, application control method, camera calibration method, and control program
JP2010050757A (en) 2008-08-21 2010-03-04 Kwansei Gakuin Information providing method and information providing system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001201455A (en) 2000-01-20 2001-07-27 Matsushita Electric Works Ltd Method and apparatus for inspection of surface defect of sheet-like material
JP2005253505A (en) 2004-03-09 2005-09-22 Yokohama Rubber Co Ltd:The Moving object measuring apparatus
JP2009134677A (en) 2007-02-28 2009-06-18 Fuji Xerox Co Ltd Gesture interface system, wand for gesture input, application control method, camera calibration method, and control program
JP2010050757A (en) 2008-08-21 2010-03-04 Kwansei Gakuin Information providing method and information providing system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
中里 祐介外2名,「ウェアラブル拡張現実感のための不可視マーカと赤外線カメラを用いた位置・姿勢推定」,日本バーチャルリアリティ学会論文誌,10巻、3号,日本,The Virtual Reality Society of Japan,2005年09月30日,295-304

Also Published As

Publication number Publication date
JP2019184312A (en) 2019-10-24

Similar Documents

Publication Publication Date Title
CN110248085B (en) Apparatus and method for object boundary stabilization in images of an image sequence
KR101916355B1 (en) Photographing method of dual-lens device, and dual-lens device
JP6075122B2 (en) System, image projection apparatus, information processing apparatus, information processing method, and program
EP3896643A1 (en) Image processing apparatus and control method thereof
CN112633181B (en) Data processing method, system, device, equipment and medium
CN109218621B (en) Image processing method, device, storage medium and mobile terminal
JP2017504017A (en) Measuring instrument, system, and program
US20210044756A1 (en) Display and imaging device
US11574415B2 (en) Method and apparatus for determining an icon position
JP5625839B2 (en) Projector device, position detection program, and projector system
US10694110B2 (en) Image processing device, method
CN109040729B (en) Image white balance correction method and device, storage medium and terminal
CN109886864B (en) Privacy mask processing method and device
US10489621B2 (en) Reading device and mobile terminal
JP7199822B2 (en) Detection device and detection method
US11081516B2 (en) Display screen, electronic device and method for three-dimensional feature recognition
KR102655532B1 (en) Electronic device and method for acquiring biometric information using light of display
JP2015184906A (en) Skin color detection condition determination device, skin color detection condition determination method and skin color detection condition determination computer program
JPWO2018011928A1 (en) Image processing apparatus, operation method of image processing apparatus, and operation program of image processing apparatus
US20210074010A1 (en) Image-Processing Method and Electronic Device
JP4451195B2 (en) Gaze detection device
CN111656766B (en) Apparatus for image-based service
JP2019068932A (en) Visual line detection device and visual line detection program
JPWO2019159759A1 (en) Operation detection device and operation detection method
US20230419735A1 (en) Information processing device, information processing method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221221

R150 Certificate of patent or registration of utility model

Ref document number: 7199822

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150