JP7199822B2 - Detection device and detection method - Google Patents
Detection device and detection method Download PDFInfo
- Publication number
- JP7199822B2 JP7199822B2 JP2018072516A JP2018072516A JP7199822B2 JP 7199822 B2 JP7199822 B2 JP 7199822B2 JP 2018072516 A JP2018072516 A JP 2018072516A JP 2018072516 A JP2018072516 A JP 2018072516A JP 7199822 B2 JP7199822 B2 JP 7199822B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- imaging
- detection
- detection device
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Description
本発明は、検出装置および検出方法に関する。 The present invention relates to a detection device and detection method.
何らかの動作を行う物体をカメラで検出する方法として、例えば、特許文献1では、近赤外光を用いた光学式モーションキャプチャが知られている。
As a method for detecting an object that performs some action with a camera, for example,
また、撮像により得られた画像からの対象物の検出精度を高める方法として、特許文献2では、画像の各画素の色に着目した検出を行う方法が開示されている。また、特許文献3では、背景差分法を用いて対象物を検出する方法が開示されている。
Further, as a method for improving the detection accuracy of an object from an image obtained by imaging,
近年、スマートフォン等に搭載されたカメラなどを利用して、素早く移動する物体を検出したいというニーズがある。しかしながら、特許文献1記載の方法は近赤外光を利用するため、特別な機構等を追加する必要がある。また、特許文献2に記載の方法、および、特許文献3に記載の方法は、いずれも、対象物を検出するための画像処理が従来のカメラと比べて増大するため、画像処理を実行するためのソフトウェアの実装コストが増大する可能性がある。また、特許文献2に記載の方法、および、特許文献3に記載の方法は、いずれも、対象物の移動速度が速い場合に対象物を精度良く検出できない可能性も考えられる。
In recent years, there is a need to detect rapidly moving objects using cameras mounted on smartphones and the like. However, since the method described in
本発明は上記を鑑みてなされたものであり、より簡便な構成で、撮像した画像から移動する物体を検出することが可能な検出装置および検出方法を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a detection apparatus and a detection method capable of detecting a moving object from a captured image with a simpler configuration.
上記目的を達成するため、本発明の一形態に係る検出装置は、再帰性反射材が貼付された対象物に対して光を照射する光源部と、前記光源部からの光による前記再帰性反射材からの反射光を受光して前記対象物に係る撮像を行う撮像部と、前記撮像部での撮像により得られた画像データから、前記再帰性反射材を撮像した領域を特定する反射材検出部と、前記反射材検出部による検出結果に基づいて、前記対象物の配置に係るパラメータを推定するパラメータ推定部と、を有する。 In order to achieve the above object, a detection device according to one aspect of the present invention includes a light source unit that irradiates light onto an object to which a retroreflecting material is attached, and the retroreflection by the light from the light source unit. an imaging unit that receives reflected light from a material and captures an image of the object; and reflector detection that specifies an area where the retroreflective material is captured from image data obtained by imaging by the imaging unit. and a parameter estimation unit for estimating a parameter related to the arrangement of the object based on the detection result of the reflector detection unit.
また、本発明の一形態に係る検出方法は、再帰性反射材が貼付された対象物に対して光源部から光を照射して、前記光源部からの光による前記再帰性反射材からの反射光を撮像部により受光して前記対象物に係る撮像を行う撮像ステップと、反射材検出部において、前記撮像ステップにおける撮像により得られた画像データから、前記再帰性反射材を撮像した領域を特定する反射材検出ステップと、前記反射材検出ステップにおける検出結果に基づいて、前記対象物の配置に係るパラメータを推定するパラメータ推定ステップと、を有する。 Further, the detection method according to one aspect of the present invention includes irradiating an object to which a retroreflecting material is attached with light from a light source, and reflecting light from the retroreflecting material from the light source. An imaging step of receiving light by an imaging unit to capture an image of the object, and a reflector detecting unit specifying an area in which the retroreflecting material is imaged from image data obtained by imaging in the imaging step. and a parameter estimation step of estimating a parameter relating to the arrangement of the object based on the detection result in the reflector detection step.
本発明によれば、より簡便な構成で、撮像した画像から移動する物体を検出することが可能な検出装置および検出方法が提供される。 ADVANTAGE OF THE INVENTION According to this invention, the detection apparatus and detection method which can detect a moving object from the imaged image by simpler structure are provided.
以下、添付図面を参照して、本発明を実施するための形態を詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and overlapping descriptions are omitted.
図1は、本発明の一実施形態に係る検出装置1の使用例を説明する図である。また、図2は、検出装置1の機能を説明するブロック図である。検出装置1は、例えば、スマートフォン等の携帯端末として実現される。また、検出装置1がスマートフォンである場合、検出装置1としての機能は、例えば、スマートフォンを用いてユーザに対してあたかも当該ユーザが仮想空間上に存在するかのような視界を提供することにより、仮想空間に没入させる仮想現実(VR:Virtual Reality)体験を提供する際に使用することができる。ただし、検出装置1としての機能は上記の用途以外にも適用できる。
FIG. 1 is a diagram illustrating a usage example of a
図1では、検出装置1がユーザUの装着するHMD(Head Mounted Display)2の一部として機能する例を示している。HMD2としては、公知のHMDを用いることができる。検出装置1は、検出の対象となる対象物Oを撮像し、この対象物Oを検出する機能を有する。対象物Oには、再帰性反射材3が貼付される。そして、対象物Oに対して検出装置1から光を照射することで、再帰性反射材3により反射された光を検出装置1により検出することで、対象物Oを検出する。また、検出された対象物Oに係る情報は、検出装置1のモニタ等に表示されることで、HMD2を介してユーザに提示される。
FIG. 1 shows an example in which the
対象物Oについては特に限定されず、例えば、ペットボトルなどの身の回りの物体、3Dプリンタなどにより制作されるオリジナルな物体、人体などが挙げられる。また、対象物Oに取り付け(貼付)される再帰性反射材3としては、例えば、カプセルレンズ型、封入レンズ型、露出レンズ型等の公知の再帰性反射材を適宜選択して使用することができる。なお、対象物Oに対して複数の再帰性反射材3が互いに離間して取り付けられることができる。複数の再帰性反射材3を対象物Oに取り付けた場合、複数の再帰性反射材3の配置から、対象物Oの位置および向き等を特定することが可能となる。この点については後述する。
The object O is not particularly limited, and examples thereof include familiar objects such as plastic bottles, original objects produced by a 3D printer, and human bodies. In addition, as the
図2に示すように、検出装置1は、撮像部11、光源部12、カメラパラメータ設定部13、反射材検出部14、パラメータ推定部15、および、表示部16を含んで構成される。
As shown in FIG. 2 , the
撮像部11は、対象物Oを撮像する機能を有する。撮像部11としては、例えば、RGBカメラを用いることができる。撮像部11として、スマートフォン等の携帯端末に一般的に搭載されているRGBカメラを使用することができる。ただし、RGBカメラとは異なる種類のカメラを用いてもよい。また、撮像部11は、対象物Oに係る画像を静止画像として取得してもよいし、動画像として取得してもよい。
The
光源部12は、対象物Oに対して光を照射する機能を有する。光源部12としては、例えば、フラッシュライト(懐中電灯)を用いることができる。光源部12から照射される光の波長は特に限定されないが、光源部12から照射される光には、撮像部11が検出可能な波長帯の光を含むことが求められる。光源部12として、スマートフォン等の携帯端末に一般的に搭載されているフラッシュライトを使用することができる。撮像部11および光源部12は、図1に示すように検出装置1の外側に設けられる。
The
カメラパラメータ設定部13は、撮像部11および光源部12に係る各種設定を行う機能を有する。カメラパラメータ設定部13は、例えば、撮像部11における対象物Oの撮像時のシャッタースピードの設定変更、光源部12による光の出射/停止の切り替え等を制御する。カメラパラメータ設定部13の設定に基づいて、光源部12が対象物Oに対して光を照射し、再帰性反射材3からの反射光を撮像部11により撮像する。
The camera
反射材検出部14は、撮像部11が撮像した画像から、再帰性反射材3を撮像した領域を特定する機能を有する。詳細は後述するが、反射材検出部14により再帰性反射材3を撮像した領域を特定することで、対象物Oの位置等を特定可能となる。
The
パラメータ推定部15は、反射材検出部14により特定された再帰性反射材3の撮像領域等の情報に基づいて、対象物Oの配置に係るパラメータを推定する機能を有する。対象物Oの配置に係るパラメータとは、例えば、対象物Oの位置および向きを特定するパラメータが挙げられるがこれらに限定されるものではない。パラメータの具体的な推定方法は後述する。
The parameter estimating
表示部16は、例えばモニタ等から構成され、パラメータ推定部15により推定されたパラメータに係る情報を表示する機能を有する。また、撮像部11において撮像された画像をそのまま表示部16において表示する構成としてもよい。また、検出装置1がユーザUに対してVR体験を提供する装置である場合、表示部16は、ユーザUに対してVR体験を提示するための画像を表示する。その際に、表示部16は、パラメータ推定部15により推定されたパラメータに基づく画像を表示する。
The
次に、図3および図4~図6を参照しながら、検出装置1による対象物Oの検出方法を説明する。図3は、検出装置1による対象物Oの検出に係る一連の処理の概略を説明する図である。また、図4~図6は、各ステップにおいて行われる処理の詳細を説明する図である。
Next, a method of detecting the object O by the
検出装置1は、まず、再帰性反射材3が取り付けられた対象物Oの撮像を行う(S01:撮像ステップ)。具体的には、光源部12が対象物Oに対して光を照射した際に、撮像部11が再帰性反射材3からの反射光を撮像する。この結果、再帰性反射材3からの反射光が撮像された画像データが得られる。次に、反射材検出部14により、撮像部11による画像データから再帰性反射材3が撮像された領域を特定することで、対象物Oを検出する(S02:反射材検出ステップ)。次に、パラメータ推定部15により、対象物Oの配置に関するパラメータの推定を行う(S03:パラメータ推定ステップ)。そして、推定結果が表示部16により表示される(S04:表示ステップ)。以下、具体的に説明する。
The
撮像部11による撮像(S01)の際のカメラパラメータ設定部13によるパラメータ調整に係る処理の流れを図4に示す。カメラパラメータ設定部13では、撮像部11による撮像時のシャッタースピードを0.5ms~1ms程度に設定する(S11)。このシャッタースピードは、撮像部11がRGBカメラである場合の値である。また、上記のシャッタースピードはRGBカメラでの一般的なシャッタースピードよりも速い。シャッタースピードを上記の値に設定することで、対象物Oが素早く移動した場合でも、画像に生じるブレ等が低減することができる。また、上記のシャッタースピードに設定した場合、撮像部11が受光する光の光量は低減するため、得られる画像は通常のシャッタースピードの場合よりも暗くなる。これに対して、カメラパラメータ設定部13では、光源部12に関しては、撮像部11による撮像が行われる間を光源部12から対象物Oに対して光を常時照射する構成とする(S12)。このような構成とすることで、再帰性反射材3は光源部12からの光に対して反射光を出射するため、撮像部11では、再帰性反射材3以外の物体は暗く撮像されるが、再帰性反射材3については光量が十分に確保できた状態で撮像することができる。なお、シャッタースピードの設定(S11)と、光源部12の常時照射に係る制御(S12)と、は実行順序を変更してもよい。
FIG. 4 shows the flow of processing related to parameter adjustment by the camera
次に、撮像部11により取得された画像データにおける対象物Oの検出(S02)に係る処理の流れを図5に示す。上述したように、撮像部11による対象物Oの撮像時には、シャッタースピードを速くして撮像部11が受光する光量を低減すると共に、光源部12から対象物Oに対して光を照射することで、再帰性反射材3からの反射光についてはその光量を確保する。このような構成とすることで、再帰性反射材3の検出を好適に行うことができる。ただし、光量によっては再帰性反射材3の検出が適切に行われない可能性がある。そこで、撮像部11が撮像した画像データから、再帰性反射材3を撮像した領域を特定する際に、撮像部11が受光した光量が適切ではなく再帰性反射材3を撮像した領域の特定が困難である場合には、シャッタースピードを調整して再度撮像を行う(S21)。図7(a)、図7(b)、および図7(c)は、シャッタースピードの違いにより、再帰性反射材3の形状がどのように画像データに現れるかを示した例である。図7(a)は、撮像部11によるシャッタースピードが、再帰性反射材3の撮像に対して適切な範囲よりも遅い場合(例えば、10ms以上)の画像の例を示した図である。シャッタースピードが適切な範囲よりも遅い場合、撮像部11で撮像された画像には、再帰性反射材3を撮像した領域A以外の物体の形状等の情報も含まれる。図7(b)は、撮像部11によるシャッタースピードが、再帰性反射材3の撮像に対して適切な範囲である場合(例えば、0.5ms~1ms)の画像の例を示した図である。シャッタースピードが適切な範囲である場合、撮像部11で撮像された画像には、再帰性反射材3を撮像した領域A’以外には、物体の形状等の情報が含まれない状態となる。図7(c)は、撮像部11によるシャッタースピードが、再帰性反射材3の撮像に対して適切な範囲よりも速い場合(例えば、0.2ms以下)の画像の例を示した図である。シャッタースピードが適切な範囲よりも速い場合、撮像部11では、再帰性反射材3の形状を認識できない程度の光量しか受光できない。したがって、撮像部11で撮像された画像には、再帰性反射材3の形状が認識できない程度の領域A’’が示された状態となる。
Next, FIG. 5 shows the flow of processing related to the detection of the object O in the image data acquired by the imaging unit 11 (S02). As described above, when the
このように、シャッタースピードによって、得られた画像データ中の再帰性反射材3の形状が適切に検出できるかが変わる可能性がある。そこで、所定のシャッタースピードで撮像された画像データに基づいて、シャッタースピードを微調整して再度撮像を行ってもよい。
As described above, the shutter speed may change whether the shape of the
なお、シャッタースピードの微調整は、検出装置1のユーザUが行ってもよいし、検出装置1のカメラパラメータ設定部13が、撮像された画像データに基づいて再撮像の要否を判定する構成としてもよい。
The fine adjustment of the shutter speed may be performed by the user U of the
次に、反射材検出部14では、撮像部11で撮像された画像データを取得する(S22)。この段階では、ソフトウェア処理を軽減させるために、グレイスケール画像を扱うこととしてもよい。次に、グレイスケールの画像を二値化し、二値画像を取得する(S23)。グレイスケールの画像を構成する各画素に対し、輝度の閾値を設けて、この閾値を利用して二値化する。例えば、輝度の値の範囲が0以上255以下となっている場合に、閾値を200とし、輝度が200未満の画素は輝度を0とし、輝度が200以上の画素は輝度を255として取り扱う。画像を二値化することで、シャッタースピードや光量の調整が適切に行われている場合、再帰性反射材3からの反射光を受光した画素と、それ以外を区別することができる。
Next, the
次に、二値化した画像を利用して、撮像した物体の輪郭を抽出する(S24)。輪郭を抽出した領域の面積が閾値以上(例えば、480×320ピクセルの画像において、20ピクセル)の場合には、当該領域が再帰性反射材3を撮像した領域、すなわち、再帰性反射材3が取り付けられた対象物Oを撮像した領域として検出される(S25)。
Next, the binarized image is used to extract the contour of the captured object (S24). If the area of the contour-extracted region is greater than or equal to the threshold value (for example, 20 pixels in a 480×320 pixel image), the region is the region where the
次に、パラメータ推定部15による対象物Oの位置に関するパラメータの推定(S03)について、図6を参照しながら説明する。
Next, the parameter estimation (S03) regarding the position of the object O by the
反射材検出部14により、対象物Oに取り付けられた再帰性反射材3を撮像した領域が特定されることで、検出装置1側では、再帰性反射材3の位置を特定することができる。したがって、再帰性反射材3の位置に係る情報を利用して、検出装置1では、対象物Oの形状等に係るパラメータを推測可能となる。
The position of the
具体的には、まず、パラメータ推定部15では、対象物Oに取り付けられた2つの再帰性反射材3の画像上での位置情報を取得した上で、その重心座標を算出する(S31)。ここでは、図8(a)に示すように、対象物Oに対して2つの再帰性反射材31,32が取り付けられた状態を想定して説明する。反射材検出部14により、再帰性反射材31,32それぞれの輪郭が抽出される(S24参照)と、再帰性反射材31の重心位置も算出することができる。したがって、例えば、再帰性反射材31,32について、それぞれを矩形近似することにより、再帰性反射材31の重心位置を算出することができる。ここでは、再帰性反射材31の重心位置P1(図8(a)参照)が(Gx1,Gy1)であり、再帰性反射材32の重心位置P2(図8(a)参照)が(Gx2,Gy2)と算出されたとする。なお、重心位置の算出に関する手順は特に限定されず、例えば、矩形近似を行わずに重心位置を算出する構成としてもよい。
Specifically, first, the
対象物Oに取り付けられた2つの再帰性反射材31,32の重心位置が算出できると、対象物Oに係るパラメータの推定を進めることができる。具体的には、対象物Oの位置を推定することができる。対象物Oにおける再帰性反射材31,32を取り付け位置は特に限定されないが、例えば、再帰性反射材31,32がそれぞれ対象物Oの中央を挟んだ両端に取り付けられていると想定して、2つの再帰性反射材31,32の間に対象物O(の中央位置)が設けられると仮定して、対象物Oの位置を推定することができる(S32)。このような前提で対象物Oの位置を推定すると、例えば、対象物Oの位置P(Gx,Gy)(図8(a)参照)を以下の数式(1)に基づいて算出することができる。
また、2つの再帰性反射材31,32の間に対象物O(の中央位置)が設けられると仮定した場合、再帰性反射材31,32の配置から対象物Oの向き(方向)を推定することもできる(S33)。例えば、対象物Oの向きGθ(図8(a)参照)を以下の数式(2)に基づいて算出することができる。
なお、対象物Oの位置および向きの推定方法は上記に限定されず、適宜変更することができる。再帰性反射材31,32が対象物Oのどのような位置に取り付けられるかに基づいて、対象物Oの位置および向きに係るパラメータの推定方法(数式)を適宜変更することにより、パラメータの推定精度を高めることができる。
Note that the method of estimating the position and orientation of the object O is not limited to the above, and can be changed as appropriate. Parameters can be estimated by appropriately changing the parameter estimation method (formula) relating to the position and orientation of the object O based on the positions of the
パラメータ推定部15において推定されたパラメータを反映して、表示部16による表示内容を変更することができる(S34)。検出装置1がユーザUに対してVR体験を提供する装置である場合、表示部16は、パラメータ推定部15により推定されたパラメータを、例えばVR環境における特定のキャラクタ(オブジェクト)の動作に紐付けることで、対象物O(再帰性反射材)のパラメータを反映した画像を表示することができる。
The display contents of the
なお、パラメータ推定部15によるパラメータの推定方法は、対象物Oに取り付けられる再帰性反射材の個数等によっても適宜変更される。例えば、対象物Oに取り付けられる再帰性反射材が3以上である場合には、再帰性反射材の数および対象物Oに対する再帰性反射材の取り付け位置等を考慮して、対象物Oの位置および向きなどの対象物Oに係るパラメータを推定する構成とすることが好ましい。
Note that the method of estimating parameters by the
図8(b)に示す例は、図8(a)と比較して、再帰性反射材33が設けられている点が異なる。再帰性反射材33には、対象物Oの構成部品である可動式のカバーCが取り付けられていて、例えば対象物Oの操作者の制御によって再帰性反射材33に対するカバーCの取り外しが可能となっている。このような場合、カバーCの配置によって反射材検出部14が検出する再帰性反射材の数が異なる可能性がある。したがって、パラメータ推定部15では、対象物Oの位置および向きに係るパラメータの推定を行う際に、再帰性反射材33に係る情報は考慮せずに推定を行う態様とすることができる。
The example shown in FIG. 8(b) differs from the example shown in FIG. 8(a) in that a
なお、検出装置1がユーザUに対してVR体験を提供する装置である場合、図8(b)に示すようなカバーCの取り外しによる検出装置1において検出される再帰性反射材の数の変化を、VR環境においての検出装置1に対する入力インタフェースとして利用する構成としてもよい。
If the
また、検出装置1において検出される再帰性反射材の数の変化を実現する方法は、上述のカバーCに限定されない。図9(a)および図9(b)は、PDLC40(polymer dispersed liquid crystal)を用いた再帰性反射材33の例を示している。PDLCとは、液晶に電圧を印加することによって、不透明な白色状態を透明状態にする性質がある。したがって、再帰性反射材33に対してPDLC40を重ねることで、再帰性反射材33を隠す状態を実現することができ、再帰性反射材の数を変化させることができる。具体的には、通常は図9(a)に示すように、再帰性反射材33に対して光が届かない状態としておくことができる。一方、スイッチなどによりPDLCに対する電圧の印加を動的に制御することで、図9(b)に示すように、再帰性反射材33に対して光が到達する状態(反射光を出射可能な状態)とすることが可能となる。このように対象物Oに対して取り付けられる再帰性反射材のうち、検出装置1側で検出する再帰性反射材の数を動的に変化させる構成は、種々の方法で実現することができる。
Further, the method for realizing a change in the number of retroreflectors detected by the
以上のように、本実施形態に係る検出装置1および検出方法では、光源部12からの光を再帰性反射材3が取り付けられた対象物Oに対して照射することで、再帰性反射材3からの反射光を撮像部11により撮像する。そして、反射材検出部14において再帰性反射材3を撮像した領域を特定した後に、パラメータ推定部15において、反射材検出部14による検出結果に基づいて、対象物Oの配置に係るパラメータを推定する。上記の検出装置では、撮像部11について特殊な構成等を設ける必要がなく、再帰性反射材3からの反射光を撮像することができる。また、反射材検出部14による再帰性反射材3を撮像した領域の特定およびその結果に基づくパラメータの推定についても、複雑な計算を行うことなく実施することができる。したがって、本実施形態に係る検出装置1および検出方法によれば、より簡便な構成で、撮像した画像から移動する物体を検出することが可能となる。
As described above, in the detecting
また、対象物には、再帰性反射材31,32にように再帰性反射材が複数取り付けられ、撮像部11は、対象物Oに取り付けられた複数の再帰性反射材31,32からの反射光を受光し、パラメータ推定部15は、対象物の配置に係るパラメータとして、対象物Oの位置または向きに係るパラメータを推定する。このような構成とすることで、複数の再帰性反射材を撮像した領域に係る情報に基づいて、対象物Oの位置または向きに係るパラメータを推定することができる。したがって、移動する物体についてより詳細に検出することができる。
In addition, a plurality of retroreflecting materials such as
また、反射光の強度に基づいて、撮像部11でのシャッタースピードを変更可能なカメラパラメータ設定部13をさらに有する構成とすることができる。このような構成とすることで、再帰性反射材の材質や光源部12の光量に応じて、シャッタースピードを変更することができるため、再帰性反射材の撮像をより好適に行うことができ、移動する物体の検出精度も高められる。ただし、カメラパラメータ設定部13を設けることに代えて、予めシャッタースピードを固定とする構成としてもよい。その場合でも、撮像部11は再帰性反射材の撮像を行うことができる。
Further, the configuration may further include a camera
また、パラメータ推定部15において推定されたパラメータを反映する表示部16をさらに有する構成とすることができる。このような構成とすることで、推定されたパラメータに応じた画像等を表示することが可能となる。ただし、表示部16を有する構成に代えて、例えば、推定されたパラメータを直接外部の装置等へ出力する構成としてもよい。
Moreover, the configuration may further include a
さらに、表示部16は、パラメータ推定部15において推定されたパラメータを、表示部16で表示する特定のオブジェクトに対して反映する構成とすることができる。このような構成とすることで、例えば、対象物O(再帰性反射材)のパラメータを反映して、対象物Oと同様に動作するオブジェクトを表示することが可能となる。
Furthermore, the
また、反射材検出部14は、撮像部11での撮像により得られた画像データを二値化することにより、再帰性反射材の輪郭を特定することで、再帰性反射材を撮像した領域を特定することができる。このような構成とすることで、再帰性反射材を撮像した領域を好適に特定することができる。
In addition, the
なお、上記実施形態では、検出装置1が1台の装置により構成されている場合について説明したが、上記の検出装置1に係る機能が複数台の装置に分散配置された構成であってもよい。
In the above embodiment, the case where the
また、反射材検出部14による再帰性反射材を撮像した領域の検出方法、および、パラメータ推定部15によるパラメータの推定方法は、上記実施形態で説明した手順に限定されず、適宜変更することができる。
(その他)
Further, the method of detecting an area in which the retroreflecting material is imaged by the
(others)
上記実施の形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線)で接続し、これら複数の装置により実現されてもよい。 The block diagrams used in the description of the above embodiments show blocks in functional units. These functional blocks (components) are implemented by any combination of hardware and/or software. Further, means for realizing each functional block is not particularly limited. That is, each functional block may be implemented by one device physically and/or logically coupled, or may be implemented by two or more physically and/or logically separated devices directly and/or indirectly. These multiple devices may be connected together (eg, wired and/or wirelessly).
例えば、本発明の一実施の形態における検出装置1は、本実施形態の検出装置1の処理を行うコンピュータとして機能してもよい。図10は、本実施形態に係る検出装置1のハードウェア構成の一例を示す図である。上述の検出装置1は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。
For example, the
なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。検出装置1のハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。
Note that in the following description, the term "apparatus" can be read as a circuit, device, unit, or the like. The hardware configuration of the
検出装置1における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることで、プロセッサ1001が演算を行い、通信装置1004による通信や、メモリ1002及びストレージ1003におけるデータの読み出し及び/又は書き込みを制御することで実現される。
Each function in the
プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインタフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)で構成されてもよい。例えば、検出装置1の各機能は、プロセッサ1001で実現されてもよい。
The
また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュールやデータを、ストレージ1003及び/又は通信装置1004からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態で説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、検出装置1の各機能は、メモリ1002に格納され、プロセッサ1001で動作する制御プログラムによって実現されてもよい。上述の各種処理は、1つのプロセッサ1001で実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップで実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。
The
メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically ErasableProgrammable ROM)、RAM(Random Access Memory)などの少なくとも1つで構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本発明の一実施の形態に係る方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。
The
ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つで構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及び/又はストレージ1003を含むデータベース、サーバその他の適切な媒体であってもよい。
The
通信装置1004は、有線及び/又は無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。例えば、検出装置1の各機能は、通信装置1004で実現されてもよい。
The
入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。
The
また、プロセッサ1001やメモリ1002などの各装置は、情報を通信するためのバス1007で接続される。バス1007は、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。
Devices such as the
また、検出装置1は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つで実装されてもよい。
Further, the
以上、本実施形態について詳細に説明したが、当業者にとっては、本実施形態が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本実施形態は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本実施形態に対して何ら制限的な意味を有するものではない。 Although the present embodiments have been described in detail above, it will be apparent to those skilled in the art that the present embodiments are not limited to the embodiments described herein. This embodiment can be implemented as modifications and changes without departing from the spirit and scope of the present invention defined by the description of the claims. Therefore, the description in this specification is for the purpose of illustration and explanation, and does not have any restrictive meaning with respect to the present embodiment.
情報の通知は、本明細書で説明した態様/実施形態に限られず、他の方法で行われてもよい。例えば、情報の通知は、物理レイヤシグナリング(例えば、DCI(Downlink Control Information)、UCI(Uplink Control Information))、上位レイヤシグナリング(例えば、RRC(Radio Resource Control)シグナリング、MAC(Medium Access Control)シグナリング、報知情報(MIB(Master Information Block)、SIB(System Information Block)))、その他の信号又はこれらの組み合わせによって実施されてもよい。また、RRCシグナリングは、RRCメッセージと呼ばれてもよく、例えば、RRC接続セットアップ(RRC Connection Setup)メッセージ、RRC接続再構成(RRCConnection Reconfiguration)メッセージなどであってもよい。 Notification of information is not limited to the aspects/embodiments described herein and may be done in other ways. For example, notification of information includes physical layer signaling (e.g., DCI (Downlink Control Information), UCI (Uplink Control Information)), higher layer signaling (e.g., RRC (Radio Resource Control) signaling, MAC (Medium Access Control) signaling, It may be implemented by broadcast information (MIB (Master Information Block), SIB (System Information Block)), other signals, or a combination thereof. RRC signaling may also be called an RRC message, and may be, for example, an RRC connection setup message, an RRC connection reconfiguration message, or the like.
本明細書で説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。 The procedures, sequences, flow charts, etc. of each aspect/embodiment described herein may be interchanged so long as there is no inconsistency. For example, the methods described herein present elements of the various steps in a sample order, and are not limited to the specific order presented.
入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、または追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 Input/output information and the like may be stored in a specific location (for example, memory), or may be managed in a management table. Input/output information and the like may be overwritten, updated, or appended. The output information and the like may be deleted. The entered information and the like may be transmitted to another device.
判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:trueまたはfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 The determination may be made by a value represented by one bit (0 or 1), by a true/false value (Boolean: true or false), or by numerical comparison (for example, a predetermined value).
本明細書で説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。 Each aspect/embodiment described herein may be used alone, in combination, or switched between implementations. In addition, the notification of predetermined information (for example, notification of “being X”) is not limited to being performed explicitly, but may be performed implicitly (for example, not notifying the predetermined information). good too.
ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。 Software, whether referred to as software, firmware, middleware, microcode, hardware description language or otherwise, includes instructions, instruction sets, code, code segments, program code, programs, subprograms, and software modules. , applications, software applications, software packages, routines, subroutines, objects, executables, threads of execution, procedures, functions, and the like.
また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。 Software, instructions, etc. may also be sent and received over a transmission medium. For example, the software can be used to access websites, servers, or other When transmitted from a remote source, these wired and/or wireless technologies are included within the definition of transmission media.
本明細書で説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。 Information, signals, etc. described herein may be represented using any of a variety of different technologies. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description may refer to voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. may be represented by a combination of
なお、本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。 The terms explained in this specification and/or terms necessary for understanding this specification may be replaced with terms having the same or similar meanings.
本明細書で使用する「システム」および「ネットワーク」という用語は、互換的に使用される。 As used herein, the terms "system" and "network" are used interchangeably.
また、本明細書で説明した情報、パラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。 In addition, the information, parameters, etc. described in this specification may be represented by absolute values, may be represented by relative values from a predetermined value, or may be represented by corresponding other information. .
上述したパラメータに使用する名称はいかなる点においても限定的なものではない。さらに、これらのパラメータを使用する数式等は、本明細書で明示的に開示したものと異なる場合もある。 The names used for the parameters described above are not limiting in any way. Further, the formulas, etc. using these parameters may differ from those explicitly disclosed herein.
本明細書で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up)(例えば、テーブル、データベースまたは別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。 As used herein, the terms "determining" and "determining" may encompass a wide variety of actions. "Judgement", "determining" are, for example, judging, calculating, computing, processing, deriving, investigating, looking up (e.g., table , searching in a database or other data structure), regarding ascertaining as "determining" or "determining". Also, "judgment" and "determination" are used for receiving (e.g., receiving information), transmitting (e.g., transmitting information), input, output, access (accessing) (for example, accessing data in memory) may include deeming that a "judgment" or "decision" has been made. In addition, "judgment" and "decision" are considered to be "judgment" and "decision" by resolving, selecting, choosing, establishing, comparing, etc. can contain. In other words, "judgment" and "decision" may include considering that some action is "judgment" and "decision".
「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。本明細書で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及び/又はプリント電気接続を使用することにより、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどの電磁エネルギーを使用することにより、互いに「接続」又は「結合」されると考えることができる。 The terms "connected", "coupled", or any variation thereof, mean any direct or indirect connection or coupling between two or more elements, It can include the presence of one or more intermediate elements between two elements being "connected" or "coupled." Couplings or connections between elements may be physical, logical, or a combination thereof. As used herein, two elements are referred to by the use of one or more wires, cables and/or printed electrical connections and, as some non-limiting and non-exhaustive examples, radio frequency They can be considered to be “connected” or “coupled” to each other through the use of electromagnetic energy, such as electromagnetic energy having wavelengths in the microwave, light (both visible and invisible) regions.
本明細書で使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 As used herein, the phrase "based on" does not mean "based only on," unless expressly specified otherwise. In other words, the phrase "based on" means both "based only on" and "based at least on."
本明細書で「第1の」、「第2の」などの呼称を使用した場合においては、その要素へのいかなる参照も、それらの要素の量または順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。したがって、第1および第2の要素への参照は、2つの要素のみがそこで採用され得ること、または何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。 Where "first," "second," etc. designations are used herein, any reference to such elements does not generally limit the quantity or order of those elements. These designations may be used herein as a convenient method of distinguishing between two or more elements. Thus, references to first and second elements do not imply that only two elements may be employed therein or that the first element must precede the second element in any way.
「含む(include)」、「含んでいる(including)」、およびそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「または(or)」は、排他的論理和ではないことが意図される。 Wherever "include," "including," and variations thereof are used in the specification or claims, these terms are synonymous with the term "comprising." are intended to be inclusive. Furthermore, the term "or" as used in this specification or the claims is not intended to be an exclusive OR.
本明細書において、文脈または技術的に明らかに1つのみしか存在しない装置である場合以外は、複数の装置をも含むものとする。本開示の全体において、文脈から明らかに単数を示したものではなければ、複数のものを含むものとする。 In this specification, plural devices are also included unless the context or technicality clearly dictates that there is only one. Throughout this disclosure, the plural shall be included unless the context clearly indicates the singular.
1…検出装置、3,31,32…再帰性反射材、11…撮像部、12…光源部、13…カメラパラメータ設定部、14…反射材検出部、15…パラメータ推定部、16…表示部。
DESCRIPTION OF
Claims (6)
再帰性反射材が貼付された前記対象物に対して光を照射する光源部と、
前記光源部からの光による前記再帰性反射材からの反射光を受光して前記対象物に係る撮像を行う撮像部と、
前記撮像部での撮像により得られた画像データから、前記再帰性反射材を撮像した領域を特定する反射材検出部と、
前記反射材検出部による検出結果に基づいて、前記対象物の配置に係るパラメータを推定するパラメータ推定部と、
前記反射光の強度に基づいて、前記撮像部でのシャッタースピードを変更可能なカメラパラメータ設定部と、
を有する、検出装置。 A detection device that functions as part of an HMD worn by a user and presents information about an object to the user via the HMD,
a light source unit that emits light to the object to which the retroreflecting material is attached;
an imaging unit that receives light reflected from the retroreflective material by the light from the light source unit and performs imaging of the object;
a reflecting material detection unit that identifies an area in which the retroreflecting material is imaged from image data obtained by imaging by the imaging unit;
a parameter estimating unit for estimating a parameter related to the placement of the object based on the detection result of the reflector detecting unit;
a camera parameter setting unit capable of changing the shutter speed of the imaging unit based on the intensity of the reflected light;
A detection device, comprising:
前記撮像部は、前記対象物に取り付けられた複数の前記再帰性反射材からの反射光を受光し、
前記パラメータ推定部は、前記対象物の配置に係るパラメータとして、前記対象物の位置または向きに係るパラメータを推定する、請求項1に記載の検出装置。 A plurality of the retroreflective materials are attached to the object,
The imaging unit receives reflected light from the plurality of retroreflective materials attached to the object,
The detection device according to claim 1, wherein the parameter estimator estimates a parameter related to the position or orientation of the object as the parameter related to the arrangement of the object.
再帰性反射材が貼付された前記対象物に対して光源部から光を照射して、前記光源部からの光による前記再帰性反射材からの反射光を撮像部により受光して前記対象物に係る撮像を行うとともに、前記撮像部は、前記再帰性反射材を撮像した画像において当該再帰性反射材の形状が検出できない場合には、シャッタースピードを変更して再度撮像する、撮像ステップと、
反射材検出部において、前記撮像ステップにおける撮像により得られた画像データから、前記再帰性反射材を撮像した領域を特定する反射材検出ステップと、
前記反射材検出ステップにおける検出結果に基づいて、前記対象物の配置に係るパラメータを推定するパラメータ推定ステップと、
を有する、検出方法。 A detection method in a detection device that functions as part of an HMD worn by a user and presents information related to an object to the user via the HMD, comprising:
Light is emitted from a light source unit to the object to which the retroreflecting material is attached, and light reflected from the retroreflecting material by the light from the light source unit is received by an imaging unit, and is reflected on the object. an imaging step of performing such imaging, and performing imaging again by changing the shutter speed when the shape of the retroreflecting material cannot be detected in the image obtained by imaging the retroreflecting material;
a reflecting material detection step of identifying an area where the retroreflecting material is imaged from the image data obtained by imaging in the imaging step in the reflecting material detection unit;
a parameter estimating step of estimating a parameter related to the placement of the object based on the detection result of the reflector detecting step;
A detection method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018072516A JP7199822B2 (en) | 2018-04-04 | 2018-04-04 | Detection device and detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018072516A JP7199822B2 (en) | 2018-04-04 | 2018-04-04 | Detection device and detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019184312A JP2019184312A (en) | 2019-10-24 |
JP7199822B2 true JP7199822B2 (en) | 2023-01-06 |
Family
ID=68340697
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018072516A Active JP7199822B2 (en) | 2018-04-04 | 2018-04-04 | Detection device and detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7199822B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001201455A (en) | 2000-01-20 | 2001-07-27 | Matsushita Electric Works Ltd | Method and apparatus for inspection of surface defect of sheet-like material |
JP2005253505A (en) | 2004-03-09 | 2005-09-22 | Yokohama Rubber Co Ltd:The | Moving object measuring apparatus |
JP2009134677A (en) | 2007-02-28 | 2009-06-18 | Fuji Xerox Co Ltd | Gesture interface system, wand for gesture input, application control method, camera calibration method, and control program |
JP2010050757A (en) | 2008-08-21 | 2010-03-04 | Kwansei Gakuin | Information providing method and information providing system |
-
2018
- 2018-04-04 JP JP2018072516A patent/JP7199822B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001201455A (en) | 2000-01-20 | 2001-07-27 | Matsushita Electric Works Ltd | Method and apparatus for inspection of surface defect of sheet-like material |
JP2005253505A (en) | 2004-03-09 | 2005-09-22 | Yokohama Rubber Co Ltd:The | Moving object measuring apparatus |
JP2009134677A (en) | 2007-02-28 | 2009-06-18 | Fuji Xerox Co Ltd | Gesture interface system, wand for gesture input, application control method, camera calibration method, and control program |
JP2010050757A (en) | 2008-08-21 | 2010-03-04 | Kwansei Gakuin | Information providing method and information providing system |
Non-Patent Citations (1)
Title |
---|
中里 祐介外2名,「ウェアラブル拡張現実感のための不可視マーカと赤外線カメラを用いた位置・姿勢推定」,日本バーチャルリアリティ学会論文誌,10巻、3号,日本,The Virtual Reality Society of Japan,2005年09月30日,295-304 |
Also Published As
Publication number | Publication date |
---|---|
JP2019184312A (en) | 2019-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110248085B (en) | Apparatus and method for object boundary stabilization in images of an image sequence | |
KR101916355B1 (en) | Photographing method of dual-lens device, and dual-lens device | |
JP6075122B2 (en) | System, image projection apparatus, information processing apparatus, information processing method, and program | |
EP3896643A1 (en) | Image processing apparatus and control method thereof | |
CN112633181B (en) | Data processing method, system, device, equipment and medium | |
CN109218621B (en) | Image processing method, device, storage medium and mobile terminal | |
JP2017504017A (en) | Measuring instrument, system, and program | |
US20210044756A1 (en) | Display and imaging device | |
US11574415B2 (en) | Method and apparatus for determining an icon position | |
JP5625839B2 (en) | Projector device, position detection program, and projector system | |
US10694110B2 (en) | Image processing device, method | |
CN109040729B (en) | Image white balance correction method and device, storage medium and terminal | |
CN109886864B (en) | Privacy mask processing method and device | |
US10489621B2 (en) | Reading device and mobile terminal | |
JP7199822B2 (en) | Detection device and detection method | |
US11081516B2 (en) | Display screen, electronic device and method for three-dimensional feature recognition | |
KR102655532B1 (en) | Electronic device and method for acquiring biometric information using light of display | |
JP2015184906A (en) | Skin color detection condition determination device, skin color detection condition determination method and skin color detection condition determination computer program | |
JPWO2018011928A1 (en) | Image processing apparatus, operation method of image processing apparatus, and operation program of image processing apparatus | |
US20210074010A1 (en) | Image-Processing Method and Electronic Device | |
JP4451195B2 (en) | Gaze detection device | |
CN111656766B (en) | Apparatus for image-based service | |
JP2019068932A (en) | Visual line detection device and visual line detection program | |
JPWO2019159759A1 (en) | Operation detection device and operation detection method | |
US20230419735A1 (en) | Information processing device, information processing method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210204 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220928 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221221 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7199822 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |