JP2012048393A - Information processing device and operation method of the same - Google Patents

Information processing device and operation method of the same Download PDF

Info

Publication number
JP2012048393A
JP2012048393A JP2010188658A JP2010188658A JP2012048393A JP 2012048393 A JP2012048393 A JP 2012048393A JP 2010188658 A JP2010188658 A JP 2010188658A JP 2010188658 A JP2010188658 A JP 2010188658A JP 2012048393 A JP2012048393 A JP 2012048393A
Authority
JP
Japan
Prior art keywords
fingertip
desk
distance image
image
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010188658A
Other languages
Japanese (ja)
Inventor
Ichiro Umeda
一郎 梅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010188658A priority Critical patent/JP2012048393A/en
Publication of JP2012048393A publication Critical patent/JP2012048393A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To accurately determine a contact state of an object with a prescribed surface.SOLUTION: An operation method of an information processing device includes steps of: detecting a position of an object existing on a surface at a time of attention using a distance image sensor; specifying an edge section of the object from the detected position and a colored image obtained by photographing surroundings of the position at the time of attention; estimating the position of the specified edge section based on the position of the object; and determining a contact state of the object with the surface in accordance with the position of the edge section.

Description

本発明は、接触を判定する技術に関する。   The present invention relates to a technique for determining contact.

テーブル上で情報の表示や入力を行うテーブル(以下、インタラクティブテーブルという。)を用いたユーザインターフェースは、テーブルトップインターフェースと呼ばれる。テーブルトップインターフェースでは、指先による机上へのタップ(入力)が用いられる場合がある。例えば、特許文献1には、投射光を拡散できる程度に半透明な素材を机に使い、机下から机を透過して得られる手の画像に基づき、手指の形状やジェスチャを取得する手法が開示されている。   A user interface using a table for displaying and inputting information on the table (hereinafter referred to as an interactive table) is called a table top interface. In the table top interface, a tap (input) on the desk by a fingertip may be used. For example, Patent Document 1 discloses a technique for obtaining a finger shape and a gesture based on an image of a hand obtained by using a translucent material on a desk that is capable of diffusing projected light and transmitting the desk from below the desk. It is disclosed.

特開2006−40271号公報JP 2006-40271 A

しかしながら、従来技術によると、ユーザが接触する机に機械が埋め込まれることになり、机に埋め込まれた機械そのものに対して、衝撃等、物理的な負荷がかかる場合があった。そこで本発明は、機械そのものに対してかかる物理的な負荷を軽減すると共に、机上へのタップ(入力)を精度良く判定することを目的とする。   However, according to the prior art, a machine is embedded in a desk that a user contacts, and a physical load such as an impact may be applied to the machine itself embedded in the desk. Accordingly, an object of the present invention is to reduce the physical load applied to the machine itself and to accurately determine the tap (input) on the desk.

上記課題を解決するため本発明に係る情報処理装置は、距離画像センサを用いて、注目時点における所定の面の上に存在する物体の位置を検知する検知手段と、前記注目時点において、検知された位置および前記位置の周辺を撮影した色画像から前記物体の端部を特定する特定手段と、前記物体の位置に基づいて、特定された前記端部の位置を推定する推定手段と、前記端部の位置に応じて前記面に対する接触を判定する判定手段とを有する。   In order to solve the above problems, an information processing apparatus according to the present invention uses a distance image sensor to detect a position of an object existing on a predetermined surface at a point of interest, and is detected at the point of interest. A specifying means for specifying an end portion of the object from a position image and a color image obtained by photographing the periphery of the position; an estimation means for estimating the position of the specified end portion based on the position of the object; Determining means for determining contact with the surface in accordance with the position of the part.

本発明によれば、機械そのものに対してかかる物理的な負荷を軽減すると共に、机上へのタップを精度良く判定することが可能となる。   According to the present invention, it is possible to reduce the physical load applied to the machine itself and to accurately determine the tap on the desk.

インタラクティブテーブル等を設置した様子を示す図。The figure which shows a mode that the interactive table etc. were installed. 第1の実施形態に係るシステムの機能ブロック図。1 is a functional block diagram of a system according to a first embodiment. 入力位置を特定する処理の流れを示すフローチャート。The flowchart which shows the flow of the process which specifies an input position. 距離画像205、207の一例および距離画像205に対する処理を示す図。The figure which shows the process with respect to an example and the distance image 205 of the distance images 205 and 207. 色画像218を示す図。The figure which shows the color image 218. 指先の位置として推測される位置を示す図。The figure which shows the position estimated as a position of a fingertip.

(第1の実施形態)
以下、図面を参照しながら、本発明を実施するための形態について説明する。尚、同じ要素については同符号を付し、その説明を省略する。図1は、本実施形態に係るシステムを構成する要素(インタラクティブテーブル等)を設置した様子を示す図である。本実施形態に係るシステムは、机101、プロジェクタ104、距離画像センサ105、色画像センサ(ビデオカメラ)106、演算装置(情報処理装置)107から構成される。
(First embodiment)
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. In addition, the same code | symbol is attached | subjected about the same element and the description is abbreviate | omitted. FIG. 1 is a diagram illustrating a state in which elements (interactive table or the like) constituting the system according to the present embodiment are installed. The system according to the present embodiment includes a desk 101, a projector 104, a distance image sensor 105, a color image sensor (video camera) 106, and an arithmetic device (information processing device) 107.

机101は標準的な机である。本実施形態において、机101は、矩形をなす平面を有し、インタラクティブテーブルとして情報(文字、画像等)を映す投影面(表示面)として機能する。ユーザーは、指先102を机101に接触させることで、このインタラクティブテーブルに対して所定の指示入力を行う。尚、指先102の接触に変えて、ペンなどの物体の先端部を接触させることによって、所定の指示入力をおこなってもよい。例えば、机101上にオブジェクト103が表示されているときに、ユーザーはオブジェクト103の領域に指先を接触させることで、オブジェクト103を選択する。プロジェクタ104は机101上に情報を投射する。尚、オブジェクト103はプロジェクタ104により投射されているオブジェクトである。   The desk 101 is a standard desk. In the present embodiment, the desk 101 has a rectangular plane and functions as a projection surface (display surface) for displaying information (characters, images, etc.) as an interactive table. The user inputs a predetermined instruction to the interactive table by bringing the fingertip 102 into contact with the desk 101. Note that a predetermined instruction may be input by bringing the tip of an object such as a pen into contact with the fingertip 102 instead of touching it. For example, when the object 103 is displayed on the desk 101, the user selects the object 103 by bringing the fingertip into contact with the area of the object 103. The projector 104 projects information on the desk 101. Note that the object 103 is an object projected by the projector 104.

距離画像センサ105は机101の上方に(机101と対向する向きに)設置され、机101上の領域を映し、距離画像を出力する。尚、距離画像とは、その画像中の各ピクセルの明度が、距離画像センサからそのピクセルに映る被写体までの距離を表す画像をいう。尚、距離画像は異なる複数の時点のそれぞれ(注目時点)において出力されるものとする。色画像センサ106は机101の上方に(机101と対向する向きに)設置され、机101上の領域を映す。尚、画像センサとは、ビデオカメラ、カムコーダ等である。また、色画像センサが出力する色画像は、ビデオカメラ等によって撮影された画像(映像)であり、その画像中の各ピクセルが、そのピクセルに映る被写体の色を表す。尚、色画像も距離画像と同様に各注目時点で出力されるものとし、対応する注目時点の色画像と距離画像とは互いに関連付けて保持されるものとする。   The distance image sensor 105 is installed above the desk 101 (in a direction facing the desk 101), projects an area on the desk 101, and outputs a distance image. The distance image is an image in which the brightness of each pixel in the image represents the distance from the distance image sensor to the subject reflected in the pixel. The distance image is output at each of a plurality of different time points (attention time points). The color image sensor 106 is installed above the desk 101 (in a direction facing the desk 101) and projects an area on the desk 101. The image sensor is a video camera, a camcorder, or the like. The color image output from the color image sensor is an image (video) taken by a video camera or the like, and each pixel in the image represents the color of the subject reflected in the pixel. It is assumed that the color image is output at each point of interest in the same manner as the distance image, and the corresponding color image and the distance image at the point of interest are held in association with each other.

演算装置(情報処理装置)107は、ROM、RAM、CPUを有し、ROMに格納されたプログラムやデータをRAMに展開し、CPUが実行することによってその機能を実現する。また、演算装置(情報処理装置)107は、プロジェクタ104による情報の投影を制御すると共に、距離画像センサ105から距離画像を、色画像センサ106から色画像を定期的に(所定の時間間隔で)取得する。   The arithmetic device (information processing device) 107 has a ROM, a RAM, and a CPU. The program and data stored in the ROM are expanded in the RAM, and the functions are realized by the CPU. The arithmetic device (information processing device) 107 controls the projection of information by the projector 104, and also periodically (at predetermined time intervals) the distance image from the distance image sensor 105 and the color image from the color image sensor 106. get.

尚、距離画像センサ105及び色画像センサ106は、画像を取得する画角内に机101の全面を含む様に、かつ机101から見てユーザーの指先102よりも遠方に配置される。本実施形態では、後述するフローチャートの各ステップに対応する処理動作を、演算装置107に含まれるCPUを用いてソフトウェアで実現することとする。しかし、その処理の一部または全部を電子回路などのハードウェア、或いは机101、プロジェクタ104、距離画像センサ105や色画像センサ106などに含まれるCPUやハードウェアにより実現するようにしても構わない。また、本発明は、プロジェクタ104を用いることなく、机101を液晶ディスプレイ等に変えて実現してもよい。   The distance image sensor 105 and the color image sensor 106 are disposed so as to include the entire surface of the desk 101 within an angle of view for acquiring an image and further from the user's fingertip 102 as viewed from the desk 101. In the present embodiment, the processing operation corresponding to each step of the flowchart to be described later is realized by software using a CPU included in the arithmetic device 107. However, part or all of the processing may be realized by hardware such as an electronic circuit, or a CPU or hardware included in the desk 101, the projector 104, the distance image sensor 105, the color image sensor 106, or the like. . Further, the present invention may be realized by changing the desk 101 to a liquid crystal display or the like without using the projector 104.

図2は第1の実施形態に係るシステムの機能ブロック図である。本システムは、近接判定を行うモジュール201、指先座標を取得するモジュール202、指先座標を推測するモジュール203から構成される。まず、距離画像に基づいて机101と指先102との近接を判定するモジュール201について詳細に説明する。距離画像取得部204は距離画像センサ105にアクセスし距離画像205を取得する。図4(A)は、距離画像205の一例を示す図である。本実施形態では、距離画像205において、その映る範囲は机101と一致するものとする。尚、映る範囲と机101とが一致しない場合に、事前のキャリブレーションと画像取得ごとの透視変換により、机101に相当する領域のみを切り出しても良い。距離画像において明度はそのピクセルに映る被写体の距離画像センサからの距離を示す。例えば、図4(A)において、距離画像センサの光軸と机の法線とが直交するならば、その明度は同心円状に変化する。そして、距離画像205はユーザーの腕108を映す事がある。ユーザーの指先102が机101にある程度(所定の閾値)以上近接していることが検知された場合、指先102の位置に対応する画素の明度と机101の位置に対応する画素の明度は近くなる。平面画像記録部206はユーザーの腕108を含まない状態で距離画像センサから机101までの距離画像を取得し、平面画像207として保存する。   FIG. 2 is a functional block diagram of the system according to the first embodiment. This system includes a module 201 that performs proximity determination, a module 202 that acquires fingertip coordinates, and a module 203 that estimates fingertip coordinates. First, the module 201 that determines the proximity of the desk 101 and the fingertip 102 based on the distance image will be described in detail. The distance image acquisition unit 204 accesses the distance image sensor 105 and acquires the distance image 205. FIG. 4A is a diagram illustrating an example of the distance image 205. In the present embodiment, it is assumed that the range in which the distance image 205 appears matches the desk 101. Note that if the reflected area and the desk 101 do not match, only the area corresponding to the desk 101 may be cut out by prior calibration and perspective transformation for each image acquisition. In the distance image, the brightness indicates the distance from the distance image sensor of the subject reflected in the pixel. For example, in FIG. 4A, if the optical axis of the distance image sensor and the normal of the desk are orthogonal, the brightness changes concentrically. The distance image 205 may reflect the user's arm 108. When it is detected that the user's fingertip 102 is close to the desk 101 by a certain amount (predetermined threshold) or more, the brightness of the pixel corresponding to the position of the fingertip 102 and the brightness of the pixel corresponding to the position of the desk 101 are close. . The planar image recording unit 206 acquires a distance image from the distance image sensor to the desk 101 without including the user's arm 108 and stores it as a planar image 207.

図4(B)は、平面画像207の一例を示す図である。尚、本実施形態において、平面画像207を保存した後、机101、距離画像センサ105、色画像センサ106の位置関係は変わらないものとする。距離画像前景背景分離部208は距離画像205からユーザーの腕108にあたる領域とそれ以外の領域とを分離し、ユーザーの腕108に相当する領域を距離画像前景209として保存する。図4(C)は、距離画像前景209の一例を示す図である。指先距離取得部210は、距離画像205及び距離画像前景209から、距離画像における指先の座標211、および距離画像取得手段から指先までの距離212を求める。図4(C)内に距離画像における指先の座標211を示す。距離画像取得手段から指先までの距離212は、距離画像センサ105と指先102までの距離に相当する。平面距離取得部213は、平面画像207及び距離画像における指先の座標211から、距離画像取得手段から平面までの距離214を求める。距離画像取得手段から平面までの距離214は、図1において、距離画像センサ105から、距離画像センサ105と指先102を結んだ線分が机101と交差する点109までの距離に相当する。   FIG. 4B is a diagram illustrating an example of the planar image 207. In this embodiment, it is assumed that the positional relationship among the desk 101, the distance image sensor 105, and the color image sensor 106 does not change after the flat image 207 is stored. The distance image foreground / background separation unit 208 separates the area corresponding to the user's arm 108 and the other area from the distance image 205 and stores the area corresponding to the user's arm 108 as the distance image foreground 209. FIG. 4C is a diagram illustrating an example of the distance image foreground 209. The fingertip distance acquisition unit 210 obtains the fingertip coordinates 211 in the distance image and the distance 212 from the distance image acquisition means to the fingertip from the distance image 205 and the distance image foreground 209. FIG. 4C shows the coordinates 211 of the fingertip in the distance image. A distance 212 from the distance image acquisition unit to the fingertip corresponds to a distance between the distance image sensor 105 and the fingertip 102. The plane distance acquisition unit 213 obtains a distance 214 from the distance image acquisition unit to the plane from the plane image 207 and the coordinates 211 of the fingertip in the distance image. The distance 214 from the distance image acquisition means to the plane corresponds to the distance from the distance image sensor 105 to the point 109 where the line segment connecting the distance image sensor 105 and the fingertip 102 intersects the desk 101 in FIG.

近接判定部215は、距離画像取得手段から指先までの距離212と距離画像取得手段から平面までの距離214、後述する色画像における指先の座標222と色画像における指先の推測座標226から、指先と平面が近接したか否かを示す情報216を求める。尚、近接判定部215は、指先と平面が近接したか否かを示す情報216を出力する。   The proximity determination unit 215 calculates the fingertip from the distance 212 from the distance image acquisition means to the fingertip, the distance 214 from the distance image acquisition means to the plane, the fingertip coordinates 222 in the color image described later, and the estimated coordinates 226 of the fingertip in the color image. Information 216 indicating whether or not the planes are close to each other is obtained. The proximity determination unit 215 outputs information 216 indicating whether or not the fingertip and the plane are close to each other.

次に、色画像に基づいて指先の座標を取得するモジュール202の構成要素を説明する。色画像取得部217は色画像センサ106にアクセスし色画像218を取得する。図5(A)は、色画像218の一例を示す図である。尚、本実施形態においては、色画像218も距離画像205と同様にその映る範囲は机101と一致するとする。また、映る範囲と机101の範囲とが一致しない場合はキャリブレーションと透視変換により机101に相当する領域のみを切り出してもよい。また、色画像218においては、ユーザーの腕108、ユーザーの指先102、プロジェクタが投影するオブジェクト103が画像中に映る事がある。色画像前景背景分離部219は、色画像218及び距離画像前景209から、色画像前景220を求める。図5(B)は、色画像前景220の指先102を含む一部を拡大した例を示す図である。指先座標取得部221は、色画像前景220から、色画像における指先の座標222を求める。図5(B)に色画像における指先の座標222を示す。尚、モジュール202は、色画像における指先の座標222を出力する。   Next, components of the module 202 that obtains the fingertip coordinates based on the color image will be described. The color image acquisition unit 217 accesses the color image sensor 106 and acquires the color image 218. FIG. 5A is a diagram illustrating an example of the color image 218. In the present embodiment, it is assumed that the color image 218 has the same range as the desk 101 in the same manner as the distance image 205. In addition, when the range shown and the range of the desk 101 do not match, only the area corresponding to the desk 101 may be cut out by calibration and perspective transformation. In the color image 218, the user's arm 108, the user's fingertip 102, and the object 103 projected by the projector may appear in the image. The color image foreground / background separation unit 219 obtains a color image foreground 220 from the color image 218 and the distance image foreground 209. FIG. 5B is a diagram illustrating an example in which a part including the fingertip 102 of the color image foreground 220 is enlarged. The fingertip coordinate acquisition unit 221 obtains the fingertip coordinates 222 in the color image from the color image foreground 220. FIG. 5B shows the fingertip coordinates 222 in the color image. The module 202 outputs the fingertip coordinates 222 in the color image.

次に、指先の座標を推測するモジュール203の構成要素について説明する。腕方向近似部223は、距離画像前景209から、距離画像における腕方向224を求める。図4(A)に図示した腕方向224は腕の位置と向きを示している。指先座標推測部225は、距離画像における腕方向224から、色画像における指先の推測座標226を求める。色画像における指先の推測座標226を図6に示す。尚、モジュール203は、色画像における指先の推測座標226を出力する。   Next, components of the module 203 for estimating the fingertip coordinates will be described. The arm direction approximating unit 223 obtains the arm direction 224 in the distance image from the distance image foreground 209. The arm direction 224 illustrated in FIG. 4A indicates the position and orientation of the arm. The fingertip coordinate estimation unit 225 obtains the estimated coordinate 226 of the fingertip in the color image from the arm direction 224 in the distance image. FIG. 6 shows the estimated coordinates 226 of the fingertip in the color image. Note that the module 203 outputs the estimated coordinates 226 of the fingertip in the color image.

図3は、入力位置を特定する処理の流れを示すフローチャートである。このフローチャートに従って、図1に示す構成のテーブルトップインターフェースで、ユーザーの指先102が机101に近接したか否か、及び近接した場合の指先102の座標を求める。尚、図3(A)のステップS301〜S313の処理は、モジュール201が実行する処理である。また、図3(B)のステップS320〜S324の処理は、モジュール202が実行する処理である。また、図3(C)のステップS330〜S333の処理は、モジュール203が実行する処理である。尚、各モジュールは、それぞれCPU、ROM、RAM等を有する装置によって実現されてもよい。   FIG. 3 is a flowchart showing a flow of processing for specifying an input position. According to this flowchart, whether or not the user's fingertip 102 is close to the desk 101 and the coordinates of the fingertip 102 when the user's fingertip 102 is close are obtained using the table top interface configured as shown in FIG. Note that the processing in steps S301 to S313 in FIG. 3A is processing executed by the module 201. Also, the processing of steps S320 to S324 in FIG. 3B is processing executed by the module 202. Also, the processing in steps S330 to S333 in FIG. 3C is processing executed by the module 203. Each module may be realized by a device having a CPU, a ROM, a RAM, and the like.

ステップS301〜S302はモジュール201の前処理に相当する。まず、ステップS301で、距離画像と色画像との位置をキャリブレーションする。具体的には、まず、全画面単色な画像をプロジェクタ104で投影する。次に、距離画像取得部204及び色画像取得部217でそれぞれ距離画像と色画像とを取得する。距離画像と色画像のそれぞれについて、プロジェクタ104で投影したその四頂点を画像内から検出し、その4頂点を結ぶ矩形をプロジェクタの縦横比で表現される矩形に透視変換する行列を求める。ここで、色画像センサは通常距離画像センサよりも解像度が高く、それ故に、キャリブレーション後も色画像の方が距離画像よりも高解像だとする。この後、距離画像取得部204と色画像取得部217のそれぞれは、画像を取得するたびに先に求めた透視変換を施し、キャリブレーション済みの画像を出力するとする。次に、ステップS302で、平面画像を取得し保存する。取得した平面画像207の例を図4(B)に示す。具体的には、図1に示される構成において、机101上にユーザーの腕108が存在しない状態で距離画像センサ105から距離画像を取得する。但し、この平面画像207も、ステップS301で得られたキャリブレーションが施されているものとする。   Steps S301 to S302 correspond to preprocessing of the module 201. First, in step S301, the positions of the distance image and the color image are calibrated. Specifically, first, a full-screen monochrome image is projected by the projector 104. Next, the distance image acquisition unit 204 and the color image acquisition unit 217 acquire a distance image and a color image, respectively. For each of the distance image and the color image, the four vertices projected by the projector 104 are detected from the image, and a matrix for perspective-transforming a rectangle connecting the four vertices into a rectangle represented by the aspect ratio of the projector is obtained. Here, it is assumed that the color image sensor has a higher resolution than the normal distance image sensor, and therefore the color image is higher in resolution than the distance image even after calibration. Thereafter, each of the distance image acquisition unit 204 and the color image acquisition unit 217 performs the perspective transformation obtained previously each time an image is acquired, and outputs a calibrated image. Next, in step S302, a planar image is acquired and stored. An example of the acquired planar image 207 is shown in FIG. Specifically, in the configuration shown in FIG. 1, a distance image is acquired from the distance image sensor 105 without the user's arm 108 on the desk 101. However, it is assumed that the calibration obtained in step S301 is also applied to the planar image 207.

ステップS303〜S312がモジュール201の本処理である。ステップS303において、オブジェクトをある座標に投影する。例えば、ユーザーに何らかの情報の承認を求めるとする。「OK」という文字列を含むオブジェクト103を、プロジェクタ104を用いて、机101に投影する。次に、ステップS304において、距離画像及び色画像を取得する。ここで、図4(A)に示す距離画像205、及び図5(A)に示す色画像218が得られたとする。図4(A)の距離画像205において、ユーザーの指先102は机101と近接しており、その明度が近しいとする。また、図5(A)の色画像218において、ユーザーの腕108と、ユーザーの指先102が映っているとする。次に、ステップS305において、距離画像から背景画像を引き、閾値処理し、距離画像前景を得る。具体的には、図4(A)に示す距離画像205に含まれる各ピクセルについて、その明度から、図4に示す平面画像207の同一座標の明度を引き、その差が事前に設定された閾値以上である場合に、そのピクセルは距離画像前景209に含まれるとする。得られた距離画像前景209の例を図4(C)に示す。この閾値処理は、距離画像センサ105が一般に持つ測定誤差により、必ずしも画像の明度が測定ごとに一定しない為、この誤差を抑え込む事が目的である。一方で、机101から指先102の距離が閾値あるいは距離画像センサの量子化精度を下回る場合、その指先の領域は机と区別する事が出来ず、結果として距離画像前景に含まれない。上記の理由により、図5(C)に示す距離画像前景209に、指先102に相当する領域は含まれないとする。ここで、得られた画像前景に対し、浸食処理と肥大処理を施し、小さなノイズを削除してもよい。   Steps S303 to S312 are the main processing of the module 201. In step S303, the object is projected onto certain coordinates. For example, suppose that the user is asked to approve some information. The object 103 including the character string “OK” is projected onto the desk 101 using the projector 104. Next, in step S304, a distance image and a color image are acquired. Here, it is assumed that the distance image 205 shown in FIG. 4A and the color image 218 shown in FIG. 5A are obtained. In the distance image 205 in FIG. 4A, it is assumed that the user's fingertip 102 is close to the desk 101 and the brightness thereof is close. Further, it is assumed that the user's arm 108 and the user's fingertip 102 are shown in the color image 218 of FIG. Next, in step S305, a background image is subtracted from the distance image and threshold processing is performed to obtain a distance image foreground. Specifically, for each pixel included in the distance image 205 shown in FIG. 4A, the brightness of the same coordinate of the planar image 207 shown in FIG. 4 is subtracted from the brightness, and the difference is set in advance. In such a case, it is assumed that the pixel is included in the distance image foreground 209. An example of the obtained distance image foreground 209 is shown in FIG. The threshold processing is intended to suppress this error because the brightness of the image is not always constant for each measurement due to a measurement error that the distance image sensor 105 generally has. On the other hand, when the distance from the desk 101 to the fingertip 102 is lower than the threshold value or the quantization accuracy of the distance image sensor, the area of the fingertip cannot be distinguished from the desk and is not included in the distance image foreground as a result. For the above reason, it is assumed that the range image foreground 209 illustrated in FIG. 5C does not include an area corresponding to the fingertip 102. Here, erosion processing and enlargement processing may be performed on the obtained image foreground to remove small noise.

次に、ステップS306において、距離画像の前景について連結画素塊を求め、指が含まれる連結画素塊を選択し、近似楕円を求める。連結画素塊の生成手法は任意であり、4結合でも8結合でも構わない。指が含まれる連結画素塊の選択は、例えば、距離画像前景に連結画素塊が一つしか含まれなければそれを選択して良いし、複数の連結画素塊が含まれるならば最大のものを選んでもよい。連結画素塊501として距離画像前景209と同じ領域が得られたとする。連結画素塊501の近似楕円の導出は5つ以上輪郭上の点に対して楕円パラメータを最小二乗推定する手法など周知の手法を用いる。以下、周知の手法を用いて、近似楕円502が得られたとする。次に、ステップS307において、距離画像での指先の座標及び距離画像センサから指先の距離を求める。具体的には、近似楕円502の長軸503が近似楕円502と交差する点を求め、その点を距離画像での指先の座標211とする。次に、指先の座標211を中心としたある程度の半径の円504の範囲内かつ連結画素塊501内に含まれる各ピクセルの明度を平均し、距離画像取得手段から指先までの距離212とする。次に、ステップS308において、距離画像センサから机までの距離を求める。ステップS307で求めた指先の座標211に相当する座標の平面画像207での明度を求めればよい。   Next, in step S306, a connected pixel block is obtained for the foreground of the distance image, a connected pixel block including a finger is selected, and an approximate ellipse is obtained. The generation method of the connected pixel block is arbitrary, and may be four bonds or eight bonds. For the selection of a connected pixel block including a finger, for example, if the distance image foreground includes only one connected pixel block, it may be selected, and if a plurality of connected pixel blocks are included, the maximum one is selected. You may choose. Assume that the same area as the distance image foreground 209 is obtained as the connected pixel block 501. In order to derive the approximate ellipse of the connected pixel block 501, a known method such as a method of least square estimation of ellipse parameters for five or more points on the contour is used. Hereinafter, it is assumed that the approximate ellipse 502 is obtained by using a known method. Next, in step S307, the distance of the fingertip is obtained from the coordinates of the fingertip in the distance image and the distance image sensor. Specifically, a point where the major axis 503 of the approximate ellipse 502 intersects the approximate ellipse 502 is obtained, and the point is set as the coordinate 211 of the fingertip in the distance image. Next, the brightness of each pixel included in the range of a circle 504 having a certain radius around the fingertip coordinates 211 and included in the connected pixel block 501 is averaged to obtain a distance 212 from the distance image acquisition means to the fingertip. Next, in step S308, the distance from the distance image sensor to the desk is obtained. What is necessary is just to obtain | require the brightness in the plane image 207 of the coordinate equivalent to the coordinate 211 of the fingertip calculated | required by step S307.

次に、ステップS309において指先が机に近接しているかを判定し、指先が机に近接していればステップS310に、近接していなければステップS303に遷移する。指先と机の近接の判定には、まず、ステップS307で求めた距離212から、ステップS308で求めた、距離画像センサから机までの距離が事前に設定した閾値よりも低い場合に、指先102と机101が近接していると判定する。ここで、距離画像前景209内の各ピクセルの明度は、机101からステップS305で用いた閾値よりも大きく離れている為、机101と指先102の識別に用いる閾値は、ステップS305で用いた閾値よりも大きくなければならない。次に、ステップS310において、色画像における指先の座標を求める。色画像を図5(A)の218、色画像中の指先を含む領域(指先の位置およびその周辺)の拡大図を図5(B)とする。尚、本図には、色画像における指先の座標222が示されている。このステップS310の詳細については後述する。   Next, in step S309, it is determined whether the fingertip is close to the desk. If the fingertip is close to the desk, the process proceeds to step S310, and if not, the process proceeds to step S303. For the determination of the proximity of the fingertip and the desk, first, when the distance from the distance image sensor to the desk calculated in step S308 is lower than the threshold set in advance from the distance 212 calculated in step S307, It is determined that the desk 101 is close. Here, since the brightness of each pixel in the distance image foreground 209 is far from the threshold used in step S305 from the desk 101, the threshold used for identifying the desk 101 and the fingertip 102 is the threshold used in step S305. Must be bigger than. Next, in step S310, the coordinates of the fingertip in the color image are obtained. The color image is 218 in FIG. 5A, and the enlarged view of the region including the fingertip in the color image (the position of the fingertip and its periphery) is shown in FIG. 5B. In this figure, the coordinates 222 of the fingertip in the color image are shown. Details of step S310 will be described later.

次に、ステップS311において、距離画像の指先から、色画像における指先の位置を推測する。図6に、色画像における指先の推測座標226を示す。このステップS311の詳細については後述する。次に、ステップS312において、指先が机に近接していればステップS313に、近接していなければステップS303に遷移する。ステップS309と異なり、指先と机の近接の判定には、ステップS310にて求めた指先の座標222、及びステップS311にて距離画像から推測した指先の推測座標226の距離を求め、その距離が閾値以下の場合に、机と指先が近接したと判定する。ここで、距離を無限遠とすれば、常に指先は机に近接していると判断される。すなわち性能の下限は保証されている。   Next, in step S311, the position of the fingertip in the color image is estimated from the fingertip of the distance image. FIG. 6 shows the estimated coordinates 226 of the fingertip in the color image. Details of step S311 will be described later. Next, in step S312, if the fingertip is close to the desk, the process proceeds to step S313, and if not, the process proceeds to step S303. Unlike step S309, the proximity of the fingertip and the desk is determined by calculating the distance between the fingertip coordinates 222 obtained in step S310 and the estimated fingertip coordinates 226 estimated from the distance image in step S311. In the following cases, it is determined that the desk and the fingertip are close to each other. Here, if the distance is set to infinity, it is determined that the fingertip is always close to the desk. In other words, the lower limit of performance is guaranteed.

ステップS313において、指先が机に近接した場合の処理を行う。具体的には、例えば、ステップS303において「OK」という文字列を含むボタンが投影されているとして、ステップS310にて求めた指先の座標222がボタン内に含まれていれば、ボタンが押された、と判定する。最後に、ステップS303に戻り、再度指先座標の検出を繰り返す。ステップS312で判定した、指先が机に近接しているか否かを示す情報216が、モジュール201の出力である。以上説明した様に、本発明によれば、容易に指先と机の近接を判定する事ができる。   In step S313, processing is performed when the fingertip is close to the desk. Specifically, for example, if a button including the character string “OK” is projected in step S303, and if the fingertip coordinates 222 obtained in step S310 are included in the button, the button is pressed. It is determined that Finally, returning to step S303, the detection of the fingertip coordinates is repeated again. The information 216 indicating whether or not the fingertip is close to the desk determined in step S312 is the output of the module 201. As described above, according to the present invention, the proximity of the fingertip and the desk can be easily determined.

次に、モジュール202を説明する。モジュール202による処理は図3(A)のステップS310の処理に相当する。以下、図3(B)を参照しながら説明する。図3(B)は距離画像前景、連結画素塊及びその近似楕円、色画像を入力とする。図4(C)に距離画像前景209、連結画素塊501、近似楕円502、図5(A)に色画像218を示す。   Next, the module 202 will be described. The processing by the module 202 corresponds to the processing in step S310 in FIG. Hereinafter, a description will be given with reference to FIG. In FIG. 3B, a distance image foreground, a connected pixel block and its approximate ellipse, and a color image are input. FIG. 4C illustrates a distance image foreground 209, a connected pixel block 501, an approximate ellipse 502, and a color image 218 illustrated in FIG.

まずステップS320において、距離画像前景209、連結画素塊501、近似楕円502、色画像218を取得する処理を実行する。次に、ステップS321において、連結画素塊の輪郭上に、前景背景不確定領域を設定する。図4の(D)に連結画素及び前景背景不確定領域を示す。尚、前景背景不確定領域は、指先と机との近接が検知された位置およびその周辺の領域に相当する。ステップS321においては、まずステップS306で得られた連結画素塊501の近似楕円502の長軸503を指先方向に延長し、楕円505を作成する。次に、楕円505(斜線部)と、ステップS306で求めた連結画素塊501に肥大処理を施した領域506(黒塗り)の論理和を求める。この論理和と、連結画素塊501に浸食処理を施した領域507(白抜き)の否定との論理積を求め、前景背景不確定領域508(斜線部+黒塗り)とする。ここで、近似楕円502の拡大率を適切な値にすることで、ステップS305における距離画像前景取得時の閾値処理により前景に含まれなかった指先102の領域も前景背景不確定領域508に含める事ができる。   First, in step S320, processing for obtaining a distance image foreground 209, a connected pixel block 501, an approximate ellipse 502, and a color image 218 is executed. Next, in step S321, a foreground / background uncertain region is set on the outline of the connected pixel block. FIG. 4D shows a connected pixel and a foreground / background uncertain region. Note that the foreground / background indeterminate region corresponds to a region where the proximity of the fingertip and the desk is detected and its surrounding region. In step S321, first, the major axis 503 of the approximate ellipse 502 of the connected pixel block 501 obtained in step S306 is extended in the fingertip direction to create an ellipse 505. Next, a logical sum of an ellipse 505 (shaded portion) and an area 506 (blackened) obtained by enlarging the connected pixel block 501 obtained in step S306 is obtained. The logical product of this logical sum and the negation of the area 507 (outlined) in which the connected pixel block 501 has been subjected to erosion processing is obtained and set as a foreground / background indeterminate area 508 (shaded area + black). Here, by setting the enlargement ratio of the approximate ellipse 502 to an appropriate value, the area of the fingertip 102 that was not included in the foreground by the threshold processing at the time of obtaining the distance image foreground in step S305 is also included in the foreground / background uncertain area 508. Can do.

次に、ステップS322において、色画像上に距離画像上の前景背景不確定領域に相当する不確定領域を求める。ステップS301に示した通り、色画像218は距離画像205よりも解像度が荒い。よって、距離画像205上のある領域に対応する色画像218上の領域を求めるには、単純拡大すればよい。具体的には、距離画像205と色画像218の解像度比を求め、ステップS321で求めた連結画素塊に浸食処理を施した領域507を求めた解像度比に合わせて拡大した領域を前景601とする。同様に、ステップS321で求めた前景背景不確定領域508を求めた解像度比に合わせて拡大した領域を不確定領域602とする。その双方の領域に含まれない領域を背景603とする。図5(A)に示す色画像の腕部分の拡大図を図5(B)に示す。前景601を成す黒い四角の一つが、転写元の距離画像205上の1ピクセル相当にするとする。同様に背景603を成す白い四角の一つが転写元の距離画像205上の背景の1ピクセルに相当する。不確定領域602には腕108及び指先102の輪郭が含まれる。   Next, in step S322, an uncertain area corresponding to the foreground / background uncertain area on the distance image is obtained on the color image. As shown in step S301, the resolution of the color image 218 is rougher than that of the distance image 205. Therefore, in order to obtain an area on the color image 218 corresponding to an area on the distance image 205, simple enlargement may be performed. Specifically, the resolution ratio between the distance image 205 and the color image 218 is obtained, and an area obtained by enlarging the area 507 obtained by performing the erosion process on the connected pixel block obtained in step S321 according to the obtained resolution ratio is set as the foreground 601. . Similarly, an area in which the foreground / background indeterminate area 508 obtained in step S321 is enlarged in accordance with the obtained resolution ratio is set as an indeterminate area 602. A region not included in both the regions is set as a background 603. FIG. 5B shows an enlarged view of the arm portion of the color image shown in FIG. Assume that one of the black squares forming the foreground 601 corresponds to one pixel on the distance image 205 of the transfer source. Similarly, one of the white squares forming the background 603 corresponds to one background pixel on the distance image 205 of the transfer source. The indeterminate region 602 includes the contours of the arm 108 and the fingertip 102.

次に、ステップS323において、色画像上の不確定領域内に前景を求める。図5(B)の斜線部及び黒塗りに分離される色画像前景220を示す。すなわち前景220はステップS322で求めた前景601を含む。ここで、前景を背景から分離するには、一般にGraph Cutと呼ばれる手法が適用可能である。まず、前景601と背景603のそれぞれについて、前景601もしくは背景603に含まれ、かつ不確定領域602に近接するピクセル群の色モデルを取得する。色モデルの取得には分布のGaussian Mixture ModelをEM algorithmで近似する。次に、不確定領域内の各ピクセルについて、各画素をノード、画素同士の隣接関係をリンクとするグラフを生成する。次に、不確定領域602内の各ピクセルについて、前景601に属する確率及び背景603に属する確率をそれぞれのGaussian Mixture Modelに従い求める。各リンクの重みをノードとなる画素の色の類似度とする。上記のグラフについて、前景601及び背景603からいくつかのノード及びリンクを追加する。このグラフを、例えば、線形計画法を用いて最大流最小切断する。このGraph Cut法により不確定領域602の各ピクセルについて前景220に属するか否かが求められる。求めた前景220に前景601との論理和を求め、前景220とする。   Next, in step S323, a foreground is obtained within an indeterminate area on the color image. FIG. 5B shows a color image foreground 220 that is separated into a shaded area and black paint in FIG. That is, the foreground 220 includes the foreground 601 obtained in step S322. Here, in order to separate the foreground from the background, a technique called Graph Cut is generally applicable. First, for each of the foreground 601 and the background 603, a color model of a pixel group included in the foreground 601 or the background 603 and close to the indeterminate region 602 is acquired. To obtain the color model, the Gaussian Mixture Model of the distribution is approximated by EM algorithm. Next, for each pixel in the uncertain region, a graph is generated in which each pixel is a node and the adjacent relationship between the pixels is a link. Next, for each pixel in the uncertain region 602, the probability belonging to the foreground 601 and the probability belonging to the background 603 are determined according to the respective Gaussian Mixture Models. The weight of each link is defined as the similarity of the color of the pixel as a node. For the above graph, add some nodes and links from the foreground 601 and background 603. The graph is cut with a maximum flow and a minimum using, for example, linear programming. Whether or not each pixel in the indeterminate region 602 belongs to the foreground 220 is determined by the Graph Cut method. A logical sum of the obtained foreground 220 and the foreground 601 is obtained to obtain the foreground 220.

次に、ステップS324において、色画像上の前景を元に、色画像における指先の座標を求める。具体的には、例えば、色画像前景220について、その連結画素塊を求め、連結画素塊の輪郭上の各画素について、長軸604への垂線の足の座標を取得し、その最大値もしくは最小値のうち画像端から遠い方を求める。得られた輪郭上の画素の座標を色画像における指先の座標222とする。   Next, in step S324, the coordinates of the fingertip in the color image are obtained based on the foreground on the color image. Specifically, for example, for the color image foreground 220, the connected pixel block is obtained, and for each pixel on the outline of the connected pixel block, the coordinates of the foot of the perpendicular to the major axis 604 are obtained, and the maximum value or the minimum Find the value farther from the edge of the image. The coordinates of the pixel on the obtained contour are taken as the fingertip coordinates 222 in the color image.

ステップS324で得られた指先の座標222が、モジュール202の出力である。以上説明した様に、色画像218が距離画像205より高解像度であるなら、色画像における指先の座標222は距離画像における指先の座標211よりも精度が高い。また、距離画像205から確度の高い距離画像前景209を求め、処理領域を絞り込むことで、色画像218全体に対し前景背景分離を施すよりも高速化できる。また、色モデルを生成する前景背景領域を不確定領域602に隣接する前景601及び背景603に限る事で、色モデルの分散を抑える事ができ、前景背景分離の精度を向上させることができる。   The fingertip coordinate 222 obtained in step S324 is the output of the module 202. As described above, if the color image 218 has a higher resolution than the distance image 205, the fingertip coordinates 222 in the color image are more accurate than the fingertip coordinates 211 in the distance image. Further, by obtaining the distance image foreground 209 with high accuracy from the distance image 205 and narrowing down the processing area, the speed can be increased compared to the case where the foreground / background separation is performed on the entire color image 218. Further, by limiting the foreground / background area for generating the color model to the foreground 601 and the background 603 adjacent to the uncertain area 602, dispersion of the color model can be suppressed, and the accuracy of the foreground / background separation can be improved.

次に、モジュール203における処理を説明する。モジュール203は図3(A)のステップS311の詳細に相当する。フローチャートを図3(C)のステップS330〜S333に示す。図3(C)は距離画像、前景の連結画素塊及びその近似楕円を入力とする。図4(A)の205に距離画像、図4(C)に前景の連結画素塊501、近似楕円502を示す。   Next, processing in the module 203 will be described. The module 203 corresponds to the details of step S311 in FIG. A flowchart is shown in steps S330 to S333 in FIG. FIG. 3C receives a distance image, a foreground connected pixel block, and an approximate ellipse thereof. 4A shows a distance image, and FIG. 4C shows a connected pixel block 501 and an approximate ellipse 502 in the foreground.

まず、ステップS330で、距離画像前景、連結画素塊501、近似楕円502を取得する処理を実行する。次に、ステップS331で、楕円の長軸上のうち連結画素塊に含まれる点列から腕方向を求める。具体的には、近似楕円502の長軸503上の各画素の明度に対して最小二乗法などで直線を近似する。図6に、図4(A)の腕領域を机101の平面と平行な視点(側面方向)から見た図を示す。図6には、机101、腕108が映る。ステップS305の閾値処理により距離画像前景209として含まれない下限を701に示す。距離画像前景209の各画素は距離画像センサ105から腕108の上面702までの距離を示す。尚、図6に示した斜線部は、上面702に相当する。この上面702を近似する直線を求め、腕方向224とする。次に、ステップS332で、楕円の長軸上のうち連結画素塊に含まれる点列に対応する平面画像上の点列から机方向を求める。具体的には、図4(C)の長軸503が平面画像上で対応する点列401の各点の明度に最小二乗法などで近似する。図6に求める机方向703を示す。   First, in step S330, a process for obtaining a distance image foreground, a connected pixel block 501, and an approximate ellipse 502 is executed. Next, in step S331, the arm direction is obtained from the point sequence included in the connected pixel block on the long axis of the ellipse. Specifically, a straight line is approximated by the least square method or the like with respect to the brightness of each pixel on the major axis 503 of the approximate ellipse 502. FIG. 6 shows a view of the arm region of FIG. 4A viewed from a viewpoint (side direction) parallel to the plane of the desk 101. In FIG. 6, the desk 101 and the arm 108 are reflected. A lower limit 701 that is not included in the distance image foreground 209 by the threshold processing in step S305 is shown. Each pixel of the distance image foreground 209 indicates a distance from the distance image sensor 105 to the upper surface 702 of the arm 108. 6 corresponds to the upper surface 702. A straight line approximating the upper surface 702 is obtained and set as the arm direction 224. Next, in step S332, the desk direction is obtained from the point sequence on the planar image corresponding to the point sequence included in the connected pixel block on the major axis of the ellipse. Specifically, the long axis 503 in FIG. 4C approximates the brightness of each point in the point sequence 401 corresponding to the planar image by the least square method or the like. FIG. 6 shows a desired desk direction 703.

次に、ステップS333で、机方向と腕方向との交点を求め、色画像における指先の推測座標とする。すなわち、腕方向224と机方向703の交点を求め、色画像における指先の推測座標226とする。色画像における指先の推測座標226が、モジュール203の出力である。以上説明した様に、距離画像205では、机101に近接する指先102の領域は、距離画像前景背景分離部208の閾値処理により失われその取得が難しい場合がある。そこで、本実施形態では、指先の推測座標226を求める事が出来る。また、腕方向224及び机方向703は距離画像センサ105の複数の画素の明度から推測される為、距離画像センサ105の画素ごとに独立である限りの距離計測誤差については、その影響を軽減させることができる。また、距離画像に基づいて近接判定を行うモジュール201のステップS312では、色画像による指先の座標222と色画像から推測した指先の推測座標226の距離が閾値以下の場合に、机101と指先102が近接したと判定する。よって、この閾値を適切に設定する事で、ステップS309で用いた閾値よりも机101に近く、かつ机101に近接していない場合に、指先102は机101に近接していないと判定することができる。   Next, in step S333, the intersection of the desk direction and the arm direction is obtained and used as the estimated coordinates of the fingertip in the color image. That is, the intersection of the arm direction 224 and the desk direction 703 is obtained and used as the estimated coordinate 226 of the fingertip in the color image. The estimated coordinate 226 of the fingertip in the color image is the output of the module 203. As described above, in the distance image 205, the region of the fingertip 102 close to the desk 101 may be lost due to the threshold processing of the distance image foreground / background separation unit 208, and it may be difficult to obtain the region. Therefore, in this embodiment, the estimated coordinate 226 of the fingertip can be obtained. Further, since the arm direction 224 and the desk direction 703 are estimated from the brightness of a plurality of pixels of the distance image sensor 105, the influence of the distance measurement error as long as it is independent for each pixel of the distance image sensor 105 is reduced. be able to. In step S312 of the module 201 that performs proximity determination based on the distance image, when the distance between the fingertip coordinates 222 based on the color image and the estimated fingertip coordinates 226 estimated from the color image is equal to or smaller than the threshold value, the desk 101 and the fingertip 102 Is determined to be close. Therefore, by appropriately setting this threshold, it is determined that the fingertip 102 is not close to the desk 101 when it is closer to the desk 101 than the threshold used in step S309 and is not close to the desk 101. Can do.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (3)

距離画像センサを用いて、注目時点における所定の面の上に存在する物体の位置を検知する検知手段と、
前記注目時点において、検知された位置および前記位置の周辺を撮影した色画像から前記物体の端部を特定する特定手段と、
前記物体の位置に基づいて、特定された前記端部の位置を推定する推定手段と、
前記端部の位置に応じて前記面に対する接触を判定する判定手段とを有する情報処理装置。
Detecting means for detecting the position of an object existing on a predetermined surface at the time of interest using a distance image sensor;
A specifying means for specifying an end portion of the object from a color image obtained by photographing the detected position and the periphery of the position at the time of interest;
Estimating means for estimating the position of the identified end based on the position of the object;
An information processing apparatus comprising: a determination unit that determines contact with the surface according to the position of the end portion.
所定の面に対する接触を判定する情報処理装置の動作方法であって、
距離画像センサを用いて、注目時点における前記面の上に存在する物体の位置を検知する検知工程と、
前記注目時点において、検知された位置および前記位置の周辺を撮影した色画像から前記物体の端部を特定する特定工程と、
前記物体の位置に基づいて、特定された前記端部の位置を推定する推定工程と、
前記端部の位置に応じて前記面に対する接触を判定する判定工程とを有する動作方法。
An operation method of an information processing apparatus for determining contact with a predetermined surface,
A detection step of detecting a position of an object existing on the surface at the time of interest using a distance image sensor;
A specifying step of specifying an end of the object from a color image obtained by photographing the detected position and the periphery of the position at the time of interest;
An estimation step of estimating the position of the identified end based on the position of the object;
A determination step of determining contact with the surface in accordance with the position of the end portion.
請求項2に記載の動作方法をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the operation method according to claim 2.
JP2010188658A 2010-08-25 2010-08-25 Information processing device and operation method of the same Pending JP2012048393A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010188658A JP2012048393A (en) 2010-08-25 2010-08-25 Information processing device and operation method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010188658A JP2012048393A (en) 2010-08-25 2010-08-25 Information processing device and operation method of the same

Publications (1)

Publication Number Publication Date
JP2012048393A true JP2012048393A (en) 2012-03-08

Family

ID=45903207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010188658A Pending JP2012048393A (en) 2010-08-25 2010-08-25 Information processing device and operation method of the same

Country Status (1)

Country Link
JP (1) JP2012048393A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015520471A (en) * 2012-06-20 2015-07-16 アマゾン・テクノロジーズ、インコーポレイテッド Fingertip location for gesture input
JP2015212898A (en) * 2014-05-02 2015-11-26 キヤノン株式会社 Image processor, information processing method and program
JP2016018459A (en) * 2014-07-09 2016-02-01 キヤノン株式会社 Image processing system, control method therefore, program, and storage medium
US9400575B1 (en) 2012-06-20 2016-07-26 Amazon Technologies, Inc. Finger detection for element selection
JP2017091298A (en) * 2015-11-12 2017-05-25 日本電信電話株式会社 Image processing device, image processing method and image processing program
US11327608B2 (en) 2020-02-17 2022-05-10 Seiko Epson Corporation Two camera touch operation detection method, device, and system
US11385742B2 (en) 2020-02-17 2022-07-12 Seiko Epson Corporation Position detection method, position detection device, and position detection system
US11700365B2 (en) 2020-02-17 2023-07-11 Seiko Epson Corporation Position detection method, position detection device, and display device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015520471A (en) * 2012-06-20 2015-07-16 アマゾン・テクノロジーズ、インコーポレイテッド Fingertip location for gesture input
US9400575B1 (en) 2012-06-20 2016-07-26 Amazon Technologies, Inc. Finger detection for element selection
JP2015212898A (en) * 2014-05-02 2015-11-26 キヤノン株式会社 Image processor, information processing method and program
JP2016018459A (en) * 2014-07-09 2016-02-01 キヤノン株式会社 Image processing system, control method therefore, program, and storage medium
JP2017091298A (en) * 2015-11-12 2017-05-25 日本電信電話株式会社 Image processing device, image processing method and image processing program
US11327608B2 (en) 2020-02-17 2022-05-10 Seiko Epson Corporation Two camera touch operation detection method, device, and system
US11385742B2 (en) 2020-02-17 2022-07-12 Seiko Epson Corporation Position detection method, position detection device, and position detection system
US11700365B2 (en) 2020-02-17 2023-07-11 Seiko Epson Corporation Position detection method, position detection device, and display device

Similar Documents

Publication Publication Date Title
JP2012048393A (en) Information processing device and operation method of the same
US8485668B2 (en) 3D interaction for mobile device
JP5248806B2 (en) Information processing apparatus and information processing method
US9405182B2 (en) Image processing device and image processing method
US9535538B2 (en) System, information processing apparatus, and information processing method
US20180075618A1 (en) Measurement system and method for measuring multi-dimensions
US8441480B2 (en) Information processing apparatus, information processing system, and computer readable medium
AU2016262789B2 (en) 3d modeling by tracing 2d image ui
JP6123694B2 (en) Information processing apparatus, information processing method, and program
WO2019128495A1 (en) Method and apparatus for detecting image resolution, storage medium, and electronic device
JP2017199289A (en) Information processor, control method thereof, program, and storage medium
US10726569B2 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
US20230237777A1 (en) Information processing apparatus, learning apparatus, image recognition apparatus, information processing method, learning method, image recognition method, and non-transitory-computer-readable storage medium
JP7003617B2 (en) Estimator, estimation method, and estimation program
US20150185321A1 (en) Image Display Device
JP6393409B2 (en) Image recognition system, camera state estimation device, and program
JP2018109899A (en) Information processing apparatus, operation detecting method, and computer program
EP4350280A1 (en) Three-dimensional measurement device
US20240104919A1 (en) Information processing apparatus and information processing method
JP6452658B2 (en) Information processing apparatus, control method thereof, and program
Fujiwara et al. Interactions with a line-follower: An interactive tabletop system with a markerless gesture interface for robot control
JP2018063555A (en) Information processing device, information processing method, and program
US20200167005A1 (en) Recognition device and recognition method
JP2016139396A (en) User interface device, method and program
JP2017125764A (en) Object detection apparatus and image display device including the same