JP2016173616A - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP2016173616A
JP2016173616A JP2015051945A JP2015051945A JP2016173616A JP 2016173616 A JP2016173616 A JP 2016173616A JP 2015051945 A JP2015051945 A JP 2015051945A JP 2015051945 A JP2015051945 A JP 2015051945A JP 2016173616 A JP2016173616 A JP 2016173616A
Authority
JP
Japan
Prior art keywords
unit
operation panel
image processing
conductive member
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015051945A
Other languages
Japanese (ja)
Other versions
JP6443149B2 (en
Inventor
敏和 東
Toshikazu Azuma
敏和 東
博之 吉川
Hiroyuki Yoshikawa
博之 吉川
誠 島添
Makoto Shimazoe
誠 島添
明洋 林
Akihiro Hayashi
明洋 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2015051945A priority Critical patent/JP6443149B2/en
Publication of JP2016173616A publication Critical patent/JP2016173616A/en
Application granted granted Critical
Publication of JP6443149B2 publication Critical patent/JP6443149B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device that attains both of improvement in operability and reduction in manufacturing costs by detecting a three-dimensional gesture of users and other detection object thereof by means of a common configuration.SOLUTION: A detection unit (21) is configured to generate an electromagnetic field (EFL) in spaces (RGA, RGB and RGC) around an operation panel (160) with an inclination variable, and detect a distortion of the electromagnetic field deriving from existence of objects (HND and 801) in the space. A measurement unit (22) is configured to measure a three-dimensional coordinate of the object from the distortion, and a conductivity material (801) is mounted to a portion of displaceable MFP (100) relatively with respect to the operation panel. On the basis of the coordinate of the object measured by the measurement unit, a discrimination unit (23) is configured to discriminate that the object is any of a hand (HND) of a user and the conductivity member. When the object is the hand of the user, an interpretation unit (434) is configured to interpret an input operation indexing a gesture of the user, and when the object is the conductivity member, an estimation unit (435) is configured to estimate an inclination angle (θ) of the operation panel.SELECTED DRAWING: Figure 8

Description

本発明は画像処理装置に関し、特に、その装置にユーザーのジェスチャーを入力操作として解釈させる技術に関する。   The present invention relates to an image processing apparatus, and more particularly to a technique for causing the apparatus to interpret a user's gesture as an input operation.

近年、プリンター、コピー機、スキャナー、ファクシミリ機(FAX)等の画像処理装置の開発においては、ユニバーサルデザイン(UD)の観点からの見直しが、主に操作パネル等の入力装置(ユーザーインターフェース:UI)を対象として進められている。画像処理装置はオフィスでの利用に見られるように、複数のユーザーに共用される場合が多い。したがって、その操作性の更なる向上にはUDの理念、すなわち、健常者と障碍者とを問わず、何人にとっても操作しやすいことが重要である。   In recent years, in the development of image processing apparatuses such as printers, copiers, scanners, facsimile machines (FAX), etc., the review from the viewpoint of universal design (UD) is mainly focused on input devices such as operation panels (user interface: UI). Is being promoted. An image processing apparatus is often shared by a plurality of users as seen in office use. Therefore, in order to further improve the operability, it is important for UD to be easy to operate regardless of whether it is a healthy person or a disabled person.

水平方向に対する傾斜角を可変にした操作パネルは、画像処理装置に採用されたUDの一例である(たとえば特許文献1参照)。操作パネルの表示は一般に、画面に対して垂直な方向(画面の法線方向)からが最も明瞭に見えやすいので、背の高いユーザーはそのパネルを水平に倒せばその表示が見やすい。一方、背の低いユーザーは逆にそのパネルを垂直に立てればよい。このように、操作パネルの傾斜角を可変にしてユーザーに自分の背の高さに応じてそのパネルの傾きを調節させることにより、いずれのユーザーにもその背の高さにかかわらず、そのパネルの表示を見えやすくすることができる。   An operation panel having a variable inclination angle with respect to the horizontal direction is an example of a UD employed in an image processing apparatus (see, for example, Patent Document 1). In general, the display on the operation panel is most clearly visible from the direction perpendicular to the screen (the normal direction of the screen). Therefore, a tall user can easily see the display by tilting the panel horizontally. On the other hand, a short user may simply stand the panel vertically. In this way, by changing the tilt angle of the operation panel and allowing the user to adjust the tilt of the panel according to his / her height, any user can use the panel regardless of its height. Can be displayed easily.

3次元(3D)ジェスチャーセンサーは、画像処理装置のUIにおけるUDの実現に有利な技術として有望視されているものの1つである(たとえば特許文献2−4、非特許文献1参照)。「3Dジェスチャーセンサー」とは、ユーザーの指、手等の3次元的な動きを検出し、その動きからユーザーの3次元的なジェスチャーを識別する技術、またはその機能を備えた検出器をいう。このセンサーの原理は多様であり、たとえば、ユーザーの指等に装着された加速度センサーを利用してその指等の加速度からその3次元的な軌跡を計算するもの、ユーザーの指等に装着された送信器から放出された電磁波等を検出してその指等の3次元座標を算定するもの、赤外線、レーザー光等を利用してユーザーの指等を撮影し、その画像の解析からその指等の3次元座標を算定するもの、ユーザーの指等に起因する(準静的な)電界の歪みを検出してその指等の3次元座標を算定するもの(以下、「電界型」という。)を含む。フリック、スライド(スワイプ)等のジェスチャーを利用すれば画像処理装置に対する操作が直感的に表現可能であるので、老若男女、国籍、言語、文化等の違いを超えて何人にもその操作がわかりやすい。この意味で3Dジェスチャーセンサーは画像処理装置の操作性を更に向上させると期待されている。   A three-dimensional (3D) gesture sensor is one of the promising technologies for realizing UD in the UI of an image processing apparatus (see, for example, Patent Document 2-4 and Non-Patent Document 1). The “3D gesture sensor” refers to a detector that detects a three-dimensional movement of a user's finger, hand, etc. and identifies the user's three-dimensional gesture from the movement, or a detector having the function. The principle of this sensor is diverse. For example, it uses an acceleration sensor mounted on the user's finger etc. to calculate its three-dimensional trajectory from the acceleration of the finger etc., and is mounted on the user's finger etc. Detecting electromagnetic waves emitted from a transmitter and calculating the three-dimensional coordinates of the finger, etc., photographing the user's finger etc. using infrared light, laser light, etc. Those that calculate three-dimensional coordinates, and those that detect (quasi-static) electric field distortion caused by a user's finger or the like and calculate the three-dimensional coordinates of the finger or the like (hereinafter referred to as “electric field type”). Including. If gestures such as flick and slide (swipe) are used, operations on the image processing apparatus can be expressed intuitively. Therefore, it is easy for anyone to understand the operations regardless of gender, nationality, language, culture, and so on. In this sense, the 3D gesture sensor is expected to further improve the operability of the image processing apparatus.

特開平11−119498号公報JP 11-119498 A 特開平07−104922号公報Japanese Patent Application Laid-Open No. 07-104922 特表2013−519933号公報Special table 2013-519933 gazette 特表2015−500545号公報Special table 2015-500545 gazette 特開2002−135369号公報JP 2002-135369 A

「マイクロチップ ジェストIC(登録商標)デザインガイド」、マイクロチップ社、2013−2015年("MICROCHIP GestIC(登録商標) Design Guide," Microchip Technology, Inc., 2013-2015)"Microchip Gest IC (registered trademark) design guide", Microchip, 2013-2015 ("MICROCHIP GestIC (registered trademark) Design Guide," Microchip Technology, Inc., 2013-2015)

画像処理装置には、操作性の更なる向上とは別に、製造コストの更なる低減が求められている。これら2つの要求は実質的にはトレードオフの関係にある。実際、操作性の更なる向上には、3Dジェスチャーセンサーのような新規のセンサーの搭載が効果的である。しかし、製造コストの低減にはセンサーの削減が効果的である。
操作性の向上と製造コストの低減とを両立させるための工夫の1つとしては、既存のセンサーに本来の検出対象に加えて、別の対象をも検出させる技術が知られている。たとえば、特許文献5に開示された携帯電話は、タッチパネルに受話部へのユーザーの接触を検出させることにより、通話中であるか否かを判別する。
In addition to further improvement in operability, image processing apparatuses are required to further reduce manufacturing costs. These two requirements are essentially in a trade-off relationship. In fact, it is effective to install a new sensor such as a 3D gesture sensor to further improve the operability. However, reducing the number of sensors is effective for reducing the manufacturing cost.
As one of contrivances for achieving both improvement in operability and reduction in manufacturing cost, a technique is known in which an existing sensor detects another target in addition to the original detection target. For example, the mobile phone disclosed in Patent Literature 5 determines whether or not a call is in progress by causing the touch panel to detect the user's contact with the receiver.

操作性の向上を目的として3Dジェスチャーセンサーを画像処理装置に搭載するには、このセンサーにユーザーのジェスチャーに加えて、既存のセンサーの検出対象をも検出させる工夫が望ましい。この工夫が実現すれば、その既存のセンサーを削減することによって画像処理装置の製造コストを低減することができるからである。しかし、このような工夫についてはまだ何も知られてはいない。   In order to mount a 3D gesture sensor in an image processing apparatus for the purpose of improving operability, it is desirable to make this sensor detect a detection target of an existing sensor in addition to a user's gesture. If this contrivance is realized, the manufacturing cost of the image processing apparatus can be reduced by reducing the number of existing sensors. However, nothing is known about such a device yet.

本発明の目的は上記の課題を解決することであり、特にユーザーの3次元的なジェスチャーと他の検出対象とを共通の構成で検出することにより、操作性の向上と製造コストの低減とを両立させることが可能な画像処理装置を提供することにある。   An object of the present invention is to solve the above-described problems, and in particular, by detecting a user's three-dimensional gesture and other detection objects with a common configuration, improving operability and reducing manufacturing costs. An object of the present invention is to provide an image processing apparatus capable of achieving both.

本発明の1つの観点における画像処理装置は操作パネルを備え、その操作パネルの表面から所定の範囲に広がる空間に電界を発生させて監視対象の空間として設定すると共に、その空間における物体の存在に起因するその電界の歪みを検出する検出部と、検出部の検出した電界の歪みから、監視対象の空間における物体の3次元座標を計測する計測部と、この画像処理装置のうち操作パネルと相対的に変位可能な部位に設けられ、操作パネルとの相対的な位置に応じて電界の歪みを変化させる導電部材と、計測部が計測した3次元座標に基づいて物体が、この画像処理装置に対するユーザーの入力操作に利用される指示体と導電部材とのいずれであるかを判別する判別部と、判別部による判別結果が指示体である場合、計測部が計測した3次元座標の動きをユーザーのジェスチャーとみなして、そのジェスチャーの指標する入力操作を解釈する解釈部と、その判別結果が導電部材である場合、計測部が計測した3次元座標から操作パネルとこの画像処理装置の上記の部位との相対的な位置を推測する推測部と、推測部が推測した位置に基づいてこの画像処理装置の動作状態を判断し、その動作状態に応じた処理を制御する制御部とを備えている。   An image processing apparatus according to one aspect of the present invention includes an operation panel, generates an electric field in a space extending from a surface of the operation panel to a predetermined range, and sets it as a monitoring target space. A detection unit that detects the distortion of the electric field caused by the detection unit, a measurement unit that measures the three-dimensional coordinates of the object in the space to be monitored from the distortion of the electric field detected by the detection unit, and the operation panel of the image processing apparatus. And an object based on the three-dimensional coordinates measured by the measuring unit, and a conductive member that is provided at a position that can be displaced in a movable manner and that changes the distortion of the electric field according to the relative position with the operation panel. A discriminating unit that discriminates between an indicator used for user input operation and a conductive member, and a tertiary measured by the measuring unit when the discrimination result by the discriminating unit is an indicator. Interpreting the coordinate movement as a user's gesture, interpreting the input operation indexed by the gesture, and if the determination result is a conductive member, the operation panel and this image processing from the three-dimensional coordinates measured by the measuring unit An estimation unit that estimates a relative position of the apparatus with respect to the above-described part, and a control unit that determines an operation state of the image processing apparatus based on the position estimated by the estimation unit and controls processing according to the operation state And.

検出部は、平面形状に配置された送信電極と、送信電極を含む平面から所定の距離を隔てて平行に広がる矩形面の各辺に1つずつ分離して配置された4つの受信電極と、送信電極に送信電圧信号を送出する送信部と、この送信電圧信号に応じて4つの受信電極のそれぞれが受ける受信電圧信号を検出する受信部とを含み、上記の電界の歪みを送信電圧信号に対する受信電圧信号の波形の歪みとして検出してもよい。この場合、送信電圧信号のレベルと比べれば全体の電位が実質的に一様とみなせる程度の電気伝導性を持ち、かつ送信電圧信号のレベルと比べれば実質的に接地電位に等しいとみなせる電位に維持された物体が監視対象の空間に存在するか否かに応じて送信電圧信号に対する受信電圧信号のレベルの落差に現れる変化を検出部は検出し、導電部材は実質的に接地電位に等しい電位に維持され、計測部はそのレベルの落差に現れる変化から物体の3次元座標を計測してもよい。   The detection unit includes a transmission electrode arranged in a planar shape, four reception electrodes arranged separately on each side of a rectangular surface extending in parallel with a predetermined distance from a plane including the transmission electrode, A transmission unit that transmits a transmission voltage signal to the transmission electrode; and a reception unit that detects a reception voltage signal received by each of the four reception electrodes in response to the transmission voltage signal, the distortion of the electric field described above with respect to the transmission voltage signal You may detect as a distortion of the waveform of a received voltage signal. In this case, the electrical potential is such that the overall potential can be regarded as substantially uniform as compared with the level of the transmission voltage signal, and the potential can be regarded as substantially equal to the ground potential as compared with the level of the transmission voltage signal. The detection unit detects a change appearing in a drop in the level of the reception voltage signal with respect to the transmission voltage signal depending on whether or not the maintained object exists in the space to be monitored, and the conductive member has a potential substantially equal to the ground potential. The measurement unit may measure the three-dimensional coordinates of the object from the change appearing in the drop of the level.

判別部は、計測部の計測した3次元座標が検出部から閾値以下の距離に位置する場合には、その3次元座標に位置する物体が指示体であると判別し、その3次元座標が検出部から閾値を超えた距離に位置する場合には、その3次元座標に位置する物体が導電部材であると判別してもよい。
判別部は、計測部の計測した3次元座標が検出部から閾値以下の距離に位置する場合には、その3次元座標に位置する物体が指示体であると判別し、その3次元座標が検出部から閾値を超えた距離に位置する場合には更にその3次元座標の時間的変化を観察し、その時間的変化の幅が所定値以下であればその3次元座標に位置する物体が導電部材であると判別してもよい。
The discriminating unit discriminates that the object located at the three-dimensional coordinate is an indicator when the three-dimensional coordinate measured by the measuring unit is located at a distance equal to or less than the threshold from the detecting unit, and the three-dimensional coordinate is detected. When the object is located at a distance exceeding the threshold from the part, the object located at the three-dimensional coordinate may be determined to be a conductive member.
The discriminating unit discriminates that the object located at the three-dimensional coordinate is an indicator when the three-dimensional coordinate measured by the measuring unit is located at a distance equal to or less than the threshold from the detecting unit, and the three-dimensional coordinate is detected. When the distance from the portion exceeds the threshold, the temporal change of the three-dimensional coordinate is further observed. If the width of the temporal change is equal to or less than a predetermined value, the object positioned at the three-dimensional coordinate is the conductive member. It may be determined that

操作パネルは水平面に対する表面の傾きが可変であり、操作パネルの表面が水平面から傾斜する際にその表面に対する軌跡が監視対象の空間を通過するように、導電部材が配置されていてもよい。この場合、操作パネルは、操作画面を表示するための表示部を含み、推測部は、計測部が計測した3次元座標から操作パネルの傾きを推測し、制御部は、その傾きに応じて表示部に表示の属性を変更させてもよい。また、解釈部は、ユーザーのジェスチャーが対象とする操作画面上の座標を操作パネルの傾きに基づいて推定してもよい。   The operation panel has a variable surface inclination with respect to the horizontal plane, and the conductive member may be arranged so that the trajectory with respect to the surface passes through the space to be monitored when the surface of the operation panel is inclined from the horizontal plane. In this case, the operation panel includes a display unit for displaying an operation screen, the estimation unit estimates the inclination of the operation panel from the three-dimensional coordinates measured by the measurement unit, and the control unit displays according to the inclination. The display attribute may be changed by the part. The interpretation unit may estimate the coordinates on the operation screen targeted by the user's gesture based on the tilt of the operation panel.

この画像処理装置は、原稿台に載せられたシートから画像を読み取るスキャナーと、原稿台を覆い隠すようにスキャナーに開閉可能に取り付けられた上蓋とを更に備えていてもよい。この場合、操作パネルは原稿台の縁に設置され、導電部材は、上蓋の開閉に伴って操作パネルの表面に対して描く軌跡が監視対象の空間を通過するように配置され、制御部は、推測部が推測した上蓋の位置に基づいて画像処理装置の動作状態を判断してもよい。   The image processing apparatus may further include a scanner that reads an image from a sheet placed on the document table, and an upper lid that is attached to the scanner so as to be openable and closable so as to cover the document table. In this case, the operation panel is installed on the edge of the document table, and the conductive member is arranged so that the locus drawn on the surface of the operation panel as the upper lid is opened and closed passes through the space to be monitored. The operating state of the image processing apparatus may be determined based on the position of the upper lid estimated by the estimation unit.

この画像処理装置は、トナーまたはインクでシートに画像を形成する画像形成部と、この画像処理装置の前面のうち、操作パネルの下方に位置する部位に開閉可能に取り付けられ、画像形成部に対するトナーもしくはインクの補充、またはシートの出し入れを可能にする前扉とを更に備えていてもよい。この場合、導電部材は、前扉の開閉に伴って操作パネルの表面に対して描く軌跡が監視対象の空間を通過するように配置され、制御部は、推測部が推測した前扉の位置に基づいて画像処理装置の動作状態を判断してもよい。   This image processing apparatus is attached to an image forming unit that forms an image on a sheet with toner or ink, and can be opened and closed at a portion of the front surface of the image processing apparatus located below the operation panel. Or you may provide further the front door which enables replenishment of an ink or taking in and out of a sheet | seat. In this case, the conductive member is arranged so that the locus drawn on the surface of the operation panel as the front door is opened and closed passes through the space to be monitored, and the control unit is positioned at the position of the front door estimated by the estimation unit. The operating state of the image processing apparatus may be determined based on the result.

本発明による上記の画像処理装置ではまず、検出部が監視対象の空間における物体の存在に起因する電界の歪みを検出する。次に、判別部がこの電界の歪みからその物体の3次元座標を計測し、この3次元座標に基づいてその物体が指示体と導電部材とのいずれであるかを判別する。判別結果が指示体である場合には解釈部がこの指示体の動きからユーザーのジェスチャーによる入力操作を解釈し、導電部材である場合には推測部が操作パネルと導電部材の設けられた部位との相対的な位置を推測する。こうして、この画像処理装置はユーザーの3次元的なジェスチャーと所定の部位の3次元的な変位とを共通の構成で検出する。これにより、この画像処理装置は操作性の向上と製造コストの低減とを両立させることができる。   In the image processing apparatus according to the present invention, first, the detection unit detects distortion of the electric field due to the presence of the object in the space to be monitored. Next, the determination unit measures the three-dimensional coordinates of the object from the distortion of the electric field, and determines whether the object is the indicator or the conductive member based on the three-dimensional coordinates. When the determination result is an indicator, the interpretation unit interprets an input operation by a user's gesture from the movement of the indicator, and when it is a conductive member, the estimation unit includes an operation panel and a part provided with the conductive member. Guess the relative position of. In this way, this image processing apparatus detects a user's three-dimensional gesture and a three-dimensional displacement of a predetermined part with a common configuration. Thereby, this image processing apparatus can achieve both improvement in operability and reduction in manufacturing cost.

(a)は、本発明の実施形態による画像処理装置の外観を示す斜視図であり、(b)は、この画像処理装置に実装された操作パネルの側面図である。(A) is a perspective view which shows the external appearance of the image processing apparatus by embodiment of this invention, (b) is a side view of the operation panel mounted in this image processing apparatus. (a)、(b)はそれぞれ、図1の示す操作パネルの傾斜角と背の高いユーザー、背の低いユーザーとの関係を示す模式図である。(A), (b) is a schematic diagram which respectively shows the relationship between the inclination angle of the operation panel shown in FIG. 1, and a tall user and a short user. 図1の示す画像処理装置の電子制御系統の構成を示すブロック図である。It is a block diagram which shows the structure of the electronic control system of the image processing apparatus shown in FIG. 図1の示す操作パネルの電子制御系統を示すブロック図である。It is a block diagram which shows the electronic control system of the operation panel shown in FIG. (a)は、図4の示す電界型3Dジェスチャーセンサーの電極群の平面図であり、(b)は、(a)の示す直線b−bに沿った断面の拡大図であり、(c)は、(a)の示す送信電極4T、第4受信電極4E、送信部、および受信部の等価回路図である。(A) is a top view of the electrode group of the electric field type | mold 3D gesture sensor shown in FIG. 4, (b) is an enlarged view of the cross section along the straight line bb which (a) shows, (c). These are the equivalent circuit diagrams of the transmission electrode 4T, the 4th reception electrode 4E, a transmission part, and a receiving part which (a) shows. (a)−(c)はそれぞれ、図5の示す送信電極4Tに対し、接地電位を基準として正である電圧が印加された際に送信電極4Tと基板4Gとの間に生じる電界を、タッチパネルの近傍に接地導体が存在しない場合、ユーザーの手が存在する場合、接地された導体が存在する場合に示す側面図である。(d)は、接地導体の有無に応じた受信電圧信号の波形の歪みの差を受信電極ごとに示すグラフである。(A)-(c) shows the electric field generated between the transmission electrode 4T and the substrate 4G when a positive voltage with respect to the ground potential is applied to the transmission electrode 4T shown in FIG. FIG. 5 is a side view showing a case where a ground conductor is not present in the vicinity, a user's hand is present, and a grounded conductor is present. (D) is a graph which shows the difference of the distortion of the waveform of the received voltage signal according to the presence or absence of a ground conductor for every receiving electrode. (a)は、図4の示す電界型3Dジェスチャーセンサーで検出可能な接地導体の3次元座標の範囲を示す側面図である。(b)は、この3Dジェスチャーセンサーによる検出で識別可能な接地導体の3次元座標の仮想的な範囲を示す側面図である。(c)は、(a)の示す表側空間URGの2点に位置する2つの異なる接地導体D1、D2を示す側面図であり、(d)は、この表側空間URGの別の1点に位置する1つの接地導体D3を示す側面図である。(A) is a side view which shows the range of the three-dimensional coordinate of the grounding conductor which can be detected with the electric field type | mold 3D gesture sensor shown in FIG. (B) is a side view showing a virtual range of the three-dimensional coordinates of the ground conductor that can be identified by detection by the 3D gesture sensor. (C) is a side view showing two different ground conductors D1 and D2 located at two points of the front side space URG shown in (a), and (d) is located at another one point of the front side space URG. It is a side view which shows one grounding conductor D3 to do. (a)は、図7の(a)の示す範囲内に設定された監視対象の空間を示す模式図である。(b)は、この監視対象の空間と図7の(b)の示す仮想的な範囲との関係を示す模式図である。(c)は、操作パネルの揺動によってタッチパネルの表面が水平面に対して傾斜したときにおける監視対象の空間を示す模式図である。(d)は、(c)の示す監視対象の空間と図7の(b)の示す仮想的な範囲との対応関係を示す模式図である。(A) is a schematic diagram which shows the space of the monitoring object set in the range which (a) of FIG. 7 shows. (B) is a schematic diagram showing the relationship between the space to be monitored and the virtual range shown in (b) of FIG. (C) is a schematic diagram showing a space to be monitored when the surface of the touch panel is inclined with respect to the horizontal plane by swinging the operation panel. (D) is a schematic diagram showing the correspondence between the space to be monitored shown in (c) and the virtual range shown in (b) of FIG. (a)、(b)はそれぞれ、受信電圧信号RVSの波形の歪みから計測された3次元座標のZ軸成分の時間的変化の一例を示すグラフである。(A), (b) is a graph which respectively shows an example of the time change of the Z-axis component of the three-dimensional coordinate measured from the distortion of the waveform of the received voltage signal RVS. 判別方法(A)による処理のフローチャートである。It is a flowchart of the process by the discrimination method (A). 判別方法(B)による処理のフローチャートである。It is a flowchart of the process by the discrimination method (B). (a)は、図4の示すLCDの表示の属性、3Dジェスチャーセンサーによる検出の特性、および操作パネルの傾斜角θの間の対応表である。(b)、(c)はそれぞれ、操作パネルの傾斜角が第1区間(θ<θB)、第2区間(θ≧θB)に属すると推測されたときにその画面に表示される文字を示す模式図である。(A) is a correspondence table between the display attributes of the LCD shown in FIG. 4, the detection characteristics by the 3D gesture sensor, and the tilt angle θ of the operation panel. (B) and (c) show characters displayed on the screen when it is estimated that the tilt angle of the operation panel belongs to the first section (θ <θB) and the second section (θ ≧ θB), respectively. It is a schematic diagram. (a)、(b)、(c)はそれぞれ、図1の示す操作パネルの傾斜角が、第1区間(θ≦θ1)、第2区間(θ1<θ<θ2)、第3区間(θ2≦θ)に属するときにその画面に向けられるユーザーの視線を示す模式図である。(d)は、この傾斜角に応じた対象座標の補正値を示す表である。(A), (b), and (c) are respectively the first section (θ ≦ θ1), the second section (θ1 <θ <θ2), and the third section (θ2). It is a schematic diagram showing a user's line of sight directed to the screen when belonging to ≦ θ). (D) is a table | surface which shows the correction value of the object coordinate according to this inclination angle. (a)は、図1の示すスキャナーの原稿台の上蓋と図4の示す電界型3Dジェスチャーセンサーによる監視対象の空間との位置関係を示す模式図である。(b)は、(a)の示す監視対象の空間とこの3Dジェスチャーセンサーによる検出で識別可能な接地導体の3次元座標の仮想的な範囲との間の対応関係を示す模式図である。(c)は、(a)の示す上蓋が開いたときにおける監視対象の空間を示す模式図である。(d)は、(c)の示す監視対象の空間と3Dジェスチャーセンサーによる検出で識別可能な接地導体の3次元座標の仮想的な範囲との対応関係を示す模式図である。(A) is a schematic diagram showing the positional relationship between the upper lid of the document table of the scanner shown in FIG. 1 and the space to be monitored by the electric field type 3D gesture sensor shown in FIG. (B) is a schematic diagram showing the correspondence between the space to be monitored shown in (a) and the virtual range of the three-dimensional coordinates of the ground conductor that can be identified by detection by this 3D gesture sensor. (C) is a schematic diagram showing the space to be monitored when the upper lid shown in (a) is opened. (D) is a schematic diagram showing the correspondence between the space to be monitored shown in (c) and the virtual range of the three-dimensional coordinates of the ground conductor that can be identified by detection by a 3D gesture sensor. (a)は、図1の示す画像処理装置の前扉と図4の示す電界型3Dジェスチャーセンサーによる監視対象の空間との位置関係を示す模式図である。(b)は、(a)の示す監視対象の空間と3Dジェスチャーセンサーによる検出で識別可能な接地導体の3次元座標の仮想的な範囲との間の対応関係を示す模式図である。(c)は、(a)の示す前扉が開いたときにおける監視対象の空間を示す模式図である。(d)は、(c)の示す監視対象の空間と3Dジェスチャーセンサーによる検出で識別可能な接地導体の3次元座標の仮想的な範囲との対応関係を示す模式図である。(A) is a schematic diagram which shows the positional relationship of the front door of the image processing apparatus shown in FIG. 1, and the space of the monitoring object by the electric field type | mold 3D gesture sensor shown in FIG. (B) is a schematic diagram showing the correspondence between the space to be monitored shown in (a) and the virtual range of the three-dimensional coordinates of the ground conductor that can be identified by detection by the 3D gesture sensor. (C) is a schematic diagram showing the space to be monitored when the front door shown in (a) is opened. (D) is a schematic diagram showing the correspondence between the space to be monitored shown in (c) and the virtual range of the three-dimensional coordinates of the ground conductor that can be identified by detection by a 3D gesture sensor. (a)、(b)はそれぞれ、図1の示す操作パネルの傾斜角が0°、正の値であり、かつ第1領域の定点にユーザーの手が位置する場合に判別部の計測する3次元座標を示す模式図である。(c)は、判別部が計測する3次元座標、操作パネルの傾斜角、およびジェスチャー座標の対応表である。(A) and (b) are respectively measured by the determination unit when the inclination angle of the operation panel shown in FIG. 1 is 0 ° and is a positive value, and the user's hand is positioned at a fixed point in the first area 3. It is a schematic diagram which shows a dimensional coordinate. (C) is a correspondence table of the three-dimensional coordinates measured by the determination unit, the tilt angle of the operation panel, and the gesture coordinates.

以下、本発明の実施形態について、図面を参照しながら説明する。
[画像処理装置の外観]
図1の(a)は、本発明の実施形態による画像処理装置の外観を示す斜視図である。この画像処理装置100は胴内排紙型の複合機(multi-function peripheral:MFP)であり、スキャナー、カラーコピー機、およびカラーレーザープリンターの機能を併せ持つ。図1の(a)を参照するに、このMFP100の筐体の上面には自動原稿送り装置(auto document feeder:ADF)110が開閉可能に装着されている。ADF110の直下に位置する筐体の上部にはスキャナー120が内蔵され、下部にはプリンター130が内蔵され、更にその底部には複数段の給紙カセット140が引き出し可能に取り付けられている。スキャナー120とプリンター130との間には隙間GAPが開けられ、その中に排紙トレイ150が配置されている。この隙間GAPの奥には排紙口131が設置され、そこから排紙トレイ150へシートが排紙される。隙間GAPの横に位置する筐体の前面部分には操作パネル160が取り付けられている。操作パネル160の前面にはタッチパネル161が埋め込まれ、その周囲に各種の機械的な押しボタン162が配置されている。このタッチパネル161には、タッチパッドと薄膜ディスプレイとに加え、電界型3Dジェスチャーセンサーの電極が積層されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[Appearance of image processing device]
FIG. 1A is a perspective view showing an appearance of an image processing apparatus according to an embodiment of the present invention. The image processing apparatus 100 is a multi-function peripheral (MFP) that has a function of a scanner, a color copier, and a color laser printer. Referring to FIG. 1A, an automatic document feeder (ADF) 110 is mounted on the top surface of the MFP 100 so as to be openable and closable. A scanner 120 is built in the upper part of the casing located directly under the ADF 110, a printer 130 is built in the lower part, and a plurality of stages of paper feed cassettes 140 are attached to the bottom of the scanner 130 so that they can be pulled out. A gap GAP is opened between the scanner 120 and the printer 130, and a paper discharge tray 150 is disposed therein. A paper discharge port 131 is installed in the back of the gap GAP, and a sheet is discharged from the paper discharge tray 150 to the paper discharge port 131. An operation panel 160 is attached to the front portion of the housing located beside the gap GAP. A touch panel 161 is embedded in the front surface of the operation panel 160, and various mechanical push buttons 162 are arranged around the touch panel 161. On the touch panel 161, an electrode of an electric field type 3D gesture sensor is stacked in addition to a touch pad and a thin film display.

[水平面に対する傾きが可変な操作パネル]
図1の(b)は、この操作パネル160の側面図である。図1の(b)を参照するに、この操作パネル160は水平面に対する傾きが可変である。具体的には、操作パネル160の背面163は、MFP100の筐体101から前方に突出したヒンジ部102に揺動可能に接続されている。この背面163はレバー164を含む。ユーザーにこのレバー164を引かせることにより操作パネル160は、ヒンジ部102を水平方向(図1の(b)では紙面の法線方向)に貫く仮想的な軸のまわりに上下方向(図1の(b)では紙面の縦方向)に揺動する。この揺動に伴い、操作パネル160の前面に埋め込まれたタッチパネル161は、その画面がほぼ水平な姿勢(図1の(b)は実線で示す。)から、その画面が水平面に対して角度θだけ傾斜した姿勢(図1の(b)は一点鎖線で示す。)へ変化する。この角度、すなわち傾斜角θはたとえば約0°から約90°までの範囲で調節可能である。
[Operation panel with variable inclination with respect to the horizontal plane]
FIG. 1B is a side view of the operation panel 160. Referring to FIG. 1B, the operation panel 160 is variable in inclination with respect to the horizontal plane. Specifically, the back surface 163 of the operation panel 160 is swingably connected to a hinge portion 102 that protrudes forward from the casing 101 of the MFP 100. The back surface 163 includes a lever 164. By causing the user to pull the lever 164, the operation panel 160 moves vertically (around the virtual axis in FIG. 1) around a virtual axis passing through the hinge portion 102 in the horizontal direction (the normal direction of the paper surface in FIG. 1B). In (b), it swings in the vertical direction of the paper surface. Along with this swinging, the touch panel 161 embedded in the front surface of the operation panel 160 has an angle θ with respect to the horizontal plane because the screen has a substantially horizontal posture ((b) in FIG. 1 is indicated by a solid line). It changes to a posture inclined by (only (b) in FIG. 1 is indicated by a one-dot chain line). This angle, that is, the inclination angle θ can be adjusted within a range of about 0 ° to about 90 °, for example.

図2は、操作パネル160の傾斜角θとユーザーの背の高さとの関係を示す模式図である。図2の(a)を参照するに、背の高いユーザーは一般に、操作パネル160の傾斜角θを0°付近に調節してタッチパネル161の画面を水平近くに寝かせる。一方、背の低いユーザーは一般に、この傾斜角θを90°付近に調節してタッチパネル161の画面を垂直近くまで立てる。   FIG. 2 is a schematic diagram showing the relationship between the inclination angle θ of the operation panel 160 and the height of the user's back. Referring to FIG. 2A, a tall user generally adjusts the tilt angle θ of the operation panel 160 to near 0 ° and lays the screen of the touch panel 161 near horizontal. On the other hand, a short user generally adjusts the inclination angle θ to about 90 ° and raises the screen of the touch panel 161 to near vertical.

これらの理由は主に、画面表示の見えやすいタッチパネル161の傾きがユーザーの背の高さに関係することにある。実際、タッチパネル161の含む薄膜ディスプレイ、たとえば液晶ディスプレイ(LCD)では一般に、そのコントラストが視野角の中心付近で最も高いので、それらは画面の法線方向からが最も明瞭に見えやすい。図2の(a)が示すように、成人等、比較的背の高いユーザーはその目の位置も高いので、操作パネル160の傾斜角θを0°付近に調節すれば視線を画面の法線方向に合わせやすい。一方、図2の(b)が示すように、車椅子の利用者、高齢者、子供等、比較的背の低いユーザーはその逆であり、傾斜角θを90°付近に調節すれば視線を画面の法線方向に合わせやすい。   These reasons are mainly because the inclination of the touch panel 161 with which the screen display is easy to see is related to the height of the user. In fact, a thin film display including the touch panel 161, such as a liquid crystal display (LCD), generally has the highest contrast near the center of the viewing angle, so that they are most clearly visible from the normal direction of the screen. As shown in FIG. 2A, a relatively tall user such as an adult has a high eye position. Therefore, if the inclination angle θ of the operation panel 160 is adjusted to around 0 °, the line of sight is made normal to the screen. Easy to match the direction. On the other hand, as shown in FIG. 2 (b), a relatively short user such as a wheelchair user, an elderly person, or a child is the opposite, and if the inclination angle θ is adjusted to around 90 °, the line of sight is displayed. Easy to align with the normal direction.

このように、操作パネル160はその傾斜角が可変であるので、いずれのユーザーにとっても、その背の高さにかかわらず、画面表示を見えやすくすることができる。
[画像処理装置の電子制御系統]
図3は、MFP100の電子制御系統の構成を示すブロック図である。図3を参照するにこの系統では、画像形成部10、操作部20、画像入力部26、および主制御部30がバス40を通して互いに通信可能に接続されている。
As described above, since the tilt angle of the operation panel 160 is variable, the screen display can be easily seen for any user regardless of the height of the user.
[Electronic control system of image processing device]
FIG. 3 is a block diagram showing the configuration of the electronic control system of MFP 100. Referring to FIG. 3, in this system, the image forming unit 10, the operation unit 20, the image input unit 26, and the main control unit 30 are connected to each other through a bus 40 so as to communicate with each other.

−画像形成部−
画像形成部10は画像データに基づいてシートに画像を形成する要素であり、給送部11、作像部12、定着部13、および排紙部14を含む。給送部11は搬送ローラー群を利用して給紙カセット140からシートを1枚ずつ作像部12へ給送する。作像部12は給送部11から送られたシートの上にトナー像を形成する。定着部13は作像部12から送り出されたシートの上にトナー像を熱定着させる。排紙部14はトナー像が定着したシートを排紙トレイ150へ排紙する。
-Image forming section-
The image forming unit 10 is an element that forms an image on a sheet based on image data, and includes a feeding unit 11, an image forming unit 12, a fixing unit 13, and a paper discharge unit 14. The feeding unit 11 feeds sheets one by one from the sheet feeding cassette 140 to the image forming unit 12 using a transport roller group. The image forming unit 12 forms a toner image on the sheet sent from the feeding unit 11. The fixing unit 13 thermally fixes the toner image on the sheet sent from the image forming unit 12. The paper discharge unit 14 discharges the sheet on which the toner image is fixed to the paper discharge tray 150.

−操作部−
操作部20はMFP100に実装された入力装置(UI)であり、ユーザーのジェスチャー等からユーザーの操作を解釈して主制御部30に通知する。操作部20は、操作パネル160を含む。操作パネル160は、検出部21、計測部22、判別部23、制御部24、および表示部25を含む。
-Operation part-
The operation unit 20 is an input device (UI) installed in the MFP 100, interprets a user operation from a user gesture or the like, and notifies the main control unit 30. The operation unit 20 includes an operation panel 160. The operation panel 160 includes a detection unit 21, a measurement unit 22, a determination unit 23, a control unit 24, and a display unit 25.

検出部21はタッチパッドを利用して、ユーザーの指、またはスタイラス等、ユーザーがMFP100に対する入力操作に利用する物体(以下、「指示体」という。)によるタッチパッドへの接触を検出する。検出部21はまた電界型3Dジェスチャーセンサーの電極群を利用して操作パネル160の周囲の空間に電界を発生させ、この空間における物体の存在に起因する電界の歪みを検出する。この物体にはたとえば、ユーザーの手、その手に握られた金属製のスタイラス等、ユーザーの身体を通して実質的に接地された導電性の指示体が含まれる。計測部22は検出部21の検出した電界の歪みから物体の3次元座標を計測する。判別部23はこの3次元座標に基づいてその物体の運動がユーザーのジェスチャーと操作パネル160の揺動とのいずれに対応するかを判別する。制御部24は検出部21の検出結果と判別部23の判別結果とに基づいて、タッチパッドもしくは押しボタンを利用したユーザーの入力操作またはユーザーの3次元的なジェスチャーの指標する入力操作を解釈し、それらの入力操作に関する情報(以下、「操作情報」という。)を主制御部30へ伝える。表示部25は主制御部30からの指示に応じて、操作画面、各種情報の入力画面等のグラフィックユーザーインターフェース(GUI)画面をタッチパネル161に表示する。   The detection unit 21 uses the touch pad to detect a touch on the touch pad by an object (hereinafter referred to as “indicator”) used by the user for an input operation on the MFP 100 such as a user's finger or a stylus. The detection unit 21 also generates an electric field in the space around the operation panel 160 using the electrode group of the electric field type 3D gesture sensor, and detects the distortion of the electric field due to the presence of the object in this space. This object includes, for example, a conductive indicator that is substantially grounded through the user's body, such as the user's hand, a metal stylus held in the hand. The measurement unit 22 measures the three-dimensional coordinates of the object from the electric field distortion detected by the detection unit 21. Based on the three-dimensional coordinates, the determination unit 23 determines whether the motion of the object corresponds to the user's gesture or the swing of the operation panel 160. Based on the detection result of the detection unit 21 and the determination result of the determination unit 23, the control unit 24 interprets the user's input operation using the touch pad or the push button or the input operation indicated by the user's three-dimensional gesture. , Information related to these input operations (hereinafter referred to as “operation information”) is transmitted to the main control unit 30. In response to an instruction from the main control unit 30, the display unit 25 displays a graphic user interface (GUI) screen such as an operation screen and an input screen for various information on the touch panel 161.

−画像入力部−
画像入力部26はスキャナー120に加え、メモリーインタフェース(I/F)27とネットワーク(LAN)I/F28とを含む。スキャナー120は光学機器を利用して、ADF110が取り込んだ原稿、またはその下の原稿台に置かれた原稿に光を照射し、その反射光の強度分布から、文字、図柄、または写真を読み取って画像データに変換する。メモリーI/F27は、USBポート、メモリーカードスロット等の映像入力端子を通して、USBメモリー、ハードディスクドライブ(HDD)等の外付けの記憶装置から印刷対象の画像データを読み込み、またはそれらの記憶装置へスキャナー120で取り込んだ画像データを書き出す。LANI/F28は外部のLANに有線または無線で接続され、そのLAN上の電子機器から印刷対象の画像データを取得し、またはその電子機器へスキャナー120で取り込んだ画像データを送出する。
-Image input section-
In addition to the scanner 120, the image input unit 26 includes a memory interface (I / F) 27 and a network (LAN) I / F 28. The scanner 120 uses an optical device to irradiate a document captured by the ADF 110 or a document placed on a document table below the scanner 120, and reads characters, designs, or photographs from the intensity distribution of the reflected light. Convert to image data. The memory I / F 27 reads image data to be printed from an external storage device such as a USB memory or a hard disk drive (HDD) through a video input terminal such as a USB port or a memory card slot, or scans the image data into these storage devices. The image data captured at 120 is written out. The LAN I / F 28 is connected to an external LAN by wire or wirelessly, acquires image data to be printed from an electronic device on the LAN, or sends image data captured by the scanner 120 to the electronic device.

−主制御部−
主制御部30は、MFP100の内部に設置された1枚の印刷回路基板に実装された電子回路である。図3を参照するに主制御部30は、CPU31、RAM32、およびROM33を含む。CPU31は各種ファームウェアを実行することにより、他の要素10、20に対する制御主体としての多様な機能を実現する。たとえば、CPU31は操作部20に操作画面等のGUI画面を表示させてユーザーの入力操作を受け付けさせる。この入力操作に応じてCPU31は、稼動モード、待機モード、スリープモード等、MFP100の動作モードを決定し、その動作モードに応じた処理を各要素10、20に指示する。RAM32は、CPU31がファームウェアを実行する際の作業領域をCPU31に提供すると共に、操作部20が受け付けた印刷対象の画像データを保存する。ROM33は書き込み不可の半導体メモリー装置と、EEPROM等の書き換え可能な半導体メモリー装置またはHDDとを含む。前者はファームウェアを格納し、後者はCPU31に環境変数等の保存領域を提供する。
−Main control unit−
Main control unit 30 is an electronic circuit mounted on one printed circuit board installed inside MFP 100. Referring to FIG. 3, the main control unit 30 includes a CPU 31, a RAM 32, and a ROM 33. The CPU 31 implements various functions as a control subject for the other elements 10 and 20 by executing various firmware. For example, the CPU 31 displays a GUI screen such as an operation screen on the operation unit 20 to accept a user input operation. In response to this input operation, the CPU 31 determines an operation mode of the MFP 100 such as an operation mode, a standby mode, a sleep mode, and instructs the elements 10 and 20 to perform processing corresponding to the operation mode. The RAM 32 provides the CPU 31 with a work area when the CPU 31 executes firmware, and stores image data to be printed received by the operation unit 20. The ROM 33 includes a non-writable semiconductor memory device and a rewritable semiconductor memory device such as an EEPROM or an HDD. The former stores firmware, and the latter provides the CPU 31 with a storage area for environment variables and the like.

[操作パネルの構造]
図4は、操作パネル160の電子制御系統を示すブロック図である。図4を参照するに検出部21は、タッチパネル161、タイミング生成部411、送信部412、および受信部413を含む。タッチパネル161は、タッチパッド4P、LCD4D、および電極群4T、4N、4S、4E、4Wを含む。これらは印刷回路基板(PCB)4Gに積層されている。タイミング生成部411、送信部412、および受信部413は、操作パネル160に内蔵の印刷回路基板に実装された電子回路である。この基板には更に、AD変換部42、計測部22、判別部23、制御部24、および通信部44が実装されている。特に、計測部22、判別部23、および制御部24はそれぞれ、信号処理回路の含む1つのモジュールとして構成されている。制御部24は更にサブモジュールとして、タッチ監視部431、表示制御部432、ボタン監視部433、ジェスチャー解釈部434、および傾斜角推測部435を含む。
[Operation panel structure]
FIG. 4 is a block diagram showing an electronic control system of the operation panel 160. Referring to FIG. 4, the detection unit 21 includes a touch panel 161, a timing generation unit 411, a transmission unit 412, and a reception unit 413. The touch panel 161 includes a touch pad 4P, an LCD 4D, and electrode groups 4T, 4N, 4S, 4E, and 4W. These are stacked on a printed circuit board (PCB) 4G. The timing generation unit 411, the transmission unit 412, and the reception unit 413 are electronic circuits mounted on a printed circuit board built in the operation panel 160. Further, an AD conversion unit 42, a measurement unit 22, a determination unit 23, a control unit 24, and a communication unit 44 are mounted on this board. In particular, each of the measurement unit 22, the determination unit 23, and the control unit 24 is configured as one module included in the signal processing circuit. The control unit 24 further includes a touch monitoring unit 431, a display control unit 432, a button monitoring unit 433, a gesture interpretation unit 434, and an inclination angle estimation unit 435 as submodules.

タッチパッド4Pとタッチ監視部431とは、たとえば抵抗膜方式のタッチセンサーを構成する。タッチパッド4Pは、上下2枚の基板がスペーサーを間に挟んで貼り合わされた構造を含み、各基板には細い帯状の透明電極が複数本、平行に並んでいる。これらの透明電極の長手方向は上下の基板で互いに直交するので、これらの交差部分はタッチパッド4Pの全体にマトリックス状に分布する。指示体がタッチパッド4Pに接触すると、その接触部分では上側の基板が凹んで上下の透明電極の交差部分が短絡する。タッチ監視部431は、上下の透明電極のいずれの対が短絡するかを監視することにより、いずれの交差部分に指示体が接触したかを検出する。タッチ監視部431は更に、検出した交差部分の時間的変位から、タップ、フリック等の2次元的ジェスチャーの種類を識別すると共に、その交差部分の位置とタッチパネル161の画面表示とを照合し、仮想ボタン、メニューの項目等、そのジェスチャーの指標する入力操作の対象を解釈する。こうしてタッチ監視部431は操作情報を生成して主制御部30へ通知する。   The touch pad 4P and the touch monitoring unit 431 configure, for example, a resistive film type touch sensor. The touch pad 4P includes a structure in which two upper and lower substrates are bonded to each other with a spacer in between. A plurality of thin strip-shaped transparent electrodes are arranged in parallel on each substrate. Since the longitudinal directions of these transparent electrodes are orthogonal to each other on the upper and lower substrates, these intersecting portions are distributed in a matrix on the entire touch pad 4P. When the indicator touches the touch pad 4P, the upper substrate is recessed at the contact portion, and the intersection of the upper and lower transparent electrodes is short-circuited. The touch monitoring unit 431 detects which pair of the upper and lower transparent electrodes is short-circuited, thereby detecting which crossing portion the indicator is in contact with. The touch monitoring unit 431 further identifies the type of a two-dimensional gesture such as tap or flick from the detected temporal displacement of the intersecting portion, collates the position of the intersecting portion with the screen display of the touch panel 161, and determines the virtual Interpret the input operation target indicated by the gesture, such as buttons and menu items. In this way, the touch monitoring unit 431 generates operation information and notifies the main control unit 30 of the operation information.

LCD4Dと表示制御部432とは図3の示す表示部25を構成する。表示制御部432は主制御部30からの指示に従い、操作画面等のGUI画面を表す画像データを生成してLCD4Dへ送出する。LCD4Dはこの画像データに基づいて各画素の輝度を調節する。これにより、タッチパネル161の画面にはGUI画面が表示される。
ボタン監視部433は、図1の示す操作パネル160上の各種の押しボタン162が押下されたか否かを監視する。いずれかの押しボタン162が押下されたとき、ボタン監視部433はそのボタンを識別し、印刷の開始、停止等、そのボタンに対応付けられた処理を解釈し、それに関する操作情報を生成して主制御部30へ通知する。
The LCD 4D and the display control unit 432 constitute the display unit 25 shown in FIG. The display control unit 432 generates image data representing a GUI screen such as an operation screen in accordance with an instruction from the main control unit 30 and sends it to the LCD 4D. The LCD 4D adjusts the luminance of each pixel based on this image data. As a result, a GUI screen is displayed on the screen of the touch panel 161.
The button monitoring unit 433 monitors whether various push buttons 162 on the operation panel 160 shown in FIG. 1 are pressed. When any one of the push buttons 162 is pressed, the button monitoring unit 433 identifies the button, interprets processing associated with the button, such as start / stop of printing, and generates operation information related thereto. Notify the main control unit 30.

タッチパネル161の含む電極群4T、4N、…、4W、タイミング生成部411、送信部412、受信部413、AD変換部42、計測部22、判別部23、ジェスチャー解釈部434、および傾斜角推測部435は電界型3Dジェスチャーセンサー410を構成する。具体的には、電極群4T、…、4W、タイミング生成部411、送信部412、および受信部413はタッチパネル161の周囲の空間に準静的な電界を発生させ、ユーザーの手等の物体の存在に起因するその電界の歪みを検出する。この歪みをAD変換部42はデジタル値で評価する。計測部22はこのデジタル値からその物体の3次元座標を計測する。判別部23はこの3次元座標に基づいてその出力先にジェスチャー解釈部434と傾斜角推測部435とのいずれかを選択する。ジェスチャー解釈部434は、判別部23から受信した3次元座標の時間的変化に基づいて、タップ、フリック、スライド、ローテーション等の3次元的ジェスチャーの種類を識別する。ジェスチャー解釈部434はまた操作パネル160の傾斜角に基づいてその3次元座標とタッチパネル161の画面表示とを照合し、仮想ボタン、メニューの項目等、ユーザーのジェスチャーが対象とするGUI部品を推定する。ジェスチャー解釈部434は更に、識別したジェスチャーの種類と推定したGUI部品とに基づいて、ユーザーのジェスチャーが指標する入力操作を解釈して操作情報を生成し、主制御部30へ通知する。傾斜角推測部435は、判別部23から受信した3次元座標に基づいて操作パネル160の傾斜角θを推測する。   Electrode groups 4T, 4N,..., 4W included in touch panel 161, timing generation unit 411, transmission unit 412, reception unit 413, AD conversion unit 42, measurement unit 22, determination unit 23, gesture interpretation unit 434, and inclination angle estimation unit Reference numeral 435 constitutes an electric field type 3D gesture sensor 410. Specifically, the electrode groups 4T,..., 4W, the timing generation unit 411, the transmission unit 412, and the reception unit 413 generate a quasi-static electric field in the space around the touch panel 161, and the object such as the user's hand. The distortion of the electric field due to the presence is detected. The AD converter 42 evaluates this distortion with a digital value. The measuring unit 22 measures the three-dimensional coordinates of the object from this digital value. The determination unit 23 selects either the gesture interpretation unit 434 or the inclination angle estimation unit 435 as an output destination based on the three-dimensional coordinates. The gesture interpretation unit 434 identifies the type of three-dimensional gesture such as tap, flick, slide, rotation, and the like based on the temporal change of the three-dimensional coordinates received from the determination unit 23. The gesture interpretation unit 434 also collates the three-dimensional coordinates with the screen display of the touch panel 161 based on the tilt angle of the operation panel 160, and estimates GUI parts targeted by the user's gesture such as virtual buttons and menu items. . The gesture interpretation unit 434 further generates an operation information by interpreting an input operation indicated by the user's gesture based on the identified gesture type and the estimated GUI component, and notifies the main control unit 30 of the operation information. The tilt angle estimation unit 435 estimates the tilt angle θ of the operation panel 160 based on the three-dimensional coordinates received from the determination unit 23.

通信部44は制御部24を図3の示すバス40へ通信可能に接続し、主制御部30からバス40を通して指示、画像データ等を受け取って制御部24へ渡すと共に、制御部24の生成した操作情報等をバス40に主制御部30へ伝達させる。
[電界型3Dジェスチャーセンサーの構造と原理]
図5の(a)は電界型3Dジェスチャーセンサー410の電極群4T、4N、4S、4E、4Wの平面図であり、(b)は、(a)の示す直線b−bに沿った断面の一部の拡大図である。図5の(a)、(b)を参照するに、PCB4Gは矩形状であり、その表面に第1絶縁層51、送信電極4T、第2絶縁層52、および4つの受信電極4N、4S、4E、4Wが下から順に積層されている。第1絶縁層51、送信電極4T、および第2絶縁層52はPCB4Gの表面に同じ平面形状で広がっている。第1絶縁層51はPCB4Gから送信電極4Tを電気的に分離し、第2絶縁層52は送信電極4Tから受信電極4N、…、4Wを電気的に分離している。受信電極4N、…、4Wは、第2絶縁層52の表面上に広がる仮想的な矩形領域の各辺に1つずつ分離して配置されている。いずれの受信電極4N、…も細い帯状であり、その矩形領域の辺に沿って伸びている。
The communication unit 44 communicatively connects the control unit 24 to the bus 40 shown in FIG. 3, receives instructions, image data, and the like from the main control unit 30 through the bus 40, passes them to the control unit 24, and generates the control unit 24. Operation information or the like is transmitted to the main control unit 30 via the bus 40.
[Structure and Principle of Electric Field Type 3D Gesture Sensor]
5A is a plan view of the electrode groups 4T, 4N, 4S, 4E, and 4W of the electric field type 3D gesture sensor 410, and FIG. 5B is a cross-sectional view taken along a line bb shown in FIG. It is a partial enlarged view. Referring to FIGS. 5A and 5B, the PCB 4G has a rectangular shape, and has a first insulating layer 51, a transmission electrode 4T, a second insulating layer 52, and four reception electrodes 4N, 4S on its surface. 4E and 4W are laminated in order from the bottom. The first insulating layer 51, the transmission electrode 4T, and the second insulating layer 52 spread on the surface of the PCB 4G in the same planar shape. The first insulating layer 51 electrically separates the transmitting electrode 4T from the PCB 4G, and the second insulating layer 52 electrically separates the receiving electrodes 4N,..., 4W from the transmitting electrode 4T. The receiving electrodes 4N,..., 4W are arranged separately on each side of a virtual rectangular area extending on the surface of the second insulating layer 52. Each of the receiving electrodes 4N,... Has a thin strip shape and extends along the side of the rectangular area.

以下、説明の便宜上、図1の(b)の示す操作パネル160の傾斜角θが0°のとき、すなわちタッチパネル161の表面が実質的に水平であるとき、MFP100の筐体101に最も近い受信電極4Nを「第1受信電極」と呼び、最も遠い受信電極4Sを「第2受信電極」と呼ぶ。更に、MFP100の前方からタッチパネル161を見たときに左側に位置する受信電極4Wを「第3受信電極」と呼び、右側に位置する受信電極4Eを「第4受信電極」と呼ぶ。さらに、タッチパネル161の表面に固定されたXYZ直交座標系を次のように想定する。第1受信電極4Nと第2受信電極4Sとの長手方向をX軸とし、第3受信電極4Wと第4受信電極4Eとの長手方向をY軸とし、タッチパネル161の表面の法線方向をZ軸とする。   Hereinafter, for convenience of explanation, when the inclination angle θ of the operation panel 160 shown in FIG. 1B is 0 °, that is, when the surface of the touch panel 161 is substantially horizontal, reception closest to the casing 101 of the MFP 100 is performed. The electrode 4N is referred to as a “first receiving electrode”, and the farthest receiving electrode 4S is referred to as a “second receiving electrode”. Furthermore, when the touch panel 161 is viewed from the front of the MFP 100, the reception electrode 4W located on the left side is referred to as a “third reception electrode”, and the reception electrode 4E located on the right side is referred to as a “fourth reception electrode”. Further, an XYZ orthogonal coordinate system fixed on the surface of the touch panel 161 is assumed as follows. The longitudinal direction of the first receiving electrode 4N and the second receiving electrode 4S is the X axis, the longitudinal direction of the third receiving electrode 4W and the fourth receiving electrode 4E is the Y axis, and the normal direction of the surface of the touch panel 161 is Z. Axis.

図5の(c)は、送信電極4T、第4受信電極4E、送信部412、および受信部413の等価回路図である。他の受信電極4N、4S、4Wも同様な等価回路に含まれる。図5の(c)を参照するに、PCB4GはMFP100のシャーシ等、接地された導電性の部材(以下、「接地部材」という。)に接続され、送信電極4Tは送信部412に接続され、第4受信電極4Eは受信部413に接続されている。送信部412は送信電極4Tに送信電圧信号TVSを送出する。送信電圧信号TVSはたとえば矩形パルス波である。受信部413は、送信電圧信号TVSに応じて第4受信電極4Eが受ける受信電圧信号RVSを検出する。送信部412による送信電圧信号TVSの送出と、受信部413による受信電圧信号RVSの検出とは、図4の示すタイミング生成部411が生成するクロック信号によって同期する。   FIG. 5C is an equivalent circuit diagram of the transmission electrode 4T, the fourth reception electrode 4E, the transmission unit 412, and the reception unit 413. The other receiving electrodes 4N, 4S, and 4W are also included in a similar equivalent circuit. Referring to FIG. 5C, the PCB 4G is connected to a grounded conductive member (hereinafter referred to as “ground member”), such as the chassis of the MFP 100, and the transmission electrode 4T is connected to the transmission unit 412. The fourth receiving electrode 4E is connected to the receiving unit 413. The transmission unit 412 sends a transmission voltage signal TVS to the transmission electrode 4T. Transmission voltage signal TVS is, for example, a rectangular pulse wave. The receiving unit 413 detects the reception voltage signal RVS received by the fourth reception electrode 4E according to the transmission voltage signal TVS. Transmission of the transmission voltage signal TVS by the transmission unit 412 and detection of the reception voltage signal RVS by the reception unit 413 are synchronized by a clock signal generated by the timing generation unit 411 shown in FIG.

受信電圧信号RVSの波形は一般に送信電圧信号TVSの波形に対して歪む。たとえば送信電圧信号TVSが矩形パルスである場合、受信電圧信号RVSのパルスの立ち上がりと立ち下がりとがいずれも鈍る。このような波形の歪みは主に送信電極4Tと基板4G(または接地電位)との間の静電容量CTG、第4受信電極4Eと送信電極4Tとの間の静電容量CET、および第4受信電極4Eと基板4G(または接地電位)との間の静電容量CEGとに起因する。   The waveform of the reception voltage signal RVS is generally distorted with respect to the waveform of the transmission voltage signal TVS. For example, when the transmission voltage signal TVS is a rectangular pulse, the rising and falling edges of the reception voltage signal RVS are both dull. Such waveform distortion is mainly caused by the capacitance CTG between the transmission electrode 4T and the substrate 4G (or ground potential), the capacitance CET between the fourth reception electrode 4E and the transmission electrode 4T, and the fourth. This is caused by the capacitance CEG between the reception electrode 4E and the substrate 4G (or ground potential).

第4受信電極4Eにある種の物体が接近した場合、第4受信電極4Eと接地電位との間に新たな静電容量CHが加わる。この物体は、ユーザーの手、接地された金属部材等、送信電圧信号TVSのレベルと比べれば全体の電位が実質的に一様とみなせる程度の電気伝導性を持ち、かつ送信電圧信号TVSのレベルと比べれば実質的に接地電位に等しいとみなせる電位に維持された物体(以下、「接地導体」と総称する。)である。この接地導体の存在に起因する静電容量CHはこの接地導体と第4受信電極4Eとの相対的な位置に応じて変化するので、受信電圧信号RVSの波形の歪みもこの位置に応じて変化する。特に第4受信電極4Eに接地導体が近いほど、送信電圧信号TVSに対する受信電圧信号RVSのレベルの落差が大きい。   When a certain object approaches the fourth reception electrode 4E, a new capacitance CH is added between the fourth reception electrode 4E and the ground potential. This object, such as a user's hand, a grounded metal member, etc., has electrical conductivity such that the overall potential can be considered substantially uniform compared to the level of the transmission voltage signal TVS, and the level of the transmission voltage signal TVS. Is an object that is maintained at a potential that can be regarded as substantially equal to the ground potential (hereinafter collectively referred to as “ground conductor”). Since the electrostatic capacitance CH resulting from the presence of the ground conductor changes in accordance with the relative position of the ground conductor and the fourth reception electrode 4E, the waveform distortion of the reception voltage signal RVS also changes in accordance with this position. To do. In particular, the closer the ground conductor is to the fourth reception electrode 4E, the larger the drop in the level of the reception voltage signal RVS with respect to the transmission voltage signal TVS.

図6の(a)−(c)は、接地電位を基準として正値である電圧が送信電極4Tに対して印加された際に送信電極4Tと基板4G(または接地電位)との間に生じる電界EFLを示す側面図である。図6の(a)はタッチパネル161の近傍に接地導体が存在しない場合を示し、(b)、(c)はそれぞれ、タッチパネル161の近傍にユーザーの手等の指示体HND、他の接地導体MTLが存在する場合を示す。   6A to 6C are generated between the transmission electrode 4T and the substrate 4G (or ground potential) when a positive voltage with respect to the ground potential is applied to the transmission electrode 4T. It is a side view which shows the electric field EFL. 6A shows a case where no ground conductor exists near the touch panel 161. FIGS. 6B and 6C show an indicator HND such as a user's hand and other ground conductors MTL in the vicinity of the touch panel 161, respectively. Indicates the presence of.

図6の(a)を参照するに、タッチパネル161の周囲の空間に生じる電界EFLはタッチパネル161の表面に対して対称的である。ここで、送信電圧信号TVSの周波数をたとえば数十kHz−百数十kHz程度に設定した場合、その波長は数km程度に達し、電極群4T、4E、…のサイズ、すなわちタッチパネル161のサイズよりも十分に大きい。したがって、送信電極4Tに対する送信電圧信号TVSの印加に伴ってタッチパネル161の周囲の空間に生じる電界は準静的であり、図6の(a)の示す電界EFLと同等であるとみなしてよい。   Referring to FIG. 6A, the electric field EFL generated in the space around the touch panel 161 is symmetric with respect to the surface of the touch panel 161. Here, when the frequency of the transmission voltage signal TVS is set to, for example, about several tens of kHz to several hundreds of kHz, the wavelength reaches about several km, and is larger than the size of the electrode groups 4T, 4E,. Is big enough. Therefore, the electric field generated in the space around the touch panel 161 when the transmission voltage signal TVS is applied to the transmission electrode 4T is quasi-static and may be regarded as being equivalent to the electric field EFL shown in FIG.

図6の(b)、(c)では図6の(a)とは異なり、指示体HND、接地導体MTL等の周囲で電界EFLが歪む。特に、指示体HNDと導体MTLとはいずれも実質的に接地電位にあるので、電界EFLに伴う電気力線は接地導体HND、MTLに引き込まれ、それらを通して接地電極へ逃げる。その結果、接地導体HND、MTLに接近するほど電界EFLの歪みは増大する。接地導体HND、MTLのサイズが基板4Gのサイズよりも十分に小さければ、この接地導体HND、MTLに起因する電界EFLの歪みは基板4Gのサイズに対して局所的に留まる。したがって、4つの受信電極4N、4S、4E、4Wの間には接地導体HND、MTLからの距離の違いに応じて、図6の(a)の場合との電位差に違いが生じる。図6の(b)、(c)では第3受信電極4Wが第4受信電極4Eよりも接地導体HND、MTLに近いので、図6の(a)の場合との電位差は第3受信電極4Wが第4受信電極4Eよりも大きい。   6B and 6C, unlike FIG. 6A, the electric field EFL is distorted around the indicator HND, the ground conductor MTL, and the like. In particular, since the indicator HND and the conductor MTL are substantially at the ground potential, the electric lines of force accompanying the electric field EFL are drawn into the ground conductors HND and MTL and escape to the ground electrode through them. As a result, the distortion of the electric field EFL increases as the ground conductors HND and MTL are approached. If the size of the ground conductors HND and MTL is sufficiently smaller than the size of the substrate 4G, the distortion of the electric field EFL caused by the ground conductors HND and MTL remains locally with respect to the size of the substrate 4G. Therefore, there is a difference in potential difference between the four receiving electrodes 4N, 4S, 4E, and 4W from the case of FIG. 6A according to the difference in distance from the ground conductors HND and MTL. In FIGS. 6B and 6C, since the third receiving electrode 4W is closer to the ground conductors HND and MTL than the fourth receiving electrode 4E, the potential difference from the case of FIG. 6A is the third receiving electrode 4W. Is larger than the fourth receiving electrode 4E.

この電位差、すなわち接地導体の有無に応じた電位差が受信電極4N、…、4Wごとに異なることは、図5の(c)の示す等価回路では各受信電極と接地電位との間の静電容量CHの違いとして現れる。その結果、この静電容量CHの有無、すなわち接地導体の有無に応じた受信電圧信号RVSの波形の歪みの差は受信電極4N、…、4Wごとに異なる。特に、接地導体に近い受信電極ほどその歪みの差が大きい。   This potential difference, that is, the potential difference according to the presence or absence of the ground conductor is different for each of the receiving electrodes 4N,..., 4W, in the equivalent circuit shown in FIG. Appears as a difference in CH. As a result, the difference in waveform distortion of the reception voltage signal RVS depending on the presence or absence of the capacitance CH, that is, the presence or absence of the ground conductor, differs for each of the reception electrodes 4N,. In particular, the difference in distortion is larger as the receiving electrode is closer to the ground conductor.

図6の(d)は、接地導体の有無に応じた受信電圧信号RVSの波形の歪みの差を受信電極4N、…ごとに示すグラフである。このグラフの縦軸は、その歪みの差として、たとえば送信電圧信号TVSに対する受信電圧信号RVSのレベルの落差の変化量を相対値で表し、横軸は第3受信電極4Wからの接地導体の代表点、たとえば重心の水平距離Xを表す。このグラフでは更に、この接地導体の重心がタッチパネル161の表面から一定の距離を保ったまま第3受信電極4Wの真上から第4受信電極4Eの真上まで、第1受信電極4Nと第2受信電極4Sとに対して平行に移動する場合が想定されている。   FIG. 6D is a graph showing the difference in distortion of the waveform of the reception voltage signal RVS for each reception electrode 4N,. The vertical axis of this graph represents the amount of change in the drop in the level of the reception voltage signal RVS with respect to the transmission voltage signal TVS, for example, as a relative difference, and the horizontal axis represents the representative ground conductor from the third reception electrode 4W. The horizontal distance X of the point, for example, the center of gravity is represented. Further, in this graph, the first receiving electrode 4N and the second receiving electrode 4N are connected to the fourth receiving electrode 4E from the position just above the third receiving electrode 4W while maintaining the center of gravity of the ground conductor at a constant distance from the surface of the touch panel 161. It is assumed that the electrode moves parallel to the receiving electrode 4S.

図6の(d)を参照するに、この接地導体の重心が第3受信電極4Wの真上、すなわち水平距離X=0に位置するとき、この重心には第3受信電極4Wが最も近くに位置し、第4受信電極4Eが最も遠くに位置する。したがって、受信電圧信号RVSのレベルの落差の変化量は第3受信電極4Wで最も大きく、第4受信電極4Eで最も小さい。この接地導体の重心はまた第2受信電極4Sよりも第1受信電極4Nに近いので、受信電圧信号RVSのレベルの落差の変化量は第2受信電極4Sよりも第1受信電極4Nで大きい。   Referring to FIG. 6D, when the center of gravity of the ground conductor is located directly above the third receiving electrode 4W, that is, at the horizontal distance X = 0, the third receiving electrode 4W is closest to the center of gravity. The fourth receiving electrode 4E is located farthest. Therefore, the amount of change in the drop of the level of the reception voltage signal RVS is the largest at the third reception electrode 4W and the smallest at the fourth reception electrode 4E. Since the center of gravity of the ground conductor is also closer to the first reception electrode 4N than to the second reception electrode 4S, the amount of change in the drop in the level of the reception voltage signal RVS is larger in the first reception electrode 4N than in the second reception electrode 4S.

この接地導体の重心は、第3受信電極4Wからの水平距離Xが増大するにつれて、第3受信電極4Wからは離れる一方、第4受信電極4Eには接近する。これに応じて受信電圧信号RVSのレベルの落差の変化量は第3受信電極4Wでは減少する一方、第4受信電極4Eでは増大する。第1受信電極4Nと第2受信電極4Sとに対してはこの接地導体の重心は同じ距離を保つので、受信電圧信号RVSのレベルの落差の変化量は常に第2受信電極4Sよりも第1受信電極4Nで大きい。また、この接地導体の重心が第3受信電極4Wと第4受信電極4Eとの中間点(水平距離X=WDT/2)に近いほど、第1受信電極4Nと第2受信電極4Sとを貫く多数の電気力線がこの接地導体に引き込まれるので、いずれの電極4N、4Sにおいても受信電圧信号RVSのレベルの落差の変化量が増大する。図5の(a)の示すとおり、電極群4T、4N、…、4Wの配置は、基板4GをY軸方向に貫く中心軸に対して対称的であるので、図6の(d)のグラフも中間点X=WDT/2に対して対称的である。   The center of gravity of the ground conductor moves away from the third reception electrode 4W as the horizontal distance X from the third reception electrode 4W increases, but approaches the fourth reception electrode 4E. Accordingly, the amount of change in the drop in the level of the reception voltage signal RVS decreases at the third reception electrode 4W, but increases at the fourth reception electrode 4E. Since the center of gravity of the ground conductor maintains the same distance with respect to the first reception electrode 4N and the second reception electrode 4S, the amount of change in the drop of the level of the reception voltage signal RVS is always higher than that of the second reception electrode 4S. Large at the receiving electrode 4N. Further, the closer the center of gravity of the ground conductor is to the intermediate point (horizontal distance X = WDT / 2) between the third receiving electrode 4W and the fourth receiving electrode 4E, the more the first receiving electrode 4N and the second receiving electrode 4S are penetrated. Since many electric lines of force are drawn into the ground conductor, the amount of change in the drop in the level of the received voltage signal RVS increases in any of the electrodes 4N and 4S. As shown in FIG. 5A, the arrangement of the electrode groups 4T, 4N,..., 4W is symmetrical with respect to the central axis passing through the substrate 4G in the Y-axis direction. Is also symmetric with respect to the intermediate point X = WDT / 2.

図6の(d)が示すとおり、受信電極4N、…、4Wの間では接地導体の重心との距離に応じて受信電圧信号RVSのレベルの落差の変化量が異なる。したがって、予め実験またはシミュレーション等により、4つの受信電極4N、…の間でのその変化量の組み合わせごとに接地導体の重心の3次元座標を対応付けておき、この対応関係を示すテーブルまたは関数を判別部23に組み込んでおく。このテーブルまたは関数を利用して判別部23は、各受信電極4N、…から検出されたその変化量の組み合わせから接地導体の重心の対応する3次元座標を特定する。   As shown in FIG. 6D, the amount of change in the drop in the level of the reception voltage signal RVS differs between the reception electrodes 4N,..., 4W depending on the distance from the center of gravity of the ground conductor. Accordingly, a table or function indicating this correspondence relationship is obtained by associating the three-dimensional coordinates of the center of gravity of the ground conductor with each combination of the amounts of change between the four receiving electrodes 4N,. It is incorporated in the determination unit 23. Using this table or function, the determination unit 23 specifies the corresponding three-dimensional coordinates of the center of gravity of the ground conductor from the combination of the amounts of change detected from each receiving electrode 4N.

[電界型3Dジェスチャーセンサーによる検出の限界]
図7の(a)は、電界型3Dジェスチャーセンサー410で検出可能な接地導体の3次元座標の範囲を示す側面図である。図7の(a)を参照するに、この範囲は、タッチパネル161の画面に面した空間URG(以下、「表側空間」と呼ぶ。)だけでなく、タッチパネル161を隔ててその反対側に広がる空間LRG(以下、「裏側空間」と呼ぶ。)にも及ぶ。これは、図6の(a)が示すとおり、送信電極4Tの生成する電界EFLが表側空間URGだけでなく裏側空間LRGにも広がることによる。
[Limit of detection by electric field type 3D gesture sensor]
FIG. 7A is a side view showing the range of the three-dimensional coordinates of the ground conductor that can be detected by the electric field type 3D gesture sensor 410. Referring to (a) of FIG. 7, this range is not only a space URG facing the screen of the touch panel 161 (hereinafter referred to as “front side space”), but also a space extending on the opposite side across the touch panel 161. It extends to LRG (hereinafter referred to as “back space”). This is because the electric field EFL generated by the transmission electrode 4T spreads not only in the front space URG but also in the back space LRG as shown in FIG.

ただし、表側空間URGと裏側空間LRGとのいずれに接地導体が位置するかまでは3Dジェスチャーセンサー410では判別できない。さらに、複数の接地導体を同時に識別することも簡単ではない。これらは以下の理由による。
図7の(b)は、3Dジェスチャーセンサー410による検出で識別可能な接地導体の3次元座標の仮想的な範囲を示す側面図である。図7の(b)を参照するに、この仮想的な範囲のいずれの1点にも、図7の(a)の示す表側空間URGの1点(X0、Y0、Z0)と、タッチパネル161の表面に対する裏側空間LRGの対称点(X0、Y0、−Z0)との2点が対応する。これは、これらの2点が識別不能であることを意味する。
However, the 3D gesture sensor 410 cannot determine whether the ground conductor is located in the front side space URG or the back side space LRG. Furthermore, it is not easy to simultaneously identify a plurality of ground conductors. These are due to the following reasons.
FIG. 7B is a side view showing a virtual range of the three-dimensional coordinates of the ground conductor that can be identified by detection by the 3D gesture sensor 410. Referring to FIG. 7B, any one point in this virtual range includes one point (X0, Y0, Z0) of the front side space URG shown in FIG. The two points correspond to the symmetry points (X0, Y0, -Z0) of the back side space LRG with respect to the surface. This means that these two points are indistinguishable.

実際、図6の(a)が示すとおり、送信電極4Tの生成する電界EFLの分布は、接地導体の侵入がない限り、タッチパネル161の表面に対して対称的である。この場合、接地導体が表側空間URGの1点(X0、Y0、Z0)に位置するときと、その対称点(X0、Y0、−Z0)に位置するときとでは、電界EFLの歪みに伴う受信電圧信号RVSの波形の歪みにいずれの受信電極4N、…においても違いが生じない。したがって、受信電圧信号RVSの波形の歪みからだけではこれらの2点を区別することはできない。   Actually, as shown in FIG. 6A, the distribution of the electric field EFL generated by the transmission electrode 4T is symmetric with respect to the surface of the touch panel 161 unless the ground conductor enters. In this case, when the ground conductor is located at one point (X0, Y0, Z0) of the front space URG and when it is located at the symmetrical point (X0, Y0, -Z0), reception due to distortion of the electric field EFL is received. There is no difference in the distortion of the waveform of the voltage signal RVS in any of the receiving electrodes 4N. Therefore, these two points cannot be distinguished only from the waveform distortion of the reception voltage signal RVS.

図7の(c)は、(a)の示す表側空間URGの2点(X1、Y1、Z1)、(X2、Y2、Z2)に位置する2つの異なる接地導体D1、D2を示す側面図であり、(d)は、その表側空間URGの別の1点(X3、Y3、Z3)に位置する1つの接地導体D3を示す側面図である。図7の(c)を参照するに、2つの接地導体D1、D2の各近傍で送信電極4Tの生成する電界EFLは歪む。しかし、この場合に各受信電極4N、…で検出される受信電圧信号RVSでは、各接地導体D1、D2の近傍での電界EFLの歪みに伴う波形の歪みが合成されている。この合成された歪みが、図7の(d)の示す接地導体D3の近傍での電界EFLの歪みに伴う受信電圧信号RVSの波形の歪みと区別できない場合が生じ得る。この場合、受信電圧信号RVSの波形の歪みからだけでは、2点(X1、Y1、Z1)、(X2、Y2、Z2)に異なる接地導体D1、D2が位置するのか、それとも別の1点(X3、Y3、Z3)に1つの接地導体D3が位置するのかを区別することはできない。   (C) of FIG. 7 is a side view showing two different ground conductors D1 and D2 located at two points (X1, Y1, Z1) and (X2, Y2, Z2) of the front side space URG shown in (a). (D) is a side view showing one ground conductor D3 located at another point (X3, Y3, Z3) of the front side space URG. Referring to FIG. 7C, the electric field EFL generated by the transmission electrode 4T is distorted in the vicinity of each of the two ground conductors D1 and D2. However, in this case, in the reception voltage signal RVS detected by each reception electrode 4N,..., The waveform distortion accompanying the distortion of the electric field EFL in the vicinity of each ground conductor D1, D2 is synthesized. This combined distortion may be indistinguishable from the distortion of the waveform of the reception voltage signal RVS accompanying the distortion of the electric field EFL in the vicinity of the ground conductor D3 shown in FIG. In this case, whether or not different ground conductors D1 and D2 are located at two points (X1, Y1, Z1) and (X2, Y2, Z2) only from the waveform distortion of the reception voltage signal RVS, or another point ( It cannot be distinguished whether one ground conductor D3 is located at X3, Y3, Z3).

電界型3Dジェスチャーセンサー410による検出にはこれらの限界がある。したがって、このセンサーを利用するには、これらの限界を回避する工夫が必要である。
[判別部によるユーザーのジェスチャーと操作パネルの揺動との判別]
図8の(a)は、電界型3Dジェスチャーセンサー410で検出可能な接地導体の3次元座標の範囲内に設定された監視対象の空間を示す模式図である。図8の(a)を参照するに、この監視対象の空間は、第1領域RGA、第2領域RGB、および第3領域RGCから構成される。第1領域RGAは、図7の(a)の示す表側空間URGのうち仮想的平面BNA(Z=ZB)よりもタッチパネル161の表面(Z=0)に近い領域であり、第3領域RGCはその平面BNAよりもタッチパネル161の表面から遠い領域である。第2領域RGBは、裏側空間LRGのうち仮想的平面BNB(Z=−ZB)よりもタッチパネル161の表面から遠い領域である。これら2つの仮想的平面BNA、BNBはタッチパネル161の表面(Z=0)に対して互いに対称である。
The detection by the electric field type 3D gesture sensor 410 has these limitations. Therefore, in order to use this sensor, a device for avoiding these limitations is required.
[Distinction between user gestures and swinging operation panel by discrimination unit]
FIG. 8A is a schematic diagram showing a space to be monitored set within the range of the three-dimensional coordinates of the ground conductor that can be detected by the electric field type 3D gesture sensor 410. Referring to (a) of FIG. 8, the monitoring target space includes a first area RGA, a second area RGB, and a third area RGC. The first region RGA is a region closer to the surface (Z = 0) of the touch panel 161 than the virtual plane BNA (Z = ZB) in the front side space URG shown in FIG. 7A, and the third region RGC is This is a region farther from the surface of the touch panel 161 than the plane BNA. The second area RGB is an area farther from the surface of the touch panel 161 than the virtual plane BNB (Z = −ZB) in the back space LRG. These two virtual planes BNA and BNB are symmetric with respect to the surface (Z = 0) of the touch panel 161.

図8の(a)を更に参照するに、MFP100の筐体101には導電部材801が装着されている。筐体101が絶縁性の樹脂から成るのに対し、導電部材801は導電性の素材から成り、たとえば矩形状の金属板である。この導電部材801は更にMFP100のシャーシ等の接地部材によって接地電位に保たれている。操作パネル160の傾斜角θが0°であるとき、導電部材801は第2領域RGBの中に位置する。   Further referring to FIG. 8A, a conductive member 801 is attached to the casing 101 of the MFP 100. The housing 101 is made of an insulating resin, whereas the conductive member 801 is made of a conductive material, for example, a rectangular metal plate. The conductive member 801 is further maintained at a ground potential by a ground member such as a chassis of the MFP 100. When the inclination angle θ of the operation panel 160 is 0 °, the conductive member 801 is located in the second region RGB.

図8の(b)は、3Dジェスチャーセンサー410による検出で識別可能な接地導体の3次元座標の仮想的な範囲を示す模式図である。図8の(b)を参照するに、図7の(b)と同様に、この仮想的な範囲のいずれの1点にも表側空間URGの1点(X0、Y0、Z0)と裏側空間LRGの対称点(X0、Y0、−Z0)との2点が対応する。したがって、この仮想的な範囲のうち仮想的平面BND(Z=ZB。以下、「境界面」という。)よりもタッチパネル161の表面(Z=0)に近い領域(Z<ZB)の各点には、図8の(a)の示す監視対象の空間のうち第1領域RGAの1点のみが対応する。一方、この仮想的な範囲のうち境界面BNDよりもタッチパネル161の表面から遠い領域(Z>ZB)の各点には、図8の(a)の示す監視対象の空間のうち第3領域RGCの1点と第2領域RGBのその対称点との2点が対応する。   FIG. 8B is a schematic diagram showing a virtual range of the three-dimensional coordinates of the ground conductor that can be identified by detection by the 3D gesture sensor 410. Referring to (b) of FIG. 8, similarly to (b) of FIG. 7, one point (X0, Y0, Z0) of the front side space URG and the back side space LRG are included in any one point of this virtual range. The two points correspond to the symmetry points (X0, Y0, -Z0). Therefore, in this virtual range, each point in the region (Z <ZB) closer to the surface (Z = 0) of the touch panel 161 than the virtual plane BND (Z = ZB; hereinafter referred to as “boundary surface”). Corresponds to only one point of the first region RGA in the space to be monitored shown in FIG. On the other hand, at each point of the region (Z> ZB) farther from the surface of the touch panel 161 than the boundary surface BND in the virtual range, the third region RGC in the space to be monitored shown in FIG. Correspond to two points of the second region RGB and the symmetry point of the second region RGB.

この対応関係を利用して判別部23は、検出部21の検出した電界EFLの歪みが指示体HNDと導電部材801とのいずれに起因するかを判別する。具体的には、まず検出部21が受信電極4N、…で検出した受信電圧信号RVSの波形の歪みから、計測部22が接地導体の重心の3次元座標を計測する。この3次元座標が境界面BNDに位置し、またはそれよりもタッチパネル161の表面に近ければ、判別部23はこの3次元座標に位置する接地導体を、第1領域RGAに位置する指示体HNDと判別する。   Using this correspondence, the determination unit 23 determines whether the distortion of the electric field EFL detected by the detection unit 21 is caused by the indicator HND or the conductive member 801. Specifically, first, the measurement unit 22 measures the three-dimensional coordinates of the center of gravity of the ground conductor from the waveform distortion of the reception voltage signal RVS detected by the detection unit 21 with the reception electrodes 4N,. If the three-dimensional coordinates are located on the boundary surface BND or closer to the surface of the touch panel 161 than the three-dimensional coordinates, the determination unit 23 connects the ground conductor located at the three-dimensional coordinates to the indicator HND located in the first region RGA. Determine.

ここで、図8の(a)、(b)が示すとおり、第2領域RGBの中には導電部材801がすでに存在する。しかし、第2領域RGBは第1領域RGAよりも受信電極4N、…から遠い。したがって、第2領域RGBに位置する導電部材801に起因する電界EFLの歪みは第1領域RGAに位置する指示体HNDに起因するものに比べ、受信電圧信号RVSの波形の歪みへの寄与が無視できるほど小さい。すなわち計測部22の計測した3次元座標が境界面BNDに位置し、またはそれよりもタッチパネル161の表面に近ければ、その座標は許容誤差の範囲内で指示体HNDの実際の位置を示すとみなしてよい。   Here, as shown in FIGS. 8A and 8B, the conductive member 801 already exists in the second region RGB. However, the second region RGB is farther from the receiving electrodes 4N,... Than the first region RGA. Therefore, the distortion of the electric field EFL caused by the conductive member 801 located in the second region RGB is negligible in the contribution to the distortion of the waveform of the reception voltage signal RVS compared to that caused by the indicator HND located in the first region RGA. As small as possible. That is, if the three-dimensional coordinates measured by the measuring unit 22 are located on the boundary surface BND or closer to the surface of the touch panel 161 than that, the coordinates are regarded as indicating the actual position of the indicator HND within the allowable error range. It's okay.

計測部22の計測した3次元座標が境界面BNDよりもタッチパネル161の表面から遠ければ、判別部23は(A)この3次元座標に位置する接地導体を第2領域RGBに位置する導電部材801と判別し、または(B)更にこの3次元座標の時間的変化を観察し、その時間的変化の幅に基づいてこの3次元座標に位置する接地導体を、第2領域RGBに位置する導電部材801と第3領域RGCに位置する指示体とのいずれかに判別する。これらの判別方法(A)、(B)の詳細については後述する。   If the three-dimensional coordinate measured by the measurement unit 22 is farther from the surface of the touch panel 161 than the boundary surface BND, the determination unit 23 (A) conducts the ground conductor located at the three-dimensional coordinate to the conductive member 801 located in the second region RGB. Or (B) further observing the temporal change of the three-dimensional coordinate, and based on the width of the temporal change, the grounding conductor positioned at the three-dimensional coordinate is a conductive member positioned in the second region RGB. It is discriminated between 801 and an indicator located in the third region RGC. Details of these determination methods (A) and (B) will be described later.

図8の(c)は、操作パネル160の揺動によってタッチパネル161の表面が水平面に対して傾斜したときにおける監視対象の空間RGA、RGB、RGCを示す模式図である。図8の(c)を参照するに、操作パネル160の傾斜角θが0°から増加するにつれて、その背面が導電部材801に向かって接近する。これにより、第2領域RGBが導電部材801に対して移動する。   FIG. 8C is a schematic diagram showing the monitoring target spaces RGA, RGB, and RGC when the surface of the touch panel 161 is inclined with respect to the horizontal plane due to the swing of the operation panel 160. Referring to FIG. 8C, the back surface of the operation panel 160 approaches the conductive member 801 as the inclination angle θ of the operation panel 160 increases from 0 °. As a result, the second region RGB moves relative to the conductive member 801.

図8の(d)は、(c)の示す監視対象の空間と3Dジェスチャーセンサー410による検出で識別可能な接地導体の3次元座標の仮想的な範囲との対応関係を示す模式図である。図8の(d)を参照するに、この仮想的な範囲では導電部材801は操作パネル160の傾斜角θの変化に伴い、境界面BND(Z=ZB)よりもタッチパネル161の表面(Z=0)から遠い領域の中で一定の軌跡TRCを描く。監視対象の空間に指示体HNDが存在していなければこの軌跡TRCの上に、計測部22の計測する3次元座標は位置する。さらに、この軌跡TRC上の各点は操作パネル160の傾斜角θの異なる値に対応するので、この対応関係を利用すれば、計測部22の計測した3次元座標から操作パネル160の傾斜角θを推定することができる。   FIG. 8D is a schematic diagram showing a correspondence relationship between the space to be monitored shown in FIG. 8C and the virtual range of the three-dimensional coordinates of the ground conductor that can be identified by detection by the 3D gesture sensor 410. Referring to FIG. 8D, in this virtual range, the conductive member 801 has a surface of the touch panel 161 (Z = Z) rather than the boundary surface BND (Z = ZB) with a change in the inclination angle θ of the operation panel 160. A constant trajectory TRC is drawn in a region far from 0). If the indicator HND does not exist in the monitoring target space, the three-dimensional coordinates measured by the measuring unit 22 are located on the trajectory TRC. Further, since each point on the trajectory TRC corresponds to a different value of the inclination angle θ of the operation panel 160, if this correspondence is used, the inclination angle θ of the operation panel 160 is calculated from the three-dimensional coordinates measured by the measurement unit 22. Can be estimated.

−判別方法(A)−
受信電圧信号RVSの波形の歪みから計測された3次元座標が境界面BNDよりもタッチパネル161の表面から遠い場合、この3次元座標に位置する接地導体は第2領域RGBに位置する導電部材801と判別される。
図9の(a)は、受信電圧信号RVSの波形の歪みから計測された3次元座標のZ軸成分の時間的変化の一例を示すグラフである。このグラフの縦軸はそのZ軸成分すなわちタッチパネル161の表面からの距離を表し、横軸は時間を表す。図9の(a)を参照するに、第1時刻t0から第2時刻t1までの期間ではZ軸成分は境界面のZ座標“ZB”よりも小さい。したがって、この期間t0−t1に計測された3次元座標に位置する接地導体を判別部23は、第1領域RGAに位置する指示体HNDと判別する。第2時刻t1ではZ軸成分が境界面のZ座標“ZB”を超え、第2時刻t1から所定時間ΔTAが経過しても境界面のZ座標“ZB”よりも大きいままである。したがって、この期間t1−t1+ΔTAに計測された3次元座標に位置する接地導体を判別部23は、第2領域RGBに位置する導電部材801と判別する。その後、第3時刻t2ではZ軸成分が再び境界面のZ座標“ZB”を下回るので、第3時刻t2以降に計測された3次元座標に位置する接地導体を判別部23は、第1領域RGAに位置する指示体HNDと判別する。
-Discrimination method (A)-
When the three-dimensional coordinate measured from the distortion of the waveform of the received voltage signal RVS is farther from the surface of the touch panel 161 than the boundary surface BND, the ground conductor positioned at the three-dimensional coordinate is the conductive member 801 positioned in the second region RGB. Determined.
FIG. 9A is a graph showing an example of a temporal change in the Z-axis component of the three-dimensional coordinate measured from the waveform distortion of the reception voltage signal RVS. The vertical axis of this graph represents the Z-axis component, that is, the distance from the surface of the touch panel 161, and the horizontal axis represents time. Referring to FIG. 9A, in the period from the first time t0 to the second time t1, the Z-axis component is smaller than the Z coordinate “ZB” of the boundary surface. Therefore, the determination unit 23 determines the ground conductor located at the three-dimensional coordinates measured in the period t0-t1 as the indicator HND located in the first region RGA. At the second time t1, the Z-axis component exceeds the Z coordinate “ZB” of the boundary surface, and remains larger than the Z coordinate “ZB” of the boundary surface even after a predetermined time ΔTA has elapsed from the second time t1. Therefore, the determination unit 23 determines the ground conductor located at the three-dimensional coordinates measured in the period t1−t1 + ΔTA as the conductive member 801 located in the second region RGB. Thereafter, since the Z-axis component again falls below the Z coordinate “ZB” of the boundary surface at the third time t2, the determination unit 23 determines the ground conductor located at the three-dimensional coordinate measured after the third time t2 in the first region. Discriminate from the indicator HND located in the RGA.

判別方法(A)ではこのように、まず境界面のZ座標“ZB”が、計測された3次元座標のZ軸成分に対する閾値に設定される。計測された3次元座標のZ軸成分がこの閾値ZB以下であれば直ちに、その3次元座標は指示体HNDの位置と判別される。一方、そのZ軸成分が所定時間ΔTA、閾値ZBを超え続ければ、その3次元座標は導電部材801の位置と判別される。なお、そのZ軸成分が閾値ZBを超えている時間が所定時間ΔTAよりも短い場合、その3次元座標は判別の対象からは除外される。   In the discrimination method (A), as described above, first, the Z coordinate “ZB” of the boundary surface is set as a threshold for the Z-axis component of the measured three-dimensional coordinate. If the measured Z-axis component of the three-dimensional coordinates is equal to or smaller than the threshold value ZB, the three-dimensional coordinates are immediately determined as the position of the indicator HND. On the other hand, if the Z-axis component continues to exceed the predetermined time ΔTA and the threshold value ZB, the three-dimensional coordinate is determined as the position of the conductive member 801. When the time during which the Z-axis component exceeds the threshold value ZB is shorter than the predetermined time ΔTA, the three-dimensional coordinates are excluded from the determination target.

後者の条件に「所定時間ΔTAの持続」を付加する理由は、第3領域RGCへ侵入した指示体HNDを導電部材801と誤認する危険性を回避することにある。図8の(b)、(d)が示すとおり、3Dジェスチャーセンサー410による検出で識別可能な接地導体の3次元座標の仮想的な範囲のうち、境界面BNDよりもタッチパネル161の表面から遠い領域(Z>ZB)には第2領域RGBだけでなく第3領域RGCが対応する。この第3領域RGCには指示体HNDが侵入する可能性がある。しかし、第3領域RGCがタッチパネル161の表面から十分に離れていれば、この領域への指示体HNDの侵入は、第1領域RGAへの移動もしくはそこからの退避を目的とする通過、またはジェスチャー中にユーザーが意図せずに第1領域RGAからはみ出させたものに限られる。したがって、この侵入の持続時間は一般に短いので、上記の所定時間ΔTAを十分に長く設定しておけば、指示体HNDを導電部材801と誤認する危険性を十分に低減させることができる。   The reason for adding “continuation of the predetermined time ΔTA” to the latter condition is to avoid the risk of misidentifying the indicator HND that has entered the third region RGC as the conductive member 801. As shown in FIGS. 8B and 8D, the region farther from the surface of the touch panel 161 than the boundary surface BND in the virtual range of the three-dimensional coordinates of the ground conductor that can be identified by detection by the 3D gesture sensor 410. (Z> ZB) corresponds to the third region RGC as well as the second region RGB. There is a possibility that the indicator HND enters the third region RGC. However, if the third region RGC is sufficiently away from the surface of the touch panel 161, the indicator HND enters the region through the passage for the purpose of moving to the first region RGA or withdrawing from the first region RGA, or the gesture. It is limited to those that protrude from the first region RGA unintentionally by the user. Therefore, since the duration of this intrusion is generally short, if the predetermined time ΔTA is set sufficiently long, the risk of misidentifying the indicator HND as the conductive member 801 can be sufficiently reduced.

−判別方法(B)−
受信電圧信号RVSの波形の歪みから計測された3次元座標が境界面BNDよりもタッチパネル161の表面から遠い場合、判別部23は更にこの3次元座標の時間的変化を観察し、その時間的変化の幅に基づいてこの3次元座標に位置する接地導体を、第2領域RGBに位置する導電部材801と第3領域RGCに位置する指示体とのいずれかに判別する。
-Discrimination method (B)-
When the three-dimensional coordinate measured from the waveform distortion of the received voltage signal RVS is farther from the surface of the touch panel 161 than the boundary surface BND, the determination unit 23 further observes the temporal change of the three-dimensional coordinate, and the temporal change thereof. Based on the width of the grounding conductor, the grounding conductor located at the three-dimensional coordinate is determined as either the conductive member 801 located in the second region RGB or the indicator located in the third region RGC.

図9の(b)は、受信電圧信号RVSの波形の歪みから計測された3次元座標のZ軸成分の時間的変化の別例を示すグラフである。このグラフの縦軸はそのZ軸成分すなわちタッチパネル161の表面からの距離を表し、横軸は時間を表す。図9の(b)を参照するに、第1時刻t0から第2時刻t1までの期間ではZ軸成分は境界面のZ座標“ZB”よりも小さい。したがって、この期間t0−t1に計測した3次元座標に位置する接地導体を判別部23は、第1領域RGAに位置する指示体HNDと判別する。第2時刻t1ではZ軸成分が境界面のZ座標“ZB”を超えるので、第2時刻t1から所定時間ΔTBが経過するまでの期間中、判別部23は計測部22の計測する3次元座標の時間的変化を観察し、特にその変化の幅を監視する。この幅は所定値ΔFRよりも小さいので、この期間t1−t1+ΔTBに計測した3次元座標に位置する接地導体を判別部23は、第2領域RGBに位置する導電部材801と判別する。その後、第3時刻t2ではZ軸成分が境界面のZ座標“ZB”よりも大きい範囲で変動し始めるので、第3時刻t2から所定時間ΔTBが経過するまでの期間中、判別部23は計測部22の計測する3次元座標の時間的変化を観察する。この期間t2−t2+ΔTBではその3次元座標の変化の幅が所定値ΔFRを超えるので、その3次元座標に位置する接地導体を判別部23は、第3領域RGCに位置する指示体HNDと判別する。   FIG. 9B is a graph showing another example of the temporal change of the Z-axis component of the three-dimensional coordinate measured from the waveform distortion of the reception voltage signal RVS. The vertical axis of this graph represents the Z-axis component, that is, the distance from the surface of the touch panel 161, and the horizontal axis represents time. Referring to FIG. 9B, in the period from the first time t0 to the second time t1, the Z-axis component is smaller than the Z coordinate “ZB” of the boundary surface. Therefore, the determination unit 23 determines the ground conductor located at the three-dimensional coordinates measured in the period t0-t1 as the indicator HND located in the first region RGA. Since the Z-axis component exceeds the Z coordinate “ZB” of the boundary surface at the second time t1, the determination unit 23 uses the three-dimensional coordinates measured by the measurement unit 22 during the period until the predetermined time ΔTB elapses from the second time t1. Observe the time change of the monitor, especially monitor the width of the change. Since this width is smaller than the predetermined value ΔFR, the determination unit 23 determines the ground conductor located at the three-dimensional coordinates measured in the period t1−t1 + ΔTB as the conductive member 801 located in the second region RGB. Thereafter, at the third time t2, the Z-axis component starts to fluctuate in a range larger than the Z coordinate “ZB” of the boundary surface. Therefore, during the period from the third time t2 until the predetermined time ΔTB elapses, the determination unit 23 performs measurement. The temporal change of the three-dimensional coordinates measured by the unit 22 is observed. In this period t2-t2 + ΔTB, the change width of the three-dimensional coordinate exceeds the predetermined value ΔFR, and therefore the determination unit 23 determines the ground conductor located at the three-dimensional coordinate as the indicator HND located in the third region RGC. .

判別方法(B)では判別方法(A)と同様、計測された3次元座標のZ軸成分が閾値、すなわち境界面のZ座標“ZB”以下であれば直ちに、その3次元座標が指示体HNDの位置と判別される。一方、判別方法(B)では判別方法(A)とは異なり、そのZ軸成分が閾値ZBを超えた場合、その時点から所定時間ΔTBが経過するまでの間に計測された3次元座標の変化の幅が所定値ΔFR以下であればその3次元座標は導電部材801の位置と判別され、所定値ΔFRを超えれば指示体HNDの位置と判別される。   In the discrimination method (B), as in the discrimination method (A), if the Z-axis component of the measured three-dimensional coordinates is equal to or less than the threshold, that is, the Z coordinate “ZB” of the boundary surface, the three-dimensional coordinates are immediately indicated by the indicator HND. It is determined that On the other hand, in the discrimination method (B), unlike the discrimination method (A), when the Z-axis component exceeds the threshold value ZB, the change in the three-dimensional coordinates measured from the time point until the predetermined time ΔTB elapses. If the width is less than or equal to a predetermined value ΔFR, the three-dimensional coordinate is determined as the position of the conductive member 801, and if it exceeds the predetermined value ΔFR, it is determined as the position of the indicator HND.

なお、図9の(b)では説明の便宜上、Z軸方向の変化の幅が所定値ΔFRと比較されている。しかし、Z軸方向に限らず、いずれかの方向で変化の幅が所定値ΔFRを超えれば、計測された3次元座標は指示体HNDの位置と判別される。
判別方法(B)は判別方法(A)とは異なり、たとえば第3領域RGCをタッチパネル161の表面から十分には離すことができない結果、この領域RGCにジェスチャー中の指示体HNDが頻繁に侵入し得る場合でも、第2領域RGBに位置する導電部材801と第3領域RGCに位置する指示体HNDとを判別可能である。確かに、第2領域RGBと第3領域RGCとは受信電極4N、…からの距離が等しいので、受信電圧信号RVSの波形の歪みへの寄与は、第2領域RGBに位置する導電部材801に起因する電界EFLの歪みと、第3領域RGCに位置する指示体HNDに起因するものとでは同程度である。しかし、導電部材801はMFP100の筐体に固定されているので実質上静止し続けるのに対し、指示体HNDはジェスチャー等の動作で絶えず動き続ける。したがって、第3領域RGCに指示体HNDが侵入した場合に計測される3次元座標の時間的変化には、その指示体HNDの動きに起因する周期の短い、かつ振幅の大きい変動成分が重畳される。一方、導電部材801は、図8の(d)の示す一定の軌跡TRCから大きく外れることはない。これらを考慮して上記の所定時間ΔTBを十分に短く、かつ所定値ΔFRを十分に大きく設定しておけば、計測される3次元座標の時間的変化から第2領域RGBに位置する導電部材801と第3領域RGCに位置する指示体HNDとを判別することができる。
In FIG. 9B, the width of change in the Z-axis direction is compared with a predetermined value ΔFR for convenience of explanation. However, the measured three-dimensional coordinates are determined as the position of the indicator HND if the change width exceeds the predetermined value ΔFR in any direction, not limited to the Z-axis direction.
The discrimination method (B) is different from the discrimination method (A). For example, the third region RGC cannot be sufficiently separated from the surface of the touch panel 161. As a result, the indicator HND in the gesture frequently enters the region RGC. Even when it is obtained, it is possible to distinguish between the conductive member 801 located in the second region RGB and the indicator HND located in the third region RGC. Certainly, the second region RGB and the third region RGC have the same distance from the receiving electrode 4N,..., And therefore the contribution to the waveform distortion of the received voltage signal RVS is caused by the conductive member 801 located in the second region RGB. The distortion of the electric field EFL caused by the distortion is approximately the same as that caused by the indicator HND located in the third region RGC. However, since the conductive member 801 is fixed to the casing of the MFP 100, it remains substantially stationary, whereas the indicator HND continues to move by an operation such as a gesture. Therefore, the temporal change of the three-dimensional coordinates measured when the indicator HND enters the third region RGC is superimposed with a fluctuation component having a short period and a large amplitude due to the movement of the indicator HND. The On the other hand, the conductive member 801 does not greatly deviate from the constant trajectory TRC shown in FIG. In consideration of these, if the predetermined time ΔTB is sufficiently short and the predetermined value ΔFR is set sufficiently large, the conductive member 801 located in the second region RGB from the temporal change of the three-dimensional coordinates to be measured. And the indicator HND located in the third region RGC.

−判別方法(A)による処理の流れ−
図10は、判別方法(A)による処理のフローチャートである。この処理は、検出部21が受信電圧信号RVSを検出したときに開始される。
ステップS101では、計測部22がAD変換部42から、デジタル化された受信電圧信号RVSを読み込んでその波形の歪みを解析し、その歪みが、監視対象の空間RGA、RGB、RGCへの接地導体の侵入に起因する変化を含むか否かを確認する。この変化を含んでいれば処理がステップS102へ進み、含んでいなければ処理が終了する。
-Flow of processing by discrimination method (A)-
FIG. 10 is a flowchart of processing by the determination method (A). This process is started when the detection unit 21 detects the reception voltage signal RVS.
In step S101, the measurement unit 22 reads the digitized reception voltage signal RVS from the AD conversion unit 42, analyzes the distortion of the waveform, and the distortion is a ground conductor to the monitored space RGA, RGB, RGC. It is confirmed whether or not it includes changes caused by the intrusion. If this change is included, the process proceeds to step S102; otherwise, the process ends.

ステップS102では、計測部22が受信電圧信号RVSの波形の歪みから接地導体の重心の3次元座標POSを計測する。その後、処理はステップS103へ進む。
ステップS103では、計測部22の計測した3次元座標POSが境界面BNDよりもタッチパネル161の表面から遠いか否かを判別部23が確認する。遠ければ処理がステップS104へ進み、遠くなければ処理がステップS106へ進む。
In step S102, the measurement unit 22 measures the three-dimensional coordinate POS of the center of gravity of the ground conductor from the waveform distortion of the reception voltage signal RVS. Thereafter, the process proceeds to step S103.
In step S103, the determination unit 23 checks whether the three-dimensional coordinate POS measured by the measurement unit 22 is farther from the surface of the touch panel 161 than the boundary surface BND. If so, the process proceeds to step S104. If not, the process proceeds to step S106.

ステップS104では、計測部22の計測した3次元座標POSが境界面BNDよりもタッチパネル161の表面から遠い。このことを最初に確認した時点から所定時間ΔTAが経過したか否かを判別部23は確認する。所定時間ΔTAが経過していれば処理がステップS105へ進み、経過していなければ処理がステップS101から繰り返される。
ステップS105では、所定時間ΔTAが経過しても、計測部22の計測した3次元座標POSは境界面BNDよりもタッチパネル161の表面から遠いままである。したがって、判別部23はこの3次元座標POSを、第2領域RGBに位置する導電部材801の座標と判別する。その後、処理が終了する。
In step S104, the three-dimensional coordinate POS measured by the measurement unit 22 is farther from the surface of the touch panel 161 than the boundary surface BND. The determination unit 23 confirms whether or not the predetermined time ΔTA has elapsed since the time when this was first confirmed. If the predetermined time ΔTA has elapsed, the process proceeds to step S105, and if not, the process is repeated from step S101.
In step S105, even when the predetermined time ΔTA has elapsed, the three-dimensional coordinate POS measured by the measurement unit 22 is farther from the surface of the touch panel 161 than the boundary surface BND. Therefore, the determination unit 23 determines the three-dimensional coordinate POS as the coordinates of the conductive member 801 located in the second region RGB. Thereafter, the process ends.

ステップS106では、計測部22の計測した3次元座標POSは境界面BNDよりもタッチパネル161の表面に近い。したがって、判別部23はこの3次元座標POSを、第1領域RGAに位置する指示体HNDの座標と判別する。その後、処理が終了する。
−判別方法(B)による処理の流れ−
図11は、判別方法(B)による処理のフローチャートである。この処理は、検出部21が受信電圧信号RVSを検出したときに開始される。
In step S106, the three-dimensional coordinate POS measured by the measurement unit 22 is closer to the surface of the touch panel 161 than the boundary surface BND. Therefore, the determination unit 23 determines the three-dimensional coordinates POS as the coordinates of the indicator HND located in the first region RGA. Thereafter, the process ends.
-Flow of processing by discrimination method (B)-
FIG. 11 is a flowchart of processing by the determination method (B). This process is started when the detection unit 21 detects the reception voltage signal RVS.

ステップS111では、判別部23がフラグFLを“0”に設定する。その後、処理はステップS112へ進む。
ステップS112では、計測部22がAD変換部42から、デジタル化された受信電圧信号RVSを読み込んでその波形の歪みを解析し、その歪みが、監視対象の空間RGA、RGB、RGCへの接地導体の侵入に起因する変化を含むか否かを確認する。この変化を含んでいれば処理がステップS113へ進み、含んでいなければ処理が終了する。
In step S111, the determination unit 23 sets the flag FL to “0”. Thereafter, the process proceeds to step S112.
In step S112, the measurement unit 22 reads the digitized reception voltage signal RVS from the AD conversion unit 42, analyzes the distortion of the waveform, and the distortion is grounded to the monitored spaces RGA, RGB, and RGC. It is confirmed whether or not it includes changes caused by the intrusion. If this change is included, the process proceeds to step S113; otherwise, the process ends.

ステップS113では、計測部22が受信電圧信号RVSの波形の歪みから接地導体の重心の3次元座標POSを計測する。その後、処理はステップS114へ進む。
ステップS114では、計測部22の計測した3次元座標POSが境界面BNDよりもタッチパネル161の表面から遠いか否かを判別部23が確認する。遠ければ処理がステップS115へ進み、遠くなければ処理がステップS121へ進む。
In step S113, the measurement unit 22 measures the three-dimensional coordinate POS of the center of gravity of the ground conductor from the waveform distortion of the reception voltage signal RVS. Thereafter, the process proceeds to step S114.
In step S114, the determination unit 23 checks whether the three-dimensional coordinate POS measured by the measurement unit 22 is farther from the surface of the touch panel 161 than the boundary surface BND. If far away, the process proceeds to step S115, and if not far, the process proceeds to step S121.

ステップS115では、計測部22の計測した3次元座標POSが境界面BNDよりもタッチパネル161の表面から遠い。このとき、フラグFLが“0”であるか否かを判別部23は確認する。“0”であれば処理がステップS116へ進み、“0”でなければ処理がステップS119へ進む。
ステップS116では、フラグFLが“0”であるので、3次元座標POSは処理開始後、計測部22が最初に計測した値である。判別部23はこの値POSを初期値PPSに設定すると共に、フラグFLを“1”に変更する。その後、処理はステップS117へ進む。
In step S115, the three-dimensional coordinate POS measured by the measurement unit 22 is farther from the surface of the touch panel 161 than the boundary surface BND. At this time, the determination unit 23 checks whether or not the flag FL is “0”. If "0", the process proceeds to step S116, and if not "0", the process proceeds to step S119.
In step S116, since the flag FL is “0”, the three-dimensional coordinate POS is a value initially measured by the measurement unit 22 after the processing is started. The determination unit 23 sets the value POS to the initial value PPS and changes the flag FL to “1”. Thereafter, the process proceeds to step S117.

ステップS117では、処理開始時にステップS112で確認された波形の歪みの変化が生じた時点から所定時間ΔTBが経過したか否かを判別部23は確認する。所定時間ΔTBが経過していれば処理がステップS118へ進み、経過していなければ処理がステップS112から繰り返される。
ステップS118では、処理開始時にステップS112で確認された波形の歪みの変化が生じた時点から所定時間ΔTBが経過しても、計測部22の計測した3次元座標POSは境界面BNDよりもタッチパネル161の表面から遠いままである。したがって、この3次元座標POSを、第2領域RGBに位置する導電部材801の座標と判別部23は判別する。その後、処理が終了する。
In step S117, the determination unit 23 checks whether or not a predetermined time ΔTB has elapsed since the change in the waveform distortion confirmed in step S112 occurred at the start of processing. If the predetermined time ΔTB has elapsed, the process proceeds to step S118, and if not, the process is repeated from step S112.
In step S118, the three-dimensional coordinate POS measured by the measurement unit 22 is more in touch with the touch panel 161 than the boundary surface BND even when the predetermined time ΔTB has elapsed since the change in waveform distortion confirmed in step S112 occurred at the start of processing. It is far from the surface. Therefore, the determination unit 23 determines the three-dimensional coordinate POS from the coordinates of the conductive member 801 located in the second region RGB. Thereafter, the process ends.

ステップS119では、フラグFLが“0”ではないので、初期値PPSに値がすでに設定されている。したがって、ステップS113で計測された3次元座標POSと初期値PPSとの変化の幅MOV=|POS−PPS|を判別部23は計算する。その後、処理はステップS120へ進む。
ステップS120では、ステップS119で計算した変化の幅MOVが所定値ΔFR以下であるか否かを判別部23が確認する。所定値ΔFR以下であれば処理がステップS117へ進み、所定値ΔFRを超えていれば処理がステップS121へ進む。
In step S119, since the flag FL is not "0", a value has already been set to the initial value PPS. Therefore, the determination unit 23 calculates the change width MOV = | POS−PPS | between the three-dimensional coordinate POS measured in step S113 and the initial value PPS. Thereafter, the process proceeds to step S120.
In step S120, the determination unit 23 checks whether the change width MOV calculated in step S119 is equal to or less than a predetermined value ΔFR. If it is equal to or smaller than the predetermined value ΔFR, the process proceeds to step S117, and if it exceeds the predetermined value ΔFR, the process proceeds to step S121.

ステップS121では、ステップS113で計測された3次元座標POSは境界面BNDよりもタッチパネル161の表面に近い。また、ステップS119で計算された変化の幅MOVが所定値ΔFRを超えている。したがって、ステップS113で計測された3次元座標POSを指示体HNDの座標と判別部23は判別する。その後、処理が終了する。
[操作パネルの傾斜角に応じた処理]
計測部22の計測した3次元座標を導電部材801の座標と判別したとき、判別部23はその3次元座標を、図4の示す傾斜角推測部435へ渡す。この3次元座標に基づいて傾斜角推測部435は操作パネル160の傾斜角θを推測する。具体的には、この3次元座標が図8の(d)の示す導電部材801の軌跡TRC上のいずれの点に相当するかを推測し、この点に対応する操作パネル160の傾斜角θを、軌跡TRC上の位置と操作パネルの傾斜角との間の対応表から検索する。
In step S121, the three-dimensional coordinate POS measured in step S113 is closer to the surface of the touch panel 161 than the boundary surface BND. Further, the change width MOV calculated in step S119 exceeds the predetermined value ΔFR. Therefore, the determination unit 23 determines the three-dimensional coordinates POS measured in step S113 from the coordinates of the indicator HND. Thereafter, the process ends.
[Processing according to the tilt angle of the operation panel]
When the three-dimensional coordinates measured by the measurement unit 22 are determined as the coordinates of the conductive member 801, the determination unit 23 passes the three-dimensional coordinates to the inclination angle estimation unit 435 shown in FIG. Based on the three-dimensional coordinates, the inclination angle estimation unit 435 estimates the inclination angle θ of the operation panel 160. Specifically, it is estimated which point on the locus TRC of the conductive member 801 shown in FIG. 8D corresponds to this three-dimensional coordinate, and the inclination angle θ of the operation panel 160 corresponding to this point is determined. Then, a search is made from a correspondence table between the position on the trajectory TRC and the inclination angle of the operation panel.

傾斜角推測部435が推測した操作パネル160の傾斜角θに応じて制御部24は、たとえば次の2種類の処理を制御する。(1)表示部25にLCD4Dの表示の属性を操作パネルの傾斜角θに応じて変更させる。(2)ジェスチャー解釈部434にユーザーのジェスチャーが対象とする操作画面上の座標(以下、「対象座標」という。)を操作パネル160の傾斜角θに基づいて推定する。   The control unit 24 controls, for example, the following two types of processing according to the inclination angle θ of the operation panel 160 estimated by the inclination angle estimation unit 435. (1) The display unit 25 is caused to change the display attribute of the LCD 4D according to the tilt angle θ of the operation panel. (2) The gesture interpretation unit 434 estimates coordinates on the operation screen targeted by the user's gesture (hereinafter referred to as “target coordinates”) based on the inclination angle θ of the operation panel 160.

−表示の属性の変更−
図12の(a)は、LCD4Dの表示の属性、3Dジェスチャーセンサー410による検出の特性、および操作パネル160の傾斜角θの間の対応表である。この表はたとえば制御部24に内蔵のメモリー素子に記憶されている。図12の(a)を参照するに、まず操作パネル160の傾斜角θの取り得る範囲が閾値θB未満の第1区間(θ<θB)とそれ以上の第2区間(θ≧θB)とに二分されている。次に第1区間では、LCD4Dの画面表示のサイズと、3Dジェスチャーセンサー410によって検出可能なジェスチャーの速度とがいずれも“標準”に設定され、検出可能なジェスチャーの種類として、“フリック”、“スライド”、“ローテーション”がいずれも“あり”に設定されている。一方、第2区間では、画面表示のサイズが“拡大”に設定され、検出可能なジェスチャーの速度が“ゆっくり”に設定され、検出可能なジェスチャーの種類のうち、“フリック”は“スライドへ変更”と設定されている。
-Changing display attributes-
12A is a correspondence table between the display attributes of the LCD 4D, the detection characteristics of the 3D gesture sensor 410, and the inclination angle θ of the operation panel 160. FIG. This table is stored, for example, in a memory element built in the control unit 24. Referring to FIG. 12A, first, the range in which the inclination angle θ of the operation panel 160 can be taken is a first section (θ <θB) where the range is less than the threshold θB and a second section (θ ≧ θB) beyond that. It is divided in two. Next, in the first section, the screen display size of the LCD 4D and the speed of the gesture that can be detected by the 3D gesture sensor 410 are both set to “standard”, and the types of gestures that can be detected are “flick”, “ “Slide” and “Rotation” are both set to “Yes”. On the other hand, in the second section, the screen display size is set to “enlarged”, the speed of the detectable gesture is set to “slow”, and among the types of detectable gestures, “flick” is changed to “slide” "Is set.

傾斜角推測部435が操作パネル160の傾斜角θを推測したとき、制御部24はまずその推測値が第1区間(θ<θB)と第2区間(θ≧θB)とのいずれに属するかを判別する。制御部24は次に、その判別結果に対応するLCD4Dの表示の属性と3Dジェスチャーセンサー410による検出の特性とを上記の対応表から検索し、表示部25とジェスチャー解釈部434とに設定する。   When the tilt angle estimation unit 435 estimates the tilt angle θ of the operation panel 160, the control unit 24 first determines whether the estimated value belongs to the first section (θ <θB) or the second section (θ ≧ θB). Is determined. Next, the control unit 24 retrieves the display attribute of the LCD 4D corresponding to the determination result and the characteristics detected by the 3D gesture sensor 410 from the above correspondence table, and sets them in the display unit 25 and the gesture interpretation unit 434.

図12の(b)、(c)はそれぞれ、操作パネル160の傾斜角θが第1区間(θ<θB)、第2区間(θ≧θB)に属すると推測されたときに操作パネル160の画面に表示される文字を示す模式図である。図12の(b)、(c)を参照するに、傾斜角θが第1区間に属すると推測されたときに画面に表示される文字よりも、第2区間に属すると推測されたときの文字はサイズが拡大されている。これは、図12の(a)の対応表においてLCD4Dの画面表示のサイズが、第1区間については“標準”に設定され、第2区間については“拡大”に設定されていることに応じた表示部25の処理による。   FIGS. 12B and 12C show the operation panel 160 when the inclination angle θ of the operation panel 160 is estimated to belong to the first section (θ <θB) and the second section (θ ≧ θB), respectively. It is a schematic diagram which shows the character displayed on a screen. Referring to (b) and (c) of FIG. 12, when it is estimated that the inclination angle θ belongs to the second section rather than the character displayed on the screen when it is estimated to belong to the first section. The characters are enlarged in size. This corresponds to the fact that the screen display size of the LCD 4D is set to “standard” for the first section and “enlarged” for the second section in the correspondence table of FIG. By the processing of the display unit 25.

図12の(a)の対応表には3Dジェスチャーセンサー410によって検出可能なジェスチャーの速度が、第1区間については“標準”に設定され、第2区間については“ゆっくり”に設定されている。これに応じてジェスチャー解釈部434は、判別部23から受信する3次元座標の時間的変化をユーザーのジェスチャーとして解釈する際に想定する指示体の速度の下限を、傾斜角θが第1区間に属すると推測されたときよりも、第2区間に属すると推測されたときには低く設定する。   In the correspondence table of FIG. 12A, the speed of the gesture that can be detected by the 3D gesture sensor 410 is set to “standard” for the first section and “slow” for the second section. In response to this, the gesture interpretation unit 434 sets the lower limit of the speed of the indicator assumed when interpreting the temporal change of the three-dimensional coordinates received from the determination unit 23 as the user's gesture, and the inclination angle θ is set to the first interval. It is set lower when it is estimated that it belongs to the second section than when it is estimated that it belongs.

図12の(a)の対応表には3Dジェスチャーセンサー410によって検出可能なジェスチャーの種類のうち“フリック”が、第2区間については“スライドへ変更”と設定されている。これに応じてジェスチャー解釈部434は、判別部23から受信する3次元座標の時間的変化を“フリック”として解釈することが可能な場合でも、傾斜角θが第2区間に属すると推測されたときには“スライド”として解釈する。   In the correspondence table of FIG. 12A, “flick” among the types of gestures detectable by the 3D gesture sensor 410 is set to “change to slide” for the second section. In response to this, the gesture interpretation unit 434 is estimated that the inclination angle θ belongs to the second section even when the temporal change of the three-dimensional coordinates received from the determination unit 23 can be interpreted as “flick”. Sometimes interpreted as “slide”.

このように、制御部24はLCD4Dの表示の属性と3Dジェスチャーセンサー410による検出の特性とを、操作パネルの傾斜角θに応じて変更する。これにより、それらの属性を個々のユーザーに自動的に適合させることができる。実際、操作パネル160の傾斜角θが第1区間に設定されるのは、図2の(a)が示すように、比較的背の高いユーザーによる場合が多い。一方、操作パネル160の傾斜角θが第2区間に設定されるのは、図2の(b)が示すように、車椅子の利用者等、比較的背の低いユーザーによる場合が多い。したがって、特に傾斜角θが第2区間に属すると推測されたときには操作パネル160の画面表示を、車椅子の利用者、高齢者、子供等にも見えやすい設定に変更し、3Dジェスチャーセンサー410による検出の特性を比較的遅い手の動きに合わせればよい。具体的には、上記のように、傾斜角θが第2区間に属すると推測されたときには、画面に表示される文字のサイズを拡大し、ジェスチャーとして解釈する際に想定する指示体の速度の下限を低く設定し、“フリック”として解釈可能なジェスチャーも“スライド”として解釈すればよい。   As described above, the control unit 24 changes the display attribute of the LCD 4D and the detection characteristic of the 3D gesture sensor 410 according to the tilt angle θ of the operation panel. Thereby, those attributes can be automatically adapted to individual users. Actually, the inclination angle θ of the operation panel 160 is set to the first section in many cases, as shown in FIG. 2A, by a relatively tall user. On the other hand, the inclination angle θ of the operation panel 160 is set to the second section in many cases as shown in FIG. 2B by a relatively short user such as a wheelchair user. Therefore, especially when it is estimated that the inclination angle θ belongs to the second section, the screen display of the operation panel 160 is changed to a setting that can be easily seen by a wheelchair user, an elderly person, a child, and the like, and is detected by the 3D gesture sensor 410. You can adjust the characteristics of the hand to a relatively slow hand movement. Specifically, as described above, when the inclination angle θ is estimated to belong to the second section, the size of the character displayed on the screen is enlarged, and the speed of the indicator assumed when interpreting as a gesture is increased. The lower limit is set low, and a gesture that can be interpreted as “flick” may be interpreted as “slide”.

−ジェスチャーの対象の推定−
図13の(d)は、操作パネル160の傾斜角θに応じた対象座標の補正値を示す表である。この表はたとえば制御部24に内蔵のメモリー素子に記憶されている。図13の(d)を参照するに、まず操作パネル160の傾斜角θの取り得る範囲が、第1閾値θ1以下の第1区間(θ≦θ1)、第1閾値θ1よりも大きく第2閾値θ2よりも小さい第2区間(θ1<θ<θ2)、および第2閾値θ2以上の第3区間(θ2≦θ)に分割されている。次に、対象座標の補正値(ΔX、ΔY)が第1区間では(0、+Δξ)に設定され、第2区間では(0、0)に設定され、第3区間では(0、−Δη)に設定されている。
-Estimation of gesture target-
FIG. 13D is a table showing target coordinate correction values according to the inclination angle θ of the operation panel 160. This table is stored, for example, in a memory element built in the control unit 24. Referring to (d) of FIG. 13, first, the range in which the inclination angle θ of the operation panel 160 can be taken is a first interval (θ ≦ θ1) equal to or less than the first threshold θ1, larger than the first threshold θ1, and the second threshold. It is divided into a second section (θ1 <θ <θ2) smaller than θ2 and a third section (θ2 ≦ θ) equal to or greater than the second threshold value θ2. Next, the correction value (ΔX, ΔY) of the target coordinate is set to (0, + Δξ) in the first section, (0, 0) in the second section, and (0, −Δη) in the third section. Is set to

傾斜角推測部435が操作パネル160の傾斜角θを推測したとき、制御部24はまずその推測値が、第1区間、第2区間、第3区間のいずれに属するかを判別する。制御部24は次に、その判別結果に対応する対象座標の補正値を図13の(d)の表から検索してジェスチャー解釈部434に設定する。これに応じてジェスチャー解釈部434はまず、3Dジェスチャーセンサー410による検出結果から指先の3次元座標(X、Y、Z)を推測する。ジェスチャー解釈部434は次に、この指先を画面に対して垂直に射影した点の座標(X、Y)に補正値(ΔX、ΔY)を加え、得られた座標(X+ΔX、Y+ΔY)を対象座標として推定する。この対象座標に表示された操作画面のGUI部品を、ジェスチャー解釈部434はジェスチャーの対象として解釈する。   When the tilt angle estimation unit 435 estimates the tilt angle θ of the operation panel 160, the control unit 24 first determines whether the estimated value belongs to the first section, the second section, or the third section. Next, the control unit 24 retrieves the correction value of the target coordinate corresponding to the determination result from the table of FIG. 13D and sets it in the gesture interpretation unit 434. In response to this, the gesture interpretation unit 434 first estimates the three-dimensional coordinates (X, Y, Z) of the fingertip from the detection result by the 3D gesture sensor 410. Next, the gesture interpretation unit 434 adds the correction value (ΔX, ΔY) to the coordinates (X, Y) of the point that the fingertip is projected perpendicularly to the screen, and uses the obtained coordinates (X + ΔX, Y + ΔY) as the target coordinates. Estimate as The gesture interpretation unit 434 interprets the GUI part of the operation screen displayed at the target coordinates as a gesture target.

こうして、ジェスチャー解釈部434は対象座標を操作パネル160の傾斜角θに基づいて推定する。これにより、以下に例示するとおり、ジェスチャーの対象とするGUI部品を識別する精度が向上するので、ジェスチャーの指標する入力操作を正確に解釈することができる。
図13の(a)、(b)、(c)はそれぞれ、操作パネル160の傾斜角θが、第1区間(θ≦θ1)、第2区間(θ1<θ<θ2)、第3区間(θ2≦θ)に属するときに操作パネル160の画面に向けられるユーザーの視線LS1、LS2、LS3を示す模式図である。
In this way, the gesture interpretation unit 434 estimates target coordinates based on the tilt angle θ of the operation panel 160. As a result, as illustrated below, the accuracy of identifying the GUI component that is the target of the gesture is improved, so that the input operation indicated by the gesture can be accurately interpreted.
In FIGS. 13A, 13B, and 13C, the inclination angle θ of the operation panel 160 is set to the first interval (θ ≦ θ1), the second interval (θ1 <θ <θ2), and the third interval ( It is a schematic diagram showing the user's lines of sight LS1, LS2, and LS3 directed to the screen of the operation panel 160 when belonging to (θ2 ≦ θ).

図13の(a)を参照するに、傾斜角θが第1区間に属すると推測されたとき、操作パネル160の画面は水平面に近いので、ユーザーの指先FP1に向けられた視線LS1はこの画面の法線方向から斜めに傾く。その結果、この視線LS1が交差する画面上の点TP1は、ユーザーの指先FP1を画面に対して垂直に射影した点MP1からY軸の正方向に距離Δξだけ逸れる。一方、ジェスチャー解釈部434が推定する対象座標は、3Dジェスチャーセンサー410による検出結果から得られた指先FP1から画面への射影点MP1の座標(X、Y)に、図13の(d)の表から検索された補正値(0、+Δξ)を加えた値(X、Y+Δξ)である。したがってこの対象座標は、視線LS1が交差する画面上の点TP1と正確に一致する。   Referring to FIG. 13A, when it is estimated that the inclination angle θ belongs to the first section, the screen of the operation panel 160 is close to the horizontal plane, and therefore the line of sight LS1 directed toward the user's fingertip FP1 is the screen. Tilt diagonally from the normal direction. As a result, the point TP1 on the screen where the line of sight LS1 intersects deviates from the point MP1 obtained by projecting the user's fingertip FP1 perpendicularly to the screen by a distance Δξ in the positive direction of the Y axis. On the other hand, the target coordinates estimated by the gesture interpreter 434 are the coordinates (X, Y) of the projection point MP1 projected from the fingertip FP1 to the screen obtained from the detection result by the 3D gesture sensor 410, as shown in the table of (d) of FIG. (X, Y + Δξ) obtained by adding the correction value (0, + Δξ) retrieved from Therefore, the target coordinates exactly coincide with the point TP1 on the screen where the line of sight LS1 intersects.

図13の(b)を参照するに、傾斜角θが第2区間に属すると推測されたとき、操作パネル160の画面はユーザーにとって見えやすい傾きに調節されている可能性が高い。すなわち、ユーザーの指先FP2に向けられた視線LS2は操作パネル160の画面の法線方向と一致するとみなせる。このとき、この視線LS2が交差する画面上の座標TP2は3Dジェスチャーセンサー410による検出結果から推測される指先FP2を画面に対して垂直に射影した点MP2の座標に等しい。一方、図13の(d)の表から検索された補正値は(0、0)であるので、ジェスチャー解釈部434が推定する対象座標は、3Dジェスチャーセンサー410による検出結果から得られた指先FP2から画面への射影点MP2の座標(X、Y)そのものである。したがってこの対象座標は、視線LS2が交差する画面上の点TP2と正確に一致する。   Referring to FIG. 13B, when it is estimated that the inclination angle θ belongs to the second section, the screen of the operation panel 160 is likely to be adjusted to an inclination that is easy for the user to see. That is, it can be considered that the line of sight LS2 directed toward the user's fingertip FP2 matches the normal direction of the screen of the operation panel 160. At this time, the coordinate TP2 on the screen at which the line of sight LS2 intersects is equal to the coordinate of the point MP2 obtained by projecting the fingertip FP2 estimated from the detection result by the 3D gesture sensor 410 perpendicular to the screen. On the other hand, since the correction value retrieved from the table of FIG. 13D is (0, 0), the target coordinates estimated by the gesture interpretation unit 434 are the fingertip FP2 obtained from the detection result by the 3D gesture sensor 410. The coordinates (X, Y) of the projection point MP2 onto the screen. Therefore, the target coordinates exactly coincide with the point TP2 on the screen where the line of sight LS2 intersects.

図13の(c)を参照するに、傾斜角θが第3区間に属すると推測されたとき、操作パネル160の画面は垂直面に近いので、ユーザーの指先FP3に向けられた視線LS3はこの画面の法線方向から、図13の(a)の示す傾きとは逆方向に斜めに傾く。その結果、この視線LS3が交差する画面上の点TP3は、ユーザーの指先FP3を画面に対して垂直に射影した点MP3からY軸の負方向に距離Δηだけ逸れる。一方、ジェスチャー解釈部434が推定する対象座標は、3Dジェスチャーセンサー410による検出結果から得られた指先FP3から画面への射影点MP3の座標(X、Y)に、図13の(d)の表から検索された補正値(0、−Δη)を加えた値(X、Y−Δη)である。したがってこの対象座標は、視線LS3が交差する画面上の点TP3と正確に一致する。   Referring to FIG. 13C, when it is estimated that the inclination angle θ belongs to the third section, the screen of the operation panel 160 is close to the vertical plane, and thus the line of sight LS3 directed to the user's fingertip FP3 is From the normal direction of the screen, it is inclined obliquely in the opposite direction to the inclination shown in FIG. As a result, the point TP3 on the screen where the line of sight LS3 intersects deviates from the point MP3 obtained by projecting the user's fingertip FP3 perpendicularly to the screen by a distance Δη in the negative direction of the Y axis. On the other hand, the target coordinates estimated by the gesture interpreter 434 are the coordinates (X, Y) of the projection point MP3 projected from the fingertip FP3 to the screen obtained from the detection result by the 3D gesture sensor 410, as shown in the table of FIG. (X, Y−Δη) obtained by adding the correction value (0, −Δη) retrieved from Therefore, the target coordinates exactly coincide with the point TP3 on the screen where the line of sight LS3 intersects.

[実施形態の利点]
本発明の実施形態によるMFP100では上記のとおり、まず検出部21が監視対象の空間RGA−RGCにおける接地導体の存在に起因する電界EFLの歪みを検出する。次に計測部22がこの電界EFLの歪みから計測部22がその接地導体の3次元座標を計測し、判別部23がこの3次元座標に基づいてその接地導体が指示体HNDと導電部材801とのいずれであるかを判別する。具体的には、まず、検出部21が受信電極4N、…で検出した受信電圧信号RVSの波形の歪みから、計測部22が接地導体の重心の3次元座標を計測する。この3次元座標が図8の(b)、(d)の示す境界面BNDに位置し、またはそれよりもタッチパネル161の表面に近ければ、判別部23はこの3次元座標に位置する接地導体を、第1領域RGAに位置する指示体HNDと判別する。一方、この3次元座標が境界面BNDよりもタッチパネル161の表面から遠ければ、判別部23はこの3次元座標に位置する接地導体を、(A)第2領域RGBに位置する導電部材801と判別し、または(B)この3次元座標の時間的変化の幅に基づいて、第2領域RGBに位置する導電部材801と第3領域RGCに位置する指示体とのいずれかに判別する。
[Advantages of the embodiment]
In MFP 100 according to the embodiment of the present invention, as described above, first, detection unit 21 detects distortion of electric field EFL due to the presence of a ground conductor in space RGA-RGC to be monitored. Next, the measurement unit 22 measures the three-dimensional coordinates of the ground conductor from the distortion of the electric field EFL, and the determination unit 23 determines that the ground conductor is based on the three-dimensional coordinates. It is determined whether it is. Specifically, first, the measurement unit 22 measures the three-dimensional coordinates of the center of gravity of the ground conductor from the distortion of the waveform of the reception voltage signal RVS detected by the detection unit 21 with the reception electrodes 4N,. If the three-dimensional coordinates are located on the boundary surface BND shown in FIGS. 8B and 8D, or closer to the surface of the touch panel 161 than that, the determination unit 23 determines the ground conductor located at the three-dimensional coordinates. And the indicator HND located in the first region RGA. On the other hand, if the three-dimensional coordinates are farther from the surface of the touch panel 161 than the boundary surface BND, the determination unit 23 determines that the ground conductor located at the three-dimensional coordinates is (A) the conductive member 801 located in the second region RGB. Or (B) based on the width of the temporal change of the three-dimensional coordinates, it is determined whether the conductive member 801 is located in the second region RGB or the indicator located in the third region RGC.

このように、このMFP100はユーザーの3次元的なジェスチャーと操作パネル160の揺動とを同じ3Dジェスチャーセンサー410で検出する。これにより、3Dジェスチャーセンサー410とは別に、操作パネル160の傾斜角θを検出するためのセンサーを追加する必要がない。こうして、このMFP100は操作性の向上と製造コストの低減とを両立させることができる。   As described above, the MFP 100 detects the user's three-dimensional gesture and the swing of the operation panel 160 with the same 3D gesture sensor 410. Accordingly, it is not necessary to add a sensor for detecting the tilt angle θ of the operation panel 160 separately from the 3D gesture sensor 410. Thus, the MFP 100 can achieve both improvement in operability and reduction in manufacturing cost.

このMFP100では更に、判別部23が指示体と判別した場合にはジェスチャー解釈部434がこの指示体の動きを通し、ユーザーのジェスチャーの指標する入力操作を解釈する。一方、判別部23が導電部材801と判別した場合には、傾斜角推測部435がこの導電部材801の位置から操作パネル160の傾斜角θを推測し、制御24がその傾斜角θに応じてLCD4Dの表示の属性と3Dジェスチャーセンサー410による検出の特性とを変更する。これにより、それらの属性を個々のユーザーに自動的に適合させることができる。さらに、ジェスチャー解釈部434が対象座標を操作パネル160の傾斜角θに基づいて推定する。これにより、ジェスチャーの対象を識別する精度が向上するので、ジェスチャーの指標する入力操作を正確に解釈することができる。   Further, in this MFP 100, when the determination unit 23 determines that it is an indicator, the gesture interpretation unit 434 passes the movement of the indicator and interprets the input operation indicated by the user's gesture. On the other hand, when the determination unit 23 determines that the conductive member 801 is used, the inclination angle estimation unit 435 estimates the inclination angle θ of the operation panel 160 from the position of the conductive member 801, and the control 24 responds to the inclination angle θ. The display attribute of the LCD 4D and the characteristics of detection by the 3D gesture sensor 410 are changed. Thereby, those attributes can be automatically adapted to individual users. Furthermore, the gesture interpretation unit 434 estimates target coordinates based on the inclination angle θ of the operation panel 160. As a result, the accuracy of identifying the target of the gesture is improved, so that the input operation indicated by the gesture can be accurately interpreted.

[変形例]
(A)図1の示す画像処理装置100はMFPである。本発明の実施形態による画像処理装置はその他に、レーザープリンター、インクジェット等の他方式のプリンター、コピー機、スキャナー、FAX等のいずれであってもよい。
(B)計測部22は、接地導体の代表点としてその重心の3次元座標を計測する。接地導体の代表点はその他に、その導体の先端、その外面の形状の対称点等、その導体の特徴的な点であってもよい。
[Modification]
(A) The image processing apparatus 100 shown in FIG. 1 is an MFP. The image processing apparatus according to the embodiment of the present invention may be any other printer such as a laser printer or an inkjet, a copier, a scanner, or a FAX.
(B) The measuring unit 22 measures the three-dimensional coordinates of the center of gravity as a representative point of the ground conductor. In addition, the representative point of the ground conductor may be a characteristic point of the conductor, such as a tip of the conductor, a symmetrical point of the shape of the outer surface, or the like.

(C)計測部22の計測した3次元座標が境界面BNDよりもタッチパネル161の表面から遠ければ、判別部23は判別方法(A)、(B)のいずれかを採用する。判別部23はその他に、たとえば操作パネル160の傾斜角θが特定の閾値以下であれば判別方法(A)を採用し、その閾値を超えていれば判別方法(B)を採用する等、傾斜角θに応じて両方法を切り換えてもよい。   (C) If the three-dimensional coordinates measured by the measurement unit 22 are farther from the surface of the touch panel 161 than the boundary surface BND, the determination unit 23 employs one of the determination methods (A) and (B). In addition, the determination unit 23 adopts the determination method (A) if the inclination angle θ of the operation panel 160 is equal to or smaller than a specific threshold, and adopts the determination method (B) if the inclination exceeds the threshold. Both methods may be switched according to the angle θ.

(D)上記の実施形態は、MFP100の筐体に固定された導電部材801に対するタッチパネル161の変位から操作パネル160の傾斜角θを推測する。その他に、スキャナー120の原稿台の上蓋の開閉、筐体の前扉の開閉、または排紙トレイ150の載置面の高さ等、タッチパネル161の近傍で移動する可動部材の位置であれば、それを推測することは以下のように可能である。   (D) In the above embodiment, the inclination angle θ of the operation panel 160 is estimated from the displacement of the touch panel 161 with respect to the conductive member 801 fixed to the casing of the MFP 100. In addition, the position of the movable member that moves in the vicinity of the touch panel 161, such as opening / closing of the upper cover of the document table of the scanner 120, opening / closing of the front door of the housing, or the height of the placement surface of the paper discharge tray 150, It is possible to guess it as follows.

−原稿台の上蓋−
図14の(a)は、スキャナー120の原稿台の上蓋と電界型3Dジェスチャーセンサー410による監視対象の空間との位置関係を示す模式図である。図14の(a)を参照するにこの監視対象の空間は図7の(a)の示す表側空間URGのみ、すなわち図8の(a)の示す第1領域RGAと第3領域RGCとから構成される。第3領域RGCの一部はADF110の周縁部に重なっている。ADF110はスキャナー120の原稿台の上蓋に装着されているので、この上蓋と共に開閉可能である。図14の(a)はADF110が閉じた状態を示す。第3領域RGCと重なったADF110の周縁部には導電部材802が装着されている。ADF110の周縁部が絶縁性の樹脂から成るのに対し、導電部材802は導電性の素材から成り、たとえば矩形状の金属板である。この導電部材802は更にMFP100のシャーシ等の接地部材によって接地電位に保たれている。
-Top cover of document platen-
FIG. 14A is a schematic diagram showing the positional relationship between the upper lid of the document table of the scanner 120 and the space to be monitored by the electric field type 3D gesture sensor 410. Referring to FIG. 14A, this monitored space is composed of only the front side space URG shown in FIG. 7A, that is, the first area RGA and the third area RGC shown in FIG. Is done. A part of the third region RGC overlaps the peripheral edge of the ADF 110. Since the ADF 110 is mounted on the upper cover of the document table of the scanner 120, it can be opened and closed together with the upper cover. FIG. 14A shows a state in which the ADF 110 is closed. A conductive member 802 is attached to the peripheral edge portion of the ADF 110 that overlaps the third region RGC. While the peripheral edge of the ADF 110 is made of an insulating resin, the conductive member 802 is made of a conductive material, for example, a rectangular metal plate. The conductive member 802 is further maintained at a ground potential by a ground member such as a chassis of the MFP 100.

図14の(b)は、(a)の示す監視対象の空間RGA、RGCと3Dジェスチャーセンサー410による検出で識別可能な接地導体の3次元座標の仮想的な範囲との間の対応関係を示す模式図である。図14の(b)を参照するに、この仮想的な範囲の各点には表側空間URGの1点のみが対応するので、この仮想的な範囲は表側空間URGと同一視可能である。この場合、第1領域RGAと第3領域RGCとを区切る仮想的平面BNA(Z=ZB)がそのまま境界面BNDである。   FIG. 14B shows a correspondence relationship between the space RGA and RGC to be monitored shown in FIG. 14A and the virtual range of the three-dimensional coordinates of the ground conductor that can be identified by the detection by the 3D gesture sensor 410. It is a schematic diagram. Referring to FIG. 14B, each point of the virtual range corresponds to only one point in the front space URG, so that this virtual range can be identified with the front space URG. In this case, a virtual plane BNA (Z = ZB) that divides the first region RGA and the third region RGC is the boundary surface BND as it is.

この対応関係を利用して判別部23は、検出部21の検出した電界EFLの歪みが指示体HNDと導電部材802とのいずれであるかを判別する。具体的には、まず検出部21が受信電極4N、…で検出した受信電圧信号RVSの波形の歪みから、計測部22が接地導体の重心の3次元座標を計測する。この3次元座標が境界面BNDに位置し、またはそれよりもタッチパネル161の表面に近ければ、判別部23はこの3次元座標に位置する接地導体を、第1領域RGAに位置する指示体HNDと判別する。第1領域RGAは第3領域RGCよりも受信電極4N、…に近いので、第1領域RGAに位置する指示体HNDに起因する電界EFLの歪みに比べれば、第3領域RGCに位置する導電部材802に起因するものは無視してよい。一方、計測部22の計測した3次元座標が境界面BNDよりもタッチパネル161の表面から遠ければ、判別部23は判別方法(A)または(B)に従ってその3次元座標を、第3領域RGCに存在する導電部材802と指示体とのいずれかの位置に判別する。   Using this correspondence, the determination unit 23 determines whether the distortion of the electric field EFL detected by the detection unit 21 is the indicator HND or the conductive member 802. Specifically, first, the measurement unit 22 measures the three-dimensional coordinates of the center of gravity of the ground conductor from the waveform distortion of the reception voltage signal RVS detected by the detection unit 21 with the reception electrodes 4N,. If the three-dimensional coordinates are located on the boundary surface BND or closer to the surface of the touch panel 161 than the three-dimensional coordinates, the determination unit 23 connects the ground conductor located at the three-dimensional coordinates to the indicator HND located in the first region RGA. Determine. Since the first region RGA is closer to the receiving electrodes 4N,... Than the third region RGC, the conductive member located in the third region RGC as compared with the distortion of the electric field EFL caused by the indicator HND located in the first region RGA. Anything due to 802 may be ignored. On the other hand, if the three-dimensional coordinate measured by the measurement unit 22 is farther from the surface of the touch panel 161 than the boundary surface BND, the determination unit 23 stores the three-dimensional coordinate in the third region RGC according to the determination method (A) or (B). It is discriminated at any position between the existing conductive member 802 and the indicator.

図14の(c)は、ADF110が開いたときにおける監視対象の空間RGA、RGCを示す模式図である。図14の(c)を参照するに、ADF110の開きに伴って導電部材802が第3領域RGCから離脱する。
図14の(d)は、(c)の示す監視対象の空間RGA、RGCと3Dジェスチャーセンサー410による検出で識別可能な接地導体の3次元座標の仮想的な範囲との対応関係を示す模式図である。図14の(d)を参照するに、ADF110が開くのにつれて導電部材802は第3領域RGCの中で一定の軌跡TRCを描きながらこの仮想的な範囲から離脱する。したがって、監視対象の空間RGA、RGCに指示体HNDが存在していない場合に第3領域RGCに位置する接地導体の3次元座標が計測されれば、ADF110が閉じた状態であると判別部23は判別し、その3次元座標が計測されなければ、ADF110が開いた状態であると判別部23は判別することができる。
FIG. 14C is a schematic diagram showing the monitoring target spaces RGA and RGC when the ADF 110 is opened. Referring to (c) of FIG. 14, the conductive member 802 is detached from the third region RGC with the opening of the ADF 110.
FIG. 14D is a schematic diagram showing a correspondence relationship between the space RGA, RGC to be monitored shown in FIG. 14C and the virtual range of the three-dimensional coordinates of the ground conductor that can be identified by detection by the 3D gesture sensor 410. It is. Referring to FIG. 14D, as the ADF 110 opens, the conductive member 802 departs from this virtual range while drawing a constant trajectory TRC in the third region RGC. Therefore, when the indicator HND is not present in the monitored spaces RGA and RGC, if the three-dimensional coordinates of the ground conductor located in the third region RGC are measured, it is determined that the ADF 110 is in a closed state. If the three-dimensional coordinates are not measured, the determination unit 23 can determine that the ADF 110 is in an open state.

このように、このMFP100は、ユーザーの3次元的なジェスチャーとADF110の開閉とを同じ3Dジェスチャーセンサー410で検出することもできる。これにより、ADF110の開閉を検出するための既存のセンサーを削減可能であるので、このMFP100は操作性の向上と製造コストの低減とを両立させることができる。
−筐体の前扉−
図15の(a)は、MDF100の筐体の前扉と電界型3Dジェスチャーセンサー410による監視対象の空間との位置関係を示す模式図である。図15の(a)を参照するにこの監視対象の空間は図8の(a)の示す第1領域RGAと第2領域RGBとから構成される。第2領域RGBの一部は前扉151の上端部に重なっている。図15の(a)は前扉151が閉じた状態を示す。第2領域RGBと重なった前扉151の上端部には導電部材803が装着されている。前扉151が絶縁性の樹脂から成るのに対し、導電部材803は導電性の素材から成り、たとえば矩形状の金属板である。この導電部材803は更にMFP100のシャーシ等の接地部材によって接地電位に保たれている。
As described above, the MFP 100 can also detect the user's three-dimensional gesture and the opening / closing of the ADF 110 with the same 3D gesture sensor 410. As a result, the number of existing sensors for detecting the opening / closing of the ADF 110 can be reduced, so that the MFP 100 can achieve both improved operability and reduced manufacturing costs.
-Front door of housing-
FIG. 15A is a schematic diagram showing the positional relationship between the front door of the housing of the MDF 100 and the space to be monitored by the electric field type 3D gesture sensor 410. Referring to (a) of FIG. 15, the space to be monitored is composed of a first area RGA and a second area RGB shown in (a) of FIG. A part of the second region RGB overlaps with the upper end portion of the front door 151. FIG. 15A shows a state where the front door 151 is closed. A conductive member 803 is attached to the upper end of the front door 151 that overlaps the second region RGB. Whereas the front door 151 is made of an insulating resin, the conductive member 803 is made of a conductive material, for example, a rectangular metal plate. The conductive member 803 is further maintained at a ground potential by a ground member such as a chassis of the MFP 100.

図15の(b)は、(a)の示す監視対象の空間RGA、RGBと3Dジェスチャーセンサー410による検出で識別可能な接地導体の3次元座標の仮想的な範囲との間の対応関係を示す模式図である。図15の(b)を参照するに、この仮想的な範囲のうち境界面BND(Z=ZB)よりもタッチパネル161の表面(Z=0)に近い領域(Z<ZB)の各点には第1領域RGAの1点が対応し、境界面BNDよりもタッチパネル161の表面から遠い領域(Z>ZB)の各点には第2領域RGBの1点が対応する。   FIG. 15B shows a correspondence relationship between the space RGA, RGB of the monitoring target shown in FIG. 15A and the virtual range of the three-dimensional coordinates of the ground conductor that can be identified by detection by the 3D gesture sensor 410. It is a schematic diagram. Referring to FIG. 15B, each point in the region (Z <ZB) closer to the surface (Z = 0) of the touch panel 161 than the boundary surface BND (Z = ZB) in the virtual range is shown. One point in the first region RGA corresponds to one point in the second region RGB corresponding to each point in the region (Z> ZB) farther from the surface of the touch panel 161 than the boundary surface BND.

この対応関係を利用して判別部23は、検出部21の検出した電界EFLの歪みが指示体HNDと導電部材803とのいずれであるかを判別する。具体的には、まず検出部21が受信電極4N、…で検出した受信電圧信号RVSの波形の歪みから、計測部22が接地導体の重心の3次元座標を計測する。この3次元座標が境界面BNDに位置し、またはそれよりもタッチパネル161の表面に近ければ、判別部23はこの3次元座標に位置する接地導体を、第1領域RGAに位置する指示体HNDと判別する。第1領域RGAは第2領域RGBよりも受信電極4N、…に近いので、第1領域RGAに位置する指示体HNDに起因する電界EFLの歪みに比べれば、第2領域RGBに位置する導電部材803に起因するものは無視してよい。一方、計測部22の計測した3次元座標が境界面BNDよりもタッチパネル161の表面から遠ければ、判別部23は判別方法(A)または(B)に従ってこの3次元座標を、第2領域RGBに存在する導電部材803の位置と判別する。   Using this correspondence, the determination unit 23 determines whether the distortion of the electric field EFL detected by the detection unit 21 is the indicator HND or the conductive member 803. Specifically, first, the measurement unit 22 measures the three-dimensional coordinates of the center of gravity of the ground conductor from the waveform distortion of the reception voltage signal RVS detected by the detection unit 21 with the reception electrodes 4N,. If the three-dimensional coordinates are located on the boundary surface BND or closer to the surface of the touch panel 161 than the three-dimensional coordinates, the determination unit 23 connects the ground conductor located at the three-dimensional coordinates to the indicator HND located in the first region RGA. Determine. Since the first region RGA is closer to the receiving electrodes 4N,... Than the second region RGB, the conductive member located in the second region RGB compared to the distortion of the electric field EFL caused by the indicator HND located in the first region RGA. What is caused by 803 may be ignored. On the other hand, if the three-dimensional coordinates measured by the measurement unit 22 are farther from the surface of the touch panel 161 than the boundary surface BND, the determination unit 23 converts the three-dimensional coordinates into the second region RGB according to the determination method (A) or (B). The position of the existing conductive member 803 is determined.

図15の(c)は、前扉151が開いたときにおける監視対象の空間RGA、RGBを示す模式図である。図15の(c)を参照するに、前扉151の開きに伴って導電部材803が第2領域RGBから離脱する。
図15の(d)は、(c)の示す監視対象の空間RGA、RGBと3Dジェスチャーセンサー410による検出で識別可能な接地導体の3次元座標の仮想的な範囲との対応関係を示す模式図である。図15の(d)を参照するに、前扉151が開くのにつれて導電部材803は第2領域RGBの中で一定の軌跡TRCを描きながらこの仮想的な範囲から離脱する。したがって、第1領域RGAに指示体HNDが存在していない場合、第2領域RGBに位置する接地導体の3次元座標が計測されれば、前扉151が閉じた状態であると判別部23は判別し、その3次元座標が計測されなければ、前扉151が開いた状態であると判別部23は判別することができる。このように前扉151が開くのはたとえば、画像形成部10にトナーを補充し、または紙詰まりの際に画像形成部10からシートを引き出す場合である。したがって、前扉151が開いた状態であると判別部23が判別したときに制御部24はたとえば、MFP100による処理の中断を主制御部30に要求する。
FIG. 15C is a schematic diagram illustrating the monitoring target spaces RGA and RGB when the front door 151 is opened. Referring to FIG. 15C, the conductive member 803 is detached from the second region RGB as the front door 151 is opened.
FIG. 15D is a schematic diagram showing a correspondence relationship between the space RGA, RGB of the monitoring target shown in FIG. 15C and the virtual range of the three-dimensional coordinates of the ground conductor that can be identified by detection by the 3D gesture sensor 410. It is. Referring to FIG. 15D, as the front door 151 opens, the conductive member 803 departs from this virtual range while drawing a constant trajectory TRC in the second region RGB. Therefore, when the indicator HND is not present in the first region RGA, the determination unit 23 determines that the front door 151 is in a closed state if the three-dimensional coordinates of the ground conductors located in the second region RGB are measured. If it is determined and the three-dimensional coordinates are not measured, the determination unit 23 can determine that the front door 151 is in an open state. The front door 151 is thus opened, for example, when the image forming unit 10 is replenished with toner or when a sheet is pulled out from the image forming unit 10 when a paper jam occurs. Therefore, when the determination unit 23 determines that the front door 151 is in the open state, the control unit 24 requests the main control unit 30 to suspend processing by the MFP 100, for example.

このように、このMFP100は、ユーザーの3次元的なジェスチャーと前扉151の開閉とを同じ3Dジェスチャーセンサー410で検出することもできる。これにより、前扉151の開閉を検出するための既存のセンサーを削減可能であるので、このMFP100は操作性の向上と製造コストの低減とを両立させることができる。
−補足−
操作パネル160の揺動、およびADF110と前扉151との開閉はいずれも手動である。その他に、自動的に移動する可動部材の位置を3Dジェスチャーセンサー410で検出することも可能である。たとえば、スキャナー120とプリンター130との隙間GAPの中で排紙トレイ150の載置面が、その上に積載されるシート数の増加に合わせて自動的に降下する場合、その載置面に装着された導電部材の位置を3Dジェスチャーセンサー410で検出してもよい。
As described above, the MFP 100 can also detect the user's three-dimensional gesture and the opening / closing of the front door 151 with the same 3D gesture sensor 410. As a result, it is possible to reduce the number of existing sensors for detecting the opening / closing of the front door 151. Thus, the MFP 100 can achieve both improvement in operability and reduction in manufacturing cost.
-Supplement-
The swinging of the operation panel 160 and the opening / closing of the ADF 110 and the front door 151 are both manual. In addition, the position of the movable member that moves automatically can be detected by the 3D gesture sensor 410. For example, if the placement surface of the paper discharge tray 150 automatically falls in the gap GAP between the scanner 120 and the printer 130 as the number of sheets stacked thereon increases, it is mounted on the placement surface. The 3D gesture sensor 410 may detect the position of the conductive member.

(E)上記の実施形態は、第1領域RGAよりも受信電極4N、…から遠い第2領域RGBに導電部材801を配置することにより、受信電圧信号RVSの波形の歪みへの寄与について、導電部材801に起因する電界EFLの歪みを第1領域RGAに位置する指示体HNDに起因するものに対して無視する。この場合、導電部材801の3次元座標は、監視対象の空間に指示体HNDが存在しないときに計測される。   (E) In the above embodiment, the conductive member 801 is disposed in the second region RGB farther from the receiving electrode 4N than the first region RGA, so that the contribution to the distortion of the waveform of the received voltage signal RVS is conducted. The distortion of the electric field EFL caused by the member 801 is ignored with respect to the distortion caused by the indicator HND located in the first region RGA. In this case, the three-dimensional coordinates of the conductive member 801 are measured when the indicator HND does not exist in the space to be monitored.

その他に、第1領域RGAに指示体HNDが存在する場合であっても、受信電極4N、…と導電部材801との相対的な変位に伴う受信電圧信号RVSの波形の歪みの変化が検出可能であるとき、その変化から指示体HNDの3次元座標(以下、「ジェスチャー座標」という。)と共に、少なくとも操作パネル160の傾斜角θを特定することは以下のようにすれば可能である。   In addition, even when the indicator HND is present in the first region RGA, it is possible to detect a change in the distortion of the waveform of the reception voltage signal RVS due to the relative displacement between the reception electrodes 4N,. In this case, it is possible to specify at least the inclination angle θ of the operation panel 160 together with the three-dimensional coordinates (hereinafter referred to as “gesture coordinates”) of the indicator HND from the change as follows.

図16の(a)、(b)はそれぞれ、操作パネル160の傾斜角θが0°、正の値であり、かつ第1領域RGAの定点(Xj,Yj,Zj)に指示体HNDが位置する場合に計測部22が計測する3次元座標(X, Y, Z)、(X, Y, Z)を示す模式図である。図16の(a)、(b)を参照するに、導電部材801が3次元座標(Xc, Yc, Zc)、(Xc, Yc, Zc)に位置することにより、計測部22が計測する3次元座標(X, Y, Z)、(X, Y, Z)はいずれも厳密には定点(Xj,Yj,Zj)とは異なる。さらに、導電部材801の3次元座標(Xc, Yc, Zc)と(Xc, Yc, Zc)との違いによって厳密には、計測部22が計測する3次元座標(X, Y, Z)と(X, Y, Z)とにも違いが生じる。ここで、導電部材801が描く軌跡TRCは一定である。したがって、第1領域RGAの各点(Xj,Yj,Zj)に指示体HNDを固定した状態で、導電部材801の位置(Xc, Yc, Zc)と計測部22の計測する3次元座標(X, Y, Z)との間の対応関係を予め求めておく。この対応関係と照合すれば、計測部22が計測した3次元座標(X, Y, Z)から、導電部材801の3次元座標(Xc, Yc, Zc)と第1領域RGAの1点(Xj,Yj,Zj)、すなわちジェスチャー座標との組み合わせを推定することができる。特に導電部材801の3次元座標(Xc, Yc, Zc)からは操作パネル160の傾斜角θを特定することができる。   16A and 16B, the inclination angle θ of the operation panel 160 is 0 ° and a positive value, respectively, and the indicator HND is positioned at the fixed point (Xj, Yj, Zj) of the first region RGA. It is a schematic diagram which shows the three-dimensional coordinate (X, Y, Z) and (X, Y, Z) which the measurement part 22 measures when doing. Referring to FIGS. 16A and 16B, when the conductive member 801 is positioned at the three-dimensional coordinates (Xc, Yc, Zc), (Xc, Yc, Zc), the measurement unit 22 measures 3 Strictly speaking, the dimensional coordinates (X, Y, Z) and (X, Y, Z) are different from the fixed point (Xj, Yj, Zj). Furthermore, strictly speaking, due to the difference between the three-dimensional coordinates (Xc, Yc, Zc) and (Xc, Yc, Zc) of the conductive member 801, the three-dimensional coordinates (X, Y, Z) measured by the measuring unit 22 ( Differences also arise from X, Y, Z). Here, the trajectory TRC drawn by the conductive member 801 is constant. Therefore, in a state where the indicator HND is fixed to each point (Xj, Yj, Zj) of the first region RGA, the position (Xc, Yc, Zc) of the conductive member 801 and the three-dimensional coordinates (X , Y, Z) is obtained in advance. If collated with this correspondence, the three-dimensional coordinates (Xc, Yc, Zc) of the conductive member 801 and one point (Xj) of the first region RGA are calculated from the three-dimensional coordinates (X, Y, Z) measured by the measuring unit 22. , Yj, Zj), that is, a combination with gesture coordinates can be estimated. In particular, the inclination angle θ of the operation panel 160 can be specified from the three-dimensional coordinates (Xc, Yc, Zc) of the conductive member 801.

図16の(c)は、計測部22が計測する3次元座標(X, Y, Z)、操作パネル160の傾斜角θ、およびジェスチャー座標(Xj,Yj,Zj)の対応表である。この表は上記の対応関係の一例を示す。図16の(c)を参照するに、計測部22の計測する3次元座標(X, Y, Z)が属する直方体状の小空間ごとに、操作パネル160の傾斜角θが閾値θB未満であるか否かと、対応するジェスチャー座標とが規定されている。特に、対応するジェスチャー座標が同一であっても、操作パネル160の傾斜角θが閾値θB未満であるか否かに応じて計測部22の計測する3次元座標は異なる。   FIG. 16C is a correspondence table of the three-dimensional coordinates (X, Y, Z) measured by the measurement unit 22, the tilt angle θ of the operation panel 160, and the gesture coordinates (Xj, Yj, Zj). This table shows an example of the above correspondence. Referring to (c) of FIG. 16, the inclination angle θ of the operation panel 160 is less than the threshold θB for each small rectangular parallelepiped space to which the three-dimensional coordinates (X, Y, Z) measured by the measurement unit 22 belong. Whether or not and corresponding gesture coordinates are defined. In particular, even if the corresponding gesture coordinates are the same, the three-dimensional coordinates measured by the measurement unit 22 differ depending on whether the inclination angle θ of the operation panel 160 is less than the threshold θB.

たとえば、第1領域RGAに指示体HNDが存在しない場合、操作パネル160の傾斜角θが閾値θB未満であれば、計測部22の計測する3次元座標は小空間{(X, Y, Z)|X0<X≦X1、Y0<Y≦Y1、Z0<Z≦Z1}に位置し、傾斜角θが閾値θB以上であればこの3次元座標は小空間{(X, Y, Z)|X0<X≦X1、Y0<Y≦Y1、Z0<Z≦Z1}に位置する。ジェスチャー座標(Xj0, Yj0, Zj0)に指示体HNDが位置する場合、操作パネル160の傾斜角θが閾値θB未満であれば、計測部22の計測する3次元座標は小空間{(X, Y, Z)|X2<X≦X3、Y2<Y≦Y3、Z2<Z≦Z3}に位置し、傾斜角θが閾値θB以上であればこの3次元座標は小空間{(X, Y, Z)|X2<X≦X3、Y2<Y≦Y3、Z2<Z≦Z3}に位置する。   For example, when the indicator HND is not present in the first region RGA, if the inclination angle θ of the operation panel 160 is less than the threshold θB, the three-dimensional coordinates measured by the measurement unit 22 are small spaces {(X, Y, Z) If | X0 <X ≦ X1, Y0 <Y ≦ Y1, Z0 <Z ≦ Z1} and the inclination angle θ is greater than or equal to the threshold θB, this three-dimensional coordinate is a small space {(X, Y, Z) | X0 <X ≦ X1, Y0 <Y ≦ Y1, Z0 <Z ≦ Z1}. When the indicator HND is located at the gesture coordinates (Xj0, Yj0, Zj0), if the inclination angle θ of the operation panel 160 is less than the threshold θB, the three-dimensional coordinates measured by the measurement unit 22 are small spaces {(X, Y , Z) | X2 <X ≦ X3, Y2 <Y ≦ Y3, Z2 <Z ≦ Z3}, and if the inclination angle θ is equal to or greater than the threshold θB, the three-dimensional coordinate is represented by a small space {(X, Y, Z ) | X2 <X ≦ X3, Y2 <Y ≦ Y3, Z2 <Z ≦ Z3}.

この対応関係を利用すれば、計測部22が計測した3次元座標(X, Y, Z)から、操作パネル160の傾斜角θが閾値θB未満か否かを、対応するジェスチャー座標と共に推定することが可能である。たとえば、その3次元座標が小空間{(X, Y, Z)|X0<X≦X1、Y0<Y≦Y1、Z0<Z≦Z1}に位置すれば、操作パネル160の傾斜角θが閾値θB未満であり、かつ第1領域RGAに指示体HNDが存在しないことが推定される。また、その3次元座標が小空間{(X, Y, Z)|X2<X≦X3、Y2<Y≦Y3、Z2<Z≦Z3}に位置すれば、傾斜角θが閾値θB以上であり、かつジェスチャー座標(Xj0, Yj0, Zj0)に指示体HNDが位置することが推定される。   If this correspondence is used, it is estimated from the three-dimensional coordinates (X, Y, Z) measured by the measurement unit 22 whether or not the inclination angle θ of the operation panel 160 is less than the threshold θB together with the corresponding gesture coordinates. Is possible. For example, if the three-dimensional coordinates are located in the small space {(X, Y, Z) | X0 <X ≦ X1, Y0 <Y ≦ Y1, Z0 <Z ≦ Z1}, the inclination angle θ of the operation panel 160 is the threshold value. It is estimated that it is less than θB and the indicator HND is not present in the first region RGA. If the three-dimensional coordinates are located in the small space {(X, Y, Z) | X2 <X ≦ X3, Y2 <Y ≦ Y3, Z2 <Z ≦ Z3}, the inclination angle θ is equal to or greater than the threshold θB. In addition, it is estimated that the indicator HND is located at the gesture coordinates (Xj0, Yj0, Zj0).

図16の(c)の規定する小空間の大きさは主に3Dジェスチャーセンサー410の検出精度で決まる。この精度を更に高くすれば、各小空間に対応する操作パネル160の傾斜角θの範囲を、閾値θB未満か否かの2種類よりも細かく分けることは可能である。
図16の(c)の示す対応表と同様な対応表を、導電部材801に代えて、図1の(b)の示すヒンジ部102等、MFP100の筐体に固定された既存の導電部材について設定してもよい。この対応表を利用しても、計測部22が計測した3次元座標から操作パネル160の傾斜角θとジェスチャー座標とを推定することは可能である。
The size of the small space defined by (c) in FIG. 16 is mainly determined by the detection accuracy of the 3D gesture sensor 410. If this accuracy is further increased, it is possible to divide the range of the inclination angle θ of the operation panel 160 corresponding to each small space more finely than two types of whether or not it is less than the threshold value θB.
A correspondence table similar to the correspondence table shown in (c) of FIG. 16 is replaced with the conductive member 801 with respect to the existing conductive members fixed to the casing of the MFP 100, such as the hinge portion 102 shown in (b) of FIG. It may be set. Even using this correspondence table, it is possible to estimate the inclination angle θ and the gesture coordinates of the operation panel 160 from the three-dimensional coordinates measured by the measurement unit 22.

(F)上記の実施形態は、MFP100の操作パネル160に搭載された3Dジェスチャーセンサー410を利用して、操作パネル160の傾斜角θと、ADF110、筐体101の前扉151等、操作パネル160の周囲で移動する可動部材の位置とを検出する。その他にも、3Dジェスチャーセンサー搭載の操作パネルを入力装置として利用する電子機器であれば同様に、その操作パネルの周囲で移動する可動部材の位置の検出に3Dジェスチャーセンサーを利用することが可能である。   (F) In the embodiment described above, the 3D gesture sensor 410 mounted on the operation panel 160 of the MFP 100 is used, the inclination angle θ of the operation panel 160, the ADF 110, the front door 151 of the housing 101, and the like. And the position of the movable member that moves around. In addition, if the electronic device uses an operation panel equipped with a 3D gesture sensor as an input device, the 3D gesture sensor can be used to detect the position of a movable member that moves around the operation panel. is there.

本発明は画像処理装置に関し、上記のとおり、3Dジェスチャーセンサーをユーザーのジェスチャーの検出だけでなく、操作パネルと相対的に変位可能な部位の位置の推測にも利用する。このように、本発明は明らかに産業上利用可能である。   The present invention relates to an image processing apparatus, and as described above, uses a 3D gesture sensor not only for detecting a user's gesture but also for estimating a position of a part that can be displaced relative to an operation panel. Thus, the present invention is clearly industrially applicable.

100 MFP
101 MFPの筐体
160 操作パネル
161 タッチパネル
801 導電部材
URG 表側空間
LRG 裏側空間
RGA 監視対象の空間の第1領域
RGB 監視対象の空間の第2領域
RGC 監視対象の空間の第3領域
BNA 第1領域と第3領域とを分ける仮想的平面
BNB 第2領域を裏側空間の他の領域から分ける仮想的平面
BND 境界面
θ 操作パネルの傾斜角
100 MFP
101 MFP housing 160 Operation panel 161 Touch panel 801 Conductive member URG Front side space LRG Back side space RGA First area of the monitoring target space RGB Second area of the monitoring target space RGC Third area of the monitoring target space BNA First area A virtual plane that separates the third area from the third area BNB A virtual plane that separates the second area from other areas in the back space BND boundary surface θ Inclination angle of the operation panel

Claims (10)

操作パネルを備えた画像処理装置であり、
前記操作パネルの表面から所定の範囲に広がる空間に電界を発生させて監視対象の空間として設定すると共に、当該空間における物体の存在に起因する前記電界の歪みを検出する検出部と、
前記検出部の検出した電界の歪みから、前記監視対象の空間における前記物体の3次元座標を計測する計測部と、
前記画像処理装置のうち前記操作パネルと相対的に変位可能な部位に設けられ、前記操作パネルとの相対的な位置に応じて前記電界の歪みを変化させる導電部材と、
前記計測部が計測した3次元座標に基づいて前記物体が、前記画像処理装置に対するユーザーの入力操作に利用される指示体と前記導電部材とのいずれであるかを判別する判別部と、
前記判別部による判別結果が前記指示体である場合、前記計測部が計測した3次元座標の動きをユーザーのジェスチャーとみなして、当該ジェスチャーの指標する入力操作を解釈する解釈部と、
前記判別結果が前記導電部材である場合、前記計測部が計測した3次元座標から前記操作パネルと前記画像処理装置の部位との相対的な位置を推測する推測部と、
前記推測部が推測した位置に基づいて前記画像処理装置の動作状態を判断し、当該動作状態に応じた処理を制御する制御部と、
を備えた画像処理装置。
An image processing apparatus having an operation panel;
A detection unit configured to generate an electric field in a space extending from the surface of the operation panel to a predetermined range and set as a monitoring target space, and detect distortion of the electric field due to the presence of an object in the space;
A measurement unit that measures the three-dimensional coordinates of the object in the space to be monitored from the distortion of the electric field detected by the detection unit;
A conductive member provided in a portion of the image processing apparatus that is displaceable relative to the operation panel, and changing a distortion of the electric field according to a relative position with the operation panel;
A determination unit for determining whether the object is an indicator used for a user input operation on the image processing apparatus or the conductive member based on the three-dimensional coordinates measured by the measurement unit;
When the determination result by the determination unit is the indicator, the interpretation unit interprets the input operation indicated by the gesture by regarding the movement of the three-dimensional coordinates measured by the measurement unit as a user's gesture;
When the determination result is the conductive member, an estimation unit that estimates a relative position between the operation panel and the part of the image processing device from the three-dimensional coordinates measured by the measurement unit;
A control unit that determines an operation state of the image processing device based on the position estimated by the estimation unit, and controls processing according to the operation state;
An image processing apparatus.
前記検出部は、
平面形状に配置された送信電極と、
前記送信電極を含む平面から所定の距離を隔てて平行に広がる矩形面の各辺に1つずつ分離して配置された4つの受信電極と、
前記送信電極に送信電圧信号を送出する送信部と、
前記送信電圧信号に応じて前記4つの受信電極のそれぞれが受ける受信電圧信号を検出する受信部と、
を含み、
前記電界の歪みを前記送信電圧信号に対する前記受信電圧信号の波形の歪みとして検出する
ことを特徴とする請求項1に記載の画像処理装置。
The detector is
Transmitting electrodes arranged in a planar shape;
Four receiving electrodes arranged separately on each side of a rectangular surface extending in parallel with a predetermined distance from a plane including the transmitting electrodes;
A transmitter for transmitting a transmission voltage signal to the transmission electrode;
A receiving unit for detecting a reception voltage signal received by each of the four reception electrodes according to the transmission voltage signal;
Including
The image processing apparatus according to claim 1, wherein the distortion of the electric field is detected as a distortion of a waveform of the reception voltage signal with respect to the transmission voltage signal.
前記送信電圧信号のレベルと比べれば全体の電位が実質的に一様とみなせる程度の電気伝導性を持ち、かつ前記送信電圧信号のレベルと比べれば実質的に接地電位に等しいとみなせる電位に維持された物体が前記監視対象の空間に存在するか否かに応じて前記送信電圧信号に対する前記受信電圧信号のレベルの落差に現れる変化を、前記検出部は検出し、
前記導電部材は実質的に接地電位に等しい電位に維持され、
前記計測部は前記レベルの落差に現れる変化から物体の3次元座標を計測する
ことを特徴とする請求項2に記載の画像処理装置。
Compared to the level of the transmission voltage signal, the electric potential is such that the overall potential can be regarded as substantially uniform, and the potential is considered to be substantially equal to the ground potential when compared with the level of the transmission voltage signal. The detection unit detects a change that appears in a drop in the level of the reception voltage signal with respect to the transmission voltage signal, depending on whether or not the detected object exists in the space to be monitored;
The conductive member is maintained at a potential substantially equal to a ground potential;
The image processing apparatus according to claim 2, wherein the measurement unit measures a three-dimensional coordinate of the object from a change that appears in the drop of the level.
前記判別部は、
前記計測部の計測した3次元座標が前記検出部から閾値以下の距離に位置する場合には、当該3次元座標に位置する物体が前記指示体であると判別し、
当該3次元座標が前記検出部から前記閾値を超えた距離に位置する場合には、当該3次元座標に位置する物体が前記導電部材であると判別する
ことを特徴とする請求項1から請求項3までのいずれかに記載の画像処理装置。
The discrimination unit
When the three-dimensional coordinate measured by the measurement unit is located at a distance below the threshold from the detection unit, it is determined that the object located at the three-dimensional coordinate is the indicator,
2. The apparatus according to claim 1, wherein when the three-dimensional coordinate is located at a distance exceeding the threshold from the detection unit, it is determined that an object located at the three-dimensional coordinate is the conductive member. 4. The image processing device according to any one of 3 to 3.
前記判別部は、
前記計測部の計測した3次元座標が前記検出部から閾値以下の距離に位置する場合には、当該3次元座標に位置する物体が前記指示体であると判別し、
当該3次元座標が前記検出部から前記閾値を超えた距離に位置する場合には更に当該3次元座標の時間的変化を観察し、当該時間的変化の幅が所定値以下であれば当該3次元座標に位置する物体が前記導電部材であると判別する
ことを特徴とする請求項1から請求項3までのいずれかに記載の画像処理装置。
The discrimination unit
When the three-dimensional coordinate measured by the measurement unit is located at a distance below the threshold from the detection unit, it is determined that the object located at the three-dimensional coordinate is the indicator,
When the three-dimensional coordinate is located at a distance exceeding the threshold value from the detection unit, further observe the temporal change of the three-dimensional coordinate, and if the width of the temporal change is equal to or less than a predetermined value, the three-dimensional The image processing apparatus according to claim 1, wherein an object located at coordinates is determined as the conductive member.
前記操作パネルは水平面に対する表面の傾きが可変であり、
前記操作パネルの表面が水平面から傾斜する際に当該表面に対する軌跡が前記監視対象の空間を通過するように、前記導電部材が配置されている
ことを特徴とする請求項1から請求項5までのいずれかに記載の画像処理装置。
The operation panel has a variable surface inclination with respect to a horizontal plane,
The conductive member is arranged such that when the surface of the operation panel is inclined from a horizontal plane, a trajectory with respect to the surface passes through the space to be monitored. The image processing apparatus according to any one of the above.
前記操作パネルは、操作画面を表示するための表示部を含み、
前記推測部は、前記計測部が計測した3次元座標から前記操作パネルの傾きを推測し、
前記制御部は、当該傾きに応じて前記表示部に表示の属性を変更させる
ことを特徴とする請求項6に記載の画像処理装置。
The operation panel includes a display unit for displaying an operation screen,
The estimation unit estimates the inclination of the operation panel from the three-dimensional coordinates measured by the measurement unit,
The image processing apparatus according to claim 6, wherein the control unit causes the display unit to change a display attribute according to the tilt.
前記操作パネルは、操作画面を表示するための表示部を含み、
前記推測部は、前記計測部が計測した3次元座標から前記操作パネルの傾きを推測し、
前記解釈部は、ユーザーのジェスチャーが対象とする前記操作画面上の座標を前記操作パネルの傾きに基づいて推定する
ことを特徴とする請求項6に記載の画像処理装置。
The operation panel includes a display unit for displaying an operation screen,
The estimation unit estimates the inclination of the operation panel from the three-dimensional coordinates measured by the measurement unit,
The image processing apparatus according to claim 6, wherein the interpretation unit estimates coordinates on the operation screen targeted by a user's gesture based on an inclination of the operation panel.
原稿台に載せられたシートから画像を読み取るスキャナーと、
前記原稿台を覆い隠すように前記スキャナーに開閉可能に取り付けられた上蓋と、
を更に備え、
前記操作パネルは前記原稿台の縁に設置され、
前記導電部材は、前記上蓋の開閉に伴って前記操作パネルの表面に対して描く軌跡が前記監視対象の空間を通過するように配置され、
前記制御部は、前記推測部が推測した前記上蓋の位置に基づいて前記画像処理装置の動作状態を判断する
ことを特徴とする請求項1から請求項5までのいずれかに記載の画像処理装置。
A scanner that reads an image from a sheet placed on the platen;
An upper lid attached to the scanner so as to be openable and closable so as to cover the platen;
Further comprising
The operation panel is installed on an edge of the document table,
The conductive member is arranged such that a locus drawn on the surface of the operation panel as the upper lid is opened and closed passes through the space to be monitored.
The image processing apparatus according to claim 1, wherein the control unit determines an operation state of the image processing apparatus based on the position of the upper lid estimated by the estimation unit. .
トナーまたはインクでシートに画像を形成する画像形成部と、
前記画像処理装置の前面のうち、前記操作パネルの下方に位置する部位に開閉可能に取り付けられ、前記画像形成部に対するトナーもしくはインクの補充、またはシートの出し入れを可能にする前扉と、
を更に備え、
前記導電部材は、前記前扉の開閉に伴って前記操作パネルの表面に対して描く軌跡が前記監視対象の空間を通過するように配置され、
前記制御部は、前記推測部が推測した前記前扉の位置に基づいて前記画像処理装置の動作状態を判断する
ことを特徴とする請求項1から請求項5までのいずれかに記載の画像処理装置。
An image forming unit that forms an image on a sheet with toner or ink;
A front door that is detachably attached to a portion of the front surface of the image processing apparatus located below the operation panel, and that allows toner or ink to be replenished to the image forming unit, or a sheet to be taken in and out,
Further comprising
The conductive member is arranged such that a locus drawn on the surface of the operation panel as the front door opens and closes passes through the space to be monitored.
The image processing according to claim 1, wherein the control unit determines an operation state of the image processing device based on the position of the front door estimated by the estimation unit. apparatus.
JP2015051945A 2015-03-16 2015-03-16 Image processing device Active JP6443149B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015051945A JP6443149B2 (en) 2015-03-16 2015-03-16 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015051945A JP6443149B2 (en) 2015-03-16 2015-03-16 Image processing device

Publications (2)

Publication Number Publication Date
JP2016173616A true JP2016173616A (en) 2016-09-29
JP6443149B2 JP6443149B2 (en) 2018-12-26

Family

ID=57009055

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015051945A Active JP6443149B2 (en) 2015-03-16 2015-03-16 Image processing device

Country Status (1)

Country Link
JP (1) JP6443149B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009021734A (en) * 2007-07-11 2009-01-29 Kyocera Mita Corp Image forming apparatus
JP2010522492A (en) * 2007-03-26 2010-07-01 イデント テクノロジー アーゲー Mobile communication device and input device for the mobile communication device
JP2011146915A (en) * 2010-01-14 2011-07-28 Sony Corp Information processing device, opening/closing angle detecting method, and opening/closing angle detecting program
JP2014052988A (en) * 2012-09-10 2014-03-20 Konica Minolta Inc Touch panel input device, touch input method, and touch input control program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010522492A (en) * 2007-03-26 2010-07-01 イデント テクノロジー アーゲー Mobile communication device and input device for the mobile communication device
JP2009021734A (en) * 2007-07-11 2009-01-29 Kyocera Mita Corp Image forming apparatus
JP2011146915A (en) * 2010-01-14 2011-07-28 Sony Corp Information processing device, opening/closing angle detecting method, and opening/closing angle detecting program
JP2014052988A (en) * 2012-09-10 2014-03-20 Konica Minolta Inc Touch panel input device, touch input method, and touch input control program

Also Published As

Publication number Publication date
JP6443149B2 (en) 2018-12-26

Similar Documents

Publication Publication Date Title
US10033889B2 (en) Operation unit and image forming apparatus
EP3264815B1 (en) Mobile terminal with adaptive finger scan unit based on force pressure
US9952670B2 (en) Operation panel and image forming apparatus including the same
EP3179292B1 (en) Head-mounted display device and control method therefor
US10602006B2 (en) Operation terminal and image processing device detachably holding the same
CN103080887B (en) Apparatus and method for proximity based input
EP2816545A2 (en) Method and apparatus for protecting eyesight
US20120262448A1 (en) Mobile terminal and control method thereof
US10560568B2 (en) Control method, control device and electronic device
CN108521480B (en) Control method, control device, electronic device, computer storage medium, and apparatus
KR20190091126A (en) Mobile terminal and method for controlling the same
CN108881657A (en) Image forming apparatus, the control method of image forming apparatus and storage medium
EP3128360A1 (en) Electronic device
KR102268755B1 (en) Display Device
JP6443149B2 (en) Image processing device
CN108600420A (en) Electronic device and manufacturing method
US10419631B2 (en) Image display apparatus, image forming apparatus, and non-transitory computer readable medium with distance-based return process
JP2012103980A5 (en)
JP6950017B2 (en) Image forming device
US10069987B2 (en) Image processing device with operation panel responding by vibration
CN108696630B (en) Control method, control device, electronic device, computer storage medium, and apparatus
US20230185491A1 (en) Image forming apparatus
US20240134457A1 (en) Terminal apparatus, communication system
KR20170047060A (en) Mobile terminal for performing a power cutoff and controlling method thereof
KR20220025610A (en) Personal Mobility Automatic Driving Device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180219

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181024

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181112

R150 Certificate of patent or registration of utility model

Ref document number: 6443149

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150