JP2006010489A - Information device, information input method, and program - Google Patents

Information device, information input method, and program Download PDF

Info

Publication number
JP2006010489A
JP2006010489A JP2004187735A JP2004187735A JP2006010489A JP 2006010489 A JP2006010489 A JP 2006010489A JP 2004187735 A JP2004187735 A JP 2004187735A JP 2004187735 A JP2004187735 A JP 2004187735A JP 2006010489 A JP2006010489 A JP 2006010489A
Authority
JP
Japan
Prior art keywords
information
image
aperture
unit
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004187735A
Other languages
Japanese (ja)
Inventor
Michio Miwa
道雄 三輪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004187735A priority Critical patent/JP2006010489A/en
Publication of JP2006010489A publication Critical patent/JP2006010489A/en
Pending legal-status Critical Current

Links

Landscapes

  • Diaphragms For Cameras (AREA)
  • Automatic Focus Adjustment (AREA)
  • Position Input By Displaying (AREA)
  • Telephone Function (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an information system, an information input method, and a program allowing to input information by quickly detecting movements of an indicating object such as a finger of a user. <P>SOLUTION: A cellular phone device 50 to which information is inputted in a noncontact manner by movements of a finger comprises a diaphragm 1, a stop control section 4 which controls the aperture of the diaphragm 1, a photographing section 3 which photographs a finger, a key contact detection section 11 which decides whether the finger is within a predetermined distance range or not by changing the aperture with the stop control section 4 and comparing a plurality of finger images photographed by the photographing section 3 for each aperture, and a key operation decision section 13 which decides what key has been operated when the finger has been decided to be within the predetermined distance range. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、携帯電話装置等の情報装置に関し、特に非接触に情報入力することのできる情報装置に関する。   The present invention relates to an information device such as a mobile phone device, and more particularly to an information device that can input information without contact.

近年、携帯電話装置、PDA(Personal Digital Assistant)装置およびパソコン装置等の情報装置の小型化が進んでいる。情報装置のさらなる小型化を実現するためには、その装置構成から文字や数字等の情報を入力するためのテンキーやキーボード等の入力部を除去することが必要となってきている。   In recent years, downsizing of information devices such as mobile phone devices, PDA (Personal Digital Assistant) devices, and personal computer devices is progressing. In order to realize further downsizing of an information device, it is necessary to remove an input unit such as a numeric keypad and a keyboard for inputting information such as characters and numbers from the device configuration.

情報装置に対してこのような入力部を用いることなく情報を入力することのできる装置としては、例えば、LCD(Liquid Crystal Display)装置等の表示部の上に透明なタッチパネルを重ねて配置して、表示部の画面上にキーボード等の入力を誘導する画像を表示し、ユーザはあたかも画像上の所望のキーに触れるようにして実際にはタッチパネルに触れることによって所望の情報が入力できる情報装置が実用化されている。   As a device that can input information to an information device without using such an input unit, for example, a transparent touch panel is placed on a display unit such as an LCD (Liquid Crystal Display) device. An information device that displays an image for guiding input such as a keyboard on the screen of the display unit, and the user can input desired information by actually touching the touch panel as if touching a desired key on the image. It has been put into practical use.

しかしながら、一般に透明タッチパネルはその反射率が高いので、屋外等の外光のもとでは下側に配置された表示部の表示が見えにくい上に、タッチパネルに指を接触させて入力を行う場合には、タッチパネル上に皮脂等による汚れが付着したり、さらには、指によって操作可能な範囲が表示部の大きさに制限されるので、情報装置の小型化にともなって表示部が小型化すると操作可能な範囲も小さくなり、それによって操作性が悪化したりするという課題があり、このような構成の情報装置は必ずしもユーザに広く受け入れられているとはいえなかった。   However, generally, a transparent touch panel has a high reflectance, so that it is difficult to see the display on the display unit arranged below under external light such as outdoors, and when a finger touches the touch panel for input. In the touch panel, dirt due to sebum adheres to the touch panel, and furthermore, the range that can be operated with a finger is limited to the size of the display unit. There is a problem that the possible range is also reduced, and the operability is thereby deteriorated, and the information device having such a configuration is not necessarily widely accepted by users.

このような課題に鑑みて、ユーザはタッチパネル等のデバイスに触れることなく空間で指、ペンまたは指示棒等の物体を動かし、情報装置はその物体の動きを検出することによって、その物体の動き方の違いによって様々な情報を非接触に入力することのできる情報装置が提案されてきている。   In view of such problems, the user moves an object such as a finger, pen, or pointing stick in a space without touching a device such as a touch panel, and the information device detects the movement of the object, thereby detecting how the object moves. There have been proposed information devices capable of inputting various information in a non-contact manner due to the difference.

このような情報装置の一例として、二次元に複数の発光ダイオード(以下、LEDと記す)を配置して順番に点灯させ、それぞれのLEDから発した光線の指における反射光の位置を位置検出素子によって検出する入力装置を備えた構成により、指の座標を三次元的に検出し、検出した指の動きにもとづいて様々な情報を入力することのできる情報装置が提案されている(例えば、特許文献1を参照。)。
特開平7−334299号公報
As an example of such an information device, a plurality of light emitting diodes (hereinafter referred to as LEDs) are two-dimensionally lit in order, and the position of the reflected light on the finger of the light beam emitted from each LED is a position detection element. An information device that can detect the coordinates of a finger three-dimensionally and input various information based on the detected movement of the finger has been proposed (for example, a patent) See reference 1.)
JP 7-334299 A

しかしながら、前述したような従来の情報装置においては、二次元に複数配置されたLEDを一つずつ順番に点灯させて、それぞれのLEDに対応する指からの反射光の位置を検知した後に指の三次元座標を計算するので、指の位置を検知するのに時間がかかり、指を迅速に移動させたときにはその動きに追随することが難しく、その位置を的確に検出できないという課題があった。   However, in the conventional information device as described above, the LEDs arranged two-dimensionally are turned on one by one in order, and the position of the reflected light from the finger corresponding to each LED is detected, and then the finger Since the three-dimensional coordinates are calculated, it takes time to detect the position of the finger. When the finger is moved quickly, it is difficult to follow the movement, and there is a problem that the position cannot be accurately detected.

本発明はこのような課題に鑑みてなされたものであり、ユーザの指等の指示物体を迅速に移動させてもその位置を的確に検出して情報を入力することのできる情報装置、情報入力方法およびプログラムを提供することを目的とする。   The present invention has been made in view of such a problem, and an information apparatus and an information input capable of accurately detecting the position and inputting information even when a pointing object such as a user's finger is quickly moved An object is to provide a method and a program.

本発明の情報装置は、物体の動きによって非接触に情報を発生する情報装置であって、絞り部と、絞り部の開口度を調節する開口度調節部と、物体を撮影する撮影部と、開口度調節部により絞り部の開口度を異ならせて物体を撮影部で撮影して取得した、互いに開口度の異なる複数の画像を比較することにより物体が所定の領域内にあるか否かを判定する距離判定部と、物体が所定の領域内にあると判定された場合に物体の位置に対応した所定の情報を発生する情報発生部を備えたことを特徴としている。   An information device of the present invention is an information device that generates information in a non-contact manner by the movement of an object, and includes a diaphragm unit, an aperture degree adjustment unit that adjusts the aperture of the diaphragm unit, a photographing unit that photographs an object, Whether or not the object is within a predetermined region by comparing a plurality of images having different opening degrees obtained by photographing the object with the photographing unit while varying the opening degree of the aperture unit by the opening degree adjusting unit. A distance determining unit for determining and an information generating unit for generating predetermined information corresponding to the position of the object when it is determined that the object is in the predetermined region are provided.

このような構成により、絞り部を開閉することによって開口度の異なる複数の画像を得、その開口度の異なる複数の画像を比較するという比較的簡易な処理によって、ユーザの指等の指示物体を迅速に移動させてもその位置を的確に検出して情報を発生、入力することのできる情報装置を提供することができる。   With such a configuration, a plurality of images with different opening degrees are obtained by opening and closing the aperture, and the pointing object such as the user's finger is moved by a relatively simple process of comparing the plurality of images with different opening degrees. It is possible to provide an information apparatus capable of generating and inputting information by accurately detecting the position even if the apparatus is moved quickly.

また、物体の互いに開口度の異なる複数の画像の中から選択した一つの画像から物体の二次元座標を算出する座標算出部を備え、情報発生部は、物体の二次元座標に応じて異なる情報を発生する構成であってもよい。   In addition, the information generation unit includes a coordinate calculation unit that calculates the two-dimensional coordinates of the object from one image selected from a plurality of images with different degrees of opening of the object, and the information generation unit includes different information depending on the two-dimensional coordinates of the object The structure which generate | occur | produces may be sufficient.

このような構成によれば、さらに、ユーザの指等の指示物体の二次元座標にもとづいて異なる情報が発生されるので、指示物体を装置に向かって縦横に移動させることによって、異なる情報を発生することが可能である。   According to such a configuration, since different information is generated based on the two-dimensional coordinates of the pointing object such as the user's finger, different information is generated by moving the pointing object vertically and horizontally toward the device. Is possible.

さらに、情報発生部が物体の二次元座標に対応させて発生する情報を記憶する情報記憶部を備え、情報発生部は、物体の二次元座標の情報および情報記憶部に記憶された情報にもとづいて異なる情報を発生する構成であってもよい。   Furthermore, the information generation unit includes an information storage unit that stores information generated in correspondence with the two-dimensional coordinates of the object, and the information generation unit is based on the information of the two-dimensional coordinates of the object and the information stored in the information storage unit. It may be configured to generate different information.

このような構成によれば、さらに、あらかじめ情報記憶部に物体の二次元座標に対応付けて、発生すべき情報を有させることができるので、発生すべき情報の変更等を迅速に行うことが可能となる。   According to such a configuration, since information to be generated can be provided in advance in the information storage unit in association with the two-dimensional coordinates of the object, information to be generated can be quickly changed. It becomes possible.

また、情報記憶部に記憶された情報にもとづいて、物体の二次元座標に対応させて情報発生部より発生する情報をキーボード状に表示する表示部を備えた構成であってもよい。   Moreover, the structure provided with the display part which displays the information which generate | occur | produces from an information generation part corresponding to the two-dimensional coordinate of an object based on the information memorize | stored in the information storage part in the shape of a keyboard may be sufficient.

このような構成によれば、さらに、表示部にユーザの指等の指示物体の座標に対応して入力可能な情報が表示されるので、ユーザは表示された画像を見ながら指等の指示物体を移動させて、所望の情報を発生させることが可能である。   According to such a configuration, since information that can be input in accordance with the coordinates of the pointing object such as the user's finger is displayed on the display unit, the user can indicate the pointing object such as the finger while viewing the displayed image. Can be moved to generate desired information.

さらに、物体の移動軌跡を生成する軌跡生成部を備え、距離判定部は、物体が所定の領域よりも大きな軌跡表示領域内にあるか否かを判定し、距離判定部において物体が軌跡表示領域内にあると判定された場合に、表示部は物体の移動軌跡を表示する構成であってもよい。   Furthermore, a trajectory generation unit that generates a movement trajectory of the object is provided, and the distance determination unit determines whether or not the object is in a trajectory display region that is larger than a predetermined region. The display unit may be configured to display the movement trajectory of the object when it is determined that the object is inside.

このような構成によれば、さらに、指等の指示物体が所定の領域よりも外側にあるときに、指示物体の移動軌跡が表示部に表示されるので、ユーザはその移動軌跡を見ながら、自らが入力したい情報を選択することができ、情報の発生を容易に行うことができる。   According to such a configuration, when the pointing object such as a finger is outside the predetermined area, the movement trajectory of the pointing object is displayed on the display unit. Information that the user wants to input can be selected, and information can be easily generated.

さらに、距離判定部は、物体の互いに開口度の異なる複数の画像における合焦度の違いにもとづいて物体が所定の領域内にあるか否かを判別する構成であってもよい。   Further, the distance determination unit may be configured to determine whether or not the object is in a predetermined region based on the difference in the degree of focus in a plurality of images with different opening degrees of the object.

このような構成によれば、さらに、画像の合焦度を比較するという簡易な構成によって、物体が所定の領域内にあるか否かを判別して、情報を発生させることができる。   According to such a configuration, it is possible to generate information by determining whether or not the object is in a predetermined region by a simple configuration in which the degrees of focus of images are compared.

さらに、距離判定部は、物体の互いに開口度の異なる複数の画像における合焦度を、DCT処理した場合の係数にもとづいて計算する構成であってもよい。   Further, the distance determination unit may be configured to calculate the degree of focus in a plurality of images having different opening degrees of an object based on a coefficient when DCT processing is performed.

このような構成によれば、さらに、画像圧縮技術等に広く用いられるDCT処理を用いてその係数にもとづいて合焦度を計算して、その合焦度にもとづいて物体が所定の領域内にあるか否かの判定を行うので、MPEG等の画像圧縮技術に用いられるDCT処理ブロック等を用いて構成することの容易な情報装置を提供できる。   According to such a configuration, the degree of focus is calculated based on the coefficient using DCT processing widely used in image compression technology and the like, and the object is within a predetermined area based on the degree of focus. Since it is determined whether or not there is an information device, it is possible to provide an information device that can be easily configured using a DCT processing block or the like used in an image compression technique such as MPEG.

また、距離判定部は、物体の互いに開口度の異なる複数の画像における合焦度を、DCT処理した場合の所定周波数の係数値を積算して計算する構成であってもよい。   In addition, the distance determination unit may be configured to calculate the degree of focus in a plurality of images with different opening degrees of an object by adding coefficient values of a predetermined frequency when DCT processing is performed.

このような構成によれば、さらに、所定周波数の係数値を積算して合焦度を計算するので、より人の指の検出に適した情報発生を行うことが可能となる。   According to such a configuration, since the degree of focus is calculated by integrating the coefficient values of the predetermined frequency, it is possible to generate information more suitable for detecting a human finger.

さらに、撮影部は、開口度が異なる3枚の画像を撮影し、距離判定部は、開口度が異なる3枚の画像のうち、もっとも開口度の大きな第1の画像と第1の画像よりも開口度の小さな第2の画像とを用いて物体が軌跡表示領域内にあるか否かの判定を行い、第1の画像、第2の画像、および、第2の画像よりも開口度の小さな第3の画像を用いて物体が所定の領域内にあるか否かを判定する構成であってもよい。   Further, the imaging unit captures three images with different opening degrees, and the distance determination unit has a larger opening degree than the first image and the first image among the three images with different opening degrees. It is determined whether or not the object is in the locus display area using the second image having a small opening degree, and the opening degree is smaller than that of the first image, the second image, and the second image. A configuration may be used in which it is determined whether or not the object is within a predetermined region using the third image.

このような構成によれば、さらに、3枚の画像を撮影してその画像を比較するという簡易な構成により、物体が所定の領域およびその領域よりも外側の領域内にあるか否かを判定することができる。   According to such a configuration, it is further determined whether or not the object is in the predetermined region and the region outside the region by a simple configuration of taking three images and comparing the images. can do.

さらに、撮影部は、開口度が異なる3枚の画像を撮影し、距離判定部は、開口度が異なる3枚の画像のうち、もっとも開口度の小さい第1の画像と第1の画像よりも開口度の大きな第2の画像とを用いて物体が軌跡表示領域内にあるか否かの判定を行い、第2の画像と第2の画像よりも開口度の大きな第3の画像とを用いて物体が所定の領域内にあるか否かを判定する構成であってもよい。   Furthermore, the photographing unit photographs three images having different opening degrees, and the distance determining unit is configured to select the smallest image of the first image and the first image among the three images having different opening degrees. It is determined whether or not the object is in the trajectory display area using the second image having a large opening degree, and using the second image and the third image having a larger opening degree than the second image. It may be configured to determine whether or not the object is within a predetermined area.

このような構成によれば、さらに、3枚の画像を撮影してその画像を比較するという簡易な構成により、物体が所定の領域内にあるか、および、所定の領域よりも外側の領域内にあるか否かを判定することができる。   According to such a configuration, the object is in the predetermined region and the region outside the predetermined region by a simple configuration in which three images are captured and compared. It can be determined whether or not.

また、絞り部は、液晶シャッタを有する構成であってもよい。   Further, the diaphragm unit may have a liquid crystal shutter.

このような構成によれば、さらに、絞り部の耐久性を向上することが可能となる。   According to such a configuration, it is possible to further improve the durability of the throttle portion.

さらに、開口度調節部は、液晶シャッタを透過する光線の光量が一定になるように光量を調節する光量調節部を有する構成であってもよい。   Further, the opening degree adjusting unit may include a light amount adjusting unit that adjusts the amount of light so that the amount of light transmitted through the liquid crystal shutter is constant.

このような構成によれば、さらに、液晶シャッタを透過する光線の光量を一定にすることができるので、異なる開口度で撮影した画像同士を比較した際に、輝度調整等の前処理が必要なくなる。   According to such a configuration, since the amount of light passing through the liquid crystal shutter can be made constant, preprocessing such as brightness adjustment is not necessary when images taken with different apertures are compared. .

次に、本発明の情報入力方法は、第1の絞り開口度で物体の第1の画像を撮影する第1のステップと、第1の絞り開口度よりも大きな第2の絞り開口度で、物体の第2の画像を撮影する第2のステップと、第1の画像および第2の画像それぞれの合焦度を算出する第3のステップと、第1の画像および第2の画像それぞれの合焦度を比較することにより、物体が所定の領域内にあるか否かを判定する第4のステップと、物体が所定の領域内にあると判定された場合に、物体の位置に対応した所定の情報を入力する第5のステップとを備えたことを特徴としている。   Next, the information input method of the present invention includes a first step of capturing a first image of an object with a first aperture opening degree, and a second aperture opening degree larger than the first aperture opening degree. A second step of capturing a second image of the object, a third step of calculating a degree of focus of each of the first image and the second image, and a matching of each of the first image and the second image. A fourth step for determining whether or not the object is within the predetermined area by comparing the degrees of focus; and a predetermined step corresponding to the position of the object when it is determined that the object is within the predetermined area And a fifth step of inputting the above information.

このような方法により、絞り部を開閉することによって開口度の異なる複数の画像を得、その開口度の異なる複数の画像を比較するという比較的簡易な処理によって、ユーザの指等の指示物体の動きを迅速に検出して情報を入力することのできる情報入力方法を提供することができる。   By such a method, a plurality of images having different opening degrees are obtained by opening and closing the diaphragm, and a plurality of images having different opening degrees are compared with each other. It is possible to provide an information input method capable of quickly detecting movement and inputting information.

次に、本発明のプログラムは、コンピュータに、物体の第1の絞り開口度で撮影された画像を入力する第1のステップと、第1の絞り開口度よりも大きな第2の絞り開口度で撮影された画像を入力する第2のステップと、第1の絞り開口度で撮影された画像および第2の絞り開口度で撮影された画像それぞれの合焦度を算出する第3のステップと、第1の絞り開口度で撮影された画像および第2の絞り開口度で撮影された画像それぞれの合焦度を比較することにより、物体が所定の領域内にあるか否かを判定する第4のステップと、物体が所定の領域内にあると判定された場合に、物体の位置に対応した所定の情報を発生する第5のステップとを実行させることを特徴としている。   Next, the program of the present invention has a first step of inputting an image captured at a first aperture aperture of an object to a computer, and a second aperture aperture greater than the first aperture aperture. A second step of inputting the photographed image; a third step of calculating a degree of focus of each of the image photographed with the first aperture opening degree and the image photographed with the second aperture opening degree; A fourth determination is made as to whether or not the object is within a predetermined region by comparing the degrees of focus of the images shot with the first aperture opening degree and the images taken with the second aperture opening degree. And a fifth step of generating predetermined information corresponding to the position of the object when it is determined that the object is within the predetermined area.

このようなプログラムにより、開口度の異なる複数の画像を入力し、その開口度の異なる複数の画像を比較するという比較的簡易な処理によって、ユーザの指等の指示物体の動きを迅速に検出して情報を発生することのできるプログラムを提供することができる。   With such a program, it is possible to quickly detect the movement of a pointing object such as a user's finger by a relatively simple process of inputting a plurality of images having different opening degrees and comparing the plurality of images having different opening degrees. A program capable of generating information can be provided.

以上述べたように、本発明の情報装置および情報入力方法およびプログラムを用いれば、開口度のそれぞれ異なる複数の画像を比較するという比較的簡易な処理によって、ユーザの指等の指示物体を迅速に移動させてもその位置を的確に検出して情報を入力することのできる情報装置、情報入力方法およびプログラムを提供することができる。   As described above, by using the information apparatus, the information input method, and the program of the present invention, the pointing object such as the user's finger can be quickly moved by a relatively simple process of comparing a plurality of images having different opening degrees. It is possible to provide an information device, an information input method, and a program that can input information by accurately detecting the position even when moved.

以下、本発明の第1の実施の形態について、図面を用いて詳細に説明する。   Hereinafter, a first embodiment of the present invention will be described in detail with reference to the drawings.

(第1の実施の形態)
まず、本発明の第1の実施の形態における情報装置および情報入力方法について説明する。本発明の第1の実施の形態においては、情報装置の例として携帯電話装置を用いて説明を行う。
(First embodiment)
First, an information device and an information input method according to the first embodiment of the present invention will be described. In the first embodiment of the present invention, a mobile phone device will be described as an example of the information device.

図1は、本発明の第1の実施の形態における携帯電話装置50の概要について説明するための図である。   FIG. 1 is a diagram for explaining an outline of the mobile phone device 50 according to the first embodiment of the present invention.

図1において、本発明の第1の実施の形態における携帯電話装置50は、ユーザの指51を撮影する撮影部3およびユーザに入力を促すような入力誘導表示52および指の軌跡53を表示する表示部15を備えている。ユーザは撮影部3の画角θの範囲内で指51を動かすことにより、携帯電話装置50への電話番号の入力や、電子メールまたはアドレス帳等の数字や文字等の各種情報の入力を行うことが可能である。なお、図1においては、撮影部3の撮影光軸の方向をZ軸方向として示し、Z軸と直交する方向をX軸およびY軸としてそれぞれ示している。   In FIG. 1, the mobile phone device 50 according to the first embodiment of the present invention displays a photographing unit 3 that photographs a user's finger 51, an input guidance display 52 that prompts the user to input, and a finger locus 53. A display unit 15 is provided. The user moves the finger 51 within the range of the angle of view θ of the photographing unit 3 to input a telephone number to the mobile phone device 50 and various information such as numbers and characters such as e-mail or address book. It is possible. In FIG. 1, the direction of the photographing optical axis of the photographing unit 3 is shown as a Z-axis direction, and directions orthogonal to the Z-axis are shown as an X-axis and a Y-axis, respectively.

ユーザが携帯電話装置50に対して、数字や文字等の各種情報を入力する場合について説明する。まず、表示部15に、テンキー表示を模したキーボード状の入力誘導表示52が表示される。さらに、ユーザの指51が撮影部3から所定距離範囲の領域A内に入ると、表示部15の画面上に指51の軌跡53が表示される。 A case where the user inputs various information such as numbers and characters to the mobile phone device 50 will be described. First, a keyboard-like input guidance display 52 simulating a numeric keypad display is displayed on the display unit 15. Further, when the user's finger 51 enters the area A 1 within a predetermined distance range from the imaging unit 3, the locus 53 of the finger 51 is displayed on the screen of the display unit 15.

ユーザはこの軌跡53を見ながら、自らの指51の軌跡53が、表示部15の入力誘導表示52において自らが入力したい情報に対応するキー表示(例えば「1」等)に重なるように指51を動かす。指51の軌跡53が所望のキー表示に重なったときに、ユーザは指51を撮影部3にさらに接近させ、図1における領域A内に達するまで指51を動かすこと(以下、この動作を「押下」と記す。)により、キー表示に対応した情報を携帯電話装置50に入力することができる。 While viewing the trajectory 53, the finger 51 so that the trajectory 53 of his / her finger 51 overlaps the key display (for example, “1” etc.) corresponding to the information he / she wants to input in the input guidance display 52 of the display unit 15. Move. When the locus 53 of the finger 51 is overlapped on the display the desired key, the user is further closer to the finger 51 to the imaging unit 3, moving the finger 51 to reach the area A 2 in FIG. 1 (hereinafter, this operation The information corresponding to the key display can be input to the mobile phone device 50.

つまり、本発明の第1の実施の形態における携帯電話装置50によれば、ユーザは指51を携帯電話装置50に接触させることなく、あたかも領域Aの空間中に存在する仮想キーボード54を操作するように非接触に情報を入力することが可能である。本発明の第1の実施の形態における携帯電話装置50によれば、携帯電話装置50にテンキー等の入力部を設ける必要がないので、装置全体のさらなる小型化が可能である。 That is, according to the mobile phone device 50 in the first embodiment of the present invention, the user operates the virtual keyboard 54 that exists in the space of the area A 2 without bringing the finger 51 into contact with the mobile phone device 50. It is possible to input information in a non-contact manner. According to the cellular phone device 50 in the first embodiment of the present invention, it is not necessary to provide an input unit such as a numeric keypad in the cellular phone device 50, so that the size of the entire device can be further reduced.

次に、本発明の第1の実施の形態における携帯電話装置50の構成についてさらに詳細に説明する。図2は、本発明の第1の実施の形態における携帯電話装置50の構成を示すブロック図である。   Next, the configuration of the mobile phone device 50 according to the first embodiment of the present invention will be described in more detail. FIG. 2 is a block diagram showing a configuration of the mobile phone device 50 according to the first embodiment of the present invention.

携帯電話装置50は、開閉制御の可能な絞り1、絞り1を通過した光線を集光する単焦点のレンズ2および絞り1とレンズ2とを通過した被写体の光像を撮影して画像信号を出力するCCD等の撮像素子33を有する撮影部3、所定の同期信号を発生する同期信号発生部5、同期信号発生部5によって発生された同期信号にもとづいて絞り1の開口度を調節する絞り調節部4、同期信号発生部5で発生された同期信号にもとづいて絞り1の開口度の違いに対応した画像信号を撮影部3から取得し、その画像情報を絞り1の開口度の違いに応じて記憶部に振り分けて出力する振り分け部6、振り分け部6によって振り分けられた画像情報を記憶する第1の画像記憶部7、第2の画像記憶部8および第3の画像記憶部9、第2の画像記憶部8および第3の画像記憶部9に接続され、それぞれに記憶された画像情報から指51の位置を検出する指位置検出部10、第1の画像記憶部7、第2の画像記憶部8および第3の画像記憶部9に接続され、それぞれに記憶された画像情報から後述の方法で指51が押下されているか否かを検出するキー接触検出部11、指位置検出部10およびキー接触検出部11に接続され、指51と撮影部3との位置関係を示す指位置情報を記憶している指位置記憶部16、指位置検出部10で抽出された指51の移動軌跡を生成する軌跡生成部12、指51の位置に対応させた入力すべき情報の内容を記憶するキー配置記憶部14、指位置検出部10で検出された指51の位置、キー接触検出部11で検出された指51の押下作業の有無およびキー配置記憶部14に記憶された情報によってユーザがどのキー操作を行ったのかを判定し、そのキー操作に対応する情報を発生し、出力するキー操作判定部13、軌跡生成部12で生成された指51の軌跡53およびキー配置記憶部14に記憶された情報にもとづいてユーザに入力誘導表示52を表示する表示部15、ならびに、キー操作判定部13から出力されたキー操作に対応する情報を受信して携帯電話装置としての通信や情報処理等の各種公知の処理を行う携帯通信処理部60を備える。   The cellular phone device 50 captures an image signal by photographing a diaphragm 1 that can be controlled to be opened and closed, a single-focus lens 2 that collects light beams that have passed through the diaphragm 1, and a light image of a subject that has passed through the diaphragm 1 and the lens 2. A photographing unit 3 having an imaging device 33 such as a CCD to be output, a synchronizing signal generating unit 5 for generating a predetermined synchronizing signal, and an aperture for adjusting the aperture of the diaphragm 1 based on the synchronizing signal generated by the synchronizing signal generating unit 5 An image signal corresponding to the difference in aperture of the diaphragm 1 is acquired from the photographing unit 3 based on the synchronization signal generated by the adjusting unit 4 and the synchronization signal generator 5, and the image information is converted into the difference in aperture of the diaphragm 1. Accordingly, the distribution unit 6 distributes and outputs to the storage unit, the first image storage unit 7 that stores the image information distributed by the distribution unit 6, the second image storage unit 8 and the third image storage unit 9, 2 image storage unit 8 and A finger position detection unit 10, a first image storage unit 7, a second image storage unit 8, and a third unit that are connected to the third image storage unit 9 and detect the position of the finger 51 from the stored image information. Key contact detection unit 11, finger position detection unit 10, and key contact detection unit 11 that detect whether or not the finger 51 is pressed by a method described later from the image information stored in the image storage unit 9. A finger position storage unit 16 that stores finger position information indicating the positional relationship between the finger 51 and the imaging unit 3, and a locus generation unit that generates a movement locus of the finger 51 extracted by the finger position detection unit 10. 12, the key arrangement storage unit 14 for storing the contents of information to be input corresponding to the position of the finger 51, the position of the finger 51 detected by the finger position detection unit 10, the finger 51 detected by the key contact detection unit 11 Presence / absence of pressing operation and key arrangement storage unit 4 is used to determine which key operation the user has performed, to generate information corresponding to the key operation, and to output the key operation determination unit 13 and the finger 51 generated by the trajectory generation unit 12. The display unit 15 that displays the input guidance display 52 to the user based on the information stored in the locus 53 and the key arrangement storage unit 14, and the information corresponding to the key operation output from the key operation determination unit 13 are received. A mobile communication processing unit 60 that performs various known processes such as communication and information processing as a mobile phone device is provided.

絞り1は、開口度の調節が可能な絞りであれば、機械式の広く知られた絞りを用いて構成してもよいし、液晶シャッタを用いて構成してもよい。絞り1として液晶シャッタを用いることにより、機械式の絞りよりも耐久性に優れるとともに、絞り調節部4によって、絞り1の開口度の調節のみならず、絞り1を透過する光線の光量を一定にするように、液晶シャッタの透過率を変更させることが可能である。このような構成によれば、後述するような画像情報の比較等を行う際に輝度補正等の余分な処理を行う必要がなくなり、絞り1としては液晶シャッタを用いることが実用性に鑑みて望ましい。   As long as the aperture can be adjusted, the aperture 1 may be configured by using a mechanically known aperture or by using a liquid crystal shutter. By using a liquid crystal shutter as the diaphragm 1, the durability is superior to that of a mechanical diaphragm, and the diaphragm adjustment unit 4 not only adjusts the aperture of the diaphragm 1 but also keeps the amount of light transmitted through the diaphragm 1 constant. As described above, it is possible to change the transmittance of the liquid crystal shutter. According to such a configuration, it is not necessary to perform extra processing such as luminance correction when comparing image information as will be described later, and it is desirable to use a liquid crystal shutter as the diaphragm 1 in view of practicality. .

絞り調節部4としては、絞り1として機械式の絞りを用いた場合にはその開口度の調節を行う機構を用いればよいし、絞り1として液晶シャッタを用いた場合には、その開閉制御および透過率の調節を行う制御回路を構成すればよい。   The diaphragm adjusting unit 4 may be a mechanism that adjusts the aperture when a mechanical diaphragm is used as the diaphragm 1, and when a liquid crystal shutter is used as the diaphragm 1, the opening / closing control and A control circuit for adjusting the transmittance may be configured.

本発明の第1の実施の形態においては、絞り調節部4は、絞り1の開口度が「大」「中」「小」の三つの状態になるように調節することができるものとして説明する。なお、絞り調節部4が液晶シャッタを透過する光線の光量を一定になるように液晶シャッタの透過率を制御するためには、あらかじめ開口度に対応した、光量が一定になるような透過率についての情報をテーブルに有する構成であってもよいし、図示しないが、液晶シャッタを透過する光量を測定するセンサ部を有し、そのセンサ部からの出力が一定になるように液晶シャッタの透過率を調節する構成であってもよい。   In the first embodiment of the present invention, description will be made assuming that the diaphragm adjusting unit 4 can adjust the aperture of the diaphragm 1 so as to have three states of “large”, “medium”, and “small”. . In order to control the transmittance of the liquid crystal shutter so that the diaphragm adjusting unit 4 keeps the light amount of the light beam transmitted through the liquid crystal shutter constant, the transmittance corresponding to the aperture is set to be constant. However, although not shown in the figure, it has a sensor unit for measuring the amount of light transmitted through the liquid crystal shutter, and the transmittance of the liquid crystal shutter so that the output from the sensor unit is constant. The structure which adjusts may be sufficient.

レンズ2は、カメラ付きの携帯電話装置等の携帯型の撮影装置に広く搭載されている、単焦点の簡易な構成のレンズ系を用いることができる。   The lens 2 may be a single-focus simple lens system that is widely installed in portable imaging devices such as a mobile phone device with a camera.

撮像素子33としては、CCDやCMOSセンサ等の広く知られた素子を用いることができる。   As the image pickup element 33, a widely known element such as a CCD or a CMOS sensor can be used.

撮影部3は、絞り1、レンズ2および撮像素子33を有し、その撮影可能な画角範囲が図1における画角θで表される領域であるとする。   The imaging unit 3 includes an aperture 1, a lens 2, and an image sensor 33, and the range of viewable angles of view is an area represented by the view angle θ in FIG.

図3は、本発明の第1の実施の形態における携帯電話装置50における絞り1の開口の違いによる合焦可能範囲を示す図である。図3に示したように、本発明の第1の実施の形態における携帯電話装置50において、その撮影部3の絞り1の開口度を「大」とした場合の被写界深度を距離範囲Δであるとする。また、絞り1の開口度を「中」とした場合には、被写界深度が深くなり、距離範囲Δの範囲で焦点が合うものとする。さらに、絞り1の開口度を「小」とした場合にはもっとも被写界深度が深くなり、距離範囲Δの範囲で焦点が合っているものとする。本発明の第1の実施の形態においては、距離範囲Δは指51の軌跡53が表示部15上に表示される範囲(図1における領域A)であり、距離範囲Δは、仮想キーボード54が押下されたと判定される範囲(図1における領域A)である。 FIG. 3 is a diagram showing a focusable range due to a difference in aperture of the diaphragm 1 in the mobile phone device 50 according to the first embodiment of the present invention. As shown in FIG. 3, in the mobile phone device 50 according to the first embodiment of the present invention, the depth of field when the aperture of the diaphragm 1 of the photographing unit 3 is “large” is expressed as a distance range Δ. 3 is assumed. Further, when the aperture of the diaphragm 1 as "medium", the depth of field becomes deep, it is assumed that in focus in a range of distance range delta 2. Further, it is assumed that the aperture of the diaphragm 1 becomes deeper most depth of field in the case of the "small", focal point matching the range of the distance range delta 1. In the first embodiment of the present invention, the distance range Δ 2 is a range in which the locus 53 of the finger 51 is displayed on the display unit 15 (region A 1 in FIG. 1 ), and the distance range Δ 3 is a virtual range. This is a range (area A 2 in FIG. 1) in which it is determined that the keyboard 54 has been pressed.

再び図2に戻って、同期信号発生部5としては、水晶等を用いた発振回路を用いることができる。   Returning to FIG. 2 again, an oscillation circuit using crystal or the like can be used as the synchronization signal generator 5.

第1の画像記憶部7、第2の画像記憶部8、第3の画像記憶部9およびキー配置記憶部14としては、それぞれ、ハードディスク装置(HDD)や半導体メモリ等の公知の記憶手段から適宜選択したものを用いることが可能である。   The first image storage unit 7, the second image storage unit 8, the third image storage unit 9, and the key arrangement storage unit 14 are each appropriately selected from known storage means such as a hard disk device (HDD) or a semiconductor memory. The selected one can be used.

本発明の第1の実施の形態の携帯電話装置50においては、第1の画像記憶部7に絞り1の開口の大きさが「小」の場合の画像情報(以下、第1の画像情報と記す)が、第2の画像記憶部8に絞り1の開口の大きさが「中」の場合の画像情報(以下、第2の画像情報と記す)が、さらに、第3の画像記憶部9に絞り1の開口の大きさが「大」の場合の画像情報(以下、第3の画像情報と記す)がそれぞれ記憶されているものとする。   In the cellular phone device 50 according to the first embodiment of the present invention, image information (hereinafter referred to as first image information) when the aperture size of the aperture 1 is “small” in the first image storage unit 7. However, image information when the aperture size of the diaphragm 1 is “medium” in the second image storage unit 8 (hereinafter referred to as second image information) is further added to the third image storage unit 9. It is assumed that image information (hereinafter referred to as third image information) when the size of the aperture of the diaphragm 1 is “large” is stored.

振り分け部6としては、撮影部3から出力される画像信号を同期信号発生部5で発生される同期信号にもとづいて、第1の画像記憶部7、第2の画像記憶部8または第3の画像記憶部9に振り分けるような専用回路を用いることもできるし、前述のように、記憶部が一つの場合には、その画像情報が記憶されるべき領域を絞り1の開口度に応じて割り振る構成であってもよいし、絞り1の開口度を示す付加情報を画像情報に付加して記憶させるソフトウェアによって振り分け部6の機能が実現されていてもよい。   The distribution unit 6 uses the first image storage unit 7, the second image storage unit 8, or the third image storage unit 6 based on the image signal output from the imaging unit 3 based on the synchronization signal generated by the synchronization signal generation unit 5. A dedicated circuit that distributes to the image storage unit 9 can also be used. As described above, when there is only one storage unit, an area in which the image information is to be stored is allocated according to the aperture of the diaphragm 1. The function of the sorting unit 6 may be realized by software that stores additional information indicating the aperture of the diaphragm 1 in addition to the image information.

指位置検出部10は、前述の第2の画像情報と第3の画像情報とを用いて、絞り1の開口度の違いによる物体深度の違いを利用して、ユーザの指51の位置が図3における撮影部3から所定の距離範囲Δ内に入ったか否かを検出し、ユーザの指51が所定の距離範囲Δ内に入った場合に、指位置記憶部16に記憶された指位置情報であるキー操作フラグをONとして、その指51の二次元の位置座標(図1におけるXY面における位置座標)を検出し、軌跡生成部12およびキー操作判定部13に出力する。この指位置検出部10の機能については後述するが、ソフトウェアまたは専用回路のいずれを用いても実現することが可能である。 The finger position detection unit 10 uses the second image information and the third image information described above to determine the position of the user's finger 51 using the difference in the object depth due to the difference in the aperture of the diaphragm 1. from the imaging unit 3 in 3 detects whether or not within a predetermined distance range Δ 2, when the user's finger 51 has entered the predetermined distance range Δ 2, stored in the finger position storage unit 16 the finger The key operation flag, which is position information, is turned ON, and the two-dimensional position coordinates (position coordinates on the XY plane in FIG. 1) of the finger 51 are detected and output to the locus generation unit 12 and the key operation determination unit 13. The function of the finger position detection unit 10 will be described later, but can be realized using either software or a dedicated circuit.

キー接触検出部11は、前述の第1の画像情報、第2の画像情報、第3の画像情報および指位置情報を用いて、後述する方法で、ユーザの指51が図3における距離範囲Δ内に入ったか否かを検出して、その結果をキー操作判定部13に出力する。キー接触検出部11の機能についても後述するが、ソフトウェアまたは専用回路のいずれを用いても実現することが可能である。 The key touch detection unit 11 uses the first image information, the second image information, the third image information, and the finger position information described above, and the user's finger 51 moves the distance range Δ in FIG. 3 is detected, and the result is output to the key operation determination unit 13. Although the function of the key touch detection unit 11 will be described later, it can be realized by using either software or a dedicated circuit.

軌跡生成部12は、指位置検出部10で指51が撮影部3から距離範囲Δ内に入ったと判定された場合に、指位置検出部10から出力される指51の二次元座標を取得して、表示部15上に指51の軌跡53を表示させる。軌跡生成部12の機能は、ソフトウェアまたは専用回路のいずれを用いても実現することが可能である。 Locus generating unit 12, when the finger 51 with a finger position detecting section 10 is determined to have entered from the imaging unit 3 to the distance range Δ 2, acquires the two-dimensional coordinates of the finger 51 which is output from the finger position detecting section 10 Then, the locus 53 of the finger 51 is displayed on the display unit 15. The function of the locus generation unit 12 can be realized by using either software or a dedicated circuit.

キー配置記憶部14には、図4に示したような、表示部15の画面上に表示すべきキーボード状の入力誘導表示52の二次元座標と入力されるべき情報とが対応付けられた情報であるキー配置情報61が記憶されている。図4は、本発明の第1の実施の形態における携帯電話装置50のキー配置情報61の一例を示す図である。   In the key arrangement storage unit 14, information in which the two-dimensional coordinates of the keyboard-like input guidance display 52 to be displayed on the screen of the display unit 15 and the information to be input are associated as shown in FIG. 4. The key arrangement information 61 is stored. FIG. 4 is a diagram showing an example of the key arrangement information 61 of the mobile phone device 50 according to the first embodiment of the present invention.

キー操作判定部13は、キー接触検出部11で指51が図2における距離範囲Δ内に入ったと判定された場合に、指位置検出部10から出力された指51の二次元座標を取得して、あらかじめキー配置記憶部14に記憶されたキー配置情報61を参照して、指51の二次元座標に対応する入力されるべき情報を判定して、その情報を出力する。例えば、指51が図4に示したキー配置情報61における位置座標Aに示した位置にあるという情報が指位置検出部10から出力された場合には、対応して入力されるべきキーの情報は「5」となり、「5」という情報がキー操作判定部13から携帯通信処理部60に出力される。このとき、キー操作判定部13が表示部15に表示された入力誘導表示52の「5」に対応するキーの部分の色を変化させたり、別途設けられた音声発生装置(図示せず)によって音声を発生させたりする等して、ユーザに入力が行われた(仮想キーボード54が押下された)ことを知らしめる構成とすれば、さらに実用性の高い構成を実現できる。 Key operation determination unit 13, when the finger 51 in the key touch detection unit 11 is determined to fall within the distance range delta 3 in FIG. 2, obtaining a two-dimensional coordinate of the finger 51 which is output from the finger position detecting section 10 Then, with reference to the key arrangement information 61 stored in advance in the key arrangement storage unit 14, information to be input corresponding to the two-dimensional coordinates of the finger 51 is determined, and the information is output. For example, when information indicating that the finger 51 is at the position indicated by the position coordinate A in the key arrangement information 61 illustrated in FIG. 4 is output from the finger position detection unit 10, information on the key to be input correspondingly Becomes “5”, and the information “5” is output from the key operation determination unit 13 to the mobile communication processing unit 60. At this time, the key operation determination unit 13 changes the color of the key portion corresponding to “5” of the input guidance display 52 displayed on the display unit 15, or by a voice generation device (not shown) provided separately. A configuration with higher practicality can be realized if the configuration is such that the user is informed (for example, the virtual keyboard 54 has been pressed) by generating sound or the like.

キー操作判定部13から出力された情報は携帯通信処理部60に送られて、携帯通信処理部60での通信の発呼やメール処理におけるテキスト入力等の各種情報処理が行われる。   The information output from the key operation determination unit 13 is sent to the mobile communication processing unit 60, and various information processing such as communication call in the mobile communication processing unit 60 and text input in mail processing is performed.

表示部15としては、LCD、ELまたはPDP等の公知のディスプレイデバイスから適宜選択したものを用いることができる。   As the display unit 15, a display unit appropriately selected from known display devices such as LCD, EL, or PDP can be used.

ここで、本発明の第1の実施の形態における携帯電話装置50における指位置検出部10およびキー接触検出部11の機能についてさらに詳細に説明する。   Here, functions of the finger position detection unit 10 and the key contact detection unit 11 in the mobile phone device 50 according to the first embodiment of the present invention will be described in more detail.

本発明の指位置検出部10およびキー接触検出部11は、絞り1の開口度Dの違いによる物体深度Δの違いを利用して、指51が図3における距離範囲Δ内またはΔの距離範囲内に入っているか否かを判別することができる。 Finger position detecting section 10 and a key touch detection unit 11 of the present invention, by utilizing a difference in the object depth delta due to the difference of the opening degree D of the diaphragm 1, the finger 51 a distance ranging delta 2 within or in Figure 3 is the delta 3 It can be determined whether or not it is within the distance range.

図5は、本発明の第1の実施の形態における携帯電話装置50の指位置検出部10またはキー接触検出部11の機能の基本原理を示す図である。図5に示したように、ここでは、物体31が開口Dのレンズ32を透過して撮像素子33の結像面上に結像した場合を仮定する。このとき、物体31からレンズ32までの距離を距離u、レンズ32の焦点Fまでの距離を焦点距離fとし、撮像素子33の画素ピッチ(解像度)をピッチεとしたときに、物体深度Δは、   FIG. 5 is a diagram illustrating the basic principle of the function of the finger position detection unit 10 or the key contact detection unit 11 of the mobile phone device 50 according to the first embodiment of the present invention. As shown in FIG. 5, it is assumed here that the object 31 passes through the lens 32 of the aperture D and forms an image on the imaging surface of the image sensor 33. At this time, when the distance from the object 31 to the lens 32 is the distance u, the distance from the focal point F of the lens 32 is the focal distance f, and the pixel pitch (resolution) of the image sensor 33 is the pitch ε, the object depth Δ is ,

であらわされる。 It is expressed.

例えば、画素ピッチε=0.001mmのCCDを用い、焦点距離f=1mmのレンズを用いて、絞り(開口)Dを0.07mm、0.1mm、0.2mmと変化させた場合の、焦点合わせの位置でのカメラからの距離uに対する物体深度Δの値の変化を図6に示す。図6は、本発明の第1の実施の形態の携帯電話装置50における絞りDを変化させた場合の焦点合わせの位置でのカメラからの距離uに対する物体深度Δの値の変化を示す図である。   For example, when using a CCD with a pixel pitch ε = 0.001 mm, using a lens with a focal length f = 1 mm, and changing the aperture (aperture) D to 0.07 mm, 0.1 mm, and 0.2 mm, the focus FIG. 6 shows a change in the value of the object depth Δ with respect to the distance u from the camera at the alignment position. FIG. 6 is a diagram illustrating a change in the value of the object depth Δ with respect to the distance u from the camera at the focusing position when the diaphragm D is changed in the mobile phone device 50 according to the first embodiment of the present invention. is there.

図6に示したように、例えば焦点合わせの位置でのレンズ32から物体31までの距離uが50mmのとき、絞りの開放時(D=0.2mm)には約10mmであった物体深度Δが、絞りを少し絞ったとき(D=0.1mm)には約30mm、さらに絞りを絞ったとき(D=0.07mm)には約70mmとなる。なお、このレンズ2および絞り1の設計を各種行うことにより任意の画角θや距離範囲を実現することができ、ユーザの要望に合わせた様々な大きさの仮想キーボード54を実現することができる。   As shown in FIG. 6, for example, when the distance u from the lens 32 to the object 31 at the focusing position is 50 mm, the object depth Δ is about 10 mm when the diaphragm is opened (D = 0.2 mm). However, when the aperture is slightly reduced (D = 0.1 mm), it is about 30 mm, and when the aperture is further reduced (D = 0.07 mm), it is about 70 mm. By designing the lens 2 and the aperture 1 in various ways, it is possible to realize an arbitrary angle of view θ and a distance range, and it is possible to realize virtual keyboards 54 having various sizes according to the user's request. .

本発明の携帯電話装置50における指位置検出部10またはキー接触検出部11は、このような絞りの開口Dの違いによる物体深度Δの違いを利用する。図7を用いて、本発明の第1の実施の形態における携帯電話装置50の指位置検出部10およびキー接触検出部11の動作原理についてさらに詳細に説明する。図7は、本発明の第1の実施の形態の携帯電話装置50における指位置検出部10およびキー接触検出部11の動作原理について説明するための図である。図7に示したように、携帯電話装置50のレンズ2から50mm離れた距離に指71があり、レンズ2から60mm離れた位置に指72があり、レンズ2から70mm離れた位置に指73があり、レンズ2から90mm離れた位置に指74があるものと仮定して説明する。なお、図7は上述した距離関係を正確に反映したものではなく、それぞれの指の位置を模式的に示した図である。   The finger position detection unit 10 or the key contact detection unit 11 in the cellular phone device 50 of the present invention uses the difference in the object depth Δ due to the difference in the aperture D of the diaphragm. The operation principle of the finger position detection unit 10 and the key contact detection unit 11 of the mobile phone device 50 according to the first embodiment of the present invention will be described in more detail with reference to FIG. FIG. 7 is a diagram for explaining the operation principle of the finger position detection unit 10 and the key contact detection unit 11 in the mobile phone device 50 according to the first embodiment of the present invention. As shown in FIG. 7, the finger 71 is located 50 mm away from the lens 2 of the mobile phone device 50, the finger 72 is located 60 mm away from the lens 2, and the finger 73 is located 70 mm away from the lens 2. It is assumed that there is a finger 74 at a position 90 mm away from the lens 2. Note that FIG. 7 does not accurately reflect the distance relationship described above, and is a diagram schematically showing the position of each finger.

また、携帯電話装置50に搭載されたレンズ2は、前述のような、焦点合わせの位置でのカメラからの距離uを50mmとしたときに、絞りの開口が「小」の状態での物体深度Δ≒10mm(焦点合わせの位置±5mmの範囲で合焦する(厳密には焦点位置よりもカメラに近い方の合焦範囲が、焦点位置よりもカメラから遠い方の合焦範囲よりも若干小さいが、以後焦点位置前後で合焦範囲が等しいとして議論を進める。))であり、開口が「中」の状態での物体深度Δ=30mm(焦点合わせの位置±15mmの範囲で合焦する)であり、開口が「大」の状態での物体深度Δ=70mm(焦点合わせの位置±35mmで合焦する)であるとする。 Further, the lens 2 mounted on the mobile phone device 50 has an object depth when the aperture u is “small” when the distance u from the camera at the focusing position is 50 mm as described above. Δ 1 ≈10 mm (Focus position is in the range of ± 5 mm (strictly speaking, the focus range closer to the camera than the focus position is slightly larger than the focus range farther from the camera than the focus position) Although it is small, the discussion will be continued assuming that the in-focus range is the same before and after the focus position.)), And the object depth Δ 2 = 30 mm with the aperture in the “medium” state (in-focus in the range of the focus position ± 15 mm) It is assumed that the object depth Δ 3 = 70 mm (focusing at the focusing position ± 35 mm) when the aperture is “large”.

このように構成することにより、撮影される画像情報の一例を図8に示す。図8は、本発明の第1の実施の形態における携帯電話装置50によって撮影された画像情報の一例を示す図である。   FIG. 8 shows an example of image information to be taken by configuring in this way. FIG. 8 is a diagram showing an example of image information photographed by the mobile phone device 50 according to the first embodiment of the present invention.

図8(a)は、絞りの開口度が「小」のときの画像情報(第1の画像情報)の一例を示す図である。図8(a)に示した第1の画像情報81のように、指71,72,73では焦点の合った画像情報を得ることができるが、指74では鮮明さに欠ける、すなわちぼけた画像が得られる。つまり、絞りの開口が「小」であるときには、焦点合わせの位置のカメラからの距離50mmに対して、物体深度Δは±35mmであるので、指71(距離50mm)、指72(距離60mm)および指73(距離70mm)のいずれにも焦点の合った画像情報を得ることができる。しかし、指74(距離90mm)は、焦点の合う範囲を超えているのでぼけた画像が得られる。 FIG. 8A is a diagram illustrating an example of image information (first image information) when the aperture of the diaphragm is “small”. As with the first image information 81 shown in FIG. 8A, focused image information can be obtained with the fingers 71, 72, and 73, but the finger 74 is not clear, that is, a blurred image. Is obtained. That is, when the aperture of the diaphragm is "small", to the distance 50mm from the camera position of the focus, the object depth delta 1 is a ± 35 mm, the finger 71 (distance 50mm), the finger 72 (Distance 60mm ) And finger 73 (distance 70 mm), it is possible to obtain focused image information. However, since the finger 74 (distance 90 mm) exceeds the in-focus range, a blurred image is obtained.

次に、絞りの開口度を「中」とすると、図8(b)に示したような第2の画像情報82を得ることができる。第2の画像情報82は、指71(距離50mm)および指72(距離60mm)は焦点合わせの位置50mm±15mmの位置にあるので合焦しており、指73(距離70mm)や指74(距離90mm)については、物体深度Δを超えるので、合焦していないため、ぼけた画像情報が得られる。 Next, when the aperture of the diaphragm is “medium”, the second image information 82 as shown in FIG. 8B can be obtained. The second image information 82 is in focus because the finger 71 (distance 50 mm) and the finger 72 (distance 60 mm) are at the focusing position 50 mm ± 15 mm, and the finger 73 (distance 70 mm) and the finger 74 (distance 70 mm) the distance 90 mm), since more than an object depth delta 2, since not focused, the image information blurred is obtained.

さらに、絞りの開口度を「大」とすると、図8(c)に示したような第3の画像情報83を得ることができる。第3の画像情報83は、指71(距離50mm)は焦点合わせの位置50mm±5mmの位置にあるので合焦している。しかし、指72(距離60mm)、指73(距離70mm)、指74(距離90mm)は、物体深度Δを超えるので、合焦していないため、ぼけた画像情報が得られる。 Further, when the aperture of the diaphragm is “large”, the third image information 83 as shown in FIG. 8C can be obtained. The third image information 83 is in focus because the finger 71 (distance 50 mm) is at a focus position of 50 mm ± 5 mm. However, the finger 72 (distance 60 mm), the finger 73 (distance 70 mm), the finger 74 (distance 90 mm), since more than an object depth delta 3, since not focused, the image information blurred is obtained.

指位置検出部10は、絞りの開口度が「中」の状態で撮影された第2の画像情報82と、絞りの開口度が「大」の状態で撮影された第3の画像情報83とを比較する。具体的には、指位置検出部10は、第2の画像情報82の合焦の度合いと第3の画像情報83の合焦の度合いとを比較して、合焦の度合いが異なっている場合、距離範囲Δ内に指72が入ったことを知ることができ、上下左右の二次元座標を出力することが可能である。なお、指72の二次元座標の算出は、合焦の度合いが異なっている部分の中心座標や重心座標を用いることにより簡易に行うことが可能である。 The finger position detection unit 10 includes second image information 82 photographed with the aperture opening degree of “medium”, and third image information 83 photographed with the aperture opening degree of “large”. Compare Specifically, the finger position detection unit 10 compares the degree of focusing of the second image information 82 with the degree of focusing of the third image information 83 and the degree of focusing is different. , distance range Δ it has entered the finger 72 can know the in 2, it is possible to output a vertical and horizontal two-dimensional coordinates. Note that the calculation of the two-dimensional coordinates of the finger 72 can be easily performed by using the center coordinates and barycentric coordinates of the portions with different degrees of focus.

さらに、指位置検出部10は、指が距離範囲Δ内に入ったことを検出した場合、指位置記憶部16に記憶された指位置情報であるキー操作フラグをONにする。また、指が距離範囲Δの外に出た時は、キー操作フラグをOFFにする。 Further, the finger position detecting section 10, when detecting that the finger has entered the distance range Δ 2, turns ON the key operation flag is a finger position information stored in the finger position storage unit 16. Further, when the finger goes out of the distance range delta 2, the key operation flag to OFF.

なお、画像情報中のぼけ度合い算出方法、合焦度判定については、例えば「カメラフォーカスを連続変化させた動画像を用いた奥行き分布検出」、工藤朋之、三池秀敏著、情報処理学会、コンピュータビジョン研究会98−2、1996年1月18日発行や、“A New Sense for Depth of Field”, A.Pentlad, IEEE Trans. On Pattern Analysis and Machine Intelligence, vol. PAMI−9,No.4 July 1987等に提案された方法を用いることができる。   For the method of calculating the degree of blur in image information and determining the degree of focus, for example, “Depth distribution detection using moving images with continuously changing camera focus”, Akiyuki Kudo, Hidetoshi Miike, Information Processing Society of Japan, Computer Vision Study Group 98-2, published on January 18, 1996, “A New Sense for Depth of Field”, A.I. Pentlad, IEEE Trans. On Pattern Analysis and Machine Intelligence, vol. PAMI-9, No. 4 The method proposed in July 1987 can be used.

また、発明者らが既に特開2001−227914号公報において提案している方法を用いることも可能である。このような方法によれば、画像を構成する画素を縦×横=8×8画素の小ブロックに分割して、小ブロック毎に離散コサイン変換(以下、DCTと記す)した結果の係数を周波数成分毎にマトリックス状に並べて、所定の周波数領域の係数の2乗和をとることによって、画像の合焦の度合いを比較することが可能となる。   It is also possible to use the method that the inventors have already proposed in JP-A-2001-227914. According to such a method, pixels constituting an image are divided into small blocks of vertical × horizontal = 8 × 8 pixels, and a coefficient obtained as a result of discrete cosine transform (hereinafter referred to as DCT) for each small block is a frequency. By arranging the components in a matrix and taking the square sum of the coefficients in a predetermined frequency region, it is possible to compare the degree of focusing of the images.

指72を距離範囲Δの範囲内からさらに距離範囲Δの範囲内に入れた状態、すなわち図7に示した指71の位置において、絞り1の開口度を「大」、「中」、「小」と変化させると、図8(a)、(b)、(c)に示したように指71についてはどの画像も合焦した画像が得られる。 State placed within the fingers 72 from within a distance range delta 2 further distance range delta 3, i.e. at the position of the finger 71 shown in FIG. 7, the aperture of the diaphragm 1 "large", "medium", When changed to “small”, as shown in FIGS. 8A, 8 </ b> B, and 8 </ b> C, an image in which any image of the finger 71 is focused is obtained.

すなわち、キー接触検出部11は、このような絞りの開口度が「小」の状態の第1の画像情報83と、絞りの開口度が「中」の状態の第2の画像情報82と、絞りの開口度が「大」の状態の第3の画像情報83とを比較して、第1の画像情報81および第2の画像情報82、第3の画像情報83のいずれにおいても合焦し、かつその度合いに実質的な差のない部分を抽出することにより、距離範囲Δ内に入った指71の部分の画像情報を特定するとともに、指71が距離範囲Δ内に入ったことを判定することが可能である。 That is, the key contact detection unit 11 includes first image information 83 in which the aperture of the diaphragm is “small”, second image information 82 in which the aperture of the diaphragm is “medium”, Compared with the third image information 83 in which the aperture of the aperture is “large”, the first image information 81, the second image information 82, and the third image information 83 are in focus. and by extracting the portion without the substantial difference in the degree, as well as identifying the image information of the portion of the entering finger 71 a distance range Δ 3, the finger 71 enters the distance range Δ 3 Can be determined.

ここで、指が距離範囲Δよりも離れている場合、すなわち図7における指74の位置にある場合も、図8に示したように第1の画像情報81、第2の画像情報82、第3の画像情報83のいずれにおいても合焦の度合いの差がない画像が得られるが、指71の位置にあるときは、指位置記憶部16に記憶されたキー操作フラグがONであり、指74の位置にあるときは、指位置記憶部16のキー操作フラグがOFFであるため、キー接触検出部11は指が距離範囲Δ内に入ったか否かを検知することができる。 Here, when the finger is away than the distance range delta 1, i.e., when in the position of the finger 74 in FIG. 7, the first image information 81 as shown in FIG. 8, the second image information 82, In any of the third image information 83, an image having no difference in the degree of focus is obtained, but when the finger 71 is in the position, the key operation flag stored in the finger position storage unit 16 is ON, when in the position of the finger 74, since the key operation flag finger position storage unit 16 is OFF, the key touch detection unit 11 can detect whether or not entered the finger distance range Δ 3.

なお、本発明の第1の実施の形態における携帯電話装置50においては、携帯電話装置50が第1の画像記憶部7、第2の画像記憶部8、第3の画像記憶部9、指位置記憶部16およびキー配置記憶部14の五つの記憶部を備えている構成を示したが、これは本発明の第1の実施の形態における携帯電話装置50が五つの記憶媒体を備えている構成に限定されることを意味するものではない。例えば、携帯電話装置50が一つの記憶媒体を有し、その記憶媒体内で絞りの開口度毎に画像情報の記憶されるべき領域やキー配置の記憶されるべき領域がそれぞれ割り当てられている構成、または記憶媒体に記憶される画像情報それぞれが、対応する絞りの開口度を示す情報を付加情報として有する構成であってもよいことはいうまでもない。   In the mobile phone device 50 according to the first embodiment of the present invention, the mobile phone device 50 includes the first image storage unit 7, the second image storage unit 8, the third image storage unit 9, and the finger position. Although the configuration including the five storage units of the storage unit 16 and the key arrangement storage unit 14 is shown, this is a configuration in which the cellular phone device 50 according to the first embodiment of the present invention includes five storage media. It is not meant to be limited to. For example, the cellular phone device 50 has a single storage medium, and an area in which image information is stored and an area in which key arrangement is stored are allocated for each aperture of the diaphragm in the storage medium. It goes without saying that each piece of image information stored in the storage medium may include information indicating the aperture of the corresponding diaphragm as additional information.

さらに、本発明の第1の実施の形態における携帯電話装置50から携帯通信処理部60を除いた構成、すなわち、撮影部3、絞り調節部4、同期信号発生部5、振り分け部6、第1の画像記憶部7、第2の画像記憶部8、第3の画像記憶部9、指位置検出部10、キー接触検出部11、軌跡生成部12、キー操作判定部13、キー配置記憶部14、指位置記憶部16および表示部15を備えた入力装置を構成することも可能である。このような入力装置を構成すれば、外部に接続された情報装置に対して、非接触で指の動きを検出して数字や文字等の各種入力を行うことができる。   Furthermore, the structure which remove | excluded the portable communication process part 60 from the mobile telephone apparatus 50 in the 1st Embodiment of this invention, ie, the imaging | photography part 3, the aperture adjustment part 4, the synchronous signal generation part 5, the distribution part 6, 1st, Image storage unit 7, second image storage unit 8, third image storage unit 9, finger position detection unit 10, key contact detection unit 11, locus generation unit 12, key operation determination unit 13, and key arrangement storage unit 14. It is also possible to configure an input device including the finger position storage unit 16 and the display unit 15. If such an input device is configured, it is possible to perform various inputs such as numbers and characters by detecting the movement of the finger in a non-contact manner with respect to the information device connected to the outside.

次に、本発明の第1の実施の形態における携帯電話装置50の動作について説明する。図9は、本発明の第1の実施の形態における携帯電話装置50の動作ステップを示すフローチャートである。   Next, the operation of the mobile phone device 50 according to the first embodiment of the present invention will be described. FIG. 9 is a flowchart showing the operation steps of the mobile phone device 50 according to the first embodiment of the present invention.

図9に示したように、まず携帯電話装置50は、絞り調節部4によって絞り1の開口度を「小」状態にして、得られる光像を撮影部3で撮影する(S1)。ステップS1で撮影された画像情報を、振り分け部6は、第1の画像情報81として第1の画像記憶部7に記憶させる(S2)。   As shown in FIG. 9, the cellular phone device 50 first sets the aperture of the diaphragm 1 to the “small” state by the diaphragm adjustment unit 4 and photographs the resulting optical image with the photographing unit 3 (S <b> 1). The distribution unit 6 stores the image information captured in step S1 in the first image storage unit 7 as the first image information 81 (S2).

次に、絞り調節部4によって、絞り1の開口度を「中」状態にして、得られる光像を撮影部3で撮影する(S3)。ステップS3で撮影された画像情報を、振り分け部6は、第2の画像情報82として第2の画像記憶部8に記憶させる(S4)。   Next, the aperture adjusting unit 4 sets the aperture of the aperture 1 to the “medium” state, and the obtained optical image is captured by the imaging unit 3 (S3). The sorting unit 6 stores the image information captured in step S3 in the second image storage unit 8 as the second image information 82 (S4).

次に、絞り調節部4によって、絞り1の開口度を「大」状態にして、得られる光像を撮影部3で撮影する(S5)。ステップS5で撮影された画像情報を、振り分け部6は、第3の画像情報83として第3の画像記憶部9に記憶させる(S6)。   Next, the aperture adjustment unit 4 sets the aperture of the aperture 1 to the “large” state, and the obtained optical image is captured by the imaging unit 3 (S5). The distribution unit 6 stores the image information captured in step S5 in the third image storage unit 9 as the third image information 83 (S6).

なお、本発明は上述した三つの画像情報の撮影の順番に限定されるものでなく、いかなる順序で撮影してもよいものである。   Note that the present invention is not limited to the above-described order of photographing the three pieces of image information, and may be photographed in any order.

次にキー接触検出部11は、第1の画像記憶部7に記憶された第1の画像情報81と第2の画像記憶部8に記憶された第2の画像情報82と第3の画像記憶部9に記憶された第3の画像情報83との合焦度を比較する(S7)。   Next, the key contact detection unit 11 includes first image information 81 stored in the first image storage unit 7, second image information 82 stored in the second image storage unit 8, and third image storage. The degree of focus is compared with the third image information 83 stored in the unit 9 (S7).

これら三つの画像情報の合焦度に差があるとキー接触検出部11が判定した場合(S8)には、指位置検出部10が、第2の画像記憶部8に記憶された第2の画像情報82と第3の画像記憶部9に記憶された第3の画像情報83との合焦度を比較する(S9)。   When the key contact detection unit 11 determines that there is a difference in the degree of focus of these three image information (S8), the finger position detection unit 10 stores the second image stored in the second image storage unit 8. The degree of focus between the image information 82 and the third image information 83 stored in the third image storage unit 9 is compared (S9).

ステップS9において、第2の画像情報82と第3の画像情報83との合焦度に実質的な差がない場合と判定された場合(S10)には、未だ指51が所定の距離範囲Δ内に存在しない場合(図7における指73または指74の位置)であると考えられるので、指位置検出部10は指位置記憶部16に記憶されたキー操作フラグをOFFにし(S15)、ステップS1に戻り(S16)、再び第1の画像情報81の撮影を行う。一方、ステップS9において、指位置検出部10が第2の画像情報82と第3の画像情報83との合焦度に実質的な差があると判定した場合には、指51が携帯電話装置50から所定の距離範囲Δ内に存在する(図7における指72の位置にある)と考えられるので、指位置検出部10は第2の画像情報82と第3の画像情報83とにおいて合焦の度合いに差のある部分を抽出することにより、指72の含まれる領域を抽出することができ、その領域の重心または中心座標を算出することにより指72の二次元座標を検出することができる(S11)。そして、その二次元座標の値を指位置検出部10内に一時的に記憶する(S12)。また、指位置検出部10は、指位置記憶部16に記憶されたキー操作フラグをONとする(S13)。軌跡生成部12は、表示部15の入力誘導表示52に重畳させて指位置検出部10から出力された指72の二次元座標を軌跡53として表示する。 In step S9, when it is determined that there is no substantial difference in the degree of focus between the second image information 82 and the third image information 83 (S10), the finger 51 still has the predetermined distance range Δ. 2 (position of the finger 73 or the finger 74 in FIG. 7), the finger position detection unit 10 turns off the key operation flag stored in the finger position storage unit 16 (S15). Returning to step S1 (S16), the first image information 81 is taken again. On the other hand, when the finger position detection unit 10 determines in step S9 that there is a substantial difference in the degree of focus between the second image information 82 and the third image information 83, the finger 51 is present from 50 to within a predetermined distance range delta 2 since it is considered that (in the position of the finger 72 in FIG. 7), if the finger position detecting section 10 and the second image information 82 third image information 83 By extracting a portion having a difference in the degree of focus, it is possible to extract a region in which the finger 72 is included, and to detect the two-dimensional coordinates of the finger 72 by calculating the center of gravity or the center coordinates of the region. Yes (S11). Then, the value of the two-dimensional coordinate is temporarily stored in the finger position detection unit 10 (S12). Also, the finger position detection unit 10 turns on the key operation flag stored in the finger position storage unit 16 (S13). The trajectory generation unit 12 displays the two-dimensional coordinates of the finger 72 output from the finger position detection unit 10 as a trajectory 53 while being superimposed on the input guidance display 52 of the display unit 15.

ステップS7において、キー接触検出部11が第1の画像情報81、第2の画像情報82および第3の画像情報83との間に合焦度の実質的な差がないと判定した場合(S8)には、キー接触検出部11は、指位置記憶部16に記憶されたキー操作フラグを確認する(S17)。   In step S7, when the key contact detection unit 11 determines that there is no substantial difference in the degree of focus between the first image information 81, the second image information 82, and the third image information 83 (S8). ), The key contact detection unit 11 checks the key operation flag stored in the finger position storage unit 16 (S17).

ステップS17において、キー操作フラグがOFFである場合には、指51が図7における距離範囲Δの範囲外、すなわち図7における指74の位置にあり、やはり指51が押下されていないものと判定し、同じくステップS1に戻る(S18)。一方、ステップS17において、キー接触検出部11が指位置記憶部16に記憶されたキー操作フラグがONであると判定した場合には、キー接触検出部11が指51の位置が図7における距離範囲Δの範囲内にあると判定し、指51が押下された旨の信号をキー操作判定部13に送る。この場合には、キー操作判定部13は、キー接触検出部11からの指51が押下された旨の信号を受けて、指位置検出部10から送られた指72の二次元座標とキー配置記憶部14に記憶されたキー配置情報61とを比較し(S19)、ユーザの指51の押下がどのキーを操作するためのものであるかを判定し(S20)、そのキーに対応する情報を携帯通信処理部60に送る(S22)。ステップS19において、指51の位置に対応するキー情報がキー配置情報61にない場合には、ステップS1に戻る(S21)。 In step S17, when the key operation flag is OFF, outside fingers 51 distance range delta 1 in FIG. 7, i.e. in the position of the finger 74 in FIG. 7, and those not too finger 51 is pressed Then, the process returns to step S1 (S18). On the other hand, when the key contact detection unit 11 determines in step S17 that the key operation flag stored in the finger position storage unit 16 is ON, the key contact detection unit 11 determines that the position of the finger 51 is the distance in FIG. It is determined that it is within the range Δ 3 , and a signal indicating that the finger 51 has been pressed is sent to the key operation determination unit 13. In this case, the key operation determination unit 13 receives the signal indicating that the finger 51 is pressed from the key contact detection unit 11 and receives the two-dimensional coordinates of the finger 72 sent from the finger position detection unit 10 and the key arrangement. The key arrangement information 61 stored in the storage unit 14 is compared (S19), it is determined which key the user's finger 51 is pressed to operate (S20), and the information corresponding to the key Is sent to the mobile communication processing unit 60 (S22). In step S19, when the key information corresponding to the position of the finger 51 is not in the key arrangement information 61, the process returns to step S1 (S21).

このような動作を行うことにより、本発明の第1の実施の形態における携帯電話装置50によれば、ユーザの指51の二次元座標および押下の有無を非接触で検知することができるので、テンキーやキーボード等の入力部を設けることなく、数字や文字等の入力を行うことができる。   By performing such an operation, according to the mobile phone device 50 in the first embodiment of the present invention, the two-dimensional coordinates of the user's finger 51 and the presence or absence of pressing can be detected without contact. It is possible to input numbers and characters without providing an input unit such as a numeric keypad or a keyboard.

なお、本発明の第1の実施の形態においては、ユーザが指51を動かすことによって情報装置に入力を行う例を示したが、本発明は情報装置に指示を行う物体をなんら限定するものではない。例えば、指51以外にも、ペンや指示棒等を用いて情報を入力することができるものである。   In the first embodiment of the present invention, an example is shown in which the user performs input to the information device by moving the finger 51. However, the present invention does not limit the object that instructs the information device. Absent. For example, in addition to the finger 51, information can be input using a pen, a pointing stick, or the like.

また、本発明の第1の実施の形態における携帯電話装置50によれば、3枚の画像を撮影して画像の比較を行うことにより情報の入力が可能であるので、短時間に処理を行うことが可能である。   Also, according to the mobile phone device 50 of the first embodiment of the present invention, information can be input by taking three images and comparing the images, so that processing is performed in a short time. It is possible.

なお、本発明の第1の実施の形態においては、携帯電話装置50を例として用いて説明したが、本発明の情報装置はこれに限定されず、例えばパソコン装置やPDA装置等も広く含むことはいうまでもない。このような情報装置の一例として、図10に腕時計型の情報装置95の外観を示す。図10は、本発明の第1の実施の形態における情報装置の他の例を示す図であり、情報装置95は、図2に示した本発明の第1の実施の形態における携帯電話装置50と同様の構成を有しているものとする。図10に示したように、表示部15の小さい腕時計型の情報装置95においても、上述した携帯電話装置50と同様にキーボード等の入力部を設けなくとも、指51によって非接触に各種情報の入力を行うことができる。   In the first embodiment of the present invention, the mobile phone device 50 is described as an example. However, the information device of the present invention is not limited to this, and includes, for example, a personal computer device and a PDA device widely. Needless to say. As an example of such an information device, the appearance of a wristwatch-type information device 95 is shown in FIG. FIG. 10 is a diagram showing another example of the information device according to the first embodiment of the present invention. The information device 95 is the mobile phone device 50 according to the first embodiment of the present invention shown in FIG. It has the same configuration as As shown in FIG. 10, even in a wristwatch type information device 95 with a small display unit 15, various information items can be contacted by the finger 51 without contact, without providing an input unit such as a keyboard as in the mobile phone device 50 described above. Input can be made.

(第2の実施の形態)
次に、本発明の第2の実施の形態である情報装置について説明する。本発明の第2の実施の形態においても、第1の実施の形態と同様に、情報装置の一例として、携帯電話装置90を用いて説明を行う。図11は本発明の第2の実施の形態における携帯電話装置90の構成を示すブロック図である。図11に示したように、本発明の第2の実施の形態における携帯電話装置90の構成は、図2に示した本発明の第1の実施の形態における携帯電話装置50の構成と比較して、指位置記憶部16を備えない点、指位置検出部91が第1の画像記憶部7および第2の画像記憶部8に接続されている点、ならびに、キー接触検出部92が第2の画像記憶部8および第3の画像記憶部9に接続されている点が異なる。
(Second Embodiment)
Next, an information device according to a second embodiment of the present invention will be described. Also in the second embodiment of the present invention, as in the first embodiment, a description is given using a mobile phone device 90 as an example of an information device. FIG. 11 is a block diagram showing the configuration of the mobile phone device 90 according to the second embodiment of the present invention. As shown in FIG. 11, the configuration of the mobile phone device 90 in the second embodiment of the present invention is compared with the configuration of the mobile phone device 50 in the first embodiment of the present invention shown in FIG. The finger position storage unit 16 is not provided, the finger position detection unit 91 is connected to the first image storage unit 7 and the second image storage unit 8, and the key contact detection unit 92 is the second point. The image storage unit 8 and the third image storage unit 9 are connected to each other.

本発明の第2の実施の形態の携帯電話装置90においては、指位置検出部91は、第1の画像情報81および第2の画像情報82の合焦の度合いを比較することにより、その合焦の度合いが実質的に異なっている場合に、指51が距離範囲Δ内、すなわち図7における指73の位置にあるものとして、合焦の度合いが異なる部分の重心または中心座標を用いて指73の二次元座標として、キー操作判定部13および軌跡生成部12に送る。 In the mobile phone device 90 according to the second embodiment of the present invention, the finger position detection unit 91 compares the first image information 81 and the second image information 82 by comparing the degree of focusing. If the degree of focus is substantially different, 51 distance range Δ within 1 finger, i.e. as in the position of the finger 73 in FIG. 7, the degree of focusing by using the center of gravity or center coordinates of the different parts The two-dimensional coordinates of the finger 73 are sent to the key operation determination unit 13 and the locus generation unit 12.

また、本発明の第2の実施の形態における携帯電話装置90においては、キー接触検出部92は、第2の画像情報82および第3の画像情報83の合焦の度合いを比較し、その合焦の度合いが異なっている場合に、指51が距離範囲Δ内、すなわち図7における指72の位置にあるものとしてキー接触がされたものと判定し、仮想キーボード54のキーが押された旨の信号をキー操作判定部13に送る。 Further, in the mobile phone device 90 according to the second embodiment of the present invention, the key contact detection unit 92 compares the degree of focusing between the second image information 82 and the third image information 83, and If the degree of focus is different, within finger 51 a distance range delta 2, i.e. it determines that the key contact is as in the position of the finger 72 in FIG. 7, the key of the virtual keyboard 54 is depressed A signal to that effect is sent to the key operation determination unit 13.

他の構成要件の各機能は第1の実施の形態の携帯電話装置50において説明した各構成要件の機能と同じであるので、詳細な説明は省略する。   Since the functions of the other constituent elements are the same as the functions of the constituent elements described in the mobile phone device 50 of the first embodiment, detailed description thereof is omitted.

次に、本発明の第2の実施の形態における携帯電話装置90の動作について説明する。図12は本発明の第2の実施の形態における携帯電話装置90の動作ステップを示すフローチャートである。   Next, the operation of the cellular phone device 90 in the second embodiment of the present invention will be described. FIG. 12 is a flowchart showing the operation steps of the cellular phone device 90 according to the second embodiment of the present invention.

図12に示したように、ステップS1からステップS6までの動作ステップは、図9に示した本発明の第1の実施の形態における携帯電話装置50の動作ステップと同じであるので、その説明を省略する。   As shown in FIG. 12, the operation steps from step S1 to step S6 are the same as the operation steps of the cellular phone device 50 in the first embodiment of the present invention shown in FIG. Omitted.

第1の画像情報81、第2の画像情報82および第3の画像情報83の記憶部への記憶がそれぞれ完了すると、指位置検出部91は、第1の画像記憶部7に記憶された第1の画像情報81および第2の画像記憶部8に記憶された第2の画像情報82の合焦の度合いを比較する(S31)。合焦の度合いに差がある場合(S8)には指51が図7における距離範囲Δ、すなわち指73の位置に入ったとみなしてステップS11に進み、差がない場合(S8)にはステップS1に戻る(S30)。 When the storage of the first image information 81, the second image information 82 and the third image information 83 in the storage unit is completed, the finger position detection unit 91 stores the first image information 81 stored in the first image storage unit 7. The degree of focus between the first image information 81 and the second image information 82 stored in the second image storage unit 8 is compared (S31). If there is a difference in the degree of focus (S8), it is considered that the finger 51 has entered the distance range Δ 1 in FIG. 7, that is, the position of the finger 73, and the process proceeds to step S11. The process returns to S1 (S30).

指位置検出部91が指73の二次元座標を算出した(S11)後に、キー接触検出部92は第2の画像情報82と第3の画像情報83との合焦の度合いの比較を行う(S32)。第2の画像情報82と第3の画像情報83との合焦の度合いに実質的な差がある場合(S33)には、指51が図7における距離範囲Δ、すなわち指72の位置に入ったとみなしてステップS19に進む一方、差がないと判定された場合(S33)には、指73の位置にあるものとみなしてステップS1に戻る(S35)。 After the finger position detector 91 calculates the two-dimensional coordinates of the finger 73 (S11), the key contact detector 92 compares the degree of focus between the second image information 82 and the third image information 83 ( S32). When there is a substantial difference in the degree of focus between the second image information 82 and the third image information 83 (S33), the finger 51 is in the distance range Δ 2 in FIG. On the other hand, if it is determined that there is no difference (S33), it is assumed that the finger 73 is located, and the process returns to step S1 (S35).

なお、ステップS19からステップS22までの各処理ステップは、第1の実施の形態の図9に示した各処理ステップと同様であるので、その説明を省略する。   Note that the processing steps from step S19 to step S22 are the same as the processing steps shown in FIG. 9 of the first embodiment, and thus the description thereof is omitted.

以上説明したように、本発明の第2の実施の形態における携帯電話装置90においても、第1の実施の形態において説明した携帯電話装置50と同様に、指を装置に触れることなく、指の位置を検出して、対応する情報を入力することが可能となる。本発明の第2の実施の形態における携帯電話装置90では、距離範囲Δは指51の軌跡53が表示部15上に表示される範囲(図1における領域A)となり、距離範囲Δは、仮想キーボード54が押下されたと判定される範囲(図1における領域A)となる。 As described above, in the mobile phone device 90 according to the second embodiment of the present invention, as in the mobile phone device 50 described in the first embodiment, the finger can be touched without touching the device. It becomes possible to detect the position and input the corresponding information. In the cellular phone device 90 according to the second embodiment of the present invention, the distance range Δ 1 is a range in which the locus 53 of the finger 51 is displayed on the display unit 15 (region A 1 in FIG. 1 ), and the distance range Δ 2. Is a range in which it is determined that the virtual keyboard 54 is pressed (area A 2 in FIG. 1).

本発明の第2の実施の形態における携帯電話装置90においても、3枚の画像を撮影して画像の比較を行うことにより情報の入力が可能であるので、短時間に処理を行うことが可能であることは第1の実施の形態と同じである。   Also in the cellular phone device 90 according to the second embodiment of the present invention, information can be input by taking three images and comparing the images, so that processing can be performed in a short time. This is the same as in the first embodiment.

本発明に係る情報装置および情報入力方法およびプログラムによれば、開口度のそれぞれ異なる複数の画像を比較するという比較的簡易な処理によって、ユーザの指等の指示物体の動きを迅速に検出して情報を入力することができるという効果を奏することができるので、携帯電話装置等の情報装置、特に非接触に情報入力することのできる情報装置等として有用である。   According to the information apparatus, the information input method, and the program according to the present invention, it is possible to quickly detect the movement of the pointing object such as the user's finger by a relatively simple process of comparing a plurality of images having different opening degrees. Since an effect that information can be input can be achieved, the present invention is useful as an information device such as a mobile phone device, particularly an information device that can input information without contact.

本発明の第1の実施の形態における携帯電話装置の概要について説明するための図The figure for demonstrating the outline | summary of the mobile telephone apparatus in the 1st Embodiment of this invention 本発明の第1の実施の形態における携帯電話装置の構成を示すブロック図The block diagram which shows the structure of the mobile telephone apparatus in the 1st Embodiment of this invention 本発明の第1の実施の形態における携帯電話装置における絞りの開口の違いによる合焦可能範囲を示す図The figure which shows the focus possible range by the difference in the opening of the aperture_diaphragm | restriction in the mobile telephone apparatus in the 1st Embodiment of this invention. 本発明の第1の実施の形態における携帯電話装置のキー配置情報の一例を示す図The figure which shows an example of the key arrangement | positioning information of the mobile telephone apparatus in the 1st Embodiment of this invention 本発明の第1の実施の形態における携帯電話装置の指位置検出部またはキー接触検出部の機能の基本原理を示す図The figure which shows the basic principle of the function of the finger position detection part of the mobile telephone apparatus in the 1st Embodiment of this invention, or a key contact detection part. 本発明の第1の実施の形態の携帯電話装置における絞りを変化させた場合の焦点合わせの位置に対する物体深度の値の変化を示す図The figure which shows the change of the value of the object depth with respect to the position of a focus at the time of changing the aperture_diaphragm | restriction in the mobile telephone apparatus of the 1st Embodiment of this invention. 本発明の第1の実施の形態の携帯電話装置における指位置検出部およびキー接触検出部の動作原理について説明するための図The figure for demonstrating the principle of operation of the finger position detection part and key contact detection part in the mobile telephone apparatus of the 1st Embodiment of this invention. 本発明の第1の実施の形態における携帯電話装置によって撮影された画像情報の一例を示す図The figure which shows an example of the image information image | photographed with the mobile telephone apparatus in the 1st Embodiment of this invention 本発明の第1の実施の形態における携帯電話装置の動作ステップを示すフローチャートThe flowchart which shows the operation | movement step of the mobile telephone apparatus in the 1st Embodiment of this invention. 本発明の第1の実施の形態における情報装置の他の例を示す図The figure which shows the other example of the information apparatus in the 1st Embodiment of this invention 本発明の第2の実施の形態における携帯電話装置の構成を示すブロック図The block diagram which shows the structure of the mobile telephone apparatus in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における携帯電話装置の動作ステップを示すフローチャートThe flowchart which shows the operation | movement step of the mobile telephone apparatus in the 2nd Embodiment of this invention.

符号の説明Explanation of symbols

1 絞り
2,32 レンズ
3 撮影部
4 絞り調節部
5 同期信号発生部
6 振り分け部
7 第1の画像記憶部
8 第2の画像記憶部
9 第3の画像記憶部
10,91 指位置検出部
11,92 キー接触検出部
12 軌跡生成部
13 キー操作判定部
14 キー配置記憶部
15 表示部
16 指位置記憶部
31 物体
33 撮像素子
50,90 携帯電話装置
51,71,72,73,74 指
52 入力誘導表示
53 軌跡
54 仮想キーボード
60 携帯通信処理部
61 キー配置情報
81 第1の画像情報
82 第2の画像情報
83 第3の画像情報
95 情報装置
DESCRIPTION OF SYMBOLS 1 Aperture 2,32 Lens 3 Image pick-up part 4 Aperture adjustment part 5 Synchronization signal generation part 6 Sorting part 7 1st image memory | storage part 8 2nd image memory | storage part 9 3rd image memory | storage part 10,91 Finger position detection part 11 , 92 Key contact detection unit 12 Trajectory generation unit 13 Key operation determination unit 14 Key arrangement storage unit 15 Display unit 16 Finger position storage unit 31 Object 33 Image sensor 50, 90 Mobile phone device 51, 71, 72, 73, 74 Finger 52 Input guidance display 53 Trajectory 54 Virtual keyboard 60 Mobile communication processing unit 61 Key arrangement information 81 First image information 82 Second image information 83 Third image information 95 Information device

Claims (14)

物体の動きによって非接触に情報を発生する情報装置であって、
絞り部と、
前記絞り部の開口度を調節する開口度調節部と、
前記物体を撮影する撮影部と、
前記開口度調節部により前記絞り部の開口度を異ならせて前記物体を前記撮影部で撮影して取得した、互いに開口度の異なる複数の画像を比較することにより前記物体が所定の領域内にあるか否かを判定する距離判定部と、
前記物体が前記所定の領域内にあると判定された場合に前記物体の位置に対応した所定の情報を発生する情報発生部を備えたことを特徴とする情報装置。
An information device that generates information in a non-contact manner by the movement of an object,
An aperture,
An aperture adjuster for adjusting the aperture of the aperture,
A photographing unit for photographing the object;
The object is within a predetermined region by comparing a plurality of images having different opening degrees obtained by photographing the object with the photographing unit while varying the opening degree of the aperture unit by the opening degree adjusting unit. A distance determination unit that determines whether or not there is,
An information apparatus comprising: an information generation unit that generates predetermined information corresponding to a position of the object when it is determined that the object is in the predetermined area.
前記物体の互いに開口度の異なる複数の画像の中から選択した一つの画像から前記物体の二次元座標を算出する座標算出部を備え、
前記情報発生部は、前記物体の二次元座標に応じて異なる情報を発生することを特徴とする請求項1に記載の情報装置。
A coordinate calculation unit that calculates two-dimensional coordinates of the object from one image selected from a plurality of images having different opening degrees of the object;
The information device according to claim 1, wherein the information generation unit generates different information according to two-dimensional coordinates of the object.
前記情報発生部が前記物体の二次元座標に対応させて発生する情報を記憶する情報記憶部を備え、
前記情報発生部は、前記物体の二次元座標の情報および前記情報記憶部に記憶された情報にもとづいて前記異なる情報を発生することを特徴とする請求項2に記載の情報装置。
An information storage unit that stores information generated in correspondence with the two-dimensional coordinates of the object;
The information device according to claim 2, wherein the information generation unit generates the different information based on information of two-dimensional coordinates of the object and information stored in the information storage unit.
前記情報記憶部に記憶された情報にもとづいて、前記物体の二次元座標に対応させて前記情報発生部より発生する情報をキーボード状に表示する表示部を備えたことを特徴とする請求項3に記載の情報装置。 4. A display unit for displaying information generated from the information generation unit in a keyboard shape corresponding to the two-dimensional coordinates of the object based on the information stored in the information storage unit. The information device described in 1. 前記物体の移動軌跡を生成する軌跡生成部を備え、
前記距離判定部は、前記物体が前記所定の領域よりも大きな軌跡表示領域内にあるか否かを判定し、
前記距離判定部において前記物体が前記軌跡表示領域内にあると判定された場合に、前記表示部は前記物体の移動軌跡を表示することを特徴とする請求項4に記載の情報装置。
A trajectory generator for generating a movement trajectory of the object;
The distance determination unit determines whether or not the object is in a locus display area larger than the predetermined area,
The information device according to claim 4, wherein when the distance determination unit determines that the object is within the locus display area, the display unit displays a movement locus of the object.
前記距離判定部は、前記物体の互いに開口度の異なる複数の画像における合焦度の違いにもとづいて前記物体が前記所定の領域内にあるか否かを判別することを特徴とする請求項1から請求項5までのいずれか1項に記載の情報装置。 The distance determination unit determines whether or not the object is in the predetermined region based on a difference in focus degrees in a plurality of images having different opening degrees of the object. The information device according to any one of claims 1 to 5. 前記距離判定部は、前記物体の互いに開口度の異なる複数の画像における合焦度を、DCT処理した場合の係数にもとづいて計算することを特徴とする請求項6に記載の情報装置。 The information device according to claim 6, wherein the distance determination unit calculates a degree of focus in a plurality of images having different opening degrees of the object based on a coefficient when DCT processing is performed. 前記距離判定部は、前記物体の互いに開口度の異なる複数の画像における合焦度を、DCT処理した場合の所定周波数の係数値を積算して計算することを特徴とする請求項7に記載の情報装置。 8. The distance determination unit according to claim 7, wherein the in-focus degree in the plurality of images having different opening degrees of the object is calculated by integrating coefficient values of a predetermined frequency when DCT processing is performed. Information device. 前記撮影部は、開口度が異なる3枚の画像を撮影し、
前記距離判定部は、開口度が異なる3枚の画像のうち、もっとも開口度の大きな第1の画像と前記第1の画像よりも開口度の小さな第2の画像とを用いて前記物体が前記軌跡表示領域内にあるか否かの判定を行い、前記第1の画像、前記第2の画像、および、前記第2の画像よりも開口度の小さな第3の画像を用いて前記物体が前記所定の領域内にあるか否かを判定することを特徴とする請求項5から請求項8までのいずれか1項に記載の情報装置。
The imaging unit captures three images with different apertures,
The distance determination unit uses the first image having the largest opening degree and the second image having the smaller opening degree than the first image among the three images having different opening degrees, It is determined whether or not the object is in a locus display area, and the object is moved using the first image, the second image, and a third image having a smaller opening degree than the second image. The information device according to claim 5, wherein it is determined whether or not it is within a predetermined area.
前記撮影部は、開口度が異なる3枚の画像を撮影し、
前記距離判定部は、開口度が異なる3枚の画像のうち、もっとも開口度の小さい第1の画像と前記第1の画像よりも開口度の大きな第2の画像とを用いて前記物体が前記軌跡表示領域内にあるか否かの判定を行い、前記第2の画像と前記第2の画像よりも開口度の大きな第3の画像とを用いて前記物体が前記所定の領域内にあるか否かを判定することを特徴とする請求項5から請求項8までのいずれか1項に記載の情報装置。
The imaging unit captures three images with different apertures,
The distance determination unit uses the first image having the smallest opening degree and the second image having the larger opening degree than the first image among the three images having different opening degrees, It is determined whether or not the object is in the locus display area, and whether the object is in the predetermined area using the second image and the third image having a larger opening degree than the second image. The information device according to any one of claims 5 to 8, wherein it is determined whether or not.
前記絞り部は、液晶シャッタを有することを特徴とする請求項1から請求項10までのいずれか1項に記載の情報装置。 The information device according to claim 1, wherein the aperture section includes a liquid crystal shutter. 前記開口度調節部は、前記液晶シャッタを透過する光線の光量が一定になるように前記光量を調節する光量調節部を有することを特徴とする請求項11に記載の情報装置。 12. The information apparatus according to claim 11, wherein the opening degree adjustment unit includes a light amount adjustment unit that adjusts the light amount so that a light amount of light passing through the liquid crystal shutter is constant. 第1の絞り開口度で物体の第1の画像を撮影する第1のステップと、
前記第1の絞り開口度よりも大きな第2の絞り開口度で、前記物体の第2の画像を撮影する第2のステップと、
前記第1の画像および前記第2の画像それぞれの合焦度を算出する第3のステップと、
前記第1の画像および前記第2の画像それぞれの合焦度を比較することにより、前記物体が所定の領域内にあるか否かを判定する第4のステップと、
前記物体が前記所定の領域内にあると判定された場合に、前記物体の位置に対応した所定の情報を入力する第5のステップとを備えたことを特徴とする情報入力方法。
A first step of taking a first image of an object with a first aperture opening;
A second step of taking a second image of the object with a second aperture aperture greater than the first aperture aperture;
A third step of calculating a degree of focus of each of the first image and the second image;
A fourth step of determining whether or not the object is in a predetermined region by comparing the degrees of focus of the first image and the second image;
An information input method comprising: a fifth step of inputting predetermined information corresponding to the position of the object when it is determined that the object is in the predetermined area.
コンピュータに、
物体の第1の絞り開口度で撮影された画像を入力する第1のステップと、
前記第1の絞り開口度よりも大きな第2の絞り開口度で撮影された画像を入力する第2のステップと、
前記第1の絞り開口度で撮影された画像および前記第2の絞り開口度で撮影された画像それぞれの合焦度を算出する第3のステップと、
前記第1の絞り開口度で撮影された画像および前記第2の絞り開口度で撮影された画像それぞれの合焦度を比較することにより、前記物体が所定の領域内にあるか否かを判定する第4のステップと、
前記物体が前記所定の領域内にあると判定された場合に、前記物体の位置に対応した所定の情報を発生する第5のステップとを実行させることを特徴とするプログラム。
On the computer,
A first step of inputting an image taken with a first aperture of the object;
A second step of inputting an image photographed at a second aperture opening degree larger than the first aperture opening degree;
A third step of calculating a degree of focus of each of the image captured with the first aperture opening degree and the image captured with the second aperture opening degree;
It is determined whether or not the object is within a predetermined region by comparing the degrees of focus of the image captured with the first aperture opening degree and the image captured with the second aperture opening degree. A fourth step to:
And a fifth step of generating predetermined information corresponding to the position of the object when it is determined that the object is within the predetermined area.
JP2004187735A 2004-06-25 2004-06-25 Information device, information input method, and program Pending JP2006010489A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004187735A JP2006010489A (en) 2004-06-25 2004-06-25 Information device, information input method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004187735A JP2006010489A (en) 2004-06-25 2004-06-25 Information device, information input method, and program

Publications (1)

Publication Number Publication Date
JP2006010489A true JP2006010489A (en) 2006-01-12

Family

ID=35777914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004187735A Pending JP2006010489A (en) 2004-06-25 2004-06-25 Information device, information input method, and program

Country Status (1)

Country Link
JP (1) JP2006010489A (en)

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213245A (en) * 2006-02-08 2007-08-23 Nec Corp Portable terminal and program
KR100843590B1 (en) 2006-07-19 2008-07-04 엠텍비젼 주식회사 Optical pointing apparatus and mobile terminal having the same
JP2009141441A (en) * 2007-12-03 2009-06-25 Nec Corp Character input-functional operation device, method, program, and portable terminal
JP2010049583A (en) * 2008-08-24 2010-03-04 Teruhiko Yagami Wrist watch type electronic note apparatus
JP2010522492A (en) * 2007-03-26 2010-07-01 イデント テクノロジー アーゲー Mobile communication device and input device for the mobile communication device
JP2010205223A (en) * 2009-03-06 2010-09-16 Seiko Epson Corp System and device for control following gesture for virtual object
WO2010135076A2 (en) * 2009-05-22 2010-11-25 Motorola, Inc. Sensing assembly for mobile device
JP2011039673A (en) * 2009-08-07 2011-02-24 Sony Corp Apparatus and method for detecting position
JP2011081506A (en) * 2009-10-05 2011-04-21 Hitachi Consumer Electronics Co Ltd Video display device and method of controlling display thereof
US8030914B2 (en) 2008-12-29 2011-10-04 Motorola Mobility, Inc. Portable electronic device having self-calibrating proximity sensors
US8269175B2 (en) 2009-05-22 2012-09-18 Motorola Mobility Llc Electronic device with sensing assembly and method for detecting gestures of geometric shapes
US8275412B2 (en) 2008-12-31 2012-09-25 Motorola Mobility Llc Portable electronic device having directional proximity sensors based on device orientation
US8294105B2 (en) 2009-05-22 2012-10-23 Motorola Mobility Llc Electronic device with sensing assembly and method for interpreting offset gestures
US8319170B2 (en) 2009-07-10 2012-11-27 Motorola Mobility Llc Method for adapting a pulse power mode of a proximity sensor
US8344325B2 (en) 2009-05-22 2013-01-01 Motorola Mobility Llc Electronic device with sensing assembly and method for detecting basic gestures
US8391719B2 (en) 2009-05-22 2013-03-05 Motorola Mobility Llc Method and system for conducting communication between mobile devices
US8542186B2 (en) 2009-05-22 2013-09-24 Motorola Mobility Llc Mobile device with user interaction capability and method of operating same
JP2013541110A (en) * 2011-09-27 2013-11-07 イーロ・タッチ・ソリューションズ・インコーポレイテッド Gesture-based input scaling
US8619029B2 (en) 2009-05-22 2013-12-31 Motorola Mobility Llc Electronic device with sensing assembly and method for interpreting consecutive gestures
US8665227B2 (en) 2009-11-19 2014-03-04 Motorola Mobility Llc Method and apparatus for replicating physical key function with soft keys in an electronic device
JP2014082605A (en) * 2012-10-15 2014-05-08 Canon Marketing Japan Inc Information processing apparatus, and method of controlling and program for the same
JP2014102842A (en) * 2012-11-20 2014-06-05 Samsung Electronics Co Ltd User gesture input to wearable electronic device involving movement of device
US8751056B2 (en) 2010-05-25 2014-06-10 Motorola Mobility Llc User computer device with temperature sensing capabilities and method of operating same
US8788676B2 (en) 2009-05-22 2014-07-22 Motorola Mobility Llc Method and system for controlling data transmission to or from a mobile device
US8963845B2 (en) 2010-05-05 2015-02-24 Google Technology Holdings LLC Mobile device with temperature sensing capability and method of operating same
US8963885B2 (en) 2011-11-30 2015-02-24 Google Technology Holdings LLC Mobile device for interacting with an active stylus
US9063591B2 (en) 2011-11-30 2015-06-23 Google Technology Holdings LLC Active styluses for interacting with a mobile device
US9103732B2 (en) 2010-05-25 2015-08-11 Google Technology Holdings LLC User computer device with temperature sensing capabilities and method of operating same
JP2016517505A (en) * 2013-03-15 2016-06-16 インテル・コーポレーション Adaptive depth detection
US9448714B2 (en) 2011-09-27 2016-09-20 Elo Touch Solutions, Inc. Touch and non touch based interaction of a user with a device
CN114503040A (en) * 2019-11-22 2022-05-13 欧姆龙株式会社 Work instruction system and work instruction method

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213245A (en) * 2006-02-08 2007-08-23 Nec Corp Portable terminal and program
KR100843590B1 (en) 2006-07-19 2008-07-04 엠텍비젼 주식회사 Optical pointing apparatus and mobile terminal having the same
JP2010522492A (en) * 2007-03-26 2010-07-01 イデント テクノロジー アーゲー Mobile communication device and input device for the mobile communication device
US9141148B2 (en) 2007-03-26 2015-09-22 Microchip Technology Germany Gmbh Mobile communication device and input device for the same
KR101429494B1 (en) * 2007-03-26 2014-09-19 마이크로칩 테크놀로지 저머니 Ⅱ 게엠베하 운트 콤파니 카게 Mobile communication device and input device for the same
JP2009141441A (en) * 2007-12-03 2009-06-25 Nec Corp Character input-functional operation device, method, program, and portable terminal
JP2010049583A (en) * 2008-08-24 2010-03-04 Teruhiko Yagami Wrist watch type electronic note apparatus
US8030914B2 (en) 2008-12-29 2011-10-04 Motorola Mobility, Inc. Portable electronic device having self-calibrating proximity sensors
US8275412B2 (en) 2008-12-31 2012-09-25 Motorola Mobility Llc Portable electronic device having directional proximity sensors based on device orientation
US8346302B2 (en) 2008-12-31 2013-01-01 Motorola Mobility Llc Portable electronic device having directional proximity sensors based on device orientation
JP2010205223A (en) * 2009-03-06 2010-09-16 Seiko Epson Corp System and device for control following gesture for virtual object
US8788676B2 (en) 2009-05-22 2014-07-22 Motorola Mobility Llc Method and system for controlling data transmission to or from a mobile device
WO2010135076A2 (en) * 2009-05-22 2010-11-25 Motorola, Inc. Sensing assembly for mobile device
US8294105B2 (en) 2009-05-22 2012-10-23 Motorola Mobility Llc Electronic device with sensing assembly and method for interpreting offset gestures
US8304733B2 (en) 2009-05-22 2012-11-06 Motorola Mobility Llc Sensing assembly for mobile device
US8344325B2 (en) 2009-05-22 2013-01-01 Motorola Mobility Llc Electronic device with sensing assembly and method for detecting basic gestures
US8970486B2 (en) 2009-05-22 2015-03-03 Google Technology Holdings LLC Mobile device with user interaction capability and method of operating same
US8391719B2 (en) 2009-05-22 2013-03-05 Motorola Mobility Llc Method and system for conducting communication between mobile devices
US8542186B2 (en) 2009-05-22 2013-09-24 Motorola Mobility Llc Mobile device with user interaction capability and method of operating same
US8269175B2 (en) 2009-05-22 2012-09-18 Motorola Mobility Llc Electronic device with sensing assembly and method for detecting gestures of geometric shapes
US8619029B2 (en) 2009-05-22 2013-12-31 Motorola Mobility Llc Electronic device with sensing assembly and method for interpreting consecutive gestures
WO2010135076A3 (en) * 2009-05-22 2011-02-03 Motorola Mobility, Inc. Sensing assembly for mobile device
US8319170B2 (en) 2009-07-10 2012-11-27 Motorola Mobility Llc Method for adapting a pulse power mode of a proximity sensor
US8519322B2 (en) 2009-07-10 2013-08-27 Motorola Mobility Llc Method for adapting a pulse frequency mode of a proximity sensor
JP2011039673A (en) * 2009-08-07 2011-02-24 Sony Corp Apparatus and method for detecting position
JP2011081506A (en) * 2009-10-05 2011-04-21 Hitachi Consumer Electronics Co Ltd Video display device and method of controlling display thereof
US8665227B2 (en) 2009-11-19 2014-03-04 Motorola Mobility Llc Method and apparatus for replicating physical key function with soft keys in an electronic device
US8963845B2 (en) 2010-05-05 2015-02-24 Google Technology Holdings LLC Mobile device with temperature sensing capability and method of operating same
US8751056B2 (en) 2010-05-25 2014-06-10 Motorola Mobility Llc User computer device with temperature sensing capabilities and method of operating same
US9103732B2 (en) 2010-05-25 2015-08-11 Google Technology Holdings LLC User computer device with temperature sensing capabilities and method of operating same
US9448714B2 (en) 2011-09-27 2016-09-20 Elo Touch Solutions, Inc. Touch and non touch based interaction of a user with a device
JP2013541110A (en) * 2011-09-27 2013-11-07 イーロ・タッチ・ソリューションズ・インコーポレイテッド Gesture-based input scaling
US8963885B2 (en) 2011-11-30 2015-02-24 Google Technology Holdings LLC Mobile device for interacting with an active stylus
US9063591B2 (en) 2011-11-30 2015-06-23 Google Technology Holdings LLC Active styluses for interacting with a mobile device
JP2014082605A (en) * 2012-10-15 2014-05-08 Canon Marketing Japan Inc Information processing apparatus, and method of controlling and program for the same
JP2014102842A (en) * 2012-11-20 2014-06-05 Samsung Electronics Co Ltd User gesture input to wearable electronic device involving movement of device
JP2016517505A (en) * 2013-03-15 2016-06-16 インテル・コーポレーション Adaptive depth detection
CN114503040A (en) * 2019-11-22 2022-05-13 欧姆龙株式会社 Work instruction system and work instruction method

Similar Documents

Publication Publication Date Title
JP2006010489A (en) Information device, information input method, and program
US11670267B2 (en) Computer vision and mapping for audio applications
CN109564495B (en) Display device, storage medium, display method, and control device
CN106341522B (en) Mobile terminal and control method thereof
US8854433B1 (en) Method and system enabling natural user interface gestures with an electronic system
EP2687959A1 (en) Detection device, input device, projector, and electronic apparatus
US20060044399A1 (en) Control system for an image capture device
JPWO2018003861A1 (en) Display device and control device
US20110273369A1 (en) Adjustment of imaging property in view-dependent rendering
CN110035218B (en) Image processing method, image processing device and photographing equipment
JP2009140368A (en) Input device, display device, input method, display method, and program
JP7371264B2 (en) Image processing method, electronic equipment and computer readable storage medium
WO2018045592A1 (en) Image shooting method and device, and terminal
KR102523091B1 (en) System and Method for Providing Location-based Content using Motion Base and Tracker in Immersive VR Experience Space
KR101741356B1 (en) Method for measuring contact angle using smartphone
US11350025B2 (en) Optical device and mobile terminal comprising same
JP3851601B2 (en) Mobile terminal device
KR102151206B1 (en) Mobile terminal and method for controlling the same
US20130187854A1 (en) Pointing Device Using Camera and Outputting Mark
KR101204868B1 (en) Projector with virtual input interface and Method of inputting data with virtual input interface
CN114115544A (en) Human-computer interaction method, three-dimensional display device and storage medium
US10783666B2 (en) Color analysis and control using an electronic mobile device transparent display screen integral with the use of augmented reality glasses
JP5118663B2 (en) Information terminal equipment
JP2006186658A (en) Image display apparatus and cellular phone
JP7146944B2 (en) Display device