WO2006004155A1 - 3d coordinate input device using terminal device - Google Patents

3d coordinate input device using terminal device Download PDF

Info

Publication number
WO2006004155A1
WO2006004155A1 PCT/JP2005/012488 JP2005012488W WO2006004155A1 WO 2006004155 A1 WO2006004155 A1 WO 2006004155A1 JP 2005012488 W JP2005012488 W JP 2005012488W WO 2006004155 A1 WO2006004155 A1 WO 2006004155A1
Authority
WO
WIPO (PCT)
Prior art keywords
moving image
terminal device
operation information
image
display
Prior art date
Application number
PCT/JP2005/012488
Other languages
French (fr)
Japanese (ja)
Inventor
Akihiko Iketani
Noboru Nakajima
Original Assignee
Nec Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nec Corporation filed Critical Nec Corporation
Publication of WO2006004155A1 publication Critical patent/WO2006004155A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Definitions

  • the present invention relates to a three-dimensional coordinate input device, and more particularly to a three-dimensional coordinate input device using a camera capable of shooting a moving image.
  • FIG. 3 is a flowchart showing the operation of the three-dimensional coordinate input apparatus according to the first embodiment.
  • FIG. 5 is an external view of a terminal device equipped with a three-dimensional coordinate input device according to a third embodiment of the present invention.
  • FIG. 6 is a block diagram of a three-dimensional coordinate input device according to a fourth embodiment of the present invention.
  • FIG. 7 is a diagram showing a three-dimensional coordinate system.
  • FIG. 8 is a diagram showing how three-dimensional motion is calculated.
  • the operation information generation unit 13 converts the three-dimensional motion calculated by the three-dimensional motion calculation unit 12 into operation information for changing the image displayed on the display unit 21.
  • the camera 11 may include a light source such as a flash device or a light for clearly photographing the user 40 as a subject.
  • a light source such as a flash device or a light for clearly photographing the user 40 as a subject.
  • the backlight of the display unit 21 attached to the user 40 may be used as the light source.
  • the camera 11 since the camera 11 is installed so as to photograph the face of the user 40, the subject 30 can always be captured within a certain distance from the camera 11, and is suitable around the user 40. Even when a sharp subject does not exist, 3D motion can be calculated stably.
  • the three-dimensional coordinate input device according to the present embodiment includes the first and second cameras in that the terminal device 20 has cameras 11 that capture the face of the subject 30 and the user 40, respectively. This is different from the three-dimensional coordinate input device according to the embodiment.
  • the three-dimensional motion can be calculated stably.
  • the accuracy of the three-dimensional motion is improved.
  • a three-dimensional coordinate input program which is a processing card executed in each part of the three-dimensional motion calculation unit 12, the operation information generation unit 13, and the display control unit 14 in FIG.
  • the three-dimensional coordinate input program is executed by a computer mounted on the terminal device 20 in advance.
  • FIG. 7 is an explanatory diagram showing a three-dimensional coordinate system.
  • the origin 200 is the intersection of the optical axis of the digital camera and the image plane, and the X-axis 201 and y-axis 202 are made to coincide with the X-axis and y-axis of the digital camera image plane, respectively.
  • the z-axis 203 is an axis that passes through the origin 200 and is orthogonal to the x-axis 201 and the y-axis 202, and the direction in which the subject exists is positive.
  • FIG. 8 is an explanatory diagram showing a specific example of the calculation state of the three-dimensional motion.
  • the image power captured by the digital camera is changed from the state in which the face of the user 40 as the subject 205 exists in the left area of the captured image, as shown in FIG. 8 (B).
  • User 40 ’s face Assume that the state has changed to exist in the right region of the captured image.
  • a three-dimensional movement As shown in Fig. 8, as a three-dimensional movement, a rightward movement (positive direction of the X axis) is observed on the image.
  • the three-dimensional motion calculation unit 12 calculates the parallel movement in the negative direction of the X axis and the amount of the movement.
  • the movement amount that is the same as the movement amount of the digital camera in the x and y axis directions is set as the scroll amount in the image viewer portion, and the movement amount that is the same as the movement amount in the z axis direction is enlarged or reduced in the image viewer portion. Map to a small scale.
  • FIG. 10 is an explanatory diagram showing a specific example of an image displayed on the display unit 21 by display control of the image viewer unit.
  • the case where the image taken by the digital camera changes from FIG. 8A to FIG. 8B will be described as an example.
  • FIG. 10C For example, assume that an image as shown in FIG. 10C is displayed on the display unit 21 when the image of FIG. 8A is taken by the digital camera.
  • An image shown in FIG. 10C is a partial image 302 of the entire image shown in FIG. FIG. 10A shows an entire image that can be displayed on the display unit 21 by the image viewer unit in this example.
  • the image viewer unit moves the frame in which the partial image 302 is located in the movement direction indicated by the operation information (X-axis negative direction) by the movement amount indicated by the operation information. Then, the partial image 301 that is an image surrounded by the moved frame is cut out from the entire image. Then, the image viewer unit changes the display image of the display unit 21 from the partial image 302 shown in FIG. 10 (C) to the partial image 301 shown in FIG. 10 (B).
  • the image viewer unit moves the frame indicated by the operation information in the movement direction (z-axis positive direction) indicated by the operation information in the frame where the partial image 303 is positioned. Then, the partial image 301 that is an image surrounded by the moved frame is cut out from the entire image. Then, the image viewer unit changes the display image of the display unit 15 from the partial image 303 shown in FIG. 11 (C) to the partial image 301 shown in FIG. 11 (B).
  • the same processing is performed for the force and other embodiments that are specific examples of the second embodiment.
  • the image is captured by the camera.
  • the moving direction of the subject is different from the moving direction of the display image on the display unit 21. That is, when there is a camera subject on the user side, the moving direction of the subject captured by the camera and the moving direction of the display image on the display unit 21 are opposite in the z-axis direction, and in the xy-axis direction. Then the same direction.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

A 3D coordinate input device is mounted on a terminal device and includes a moving picture imaging unit, a 3D operation calculation unit, an operation information generation unit, and a display control unit. The 3D operation calculation unit calculates movement of the terminal device in a 3D space as a change of 3D coordinate according to the moving picture imaged by the moving picture imaging unit. According to the calculated movement of the terminal device, the operation information generation unit generates operation information for modifying the image displayed on display means for displaying an image. According to the operation information generated, the display control unit controls the display unit according to predetermined software for modifying the image displayed on the display unit.

Description

明 細 書  Specification
端末装置を用いた三次元座標入力装置  Three-dimensional coordinate input device using terminal device
技術分野  Technical field
[0001] 本発明は三次元座標入力装置に関し、特に動画を撮影可能なカメラを用いた三次 元座標入力装置に関する。  The present invention relates to a three-dimensional coordinate input device, and more particularly to a three-dimensional coordinate input device using a camera capable of shooting a moving image.
背景技術  Background art
[0002] 通常の xy座標を入力するためのマウスに z座標を入力するための機構が搭載され ることにより、三次元座標入力が行われる三次元座標入力装置が特開 2001— 3602 52号公報、特開平 11— 134111号公報、特開平 8— 179883号公報によって提案 されている。  [0002] A three-dimensional coordinate input device for performing three-dimensional coordinate input by mounting a mechanism for inputting a z-coordinate in a mouse for inputting a normal xy coordinate is disclosed in Japanese Patent Laid-Open No. 2001-360252. JP-A-11-134111 and JP-A-8-179883 have proposed.
[0003] 通常のマウスにトラックボールが搭載され、三次元空間内の平面の傾きがトラックボ ールによって指定され、同平面上での二次元座標がマウスにより指定されることによ つて、三次元座標入力が行われる三次元座標入力装置もまた、特開平 9— 26851 号公報、特開平 1— 100621号公報によって提案されている。  [0003] A trackball is mounted on a normal mouse, the inclination of the plane in the three-dimensional space is specified by the trackball, and the two-dimensional coordinates on the same plane are specified by the mouse. A three-dimensional coordinate input device in which coordinate input is performed is also proposed by Japanese Patent Laid-Open Nos. 9-26851 and 1-100621.
[0004] 一方、 xyz各次元に対応した慣性センサがそれぞれ端末上に配置され、各慣性セ ンサの感知結果から当該端末の動きが読み取られることによって、三次元座標入力 を行うものも特開平 7— 98630号公報、特開平 1— 96720号公報によって提案され ている。  [0004] On the other hand, an inertial sensor corresponding to each dimension of xyz is arranged on a terminal, and the movement of the terminal is read from the detection result of each inertial sensor so that three-dimensional coordinate input is performed. — Proposed by Japanese Patent No. 98630 and Japanese Patent Laid-Open No. 1-96720.
[0005] ところが、上述した従来の技術には、以下に示すような問題点があった。  [0005] However, the above-described conventional technique has the following problems.
[0006] 第 1に、 z座標入力機構がマウスに搭載された装置では、装置自体が大掛力りにな るということである。 [0006] First, in a device in which a z-coordinate input mechanism is mounted on a mouse, the device itself becomes a large force.
[0007] 第 2に、 z座標入力機構がマウスに搭載された装置では、直感的に座標を入力する ことが困難であるということである。その理由は、 z座標入力機構とマウスの二つの機 構をユーザが同時に操作する必要があるためである。  [0007] Secondly, it is difficult to input coordinates intuitively in a device in which a z-coordinate input mechanism is mounted on a mouse. The reason is that the user needs to operate both the z-coordinate input mechanism and the mouse at the same time.
[0008] 第 3に、端末の三次元座標が慣性センサの感知結果によって取得される装置では [0008] Thirdly, in an apparatus in which the three-dimensional coordinates of the terminal are acquired by the sensing result of the inertial sensor
、その端末が大掛力りで高価になるということである。 This means that the terminal is expensive and expensive.
[0009] 第 4に、端末の三次元座標が慣性センサの感知結果によって取得される装置では 、ユーザが端末を静止させていても、ユーザが車や電車などの移動体に乗っている 場合、ユーザの意図に反して、ソフトウェアに操作が入力されてしまうということである 。その理由は、慣性センサは、ユーザと端末との相対的な運動ではなぐ端末の絶対 的な運動を検出するためである。 [0009] Fourthly, in a device in which the three-dimensional coordinates of the terminal are obtained from the sensing result of the inertial sensor. Even if the user is stationary, if the user is on a moving object such as a car or train, the operation is input to the software against the user's intention. The reason is that the inertial sensor detects the absolute movement of the terminal rather than the relative movement between the user and the terminal.
発明の開示  Disclosure of the invention
発明が解決しょうとする課題  Problems to be solved by the invention
[0010] 本発明の目的は、上述した問題を解消し、新たに特殊なセンサを追加することなく [0010] An object of the present invention is to solve the above-described problems and without newly adding a special sensor.
、直感的な三次元座標入力を実現できる三次元入力装置を提供することである。 課題を解決するための手段 An object of the present invention is to provide a three-dimensional input device capable of realizing intuitive three-dimensional coordinate input. Means for solving the problem
[0011] 本発明によれば、端末装置に搭載された三次元座標入力装置であって、動画像を 撮影する動画像撮影手段と、動画像撮影手段によって撮影された動画像にもとづ ヽ て、端末装置の三次元空間内の運動を三次元座標の変化として算出する三次元動 作算出手段と、算出された、端末装置の運動にもとづいて、画像を表示する表示手 段に表示されている画像を変更させるための操作情報を生成する操作情報生成手 段と、生成された操作情報に従って、表示手段に表示されている画像を変更する、 所定のソフトウェアに基づいて表示手段を制御する表示制御手段を有する三次元座 標入力装置が提供される。  [0011] According to the present invention, a three-dimensional coordinate input device mounted on a terminal device is based on a moving image capturing unit that captures a moving image and a moving image captured by the moving image capturing unit. The three-dimensional motion calculation means for calculating the movement of the terminal device in the three-dimensional space as a change in three-dimensional coordinates, and the display means for displaying the image based on the calculated movement of the terminal device. An operation information generating means for generating operation information for changing the displayed image, and an image displayed on the display means is changed according to the generated operation information, and the display means is controlled based on predetermined software A three-dimensional coordinate input device having display control means is provided.
[0012] 本発明によれば、端末装置に設置された動画像撮影手段の撮像画像にもとづいて 三次元座標入力を行うため、新たに特殊なセンサを追加することなぐ低コストで直感 的な三次元座標装置を実現することができる。  [0012] According to the present invention, since the three-dimensional coordinate input is performed based on the captured image of the moving image capturing means installed in the terminal device, the low-cost and intuitive tertiary can be achieved without adding a special sensor. An original coordinate device can be realized.
[0013] また、本発明によれば、三次元座標を入力する際、複数の機構を同時に操作する 必要がなぐ三次元空間内で端末装置を動かすだけでよいため、三次元座標入力を 直感的に行うことができる。  In addition, according to the present invention, when inputting three-dimensional coordinates, it is only necessary to move the terminal device in a three-dimensional space where it is not necessary to operate a plurality of mechanisms simultaneously. Can be done.
[0014] さらに、本発明によれば、端末装置を操作するユーザ自身あるいはそのユーザが 乗っている移動体と、端末装置との相対的な運動を検出することができ、ユーザが移 動体に乗っている場合であっても、ユーザの意図に反して、ソフトウェアにもとづく操 作の指示が入力されてしまうことを防止することができる。  [0014] Further, according to the present invention, it is possible to detect relative movement between the user who operates the terminal device or the moving body on which the user is riding and the terminal device, and the user gets on the moving body. Even in such a case, it is possible to prevent an operation instruction based on software from being input against the user's intention.
[0015] 本発明は、携帯端末上での画像や文書、 Webページなどのビューァ、ブラウザ操 作のためのユーザインタフェースといった用途に適用することができる。 [0015] The present invention provides viewers such as images and documents on a mobile terminal, Web pages, and browser operations. It can be applied to applications such as user interface for work.
[0016] また、本発明は、ゲームにおける仮想世界中のキャラクタの操作を行うためのユー ザインタフエースといった用途にも適用することができる。  [0016] The present invention can also be applied to uses such as a user interface for operating characters around the virtual world in a game.
図面の簡単な説明  Brief Description of Drawings
[0017] [図 1]図 1は本発明の第 1の実施形態による三次元座標入力装置のブロック図である  FIG. 1 is a block diagram of a three-dimensional coordinate input device according to a first embodiment of the present invention.
[図 2]図 2は第 1の実施形態による三次元座標入力装置が搭載された端末装置の外 観図である。 FIG. 2 is an external view of a terminal device equipped with the three-dimensional coordinate input device according to the first embodiment.
[図 3]図 3は第 1の実施形態による三次元座標入力装置の動作を示すフローチャート である。  FIG. 3 is a flowchart showing the operation of the three-dimensional coordinate input apparatus according to the first embodiment.
[図 4]図 4は本発明の第 2の実施形態による三次元座標入力装置が搭載された端末 装置の外観図である。  FIG. 4 is an external view of a terminal device equipped with a three-dimensional coordinate input device according to a second embodiment of the present invention.
[図 5]図 5は本発明の第 3の実施形態による三次元座標入力装置が搭載された端末 装置の外観図である。  FIG. 5 is an external view of a terminal device equipped with a three-dimensional coordinate input device according to a third embodiment of the present invention.
[図 6]図 6は本発明の第 4の実施形態による三次元座標入力装置のブロック図である  FIG. 6 is a block diagram of a three-dimensional coordinate input device according to a fourth embodiment of the present invention.
[図 7]図 7は三次元座標系を示す図である。 FIG. 7 is a diagram showing a three-dimensional coordinate system.
[図 8]図 8は三次元運動算出の様子を示す図である。  FIG. 8 is a diagram showing how three-dimensional motion is calculated.
[図 9]図 9三次元運動算出の様子を示す図である。  [Fig. 9] Fig. 9 is a diagram showing how three-dimensional motion is calculated.
[図 10]図 10は操作情報にもとづく表示画像の変更の様子を示す図である。  FIG. 10 is a diagram showing how the display image is changed based on the operation information.
[図 11]図 11は操作情報にもとづく表示画像の変更の様子を示す図である。  FIG. 11 is a diagram showing how the display image is changed based on the operation information.
発明を実施するための最良の形態  BEST MODE FOR CARRYING OUT THE INVENTION
[0018] 第 1の実施形態 [0018] First Embodiment
図 1を参照すると、本発明の第 1の実施形態による三次元座標入力装置はカメラ 11 と三次元運動算出部 12と操作情報生成部 13と表示制御部 14と操作情報有効化ス イッチ 15とを有する。  Referring to FIG. 1, the three-dimensional coordinate input device according to the first embodiment of the present invention includes a camera 11, a three-dimensional motion calculation unit 12, an operation information generation unit 13, a display control unit 14, an operation information enable switch 15, Have
[0019] 図 2に示すように、カメラ 11は、端末装置 20の筐体の、表示部 21が設置されている 側と反対側に設置されて!、る。三次元運動算出部 12と操作情報生成部 13と表示制 御部 14は端末装置 20の筐体内に収容されている。表示部 21は、例えば LCD (液晶 表示装置)などの各種の情報を表示する表示装置が用いられる。 As shown in FIG. 2, the camera 11 is installed on the opposite side of the casing of the terminal device 20 from the side on which the display unit 21 is installed! RU 3D motion calculator 12 and operation information generator 13 The control unit 14 is accommodated in the casing of the terminal device 20. As the display unit 21, a display device for displaying various information such as an LCD (Liquid Crystal Display) is used.
[0020] カメラ 11は被写体 30を撮影するもので、例えば、動画を撮影する機能を有するディ ジタルカメラが用いられる。なお、カメラ 11は、被写体 30を鮮明に撮影するための、 例えばフラッシュ装置やライトなどの光源を備えていてもよい。ここで、被写体 30は、 端末装置 20の周囲に存在する風景や、格子や文字のようなテクスチャが印刷された 物体などの、端末装置 30の使用時に用いられる専用の被写体であってもよい。  [0020] The camera 11 captures the subject 30, and for example, a digital camera having a function of capturing a moving image is used. Note that the camera 11 may include a light source such as a flash device or a light for capturing the subject 30 clearly. Here, the subject 30 may be a dedicated subject used when the terminal device 30 is used, such as a landscape around the terminal device 20 or an object on which a texture such as a grid or a character is printed.
[0021] 三次元運動算出部 12は、カメラ 11で被写体 30を撮影した動画像から、ユーザ 40 が端末装置 20を動かすことによって生じた端末装置 20の三次元的な運動を三次元 座標の変化として計算する。  [0021] The three-dimensional motion calculation unit 12 changes the three-dimensional coordinates of the three-dimensional motion of the terminal device 20 generated by the user 40 moving the terminal device 20 from the moving image obtained by photographing the subject 30 with the camera 11. Calculate as
[0022] 操作情報生成部 13は、三次元運動算出部 12で計算された三次元的な運動を、表 示部 21に表示されている画像を変更させるための操作情報に変換する。  The operation information generation unit 13 converts the three-dimensional motion calculated by the three-dimensional motion calculation unit 12 into operation information for changing the image displayed on the display unit 21.
[0023] 表示制御部 14は、所定のソフトウェア(たとえば、 Webブラウザ)に基づいて表示部 21を制御し、生成された操作情報に従って、表示部 21に表示されている画像を変 更する。  [0023] The display control unit 14 controls the display unit 21 based on predetermined software (for example, a Web browser), and changes the image displayed on the display unit 21 in accordance with the generated operation information.
[0024] 操作情報有効化スィッチ 15は、ユーザ 40の操作に応じて、操作情報生成部 13で 生成された操作情報を有効または無効にするための制御信号を操作情報生成部 13 に出力する。  The operation information enabling switch 15 outputs a control signal for enabling or disabling the operation information generated by the operation information generating unit 13 to the operation information generating unit 13 according to the operation of the user 40.
[0025] 次に、本実施形態の三次元座標入力装置の動作を、図 3のフローチャートにより説 明する。  Next, the operation of the three-dimensional coordinate input apparatus of the present embodiment will be described with reference to the flowchart of FIG.
[0026] まず、ステップ 101に、三次元運動算出部 12は、カメラ 11で被写体 30を撮影した 動画像から、ユーザ 40が端末装置 20を動かすことによって生じた端末装置 30の三 次元的な動きを計算する。  [0026] First, in step 101, the three-dimensional motion calculation unit 12 performs a three-dimensional movement of the terminal device 30 caused by the user 40 moving the terminal device 20 from a moving image obtained by photographing the subject 30 with the camera 11. Calculate
[0027] 次に、ステップ 102に、操作情報生成部 13は、三次元運動算出部 12で計算された 三次元運動を、表示部 21に表示されている画像を変更させるための操作情報に変 換する。 [0027] Next, in step 102, the operation information generation unit 13 converts the three-dimensional motion calculated by the three-dimensional motion calculation unit 12 into operation information for changing the image displayed on the display unit 21. Replace.
[0028] 次に、ステップ 103に、操作情報生成部 13は、操作情報有効化スィッチ 15を参照 し、スィッチ 15がオンである場合には、ステップ 104に操作情報を表示制御部 14に 入力する。スィッチ 15がオフの場合には、操作情報の入力は行わない。 Next, in step 103, the operation information generating unit 13 refers to the operation information enabling switch 15, and when the switch 15 is on, the operation information is displayed in step 104 in the display control unit 14. input. When switch 15 is off, no operation information is entered.
[0029] 最後に、ステップ 105に、表示制御部 14は、生成された操作情報に従って、表示 部 21に表示されている画像を変更する。 [0029] Finally, in step 105, the display control unit 14 changes the image displayed on the display unit 21 in accordance with the generated operation information.
[0030] 本実施形態は、端末装置 20に搭載されたカメラ 11で撮影された動画像から三次 元座標を算出するので、端末装置 20にカメラを新たに追加する必要がなぐコンパク トかつ安価な三次元座標入力装置を実現できる。 [0030] In the present embodiment, since the three-dimensional coordinates are calculated from the moving image captured by the camera 11 mounted on the terminal device 20, a compact and inexpensive device that does not require a new camera to be added to the terminal device 20 is required. A three-dimensional coordinate input device can be realized.
[0031] また、本実施形態では、複数の機構を同時に操作する必要がなぐユーザが端末 装置 20を空間内で動かすことによって生じた三次元運動を三次元座標入力とするた め、直感的な座標入力ができる。 [0031] Further, in this embodiment, since a user who does not need to operate a plurality of mechanisms at the same time moves the terminal device 20 in the space as a three-dimensional coordinate input, it is intuitive. Coordinate input is possible.
[0032] また、本実施形態によれば、ユーザ自身あるいはユーザが乗っている移動体(自動 車など)と、端末装置 20との相対的な運動を検出することができるため、ユーザが移 動体に乗っている場合にも、移動体の動きによる操作情報が意に反して発生してしま うことを防止することができ、意図しない操作情報がソフトウェアに入力されてしまうこ とを回避することがでさる。 [0032] Further, according to the present embodiment, since the relative motion between the user himself or a moving body (automobile or the like) on which the user is riding and the terminal device 20 can be detected, the user can move the moving body. Even if you are on a vehicle, you can prevent unexpected operation information from being generated due to the movement of the moving object, and prevent unintended operation information from being input to the software. It is out.
[0033] なお、表示部 21にバックライトが存在する場合には、被写体であるユーザ 40の顔 に安定して照明を当てることが可能となり、暗所でも安定して三次元運動を算出でき る。 [0033] When the display unit 21 has a backlight, it is possible to stably illuminate the face of the user 40 as a subject, and the three-dimensional motion can be calculated stably even in a dark place. .
[0034] 第 2の実施形態  [0034] Second Embodiment
本実施形態による三次元座標入力装置の構成自体は、上述した第 1の実施形態 による三次元座標入力装置と同じであるが、本実施形態では、図 4に示すように、ュ 一ザ 40の顔を被写体とするために、カメラ 11が、端末装置 20の表示部 21が設置さ れて 、る側と同じ側に設置されて 、る。  The configuration itself of the three-dimensional coordinate input device according to the present embodiment is the same as that of the above-described three-dimensional coordinate input device according to the first embodiment, but in this embodiment, as shown in FIG. In order to use the face as a subject, the camera 11 is installed on the same side as the display side 21 of the terminal device 20 is installed.
[0035] 本実施形態においても、カメラ 11は、被写体としてのユーザ 40を鮮明に撮影する ための、例えばフラッシュ装置やライトなどの光源を備えていてもよい。あるいは、ュ 一ザ 40に向けて取り付けられた表示部 21のバックライト等を光源として利用してもよ い。  [0035] Also in the present embodiment, the camera 11 may include a light source such as a flash device or a light for clearly photographing the user 40 as a subject. Alternatively, the backlight of the display unit 21 attached to the user 40 may be used as the light source.
[0036] 本実施形態では、カメラ 11がユーザ 40の顔を撮影するように設置されているため、 常にカメラ 11から一定距離内に被写体 30を捉えることができ、ユーザ 40の周囲に適 切な被写体が存在しな ヽ場合でも、安定して三次元運動を算出できる。 In the present embodiment, since the camera 11 is installed so as to photograph the face of the user 40, the subject 30 can always be captured within a certain distance from the camera 11, and is suitable around the user 40. Even when a sharp subject does not exist, 3D motion can be calculated stably.
[0037] 第 3の実施形態  [0037] Third Embodiment
本実施形態による三次元座標入力装置は、図 5に示すように、端末装置 20の両側 に、それぞれ被写体 30、ユーザ 40の顔を撮影するカメラ 11を有している点で第 1、 第 2の実施形態による三次元座標入力装置と異なる。  As shown in FIG. 5, the three-dimensional coordinate input device according to the present embodiment includes the first and second cameras in that the terminal device 20 has cameras 11 that capture the face of the subject 30 and the user 40, respectively. This is different from the three-dimensional coordinate input device according to the embodiment.
[0038] したがって、本実施形態によれば、ユーザ 40と被写体 30のうちいずれか一方しか 撮影することができない状況であっても、安定して三次元運動を算出できる。また、ュ 一ザ 40と被写体 30の両方が撮影できる場合には、三次元運動の精度が向上する。  Therefore, according to the present embodiment, even in a situation where only one of the user 40 and the subject 30 can be photographed, the three-dimensional motion can be calculated stably. In addition, when both the user 40 and the subject 30 can be photographed, the accuracy of the three-dimensional motion is improved.
[0039] 第 4の実施形態  [0039] Fourth Embodiment
本実施形態は、図 1の三次元運動算出部 12と操作情報生成部 13と表示制御部 1 4の各部で行われる処理カゝらなる三次元座標入力プログラムを、フレキシブルデイス ク、 CD—ROM等の記録媒体に記録しておき、該三次元座標入力プログラムを端末 装置 20に搭載されたコンピュータに実行させるものである。  In this embodiment, a three-dimensional coordinate input program, which is a processing card executed in each part of the three-dimensional motion calculation unit 12, the operation information generation unit 13, and the display control unit 14 in FIG. The three-dimensional coordinate input program is executed by a computer mounted on the terminal device 20 in advance.
[0040] 第 5の実施形態  [0040] Fifth Embodiment
図 6を参照すると、本実施形態による三次元座標入力装置では、三次元運動算出 部 12と操作情報生成部 13の処理がコンピュータ 16によって実行され、表示制御部 1 4と表示部 21がコンピュータ 17によって実行される。コンピュータ 16とコンピュータ 17 は、例えば、 USB (Universal Serial Bus)などのシリアル、パラレルインタフェースで互 いに接続されているものとする。また、コンピュータ 16とコンピュータ 17と力 イーサネ ット(登録商標)などの通信ネットワークを介して接続されて 、てもよ 、。  Referring to FIG. 6, in the three-dimensional coordinate input apparatus according to the present embodiment, the processing of the three-dimensional motion calculation unit 12 and the operation information generation unit 13 is executed by the computer 16, and the display control unit 14 and the display unit 21 are processed by the computer 17. Executed by. It is assumed that the computer 16 and the computer 17 are connected to each other through a serial or parallel interface such as USB (Universal Serial Bus). Also, the computer 16 and the computer 17 may be connected via a communication network such as force Ethernet (registered trademark).
[0041] 本実施形態の動作は第 1の実施形態による動作と同じである。なお、本実施形態に おけるカメラ 11の取り付け位置は、上述した第 1〜第 3の実施形態における取り付け 位置の何れかと同じである。  [0041] The operation of the present embodiment is the same as that of the first embodiment. Note that the attachment position of the camera 11 in this embodiment is the same as any of the attachment positions in the first to third embodiments described above.
[0042] 本実施形態も、上述した第 1〜第 3の実施形態と同様の利点を有する。  This embodiment also has the same advantages as the first to third embodiments described above.
[0043] なお、端末装置 20としては、カメラ機能を有する PDA (Personal Digital Assistant s)、携帯電話端末、パーソナルコンピュータ、携帯型ゲーム機などが含まれる。また、 端末装置 20は通信ネットワークに接続可能なものであってもよいし、通信ネットワーク に接続不能な装置であってもよ 、。 [0044] 次に、以上の三次元座標入力装置における三次元運動の算出方法を詳しく説明 する。 [0043] The terminal device 20 includes a PDA (Personal Digital Assistant) having a camera function, a mobile phone terminal, a personal computer, a portable game machine, and the like. Further, the terminal device 20 may be a device that can be connected to a communication network or a device that cannot be connected to a communication network. Next, a method for calculating the three-dimensional motion in the above three-dimensional coordinate input apparatus will be described in detail.
[0045] 以下に説明する例は、上述した第 2の実施の形態に対応するものである。ここでは 、上述した三次元座標入力装置を、ディジタルカメラ上で動作する画像ビューァの操 作を行う三次元座標入力装置として用いた場合について説明する。  The example described below corresponds to the second embodiment described above. Here, a case will be described in which the above-described three-dimensional coordinate input device is used as a three-dimensional coordinate input device that operates an image viewer operating on a digital camera.
[0046] 図 7は三次元座標系を示す説明図である。図 7に示すように、本例では、原点 200 をディジタルカメラの光軸と画像平面の交点にとり、 X軸 201、 y軸 202をそれぞれデ イジタルカメラの画像平面の X軸、 y軸に一致させる。 z軸 203は、原点 200を通り、 x 軸 201、 y軸 202それぞれに直交する軸とし、被写体が存在する方向を正とする。  FIG. 7 is an explanatory diagram showing a three-dimensional coordinate system. As shown in Fig. 7, in this example, the origin 200 is the intersection of the optical axis of the digital camera and the image plane, and the X-axis 201 and y-axis 202 are made to coincide with the X-axis and y-axis of the digital camera image plane, respectively. . The z-axis 203 is an axis that passes through the origin 200 and is orthogonal to the x-axis 201 and the y-axis 202, and the direction in which the subject exists is positive.
[0047] 三次元運動算出部 12は、ディジタルカメラによって撮影された動画像の各フレーム にもとづいて、ディジタルカメラの三次元運動を計算する。ここで、三次元運動は、デ イジタルカメラの x、 y、 z各軸方向の平行移動量と、各軸まわりの回転量から構成され る。本例では、文献:池谷、中島、佐藤、池田、神原、横矢、山田、「紙面を対象とした カメラパス推定によるビデオモザィキングおよび超解像」、信学技報 TL2003— 37 PRMU2003— 233、 2004年 2月 19日、 pp. 49— 54に記載された方法で三次元 運動を計算するものとする。  [0047] The three-dimensional motion calculation unit 12 calculates the three-dimensional motion of the digital camera based on each frame of the moving image photographed by the digital camera. Here, the three-dimensional motion consists of the amount of parallel movement of the digital camera in the x, y and z axis directions and the amount of rotation around each axis. In this example, literature: Ikeya, Nakajima, Sato, Ikeda, Kambara, Yokoya, Yamada, “Video mosaicing and super-resolution by camera path estimation for paper”, IEICE Technical Report TL2003—37 PRMU2003—233 , February 19, 2004, pp. 49-54 shall be used to calculate 3D motion.
[0048] 本文献 1に記載されて 、る三次元運動の計算方法では、まず、前フレームの画像 上で、特徴点と呼ばれる複数方向のエッジが交差する点を求める。次に、各特徴点 について、現フレームにおける対応座標を、テンプレートマッチングによる追跡処理 によって求める。そして、前フレームにおいて求められている各特徴点の三次元座標 を、初期フレームから現フレームに至るまでのすベてのフレーム画像上に投影し、投 影座標と、追跡処理によって求められた座標とのずれが最小になるようなカメラの三 次元運動および各特徴点の三次元座標を、非線形最小化によって求める。  [0048] In the three-dimensional motion calculation method described in Reference 1, first, a point where edges in a plurality of directions called feature points intersect is obtained on the image of the previous frame. Next, for each feature point, the corresponding coordinates in the current frame are found by tracking processing using template matching. Then, the three-dimensional coordinates of each feature point obtained in the previous frame are projected onto all frame images from the initial frame to the current frame, and the projected coordinates and the coordinates obtained by the tracking process are projected. The three-dimensional motion of the camera and the three-dimensional coordinates of each feature point are calculated by nonlinear minimization.
[0049] 上記の処理を繰り返すことによって、各フレームにおけるディジタルカメラの三次元 運動が、三次元空間内における三次元座標の変化として算出される。  [0049] By repeating the above processing, the three-dimensional motion of the digital camera in each frame is calculated as a change in the three-dimensional coordinates in the three-dimensional space.
[0050] 図 8は、三次元運動の算出状態の具体例を示す説明図である。例えば、ディジタル カメラが撮影した画像力 図 8 (A)に示すように、被写体 205であるユーザ 40の顔が 撮影画像の左領域に存在している状態から、図 8 (B)に示すようにユーザ 40の顔が 撮影画像の右領域に存在している状態に変化したとする。すなわち、三次元運動と して、図 8に示すように、画像上で右向き (X軸の正の方向)の動きが観測されたとす る。この観測結果に従って、三次元運動算出部 12は、 X軸の負の方向への平行移動 であること、およびその移動量を算出する。 FIG. 8 is an explanatory diagram showing a specific example of the calculation state of the three-dimensional motion. For example, as shown in FIG. 8 (A), the image power captured by the digital camera is changed from the state in which the face of the user 40 as the subject 205 exists in the left area of the captured image, as shown in FIG. 8 (B). User 40 ’s face Assume that the state has changed to exist in the right region of the captured image. In other words, as shown in Fig. 8, as a three-dimensional movement, a rightward movement (positive direction of the X axis) is observed on the image. According to this observation result, the three-dimensional motion calculation unit 12 calculates the parallel movement in the negative direction of the X axis and the amount of the movement.
[0051] 図 9は、三次元運動の算出状態の他の具体例を示す説明図である。例えば、ディ ジタルカメラが撮影した画像が、図 9 (A)に示すように被写体 205であるユーザ 40の 顔が撮影画像の中央付近に存在している状態から、図 9 (B)に示すようにユーザ 40 の顔が撮影画像の上下左右方向に拡大した状態に変化したとする。すなわち、三次 元運動として、図 9に示すように、画像上で被写体 205に向力う方向(z軸の負の方向 )に移動したことによる放射状の動きが観測されたとする。この観測結果に従って、三 次元運動算出部 12は、 z軸の正の方向への平行移動であること、およびその移動量 を算出する。 FIG. 9 is an explanatory diagram showing another specific example of the calculation state of the three-dimensional motion. For example, as shown in FIG. 9B, the image taken by the digital camera is as shown in FIG. 9B from the state where the face of the user 40 as the subject 205 exists near the center of the shot image as shown in FIG. 9A. In addition, it is assumed that the face of the user 40 is changed to a state in which the face of the photographed image is enlarged vertically and horizontally. In other words, as a three-dimensional motion, as shown in FIG. 9, it is assumed that a radial motion due to moving in the direction facing the subject 205 (the negative direction of the z-axis) is observed on the image. According to this observation result, the three-dimensional motion calculation unit 12 calculates the parallel movement in the positive direction of the z axis and the amount of the movement.
[0052] 次いで、操作情報生成部 13は、三次元運動算出部 12が算出した三次元運動量( 移動方向と移動量)を、画像ビューァ部(表示制御部 14に従って制御を行うコンビュ ータ)が表示部 21を制御する際に必要となる操作情報に変換し、操作情報有効化ス イッチ 15が押下された状態 (オン状態)であれば、画像ビューァ部に入力する。  [0052] Next, the operation information generation unit 13 uses the image viewer unit (the converter that performs control according to the display control unit 14) to the 3D motion amount (movement direction and movement amount) calculated by the 3D motion calculation unit 12. The operation information is converted into operation information necessary for controlling the display unit 21. If the operation information enabling switch 15 is pressed (on state), the operation information is input to the image viewer unit.
[0053] ここでは、ディジタルカメラの x、 y軸方向の移動量と同じ移動量を画像ビューァ部で のスクロール量とし、 z軸方向の移動量と同じ移動量を画像ビューァ部での拡大'縮 小のスケールにマッピングするものとする。  [0053] Here, the movement amount that is the same as the movement amount of the digital camera in the x and y axis directions is set as the scroll amount in the image viewer portion, and the movement amount that is the same as the movement amount in the z axis direction is enlarged or reduced in the image viewer portion. Map to a small scale.
[0054] なお、ビューァ上で、画像を大きくスクロールさせた 、場合、ユーザは実世界中でも 端末を大きく平行移動させる必要がある。これでは、ユーザのいる環境で広いスぺー ス確保できない場合、スクロール操作が困難となる。このような場合は、操作情報有 効化スィッチ 15を押下しながら、ディジタルカメラを少し平行移動させた後、操作情 報有効化スィッチ 15を離して (オフ状態にして)ディジタルカメラを元の位置に戻す、 という動作を複数回繰り返すことにより、所望のスクロール量を得ることができる。  [0054] Note that if the image is greatly scrolled on the viewer, the user needs to greatly translate the terminal even in the real world. This makes scrolling difficult when a large space cannot be secured in the user's environment. In such a case, move the digital camera slightly in parallel while pressing down the operation information enable switch 15, then release the operation information enable switch 15 (turn it off) and move the digital camera to its original position. The desired scroll amount can be obtained by repeating the operation of returning to a plurality of times.
[0055] また、ディジタルカメラの移動量と同じ移動量でなぐディジタルカメラの移動量に比 例した移動量を画像ビューァ部でのスクロール量や拡大 ·縮小のスケールとしてもよ い。 [0056] そして、画像ビューァ部は、入力された操作情報にもとづ 、て生成した表示画像を 表示部 21に表示し、ユーザに提示する。 [0055] Further, the movement amount proportional to the movement amount of the digital camera with the same movement amount as the movement amount of the digital camera may be used as the scroll amount or enlargement / reduction scale in the image viewer section. Then, the image viewer unit displays the display image generated based on the input operation information on the display unit 21 and presents it to the user.
[0057] 図 10は、画像ビューァ部の表示制御によって表示部 21に表示される画像の具体 例を示す説明図である。ここでは、ディジタルカメラが撮影した画像が図 8 (A)から図 8 (B)に変化した場合を例に説明する。  FIG. 10 is an explanatory diagram showing a specific example of an image displayed on the display unit 21 by display control of the image viewer unit. Here, the case where the image taken by the digital camera changes from FIG. 8A to FIG. 8B will be described as an example.
[0058] 例えば、ディジタルカメラによって図 8 (A)の画像が撮影されているときに、図 10 (C )に示すような画像が表示部 21に表示されていたものとする。図 10 (C)に示す画像 は、図 10 (A)に示す全体画像の一部の部分画像 302である。なお、図 10 (A)は、こ の例で画像ビューァ部によって表示部 21に表示され得る全体画像である。  For example, assume that an image as shown in FIG. 10C is displayed on the display unit 21 when the image of FIG. 8A is taken by the digital camera. An image shown in FIG. 10C is a partial image 302 of the entire image shown in FIG. FIG. 10A shows an entire image that can be displayed on the display unit 21 by the image viewer unit in this example.
[0059] 次いで、ユーザによって操作情報有効化スィッチ 15が押下された状態でディジタ ルカメラが X軸負方向に移動されると、ディジタルカメラの撮像画像上で被写体 205 力 SX軸正方向に移動したようになり、図 8 (B)に示す画像が撮影されている状態となる [0059] Next, when the digital camera is moved in the negative direction of the X axis while the operation information validation switch 15 is pressed by the user, the subject 205 force S moves in the positive direction of the X axis on the captured image of the digital camera. And the image shown in Fig. 8 (B) is captured.
[0060] 操作情報生成部 13は、三次元運動算出部 12が算出した三次元運動量(図 8 (A) の状態から図 8 (B)の状態への被写体の運動量)を、画像ビューァ部が表示部 21を 制御する際に必要となる操作情報に変換し、操作情報有効化スィッチ 15が押下され ているため、画像ビューァ部に入力する。 [0060] The operation information generation unit 13 displays the three-dimensional momentum calculated by the three-dimensional motion calculation unit 12 (the momentum of the subject from the state in Fig. 8A to the state in Fig. 8B), and the image viewer unit The operation information is converted into operation information necessary for controlling the display unit 21. Since the operation information enabling switch 15 is pressed, the operation information is input to the image viewer unit.
[0061] 操作情報が入力されると、画像ビューァ部は、部分画像 302が位置しているフレー ムを操作情報が示す移動方向 (X軸負方向)にその操作情報が示す移動量だけ移動 し、その移動したフレームに囲われている画像である部分画像 301を全体画像から 切り取る。そして、画像ビューァ部は、表示部 21の表示画像を、図 10 (C)に示す部 分画像 302から、図 10 (B)に示す部分画像 301に変更する。  [0061] When the operation information is input, the image viewer unit moves the frame in which the partial image 302 is located in the movement direction indicated by the operation information (X-axis negative direction) by the movement amount indicated by the operation information. Then, the partial image 301 that is an image surrounded by the moved frame is cut out from the entire image. Then, the image viewer unit changes the display image of the display unit 21 from the partial image 302 shown in FIG. 10 (C) to the partial image 301 shown in FIG. 10 (B).
[0062] 図 11は、画像ビューァ部の表示制御によって表示部 15に表示される画像の他の 具体例を示す説明図である。ここでは、ディジタルカメラが撮影した画像が図 9 (A)か ら図 9 (B)に変化した場合を例に説明する。  FIG. 11 is an explanatory diagram showing another specific example of an image displayed on the display unit 15 by display control of the image viewer unit. Here, an example will be described in which the image captured by the digital camera changes from FIG. 9 (A) to FIG. 9 (B).
[0063] 例えば、ディジタルカメラによって図 9 (A)の画像が撮影されているときに、図 11 (C )に示すような画像が表示部 21に表示されていたものとする。図 11 (C)に示す画像 は、図 11 (A)に示す全体画像の一部の部分画像 303である。なお、図 11 (A)は、こ の例で画像ビューァ部によって表示部 21に表示され得る全体画像である。 For example, it is assumed that an image as shown in FIG. 11C is displayed on the display unit 21 when the image of FIG. 9A is taken by the digital camera. The image shown in FIG. 11C is a partial image 303 that is a part of the entire image shown in FIG. Figure 11 (A) shows this. In this example, the entire image can be displayed on the display unit 21 by the image viewer unit.
[0064] 次いで、ユーザによって操作情報有効化スィッチ 15が押下された状態でディジタ ルカメラが z軸正方向に移動されると、ディジタルカメラの撮像画像上で被写体 205が z軸負方向に移動したようになり、図 9 (B)に示す画像が撮影されている状態となる。  [0064] Next, when the digital camera is moved in the positive z-axis direction with the operation information enabling switch 15 pressed by the user, the subject 205 appears to move in the negative z-axis direction on the captured image of the digital camera. Thus, the image shown in FIG. 9B is captured.
[0065] 操作情報生成部 13は、三次元運動算出部 12が算出した三次元運動量 (図 9 (A) の状態から図 9 (B)の状態への被写体の運動量)を、画像ビューァ部が表示部 21を 制御する際に必要となる操作情報に変換し、操作情報有効化スィッチ 15が押下され ているため、画像ビューァ部に入力する。  [0065] The operation information generation unit 13 displays the three-dimensional momentum calculated by the three-dimensional motion calculation unit 12 (the momentum of the subject from the state in Fig. 9A to the state in Fig. 9B), and the image viewer unit The operation information is converted into operation information necessary for controlling the display unit 21. Since the operation information enabling switch 15 is pressed, the operation information is input to the image viewer unit.
[0066] 操作情報が入力されると、画像ビューァ部は、部分画像 303が位置して 、るフレー ムを操作情報が示す移動方向(z軸正方向)にその操作情報が示す移動量だけ移動 し、その移動したフレームに囲われている画像である部分画像 301を全体画像から 切り取る。そして、画像ビューァ部は、表示部 15の表示画像を、図 11 (C)に示す部 分画像 303から、図 11 (B)に示す部分画像 301に変更する。  [0066] When the operation information is input, the image viewer unit moves the frame indicated by the operation information in the movement direction (z-axis positive direction) indicated by the operation information in the frame where the partial image 303 is positioned. Then, the partial image 301 that is an image surrounded by the moved frame is cut out from the entire image. Then, the image viewer unit changes the display image of the display unit 15 from the partial image 303 shown in FIG. 11 (C) to the partial image 301 shown in FIG. 11 (B).
[0067] このようにして、操作情報有効化スィッチ 15が押下された状態であれば、ディジタ ルカメラが移動するに従って、表示部 21の表示画面が移動するようになる。  [0067] In this way, if the operation information enabling switch 15 is in the depressed state, the display screen of the display unit 21 moves as the digital camera moves.
[0068] なお、上記の例は、第 2の実施形態の具体例であった力 その他の実施形態につ いても同様に処理が行われる。ただし、第 2の実施形態のようにユーザ側にカメラの 被写体がある場合と、第 1の実施形態のようにユーザの反対側にカメラの被写体があ る場合とでは、カメラで撮像されている被写体の移動方向と、表示部 21の表示画像 の移動方向とが異なる。すなわち、ユーザ側にカメラの被写体がある場合には、カメ ラで撮像されて 、る被写体の移動方向と表示部 21の表示画像の移動方向は、 z軸 方向では逆方向になり、 xy軸方向では同じ方向になる。また、ユーザの反対側にカメ ラの被写体がある場合には、カメラで撮像されている被写体の移動方向と表示部 21 の表示画像の移動方向は、 xy軸方向では逆方向になり、 z軸方向では同じ方向にな る。  [0068] In the above example, the same processing is performed for the force and other embodiments that are specific examples of the second embodiment. However, when there is a camera subject on the user side as in the second embodiment, and when there is a camera subject on the opposite side of the user as in the first embodiment, the image is captured by the camera. The moving direction of the subject is different from the moving direction of the display image on the display unit 21. That is, when there is a camera subject on the user side, the moving direction of the subject captured by the camera and the moving direction of the display image on the display unit 21 are opposite in the z-axis direction, and in the xy-axis direction. Then the same direction. In addition, when there is a camera subject on the opposite side of the user, the moving direction of the subject imaged by the camera and the moving direction of the display image on the display unit 21 are opposite in the xy axis direction, and the z axis The direction is the same.
[0069] また、上記の例では、ユーザ側にカメラの被写体がある場合、カメラで撮像されて ヽ る被写体の移動方向と表示部 21の表示画像の移動方向とが、 z軸方向では逆方向 になり、 xy軸方向では同じ方向になるものとしていた力 xy軸方向では逆方向になり 、 z軸方向では同じ方向になるようにしてもよい。この場合、ユーザがディジタルカメラ を移動させた方向とは逆の方向に表示部 21の表示画像が移動 (スクロール、拡大 Z 縮小)することになる。なお、ユーザの反対側にカメラの被写体がある場合についても 同様に、カメラで撮像されている被写体の移動方向と表示部 21の表示画像の移動 方向とが、 z軸方向では逆方向になり、 xy軸方向では同じ方向になるようにしてもよい [0069] Also, in the above example, when there is a camera subject on the user side, the moving direction of the subject captured by the camera and the moving direction of the display image on the display unit 21 are opposite in the z-axis direction. The force that was supposed to be the same direction in the xy axis direction was reversed in the xy axis direction. The z-axis direction may be the same direction. In this case, the display image on the display unit 21 is moved (scrolled, enlarged Z reduced) in the direction opposite to the direction in which the user moved the digital camera. Similarly, when there is a camera subject on the opposite side of the user, the moving direction of the subject imaged by the camera and the moving direction of the display image on the display unit 21 are opposite in the z-axis direction, It may be the same direction in the xy axis direction

Claims

請求の範囲 The scope of the claims
[1] 端末装置に搭載された三次元座標入力装置であって、  [1] A three-dimensional coordinate input device mounted on a terminal device,
動画像を撮影する動画像撮影手段と、  A moving image shooting means for shooting a moving image;
前記動画像撮影手段によって撮影された動画像にもとづいて、前記端末装置の三 次元空間内の運動を三次元座標の変化として算出する三次元動作算出手段と、 前記算出された、前記端末装置の運動にもとづいて、画像を表示する表示手段に 表示されている画像を変更させるための操作情報を生成する操作情報生成手段と、 前記の生成された操作情報に従って、前記表示手段に表示されて ヽる画像を変更 する、所定のソフトウェアに基づいて前記表示手段を制御する表示制御手段と、 を有する三次元座標入力装置。  Three-dimensional motion calculation means for calculating a motion in the three-dimensional space of the terminal device as a change in three-dimensional coordinates based on the moving image photographed by the moving image photographing means; and the calculated of the terminal device Based on the exercise, the operation information generating means for generating operation information for changing the image displayed on the display means for displaying the image, and displayed on the display means according to the generated operation information. Display control means for controlling the display means based on predetermined software for changing the image to be obtained.
[2] 前記操作情報生成手段によって生成された操作情報をユーザの操作に応じて有 効または無効にするための操作情報有効化スィッチをさらに有する、請求項 1に記載 の装置。  [2] The apparatus according to claim 1, further comprising an operation information enabling switch for enabling or disabling the operation information generated by the operation information generating means according to a user operation.
[3] 前記表示手段と前記表示制御手段とは、前記端末装置を制御するコンピュータと は別のコンピュータによって制御される、請求項 1または請求項 2記載の装置。  [3] The apparatus according to claim 1 or 2, wherein the display unit and the display control unit are controlled by a computer different from a computer that controls the terminal device.
[4] 前記表示手段は、前記端末装置の筐体の、前記動画像撮影手段が設置されて!ヽ る側と反対の側に設置されている、請求項 1から請求項 3のうちいずれかに記載の装 置。  [4] The display unit according to any one of claims 1 to 3, wherein the display unit is installed on a side of the casing of the terminal device opposite to a side on which the moving image shooting unit is installed. Equipment described in.
[5] 前記表示手段は、前記端末装置の筐体の、前記動画像撮影手段が設置されて!ヽ る側と同じ側に設置されている、請求項 1から請求項 3のうちいずれかに記載の装置  [5] The display unit according to any one of claims 1 to 3, wherein the display unit is installed on the same side of the casing of the terminal device as the side on which the moving image capturing unit is installed. Equipment described
[6] 前記動画像撮影手段は第 1の動画像撮影手段と第 2の動画像撮影手段とを含み、 前記表示手段は前記筐体に設置され、前記第 1の動画像撮影手段は、前記筐体に おける前記表示手段が設置された側に設置され、前記第 2の動画像撮影手段は、前 記筐体における前記表示手段が設置されている側とは反対の側に設置されている、 請求項 1から請求項 3のうちいずれかに記載の装置。 [6] The moving image photographing means includes a first moving image photographing means and a second moving image photographing means, the display means is installed in the housing, and the first moving image photographing means includes the Installed on the side of the casing where the display means is installed, and the second moving image capturing means is installed on the side of the casing opposite to the side where the display means is installed. The apparatus according to any one of claims 1 to 3.
[7] 前記表示手段は、表示画面を明るく表示するためのバックライトを備え、前記表示 手段とともに前記筐体の同じ側に設置されている前記動画像撮影手段は、動画像を 撮影する際に被写体を照らすための光源として前記バックライトを用いる、請求項 5ま たは請求項 6記載の装置。 [7] The display means includes a backlight for brightly displaying a display screen, and the moving image photographing means installed on the same side of the casing together with the display means displays a moving image. The apparatus according to claim 5 or 6, wherein the backlight is used as a light source for illuminating a subject when photographing.
[8] 前記動画像撮影手段が動画像を撮影する際に被写体を照らすための光源をさらに 有する、 請求項 1から請求項 7のうちいずれかに記載の装置。 [8] The apparatus according to any one of [1] to [7], further comprising a light source for illuminating a subject when the moving image capturing unit captures a moving image.
[9] 前記動画像撮影手段は、前記端末装置の三次元空間内の動作を前記三次元動 作算出手段に算出させるための動画像を得るために、あらかじめ用意されたテクスチ ャが印刷された被写体を撮影する、請求項 1から請求項 8のうちいずれかに記載の装 置。 [9] The moving image photographing unit is printed with a texture prepared in advance to obtain a moving image for causing the three-dimensional operation calculating unit to calculate the operation of the terminal device in the three-dimensional space. 9. The apparatus according to claim 1, wherein the apparatus photographs a subject.
[10] 端末装置に搭載された三次元座標入力装置であって、  [10] A three-dimensional coordinate input device mounted on a terminal device,
動画像を撮影する動画像撮影手段と、  A moving image shooting means for shooting a moving image;
前記動画像撮影手段によって撮影された動画像にもとづいて、前記端末装置の三 次元空間内の運動を三次元座標の変化として算出する三次元動作算出手段と、 前記算出された、前記端末装置の運動にもとづいて、画像を表示する表示手段に 表示されている画像を変更させるための操作情報を生成する操作情報生成手段と、 前記の生成された操作情報を、前記表示手段を所定のソフトウェアに基づいて制 御する表示制御手段に向けて出力する操作情報出力手段と、  Three-dimensional motion calculation means for calculating a motion in the three-dimensional space of the terminal device as a change in three-dimensional coordinates based on the moving image photographed by the moving image photographing means; and the calculated of the terminal device Based on the exercise, the operation information generating means for generating operation information for changing the image displayed on the display means for displaying the image, the generated operation information, the display means as a predetermined software Operation information output means for outputting to the display control means to be controlled based on,
を有する三次元座標入力装置。  A three-dimensional coordinate input device.
[11] 端末装置を用いた三次元座標入力方法であって [11] A three-dimensional coordinate input method using a terminal device,
前記端末装置に設置された動画像撮影手段によって動画像を撮影するステップと 撮影された動画像にもとづいて、前記端末装置の三次元空間内の運動を三次元 座標の変化として算出するステップと、  A step of photographing a moving image by a moving image photographing means installed in the terminal device, and a step of calculating a motion in the three-dimensional space of the terminal device as a change of three-dimensional coordinates based on the photographed moving image;
前記の算出された、前記端末装置の三次元空間内の運動にもとづいて、画像を表 示する表示手段に表示されている画像を変更させるための操作情報を生成するステ ップと、  A step of generating operation information for changing the image displayed on the display means for displaying the image based on the calculated movement of the terminal device in the three-dimensional space;
前記表示手段を所定のソフトウェアに基づいて制御し、前記生成された操作情報 に従って、前記表示手段に表示されて ヽる画像を変更するステップと、  Controlling the display means based on predetermined software, and changing an image displayed on the display means according to the generated operation information;
を有する三次元座標入力方法。 端末装置を用 V、た三次元座標入力をコンピュータに行わせるためのコンピュータブ ログラムであって A three-dimensional coordinate input method. A computer program that allows a computer to input 3D coordinates using a terminal device.
前記端末装置に設置された動画像撮影手段によって動画像を撮影する手順と、 撮影された動画像にもとづいて、前記端末装置の三次元空間内の運動を三次元 座標の変化として算出する手順と、  A procedure for capturing a moving image by a moving image capturing means installed in the terminal device; a procedure for calculating a motion of the terminal device in a three-dimensional space as a change in three-dimensional coordinates based on the captured moving image; ,
前記の算出された、前記端末装置の三次元空間内の運動にもとづいて、画像を表 示する表示手段に表示されている画像を変更させるための操作情報を生成する手 順と、  A step of generating operation information for changing the image displayed on the display means for displaying the image based on the calculated movement of the terminal device in the three-dimensional space;
前記表示手段を所定のソフトウェアに基づいて制御し、前記生成された操作情報 に従って、前記表示手段に表示されている画像を変更する手順と、  A procedure for controlling the display means based on predetermined software and changing an image displayed on the display means in accordance with the generated operation information;
を有するコンピュータプログラム。  A computer program comprising:
PCT/JP2005/012488 2004-07-07 2005-07-06 3d coordinate input device using terminal device WO2006004155A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-200894 2004-07-07
JP2004200894A JP2007310424A (en) 2004-07-07 2004-07-07 3d coordinate input system, apparatus, method, and program

Publications (1)

Publication Number Publication Date
WO2006004155A1 true WO2006004155A1 (en) 2006-01-12

Family

ID=35782956

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/012488 WO2006004155A1 (en) 2004-07-07 2005-07-06 3d coordinate input device using terminal device

Country Status (2)

Country Link
JP (1) JP2007310424A (en)
WO (1) WO2006004155A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2458881A (en) * 2008-03-19 2009-10-07 Robert William Albert Dobson Interface control using motion of a mobile device
CN103425402A (en) * 2013-08-28 2013-12-04 紫光股份有限公司 Detection method and device for mobile terminal posture

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10240436A (en) * 1996-12-26 1998-09-11 Nikon Corp Information processor and recording medium
JP2002164990A (en) * 2000-11-28 2002-06-07 Kyocera Corp Mobile communication terminal
JP2002335432A (en) * 2001-05-08 2002-11-22 Matsushita Electric Ind Co Ltd Liquid crystal display device provided with digital camera

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10240436A (en) * 1996-12-26 1998-09-11 Nikon Corp Information processor and recording medium
JP2002164990A (en) * 2000-11-28 2002-06-07 Kyocera Corp Mobile communication terminal
JP2002335432A (en) * 2001-05-08 2002-11-22 Matsushita Electric Ind Co Ltd Liquid crystal display device provided with digital camera

Also Published As

Publication number Publication date
JP2007310424A (en) 2007-11-29

Similar Documents

Publication Publication Date Title
TWI663876B (en) Image processing device, image processing method, non-transitory computer readable recording medium and photographing assist equipment for image processing device
JP6153564B2 (en) Pointing device with camera and mark output
US9344706B2 (en) Camera device
EP2189835A1 (en) Terminal apparatus, display control method, and display control program
JP2010176170A (en) Display apparatus, display control method, and display control program
JP2007121489A (en) Portable display device
US20100085469A1 (en) User input apparatus, digital camera, input control method, and computer product
JP2011123501A (en) Display device, display control method and display control program
KR100562632B1 (en) A video based handwriting recognition system and method
KR20150022233A (en) Augmented reality device using mobile device and method of implementing augmented reality
WO2006004155A1 (en) 3d coordinate input device using terminal device
WO2006097722A2 (en) Interface control
US8970483B2 (en) Method and apparatus for determining input
JP4703744B2 (en) Content expression control device, content expression control system, reference object for content expression control, and content expression control program
JP2008203538A (en) Image display system
JP4550460B2 (en) Content expression control device and content expression control program
JP2004309947A (en) Data display device, data display program, and program recording medium
JP4744217B2 (en) How the terminal works
JP4330637B2 (en) Portable device
KR20080092184A (en) Projector with virtual input interface and method of inputting data with virtual input interface
KR20150068209A (en) Apparatus and method for measuring length
JP2013250477A (en) Computer device and program
JP2005018385A (en) Operation information providing device
JP2010098646A (en) Document camera, projection system, and projection method
WO2006107245A1 (en) Method to control a display

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

122 Ep: pct application non-entry in european phase
NENP Non-entry into the national phase

Ref country code: JP