JP2017021495A - 3D coordinate detection system, information processing apparatus, program, and 3D coordinate detection method - Google Patents

3D coordinate detection system, information processing apparatus, program, and 3D coordinate detection method Download PDF

Info

Publication number
JP2017021495A
JP2017021495A JP2015137210A JP2015137210A JP2017021495A JP 2017021495 A JP2017021495 A JP 2017021495A JP 2015137210 A JP2015137210 A JP 2015137210A JP 2015137210 A JP2015137210 A JP 2015137210A JP 2017021495 A JP2017021495 A JP 2017021495A
Authority
JP
Japan
Prior art keywords
electronic pen
unit
button
coordinate detection
light emitting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015137210A
Other languages
Japanese (ja)
Inventor
えん 西田
En Nishida
えん 西田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015137210A priority Critical patent/JP2017021495A/en
Publication of JP2017021495A publication Critical patent/JP2017021495A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To enhance a degree of freedom in rotating, moving, and enlarging/reducing a 3D object.SOLUTION: A 3D coordinate detection system includes: an electronic pen having a light-emitting unit, and a button which generates a signal for entering 3D object operation mode which enables 3D object operation when in ON state; and an information processing apparatus comprising a display unit for displaying a 3D object, imaging units arranged at both top ends of the display unit to image the light-emitting unit, a coordinate detection unit which detects 3D coordinates of the electronic pen on the basis of images of the light-emitting unit captured by the imaging units, and a control unit which selects hovering operation mode where the 3D object is directly rotated, moved, or enlarged/reduced along with the motion of the electronic pen, when the button of the electronic pen is ON, in a predetermined area on a front surface of the display unit, or writing operation or gesture operation is enabled in the predetermined area, while the 3D object remains still, when the button is OFF.SELECTED DRAWING: Figure 4

Description

本発明は、3D座標検出システム、情報処理装置、プログラム、及び3D座標検出方法に関する。   The present invention relates to a 3D coordinate detection system, an information processing apparatus, a program, and a 3D coordinate detection method.

電子ペンを用いてディスプレイをタッチしたり、なぞったり、その軌跡を表示面に表示したり、映したい内容を表示したりする電子ホワイトボードと制御方法が既に知られている(図1参照)。   An electronic whiteboard and a control method are already known that use an electronic pen to touch and trace a display, display its trajectory on a display surface, and display the content to be displayed (see FIG. 1).

図1は、電子ホワイトボードの概念図である。
図1において、コンピュータに接続され、上面両端に一対のカメラを配置した電子ホワイトボードが示されており、ディスプレイに電子ペンが表示されている。
FIG. 1 is a conceptual diagram of an electronic whiteboard.
In FIG. 1, an electronic whiteboard connected to a computer and having a pair of cameras disposed on both ends of the upper surface is shown, and an electronic pen is displayed on the display.

近年、高度なグラフィックス機能を持つコンピュータの普及に伴い、3DCG(3 Dimensional Computer Graphics)を用いたコンテンツが広く普及している。しかし、今までの電子ペンでの3Dオブジェクトの操作では限れている。   In recent years, with the spread of computers having advanced graphics functions, contents using 3DCG (3 Dimensional Computer Graphics) have become widespread. However, the operation of 3D objects with electronic pens is limited.

図2は、ディスプレイと電子ペンとの関係を示す概念図である。
図2に示すように、ディスプレイに接触した状態で電子ペンは平面中の動きしか出来ないので、奥行きがある移動や回転等の動作が不十分であるという問題があった。
尚、3Dオブジェクト(3-dimension object:三次元物体)とは、三次元物体を記述するデータである。
この種の問題を解決すべく種々の提案がなされた(例えば、特許文献1参照)。
特許文献1には、3Dオブジェクトを操作目的で、筆圧情報は奥行座標として操作することが開示されている。
FIG. 2 is a conceptual diagram showing the relationship between the display and the electronic pen.
As shown in FIG. 2, since the electronic pen can only move in a plane in contact with the display, there is a problem that operations such as movement and rotation with depth are insufficient.
A 3D object (3-dimension object) is data describing a three-dimensional object.
Various proposals have been made to solve this type of problem (see, for example, Patent Document 1).
Patent Document 1 discloses that 3D objects are operated for the purpose of operation, and pen pressure information is operated as depth coordinates.

しかし、特許文献1に記載の発明は、筆圧や傾きを利用し3Dオブジェクトを操作する方法は自由度がまだ低い、例えば自由に回転操作できないという問題がある。   However, the invention described in Patent Document 1 has a problem that a method of operating a 3D object using pen pressure or inclination has a low degree of freedom, for example, it cannot be freely rotated.

そこで、本発明の目的は、3Dオブジェクトの回転、移動、拡大縮小の自由度を向上させることにある。   Accordingly, an object of the present invention is to improve the degree of freedom of rotation, movement, and enlargement / reduction of a 3D object.

上記課題を解決するため、請求項1に記載の発明は、発光部、及び、オンのときには3Dオブジェクトの操作が可能な3Dオブジェクト操作モードになる信号を発生するボタンを有する電子ペンと、前記3Dオブジェクトを表示する表示部、前記表示部の上部両端に配置され前記発光部を撮影する撮影部、前記両撮影部からの前記発光部の画像に基づいて前記電子ペンの3D座標を検出する座標検出部、及び、前記表示部の前面の所定領域内で前記電子ペンの前記ボタンがオンのときには前記電子ペンの動きに合わせて前記3Dオブジェクトが直接回転、移動、拡大縮小操作され、前記ボタンがオフのときには前記3Dオブジェクトは静止状態のまま前記所定領域内で筆記動作やジェスチャー動作が可能なホバリング操作モードに切り替わる制御部を有する情報処理装置と、を備えたことを特徴とする。   In order to solve the above-mentioned problem, the invention described in claim 1 is directed to an electronic pen having a light emitting unit and a button for generating a signal for entering a 3D object operation mode in which a 3D object can be operated when turned on. Display unit for displaying an object, photographing unit arranged at both upper ends of the display unit, photographing unit for photographing the light emitting unit, coordinate detection for detecting 3D coordinates of the electronic pen based on images of the light emitting unit from both photographing units When the button of the electronic pen is on in a predetermined area on the front surface of the display unit and the display unit, the 3D object is directly rotated, moved, and scaled according to the movement of the electronic pen, and the button is turned off. In this case, the 3D object has a control unit that switches to a hovering operation mode in which the 3D object is in a stationary state and can perform a writing operation or a gesture operation in the predetermined area. A processing unit, characterized by comprising a.

本発明によれば、3Dオブジェクトの回転、移動、拡大縮小の自由度を向上させることができる。   According to the present invention, the degree of freedom of rotation, movement, and enlargement / reduction of a 3D object can be improved.

電子ホワイトボードの概念図である。It is a conceptual diagram of an electronic whiteboard. ディスプレイと電子ペンとの関係を示す概念図である。It is a conceptual diagram which shows the relationship between a display and an electronic pen. 3D座標検出システムのハードウェアブロック図の一例である。It is an example of the hardware block diagram of a 3D coordinate detection system. 電子ペンの仮想操作空間における3Dオブジェクト105の概念図である。3 is a conceptual diagram of a 3D object 105 in a virtual operation space of an electronic pen. FIG. 電子ペンの仮想操作空間及び筆圧情報により拡張した仮想操作空間と3Dオブジェクト105との関係を示す概念図である。FIG. 3 is a conceptual diagram showing a relationship between a virtual operation space of an electronic pen and a virtual operation space expanded by writing pressure information and a 3D object 105. ホバリング状態の説明図である。It is explanatory drawing of a hovering state. 一実施形態に係る情報処理装置及び電子ペンの概念図である。1 is a conceptual diagram of an information processing apparatus and an electronic pen according to an embodiment. 図7に示した電子ペンで3D操作している状態を示す図である。It is a figure which shows the state which is 3D-operating with the electronic pen shown in FIG. 三つの走査モードの関係を示すフローチャートの一例である。It is an example of the flowchart which shows the relationship of three scanning modes. 電子ペン103のボタン104をオンからオフにした状態を示す図である。FIG. 4 is a diagram showing a state where a button 104 of the electronic pen 103 is turned off from on. 電子ペン103を3D操作モードで書込操作を行っている状態を示す図である。It is a figure which shows the state which is performing writing operation with the electronic pen 103 in 3D operation mode. 図3に示した3D座標検出システムの機能ブロック図の一例である。It is an example of the functional block diagram of the 3D coordinate detection system shown in FIG. 電子ペン103をX、Y、Z方向に移動した場合の説明図である。It is explanatory drawing at the time of moving the electronic pen 103 to a X, Y, Z direction. (a)は、図4に示した電子ペン103を直線移動した場合のフローチャートの一例であり、(b)は、図4の縮小図であり、(c)は、電子ペン103の移動距離の説明図である。4A is an example of a flowchart when the electronic pen 103 shown in FIG. 4 is linearly moved, FIG. 4B is a reduced view of FIG. 4, and FIG. It is explanatory drawing. (a)〜(d)は、電子ペン103による回転操作の説明図である。(A)-(d) is explanatory drawing of rotation operation by the electronic pen 103. FIG. (a)は、回転操作のフローチャートの一例であり、(b)は、電子ペン103の移動軌跡の一例である。(A) is an example of a flowchart of the rotation operation, and (b) is an example of a movement locus of the electronic pen 103. (a)は、電子ペン103の先端で円弧を描いた場合の回転角度を示し、(b)は、3Dオブジェクト105の回転前後の様子を示す図である。(A) shows the rotation angle when a circular arc is drawn at the tip of the electronic pen 103, and (b) shows the state before and after the rotation of the 3D object 105. FIG. 電子ペン103による拡大縮小操作の説明図である。6 is an explanatory diagram of an enlargement / reduction operation by the electronic pen 103. (a)は、拡大縮小操作のフローチャートの一例であり、(b)は、拡大縮小尺度の説明図であり、(c)は、拡大縮小操作指示矢印の説明図である。(A) is an example of a flowchart of an enlargement / reduction operation, (b) is an explanatory view of an enlargement / reduction scale, and (c) is an explanatory view of an enlargement / reduction operation instruction arrow. (a)は、3Dオブジェクト105の直線移動操作、回転操作、もしくは拡大縮小操作の切り替えのフローチャートの一例であり、(b)は、電子ペン103の円弧状の移動軌跡の一例であり、(c)は、電子ペン103の直線状の移動軌跡の一例であり、(d)は、電子ペン103のジグザグ状の移動軌跡の一例である。(A) is an example of a flowchart for switching the linear movement operation, the rotation operation, or the enlargement / reduction operation of the 3D object 105, (b) is an example of an arc-shaped movement locus of the electronic pen 103, and (c () Is an example of a linear movement locus of the electronic pen 103, and (d) is an example of a zigzag movement locus of the electronic pen 103.

<概要>
本発明の実施の形態を説明する。具体的には、3Dオブジェクト105を操作するに際して、以下の特徴を有する。
要するに、本発明は、(カメラ+発光式の電子ペン)の光学式システムに対して、自然な動きで高自由度な操作もできることが特徴になっている。
<Overview>
An embodiment of the present invention will be described. Specifically, when operating the 3D object 105, it has the following characteristics.
In short, the present invention is characterized in that it can be operated with a high degree of freedom by natural movement with respect to the optical system of (camera + light-emitting electronic pen).

<実施形態>
上記特徴について、以下の図面を用いて具体的に解説する。
[構 成]
図3は、3D座標検出システムのハードウェアブロック図の一例である。
<Embodiment>
The above features will be specifically described with reference to the following drawings.
[Constitution]
FIG. 3 is an example of a hardware block diagram of the 3D coordinate detection system.

3D座標検出システムは、情報処理装置100と電子ペン103とを有する。
情報処理装置100は、バスライン118を介して電気的に接続されたCPU11、ROM12、RAM13、SSD14、ネットワークコントローラ15、外部記憶コントローラ16、カメラコントローラ120、GPU112、及び、キャプチャデバイス111を有する。
The 3D coordinate detection system includes an information processing apparatus 100 and an electronic pen 103.
The information processing apparatus 100 includes a CPU 11, a ROM 12, a RAM 13, an SSD 14, a network controller 15, an external storage controller 16, a camera controller 120, a GPU 112, and a capture device 111 that are electrically connected via a bus line 118.

CPU(Central Processing Unit)11はアプリケーションソフトウエア(以下、アプリケーション)を実行して座標検出システムの動作全体を制御する。ROM(Read Only Memory)12にはIPL(Initial Program Loader)等が記憶されており、主に起動時にCPU11が実行するプログラムが記憶されている。RAM(Random Access Memory)13は、CPU11がアプリケーションを実行する際のワークエリアとなる。SSD(Solid State Drive)14は、3D座標を検出する座標検出システム用のアプリケーション119や各種データが記憶された不揮発メモリである。CPU11、ROM12、及びRAM13で制御部が構成されている。   A CPU (Central Processing Unit) 11 executes application software (hereinafter referred to as an application) to control the entire operation of the coordinate detection system. A ROM (Read Only Memory) 12 stores an IPL (Initial Program Loader) and the like, and mainly stores a program executed by the CPU 11 at startup. A RAM (Random Access Memory) 13 is a work area when the CPU 11 executes an application. An SSD (Solid State Drive) 14 is a nonvolatile memory in which an application 119 for a coordinate detection system that detects 3D coordinates and various data are stored. A control unit is configured by the CPU 11, the ROM 12, and the RAM 13.

ネットワークコントローラ15は、不図示のネットワークを介してサーバ等と通信する際に通信プロトコルに基づく処理を行う。尚、ネットワークは、LAN(Local Area Network)又は複数のLANが接続されたWAN(Wide Area Network:例えばインターネット)等である。   The network controller 15 performs processing based on a communication protocol when communicating with a server or the like via a network (not shown). The network is a LAN (Local Area Network) or a WAN (Wide Area Network: for example, the Internet) to which a plurality of LANs are connected.

外部記憶コントローラ16は、着脱可能な外部メモリ117に対する書き込み又は外部メモリ117からの読み出しを行う。外部メモリ117は、例えばUSBメモリ、SDカード等の記憶媒体である。キャプチャデバイス111は、PC110が表示部としてのディスプレイ101に表示している映像を取り込む(キャプチャする)。GPU(Graphics Processing Unit)112は、ディスプレイ101の各ピクセルの画素値を演算する描画専用のプロセッサである。ディスプレイコントローラ113は、GPU112が作成した画像をディスプレイ101に出力する。   The external storage controller 16 performs writing to or reading from the removable external memory 117. The external memory 117 is a storage medium such as a USB memory or an SD card. The capture device 111 captures (captures) video displayed on the display 101 as a display unit by the PC 110. A GPU (Graphics Processing Unit) 112 is a drawing-dedicated processor that calculates the pixel value of each pixel of the display 101. The display controller 113 outputs the image created by the GPU 112 to the display 101.

カメラコントローラ120には、表示部の上部両端に配置され電子ペン103を撮影する撮影部としての2つのカメラ102が接続されており、例えば、三角測量方式による座標の検出を行う。詳しくは後述する。   The camera controller 120 is connected to two cameras 102 that are arranged at both upper ends of the display unit and serve as photographing units for photographing the electronic pen 103. For example, coordinates are detected by a triangulation method. Details will be described later.

尚、本実施の形態では、情報処理装置100は指示手段としての電子ペン103と通信する必要はないが、通信機能を有していてもよい。この場合、図示するように情報処理装置100は電子ペンコントローラ116を有し、電子ペン103から接触信号を受信する(電子ペン103が通知手段を有している場合)。これにより、情報処理装置100は先端がディスプレイ101と接触しているか否かを検出することができる。   In the present embodiment, the information processing apparatus 100 does not need to communicate with the electronic pen 103 as an instruction unit, but may have a communication function. In this case, as illustrated, the information processing apparatus 100 includes an electronic pen controller 116 and receives a contact signal from the electronic pen 103 (when the electronic pen 103 includes a notification unit). Thus, the information processing apparatus 100 can detect whether or not the tip is in contact with the display 101.

尚、座標検出システム用のアプリケーションは、外部メモリ117に記憶された状態で流通されてもよいし、ネットワークコントローラ15を介して不図示のサーバからダウンロードされてもよい。アプリケーションは圧縮された状態でも実行形式でもよい。   The application for the coordinate detection system may be distributed while being stored in the external memory 117, or may be downloaded from a server (not shown) via the network controller 15. The application may be compressed or executable.

図4は、電子ペン103のディスプレイ101の前面の所定領域内としての仮想操作空間における3Dオブジェクト105の概念図である。
図6は、ホバリング状態の説明図である。
カメラ102と電子ペン103とを用いた光学式ディスプレイでは、図6に示すホバリング状態の座標も検出できる。ホバリングとは、電子ペン103がディスプレイ101に直接接触しない状態であり、電子ペン103の空間座標を検出でき、ディスプレイ101に対応する平面ホバリング座標も算出できる。さらに、ホバリングにより、3Dオブジェクト105は静止状態のまま、筆記やジェスチャー操作ができる。この結果、既存の光学式手書きシステム(電子ペン+カメラ)が電子ペン103の非接触状態の空間座標を検出可能により非接触状態で3Dオブジェクト105の操作ができる。人間の空間中自然な動きでディスプレイ101に表示されている3Dオブジェクト105を高自由度の移動や回転等の操作もできる。
FIG. 4 is a conceptual diagram of the 3D object 105 in the virtual operation space as a predetermined area on the front surface of the display 101 of the electronic pen 103.
FIG. 6 is an explanatory diagram of a hovering state.
The optical display using the camera 102 and the electronic pen 103 can also detect the hovering coordinates shown in FIG. The hovering is a state in which the electronic pen 103 does not directly contact the display 101, the spatial coordinates of the electronic pen 103 can be detected, and the planar hovering coordinates corresponding to the display 101 can also be calculated. Further, by hovering, the 3D object 105 can be written and gestured while still. As a result, the existing optical handwriting system (electronic pen + camera) can detect the spatial coordinates of the electronic pen 103 in the non-contact state, so that the 3D object 105 can be operated in the non-contact state. The 3D object 105 displayed on the display 101 can be moved and rotated with a high degree of freedom by natural movement in human space.

図5は、電子ペン103の仮想操作空間及び筆圧情報により拡張した仮想操作空間と3Dオブジェクトとの関係を示す概念図である。
図5に示した仮想操作空間との相違点は、電子ペン103による筆圧情報によりディスプレイ101の後方(奥)に仮想空間が作成された点である。
このような場合においても3Dオブジェクトを移動、回転、縮小拡大が可能である。
FIG. 5 is a conceptual diagram showing the relationship between the virtual operation space of the electronic pen 103 and the virtual operation space expanded by the pen pressure information and the 3D object.
The difference from the virtual operation space shown in FIG. 5 is that a virtual space is created behind (in the back) of the display 101 based on writing pressure information by the electronic pen 103.
Even in such a case, the 3D object can be moved, rotated, reduced and enlarged.

図7は、一実施形態に係る情報処理装置及び電子ペン103の概念図である。図8は、図7に示した電子ペン103で3D操作している状態を示す図である。
具体的には、101はディスプレイであり、手書き軌跡を表示し、表示した内容を移動させることができる平面状の装置である。
102は、カメラである。電子ペン103の座標を検出するために少なくても二つのカメラ102を設置する必要がある。三角測量により、電子ペン103の位置を検出する。更に、カメラ102はディスプレイ101の画面より少し高い位置を設置することにより、図6に示すような非接触の場合のホバリング座標も検出できる。
FIG. 7 is a conceptual diagram of the information processing apparatus and the electronic pen 103 according to an embodiment. FIG. 8 is a diagram illustrating a state in which 3D operation is performed with the electronic pen 103 illustrated in FIG. 7.
Specifically, reference numeral 101 denotes a display, which is a flat device capable of displaying a handwritten locus and moving the displayed content.
Reference numeral 102 denotes a camera. In order to detect the coordinates of the electronic pen 103, at least two cameras 102 need to be installed. The position of the electronic pen 103 is detected by triangulation. Furthermore, the camera 102 can detect hovering coordinates in the case of non-contact as shown in FIG. 6 by installing a position slightly higher than the screen of the display 101.

図8に示す電子ペン103は、例えば赤外線点光源としての発光点103aを有するペン型の指示部材である。カメラ102の画像から画像処理手法により発光点103aの位置を検出し、電子ペン103の空間中の座標を算出できる。尚、赤外線点光源をもちいることによる効果は、ユーザには見えないので操作中に気になることが無い点である。   An electronic pen 103 shown in FIG. 8 is a pen-type indicating member having a light emitting point 103a as an infrared point light source, for example. The position of the light emitting point 103a is detected from the image of the camera 102 by an image processing method, and the coordinates in the space of the electronic pen 103 can be calculated. The effect of using the infrared point light source is that it is not visible to the user and is not bothered during operation.

ボタン104は、ユーザによりオンにされると3Dオブジェクトを回転、移動、拡大縮小の操作可能な3Dオブジェクト操作モードとなることを要求する信号を発生するボタンである。電子ペン103にボタン104を設けることにより、2D操作である筆記操作やジェスチャー操作と、3D操作である、移動操作、回転操作、もしくは縮小拡大操作とを切り替えることができる。オフ状態はボタン104が押されてない状態であり、オン状態はボタン104が押下されている状態である。   The button 104 is a button that generates a signal requesting that a 3D object operation mode in which a 3D object can be rotated, moved, and enlarged / reduced when turned on by a user. By providing the button 104 on the electronic pen 103, it is possible to switch between a writing operation and a gesture operation, which are 2D operations, and a movement operation, a rotation operation, or a reduction / enlargement operation, which are 3D operations. The off state is a state where the button 104 is not pressed, and the on state is a state where the button 104 is pressed.

ディスプレイ101で表示している内容は、3D対応の場合は算出した電子ペン103とディスプレイ101との間の距離を、Z座標を3Dの奥行座標として扱い、対象3Dオブジェクト(以下、3Dオブジェクトと表記)105を操作する。3D対応してない場合はボタン104がオフの場合と同じ状態になる。   In the case of 3D support, the content displayed on the display 101 treats the calculated distance between the electronic pen 103 and the display 101 as the 3D depth coordinate and the target 3D object (hereinafter referred to as 3D object). ) Operate 105. When 3D is not supported, the state is the same as when the button 104 is off.

3Dオブジェクト105は、ディスプレイ101に3Dオブジェクト105を表示する。この表示は、既存のwebGL(ウェブブラウザで3Dコンピュータグラフィックスを表示させるための標準仕様)やCAD(Computer Aided Design)等で実現できる。また、OpenGL(Open Graphics Library)等3D対応ライブラリで新規開発でもできる。   The 3D object 105 displays the 3D object 105 on the display 101. This display can be realized by existing webGL (standard specification for displaying 3D computer graphics in a web browser), CAD (Computer Aided Design), or the like. It can also be developed with 3D-compatible libraries such as OpenGL (Open Graphics Library).

電子ペン103とディスプレイ101との接触状態と、ボタン104の状態とから三つの操作モードに分けられる。   There are three operation modes according to the contact state between the electronic pen 103 and the display 101 and the state of the button 104.

<動作1>
図9は、三つの走査モードの関係を示すフローチャートの一例である。
まず、電子ペン103がディスプレイ101に接触しているか否かを判断し(ステップS201)、電子ペン103がディスプレイ101に接触している場合(ステップS201/Y)、筆記操作モードとなる(ステップS203)。
<Operation 1>
FIG. 9 is an example of a flowchart showing the relationship between the three scanning modes.
First, it is determined whether or not the electronic pen 103 is in contact with the display 101 (step S201). When the electronic pen 103 is in contact with the display 101 (step S201 / Y), the writing operation mode is set (step S203). ).

ここで、筆記操作モードとは、ボタン104がオフの状態で、電子ペン103とディスプレイ101とが接触し、通常のタッチパネルのように描画とジェスチャー操作と行うことができるモードである。   Here, the writing operation mode is a mode in which the electronic pen 103 and the display 101 are in contact with each other when the button 104 is off, and drawing and gesture operations can be performed like a normal touch panel.

電子ペン103がディスプレイ101に接触していない場合(ステップS201/N)、ボタン104が押下されているか否かを判断し(ステップS202)、ボタン104が押下されていない場合(ステップS202/N)、ホバリング操作モードとなる(ステップS204)。   When the electronic pen 103 is not in contact with the display 101 (step S201 / N), it is determined whether or not the button 104 is pressed (step S202), and when the button 104 is not pressed (step S202 / N). Then, the hovering operation mode is set (step S204).

ここで、ホバリング操作モードとは、ボタン104がオフの状態で、図1に示すように、電子ペン103がディスプレイ101に直接触らずに(非接触状態)、電子ペン103の空間座標を検出でき、ディスプレイ101に座標の表示が可能となるモードである。   Here, the hovering operation mode is that the button 104 is off and the electronic pen 103 can detect the spatial coordinates of the electronic pen 103 without directly touching the display 101 (non-contact state) as shown in FIG. In this mode, coordinates can be displayed on the display 101.

ここで、図6を参照してホバリング状態について述べる。
図6に示すディスプレイ101の上面両端に一対のカメラ102が配置されている。カメラ102と電子ペン103の発光点103aとを結ぶ線とイメージ平面との交点がイメージ平面上に示されている。カメラ102からディスプレイ101に向かう破線は、ディスプレイ101と平行かつ電子ペン103へ向かう線である。すなわち、カメラ102から電子ペン103の発光点103aに向かう直線は破線に対して下向きになっており、カメラ102がディスプレイ101に対して浮いた位置にあることを示している。
ディスプレイ101の上に電子ペン103がホバリング状態で配置されている。ディスプレイ101上に世界座標系の空間座標(X,Y,Z)が示されている。
Here, the hovering state will be described with reference to FIG.
A pair of cameras 102 are disposed at both ends of the upper surface of the display 101 shown in FIG. The intersection of the line connecting the camera 102 and the light emitting point 103a of the electronic pen 103 and the image plane is shown on the image plane. A broken line from the camera 102 toward the display 101 is a line parallel to the display 101 and toward the electronic pen 103. That is, the straight line from the camera 102 toward the light emitting point 103a of the electronic pen 103 is downward with respect to the broken line, indicating that the camera 102 is in a position floating with respect to the display 101.
An electronic pen 103 is arranged on the display 101 in a hovering state. On the display 101, spatial coordinates (X, Y, Z) of the world coordinate system are shown.

ここで、世界座標系とは、主に3DCGの分野で用いられる、空間全体を表す座標系である。空間の中での物体の位置を示すための座標系であって、物体の表示や移動を扱うために用いられる。「グローバル座標系」(global coordinate system)と呼ばれることもある。これに対し、個々の物体の形状や変形を扱うために用いられる座標系は、ローカル座標系またはボディ座標系と呼ばれ、それぞれの物体の重心を原点とする。   Here, the world coordinate system is a coordinate system representing the entire space mainly used in the field of 3DCG. A coordinate system for indicating the position of an object in space, and is used to handle display and movement of the object. Sometimes called the “global coordinate system”. On the other hand, a coordinate system used to handle the shape and deformation of each object is called a local coordinate system or a body coordinate system, and the center of gravity of each object is the origin.

両カメラ102は、ディスプレイ101のXY平面に対してZ方向に所定の距離だけ離れて配置されている。電子ペン103の先端部の発光点103aの座標を電子ペン103の空間座標とする(X,Y,Z)。電子ペン103の空間座標(X,Y,Z)は、三角測量により検出可能である。ホバリング座標は(X,Y)となる。   Both cameras 102 are arranged at a predetermined distance in the Z direction with respect to the XY plane of the display 101. The coordinates of the light emitting point 103a at the tip of the electronic pen 103 are set as the spatial coordinates of the electronic pen 103 (X, Y, Z). The spatial coordinates (X, Y, Z) of the electronic pen 103 can be detected by triangulation. The hovering coordinate is (X, Y).

図9に戻って、ボタン104が押下されている場合(ステップS202/Y)、3Dオブジェクト操作モードとなる(ステップS205)。   Returning to FIG. 9, when the button 104 is pressed (step S202 / Y), the 3D object operation mode is set (step S205).

ここで、3Dオブジェクト105の操作モードは、電子ペン103がディスプレイ101に非接触、且つボタン104をオンの状態でディスプレイ101に表示している3Dオブジェクトを操作するモードである。3Dオブジェクト操作モードは本願の主な特徴である。   Here, the operation mode of the 3D object 105 is a mode for operating the 3D object displayed on the display 101 while the electronic pen 103 is not in contact with the display 101 and the button 104 is turned on. The 3D object operation mode is the main feature of the present application.

対象とする3Dオブジェクトの選定方法は電子ペン103のボタン104を押下した時点の空間座標(X,Y,Z)とする。対応しているディスプレイ101の平面座標は(X,Y)である。この座標の対応する3Dオブジェクト105は操作対象にする。そして、ボタン104を押下したまま、オブジェクト操作を行う。   The method of selecting the target 3D object is the spatial coordinates (X, Y, Z) when the button 104 of the electronic pen 103 is pressed. The plane coordinate of the corresponding display 101 is (X, Y). The 3D object 105 corresponding to this coordinate is an operation target. Then, the object operation is performed while the button 104 is pressed.

電子ペン103の3D操作はディスプレイ101の手前にある電子ペン103の仮想操作空間で行うことができる。図8に示すように、電子ペン103の操作空間、即ち電子ペン103の位置を検出できる範囲である。電子ペン103のボタン104を押下することにより3Dオブジェクト105を選定し、この位置をペン操作の初期位置とする。
ディスプレイ101に表示している3Dオブジェクト105に対する操作は、3Dオブジェクトに操作することになる(3Dオブジェクトは実際に存在しないが、理解しやすいため作られた)。
電子ペン103を操作する際、電子ペン103の位置と動きとをカメラ102より検出し、ディスプレイ101に表示されている3Dオブジェクト105が操作に応じて位置を更新する。
The 3D operation of the electronic pen 103 can be performed in the virtual operation space of the electronic pen 103 in front of the display 101. As shown in FIG. 8, the operation space of the electronic pen 103, that is, a range in which the position of the electronic pen 103 can be detected. By pressing the button 104 of the electronic pen 103, the 3D object 105 is selected, and this position is set as the initial position of the pen operation.
The operation on the 3D object 105 displayed on the display 101 is performed on the 3D object (the 3D object does not actually exist, but was created because it is easy to understand).
When operating the electronic pen 103, the camera 102 detects the position and movement of the electronic pen 103, and the 3D object 105 displayed on the display 101 updates the position according to the operation.

更に、電子ペン103の移動範囲が大きいため、且つ操作者が自然に動作できるため、下記の数式(1)のように、電子ペン103の移動距離を測定して3Dオブジェクト105の移動距離とする。
3Dオブジェクト105の移動距離d=k×電子ペン103の移動距離D ……(1)
(但し、0≦k≦1)
Furthermore, since the moving range of the electronic pen 103 is large and the operator can move naturally, the moving distance of the electronic pen 103 is measured as the moving distance of the 3D object 105 as shown in the following formula (1). .
Movement distance d of 3D object 105 = k × movement distance D of electronic pen 103 (1)
(However, 0 ≦ k ≦ 1)

電子ペン103の3D操作は主に三つ挙げられる。すなわち、直線移動操作、回転操作、及び拡大縮小(スケーリング)操作である。図8における実線で示す3Dオブジェクト105が、電子ペン103の拡大操作により破線で示す3Dオブジェクトとして示されている。電子ペン103の操作空間において、電子ペン103の先端をペン操作初期位置にてボタン104を押下し、図示する位置までドラッグすることにより拡大表示される。   There are mainly three 3D operations of the electronic pen 103. That is, a linear movement operation, a rotation operation, and an enlargement / reduction (scaling) operation. A 3D object 105 indicated by a solid line in FIG. 8 is shown as a 3D object indicated by a broken line by an enlargement operation of the electronic pen 103. In the operation space of the electronic pen 103, the button 104 is pressed at the tip of the pen operation initial position at the initial position of the electronic pen 103, and dragged to the position shown in the figure to be enlarged.

図10は、電子ペン103のボタン104をオンからオフにした状態を示す図である。
ボタン104をオンからオフにすることにより、電子ペン103を3D操作から2D操作に切り替えることになり、3Dオブジェクト105の移動、回転、縮小拡大はできなくなるが、筆記操作やジェスチャー操作は可能である。
FIG. 10 is a diagram illustrating a state where the button 104 of the electronic pen 103 is turned off from on.
By turning the button 104 from on to off, the electronic pen 103 is switched from 3D operation to 2D operation, and the 3D object 105 cannot be moved, rotated, reduced or enlarged, but writing operation and gesture operation are possible. .

図11は、電子ペン103を3D操作モードで書込操作を行っている状態を示す図である。電子ペン103をディスプレイ101上で移動させることで丸印、矢印、及び折れ線を表示することができる。   FIG. 11 is a diagram illustrating a state in which the electronic pen 103 is performing a writing operation in the 3D operation mode. By moving the electronic pen 103 on the display 101, a circle, an arrow, and a broken line can be displayed.

図12は、図3に示した3D座標検出システムの機能ブロック図の一例である。
情報処理装置100は、3Dオブジェクト操作モジュール305、画像処理モジュール301、座標検出部としての座標計算モジュール302、筆記操作モジュール303、及びほかアプリケーション304を有する。
3Dオブジェクト操作モジュール305は、移動操作子モジュール306、拡大縮小操作子モジュール307、及び回転操作子モジュール308を有する。
FIG. 12 is an example of a functional block diagram of the 3D coordinate detection system shown in FIG.
The information processing apparatus 100 includes a 3D object operation module 305, an image processing module 301, a coordinate calculation module 302 as a coordinate detection unit, a writing operation module 303, and other applications 304.
The 3D object operation module 305 includes a movement operation module 306, an enlargement / reduction operation module 307, and a rotation operation module 308.

画像処理モジュール301では、カメラ102が撮影した画像を分析し、目標対象(例えば、電子ペン103)を背景から切り出し、形状情報やイメージ座標情報や得ることが出来る。
座標計算モジュール302では、イメージ座標から世界座標の計算を行う。イメージ座標とは、図5に示すように、イメージ平面に投影した電子ペン103の座標位置である。世界座標では、空間中の電子ペン103の座標位置である。
筆記操作モジュール303では、世界座標モジュールの計算結果により、手書き軌跡をディスプレイ101に描画したり、操作する対象を反応させたりすることが出来る。
3Dオブジェクト操作モジュール305では、3Dオブジェクト操作モードの操作を行うモジュールである。更に、直線移動操作、回転操作、もしくは拡大縮小操作に応じて、移動操作子モジュール306、回転操作子モジュール308、及び拡大縮小操作子モジュール307の三つの子モジュールを含む。
The image processing module 301 can analyze an image captured by the camera 102, cut out a target object (for example, the electronic pen 103) from the background, and obtain shape information and image coordinate information.
The coordinate calculation module 302 calculates world coordinates from image coordinates. As shown in FIG. 5, the image coordinates are coordinate positions of the electronic pen 103 projected onto the image plane. In world coordinates, it is the coordinate position of the electronic pen 103 in space.
The writing operation module 303 can draw a handwritten trajectory on the display 101 or make an object to be operated react based on the calculation result of the world coordinate module.
The 3D object operation module 305 is a module that performs operations in the 3D object operation mode. Furthermore, three sub-modules including a movement operator module 306, a rotation operator module 308, and an enlargement / reduction operator module 307 are included according to a linear movement operation, a rotation operation, or an enlargement / reduction operation.

以下、具体的な3Dオブジェクト操作方法について図13を参照して説明する。
図13は、電子ペン103をX、Y、Z方向に移動した場合の説明図である。
Hereinafter, a specific 3D object operation method will be described with reference to FIG.
FIG. 13 is an explanatory diagram when the electronic pen 103 is moved in the X, Y, and Z directions.

直線移動操作
図13に示すように、電子ペン103のボタン104を押下することにより対象となる3Dオブジェクト105を選定し、この位置をペン操作の初期位置とする。ボタン104を押下したまま電子ペン103を移動すると、ディスプレイ101に表示している3Dオブジェクト105の位置も同じ方向に移動する。電子ペン103の移動は三つの自由度がある。即ちX方向、Y方向、Z方向、或はXYZの任意組み合わせの方向に移動できる。
As shown in FIG. 13, the target 3D object 105 is selected by pressing the button 104 of the electronic pen 103, and this position is set as the initial position of the pen operation. When the electronic pen 103 is moved while the button 104 is pressed, the position of the 3D object 105 displayed on the display 101 is also moved in the same direction. The movement of the electronic pen 103 has three degrees of freedom. That is, it can move in any direction of X direction, Y direction, Z direction, or XYZ.

<動作2>
図14(a)は、図4に示した電子ペン103を直線移動した場合のフローチャートの一例であり、図14(b)は、図4の縮小図であり、図14(c)は、電子ペン103の移動距離の説明図である。
<Operation 2>
14A is an example of a flowchart when the electronic pen 103 shown in FIG. 4 is linearly moved, FIG. 14B is a reduced view of FIG. 4, and FIG. 6 is an explanatory diagram of a moving distance of a pen 103. FIG.

1.直線移動操作
フローチャートにおけるステップS501にて、3Dオブジェクトを選定する。電子ペン103のボタン104を押下することにより対象とする3Dオブジェクト105を選定し、この位置をペン操作の初期位置とする。図14の右上には電子ペン103の移動に伴い、3Dオブジェクトがディスプレイ101上を移動する様子が表示されている。
1. Linear movement operation In step S501 in the flowchart, a 3D object is selected. The target 3D object 105 is selected by pressing the button 104 of the electronic pen 103, and this position is set as the initial position of the pen operation. In the upper right of FIG. 14, a state in which the 3D object moves on the display 101 as the electronic pen 103 moves is displayed.

ステップS502にて、電子ペン103の世界座標を算出する。すなわち、当時点の電子ペン103の世界座標(x0,y0,z0)を算出する。
ステップS503にて、世界座標(x0,y0,z0)を更新して新たな世界座標(xt,yt,zt)を得る。時間△tが経過し、電子ペン103の新しい時点の世界座標を再計算する。
図14の右中央に更新前の世界座標(x0,y0,z0)と更新後の世界座標(xt,yt,zt)とが表示されている。
In step S502, the world coordinates of the electronic pen 103 are calculated. That is, the world coordinates (x0, y0, z0) of the electronic pen 103 at that time are calculated.
In step S503, the world coordinates (x0, y0, z0) are updated to obtain new world coordinates (xt, yt, zt). After the time Δt has elapsed, the world coordinates of the electronic pen 103 at a new point in time are recalculated.
The world coordinates before update (x0, y0, z0) and the world coordinates after update (xt, yt, zt) are displayed in the right center of FIG.

ステップS504にて、電子ペン103の移動距離を計算する。図14(c)に示すように、ステップS502とステップS503で算出した世界座標から、電子ペン103の各方向の移動距離(Dx,Dy,Dz)を計算する。   In step S504, the moving distance of the electronic pen 103 is calculated. As shown in FIG. 14C, the movement distance (Dx, Dy, Dz) in each direction of the electronic pen 103 is calculated from the world coordinates calculated in steps S502 and S503.

ステップS505にて、3Dオブジェクト105の移動距離を換算する。すなわち数式(1)により3Dオブジェクト105の各方向の移動距離(dx,dy,dz)を計算する。数式(2)の平行移動行列の形で保存する。
ステップS506にて、3Dオブジェクト105の移動(再描画)を行う。移動後の座標を算出し、新座標位置で3Dオブジェクト105を再描画する。3Dオブジェクト105の各点に対して、移動後座標=平行移動行列*移動前座標となる。
人の手の動きには微小な振動があるので、何フレームの移動方向を計算し、その平均方向を3Dオブジェクト105の移動方向とすることで、小さい振動を抑えることができる。
In step S505, the moving distance of the 3D object 105 is converted. That is, the movement distance (dx, dy, dz) of each direction of the 3D object 105 is calculated by the mathematical formula (1). Save in the form of the translation matrix of equation (2).
In step S506, the 3D object 105 is moved (redrawn). The coordinates after movement are calculated, and the 3D object 105 is redrawn at the new coordinate position. For each point of the 3D object 105, the coordinates after movement = the translation matrix * the coordinates before movement.
Since there is a minute vibration in the movement of a human hand, a small vibration can be suppressed by calculating the moving direction of how many frames and setting the average direction as the moving direction of the 3D object 105.

<動作3>
2.回転操作
電子ペン103のボタン104を押下することにより対象とする3Dオブジェクト105を選定し、この位置を電子ペン103の操作の初期位置とする。ボタン104を押下したままで徐々にある方向の円周もしくは円弧を描くことにより、3Dオブジェクト105をその方向で回転させることができる。
<Operation 3>
2. Rotation Operation The target 3D object 105 is selected by pressing the button 104 of the electronic pen 103, and this position is set as the initial position of the operation of the electronic pen 103. The 3D object 105 can be rotated in that direction by gradually drawing a circumference or arc in a certain direction while keeping the button 104 pressed.

図15(a)〜(d)は、電子ペン103による回転操作の説明図である。
図15(a)に示すように、回転操作は基本的にXYZ方向の各軸に対する回転操作である。すなわち、図15(b)に示すようにX方向軸を回転軸として電子ペン103の先端の発光点103aを破線矢印の方向に回転させると、3Dオブジェクト105はX方向軸で回転する。図15(c)に示すようにY方向軸を回転軸として電子ペン103の先端である発光点103aを破線矢印の方向に回転させると、3Dオブジェクト105はY方向軸で回転する。Z方向軸についても同様に、図15(d)に示すようにZ方向軸を回転軸として電子ペン103の先端の発光点103aを破線矢印の方向に回転させると、3Dオブジェクト105はZ方向軸で回転する。
FIGS. 15A to 15D are explanatory diagrams of the rotation operation by the electronic pen 103. FIG.
As shown in FIG. 15A, the rotation operation is basically a rotation operation with respect to each axis in the XYZ directions. That is, as shown in FIG. 15B, when the light emitting point 103a at the tip of the electronic pen 103 is rotated in the direction of the dashed arrow with the X direction axis as the rotation axis, the 3D object 105 rotates on the X direction axis. As shown in FIG. 15C, when the light emitting point 103a, which is the tip of the electronic pen 103, is rotated in the direction of the broken line arrow with the Y direction axis as the rotation axis, the 3D object 105 rotates on the Y direction axis. Similarly, as shown in FIG. 15D, when the light emitting point 103a at the tip of the electronic pen 103 is rotated in the direction of the broken line arrow as shown in FIG. Rotate with.

図16(a)は、回転操作のフローチャートの一例であり、図16(b)は、電子ペン103の移動軌跡の一例である。
図16(a)のステップS601にて、3Dオブジェクトを選定する。電子ペン103のボタン104を押下することにより対象とする3Dオブジェクト105を選定し、この位置をペン操作の初期位置とする。
ステップS602にて、電子ペン103の世界座標を算出する。当時点の電子ペン103の世界座標(x0,y0,z0)を算出する。
FIG. 16A is an example of a flowchart of the rotation operation, and FIG. 16B is an example of the movement trajectory of the electronic pen 103.
In step S601 of FIG. 16A, a 3D object is selected. The target 3D object 105 is selected by pressing the button 104 of the electronic pen 103, and this position is set as the initial position of the pen operation.
In step S602, the world coordinates of the electronic pen 103 are calculated. The world coordinates (x0, y0, z0) of the electronic pen 103 at that time are calculated.

ステップS603にて、世界座標を更新する。ある時間間隔N△t経過し、このN△tの間の各位置の座標を算出し、図16に示すような電子ペン103の移動軌跡を記録する。
ステップS604にて、電子ペン103の移動軌跡を分析し、回転方向を推定する。具体的には電子ペン103の軌跡を分析(直線のフィッティング等)により、回転方向を推定する。
ステップS605にて、回転角度を計算する。
In step S603, the world coordinates are updated. After a certain time interval NΔt has elapsed, the coordinates of each position during NΔt are calculated, and the movement locus of the electronic pen 103 as shown in FIG. 16 is recorded.
In step S604, the movement trajectory of the electronic pen 103 is analyzed to estimate the rotation direction. Specifically, the direction of rotation is estimated by analyzing the trajectory of the electronic pen 103 (such as straight line fitting).
In step S605, the rotation angle is calculated.

図17(a)は、電子ペン103の先端で円弧を描いた場合の回転角度を示し、図17(b)は、3Dオブジェクト105の回転前後の様子を示す図である。
図17(a)、(b)に示すように、電子ペン103はZ方向軸周りにθ度に回転する例である。3Dオブジェクト105の回転角度θは電子ペン103と回転角度に相当する。
ステップS606にて、3Dオブジェクト105の回転、すなわち再描画を行う。回転後の座標を算出し、新座標位置で3Dオブジェクト105を再描画する。3Dオブジェクト105の各点に対して、数式(2)で表される。
17A shows a rotation angle when an arc is drawn at the tip of the electronic pen 103, and FIG. 17B shows a state before and after the rotation of the 3D object 105. As shown in FIG.
As shown in FIGS. 17A and 17B, the electronic pen 103 is an example that rotates around the Z-direction axis by θ degrees. The rotation angle θ of the 3D object 105 corresponds to the rotation angle of the electronic pen 103.
In step S606, the 3D object 105 is rotated, that is, redrawn. The coordinates after rotation are calculated, and the 3D object 105 is redrawn at the new coordinate position. Each point of the 3D object 105 is expressed by Equation (2).

回転後座標=回転行列*回転前座標 ……(3)           Coordinate after rotation = rotation matrix * coordinate before rotation ...... (3)

回転行列としては、4行4列の回転行列(X軸:数式(4))、回転行列(Y軸:数式(5))、回転行列(Z軸:数式(6))が挙げられる。   Examples of the rotation matrix include a 4 × 4 rotation matrix (X axis: Formula (4)), a rotation matrix (Y axis: Formula (5)), and a rotation matrix (Z axis: Formula (6)).

<動作4>
3.拡大縮小操作
この拡大縮小操作により3Dオブジェクト105の形を変えずにサイズだけを変更することができる。
図18は、電子ペン103による拡大縮小操作の説明図である。
拡大縮小操作と移動操作とを区別するため、拡大縮小操作するための指示矢印を3Dオブジェクト105a、105bの隅に表示する。この矢印を選定し、拡大方向と縮小方向とに徐々に移動することにより、3Dオブジェクト105のサイズを変更することができる。
<Operation 4>
3. Enlarging / reducing operation By this enlarging / reducing operation, only the size can be changed without changing the shape of the 3D object 105.
FIG. 18 is an explanatory diagram of the enlargement / reduction operation by the electronic pen 103.
In order to distinguish between the enlargement / reduction operation and the movement operation, instruction arrows for the enlargement / reduction operation are displayed at the corners of the 3D objects 105a and 105b. The size of the 3D object 105 can be changed by selecting this arrow and gradually moving in the enlargement direction and the reduction direction.

図19(a)は、拡大縮小操作のフローチャートの一例であり、図19(b)は、拡大縮小尺度の説明図であり、図19(c)は、拡大縮小操作指示矢印の説明図である。
ステップS701にて、3Dオブジェクトを選定する。ホバリング状態で座標位置を確認しながら、拡大縮小指示矢印の範囲内で電子ペン103のボタン104を押下することで対象とする3Dオブジェクトの拡大縮小モードを選定することができる。
図19(c)に示すように、指示矢印は3Dオブジェクトを囲む立方形の角に記載する。
FIG. 19A is an example of a flowchart of an enlargement / reduction operation, FIG. 19B is an explanatory view of an enlargement / reduction scale, and FIG. 19C is an explanatory view of an enlargement / reduction operation instruction arrow. .
In step S701, a 3D object is selected. While confirming the coordinate position in the hovering state, the user can select the enlargement / reduction mode of the target 3D object by pressing the button 104 of the electronic pen 103 within the range of the enlargement / reduction instruction arrow.
As shown in FIG. 19 (c), the pointing arrow is written at a cubic corner surrounding the 3D object.

ステップS702にて、電子ペン103の世界座標を算出する。当時点の電子ペン103の世界座標(x0,y0,z0)を算出する。
ステップS703にて、世界座標を更新する。時間間隔△t経過し、新しい世界座標(xt,yt,zt)を再計算する。図19(b)に示すように、x, y, z方向の移動距離(Dx,Dy,Dz)も算出できる。
ステップS704にて、前述した数式(1)により、ステップS703で算出した移動距離(Dx,Dy,Dz)を3Dオブジェクト105bの移動距離(dx,dy,dz)に換算する。
ステップS705にて、移動距離(dx,dy,dz)からx,y,z方向の拡大縮小尺度を計算する。具体的には図19(c)に示すように、3Dオブジェクト105bを囲む立方形のx,y,zの長さを(Lx,Ly,Lz)とする。拡大縮小尺度(sx,sy,sz)は、下記の数式(7)で表される。
(sx,sy,sz) = (dx/Lx, dy/Ly, dz/Lz) ……(7)
In step S702, the world coordinates of the electronic pen 103 are calculated. The world coordinates (x0, y0, z0) of the electronic pen 103 at that time are calculated.
In step S703, the world coordinates are updated. After a time interval Δt has elapsed, new world coordinates (xt, yt, zt) are recalculated. As shown in FIG. 19B, the movement distances (Dx, Dy, Dz) in the x, y, and z directions can also be calculated.
In step S704, the movement distance (Dx, Dy, Dz) calculated in step S703 is converted into the movement distance (dx, dy, dz) of the 3D object 105b by the above-described equation (1).
In step S705, an enlargement / reduction scale in the x, y, and z directions is calculated from the movement distance (dx, dy, dz). Specifically, as shown in FIG. 19C, the length of the cubic x, y, z surrounding the 3D object 105b is (Lx, Ly, Lz). The scaling scale (sx, sy, sz) is expressed by the following mathematical formula (7).
(sx, sy, sz) = (dx / Lx, dy / Ly, dz / Lz) (7)

ステップS706にて、3Dオブジェクト105bの更新である拡大縮小実施(再描画)を行う。拡大縮小後の座標を算出し、新座標位置で3Dオブジェクトを再描画する。3Dオブジェクト105bの各点に対して下記の数式(8)で再描画する。
拡大縮小後座標=拡大縮小行列*拡大縮小前座標 ……(8)
尚拡大縮小行列は、数式(9)で表される。
In step S706, enlargement / reduction (redrawing), which is an update of the 3D object 105b, is performed. Calculate the scaled coordinates and redraw the 3D object at the new coordinates. Redraw each point of the 3D object 105b using the following formula (8).
Scaled coordinates = Scaled matrix * Coordinates before scaling ... (8)
The enlargement / reduction matrix is expressed by Equation (9).

前述した3Dオブジェクト105,105a,105bの直線移動操作、回転操作、拡大縮小操作の切り替え方法については、通常の3Dソフトウェアでは、メニューから一つの操作を選ぶことが多い。
そこで、余分な手間がかからないように、本願では、自動的に操作を判断することとする。具体的な判断方法を図20(a)〜(d)に示す。
As for the switching method of the above-described linear movement operation, rotation operation, and enlargement / reduction operation of the 3D objects 105, 105a, and 105b, in normal 3D software, one operation is often selected from a menu.
Therefore, in this application, the operation is automatically determined so as not to take extra time. A specific determination method is shown in FIGS.

図20(a)は、3Dオブジェクトの直線移動操作、回転操作、もしくは拡大縮小操作の切り替えのフローチャートの一例であり、図20(b)は、電子ペン103の円弧状の移動軌跡の一例である。図20(c)は、電子ペン103の直線状の移動軌跡の一例であり、図20(d)は、電子ペン103のジグザグ状の移動軌跡の一例である。   FIG. 20A is an example of a flowchart for switching between a linear movement operation, a rotation operation, and an enlargement / reduction operation of a 3D object, and FIG. 20B is an example of an arc-shaped movement locus of the electronic pen 103. . FIG. 20C is an example of a linear movement locus of the electronic pen 103, and FIG. 20D is an example of a zigzag movement locus of the electronic pen 103.

図20(a)に示すフローチャートのステップS1701にて、図9に示すように3Dオブジェクトの操作モードと判断され、3Dオブジェクト操作開始とする。
ステップS1702にて、開始する時点(ボタン104が押される時点)の電子ペン103の世界座標を算出する。
ステップS1703にて、世界座標が拡大縮小操作を指示する指示矢印の作用範囲内に入るか否かを判断する。
In step S1701 of the flowchart shown in FIG. 20A, it is determined that the operation mode is the 3D object operation mode as shown in FIG. 9, and the 3D object operation is started.
In step S1702, the world coordinates of the electronic pen 103 at the start time (when the button 104 is pressed) are calculated.
In step S1703, it is determined whether or not the world coordinates fall within the action range of the instruction arrow that instructs the enlargement / reduction operation.

ステップS1704にて、ステップS1703の判断結果が「指示矢印の作用範囲内」となる場合、これからの操作は拡大縮小操作と判断される。
ステップS1705にて、ステップS1703の判断結果が「指示矢印の作用範囲外」となる場合、さらに動作分析を行う。まず図20(b)のように、ある時間間隔N△t内で電子ペン103の移動軌跡を記録し、各点の世界座標を算出する。
ステップS1706にて、電子ペン103の移動軌跡を直線でフィッティングする。具体的には直線をy=ax+bと想定し、最小2乗法で直線のパラータaとパラメータbとを算出する。
In step S1704, if the determination result in step S1703 is “within the action range of the pointing arrow”, the operation from now on is determined to be an enlargement / reduction operation.
In step S1705, if the determination result in step S1703 is “outside the action range of the pointing arrow”, further operation analysis is performed. First, as shown in FIG. 20B, the movement locus of the electronic pen 103 is recorded within a certain time interval NΔt, and the world coordinates of each point are calculated.
In step S1706, the movement locus of the electronic pen 103 is fitted with a straight line. Specifically, assuming that a straight line is y = ax + b, the straight line parameter a and the parameter b are calculated by the least square method.

ステップS1707にて、記録した電子ペン103の移動軌跡と算出した直線との間の誤差エラーを計算する。ある閾値thを設定して計算する。
ステップS1708にて、ステップS1707で算出したエラー < thの場合は、電子ペン103の運動軌跡は直線でフィッティングできると考えられるので、直線移動と判断される(図20(c))。
In step S1707, an error error between the recorded movement locus of the electronic pen 103 and the calculated straight line is calculated. Calculate by setting a certain threshold th.
In step S1708, if the error calculated in step S1707 <th, it is considered that the movement trajectory of the electronic pen 103 can be fitted with a straight line, so it is determined that the movement is a straight line (FIG. 20C).

ステップS1709にて、ステップS1707で算出したエラー > thの場合は、図20(d)に示すように各軌跡点が直線からかなり離れているので、フィッティング誤差エラーが大きい。このため、電子ペン103の運動軌跡は直線でフィッティングできないと考えられる。本願の場合は回転操作と判断される。   In step S1709, when the error calculated in step S1707> th, the locus error is considerably away from the straight line as shown in FIG. For this reason, it is considered that the movement locus of the electronic pen 103 cannot be fitted with a straight line. In the case of the present application, it is determined as a rotation operation.

人間の手が宙中での動きが不安定なこともあるが、数式(1)により微小な動きを避け、大きめな動きで操作することで不安定が減少することができる。更に、前述したように、何フレームの平均を使って動作を推定することによる不安定が減少することができると考えられる。   Although the movement of a human hand in the air may be unstable, the instability can be reduced by operating with a large movement while avoiding a minute movement according to Equation (1). Further, as described above, it is considered that the instability caused by estimating the motion using the average of how many frames can be reduced.

<作用効果>
以上より、カメラと電子ペンとを用いた光学式ディスプレイによりホバリング状態の座標、筆記、及びジェスチャーを検出できるので、3Dオブジェクトの回転、移動、拡大縮小の自由度を向上させることができる。
<Effect>
As described above, since the coordinates, writing, and gesture of the hovering state can be detected by the optical display using the camera and the electronic pen, the degree of freedom of rotation, movement, and enlargement / reduction of the 3D object can be improved.

尚、この実施形態で説明する電子ペンと、情報処理装置とが接続されたシステム構成は一例であり、用途や目的に応じて様々なシステム構成例があることは言うまでもない。   It should be noted that the system configuration in which the electronic pen and the information processing apparatus described in this embodiment are connected is an example, and it goes without saying that there are various system configuration examples depending on applications and purposes.

<プログラム>
以上で説明した本発明に係る情報処理装置は、コンピュータで処理を実行させるプログラムによって実現されている。一例として、プログラムにより本発明の機能を実現する場合の説明を以下で行う。
<Program>
The information processing apparatus according to the present invention described above is realized by a program that causes a computer to execute processing. As an example, the case where the function of the present invention is realized by a program will be described below.

例えば、
表示部、撮影部、座標検出部、及び制御部を有する情報処理装置のコンピュータが読み取り可能なプログラムであって、
コンピュータに、
表示部、撮影部、座標検出部、及び制御部を有する情報処理装置のコンピュータが読み取り可能なプログラムであって、
コンピュータに、
表示部が、3Dオブジェクトを表示する手順、
撮影部が、表示部の上部両端に配置され電子ペンの発光部を撮影する手順、
座標検出部が、両撮影部からの発光部の画像に基づいて電子ペンの3D座標を検出する手順、
制御部が、表示部の前面の所定領域内で電子ペンのボタンがオンのときには電子ペンの動きに合わせて3Dオブジェクトが直接回転、移動、拡大縮小操作され、ボタンがオフのときには3Dオブジェクトは静止状態のまま所定領域内で筆記動作やジェスチャー動作が可能なホバリング操作モードに切り替わる手順、
を実行させるためのプログラムが挙げられる。
For example,
A computer-readable program of an information processing apparatus having a display unit, a photographing unit, a coordinate detection unit, and a control unit,
On the computer,
A computer-readable program of an information processing apparatus having a display unit, a photographing unit, a coordinate detection unit, and a control unit,
On the computer,
The procedure that the display unit displays 3D objects,
Procedures for photographing the light emitting part of the electronic pen placed on the upper ends of the display part,
A procedure for the coordinate detection unit to detect the 3D coordinates of the electronic pen based on the image of the light emitting unit from both imaging units,
When the button of the electronic pen is on in the specified area on the front of the display unit, the 3D object is directly rotated, moved and scaled according to the movement of the electronic pen. When the button is off, the 3D object is stationary. The procedure for switching to the hovering operation mode that allows writing and gesture operations within a specified area
A program for executing

このようなプログラムは、コンピュータに読み取り可能な記憶媒体に記憶されていてもよい。   Such a program may be stored in a computer-readable storage medium.

<記憶媒体>
ここで、記憶媒体としては、例えばCD-ROM、フレキシブルディスク(FD)、CD-R等のコンピュータで読み取り可能な記憶媒体、フラッシュメモリ、RAM、ROM、FeRAM等の半導体メモリやHDDが挙げられる。
<Storage medium>
Here, examples of the storage medium include computer-readable storage media such as CD-ROM, flexible disk (FD), and CD-R, semiconductor memories such as flash memory, RAM, ROM, and FeRAM, and HDD.

CD-ROMは、Compact Disc Read Only Memoryの略である。フレキシブルディスクは、Flexible Disk:FDを意味する。CD-Rは、CD Recordableの略である。FeRAMは、Ferroelectric RAMの略で、強誘電体メモリを意味する。HDDは、Hard Disc Driveの略である。   CD-ROM is an abbreviation for Compact Disc Read Only Memory. Flexible disk means Flexible Disk (FD). CD-R is an abbreviation for CD Recordable. FeRAM is an abbreviation for Ferroelectric RAM and means a ferroelectric memory. HDD is an abbreviation for Hard Disc Drive.

尚、上述した実施の形態は、本発明の好適な実施の形態の一例を示すものであり、本発明はそれに限定されることなく、その要旨を逸脱しない範囲内において、種々変形実施が可能である。例えば、上述した実施の形態では、発光部に赤外線点光源を用いた場合で説明したが、本発明はこれに限定されるものではなく、可視光点光源を用いてもよい。   The above-described embodiment shows an example of a preferred embodiment of the present invention, and the present invention is not limited thereto, and various modifications can be made without departing from the scope of the invention. is there. For example, in the above-described embodiment, the case where an infrared point light source is used for the light emitting unit has been described. However, the present invention is not limited to this, and a visible light point light source may be used.

100 情報処理装置
101 ディスプレイ
102 カメラ
103 電子ペン
103a 発光点
104 ボタン
105、105a、105b 3Dオブジェクト
110 PC
116 電子ペンコントローラ
117 外部メモリ
118 バスライン
119 アプリケーション
120 カメラコントローラ
301 画像処理モジュール
302 座標計算モジュール
303 筆記操作モジュール
304 ほかアプリケーション
305 3Dオブジェクト操作モジュール
306 移動操作子モジュール
307 拡大縮小操作子モジュール
308 回転操作子モジュール
DESCRIPTION OF SYMBOLS 100 Information processing apparatus 101 Display 102 Camera 103 Electronic pen 103a Light emission point 104 Button 105, 105a, 105b 3D object 110 PC
116 Electronic Pen Controller 117 External Memory 118 Bus Line 119 Application 120 Camera Controller 301 Image Processing Module 302 Coordinate Calculation Module 303 Writing Operation Module 304 Other Application 305 3D Object Operation Module 306 Movement Operator Module 307 Enlargement / Reduction Operator Module 308 Rotation Operator module

特開2007‐536652号公報JP 2007-536652 A

Claims (6)

発光部、及び、オンのときには3Dオブジェクトの操作が可能な3Dオブジェクト操作モードになる信号を発生するボタンを有する電子ペンと、
前記3Dオブジェクトを表示する表示部、前記表示部の上部両端に配置され前記発光部を撮影する撮影部、前記両撮影部からの前記発光部の画像に基づいて前記電子ペンの3D座標を検出する座標検出部、及び、前記表示部の前面の所定領域内で前記電子ペンの前記ボタンがオンのときには前記電子ペンの動きに合わせて前記3Dオブジェクトが直接回転、移動、拡大縮小操作され、前記ボタンがオフのときには前記3Dオブジェクトは静止状態のまま前記所定領域内で筆記動作やジェスチャー動作が可能なホバリング操作モードに切り替わる制御部を有する情報処理装置と、
を備えたことを特徴とする3D座標検出システム。
An electronic pen having a light emitting unit and a button for generating a signal for entering a 3D object operation mode capable of operating a 3D object when turned on;
3D coordinates of the electronic pen are detected based on a display unit that displays the 3D object, an imaging unit that is disposed at both upper ends of the display unit, and that captures the light emitting unit, and images of the light emitting unit from both imaging units. When the button of the electronic pen is on in a predetermined area on the front surface of the coordinate detection unit and the display unit, the 3D object is directly rotated, moved, and enlarged / reduced according to the movement of the electronic pen, and the button An information processing apparatus having a control unit that switches to a hovering operation mode in which the 3D object remains stationary and can perform a writing operation and a gesture operation in the predetermined area when is off;
A 3D coordinate detection system comprising:
前記電子ペンが前記表示部に接触している場合には筆記動作が可能な筆記操作モードとなることを特徴とする請求項1記載の3D座標検出システム。   The 3D coordinate detection system according to claim 1, wherein when the electronic pen is in contact with the display unit, a writing operation mode in which a writing operation is possible is set. 前記電子ペンの発光部は赤外線を発光することを特徴とする請求項1または2記載の3D座標検出システム。   The 3D coordinate detection system according to claim 1, wherein the light emitting unit of the electronic pen emits infrared light. 3Dオブジェクトを表示する表示部と、
前記表示部の上部両端に配置され電子ペンの発光部を撮影する撮影部と、
前記両撮影部からの前記発光部の画像に基づいて、前記電子ペンの3D座標を検出する座標検出部と、
前記表示部の前面の所定領域内で前記電子ペンのボタンがオンのときには前記電子ペンの動きに合わせて前記3Dオブジェクトが直接回転、移動、拡大縮小操作され、前記ボタンがオフのときには前記3Dオブジェクトは静止状態のまま前記所定領域内で筆記動作やジェスチャー動作が可能なホバリング操作モードに切り替わる制御部と、を備えたことを特徴とする情報処理装置。
A display unit for displaying a 3D object;
An imaging unit that is arranged at both upper ends of the display unit and shoots the light emitting unit of the electronic pen;
A coordinate detection unit that detects 3D coordinates of the electronic pen based on images of the light emitting unit from the two imaging units;
When the button of the electronic pen is on in a predetermined area on the front surface of the display unit, the 3D object is directly rotated, moved, and enlarged / reduced according to the movement of the electronic pen, and when the button is off, the 3D object is operated. An information processing apparatus comprising: a control unit that switches to a hovering operation mode in which a writing operation and a gesture operation can be performed in the predetermined area while still.
表示部、撮影部、座標検出部、及び制御部を有する情報処理装置のコンピュータが読み取り可能なプログラムであって、
前記コンピュータに、
前記表示部が、3Dオブジェクトを表示する手順、
前記撮影部が、前記表示部の上部両端に配置され電子ペンの発光部を撮影する手順、
前記座標検出部が、前記両撮影部からの前記発光部の画像に基づいて前記電子ペンの3D座標を検出する手順、
前記制御部が、前記表示部の前面の所定領域内で前記電子ペンの前記ボタンがオンのときには前記電子ペンの動きに合わせて前記3Dオブジェクトが直接回転、移動、拡大縮小操作され、前記ボタンがオフのときには前記3Dオブジェクトは静止状態のまま前記所定領域内で筆記動作やジェスチャー動作が可能なホバリング操作モードに切り替わる手順、
を実行させるためのプログラム。
A computer-readable program of an information processing apparatus having a display unit, a photographing unit, a coordinate detection unit, and a control unit,
In the computer,
A procedure in which the display unit displays a 3D object;
A procedure for photographing the light emitting part of the electronic pen, which is disposed at both upper ends of the display part,
A procedure in which the coordinate detection unit detects 3D coordinates of the electronic pen based on images of the light emitting unit from the two imaging units;
When the button of the electronic pen is on in a predetermined area on the front surface of the display unit, the control unit directly rotates, moves, and enlarges / reduces the 3D object according to the movement of the electronic pen, and the button A procedure for switching to a hovering operation mode in which the 3D object is in a stationary state and can perform a writing operation and a gesture operation in the predetermined area when off;
A program for running
発光部、及びオンにされると3Dオブジェクトが操作可能な3Dオブジェクト操作モードとなるボタンを有する電子ペンを準備する工程、
3Dオブジェクトを表示する表示部の上部両端に配置された撮影部で前記電子ペンの発光部を撮影する工程、
前記両撮影部からの前記発光部の画像に基づいて前記電子ペンの3D座標を検出する工程、
前記表示部の前面の所定領域内で前記電子ペンの前記ボタンがオンのときには前記電子ペンの動きに合わせて前記3Dオブジェクトが直接回転、移動、拡大縮小操作され、前記ボタンがオフのときには前記3Dオブジェクトは静止状態のまま前記所定領域内で筆記動作やジェスチャー動作が可能なホバリング操作モードに切り替わる工程、
を備えたことを特徴とする3D座標検出方法。
A step of preparing an electronic pen having a light emitting unit and a button that is in a 3D object operation mode in which a 3D object can be operated when turned on;
Photographing the light emitting part of the electronic pen with photographing parts arranged at both upper ends of the display part for displaying the 3D object;
Detecting 3D coordinates of the electronic pen based on images of the light emitting unit from the two imaging units;
When the button of the electronic pen is turned on within a predetermined area on the front surface of the display unit, the 3D object is directly rotated, moved, and scaled according to the movement of the electronic pen, and when the button is off, the 3D object is operated. A step of switching to a hovering operation mode in which an object can perform a writing operation and a gesture operation in the predetermined area while being in a stationary state;
A 3D coordinate detection method comprising:
JP2015137210A 2015-07-08 2015-07-08 3D coordinate detection system, information processing apparatus, program, and 3D coordinate detection method Pending JP2017021495A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015137210A JP2017021495A (en) 2015-07-08 2015-07-08 3D coordinate detection system, information processing apparatus, program, and 3D coordinate detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015137210A JP2017021495A (en) 2015-07-08 2015-07-08 3D coordinate detection system, information processing apparatus, program, and 3D coordinate detection method

Publications (1)

Publication Number Publication Date
JP2017021495A true JP2017021495A (en) 2017-01-26

Family

ID=57888655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015137210A Pending JP2017021495A (en) 2015-07-08 2015-07-08 3D coordinate detection system, information processing apparatus, program, and 3D coordinate detection method

Country Status (1)

Country Link
JP (1) JP2017021495A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3709141A1 (en) 2019-03-15 2020-09-16 Nintendo Co., Ltd. Information processing program, information processing apparatus, information processing system, and information processing method
KR20210059222A (en) * 2019-11-15 2021-05-25 한국생산기술연구원 3d pen for real-time acquisition of 3d cad data and its 3d cad data acquisition method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3709141A1 (en) 2019-03-15 2020-09-16 Nintendo Co., Ltd. Information processing program, information processing apparatus, information processing system, and information processing method
US11508137B2 (en) 2019-03-15 2022-11-22 Nintendo Co., Ltd. Storage medium storing information processing program, information processing apparatus, information processing system, and information processing method for enlarging/reducing an object in a virtual space
KR20210059222A (en) * 2019-11-15 2021-05-25 한국생산기술연구원 3d pen for real-time acquisition of 3d cad data and its 3d cad data acquisition method
KR102291671B1 (en) * 2019-11-15 2021-08-23 한국생산기술연구원 3d pen for real-time acquisition of 3d cad data and its 3d cad data acquisition method

Similar Documents

Publication Publication Date Title
US10789776B2 (en) Structural modeling using depth sensors
US20220129060A1 (en) Three-dimensional object tracking to augment display area
US9128537B2 (en) Bimanual interactions on digital paper using a pen and a spatially-aware mobile projector
US20130027393A1 (en) Information processing apparatus, information processing method, and program
CN104011629A (en) Enhanced target selection for a touch-based input enabled user interface
JP6379880B2 (en) System, method, and program enabling fine user interaction with projector-camera system or display-camera system
US11392224B2 (en) Digital pen to adjust a 3D object
JP6260241B2 (en) System, program and method for accepting user input
EP3037936B1 (en) Image projection apparatus, and system employing interactive input-output capability
JP2017021495A (en) 3D coordinate detection system, information processing apparatus, program, and 3D coordinate detection method
EP2779116B1 (en) Smooth manipulation of three-dimensional objects
JP7401245B2 (en) Image synthesis device, control method and program for image synthesis device
US20150042621A1 (en) Method and apparatus for controlling 3d object
JP2007094902A (en) Three-dimensional image display device, method, and program
KR20210023663A (en) Image processing method and image processing apparatus for generating 3d content using 2d images
JP6248723B2 (en) Coordinate detection system, coordinate detection method, information processing apparatus, and program
CN116824105A (en) Display adjustment method, device and equipment for building information model and storage medium
JP2011048476A (en) Three-dimensional object generation cad system using augmented reality
JP2011043796A (en) Method and system for displaying image on movable display device
JP2013114429A (en) Game device and game program