JP2014219800A - Portable terminal device - Google Patents

Portable terminal device Download PDF

Info

Publication number
JP2014219800A
JP2014219800A JP2013097788A JP2013097788A JP2014219800A JP 2014219800 A JP2014219800 A JP 2014219800A JP 2013097788 A JP2013097788 A JP 2013097788A JP 2013097788 A JP2013097788 A JP 2013097788A JP 2014219800 A JP2014219800 A JP 2014219800A
Authority
JP
Japan
Prior art keywords
touch panel
terminal device
display unit
intersection
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013097788A
Other languages
Japanese (ja)
Other versions
JP6075193B2 (en
Inventor
文仁 近藤
Fumihito Kondo
文仁 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Corp filed Critical Sega Corp
Priority to JP2013097788A priority Critical patent/JP6075193B2/en
Priority to PCT/JP2014/057662 priority patent/WO2014181587A1/en
Publication of JP2014219800A publication Critical patent/JP2014219800A/en
Application granted granted Critical
Publication of JP6075193B2 publication Critical patent/JP6075193B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C23/00Non-electrical signal transmission systems, e.g. optical systems
    • G08C23/04Non-electrical signal transmission systems, e.g. optical systems using light waves, e.g. infrared
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • G08C17/02Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/90Additional features
    • G08C2201/91Remote control based on location and proximity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72415User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories for remote control of appliances
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Abstract

PROBLEM TO BE SOLVED: To allow a user to intuitively operate a wide range of devices, considering a three-dimensional arrangement.SOLUTION: A portable terminal device comprises: a display unit provided on the front surface of a housing and a touch panel integrated with the display unit; a camera provided on the back surface of the housing and having a field of view in directions of the back surface and the normal of the display unit; display means for displaying an image obtained by the camera on the display unit in real time; positional information calculation means for configuring a virtual three-dimensional space on the basis of the image obtained by the camera, detecting that an object is included in the obtained image, and calculating positional information in the virtual three-dimensional space; intersection detection means for, when touch input is performed on the touch panel, detecting an intersection of a normal vector passing through a touch input position on the touch panel and a recognition area previously set to the object positioned in the virtual three-dimensional space; and operation message transmission means for transmitting an operation message to a control device of the object on the basis of the detected intersection position.

Description

本発明は携帯端末装置により他の機器を制御する技術に関する。   The present invention relates to a technique for controlling another device by a mobile terminal device.

近年、テレビ等のモニタ画面は拡大傾向にあり、それに伴って視聴位置もモニタ画面から遠ざかるようになっている。   In recent years, monitor screens of televisions and the like have been expanding, and accordingly, the viewing position has also moved away from the monitor screen.

また、スマートフォン等の携帯端末装置に対する入力操作は、携帯端末装置に設けられたタッチパネルへのタッチ入力が一般的となっており、携帯端末装置の画面に表示されているオブジェクトに直接触れるかのような、直観的な操作が受け入れられている。   In addition, the input operation for a mobile terminal device such as a smartphone is generally a touch input to a touch panel provided in the mobile terminal device, and it seems that the object displayed on the screen of the mobile terminal device is directly touched. Intuitive operation is accepted.

モニタ画面の表示を制御するには遠隔操作とならざるを得ないが、手元の携帯端末装置にビデオカメラを設け、取り込んだ画像からモニタ画面の輪郭を抽出し、タッチパネルに表示することで、モニタ画面上の座標を直接指示し得るポインティング装置が提案されている(例えば、特許文献1参照。)。   To control the display of the monitor screen, it must be remote operation. However, a video camera is installed in the portable terminal device at hand, the contour of the monitor screen is extracted from the captured image, and displayed on the touch panel. A pointing device that can directly indicate coordinates on a screen has been proposed (see, for example, Patent Document 1).

特開平7−104928号公報JP-A-7-104928

特許文献1に開示されたポインティング装置は、画像からモニタ画面の輪郭を抽出しているため、モニタ画面の3次元情報(空間中の位置情報)を取得しておらず、モニタ画面がビデオカメラに対して正対していない場合にはタッチパネルへの入力が正確にモニタ画面上の座標に変換されないことが考えられる。   Since the pointing device disclosed in Patent Document 1 extracts the contour of the monitor screen from the image, the three-dimensional information (position information in the space) of the monitor screen is not acquired, and the monitor screen becomes a video camera. On the other hand, when not facing directly, the input to the touch panel may not be accurately converted to coordinates on the monitor screen.

例えば、抽出した輪郭が台形だった場合、モニタ画面が台形でビデオカメラに正対しているのか、モニタ画面が矩形でビデオカメラに傾斜しているのか区別することができない。   For example, if the extracted contour is a trapezoid, it cannot be distinguished whether the monitor screen is trapezoidal and directly facing the video camera, or whether the monitor screen is rectangular and tilted to the video camera.

また、特許文献1に開示されたポインティング装置は、モニタ画面についてしか適用することができず、その他の種々の機器の制御に用いることはできない。   Further, the pointing device disclosed in Patent Document 1 can be applied only to a monitor screen and cannot be used to control other various devices.

本発明は上記の従来の問題点に鑑み提案されたものであり、その目的とするところは、広範な機器に対して3次元的な配置を考慮して直観的に操作できるようにすることにある。   The present invention has been proposed in view of the above-described conventional problems, and an object of the present invention is to enable intuitive operation with respect to a wide range of devices in consideration of a three-dimensional arrangement. is there.

上記の課題を解決するため、本発明にあっては、筐体の前面に設けられた表示部および当該表示部と一体化されたタッチパネルと、前記筐体の背面に設けられ、前記表示部の背面および法線の方向に視野を有するカメラと、前記カメラの撮像画像をリアルタイムに前記表示部に表示する表示手段と、前記カメラの撮像画像に基づいて仮想3次元空間を構築し、前記撮像画像に対象物が含まれていることを検出して前記仮想3次元空間内での位置情報を算出する位置情報算出手段と、前記タッチパネルにタッチ入力があった際、前記タッチパネル上のタッチ入力位置を通る法線ベクトルと前記仮想3次元空間に位置付けられた前記対象物に予め設定されている認識領域との交点を検出する交点検出手段と、検出した交点の位置に基づき、前記対象物の制御装置に操作メッセージを送信する操作メッセージ送信手段とを備えるようにしている。   In order to solve the above problems, in the present invention, a display unit provided on the front surface of the housing, a touch panel integrated with the display unit, a back surface of the housing, A virtual three-dimensional space is constructed based on a camera having a field of view in the rear and normal directions, display means for displaying a captured image of the camera on the display unit in real time, and the captured image of the camera, and the captured image Position information calculating means for detecting the presence of an object in the virtual three-dimensional space and calculating the position information in the virtual three-dimensional space, and when there is a touch input on the touch panel, the touch input position on the touch panel is An intersection detection means for detecting an intersection between a passing normal vector and a recognition area set in advance on the object positioned in the virtual three-dimensional space, and based on the detected position of the intersection, So that and an operating message transmitting means for transmitting the operation message to the control unit of the object.

本発明にあっては、広範な機器に対して3次元的な配置を考慮して直観的に操作することができる。   In the present invention, a wide range of devices can be intuitively operated in consideration of a three-dimensional arrangement.

本発明の一実施形態にかかるシステムの構成例を示す図である。It is a figure which shows the structural example of the system concerning one Embodiment of this invention. 操作対象物として大画面モニタを用いた例を示す図である。It is a figure which shows the example which used the big screen monitor as an operation target. 操作対象物の認識領域を設定するマーカの例を示す図である。It is a figure which shows the example of the marker which sets the recognition area | region of the operation target object. 操作対象物として照明器具を用いた例を示す図である。It is a figure which shows the example using a lighting fixture as an operation target. 携帯端末装置の構成例を示す図である。It is a figure which shows the structural example of a portable terminal device. 操作対象物制御装置の構成例を示す図である。It is a figure which shows the structural example of an operation target object control apparatus. 実施形態の処理例を示すフローチャートである。It is a flowchart which shows the process example of embodiment. 実空間における操作対象位置算出の概念を示す図である。It is a figure which shows the concept of the operation target position calculation in real space. 携帯端末装置の画面/タッチパネルへの画像の重畳の例を示す図である。It is a figure which shows the example of the superimposition of the image on the screen / touch panel of a portable terminal device.

以下、本発明の好適な実施形態につき説明する。   Hereinafter, preferred embodiments of the present invention will be described.

<構成>
図1は本発明の一実施形態にかかるシステムの構成例を示す図である。
<Configuration>
FIG. 1 is a diagram showing a configuration example of a system according to an embodiment of the present invention.

図1において、携帯端末装置1はタブレット、スマートフォン等の情報処理装置であり、前面に画面/タッチパネル12が設けられ、背面にカメラ11が設けられている。カメラ11は、画面/タッチパネル12の背面方向の法線方向に視野を持つように配置されている。   In FIG. 1, a mobile terminal device 1 is an information processing device such as a tablet or a smartphone. A screen / touch panel 12 is provided on the front surface, and a camera 11 is provided on the back surface. The camera 11 is arranged so as to have a field of view in the normal direction of the back direction of the screen / touch panel 12.

また、携帯端末装置1により操作の対象となる単数もしくは複数の操作対象物2が設けられ、操作対象物2には操作対象物2を制御する操作対象物制御装置3が設けられている。携帯端末装置1と操作対象物制御装置3は、WiFi、Bluetooth(登録商標)、赤外線等により通信を行うようになっている。なお、操作対象物2と操作対象物制御装置3を別体として示したが、操作対象物2と操作対象物制御装置3を一体に構成してもよい。   In addition, one or a plurality of operation objects 2 to be operated are provided by the mobile terminal device 1, and the operation object control device 3 that controls the operation object 2 is provided in the operation object 2. The portable terminal device 1 and the operation target control device 3 communicate with each other by WiFi, Bluetooth (registered trademark), infrared rays, or the like. In addition, although the operation target object 2 and the operation target object control apparatus 3 were shown as a different body, the operation target object 2 and the operation object control apparatus 3 may be comprised integrally.

携帯端末装置1のカメラ11により操作対象物2を撮像し、撮像した内容がリアルタイムに表示される画面/タッチパネル12の上をユーザがタッチして操作(タップ、ドラッグアンドドロップ、フリック等)することにより、操作対象物制御装置3を介して操作対象物2を操作することができる。   The operation object 2 is imaged by the camera 11 of the mobile terminal device 1 and the user touches and operates (tap, drag and drop, flick, etc.) on the screen / touch panel 12 on which the captured content is displayed in real time. Thus, the operation target object 2 can be operated via the operation target object control device 3.

図2は操作対象物2として大画面モニタ(画像表示装置)を用いた例を示す図である。この場合、大画面モニタに表示されたボタンやキャラクタを、携帯端末装置1の画面にタッチすることで操作することができる。   FIG. 2 is a diagram showing an example in which a large screen monitor (image display device) is used as the operation object 2. In this case, the buttons and characters displayed on the large screen monitor can be operated by touching the screen of the mobile terminal device 1.

図3は操作対象物2の認識領域を設定するマーカ21の例を示す図である。図3(a)は、カードもしくはステッカー等によりマーカ21を画面の四隅に貼り付けることにより、4個のマーカ21により形成される矩形領域を認識領域として設定したものである。マーカ21には、所定の形式で図形や記号等が記載されており、これを携帯端末装置1のカメラ11により撮像した画像から解析することで、個々のマーカ21の3次元的な位置やマーカ21の面する角度(方向)を認識することができる。   FIG. 3 is a diagram illustrating an example of the marker 21 that sets the recognition area of the operation target object 2. FIG. 3A shows a rectangular area formed by four markers 21 set as a recognition area by sticking the markers 21 to the four corners of the screen with a card or a sticker. The marker 21 describes figures, symbols, and the like in a predetermined format. By analyzing this from an image captured by the camera 11 of the mobile terminal device 1, the three-dimensional position and marker of each marker 21 are analyzed. The angle (direction) at which 21 faces can be recognized.

図3(b)は、マーカ21を画面表示により代用することで、カードやステッカー等を貼り付けるのを不要にしたものである。マーカ21は常時表示する必要はなく、初回認識の際に表示されていればよい。また、可視光を用いない表示とすることで、違和感をなくすこともできる。   FIG. 3B replaces the marker 21 with a screen display so that it is not necessary to attach a card, a sticker, or the like. The marker 21 does not need to be displayed at all times, and may be displayed at the time of initial recognition. In addition, the display without using visible light can eliminate a sense of incongruity.

なお、図3では複数のマーカ21により認識領域を設定する場合について示したが、マーカ21は1個でも認識領域を設定することができる場合がある。例えば、操作対象物2の形状が複雑でなく、マーカ21と同じ程度の大きさであり、制御も大まかでよい場合は、マーカ21を1個とし、その周辺の所定範囲を認識領域とすることができる。また、マーカ21から読み取ることのできる情報に、認識領域の大きさや形状に関する情報を付加することにより、1個のマーカ21を基準として、読み取った情報の示す大きさや形状の範囲を認識領域とすることができる。   Although FIG. 3 shows a case where a recognition area is set by a plurality of markers 21, there may be a case where even one marker 21 can set a recognition area. For example, when the shape of the operation target object 2 is not complicated, is approximately the same size as the marker 21, and may be controlled roughly, the number of the marker 21 is one and a predetermined range around the marker 21 is set as a recognition area. Can do. In addition, by adding information on the size and shape of the recognition area to the information that can be read from the marker 21, the range of the size and shape indicated by the read information is set as the recognition area on the basis of one marker 21. be able to.

図4は操作対象物2として照明器具を用いた例を示す図である。この場合、照明器具のON/OFFや光量や発光色等を携帯端末装置1の画面をタッチすることで操作することができる。例えば、操作対象物2の画像をタップすることでON/OFFを切り替えたり、画像上で上下にドラッグすることで光量を増減したり、左右にドラッグすることで発光色を変えたりすることができる。操作対象物2の外面には、図3と同様に、認識領域を設定するためにマーカ(21)が設けられる。   FIG. 4 is a diagram illustrating an example in which a lighting fixture is used as the operation target object 2. In this case, ON / OFF of a lighting fixture, a light quantity, a luminescent color, etc. can be operated by touching the screen of the portable terminal device 1. For example, it is possible to switch ON / OFF by tapping the image of the operation target 2, to increase or decrease the amount of light by dragging up and down on the image, or to change the emission color by dragging left or right. . A marker (21) is provided on the outer surface of the operation target 2 in order to set a recognition area, as in FIG.

図5は携帯端末装置1の構成例を示す図である。   FIG. 5 is a diagram illustrating a configuration example of the mobile terminal device 1.

図5において、携帯端末装置1は、電源システム101と、プロセッサ103、メモリコントローラ104、周辺インタフェース105を含むメインシステム102と、記憶部106と、外部ポート107と、高周波回路108と、アンテナ109と、オーディオ回路110と、スピーカ111と、マイク112と、近接センサ113と、GPS(Global Positioning System)回路114と、ディスプレイコントローラ116、光学センサコントローラ117、入力コントローラ118を含むI/O(Input/Output)サブシステム115と、タッチ反応型ディスプレイシステム119と、光学センサ120と、入力部121とを備えている。光学センサ120はカメラ11に対応し、タッチ反応型ディスプレイシステム119は画面/タッチパネル12に対応する。   In FIG. 5, the mobile terminal device 1 includes a power system 101, a main system 102 including a processor 103, a memory controller 104, and a peripheral interface 105, a storage unit 106, an external port 107, a high-frequency circuit 108, an antenna 109, , An I / O (Input / Output) including an audio circuit 110, a speaker 111, a microphone 112, a proximity sensor 113, a GPS (Global Positioning System) circuit 114, a display controller 116, an optical sensor controller 117, and an input controller 118. ) Subsystem 115, touch-responsive display system 119, optical sensor 120, and input unit 121. The optical sensor 120 corresponds to the camera 11, and the touch-responsive display system 119 corresponds to the screen / touch panel 12.

図6は操作対象物制御装置3の構成例を示す図である。   FIG. 6 is a diagram illustrating a configuration example of the operation target object control device 3.

図6において、操作対象物制御装置3は、コンピュータ装置(ゲーム装置を含む)31と、必要に応じてインタフェース装置32とが含まれている。操作対象物2が図2に示した大画面モニタである場合には、インタフェース装置32を設けることなく、コンピュータ装置31から映像・音声信号を操作対象物2に直接に供給することで足りる。操作対象物2が図4に示した照明器具である場合には、操作対象物2とコンピュータ装置31の間で状態信号や制御信号のやり取りを仲介するインタフェース装置32が設けられる。   In FIG. 6, the operation target object control device 3 includes a computer device (including a game device) 31 and an interface device 32 as necessary. When the operation target 2 is the large screen monitor shown in FIG. 2, it is sufficient to supply the video / audio signal directly from the computer device 31 to the operation target 2 without providing the interface device 32. When the operation target 2 is the lighting apparatus shown in FIG. 4, an interface device 32 that mediates the exchange of state signals and control signals between the operation target 2 and the computer device 31 is provided.

<動作>
図7は上記の実施形態の処理例を示すフローチャートであり、携帯端末装置1の処理内容を示したものである。
<Operation>
FIG. 7 is a flowchart showing a processing example of the above embodiment, and shows the processing contents of the mobile terminal device 1.

図7において、携帯端末装置1は、カメラ11の映像信号をデータとして取り込み、プログラムから操作可能な状態にする(ステップS101)。例えば、このデータは、カメラ映像をRGB(Red, Green, Blue)の点(ピクセル)の集合体に変換したものである。このようなデータをプログラムからアクセス可能なメモリ上に展開することで、プログラムから操作可能な状態になる。   In FIG. 7, the mobile terminal device 1 captures the video signal of the camera 11 as data and makes it operable from the program (step S101). For example, this data is obtained by converting a camera image into an aggregate of RGB (Red, Green, Blue) points (pixels). By developing such data on a memory accessible from the program, the program can be operated.

次いで、携帯端末装置1は、マーカ21(図3)に基づいて複数の対象物(操作対象物2の認識領域に相当)を認識し、操作等に必要な基礎データを得る(ステップS102)。基礎データは、認識した対象物についてのマトリクス情報であり、対象物が3次元空間内で、どの位置に、どの角度で、どの大きさで存在しているかを示す。実装としては、例えば、QUALCOM社のARライブラリを用いて処理を行うことができる。   Next, the mobile terminal device 1 recognizes a plurality of objects (corresponding to the recognition area of the operation object 2) based on the marker 21 (FIG. 3), and obtains basic data necessary for the operation (step S102). The basic data is matrix information about the recognized object, and indicates in which position, at which angle, and in which size the object exists in the three-dimensional space. As an implementation, for example, processing can be performed using an AR library of QUALCOM.

次いで、携帯端末装置1は、基礎データを累積し、高速に繰り返す中での相互関係データを得る(ステップS103)。相互関係データは、認識する対象物同士や、認識する対象物とカメラ11の相対的な位置データである。   Next, the mobile terminal device 1 accumulates the basic data and obtains the correlation data while repeating at high speed (step S103). The interrelation data is relative position data between the objects to be recognized or between the object to be recognized and the camera 11.

次いで、携帯端末装置1は、相互関係データをもとに、対象物の移動等のリアルタイムな変化に追従し、また手ぶれ等の補正を行う(ステップS104)。補正としては、
・対象物を認識するためのマトリクス情報が複数ある場合、不正確らしきものを除外
・高速に繰り返す中で、ある瞬間だけ特異な値がある場合、それを除外
といった処理を行う。
Next, the mobile terminal device 1 follows real-time changes such as movement of the object based on the correlation data, and corrects camera shake or the like (step S104). As a correction,
-When there are multiple pieces of matrix information for recognizing the object, processing is performed to exclude inaccurate ones. If there is a unique value only at a certain moment while repeating at high speed, processing is performed.

映像の解析と相互の位置の認識を高速に再演算し続けることで(ステップS101〜S104)、手元の携帯端末装置1や操作対象物2の移動等の変化に追従することができる。   By continuing to recalculate the analysis of the image and the recognition of the mutual position at high speed (steps S101 to S104), it is possible to follow changes such as movement of the portable terminal device 1 and the operation target 2 at hand.

次いで、携帯端末装置1は、画面/タッチパネル12がユーザによりタッチされている場合、以下の処理を行う。   Next, when the screen / touch panel 12 is touched by the user, the mobile terminal device 1 performs the following processing.

先ず、タッチ位置と、累積した補正後の相互関係データとに基づき、携帯端末装置1の背面へタッチ位置から仮想的に法線(法線ベクトル)をのばし、その法線上に対象物が存在するかどうか判定し、存在する場合、操作対象物2の3次元的な表面との交点を求めることにより、対応する操作対象位置を求める(ステップS105)。図8はその処理の概念を示している。操作対象物オブジェクト2OBJは操作対象物2の認識領域に対応するものである。複数の対象物と法線が交差する場合、この段階での操作対象位置は複数となる。   First, based on the touch position and the accumulated correlation data after correction, a normal line (normal vector) is virtually extended from the touch position to the back surface of the mobile terminal device 1, and an object exists on the normal line. If it exists, the corresponding operation target position is obtained by obtaining the intersection with the three-dimensional surface of the operation target 2 (step S105). FIG. 8 shows the concept of the processing. The operation target object 2OBJ corresponds to the recognition area of the operation target object 2. When a plurality of objects and normal lines intersect, there are a plurality of operation target positions at this stage.

図7に戻り、携帯端末装置1は、操作対象位置と対象物の有効範囲から、操作対象となるべき操作対象物2を特定する(ステップS106)。すなわち、複数の対象物がそれぞれに有効範囲(画面なら矩形)がある場合、どれが優先的に操作されるべきかを判定することで、操作対象物2を特定する。判定の基準は、標準として、近傍(携帯端末装置1により近いこと)を優先にしている。   Returning to FIG. 7, the mobile terminal device 1 identifies the operation target 2 to be the operation target from the operation target position and the effective range of the target (step S106). That is, when each of the plurality of objects has an effective range (in the case of a screen, a rectangle), the operation object 2 is specified by determining which one should be preferentially operated. As a determination criterion, priority is given to the vicinity (closer to the portable terminal device 1) as a standard.

次いで、携帯端末装置1は、操作対象位置を特定した操作対象物2の座標へ変換する(ステップS107)。すなわち、操作用の法線が、対象物が持つ固有の形状のどこの部分に交差するのかを求め、形状が複数の面を有する立体である場合は、閉じた面のそれぞれに対して交差の評価を行い、座標を変換する。立体形状では、複数の面に対して交差が成立する場合があるが近傍を優先にする。複数の交差する点から、どれを優先的に操作するか(原則近傍を優先)を決め、対象機器のローカルなマトリクス情報を生成する。   Next, the mobile terminal device 1 converts the operation target position into the coordinates of the operation target object 2 (step S107). That is, the part where the normal line for operation intersects the specific shape of the target object is obtained, and when the shape is a solid having a plurality of faces, the intersection of each of the closed faces Evaluate and transform coordinates. In the three-dimensional shape, there are cases where intersections are established with respect to a plurality of surfaces, but the vicinity is given priority. Which of the plurality of intersecting points is to be preferentially operated (priority is given priority in principle) is determined, and local matrix information of the target device is generated.

次いで、携帯端末装置1は、変換した座標に基づき、操作対象物2を制御するためのローカルデータを算出する(ステップS108)。   Next, the mobile terminal device 1 calculates local data for controlling the operation target 2 based on the converted coordinates (step S108).

次に、タップ、ドラッグアンドドロップ、フリック等のイベントが成立した場合の処理を説明する。なお、イベントの成立は次のように判断する。   Next, processing when an event such as tap, drag and drop, or flick is established will be described. The establishment of the event is determined as follows.

タップは、携帯端末装置1の画面/タッチパネル12へのタッチおよび離間によって判断する。   The tap is determined by touching or separating the screen / touch panel 12 of the mobile terminal device 1.

ドラッグアンドドロップは、
・対象物と手元端末を固定したまま、指を動かしてドラッグ
・対象物と指を固定したまま、手元端末を動かしてドラッグ
・手元端末と指を固定したまま、対象物を動かしてドラッグ
の3つのパターンの発生によりドラッグとなり、それぞれ、指を離すとドロップの判定となる。
Drag and drop
・ Drag while moving the finger while fixing the object and hand terminal ・ Drag while moving the hand terminal while fixing the object and finger ・ Drag while moving the object while holding the hand terminal and finger 3 Dragging occurs when two patterns are generated, and dropping is determined when the finger is released.

2つめのパターンによれば、タップ中の指先を動かすことがなくても、手元装置や対象装置の移動によってドラッグアンドドロップ等が実現できることを意味している。   The second pattern means that drag-and-drop or the like can be realized by moving the hand device or the target device without moving the fingertip while tapping.

また、関係する3種類の情報(対象物座標、手元端末座標、指の位置)が2つ以上同時に動く場合も成立する。   In addition, the case where two or more types of related information (object coordinates, hand terminal coordinates, finger position) move simultaneously is also established.

フリックは、手元装置のタッチパネル上でフリックに相当する操作が成立した場合を有効とする。これは、対象装置相当では距離や角度に影響を受け入力が困難であること、手元装置に触れる感覚で成立することが自然に受け入れられるためである。手元装置でフリックが成立したかどうかの判定そのものは、手元装置のOSやドライバの判定に任せる。これは、普段利用している条件と同じにすることで、違和感が生まれないようにするためである。   The flick is valid when an operation corresponding to the flick is established on the touch panel of the hand apparatus. This is because it is naturally accepted that the target device is affected by the distance and angle and input is difficult, and that it is established by the touch of the hand device. The determination itself of whether or not a flick has been established at the hand device is left to the OS or driver of the hand device. This is to avoid creating a sense of incongruity by using the same conditions as are used normally.

フリックの判定は、タッチパネル上のスライド距離が所定距離以上であり、かつ、スライドにかかった時間が所定時間以内であることを条件に、フリック入力(接触→接触位置を素早く所定距離スライド→離す、を所定時間内に行う入力操作)がタッチパネルに対して行われたと判定する。   Flick determination is based on the condition that the slide distance on the touch panel is equal to or longer than the predetermined distance and the time taken for the slide is within a predetermined time. Is determined to have been performed on the touch panel.

図7において、イベントが成立した場合、携帯端末装置1は、ローカルデータに自己の機器IDを付加したメッセージを生成する(ステップS109)。   In FIG. 7, when the event is established, the mobile terminal device 1 generates a message in which its own device ID is added to local data (step S109).

次いで、携帯端末装置1は、操作対象物2を制御する操作対象物制御装置3にメッセージを送信する(ステップS110)。メッセージとしては、マウス相当のデータとしてもよいが、手元端末で入力できるジェスチャパターンは増加すると見込まれるため、拡張可能な未定義領域を残す、汎用的なメッセージシステムとしている。   Next, the mobile terminal device 1 transmits a message to the operation object control device 3 that controls the operation object 2 (step S110). The message may be data equivalent to a mouse, but since the number of gesture patterns that can be input at the local terminal is expected to increase, the message system is a general-purpose message system that leaves an undefined area that can be expanded.

メッセージを受信した操作対象物制御装置3は、メッセージに対応した処理を行い、結果を操作対象物2に反映させる。操作対象物2が大画面モニタである場合(図2)、大画面モニタに表示されたボタンやアイコンやキャラクタに対するタップ、ドラッグアンドドロップ、フリック等の操作を適用し、操作過程および結果の画像を大画面モニタに表示する。操作対象物2が照明器具である場合(図4)、操作内容に応じて電源のON/OFFや光量や発光色等を制御する。   The operation target control device 3 that has received the message performs processing corresponding to the message and reflects the result on the operation target 2. When the operation object 2 is a large screen monitor (FIG. 2), operations such as tap, drag and drop, flick, etc. are applied to buttons, icons and characters displayed on the large screen monitor, and the operation process and the resulting image are displayed. Display on a large screen monitor. When the operation target 2 is a lighting fixture (FIG. 4), the power ON / OFF, the light amount, the emission color, and the like are controlled according to the operation content.

また、メッセージ送信(ステップS110)の後に操作対象物制御装置3から応答のメッセージを受信し、その受信メッセージに応じた処理を行うようにしてもよい。   Further, a response message may be received from the operation target object control device 3 after the message transmission (step S110), and a process corresponding to the received message may be performed.

なお、上記の実施形態ではタッチパネルへの入力操作について主に説明したが、タッチパネルに、認識した操作対象物や操作に連動した画像を重畳して表示することもできる。   In the above embodiment, the input operation to the touch panel has been mainly described. However, the recognized operation object and the image linked to the operation can be superimposed and displayed on the touch panel.

本実施形態では、仮想3次元空間中の対象物の位置情報を利用できるので、例えば、タッチパネルへの操作に基づいて検出された認識領域との交点(対象機器の座標位置)に、タッチパネルから飛んでいくオブジェクト(矢やボール等)の画像を合成表示することで、ユーザが操作しようとしている対象機器の座標位置を示す場合に、あたかもオブジェクトが対象物の含まれる空間中を移動していくように表示することができる。これにより、ユーザは、より直観的に操作を行うことができる。   In the present embodiment, since the position information of the object in the virtual three-dimensional space can be used, for example, the intersection with the recognition area (coordinate position of the target device) detected based on the operation on the touch panel flies from the touch panel. When the coordinate position of the target device that the user is trying to operate is indicated by compositing and displaying an image of the object to be moved (such as an arrow or a ball), the object moves in the space containing the target object. Can be displayed. Thereby, the user can operate more intuitively.

また、例えば、タッチパネルへの操作に基づいて対象物の周囲に入力結果を示すオブジェクト(当たりや外れ等を示すフキダシ等)の画像を合成表示する場合に、対象物の位置に合わせて表示することができる。図9は携帯端末装置1の画面における操作対象物2の画像201の上端に沿ってタイトル等の画像202を表示し、左側にキャラクタの画像203を表示した例を示している。   In addition, for example, when an image of an object indicating an input result (such as a balloon indicating hit or miss) is displayed around the target based on an operation on the touch panel, the image is displayed according to the position of the target. Can do. FIG. 9 shows an example in which an image 202 such as a title is displayed along the upper end of the image 201 of the operation target 2 on the screen of the mobile terminal device 1 and a character image 203 is displayed on the left side.

<総括>
以上説明したように、本実施形態によれば、広範な機器に対して3次元的な配置を考慮して直観的に操作することができる。
<Summary>
As described above, according to this embodiment, it is possible to intuitively operate a wide range of devices in consideration of a three-dimensional arrangement.

以上、本発明の好適な実施の形態により本発明を説明した。ここでは特定の具体例を示して本発明を説明したが、特許請求の範囲に定義された本発明の広範な趣旨および範囲から逸脱することなく、これら具体例に様々な修正および変更を加えることができることは明らかである。すなわち、具体例の詳細および添付の図面により本発明が限定されるものと解釈してはならない。   The present invention has been described above by the preferred embodiments of the present invention. While the invention has been described with reference to specific embodiments, various modifications and changes may be made to the embodiments without departing from the broad spirit and scope of the invention as defined in the claims. Obviously you can. In other words, the present invention should not be construed as being limited by the details of the specific examples and the accompanying drawings.

1 携帯端末装置
11 カメラ
12 画面/タッチパネル
101 電源システム
102 メインシステム
103 プロセッサ
104 メモリコントローラ
105 周辺インタフェース
106 記憶部
107 外部ポート
108 高周波回路
109 アンテナ
110 オーディオ回路
111 スピーカ
112 マイク
113 近接センサ
114 GPS回路
115 I/Oサブシステム
116 ディスプレイコントローラ
117 光学センサコントローラ
118 入力コントローラ
119 タッチ反応型ディスプレイシステム
120 光学センサ
121 入力部
2 操作対象物
21 マーカ
2OBJ 操作対象物オブジェクト
3 操作対象物制御装置
31 コンピュータ装置
32 インタフェース装置
DESCRIPTION OF SYMBOLS 1 Portable terminal device 11 Camera 12 Screen / touch panel 101 Power supply system 102 Main system 103 Processor 104 Memory controller 105 Peripheral interface 106 Memory | storage part 107 External port 108 High frequency circuit 109 Antenna 110 Audio circuit 111 Speaker 112 Microphone 113 Proximity sensor 114 GPS circuit 115 I / O subsystem 116 Display controller 117 Optical sensor controller 118 Input controller 119 Touch-responsive display system 120 Optical sensor 121 Input unit 2 Operation object 21 Marker 2OBJ Operation object object 3 Operation object control device 31 Computer device 32 Interface device

Claims (5)

筐体の前面に設けられた表示部および当該表示部と一体化されたタッチパネルと、
前記筐体の背面に設けられ、前記表示部の背面および法線の方向に視野を有するカメラと、
前記カメラの撮像画像をリアルタイムに前記表示部に表示する表示手段と、
前記カメラの撮像画像に基づいて仮想3次元空間を構築し、前記撮像画像に対象物が含まれていることを検出して前記仮想3次元空間内での位置情報を算出する位置情報算出手段と、
前記タッチパネルにタッチ入力があった際、前記タッチパネル上のタッチ入力位置を通る法線ベクトルと前記仮想3次元空間に位置付けられた前記対象物に予め設定されている認識領域との交点を検出する交点検出手段と、
検出した交点の位置に基づき、前記対象物の制御装置に操作メッセージを送信する操作メッセージ送信手段と
を備えたことを特徴とする携帯端末装置。
A display unit provided on the front surface of the housing and a touch panel integrated with the display unit;
A camera provided on the back surface of the housing, and having a field of view in the direction of the back surface and normal of the display unit;
Display means for displaying a captured image of the camera on the display unit in real time;
Position information calculation means for constructing a virtual three-dimensional space based on a captured image of the camera, detecting that the target image is included in the captured image, and calculating position information in the virtual three-dimensional space; ,
When there is a touch input on the touch panel, an intersection that detects an intersection between a normal vector passing through the touch input position on the touch panel and a recognition area set in advance in the object positioned in the virtual three-dimensional space Detection means;
A portable terminal device comprising operation message transmission means for transmitting an operation message to the object control device based on the detected position of the intersection.
請求項1に記載の携帯端末装置において、
前記対象物は、認識領域となる画面を有する画像表示装置であり、
前記操作メッセージ送信手段は、前記交点が検出された場合に、認識領域における交点の位置情報を生成して前記制御装置に送信する
ことを特徴とする携帯端末装置。
The mobile terminal device according to claim 1,
The object is an image display device having a screen to be a recognition area,
The said operation message transmission means produces | generates the positional information on the intersection in a recognition area, and transmits to the said control apparatus, when the said intersection is detected.
請求項1または2のいずれか一項に記載の携帯端末装置において、
前記タッチパネルの操作について設定された判定条件に基づいて、特定の操作がタッチパネルに対して行われたことを判定する判定手段
を備え、
前記操作メッセージ送信手段は、前記判定手段の判定結果を前記対象物の位置情報に付加して前記制御装置に送信する
ことを特徴とする携帯端末装置。
In the portable terminal device according to any one of claims 1 and 2,
A determination unit configured to determine that a specific operation has been performed on the touch panel based on a determination condition set for the operation of the touch panel;
The operation message transmission unit adds the determination result of the determination unit to the position information of the object and transmits it to the control device.
請求項3に記載の携帯端末装置において、
前記判定手段は、前記タッチパネル上のスライド距離が所定距離以上であり、かつ、スライドにかかった時間が所定時間以内であることを条件に、フリック入力が前記タッチパネルに対して行われたと判定する
ことを特徴とする携帯端末装置。
The mobile terminal device according to claim 3.
The determination means determines that a flick input has been performed on the touch panel on the condition that the slide distance on the touch panel is equal to or greater than a predetermined distance and the time taken for the slide is within a predetermined time. The portable terminal device characterized by this.
筐体の前面に設けられた表示部および当該表示部と一体化されたタッチパネルと、前記筐体の背面に設けられ、前記表示部の背面および法線の方向に視野を有するカメラとを備えた携帯端末装置を構成するコンピュータを、
前記カメラの撮像画像をリアルタイムに前記表示部に表示する表示手段、
前記カメラの撮像画像に基づいて仮想3次元空間を構築し、前記撮像画像に対象物が含まれていることを検出して前記仮想3次元空間内での位置情報を算出する位置情報算出手段、
前記タッチパネルにタッチ入力があった際、前記タッチパネル上のタッチ入力位置を通る法線ベクトルと前記仮想3次元空間に位置付けられた前記対象物に予め設定されている認識領域との交点を検出する交点検出手段、
検出した交点の位置に基づき、前記対象物の制御装置に操作メッセージを送信する操作メッセージ送信手段
として機能させる携帯端末装置制御プログラム。
A display unit provided on the front surface of the housing, a touch panel integrated with the display unit, and a camera provided on the back surface of the housing and having a field of view in the direction of the back surface and the normal line of the display unit. A computer constituting the mobile terminal device;
Display means for displaying the captured image of the camera on the display unit in real time;
A position information calculation means for constructing a virtual three-dimensional space based on a captured image of the camera, detecting that the captured image includes an object, and calculating position information in the virtual three-dimensional space;
When there is a touch input on the touch panel, an intersection that detects an intersection between a normal vector passing through the touch input position on the touch panel and a recognition area set in advance in the object positioned in the virtual three-dimensional space Detection means,
A portable terminal device control program that functions as an operation message transmission unit that transmits an operation message to the target control device based on the detected position of the intersection.
JP2013097788A 2013-05-07 2013-05-07 Mobile terminal device Active JP6075193B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013097788A JP6075193B2 (en) 2013-05-07 2013-05-07 Mobile terminal device
PCT/JP2014/057662 WO2014181587A1 (en) 2013-05-07 2014-03-20 Portable terminal device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013097788A JP6075193B2 (en) 2013-05-07 2013-05-07 Mobile terminal device

Publications (2)

Publication Number Publication Date
JP2014219800A true JP2014219800A (en) 2014-11-20
JP6075193B2 JP6075193B2 (en) 2017-02-08

Family

ID=51867073

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013097788A Active JP6075193B2 (en) 2013-05-07 2013-05-07 Mobile terminal device

Country Status (2)

Country Link
JP (1) JP6075193B2 (en)
WO (1) WO2014181587A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017151823A (en) * 2016-02-26 2017-08-31 株式会社エクシング Karaoke instruction operation program

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6650848B2 (en) * 2016-08-22 2020-02-19 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus, information processing system, and information processing method
JP6226352B1 (en) * 2017-02-28 2017-11-08 ビックリック株式会社 Remote control system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1051711A (en) * 1996-08-05 1998-02-20 Sony Corp Three-dimension virtual object display device and its method
JP2008527572A (en) * 2005-01-12 2008-07-24 スィンクオプティクス インコーポレイテッド Handheld vision type absolute pointing system
JP2008198112A (en) * 2007-02-15 2008-08-28 Namco Bandai Games Inc Indication position operation system, indication body, and game system
JP2012064199A (en) * 2010-08-20 2012-03-29 Nintendo Co Ltd Position calculating system, position calculating device, position calculating program and position calculating method
JP2013110514A (en) * 2011-11-18 2013-06-06 Konica Minolta Business Technologies Inc Operation input system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1051711A (en) * 1996-08-05 1998-02-20 Sony Corp Three-dimension virtual object display device and its method
JP2008527572A (en) * 2005-01-12 2008-07-24 スィンクオプティクス インコーポレイテッド Handheld vision type absolute pointing system
JP2008198112A (en) * 2007-02-15 2008-08-28 Namco Bandai Games Inc Indication position operation system, indication body, and game system
JP2012064199A (en) * 2010-08-20 2012-03-29 Nintendo Co Ltd Position calculating system, position calculating device, position calculating program and position calculating method
JP2013110514A (en) * 2011-11-18 2013-06-06 Konica Minolta Business Technologies Inc Operation input system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017151823A (en) * 2016-02-26 2017-08-31 株式会社エクシング Karaoke instruction operation program

Also Published As

Publication number Publication date
WO2014181587A1 (en) 2014-11-13
JP6075193B2 (en) 2017-02-08

Similar Documents

Publication Publication Date Title
US20200150833A1 (en) Electronic device having touchscreen and input processing method thereof
US9020194B2 (en) Systems and methods for performing a device action based on a detected gesture
KR102091028B1 (en) Method for providing user&#39;s interaction using multi hovering gesture
US10101874B2 (en) Apparatus and method for controlling user interface to select object within image and image input device
JP5103380B2 (en) Large touch system and method of interacting with the system
US8791962B2 (en) Information processing device, information processing method, and program for 3D object selection and interaction
JP6469706B2 (en) Modeling structures using depth sensors
US9977497B2 (en) Method for providing haptic effect set by a user in a portable terminal, machine-readable storage medium, and portable terminal
US20160292922A1 (en) Display control device, display control method, and recording medium
US20160291687A1 (en) Display control device, display control method, and recording medium
WO2021004415A1 (en) Method and apparatus for controlling mouse cursor of handheld input device
US20140300542A1 (en) Portable device and method for providing non-contact interface
US20100328351A1 (en) User interface
WO2016021022A1 (en) Projection image display device and method for controlling same
CN103729054A (en) Multi display device and control method thereof
KR20140089866A (en) Method for controlling preview of picture taken in camera and mobile terminal implementing the same
US20160012612A1 (en) Display control method and system
US10276133B2 (en) Projector and display control method for displaying split images
JP2012027515A (en) Input method and input device
US10936184B2 (en) Display apparatus and controlling method thereof
US11886643B2 (en) Information processing apparatus and information processing method
EP3037936A2 (en) Image projection apparatus, and system employing interactive input-output capability
JP6075193B2 (en) Mobile terminal device
US20140362017A1 (en) Input device, input control method, and input control program
JP2015179491A (en) System and method for enabling gesture control based on detection of occlusion pattern

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161226

R150 Certificate of patent or registration of utility model

Ref document number: 6075193

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250