JP2016015078A - Display control device, display control method, and program - Google Patents
Display control device, display control method, and program Download PDFInfo
- Publication number
- JP2016015078A JP2016015078A JP2014137627A JP2014137627A JP2016015078A JP 2016015078 A JP2016015078 A JP 2016015078A JP 2014137627 A JP2014137627 A JP 2014137627A JP 2014137627 A JP2014137627 A JP 2014137627A JP 2016015078 A JP2016015078 A JP 2016015078A
- Authority
- JP
- Japan
- Prior art keywords
- display
- displacement amount
- display image
- coordinate displacement
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、表示制御装置、表示制御方法、及び、プログラムに関する。 The present invention relates to a display control device, a display control method, and a program.
従来から、パーソナルコンピュータ(以下「PC」という。)等の情報処理装置に対する操作に関し、マウス等のポインティングデバイスを用いて画面上の所望の位置にカーソルを移動させる操作が広く行われている。例えば、画面表示されたアイコン上にカーソルを移動させ、マウスクリックによりそのアイコンを選択したり、マウスによるドラッグ&ドロップによってそのアイコンを移動させたり、文字入力位置をカーソルによって指定する操作等が行われている。 Conventionally, regarding an operation on an information processing apparatus such as a personal computer (hereinafter referred to as “PC”), an operation of moving a cursor to a desired position on a screen using a pointing device such as a mouse has been widely performed. For example, move the cursor over an icon displayed on the screen, select the icon by clicking the mouse, move the icon by dragging and dropping with the mouse, or specify the character input position with the cursor. ing.
ところで、マウスによるカーソルの移動操作においては、しばしば、ユーザーがカーソルを見失うことがある。このことは、特に、例えば、水平2048ピクセル×垂直2048ピクセルといった、大画面かつ高解像度の表示装置において、表示されるカーソルは相対的に小さくなるため、視認性が悪くなることに起因する。 By the way, in the operation of moving the cursor with the mouse, the user often loses sight of the cursor. This is because, for example, in a large-screen and high-resolution display device such as horizontal 2048 pixels × vertical 2048 pixels, the displayed cursor is relatively small, and thus the visibility is deteriorated.
これに対し、例えば特許文献1には、マウスの変位量からカーソルの位置のみならず、その移動速度をも求め、ユーザーはカーソルの位置を把握したい場合、計算機への合図動作としてマウスを素早く動かす動作を行い、その移動速度が所定の速度閾値を超えたことを検知したとき、カーソルイメージを拡大させる等の表示強調処理を行うカーソル表示位置制御装置が開示されている。
On the other hand, for example, in
特許文献1によれば、確かに、見失ったカーソルを見つけやすくなる。しかし、特許文献1では、カーソルサイズを、通常サイズの倍程度のサイズといった一定の大きさへ拡大しているにすぎず、カーソルサイズを自由に変更することはできない。
According to
本発明は、このような実情に鑑みてなされたものであって、操作対象となる表示画像の表示サイズをユーザーの意のままに自由に変更することができる表示制御装置を提供することを目的とする。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide a display control device that can freely change the display size of a display image to be operated as desired by the user. And
上記の課題を解決するため、本発明の表示制御装置は、座標変位量の入力に応じて表示画像を操作する操作手段と、操作手段により入力された座標変位量に応じて入力された座標変位量を表示画像の表示位置の変位量に変換するための変換係数と表示画像の表示属性とを制御する制御手段と、を備えることを特徴とする。 In order to solve the above problems, a display control apparatus according to the present invention includes an operation unit that operates a display image according to an input of a coordinate displacement amount, and a coordinate displacement that is input according to the coordinate displacement amount that is input by the operation unit. And a control means for controlling a conversion coefficient for converting the amount into a displacement amount of the display position of the display image and a display attribute of the display image.
本発明によれば、操作対象となる表示画像の表示サイズをユーザーの意のままに自由に変更することができる。 According to the present invention, it is possible to freely change the display size of the display image to be operated as desired by the user.
本発明の実施形態における表示制御装置について図面を用いて以下説明する。なお、各図中、同一又は相当する部分には同一の符号を付しており、その重複説明は適宜に簡略化乃至省略する。なお、以下では、本実施形態における表示制御装置を説明する上で、一例として、ノート型のパーソナルコンピュータ(以下「PC」という。)を用いているが、これに限定されず、例えば、デスクトップ型のPCでも、多機能型携帯電話(スマートフォン)、PDA(Personal Digital Assistant)、携帯電話等の携帯端末でも、情報処理機能を有するテレビジョン(TV)でも、あるいは、情報処理機能を有する、例えば冷蔵庫や洗濯機等の家庭用電化製品等、さらには自家用車等に本実施形態の表示制御装置が適用されるものであってもよい。 A display control apparatus according to an embodiment of the present invention will be described below with reference to the drawings. In addition, in each figure, the same code | symbol is attached | subjected to the part which is the same or it corresponds, The duplication description is simplified thru | or abbreviate | omitted suitably. In the following description, a notebook personal computer (hereinafter referred to as “PC”) is used as an example in describing the display control apparatus according to the present embodiment. However, the present invention is not limited to this. PCs, multifunctional mobile phones (smartphones), PDAs (Personal Digital Assistants), mobile terminals such as mobile phones, televisions (TV) having information processing functions, or refrigerators having information processing functions, for example, refrigerators The display control device according to the present embodiment may be applied to household appliances such as a washing machine or a private car.
本実施形態においては、例えばディスプレイ等の表示画面に表示されるアイコン等の表示画像を選択等するカーソルのサイズ等を変更するために行われる操作内容を、その操作に用いられる操作手段の動作状態を所定の方法で認識することによって判断するものである。操作手段としては、いわゆるジェスチャー操作によって、所望の機能を実行させるための人の手指であったり、マウスやタッチパッド等のポインティングデバイスであったりしてよい。なお、本実施形態では、主として、ジェスチャー操作を行う人の手指を操作手段の例として以下に説明する。なお、認識されるジェスチャーとしては、手指に限らず、身体の少なくとも一部を用いたジェスチャーであればよい。例えば、腕や脚、顔、あるいは全身を用いたあらゆるジェスチャーを認識し、認識された各ジェスチャーに基づいて各種処理を実現するものであってもよい。 In the present embodiment, for example, the operation contents used to change the size of a cursor for selecting a display image such as an icon displayed on a display screen such as a display, etc., are the operating states of the operating means used for the operation. Is recognized by a predetermined method. The operation means may be a human finger for executing a desired function by a so-called gesture operation, or may be a pointing device such as a mouse or a touch pad. In the present embodiment, a finger of a person who performs a gesture operation will be mainly described below as an example of an operation unit. Note that the recognized gesture is not limited to a finger and may be any gesture that uses at least a part of the body. For example, any gesture using the arms, legs, face, or the whole body may be recognized, and various processes may be realized based on the recognized gestures.
本実施形態における表示制御装置の一例であるノート型PC(以下、単に「PC」という。)1の概略について図1を参照して説明する。PC1は、例えば、ジェスチャーを認識するためのカメラ11と、ディスプレイ12と、キーボード13と、タッチパッド14、マウス15等を備えている。
An outline of a notebook PC (hereinafter simply referred to as “PC”) 1 which is an example of a display control apparatus according to the present embodiment will be described with reference to FIG. For example, the PC 1 includes a
カメラ11は、例えば、図1に示すようなジェスチャーRを撮影して、撮影画像を装置内に取り込む。PC1は、取り込まれた撮影画像を解析して、解析結果に基づいて所望の処理を実行する。なお、本図においては、カメラ11はPC1のディスプレイ12の上方に設けられているが、これに限定されず、ジェスチャー等を撮影することができる位置であれば、どこに設けてもよい。また、カメラ11が不図示の回転機構により、その取付位置を基点として装置筐体の背面側に回転し、背面側のジェスチャー等を撮影するようにしてもよい。
For example, the
キーボード13、タッチパッド14、及びマウス15は、これらが操作されることにより、それぞれにおいて生成される操作制御信号をPC1内に実装されるCPU(Central Processing Unit)に入力するポインティングデバイスである。
The
なお、図1における3次元空間を説明する指標として、水平方向をX軸と、垂直方向をY軸と、奥行き方向をZ軸とする。本実施形態におけるカメラ11は、X軸及びY軸からなる平面的な画像を撮影するカメラだけでなく、Z軸方向の長さを認識するため、例えば物体の温度分布を画像化するIRカメラを組み合わせて用いることが好ましい。また、所謂ステレオカメラ等の3Dカメラを用いてもよい。これらにより、ジェスチャーの向きに関わらず、ジェスチャーを正確に認識することができる。
As an index for explaining the three-dimensional space in FIG. 1, the horizontal direction is the X axis, the vertical direction is the Y axis, and the depth direction is the Z axis. The
次に、本実施形態における表示制御処理に係る表示画面の動作例について図2を参照して説明する。本図は、例えば、図1におけるディスプレイ12に表示される表示画面の例を示している。ディスプレイ12には、アイコンA、選択画像B、カーソルCが表示されている。
Next, an operation example of the display screen according to the display control process in the present embodiment will be described with reference to FIG. This figure has shown the example of the display screen displayed on the
例えば、ユーザーは、手指を用いたジェスチャー操作により、カーソルCを動かし、アイコンAや選択画像BにカーソルCを移動させる。この際、ユーザーは、例えば、人差し指と親指の間隔を広げたり狭めたりする。ユーザーによるこうしたジェスチャー操作をカメラ11が撮影すると、PC1は、手の位置を把握するとともに、撮影した手指の画像を解析して、人差し指と親指の間隔つまり、距離を認識する。この距離は、例えば、撮影画像において、親指の位置を基準座標として設定した場合における、親指の座標位置から人差し指の座標位置までの距離である。そして、PC1は、認識された間隔の大小あるいは、長短に応じて例えばカーソルCのサイズや移動速度等を変更する処理を行う。これにより、例えば、本図に示すように、アイコンAを選択するときは、カーソルCは小さいサイズで表示され、選択画像Bを選択するときは、カーソルCは大きいサイズで表示される。また、サイズ変更処理と共に、又は、別個に、カーソルの移動速度を変更してもよい。例えば、アイコンAのような画面全体に対して相対的に小さい表示画像を選択するときは、カーソルの移動速度を遅くし、選択画像Bのような画面全体に対して相対的に大きい表示画像を選択するときは、カーソルの移動速度を速くする。小さいサイズの表示画像を選択するときは、慎重な操作を要するため、カーソルの移動速度は遅いほうが好ましく、大きいサイズの表示画像を選択するときは、選択がし易いため、カーソルの移動速度は速いほうが好ましい。
For example, the user moves the cursor C to the icon A or the selected image B by a gesture operation using fingers. At this time, for example, the user widens or narrows the distance between the index finger and the thumb. When the
次に、本実施形態における表示制御装置のハードウェア構成について図3を参照して説明する。本実施形態における表示制御装置は、例えば、CPU21と、RAM(Random Access Memory)22と、ROM(Read Only Memory)23と、HDD(Hard Disk Drive)24と、撮影部25と、表示部26と、入力部27と、出力部28と、を備える。
Next, a hardware configuration of the display control apparatus according to the present embodiment will be described with reference to FIG. The display control apparatus according to the present embodiment includes, for example, a
CPU21は、表示制御装置の全体制御を行う。また、CPU21は、本実施形態における、認識したジェスチャーからユーザーの手指間の距離を認識し、認識された距離に応じてカーソルサイズを変更するといった処理を実現させるために、上述した各デバイスを制御する。
The
RAM22は、例えば、CPU21の作業用領域として利用されるとともに、各種データの一時記憶領域として利用されるものであればよい。また、ROM23は、例えば、CPU21が実行するBIOS(Basic Input Output System)等の制御プログラムのほか、制御に必要な各種データ等が格納されるものであればよい。
For example, the
HDD24は、例えば、ジェスチャー認識のための基準となる手指間の距離データ等を記憶する大容量記憶装置である。なお、本実施形態においては、例えば、HDD24はPC1に内蔵されているが、HDD24は外付けであってもよい。また、手指間の距離データ等をSDカード等の外部メディアに記憶させ、SDカード等から当該データを読み込んでもよい。さらに、手指間の距離データ等を、不図示のネットワークを介して接続された外部のPC等に記憶させておき、ジェスチャー認識が必要なタイミングでネットワークを経由してPC1に読み込む、例えば、クラウド等に対応することとしてもよい。
The
撮影部25は、図1に示したジェスチャーRのような人の手指を撮影する、例えばデジタルカメラ等の撮影手段である。上述したように、本実施形態では、ジェスチャー等の物体の3軸方向の距離を測定することが好ましいため、例えば、2軸方向、つまり上述した図1におけるX−Y軸平面の画像を撮影するカメラに加え、物体の奥行き方向、つまり上述した図1におけるZ軸方向の距離を測定するIR(赤外線)カメラを備えることが好ましい。なお、撮影部25として、3D映像を取得することができるものであれば、例えばステレオカメラ等の視差カメラであってもよい。なお、以下では、これら3軸方向の距離を測定するための撮影画像を得るカメラを総称して「3Dカメラ」として説明する。
The photographing
表示部26は、例えば図2で示したアイコンAや選択画像B等の表示画像を表示する、例えば液晶ディスプレイや有機ELディスプレイ等の表示デバイスであり、例えば図1に示したディスプレイ12に相当する。本実施形態においては、例えば、表示部26にアイコンA等のユーザーインタフェースを表示させ、アイコンAが、PC1に実装される所定機能を実現するための操作キーとなっている場合に、ユーザーは表示部26に表示されたアイコンAを見ながら、ジェスチャー操作によって、あたかもアイコンAを直接操作しているかのような感覚を体感することができる。
The
入力部27は、例えば、図1に示したキーボード13、タッチパッド14、及びマウス15等のポインティングデバイスである。例えば、本発明における操作手段として、マウス15を用いる場合に、マウス15を用いた動作認識処理の概略について説明する。マウス15を卓上で移動させると、例えば、マウス内のエンコーダが、マウス下面に設けられたボールの回転量に応じた数のパルスを生成する。PC1に設けた不図示のマウスインタフェースは、このパルスをカウントし、例えば、一定時間間隔ごとにその間のカウント数をデジタルデータに変換して、マウスの座標変位量としてCPU21に送信する。この座標変位量は、二次元的な変位量であって、画面の水平、垂直方向にそれぞれ対応するX方向の座標変位量と、Y方向の座標変位量という2成分で表される。なお、マウスの座標変位量として、水平方向、又は、垂直方向のいずれか一方のみが変位する場合、X方向またはY方向の単一の座標変位量を用いてもよい。本実施形態においては、これらの座標変位量を表示画像を操作するための操作制御信号とし、操作制御信号としてのこれらの座標変位量を、例えば、PC1のHDD24等に記憶させた距離データと比較する。その結果、これらの座標変位量から算出した距離データが、記憶された距離データと一致するか、又は、記憶された距離データを基準として、これから短くなったか長くなったかを判定することで、マウス15の移動距離を認識する。タッチパッド14についても、その構造やパルス発生原理等を除き、マウス15と同様に機能させることが可能である。なお、タッチパッド14は、静電式でも感圧式でもいずれでもよい。また、タッチパッド14に代えて、ディスプレイ12等に重畳させた所謂タッチパネルを用いてもよい。
The
出力部28は、例えば、音声を出力するスピーカー等の音声出力部や、光を出力するLED等の光出力部等である。出力部28は、例えば、処理が完了したり、処理中であったり等の処理状態をユーザーに知らせるため等に、音声や光等を出力する。
The
次に、本実施形態における表示制御装置の機能ブロックについて、図4を参照して説明する。本実施形態における表示制御装置は、機能ブロックとして、表示部26と、操作部31と、制御部32と、を含み構成されている。なお、表示部26については、図3を用いて説明したため、ここでの説明を省略する。
Next, functional blocks of the display control apparatus in the present embodiment will be described with reference to FIG. The display control apparatus according to the present embodiment includes a
操作部31は、図1を用いて上述したジェスチャーやマウス等のような、座標変位量の入力に応じて、図2に示したカーソルC等の表示画像を操作する操作手段である。なお、ジェスチャーを、便宜的に、3Dカメラで取得されたユーザーの身体を含む画像におけるユーザーの第1の部位の位置に基づいて座標情報を出力するポインティングデバイスとする。
The
制御部32は、操作部31により入力された座標変位量に応じて入力された座標変位量を表示画像の表示位置の変位量に変換するための変換係数kと表示画像の表示属性pとを制御する制御手段であり、例えば、図3で説明したCPU21によってその機能が実行される。そして、例えば、制御部32は、以下の式(1)を用いて表示位置の変位量を算出し、以下の式(2)を用いて表示画像のサイズ等を決定する。表示画像の表示位置とは、例えば、図2に示したカーソルCが表示される位置をいう。
[表示位置の変位量]=k×[入力された座標変位量]・・・(1)
[表示画像のサイズ]=p×[入力された座標変位量]・・・(2)
The
[Displacement amount of display position] = k × [input coordinate displacement amount] (1)
[Size of display image] = p × [input coordinate displacement amount] (2)
例えば、ジェスチャーを操作部31とする場合、ジェスチャーの撮影画像において第1の部位としての親指の位置を基準座標位置とする。制御部32は、親指と異なる第2の部位としての例えば人差し指との3次元空間における距離に応じて変換係数と表示属性とを制御する。表示属性とは、例えば、図2に示したカーソルCのサイズや、色や、形状等を決定するためのパラメータである。
For example, when the gesture is the
より具体的には、制御部32は、単位時間あたりの入力された座標変位量が小さいと同一の入力座標変位量に対して表示画像の表示位置が少なく変位するように変換係数を制御する。また、制御部32は、単位時間あたりの入力された座標変位量が小さいと表示画像が小さくなるように表示属性を制御する。制御部32による制御の詳細については図5を参照しながら後述する。
More specifically, the
次に、本実施形態における、表示制御処理の一例について、図4に示した操作部31及び制御部32による処理と共に、図5を参照して説明する。また、以下では、操作部31を、手指を用いたジェスチャーとして説明する。
Next, an example of the display control process in this embodiment will be described with reference to FIG. 5 together with the processes by the
図5においては、上段に、撮影部25により撮影された手指を用いたジェスチャーの例を示している。図の左から順に、「手を一杯に開いた状態」であるジェスチャー、「手を少し開いた状態」であるジェスチャー、「完全ではないが手の指先を閉じ気味に開いた状態」であるジェスチャー、「手の指先を閉じた状態」であるジェスチャーを示している。また、カーソルサイズ」として、手指間の距離に対応して、図の左から順に、「大」、「中」、「小」、「極小」と示している。「カーソル移動速度」については、図の左方に「速」、図の右方に「遅」と示し、速度が連続的に切り替わることを「速」と「遅」のポイントを線分で結ぶことにより示している。
In FIG. 5, an example of a gesture using a finger photographed by the photographing
制御部32は、例えば、親指と人差し指との距離が近いと同一の入力座標変位量に対してカーソルCの表示位置が少なく変位するように変換係数を制御する。また、制御部32は、例えば、親指と人差し指との距離が近いと表示画像が小さくなるよう表示属性を制御する。
For example, when the distance between the thumb and the index finger is short, the
本実施形態では、例えば、「手を一杯に開いた状態」であるジェスチャーにおける親指と人差し指間の距離が「1」、「手を少し開いた状態」であるジェスチャーにおける親指と人差し指間の距離が「0.5〜0.8」、「完全ではないが手の指先を閉じ気味に開いた状態」であるジェスチャーにおける親指と人差し指間の距離が「0.2〜0.4」、「手の指先を閉じた状態」であるジェスチャーにおける親指と人差し指間の距離が「0」として、それぞれ入力座標変位量を示している。なお、これらの距離については、一例であり、示した数値に限定されるものではない。また、任意の数値を距離として設定しているものであり、よって、特定の単位に限定されるものでもないため、単位の表記は省略している。さらに、数値として、「0.1」や「0.9」、ジェスチャーとして、図に示した各ジェスチャーの動きの変化の過程を示す変化途中のジェスチャーを示していないが、図示上における便宜のために省略しているにすぎず、これらを排除しているものではない。つまり、本実施形態における制御部32は手指間の距離をリニアに認識することができる。
In the present embodiment, for example, the distance between the thumb and the index finger in the gesture “in a state where the hand is fully opened” is “1”, and the distance between the thumb and the index finger in the gesture in which the “hand is slightly opened” is The distance between the thumb and forefinger in a gesture of “0.5 to 0.8”, “not completely but with the fingertips of the hand closed and open open” is “0.2 to 0.4” The distance between the thumb and the index finger in the gesture “with the fingertip closed” is “0”, and the input coordinate displacement amount is shown. In addition, about these distances, it is an example and is not limited to the shown numerical value. Further, any numerical value is set as the distance, and therefore, it is not limited to a specific unit. Therefore, the unit notation is omitted. Furthermore, numerical values “0.1” and “0.9” are shown as gestures, and gestures in the middle of a change indicating the process of movement change of each gesture shown in the figure are not shown, but for convenience in the illustration. These are simply omitted, and are not excluded. That is, the
そして、制御部32は、例えば、親指と人差し指間の距離が近い場合、カーソルCの表示位置が小さく変位、例えばゆっくりと移動されるように変換係数kを制御する。具体的には、図5に示すように、例えば、制御部32は、親指と人差し指間の距離が「0」の場合、カーソルの移動速度が遅くなるように変換係数kを制御する。なお、移動速度として「速」、「遅」のみ記載しているが、この間に、「やや速い」や「やや遅い」等が含まれていてもよいことは言うまでもない。
For example, when the distance between the thumb and the index finger is short, the
また、制御部32は、図5に示すように、例えば、親指と人差し指間の距離が近い場合、カーソルCのサイズが小さくなるように表示属性を制御する。なお、本実施形態においては、例えばカーソルサイズの変更について説明しているが、これに限定されず、例えば、カーソルの色や形状等を変更させることとしてもよい。これにより、表示されるカーソルの表示態様のバリエーションが増えるため、より一層ユーザーの自由な意思を反映した操作を実現することが可能となる。なお、カーソルの形状は円状、矢印形状、四角形状、その他の形状に変更できるものであってよい。
Further, as illustrated in FIG. 5, for example, when the distance between the thumb and the index finger is short, the
次に、本実施形態における表示制御処理手順について、図5の例を用いつつ、図6を参照して説明する。まず、表示制御装置は、例えば、撮影部25によりユーザーの手指を撮影すると、撮影画像の入力をキーとしてジェスチャー認識処理を開始する(ステップS1)。なお、これは一例であって、ジェスチャー認識処理のトリガーは、撮影画像の入力に限らず、ユーザーによるキーボード13等の入力部27を介した操作入力信号をキーとしても、マイク等を用いて音声入力信号をキーとしても、その他PC1に備わるデバイス等を利用して何らかのトリガーを装置が認識できる信号等であればよい。
Next, the display control processing procedure in the present embodiment will be described with reference to FIG. 6 using the example of FIG. First, for example, when the user's finger is photographed by the photographing
次に、制御部32は、撮影画像から、例えば、人差し指と親指間の距離を認識する(ステップS2)。認識された距離が「0」であるとき(ステップS2、距離:0)、制御部32は、カーソルサイズ「小」に変更されるように表示属性pを制御するとともに、カーソルの移動速度が遅くなるように変換係数kを制御する(ステップS3)。なお、本実施形態においては、入力された座標変位量が小さいときの制御について説明しているが、これに限定されず、入力された座標変位量が大きいと同一の入力座標変位量に対して表示画像の表示位置が多く変位するように変換係数kを制御し、表示画像が大きくなるように表示属性pを制御するものであってもよいことは言うまでもない。
Next, the
なお、上述する各実施の形態は、本発明の好適な実施の形態であり、本発明の要旨を逸脱しない範囲内において種々変更実施が可能である。例えば、上述した本実施形態の表示制御装置における各処理を、ハードウェア、又は、ソフトウェア、あるいは、両者の複合構成を用いて実行することも可能である。 Each of the above-described embodiments is a preferred embodiment of the present invention, and various modifications can be made without departing from the scope of the present invention. For example, each process in the display control apparatus of the present embodiment described above can be executed using hardware, software, or a combined configuration of both.
なお、ソフトウェアを用いて処理を実行する場合には、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれているコンピュータ内のメモリ等の記憶部にインストールして実行させることが可能である。あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。 When executing processing using software, a program in which a processing sequence is recorded can be installed and executed in a storage unit such as a memory in a computer incorporated in dedicated hardware. . Alternatively, the program can be installed and executed on a general-purpose computer capable of executing various processes.
1 ノート型PC
11 カメラ
12 ディスプレイ
13 キーボード
14 タッチパッド
15 マウス
21 CPU
22 RAM
23 ROM
24 HDD
25 撮影部
26 表示部
27 入力部
28 出力部
31 操作部
32 制御部
1 Notebook PC
11
22 RAM
23 ROM
24 HDD
25
Claims (8)
座標変位量の入力に応じて前記表示画像を操作する操作手段と、
前記操作手段により入力された座標変位量に応じて前記入力された座標変位量を前記表示画像の表示位置の変位量に変換するための変換係数と前記表示画像の表示属性とを制御する制御手段と、
を備えることを特徴とする表示制御装置。 Display means for displaying a display image to be operated;
An operation means for operating the display image in response to an input of a coordinate displacement amount;
Control means for controlling the conversion coefficient for converting the input coordinate displacement amount into the displacement amount of the display position of the display image and the display attribute of the display image according to the coordinate displacement amount input by the operation means. When,
A display control apparatus comprising:
前記制御手段は、前記第1の部位と該第1の部位と異なる第2の部位との3次元空間における距離に応じて変換係数と表示属性とを制御することを特徴とする請求項1から3の何れか1項に記載の表示制御装置。 The operation means is a pointing device that outputs coordinate information based on the position of the first part of the user in the image including the user's body acquired by the 3D camera,
The control means controls a conversion coefficient and a display attribute according to a distance in a three-dimensional space between the first part and a second part different from the first part. 4. The display control device according to any one of items 3.
前記入力された座標変位量に応じて前記入力された座標変位量を前記表示画像の表示位置の変位量に変換するための変換係数と前記表示画像の表示属性とを制御する工程と、
を備えることを特徴とする表示制御方法。 A step of inputting a coordinate displacement amount in accordance with an operation by a predetermined operation means for a display image displayed on the predetermined display means;
Controlling a conversion coefficient for converting the input coordinate displacement amount into a displacement amount of a display position of the display image according to the input coordinate displacement amount, and a display attribute of the display image;
A display control method comprising:
前記入力された座標変位量に応じて前記入力された座標変位量を前記表示画像の表示位置の変位量に変換するための変換係数と前記表示画像の表示属性とを制御する処理と、
をコンピュータに実行させることを特徴とするプログラム。 A process of inputting a coordinate displacement amount in accordance with an operation by a predetermined operation unit with respect to a display image displayed on the predetermined display unit;
A process for controlling a conversion coefficient for converting the input coordinate displacement amount into a displacement amount of a display position of the display image according to the input coordinate displacement amount, and a display attribute of the display image;
A program that causes a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014137627A JP6008904B2 (en) | 2014-07-03 | 2014-07-03 | Display control apparatus, display control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014137627A JP6008904B2 (en) | 2014-07-03 | 2014-07-03 | Display control apparatus, display control method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016015078A true JP2016015078A (en) | 2016-01-28 |
JP6008904B2 JP6008904B2 (en) | 2016-10-19 |
Family
ID=55231202
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014137627A Active JP6008904B2 (en) | 2014-07-03 | 2014-07-03 | Display control apparatus, display control method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6008904B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109102571A (en) * | 2018-07-16 | 2018-12-28 | 深圳超多维科技有限公司 | A kind of control method of virtual image, device, equipment and its storage medium |
CN114598817A (en) * | 2022-03-04 | 2022-06-07 | 无锡乐骐科技股份有限公司 | Human-computer interaction judgment method and device based on multi-person interaction action judgment |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01233511A (en) * | 1988-03-14 | 1989-09-19 | Fujitsu Ltd | Drawing editing device |
JPH0935066A (en) * | 1995-07-25 | 1997-02-07 | Hitachi Ltd | Information processor with hand shape recognizing function |
JPH10207441A (en) * | 1997-01-24 | 1998-08-07 | Japan Radio Co Ltd | Cursor display controller |
JP2010015553A (en) * | 2008-06-03 | 2010-01-21 | Shimane Pref Gov | Image recognition device, manipulation determination method, and program |
JP2011054165A (en) * | 2009-09-02 | 2011-03-17 | Pixart Imaging Inc | Gesture recognition method for interactive system, and the interactive system |
WO2012144145A1 (en) * | 2011-04-22 | 2012-10-26 | パナソニック株式会社 | Pointing control device, integrated circuit thereof, and pointing control method |
JP2013178645A (en) * | 2012-02-28 | 2013-09-09 | Onkyo Corp | Input device of electronic apparatus |
JP2015172886A (en) * | 2014-03-12 | 2015-10-01 | オムロン株式会社 | Gesture recognition device and control method of gesture recognition device |
-
2014
- 2014-07-03 JP JP2014137627A patent/JP6008904B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01233511A (en) * | 1988-03-14 | 1989-09-19 | Fujitsu Ltd | Drawing editing device |
JPH0935066A (en) * | 1995-07-25 | 1997-02-07 | Hitachi Ltd | Information processor with hand shape recognizing function |
JPH10207441A (en) * | 1997-01-24 | 1998-08-07 | Japan Radio Co Ltd | Cursor display controller |
JP2010015553A (en) * | 2008-06-03 | 2010-01-21 | Shimane Pref Gov | Image recognition device, manipulation determination method, and program |
JP2011054165A (en) * | 2009-09-02 | 2011-03-17 | Pixart Imaging Inc | Gesture recognition method for interactive system, and the interactive system |
WO2012144145A1 (en) * | 2011-04-22 | 2012-10-26 | パナソニック株式会社 | Pointing control device, integrated circuit thereof, and pointing control method |
JP2013178645A (en) * | 2012-02-28 | 2013-09-09 | Onkyo Corp | Input device of electronic apparatus |
JP2015172886A (en) * | 2014-03-12 | 2015-10-01 | オムロン株式会社 | Gesture recognition device and control method of gesture recognition device |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109102571A (en) * | 2018-07-16 | 2018-12-28 | 深圳超多维科技有限公司 | A kind of control method of virtual image, device, equipment and its storage medium |
CN109102571B (en) * | 2018-07-16 | 2023-05-12 | 深圳超多维科技有限公司 | Virtual image control method, device, equipment and storage medium thereof |
CN114598817A (en) * | 2022-03-04 | 2022-06-07 | 无锡乐骐科技股份有限公司 | Human-computer interaction judgment method and device based on multi-person interaction action judgment |
Also Published As
Publication number | Publication date |
---|---|
JP6008904B2 (en) | 2016-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220129060A1 (en) | Three-dimensional object tracking to augment display area | |
KR101872426B1 (en) | Depth-based user interface gesture control | |
JP6074170B2 (en) | Short range motion tracking system and method | |
US9600078B2 (en) | Method and system enabling natural user interface gestures with an electronic system | |
Kratz et al. | HoverFlow: expanding the design space of around-device interaction | |
JP5802667B2 (en) | Gesture input device and gesture input method | |
US20200225756A9 (en) | System and method for close-range movement tracking | |
JP5167523B2 (en) | Operation input device, operation determination method, and program | |
WO2012039140A1 (en) | Operation input apparatus, operation input method, and program | |
JP5807686B2 (en) | Image processing apparatus, image processing method, and program | |
JP2013037675A5 (en) | ||
CN103729054A (en) | Multi display device and control method thereof | |
JP2006209563A (en) | Interface device | |
US20140022171A1 (en) | System and method for controlling an external system using a remote device with a depth sensor | |
JP2013016060A (en) | Operation input device, operation determination method, and program | |
US20150304615A1 (en) | Projection control apparatus and projection control method | |
KR20120126508A (en) | method for recognizing touch input in virtual touch apparatus without pointer | |
US11886643B2 (en) | Information processing apparatus and information processing method | |
TWI486815B (en) | Display device, system and method for controlling the display device | |
JP6008904B2 (en) | Display control apparatus, display control method, and program | |
JP2014071672A (en) | Information input device, and information input method | |
KR20090031205A (en) | Cursor positioning method by a handheld camera | |
KR101394604B1 (en) | method for implementing user interface based on motion detection and apparatus thereof | |
KR20140021166A (en) | Two-dimensional virtual touch apparatus | |
JP5028676B2 (en) | Graphical user interface operation / control device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160512 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160524 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160722 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160816 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160913 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6008904 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |