JP2016015078A - Display control device, display control method, and program - Google Patents

Display control device, display control method, and program Download PDF

Info

Publication number
JP2016015078A
JP2016015078A JP2014137627A JP2014137627A JP2016015078A JP 2016015078 A JP2016015078 A JP 2016015078A JP 2014137627 A JP2014137627 A JP 2014137627A JP 2014137627 A JP2014137627 A JP 2014137627A JP 2016015078 A JP2016015078 A JP 2016015078A
Authority
JP
Japan
Prior art keywords
display
displacement amount
display image
coordinate displacement
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014137627A
Other languages
Japanese (ja)
Other versions
JP6008904B2 (en
Inventor
怜央 海保
Reo Kaiho
怜央 海保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Personal Computers Ltd
Original Assignee
NEC Personal Computers Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Personal Computers Ltd filed Critical NEC Personal Computers Ltd
Priority to JP2014137627A priority Critical patent/JP6008904B2/en
Publication of JP2016015078A publication Critical patent/JP2016015078A/en
Application granted granted Critical
Publication of JP6008904B2 publication Critical patent/JP6008904B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a display control device that can change the display size of a display image to be operated freely as intended by a user.SOLUTION: A display control device includes: operation means for operating a display image according to the input of the amount of displacement of coordinates; and control means for controlling a display attribute of the display image and a conversion factor for converting the amount of displacement of coordinates into the amount of displacement of the display position of the display image according to the amount of displacement of coordinates input by the operation means.

Description

本発明は、表示制御装置、表示制御方法、及び、プログラムに関する。   The present invention relates to a display control device, a display control method, and a program.

従来から、パーソナルコンピュータ(以下「PC」という。)等の情報処理装置に対する操作に関し、マウス等のポインティングデバイスを用いて画面上の所望の位置にカーソルを移動させる操作が広く行われている。例えば、画面表示されたアイコン上にカーソルを移動させ、マウスクリックによりそのアイコンを選択したり、マウスによるドラッグ&ドロップによってそのアイコンを移動させたり、文字入力位置をカーソルによって指定する操作等が行われている。   Conventionally, regarding an operation on an information processing apparatus such as a personal computer (hereinafter referred to as “PC”), an operation of moving a cursor to a desired position on a screen using a pointing device such as a mouse has been widely performed. For example, move the cursor over an icon displayed on the screen, select the icon by clicking the mouse, move the icon by dragging and dropping with the mouse, or specify the character input position with the cursor. ing.

ところで、マウスによるカーソルの移動操作においては、しばしば、ユーザーがカーソルを見失うことがある。このことは、特に、例えば、水平2048ピクセル×垂直2048ピクセルといった、大画面かつ高解像度の表示装置において、表示されるカーソルは相対的に小さくなるため、視認性が悪くなることに起因する。   By the way, in the operation of moving the cursor with the mouse, the user often loses sight of the cursor. This is because, for example, in a large-screen and high-resolution display device such as horizontal 2048 pixels × vertical 2048 pixels, the displayed cursor is relatively small, and thus the visibility is deteriorated.

これに対し、例えば特許文献1には、マウスの変位量からカーソルの位置のみならず、その移動速度をも求め、ユーザーはカーソルの位置を把握したい場合、計算機への合図動作としてマウスを素早く動かす動作を行い、その移動速度が所定の速度閾値を超えたことを検知したとき、カーソルイメージを拡大させる等の表示強調処理を行うカーソル表示位置制御装置が開示されている。   On the other hand, for example, in Patent Document 1, not only the position of the cursor but also the moving speed is obtained from the amount of displacement of the mouse, and when the user wants to grasp the position of the cursor, the mouse is quickly moved as a cueing operation to the computer. A cursor display position control device that performs display emphasis processing such as enlarging a cursor image when an operation is performed and it is detected that the moving speed exceeds a predetermined speed threshold is disclosed.

特開平10−207441号公報JP-A-10-207441

特許文献1によれば、確かに、見失ったカーソルを見つけやすくなる。しかし、特許文献1では、カーソルサイズを、通常サイズの倍程度のサイズといった一定の大きさへ拡大しているにすぎず、カーソルサイズを自由に変更することはできない。   According to Patent Document 1, it is easy to find a cursor that has been lost. However, in Patent Document 1, the cursor size is merely enlarged to a certain size such as a size about twice the normal size, and the cursor size cannot be freely changed.

本発明は、このような実情に鑑みてなされたものであって、操作対象となる表示画像の表示サイズをユーザーの意のままに自由に変更することができる表示制御装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide a display control device that can freely change the display size of a display image to be operated as desired by the user. And

上記の課題を解決するため、本発明の表示制御装置は、座標変位量の入力に応じて表示画像を操作する操作手段と、操作手段により入力された座標変位量に応じて入力された座標変位量を表示画像の表示位置の変位量に変換するための変換係数と表示画像の表示属性とを制御する制御手段と、を備えることを特徴とする。   In order to solve the above problems, a display control apparatus according to the present invention includes an operation unit that operates a display image according to an input of a coordinate displacement amount, and a coordinate displacement that is input according to the coordinate displacement amount that is input by the operation unit. And a control means for controlling a conversion coefficient for converting the amount into a displacement amount of the display position of the display image and a display attribute of the display image.

本発明によれば、操作対象となる表示画像の表示サイズをユーザーの意のままに自由に変更することができる。   According to the present invention, it is possible to freely change the display size of the display image to be operated as desired by the user.

本発明の実施形態における表示制御装置の一例としてのパーソナルコンピュータを用いた動作説明概略図である。It is operation | movement explanatory schematic using the personal computer as an example of the display control apparatus in embodiment of this invention. 本発明の実施形態における表示制御処理に係る表示画面例を示す模式図である。It is a schematic diagram which shows the example of a display screen which concerns on the display control process in embodiment of this invention. 本発明の実施形態における表示制御装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the display control apparatus in embodiment of this invention. 本発明の実施形態における表示制御装置の機能ブロック図である。It is a functional block diagram of a display control device in an embodiment of the present invention. 本発明の実施形態における表示制御処理の一例を説明する模式図である。It is a schematic diagram explaining an example of the display control process in the embodiment of the present invention. 本発明の実施形態における表示制御処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the display control processing procedure in embodiment of this invention.

本発明の実施形態における表示制御装置について図面を用いて以下説明する。なお、各図中、同一又は相当する部分には同一の符号を付しており、その重複説明は適宜に簡略化乃至省略する。なお、以下では、本実施形態における表示制御装置を説明する上で、一例として、ノート型のパーソナルコンピュータ(以下「PC」という。)を用いているが、これに限定されず、例えば、デスクトップ型のPCでも、多機能型携帯電話(スマートフォン)、PDA(Personal Digital Assistant)、携帯電話等の携帯端末でも、情報処理機能を有するテレビジョン(TV)でも、あるいは、情報処理機能を有する、例えば冷蔵庫や洗濯機等の家庭用電化製品等、さらには自家用車等に本実施形態の表示制御装置が適用されるものであってもよい。   A display control apparatus according to an embodiment of the present invention will be described below with reference to the drawings. In addition, in each figure, the same code | symbol is attached | subjected to the part which is the same or it corresponds, The duplication description is simplified thru | or abbreviate | omitted suitably. In the following description, a notebook personal computer (hereinafter referred to as “PC”) is used as an example in describing the display control apparatus according to the present embodiment. However, the present invention is not limited to this. PCs, multifunctional mobile phones (smartphones), PDAs (Personal Digital Assistants), mobile terminals such as mobile phones, televisions (TV) having information processing functions, or refrigerators having information processing functions, for example, refrigerators The display control device according to the present embodiment may be applied to household appliances such as a washing machine or a private car.

本実施形態においては、例えばディスプレイ等の表示画面に表示されるアイコン等の表示画像を選択等するカーソルのサイズ等を変更するために行われる操作内容を、その操作に用いられる操作手段の動作状態を所定の方法で認識することによって判断するものである。操作手段としては、いわゆるジェスチャー操作によって、所望の機能を実行させるための人の手指であったり、マウスやタッチパッド等のポインティングデバイスであったりしてよい。なお、本実施形態では、主として、ジェスチャー操作を行う人の手指を操作手段の例として以下に説明する。なお、認識されるジェスチャーとしては、手指に限らず、身体の少なくとも一部を用いたジェスチャーであればよい。例えば、腕や脚、顔、あるいは全身を用いたあらゆるジェスチャーを認識し、認識された各ジェスチャーに基づいて各種処理を実現するものであってもよい。   In the present embodiment, for example, the operation contents used to change the size of a cursor for selecting a display image such as an icon displayed on a display screen such as a display, etc., are the operating states of the operating means used for the operation. Is recognized by a predetermined method. The operation means may be a human finger for executing a desired function by a so-called gesture operation, or may be a pointing device such as a mouse or a touch pad. In the present embodiment, a finger of a person who performs a gesture operation will be mainly described below as an example of an operation unit. Note that the recognized gesture is not limited to a finger and may be any gesture that uses at least a part of the body. For example, any gesture using the arms, legs, face, or the whole body may be recognized, and various processes may be realized based on the recognized gestures.

本実施形態における表示制御装置の一例であるノート型PC(以下、単に「PC」という。)1の概略について図1を参照して説明する。PC1は、例えば、ジェスチャーを認識するためのカメラ11と、ディスプレイ12と、キーボード13と、タッチパッド14、マウス15等を備えている。   An outline of a notebook PC (hereinafter simply referred to as “PC”) 1 which is an example of a display control apparatus according to the present embodiment will be described with reference to FIG. For example, the PC 1 includes a camera 11 for recognizing a gesture, a display 12, a keyboard 13, a touch pad 14, a mouse 15, and the like.

カメラ11は、例えば、図1に示すようなジェスチャーRを撮影して、撮影画像を装置内に取り込む。PC1は、取り込まれた撮影画像を解析して、解析結果に基づいて所望の処理を実行する。なお、本図においては、カメラ11はPC1のディスプレイ12の上方に設けられているが、これに限定されず、ジェスチャー等を撮影することができる位置であれば、どこに設けてもよい。また、カメラ11が不図示の回転機構により、その取付位置を基点として装置筐体の背面側に回転し、背面側のジェスチャー等を撮影するようにしてもよい。   For example, the camera 11 captures a gesture R as shown in FIG. 1 and captures the captured image in the apparatus. The PC 1 analyzes the captured captured image and executes a desired process based on the analysis result. In this figure, the camera 11 is provided above the display 12 of the PC 1. However, the present invention is not limited to this, and the camera 11 may be provided anywhere as long as it can capture a gesture or the like. In addition, the camera 11 may be rotated by a rotation mechanism (not shown) to the back side of the apparatus housing with the attachment position as a base point to photograph a gesture or the like on the back side.

キーボード13、タッチパッド14、及びマウス15は、これらが操作されることにより、それぞれにおいて生成される操作制御信号をPC1内に実装されるCPU(Central Processing Unit)に入力するポインティングデバイスである。   The keyboard 13, the touch pad 14, and the mouse 15 are pointing devices that input operation control signals generated by the keyboard 13, the touch pad 14, and the mouse 15 to a CPU (Central Processing Unit) mounted in the PC 1.

なお、図1における3次元空間を説明する指標として、水平方向をX軸と、垂直方向をY軸と、奥行き方向をZ軸とする。本実施形態におけるカメラ11は、X軸及びY軸からなる平面的な画像を撮影するカメラだけでなく、Z軸方向の長さを認識するため、例えば物体の温度分布を画像化するIRカメラを組み合わせて用いることが好ましい。また、所謂ステレオカメラ等の3Dカメラを用いてもよい。これらにより、ジェスチャーの向きに関わらず、ジェスチャーを正確に認識することができる。   As an index for explaining the three-dimensional space in FIG. 1, the horizontal direction is the X axis, the vertical direction is the Y axis, and the depth direction is the Z axis. The camera 11 in this embodiment is not only a camera that captures a planar image composed of the X axis and the Y axis, but also an IR camera that images the temperature distribution of an object, for example, in order to recognize the length in the Z axis direction. It is preferable to use in combination. Further, a 3D camera such as a so-called stereo camera may be used. Thus, the gesture can be accurately recognized regardless of the direction of the gesture.

次に、本実施形態における表示制御処理に係る表示画面の動作例について図2を参照して説明する。本図は、例えば、図1におけるディスプレイ12に表示される表示画面の例を示している。ディスプレイ12には、アイコンA、選択画像B、カーソルCが表示されている。   Next, an operation example of the display screen according to the display control process in the present embodiment will be described with reference to FIG. This figure has shown the example of the display screen displayed on the display 12 in FIG. 1, for example. An icon A, a selected image B, and a cursor C are displayed on the display 12.

例えば、ユーザーは、手指を用いたジェスチャー操作により、カーソルCを動かし、アイコンAや選択画像BにカーソルCを移動させる。この際、ユーザーは、例えば、人差し指と親指の間隔を広げたり狭めたりする。ユーザーによるこうしたジェスチャー操作をカメラ11が撮影すると、PC1は、手の位置を把握するとともに、撮影した手指の画像を解析して、人差し指と親指の間隔つまり、距離を認識する。この距離は、例えば、撮影画像において、親指の位置を基準座標として設定した場合における、親指の座標位置から人差し指の座標位置までの距離である。そして、PC1は、認識された間隔の大小あるいは、長短に応じて例えばカーソルCのサイズや移動速度等を変更する処理を行う。これにより、例えば、本図に示すように、アイコンAを選択するときは、カーソルCは小さいサイズで表示され、選択画像Bを選択するときは、カーソルCは大きいサイズで表示される。また、サイズ変更処理と共に、又は、別個に、カーソルの移動速度を変更してもよい。例えば、アイコンAのような画面全体に対して相対的に小さい表示画像を選択するときは、カーソルの移動速度を遅くし、選択画像Bのような画面全体に対して相対的に大きい表示画像を選択するときは、カーソルの移動速度を速くする。小さいサイズの表示画像を選択するときは、慎重な操作を要するため、カーソルの移動速度は遅いほうが好ましく、大きいサイズの表示画像を選択するときは、選択がし易いため、カーソルの移動速度は速いほうが好ましい。   For example, the user moves the cursor C to the icon A or the selected image B by a gesture operation using fingers. At this time, for example, the user widens or narrows the distance between the index finger and the thumb. When the camera 11 captures such a gesture operation by the user, the PC 1 grasps the position of the hand and analyzes the captured image of the finger to recognize the distance between the index finger and the thumb, that is, the distance. This distance is, for example, a distance from the coordinate position of the thumb to the coordinate position of the index finger when the position of the thumb is set as the reference coordinate in the captured image. Then, the PC 1 performs processing for changing, for example, the size and moving speed of the cursor C according to the recognized interval size. Thereby, for example, as shown in the figure, when the icon A is selected, the cursor C is displayed in a small size, and when the selected image B is selected, the cursor C is displayed in a large size. Further, the moving speed of the cursor may be changed together with the size changing process or separately. For example, when selecting a display image that is relatively small with respect to the entire screen such as the icon A, the moving speed of the cursor is decreased, and a display image that is relatively large with respect to the entire screen such as the selection image B is selected. When selecting, increase the cursor movement speed. When selecting a display image with a small size, a careful operation is required. Therefore, it is preferable to move the cursor slowly. When selecting a display image with a large size, it is easy to select, so the cursor movement speed is fast. Is preferred.

次に、本実施形態における表示制御装置のハードウェア構成について図3を参照して説明する。本実施形態における表示制御装置は、例えば、CPU21と、RAM(Random Access Memory)22と、ROM(Read Only Memory)23と、HDD(Hard Disk Drive)24と、撮影部25と、表示部26と、入力部27と、出力部28と、を備える。   Next, a hardware configuration of the display control apparatus according to the present embodiment will be described with reference to FIG. The display control apparatus according to the present embodiment includes, for example, a CPU 21, a RAM (Random Access Memory) 22, a ROM (Read Only Memory) 23, an HDD (Hard Disk Drive) 24, an imaging unit 25, a display unit 26, and the like. The input unit 27 and the output unit 28 are provided.

CPU21は、表示制御装置の全体制御を行う。また、CPU21は、本実施形態における、認識したジェスチャーからユーザーの手指間の距離を認識し、認識された距離に応じてカーソルサイズを変更するといった処理を実現させるために、上述した各デバイスを制御する。   The CPU 21 performs overall control of the display control device. In addition, the CPU 21 controls each of the above-described devices in order to realize a process of recognizing the distance between the user's fingers from the recognized gesture and changing the cursor size according to the recognized distance. To do.

RAM22は、例えば、CPU21の作業用領域として利用されるとともに、各種データの一時記憶領域として利用されるものであればよい。また、ROM23は、例えば、CPU21が実行するBIOS(Basic Input Output System)等の制御プログラムのほか、制御に必要な各種データ等が格納されるものであればよい。   For example, the RAM 22 may be used as a work area for the CPU 21 and as a temporary storage area for various data. The ROM 23 only needs to store various data necessary for control in addition to a control program such as a BIOS (Basic Input Output System) executed by the CPU 21.

HDD24は、例えば、ジェスチャー認識のための基準となる手指間の距離データ等を記憶する大容量記憶装置である。なお、本実施形態においては、例えば、HDD24はPC1に内蔵されているが、HDD24は外付けであってもよい。また、手指間の距離データ等をSDカード等の外部メディアに記憶させ、SDカード等から当該データを読み込んでもよい。さらに、手指間の距離データ等を、不図示のネットワークを介して接続された外部のPC等に記憶させておき、ジェスチャー認識が必要なタイミングでネットワークを経由してPC1に読み込む、例えば、クラウド等に対応することとしてもよい。   The HDD 24 is a large-capacity storage device that stores, for example, distance data between fingers that serves as a reference for gesture recognition. In the present embodiment, for example, the HDD 24 is built in the PC 1, but the HDD 24 may be externally attached. Further, distance data between fingers may be stored in an external medium such as an SD card, and the data may be read from the SD card or the like. Further, distance data between fingers is stored in an external PC or the like connected via a network (not shown), and is read into the PC 1 via the network when gesture recognition is necessary. For example, a cloud or the like It is good also as corresponding to.

撮影部25は、図1に示したジェスチャーRのような人の手指を撮影する、例えばデジタルカメラ等の撮影手段である。上述したように、本実施形態では、ジェスチャー等の物体の3軸方向の距離を測定することが好ましいため、例えば、2軸方向、つまり上述した図1におけるX−Y軸平面の画像を撮影するカメラに加え、物体の奥行き方向、つまり上述した図1におけるZ軸方向の距離を測定するIR(赤外線)カメラを備えることが好ましい。なお、撮影部25として、3D映像を取得することができるものであれば、例えばステレオカメラ等の視差カメラであってもよい。なお、以下では、これら3軸方向の距離を測定するための撮影画像を得るカメラを総称して「3Dカメラ」として説明する。   The photographing unit 25 is photographing means such as a digital camera that photographs a human finger like the gesture R shown in FIG. As described above, in this embodiment, since it is preferable to measure the distance in the three-axis direction of an object such as a gesture, for example, an image in the two-axis direction, that is, the XY axis plane in FIG. In addition to the camera, it is preferable to include an IR (infrared) camera that measures the distance in the depth direction of the object, that is, the distance in the Z-axis direction in FIG. In addition, as long as the imaging | photography part 25 can acquire 3D image | video, parallax cameras, such as a stereo camera, may be sufficient, for example. In the following description, cameras that obtain captured images for measuring the distances in the three-axis directions are collectively referred to as “3D cameras”.

表示部26は、例えば図2で示したアイコンAや選択画像B等の表示画像を表示する、例えば液晶ディスプレイや有機ELディスプレイ等の表示デバイスであり、例えば図1に示したディスプレイ12に相当する。本実施形態においては、例えば、表示部26にアイコンA等のユーザーインタフェースを表示させ、アイコンAが、PC1に実装される所定機能を実現するための操作キーとなっている場合に、ユーザーは表示部26に表示されたアイコンAを見ながら、ジェスチャー操作によって、あたかもアイコンAを直接操作しているかのような感覚を体感することができる。   The display unit 26 is a display device such as a liquid crystal display or an organic EL display that displays a display image such as the icon A or the selection image B shown in FIG. 2, and corresponds to the display 12 shown in FIG. . In the present embodiment, for example, when the user interface such as the icon A is displayed on the display unit 26 and the icon A is an operation key for realizing a predetermined function mounted on the PC 1, the user displays While observing the icon A displayed on the unit 26, it is possible to experience a feeling as if the icon A was directly operated by a gesture operation.

入力部27は、例えば、図1に示したキーボード13、タッチパッド14、及びマウス15等のポインティングデバイスである。例えば、本発明における操作手段として、マウス15を用いる場合に、マウス15を用いた動作認識処理の概略について説明する。マウス15を卓上で移動させると、例えば、マウス内のエンコーダが、マウス下面に設けられたボールの回転量に応じた数のパルスを生成する。PC1に設けた不図示のマウスインタフェースは、このパルスをカウントし、例えば、一定時間間隔ごとにその間のカウント数をデジタルデータに変換して、マウスの座標変位量としてCPU21に送信する。この座標変位量は、二次元的な変位量であって、画面の水平、垂直方向にそれぞれ対応するX方向の座標変位量と、Y方向の座標変位量という2成分で表される。なお、マウスの座標変位量として、水平方向、又は、垂直方向のいずれか一方のみが変位する場合、X方向またはY方向の単一の座標変位量を用いてもよい。本実施形態においては、これらの座標変位量を表示画像を操作するための操作制御信号とし、操作制御信号としてのこれらの座標変位量を、例えば、PC1のHDD24等に記憶させた距離データと比較する。その結果、これらの座標変位量から算出した距離データが、記憶された距離データと一致するか、又は、記憶された距離データを基準として、これから短くなったか長くなったかを判定することで、マウス15の移動距離を認識する。タッチパッド14についても、その構造やパルス発生原理等を除き、マウス15と同様に機能させることが可能である。なお、タッチパッド14は、静電式でも感圧式でもいずれでもよい。また、タッチパッド14に代えて、ディスプレイ12等に重畳させた所謂タッチパネルを用いてもよい。   The input unit 27 is, for example, a pointing device such as the keyboard 13, the touch pad 14, and the mouse 15 illustrated in FIG. For example, when the mouse 15 is used as the operation means in the present invention, an outline of the action recognition process using the mouse 15 will be described. When the mouse 15 is moved on the table, for example, an encoder in the mouse generates a number of pulses corresponding to the amount of rotation of the ball provided on the lower surface of the mouse. A mouse interface (not shown) provided in the PC 1 counts this pulse, for example, converts the count number between them to digital data at regular time intervals, and transmits it to the CPU 21 as the coordinate displacement amount of the mouse. This coordinate displacement amount is a two-dimensional displacement amount and is represented by two components, ie, a coordinate displacement amount in the X direction corresponding to the horizontal and vertical directions of the screen and a coordinate displacement amount in the Y direction. When only one of the horizontal direction and the vertical direction is displaced as the coordinate displacement amount of the mouse, a single coordinate displacement amount in the X direction or the Y direction may be used. In the present embodiment, these coordinate displacement amounts are used as operation control signals for manipulating the display image, and these coordinate displacement amounts as the operation control signals are compared with distance data stored in, for example, the HDD 24 of the PC 1. To do. As a result, by determining whether the distance data calculated from these coordinate displacement amounts matches the stored distance data, or whether the distance data has become shorter or longer with reference to the stored distance data, Recognize 15 movement distances. The touch pad 14 can also function in the same manner as the mouse 15 except for its structure and pulse generation principle. The touch pad 14 may be either electrostatic or pressure sensitive. Further, a so-called touch panel superimposed on the display 12 or the like may be used instead of the touch pad 14.

出力部28は、例えば、音声を出力するスピーカー等の音声出力部や、光を出力するLED等の光出力部等である。出力部28は、例えば、処理が完了したり、処理中であったり等の処理状態をユーザーに知らせるため等に、音声や光等を出力する。   The output unit 28 is, for example, a sound output unit such as a speaker that outputs sound, or a light output unit such as an LED that outputs light. For example, the output unit 28 outputs sound, light, or the like in order to notify the user of the processing state such as the completion of processing or the processing being performed.

次に、本実施形態における表示制御装置の機能ブロックについて、図4を参照して説明する。本実施形態における表示制御装置は、機能ブロックとして、表示部26と、操作部31と、制御部32と、を含み構成されている。なお、表示部26については、図3を用いて説明したため、ここでの説明を省略する。   Next, functional blocks of the display control apparatus in the present embodiment will be described with reference to FIG. The display control apparatus according to the present embodiment includes a display unit 26, an operation unit 31, and a control unit 32 as functional blocks. Since the display unit 26 has been described with reference to FIG. 3, the description thereof is omitted here.

操作部31は、図1を用いて上述したジェスチャーやマウス等のような、座標変位量の入力に応じて、図2に示したカーソルC等の表示画像を操作する操作手段である。なお、ジェスチャーを、便宜的に、3Dカメラで取得されたユーザーの身体を含む画像におけるユーザーの第1の部位の位置に基づいて座標情報を出力するポインティングデバイスとする。   The operation unit 31 is an operation unit that operates the display image such as the cursor C illustrated in FIG. 2 according to the input of the coordinate displacement amount, such as the gesture and the mouse described above with reference to FIG. For convenience, the gesture is a pointing device that outputs coordinate information based on the position of the first part of the user in the image including the user's body acquired by the 3D camera.

制御部32は、操作部31により入力された座標変位量に応じて入力された座標変位量を表示画像の表示位置の変位量に変換するための変換係数kと表示画像の表示属性pとを制御する制御手段であり、例えば、図3で説明したCPU21によってその機能が実行される。そして、例えば、制御部32は、以下の式(1)を用いて表示位置の変位量を算出し、以下の式(2)を用いて表示画像のサイズ等を決定する。表示画像の表示位置とは、例えば、図2に示したカーソルCが表示される位置をいう。
[表示位置の変位量]=k×[入力された座標変位量]・・・(1)
[表示画像のサイズ]=p×[入力された座標変位量]・・・(2)
The control unit 32 uses the conversion coefficient k for converting the coordinate displacement amount input according to the coordinate displacement amount input by the operation unit 31 into the displacement amount of the display position of the display image, and the display attribute p of the display image. For example, the function is executed by the CPU 21 described with reference to FIG. For example, the control unit 32 calculates the displacement amount of the display position using the following formula (1), and determines the size of the display image and the like using the following formula (2). The display position of the display image means, for example, a position where the cursor C shown in FIG. 2 is displayed.
[Displacement amount of display position] = k × [input coordinate displacement amount] (1)
[Size of display image] = p × [input coordinate displacement amount] (2)

例えば、ジェスチャーを操作部31とする場合、ジェスチャーの撮影画像において第1の部位としての親指の位置を基準座標位置とする。制御部32は、親指と異なる第2の部位としての例えば人差し指との3次元空間における距離に応じて変換係数と表示属性とを制御する。表示属性とは、例えば、図2に示したカーソルCのサイズや、色や、形状等を決定するためのパラメータである。   For example, when the gesture is the operation unit 31, the position of the thumb as the first part in the captured image of the gesture is set as the reference coordinate position. The control unit 32 controls the conversion coefficient and the display attribute according to the distance in the three-dimensional space with, for example, the index finger as a second part different from the thumb. The display attribute is, for example, a parameter for determining the size, color, shape, etc. of the cursor C shown in FIG.

より具体的には、制御部32は、単位時間あたりの入力された座標変位量が小さいと同一の入力座標変位量に対して表示画像の表示位置が少なく変位するように変換係数を制御する。また、制御部32は、単位時間あたりの入力された座標変位量が小さいと表示画像が小さくなるように表示属性を制御する。制御部32による制御の詳細については図5を参照しながら後述する。   More specifically, the control unit 32 controls the conversion coefficient so that if the input coordinate displacement amount per unit time is small, the display position of the display image is displaced with respect to the same input coordinate displacement amount. Further, the control unit 32 controls the display attributes so that the display image becomes smaller when the input coordinate displacement amount per unit time is small. Details of the control by the control unit 32 will be described later with reference to FIG.

次に、本実施形態における、表示制御処理の一例について、図4に示した操作部31及び制御部32による処理と共に、図5を参照して説明する。また、以下では、操作部31を、手指を用いたジェスチャーとして説明する。   Next, an example of the display control process in this embodiment will be described with reference to FIG. 5 together with the processes by the operation unit 31 and the control unit 32 shown in FIG. Hereinafter, the operation unit 31 will be described as a gesture using fingers.

図5においては、上段に、撮影部25により撮影された手指を用いたジェスチャーの例を示している。図の左から順に、「手を一杯に開いた状態」であるジェスチャー、「手を少し開いた状態」であるジェスチャー、「完全ではないが手の指先を閉じ気味に開いた状態」であるジェスチャー、「手の指先を閉じた状態」であるジェスチャーを示している。また、カーソルサイズ」として、手指間の距離に対応して、図の左から順に、「大」、「中」、「小」、「極小」と示している。「カーソル移動速度」については、図の左方に「速」、図の右方に「遅」と示し、速度が連続的に切り替わることを「速」と「遅」のポイントを線分で結ぶことにより示している。   In FIG. 5, an example of a gesture using a finger photographed by the photographing unit 25 is shown in the upper part. From left to right in the figure, gestures that are “with your hands fully open”, gestures that are “with your hands slightly open”, and gestures that are “not completely but with your fingertips closed and open slightly” , A gesture which is “a state where the fingertips of the hand are closed” is shown. In addition, as “cursor size”, “large”, “medium”, “small”, and “minimal” are shown in order from the left in the figure corresponding to the distance between fingers. As for “cursor movement speed”, “fast” is shown on the left side of the figure and “slow” is shown on the right side of the figure. By showing.

制御部32は、例えば、親指と人差し指との距離が近いと同一の入力座標変位量に対してカーソルCの表示位置が少なく変位するように変換係数を制御する。また、制御部32は、例えば、親指と人差し指との距離が近いと表示画像が小さくなるよう表示属性を制御する。   For example, when the distance between the thumb and the index finger is short, the control unit 32 controls the conversion coefficient so that the display position of the cursor C is displaced with respect to the same input coordinate displacement amount. For example, the control unit 32 controls the display attribute so that the display image becomes smaller when the distance between the thumb and the index finger is short.

本実施形態では、例えば、「手を一杯に開いた状態」であるジェスチャーにおける親指と人差し指間の距離が「1」、「手を少し開いた状態」であるジェスチャーにおける親指と人差し指間の距離が「0.5〜0.8」、「完全ではないが手の指先を閉じ気味に開いた状態」であるジェスチャーにおける親指と人差し指間の距離が「0.2〜0.4」、「手の指先を閉じた状態」であるジェスチャーにおける親指と人差し指間の距離が「0」として、それぞれ入力座標変位量を示している。なお、これらの距離については、一例であり、示した数値に限定されるものではない。また、任意の数値を距離として設定しているものであり、よって、特定の単位に限定されるものでもないため、単位の表記は省略している。さらに、数値として、「0.1」や「0.9」、ジェスチャーとして、図に示した各ジェスチャーの動きの変化の過程を示す変化途中のジェスチャーを示していないが、図示上における便宜のために省略しているにすぎず、これらを排除しているものではない。つまり、本実施形態における制御部32は手指間の距離をリニアに認識することができる。   In the present embodiment, for example, the distance between the thumb and the index finger in the gesture “in a state where the hand is fully opened” is “1”, and the distance between the thumb and the index finger in the gesture in which the “hand is slightly opened” is The distance between the thumb and forefinger in a gesture of “0.5 to 0.8”, “not completely but with the fingertips of the hand closed and open open” is “0.2 to 0.4” The distance between the thumb and the index finger in the gesture “with the fingertip closed” is “0”, and the input coordinate displacement amount is shown. In addition, about these distances, it is an example and is not limited to the shown numerical value. Further, any numerical value is set as the distance, and therefore, it is not limited to a specific unit. Therefore, the unit notation is omitted. Furthermore, numerical values “0.1” and “0.9” are shown as gestures, and gestures in the middle of a change indicating the process of movement change of each gesture shown in the figure are not shown, but for convenience in the illustration. These are simply omitted, and are not excluded. That is, the control part 32 in this embodiment can recognize the distance between fingers linearly.

そして、制御部32は、例えば、親指と人差し指間の距離が近い場合、カーソルCの表示位置が小さく変位、例えばゆっくりと移動されるように変換係数kを制御する。具体的には、図5に示すように、例えば、制御部32は、親指と人差し指間の距離が「0」の場合、カーソルの移動速度が遅くなるように変換係数kを制御する。なお、移動速度として「速」、「遅」のみ記載しているが、この間に、「やや速い」や「やや遅い」等が含まれていてもよいことは言うまでもない。   For example, when the distance between the thumb and the index finger is short, the control unit 32 controls the conversion coefficient k so that the display position of the cursor C is displaced, for example, slowly moved. Specifically, as illustrated in FIG. 5, for example, when the distance between the thumb and the index finger is “0”, the control unit 32 controls the conversion coefficient k so that the moving speed of the cursor becomes slow. Although only “fast” and “slow” are described as the moving speeds, it is needless to say that “slightly fast”, “slightly slow”, etc. may be included between them.

また、制御部32は、図5に示すように、例えば、親指と人差し指間の距離が近い場合、カーソルCのサイズが小さくなるように表示属性を制御する。なお、本実施形態においては、例えばカーソルサイズの変更について説明しているが、これに限定されず、例えば、カーソルの色や形状等を変更させることとしてもよい。これにより、表示されるカーソルの表示態様のバリエーションが増えるため、より一層ユーザーの自由な意思を反映した操作を実現することが可能となる。なお、カーソルの形状は円状、矢印形状、四角形状、その他の形状に変更できるものであってよい。   Further, as illustrated in FIG. 5, for example, when the distance between the thumb and the index finger is short, the control unit 32 controls the display attribute so that the size of the cursor C is reduced. In the present embodiment, for example, the change of the cursor size has been described. However, the present invention is not limited to this. For example, the color or shape of the cursor may be changed. Thereby, since the variation of the display mode of the displayed cursor increases, it becomes possible to realize an operation reflecting the user's free intention. It should be noted that the shape of the cursor may be changed to a circle, an arrow, a quadrangle, or other shapes.

次に、本実施形態における表示制御処理手順について、図5の例を用いつつ、図6を参照して説明する。まず、表示制御装置は、例えば、撮影部25によりユーザーの手指を撮影すると、撮影画像の入力をキーとしてジェスチャー認識処理を開始する(ステップS1)。なお、これは一例であって、ジェスチャー認識処理のトリガーは、撮影画像の入力に限らず、ユーザーによるキーボード13等の入力部27を介した操作入力信号をキーとしても、マイク等を用いて音声入力信号をキーとしても、その他PC1に備わるデバイス等を利用して何らかのトリガーを装置が認識できる信号等であればよい。   Next, the display control processing procedure in the present embodiment will be described with reference to FIG. 6 using the example of FIG. First, for example, when the user's finger is photographed by the photographing unit 25, the display control apparatus starts a gesture recognition process using the input of the photographed image as a key (step S1). Note that this is an example, and the trigger of the gesture recognition process is not limited to the input of the captured image, but the voice input using the microphone or the like can be performed using the operation input signal by the user via the input unit 27 such as the keyboard 13 as a key. Even if the input signal is used as a key, any other signal may be used so long as the apparatus can recognize some trigger using a device provided in the PC 1.

次に、制御部32は、撮影画像から、例えば、人差し指と親指間の距離を認識する(ステップS2)。認識された距離が「0」であるとき(ステップS2、距離:0)、制御部32は、カーソルサイズ「小」に変更されるように表示属性pを制御するとともに、カーソルの移動速度が遅くなるように変換係数kを制御する(ステップS3)。なお、本実施形態においては、入力された座標変位量が小さいときの制御について説明しているが、これに限定されず、入力された座標変位量が大きいと同一の入力座標変位量に対して表示画像の表示位置が多く変位するように変換係数kを制御し、表示画像が大きくなるように表示属性pを制御するものであってもよいことは言うまでもない。   Next, the control unit 32 recognizes, for example, the distance between the index finger and the thumb from the captured image (step S2). When the recognized distance is “0” (step S2, distance: 0), the control unit 32 controls the display attribute p so that the cursor size is changed to “small”, and the moving speed of the cursor is slow. The conversion coefficient k is controlled so as to be (step S3). In this embodiment, the control when the input coordinate displacement amount is small is described. However, the present invention is not limited to this, and if the input coordinate displacement amount is large, the control is performed for the same input coordinate displacement amount. It goes without saying that the conversion coefficient k may be controlled so that the display position of the display image is largely displaced, and the display attribute p may be controlled so that the display image becomes large.

なお、上述する各実施の形態は、本発明の好適な実施の形態であり、本発明の要旨を逸脱しない範囲内において種々変更実施が可能である。例えば、上述した本実施形態の表示制御装置における各処理を、ハードウェア、又は、ソフトウェア、あるいは、両者の複合構成を用いて実行することも可能である。   Each of the above-described embodiments is a preferred embodiment of the present invention, and various modifications can be made without departing from the scope of the present invention. For example, each process in the display control apparatus of the present embodiment described above can be executed using hardware, software, or a combined configuration of both.

なお、ソフトウェアを用いて処理を実行する場合には、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれているコンピュータ内のメモリ等の記憶部にインストールして実行させることが可能である。あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。   When executing processing using software, a program in which a processing sequence is recorded can be installed and executed in a storage unit such as a memory in a computer incorporated in dedicated hardware. . Alternatively, the program can be installed and executed on a general-purpose computer capable of executing various processes.

1 ノート型PC
11 カメラ
12 ディスプレイ
13 キーボード
14 タッチパッド
15 マウス
21 CPU
22 RAM
23 ROM
24 HDD
25 撮影部
26 表示部
27 入力部
28 出力部
31 操作部
32 制御部
1 Notebook PC
11 Camera 12 Display 13 Keyboard 14 Touchpad 15 Mouse 21 CPU
22 RAM
23 ROM
24 HDD
25 Image capturing unit 26 Display unit 27 Input unit 28 Output unit 31 Operation unit 32 Control unit

Claims (8)

操作対象となる表示画像を表示する表示手段と、
座標変位量の入力に応じて前記表示画像を操作する操作手段と、
前記操作手段により入力された座標変位量に応じて前記入力された座標変位量を前記表示画像の表示位置の変位量に変換するための変換係数と前記表示画像の表示属性とを制御する制御手段と、
を備えることを特徴とする表示制御装置。
Display means for displaying a display image to be operated;
An operation means for operating the display image in response to an input of a coordinate displacement amount;
Control means for controlling the conversion coefficient for converting the input coordinate displacement amount into the displacement amount of the display position of the display image and the display attribute of the display image according to the coordinate displacement amount input by the operation means. When,
A display control apparatus comprising:
前記制御手段は、単位時間あたりの前記入力された座標変位量が小さいと同一の入力座標変位量に対して前記表示画像の表示位置が少なく変位するように前記変換係数を制御することを特徴とする請求項1記載の表示制御装置。   The control means controls the conversion coefficient such that when the input coordinate displacement amount per unit time is small, the display position of the display image is displaced with respect to the same input coordinate displacement amount. The display control apparatus according to claim 1. 前記制御手段は、単位時間あたりの前記入力された座標変位量が小さいと前記表示画像が小さくなるように前記表示属性を制御することを特徴とする請求項1又は2記載の表示制御装置。   The display control apparatus according to claim 1, wherein the control unit controls the display attribute so that the display image becomes small when the input coordinate displacement amount per unit time is small. 前記操作手段は、3Dカメラで取得されたユーザーの身体を含む画像におけるユーザーの第1の部位の位置に基づいて座標情報を出力するポインティングデバイスであって、
前記制御手段は、前記第1の部位と該第1の部位と異なる第2の部位との3次元空間における距離に応じて変換係数と表示属性とを制御することを特徴とする請求項1から3の何れか1項に記載の表示制御装置。
The operation means is a pointing device that outputs coordinate information based on the position of the first part of the user in the image including the user's body acquired by the 3D camera,
The control means controls a conversion coefficient and a display attribute according to a distance in a three-dimensional space between the first part and a second part different from the first part. 4. The display control device according to any one of items 3.
前記制御手段は、前記第1の部位と前記第2の部位との距離が近いと同一の入力座標変位量に対して前記表示画像の表示位置が少なく変位するように変換係数を制御することを特徴とする請求項4記載の表示制御装置。   The control means controls the conversion coefficient so that the display position of the display image is displaced with respect to the same input coordinate displacement amount when the distance between the first part and the second part is short. The display control device according to claim 4, characterized in that: 前記制御手段は、前記第1の部位と前記第2の部位との距離が近いと表示画像が小さくなるよう表示属性を制御することを特徴とする請求項4又は5記載の表示制御装置。   The display control apparatus according to claim 4, wherein the control unit controls display attributes so that a display image becomes smaller when the distance between the first part and the second part is short. 所定の表示手段に表示された表示画像に対する所定の操作手段による操作に伴い座標変位量を入力する工程と、
前記入力された座標変位量に応じて前記入力された座標変位量を前記表示画像の表示位置の変位量に変換するための変換係数と前記表示画像の表示属性とを制御する工程と、
を備えることを特徴とする表示制御方法。
A step of inputting a coordinate displacement amount in accordance with an operation by a predetermined operation means for a display image displayed on the predetermined display means;
Controlling a conversion coefficient for converting the input coordinate displacement amount into a displacement amount of a display position of the display image according to the input coordinate displacement amount, and a display attribute of the display image;
A display control method comprising:
所定の表示手段に表示された表示画像に対する所定の操作手段による操作に伴い座標変位量を入力する処理と、
前記入力された座標変位量に応じて前記入力された座標変位量を前記表示画像の表示位置の変位量に変換するための変換係数と前記表示画像の表示属性とを制御する処理と、
をコンピュータに実行させることを特徴とするプログラム。
A process of inputting a coordinate displacement amount in accordance with an operation by a predetermined operation unit with respect to a display image displayed on the predetermined display unit;
A process for controlling a conversion coefficient for converting the input coordinate displacement amount into a displacement amount of a display position of the display image according to the input coordinate displacement amount, and a display attribute of the display image;
A program that causes a computer to execute.
JP2014137627A 2014-07-03 2014-07-03 Display control apparatus, display control method, and program Active JP6008904B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014137627A JP6008904B2 (en) 2014-07-03 2014-07-03 Display control apparatus, display control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014137627A JP6008904B2 (en) 2014-07-03 2014-07-03 Display control apparatus, display control method, and program

Publications (2)

Publication Number Publication Date
JP2016015078A true JP2016015078A (en) 2016-01-28
JP6008904B2 JP6008904B2 (en) 2016-10-19

Family

ID=55231202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014137627A Active JP6008904B2 (en) 2014-07-03 2014-07-03 Display control apparatus, display control method, and program

Country Status (1)

Country Link
JP (1) JP6008904B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109102571A (en) * 2018-07-16 2018-12-28 深圳超多维科技有限公司 A kind of control method of virtual image, device, equipment and its storage medium
CN114598817A (en) * 2022-03-04 2022-06-07 无锡乐骐科技股份有限公司 Human-computer interaction judgment method and device based on multi-person interaction action judgment

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01233511A (en) * 1988-03-14 1989-09-19 Fujitsu Ltd Drawing editing device
JPH0935066A (en) * 1995-07-25 1997-02-07 Hitachi Ltd Information processor with hand shape recognizing function
JPH10207441A (en) * 1997-01-24 1998-08-07 Japan Radio Co Ltd Cursor display controller
JP2010015553A (en) * 2008-06-03 2010-01-21 Shimane Pref Gov Image recognition device, manipulation determination method, and program
JP2011054165A (en) * 2009-09-02 2011-03-17 Pixart Imaging Inc Gesture recognition method for interactive system, and the interactive system
WO2012144145A1 (en) * 2011-04-22 2012-10-26 パナソニック株式会社 Pointing control device, integrated circuit thereof, and pointing control method
JP2013178645A (en) * 2012-02-28 2013-09-09 Onkyo Corp Input device of electronic apparatus
JP2015172886A (en) * 2014-03-12 2015-10-01 オムロン株式会社 Gesture recognition device and control method of gesture recognition device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01233511A (en) * 1988-03-14 1989-09-19 Fujitsu Ltd Drawing editing device
JPH0935066A (en) * 1995-07-25 1997-02-07 Hitachi Ltd Information processor with hand shape recognizing function
JPH10207441A (en) * 1997-01-24 1998-08-07 Japan Radio Co Ltd Cursor display controller
JP2010015553A (en) * 2008-06-03 2010-01-21 Shimane Pref Gov Image recognition device, manipulation determination method, and program
JP2011054165A (en) * 2009-09-02 2011-03-17 Pixart Imaging Inc Gesture recognition method for interactive system, and the interactive system
WO2012144145A1 (en) * 2011-04-22 2012-10-26 パナソニック株式会社 Pointing control device, integrated circuit thereof, and pointing control method
JP2013178645A (en) * 2012-02-28 2013-09-09 Onkyo Corp Input device of electronic apparatus
JP2015172886A (en) * 2014-03-12 2015-10-01 オムロン株式会社 Gesture recognition device and control method of gesture recognition device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109102571A (en) * 2018-07-16 2018-12-28 深圳超多维科技有限公司 A kind of control method of virtual image, device, equipment and its storage medium
CN109102571B (en) * 2018-07-16 2023-05-12 深圳超多维科技有限公司 Virtual image control method, device, equipment and storage medium thereof
CN114598817A (en) * 2022-03-04 2022-06-07 无锡乐骐科技股份有限公司 Human-computer interaction judgment method and device based on multi-person interaction action judgment

Also Published As

Publication number Publication date
JP6008904B2 (en) 2016-10-19

Similar Documents

Publication Publication Date Title
US20220129060A1 (en) Three-dimensional object tracking to augment display area
KR101872426B1 (en) Depth-based user interface gesture control
JP6074170B2 (en) Short range motion tracking system and method
US9600078B2 (en) Method and system enabling natural user interface gestures with an electronic system
Kratz et al. HoverFlow: expanding the design space of around-device interaction
JP5802667B2 (en) Gesture input device and gesture input method
US20200225756A9 (en) System and method for close-range movement tracking
JP5167523B2 (en) Operation input device, operation determination method, and program
WO2012039140A1 (en) Operation input apparatus, operation input method, and program
JP5807686B2 (en) Image processing apparatus, image processing method, and program
JP2013037675A5 (en)
CN103729054A (en) Multi display device and control method thereof
JP2006209563A (en) Interface device
US20140022171A1 (en) System and method for controlling an external system using a remote device with a depth sensor
JP2013016060A (en) Operation input device, operation determination method, and program
US20150304615A1 (en) Projection control apparatus and projection control method
KR20120126508A (en) method for recognizing touch input in virtual touch apparatus without pointer
US11886643B2 (en) Information processing apparatus and information processing method
TWI486815B (en) Display device, system and method for controlling the display device
JP6008904B2 (en) Display control apparatus, display control method, and program
JP2014071672A (en) Information input device, and information input method
KR20090031205A (en) Cursor positioning method by a handheld camera
KR101394604B1 (en) method for implementing user interface based on motion detection and apparatus thereof
KR20140021166A (en) Two-dimensional virtual touch apparatus
JP5028676B2 (en) Graphical user interface operation / control device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160913

R150 Certificate of patent or registration of utility model

Ref document number: 6008904

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250