JP6244712B2 - Image processing apparatus, image processing method, and image processing program - Google Patents
Image processing apparatus, image processing method, and image processing program Download PDFInfo
- Publication number
- JP6244712B2 JP6244712B2 JP2013153074A JP2013153074A JP6244712B2 JP 6244712 B2 JP6244712 B2 JP 6244712B2 JP 2013153074 A JP2013153074 A JP 2013153074A JP 2013153074 A JP2013153074 A JP 2013153074A JP 6244712 B2 JP6244712 B2 JP 6244712B2
- Authority
- JP
- Japan
- Prior art keywords
- display information
- display
- image processing
- time
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、例えば、画像上の任意の位置に表示情報を表示する画像処理装置、画像処理方法および画像処理プログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and an image processing program that display display information at an arbitrary position on an image, for example.
近年、情報通信技術の発展に伴い、現実空間(外界)を撮像した画像にコンピュータを用いて視覚的な表示情報を付加して表示する、拡張現実感(Augmented Reality:AR)による画像処理技術の開発が行われている。拡張現実に関する技術におけるインタフェースは、任意の場所に固定されたカメラ、または自由に移動が可能なカメラを用いて、ユーザの眼前の物体に付与されるマーカ(2次元コードと称しても良い)を撮影することにより、マーカを含む画像を取得した後、その物体に関連する付加的な情報であり、かつマーカに対応付けられる表示情報をディスプレイ上に表示する機能を具備している。 In recent years, with the development of information communication technology, an image processing technology based on augmented reality (AR), in which visual display information is added to an image obtained by imaging a real space (external world) using a computer and displayed. Development is underway. The interface in the augmented reality technology uses a camera (may be referred to as a two-dimensional code) attached to an object in front of the user's eyes using a camera fixed in an arbitrary place or a camera that can move freely. After acquiring an image including a marker by photographing, it has a function of displaying, on a display, additional information related to the object and display information associated with the marker.
拡張現実感による画像処理方法は、具体的には、マーカに対応する表示情報を、撮像したマーカの4隅から決定される基準位置と当該基準位置に基づく物理座標系に基づいて、カメラのディスプレイや、カメラが搭載されるPCまたは、携帯端末のディスプレイに重畳表示することを特徴としている。当該画像処理方法により、表示情報と物体の表示位置を関連付けることが可能となる。 Specifically, the image processing method based on augmented reality is based on a reference position determined from the four corners of the captured marker and a physical coordinate system based on the reference position. In addition, it is characterized by being superimposed and displayed on a PC on which a camera is mounted or a display of a portable terminal. With this image processing method, it is possible to associate display information with the display position of an object.
拡張現実技術を利用し、電子機器等の障害発生時における障害箇所の特定、及び、ユーザの障害修復作業等の現場作業を支援する機能が実現されている。例えば、作業対象物となる物体または、当該物体付近に特定の形状特徴を有するマーカを付与し、マーカに含まれる各種情報に基づいて、カメラが撮影する画像上にリアルタイムで表示情報を重畳表示する。例えば、コピー機の紙詰まり障害の修復作業支援において、紙詰まり発生位置に対応付けられたコピー機の内部映像及び操作手順を、作業対象の物体となるコピー機に重畳表示する技術が提案されている。 Using augmented reality technology, a function for identifying a fault location when a fault occurs in an electronic device or the like and supporting a field work such as a fault repair work by a user is realized. For example, an object to be a work target or a marker having a specific shape feature is provided near the object, and display information is superimposed and displayed in real time on an image captured by the camera based on various information included in the marker. . For example, a technology for superimposing and displaying an internal image and an operation procedure of a copier associated with a paper jam occurrence position on a copier serving as an object to be worked in a repair work support for a paper jam failure of a copier has been proposed. Yes.
ここで、従来の拡張現実感の画像処理技術を用いない従来の手法による現場作業においては、以下の様な問題が存在し得ることが想定されている。
(1−1)作業対象箇所や手順を記載した大量の紙媒体の作業手順書を作業現場に持って行き、作業者が必要な個所を自分で選択して参照すると共に、作業手順書の記載と現場の状況を見比べながら作業を実施する。この為、必要箇所の選択に時間がかかる、間違った箇所を選択する・見比べる時に見間違いが発生するなどの作業ミスが発生する。
(1−2)作業結果は、紙媒体のチェックシートへ記入して記録する。記録内容を電子化する作業負荷は大きいことから、紙媒体のチェックシートのまま作業結果が保存されることになる為、作業結果の整理や解析が難しくなる。
Here, it is assumed that the following problems may exist in the field work by the conventional method which does not use the conventional augmented reality image processing technique.
(1-1) Bring a large amount of paper-based work procedure manuals describing the work location and procedures to the work site, and select and refer to the necessary locations by the worker himself, and describe the work procedure manuals. We will work while comparing the situation at the site. For this reason, it takes time to select a necessary part, and an operation error such as a misidentification occurs when a wrong part is selected or compared.
(1-2) Record the work results on a check sheet on a paper medium. Since the work load for digitizing the recorded contents is large, the work results are stored as a check sheet of a paper medium, so that it is difficult to organize and analyze the work results.
上述の問題点に関して、拡張現実感を用いた画像処理技術を上述の現場作業に対して適用することで、以下の改善効果が期待される。
(2−1)電子化したマニュアルを格納した画像処理装置のカメラを用いて作業対象の物体を撮影するだけで、その作業対象の物体に関する作業箇所や手順を、ディスプレイの画像(カメラプレビュー画像と称しても良い)への表示情報(オブジェクトアイコンと称しても良い)の重畳表示という形でリアルタイムに表示して提示する。これにより、ユーザの作業時間の短縮と作業ミスの低減を図ることが可能となる。
(2−2)作業結果の記録作業は、作業対象の物体に関連付けて表示されている表示情報を、例えば、手指で押下して選択することで、作業結果の入力用画面に切り替えて実施する。作業結果の記録完了時において、既に作業結果は電子化されている為、作業結果のデータの整理や改正が容易になる。
この様に、拡張現実感を用いた画像処理技術においては、作業現場における様々な作業効率化が期待されている。
Regarding the above-mentioned problems, the following improvement effect is expected by applying the image processing technology using augmented reality to the above-mentioned field work.
(2-1) Just by photographing a work target object using a camera of an image processing apparatus that stores an electronic manual, the work location and procedure related to the work target object are displayed on a display image (camera preview image and Display information (may also be referred to as object icons) in real time in the form of superimposed display. As a result, it is possible to shorten the user's work time and reduce work mistakes.
(2-2) The work result recording work is performed by switching to a work result input screen by, for example, pressing and selecting display information displayed in association with an object to be worked with a finger. . When the work result recording is completed, the work result is already digitized, so that the work result data can be easily organized and revised.
As described above, in the image processing technology using augmented reality, various work efficiencies at the work site are expected.
「拡張現実感を利用した原子力発電プラントの解体支援手法の提案と評価」、日本バーチャルリアリティ学会論文誌、Vol.13、No.2、pp.289−300、2008 "Proposal and Evaluation of Nuclear Power Plant Dismantling Support Method Using Augmented Reality", Transactions of the Virtual Reality Society of Japan, Vol. 2, pp. 289-300, 2008
現状のマーカの認識に基づく拡張現実感を用いる画像処理技術における表示情報の表示動作は、例えば、以下に示す処理に基づいて動作する。
(3−1)画像に含まれるマーカの認識に成功している間は、当該画像内のマーカの認識位置や姿勢を基準とし、マーカの基準位置に対する相対位置に基づいて表示情報を表示する。
(3−2)ユーザの動作に応じて発生するマーカに対する撮影位置や方向の変化に追従して、表示情報の表示位置がリアルタイムで変化する。
(3−3)撮影位置の移動や姿勢の変化により、マーカの撮影範囲外に移動した場合や、撮影時のブレの発生等によってマーカの認識に失敗した場合には、直ちに表示情報の表示を停止する。
(3−4)表示情報が表示されている場合において、ユーザが手指による押下で表示情報を選択操作することで、その選択情報に割り当てられた機能を実行する。
The display information display operation in the image processing technology using augmented reality based on the recognition of the current marker operates based on the following processing, for example.
(3-1) While the recognition of the marker included in the image is successful, the display information is displayed based on the relative position of the marker with respect to the reference position with reference to the recognition position and orientation of the marker in the image.
(3-2) The display position of the display information changes in real time following changes in the shooting position and direction with respect to the marker generated according to the user's operation.
(3-3) Display information is immediately displayed when the marker moves out of the shooting range due to movement of the shooting position or changes in posture, or when marker recognition fails due to the occurrence of blurring during shooting, etc. Stop.
(3-4) When display information is displayed, the user performs a function assigned to the selection information by selecting the display information by pressing with a finger.
拡張現実感技術は、上述の(3−1)〜(3−4)の項目において、(3−2)の項目が顕著な技術的な特徴である。具体的には、撮像中の撮影範囲に合わせて表示情報の表示位置が逐次リアルタイムで変化する為、ボタン操作等の特別な動作を行うことなく、画像処理装置の位置を動かすことだけで以下の効果を得ることが出来る。
(4−1)画像処理装置を移動させながらディスプレイを視認するだけで撮影範囲における表示情報の有無を確認出来る(表示情報の一覧性の確保)。
(4−2)作業対象の物体や表示情報の表示位置が作業時に適切な場所や大きさになる様に、撮影位置の調整が容易に出来る。また、作業対象に対する物体の鏡面反射や、ディスプレイへの映り込み等で表示情報を視認し難い場合に、視認し易い位置に表示情報が表示される様にする調整が容易に出来る(表示情報の表示範囲の制御性)。
The augmented reality technology is a technical feature in which the item (3-2) is prominent among the items (3-1) to (3-4) described above. Specifically, since the display position of the display information sequentially changes in real time in accordance with the shooting range during imaging, the following processing can be performed only by moving the position of the image processing apparatus without performing a special operation such as button operation. An effect can be obtained.
(4-1) The presence / absence of display information in the shooting range can be confirmed simply by visually recognizing the display while moving the image processing apparatus (ensuring listability of display information).
(4-2) The photographing position can be easily adjusted so that the display position of the object to be worked and the display information becomes an appropriate place and size at the time of work. In addition, when it is difficult to visually recognize display information due to mirror reflection of an object with respect to a work target or reflection on a display, it is possible to easily adjust the display information to be displayed at a position where it can be easily viewed (display information Display range controllability).
上述の様な表示情報の一覧性や、表示情報の表示範囲の制御性を確保していることからも理解出来る通り、拡張現実感を用いる画像処理においては、ユーザに対する高い利用性(ユーザビリティ)が求められている状態にある。利便性の確保においては、ユーザの表示情報に対する押下精度を確保することも重要となる。これは、後述する通り、ユーザがディスプレイ上の表示情報に対して、一方の手指の接触による押下選択動作を行う為に、手指を表示情報に伸ばしている間に、画像処理装置を保持する他方の手指の位置が安定しなくなり、カメラを搭載する画像処理装置の位置や姿勢が急激に動いてしまうという現象が発生することが、本発明者らの鋭意検証によって明らかになった為である。本発明は、ユーザに対する利用性が向上する画像処理装置を提供することを目的とする。 As can be understood from the fact that the display information listability and controllability of the display range of the display information are secured as described above, in image processing using augmented reality, high usability (usability) for the user is achieved. It is in the required state. In ensuring convenience, it is also important to ensure the accuracy of pressing the user's display information. This is because, as will be described later, the user holds the image processing apparatus while extending the finger to the display information so that the user can perform a pressing selection operation by touching one of the fingers with respect to the display information on the display. This is because it has been clarified by the present inventors that the position of the user's finger becomes unstable and the position and posture of the image processing apparatus on which the camera is mounted suddenly moves. An object of the present invention is to provide an image processing apparatus that improves usability for a user.
本発明が開示する画像処理装置は、表示情報を表示する表示部と、表示情報と表示情報を表示する基準位置を規定するマーカを含む画像を取得する取得部を備える。更に、当該画像処理装置は、マーカに規定される表示情報と基準位置を認識する認識部と、表示情報に対するユーザの操作領域を、表示情報の表示領域よりも広く制御する制御部を備える。 An image processing device disclosed in the present invention includes a display unit that displays display information, and an acquisition unit that acquires an image including a marker that defines the display information and a reference position for displaying the display information. Further, the image processing apparatus includes a recognition unit that recognizes display information and a reference position defined by the marker, and a control unit that controls a user operation area for the display information wider than the display area of the display information.
なお、本発明の目的及び利点は、例えば、請求項におけるエレメント及び組み合わせにより実現され、かつ達成されるものである。また、上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を制限するものではないことを理解されたい。 The objects and advantages of the invention may be realized and attained by means of the elements and combinations in the claims, for example. It should also be understood that both the above general description and the following detailed description are exemplary and explanatory and are not restrictive of the invention as claimed.
本明細書に開示される画像処理装置では、ユーザの表示情報に対する押下精度を向上させることが可能となる。 In the image processing apparatus disclosed in this specification, it is possible to improve the pressing accuracy of the display information of the user.
上述の表示情報の表示位置がリアルタイムで変動する拡張現実感を用いる画像処理においては、本発明者らの鋭意検証によって、以下の事項が明らかになった。ユーザがディスプレイ上の表示情報に対して、一方の手指の接触による押下選択動作を行う為に、手指を表示情報に伸ばしている間に、画像処理装置を保持する他方の手指の位置が安定しなくなり、カメラを搭載する画像処理装置の位置や姿勢が急激に動いてしまうという現象が発生する。この場合、マーカに対するカメラ撮影位置や方向が変化する為、表示情報の表示位置が変化する。この結果、ユーザの手指がディスプレイに接触する時刻における表示情報の表示位置は、押下選択動作を開始した時刻の表示位置とズレが生じている為、ユーザが表示情報を正確に押下出来ない現象が発生することが明らかになった。また、この現象は、両手で画像処理装置を保持しつつ、表示情報を押下する場合でも発生することが明らかになった。これは、両手で画像処理装置を保持した状態においても、手指を伸ばす動作や、当該動作に伴う画像処理装置の持ち替えにより、画像処理装置の位置や姿勢が変化することに依る為である。 In the image processing using the augmented reality in which the display position of the display information fluctuates in real time, the following matters have been clarified by the inventors' extensive examination. Since the user performs a pressing selection operation by touching one finger with respect to the display information on the display, the position of the other finger holding the image processing apparatus is stabilized while the finger is extended to the display information. The phenomenon that the position and posture of the image processing apparatus on which the camera is mounted moves suddenly occurs. In this case, since the camera photographing position and direction with respect to the marker change, the display position of the display information changes. As a result, the display position of the display information at the time when the user's finger touches the display is misaligned with the display position at the time when the pressing selection operation is started, so that the user cannot press the display information accurately. It became clear that it occurred. It has also been clarified that this phenomenon occurs even when the display information is pressed while holding the image processing apparatus with both hands. This is because even when the image processing apparatus is held with both hands, the position and orientation of the image processing apparatus change due to the operation of extending the finger and the change of the image processing apparatus accompanying the operation.
画像処理装置の位置や姿勢の変化に伴う表示情報の表示位置の変化に対して、本発明者らは、比較例として以下の手法を検討した。例えば、表示情報をディスプレイの所定位置に固定して表示し、作業対象の物体と、移動する画像上の矢印で結び付ける方法が考えられる。当該方法に依れば、画像処理装置の位置や姿勢が変化しても、表示情報の表示位置が変化しない為、ユーザは的確に表示情報を押下することができる。しかしながら、当該方法は、表示情報と作業対象の物体が、ディスプレイ上で離れてしまい視認性が劣化する課題が生じる。 As a comparative example, the present inventors have examined the following method with respect to changes in the display position of display information accompanying changes in the position and orientation of the image processing apparatus. For example, a method is conceivable in which the display information is fixedly displayed at a predetermined position on the display, and is linked to the work target object by an arrow on the moving image. According to this method, even if the position or orientation of the image processing apparatus changes, the display position of the display information does not change, so that the user can press the display information accurately. However, this method has a problem that the display information and the object to be worked are separated on the display and the visibility is deteriorated.
また、他の比較例として、ディスプレイ上に表示される特定の表示情報への押下によって、リアルタイムの画像表示から一時的に静止画像表示に切り替えた上で、当該静止画像上の表示情報に対して、ユーザに押下させることが考えられる。しかしながら、リアルタイムの画像表示から静止画像表示に切り替えるための押下操作自体が、リアルタイムの表示情報における特定の表示情報へ押下が必要となる為、上述の画像処理装置の位置や姿勢が変化する課題が生じる。換言すると、拡張現実感を用いる画像処理装置においては、表示情報の表示位置がリアルタイムで変動することになる。この為、表示情報の表示位置がリアルタイムで変動しても、ユーザの表示情報に対する押下精度を十分に確保させることが必要になる。 Further, as another comparative example, by pressing a specific display information displayed on the display, the real-time image display is temporarily switched to the still image display, and then the display information on the still image is changed. It is conceivable that the user presses the button. However, since the pressing operation itself for switching from the real-time image display to the still image display requires pressing down to specific display information in the real-time display information, there is a problem that the position and orientation of the image processing apparatus described above change. Arise. In other words, in an image processing apparatus that uses augmented reality, the display position of display information varies in real time. For this reason, even if the display position of the display information fluctuates in real time, it is necessary to ensure sufficient pressing accuracy for the display information of the user.
上述の本発明者らの鋭意検証によって、新たに見出された事項を考慮しつつ、以下に、一つの実施形態による画像処理装置、画像処理方法及び画像処理プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例は、開示の技術を限定するものではない。 Based on the drawings, an example of an image processing apparatus, an image processing method, and an image processing program according to one embodiment will be described below in consideration of newly discovered items by the above-described diligent verification by the present inventors. This will be described in detail. Note that this embodiment does not limit the disclosed technology.
(実施例1)
図1は、第1の実施形態による画像処理装置1の機能ブロック図である。画像処理装置1は、取得部2、認識部3、検知部4、算出部5、制御部6、ならびに、表示部7を有する。なお、画像処理装置1は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路で構成しても良い。
Example 1
FIG. 1 is a functional block diagram of an
取得部2は、例えば、ワイヤードロジックによるハードウェア回路である。また、取得部2は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。更に、取得部2は、図示しない通信部を有しており、通信回線を介して様々な外部装置と双方向にデータの送受信を行うことが可能である。取得部2は、後述する表示部7が表示する表示情報と、当該表示情報を表示する基準位置を規定するマーカを含む画像を取得する。ここで、表示情報とは、例えば、作業対象となる物体に対応付けられる作業内容等を含む情報である。取得部2は、当該画像を、例えば、外部装置の一例となる図示しない撮像素子(カメラと称しても良い)から取得する。撮像素子は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)カメラなどの撮像デバイスである。また、画像処理装置1は、撮像素子を画像処理装置1の構成要素の一部とすることが出来る。取得部2は取得した画像を認識部3に出力する。
The
認識部3は、例えば、ワイヤードロジックによるハードウェア回路である。また、認識部3は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。認識部3は画像を取得部2から受け取り、当該画像に含まれるマーカに対応する表示情報と基準位置を認識する。認識部3は、認識した表示情報と、基準位置を制御部6に出力する。また、認識部3は図示しない記憶部を内部に備えても良い。当該記憶部には、例えば、マーカに対応する表示情報が記憶される。記憶部は、例えば、フラッシュメモリ(flash memory)などの半導体メモリ素子、または、HDD(Hard Disk Drive)、光ディスクなどの記憶装置である。なお、記憶部は、上記の種類の記憶装置に限定されるものではなく、RAM(Random Access Memory)、ROM(Read Only Memory)であってもよい。認識部3は、認識した基準位置と表示情報を算出部5、制御部6ならびに表示部7に出力する。
The
検知部4は、例えば、ワイヤードロジックによるハードウェア回路である。また、検知部4は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。検知部4は、後述する表示部7へのユーザの手指の接触を検知し、表示部7における検知位置を検知する。なお、検知部4は、接触を検知した時刻を表示情報に対するユーザの選択動作の終了時刻と規定することが出来る。また、検知部4は、接触を検知した検知位置と表示部7が表示する表示情報に対するユーザの操作領域に基づいて、ユーザの表示情報への選択を検知する。なお、操作領域は、例えば、表示情報の表示領域である。検知部4は、検出した選択動作の終了時刻を算出部5に出力する。
The
算出部5は、例えば、ワイヤードロジックによるハードウェア回路である。また、算出部5は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。算出部5は、認識部3から基準位置と表示位置を受け取る。また、算出部5は、選択動作の終了時刻を検知部4から受け取る。算出部5は、後述する表示部7が表示する表示情報に対するユーザの選択動作の開始情報を算出する。ここで、開始情報は、基準位置の移動量に基づいた選択動作の開始時刻を含む。換言すると、開始時刻は、表示情報の第1表示位置が第1閾値範囲未満かつ第2閾値時間以上の閾値を満たした後に、当該第1閾値範囲以上の閾値を満たした時刻である。更に、換言すると、開始時刻は、表示情報の第1表示位置の変化量が、第1閾値範囲未満かつ第2閾値時間以上の閾値を満たした後に、当該第1閾値範囲以上の閾値を満たした時刻である。具体的には、ユーザがマーカに合わせて画像処理装置1を静止させている場合は、表示情報の表示位置(第1表示位置に相当)は、一定時間以上(第2閾値時間以上に相当)に渡って、ほぼ静止した状態(第1閾値範囲未満に相当)となる。なお、第1表示位置の詳細について補足的に説明すると、選択動作の開始時刻における表示情報の表示位置を第1表示位置と換言することが出来る。次に、ユーザの手指が表示情報に向かって動作すると、画像処理装置1は、ユーザの保持状態が変化する為、表示情報の表示位置は、ある範囲以上(第1閾値範囲以上に相当)で変動する。この様な処理方法を用いることで、算出部5は、ユーザの選択動作の開始情報を算出することが可能となる。
The
図2(a)は、ユーザによる表示情報の選択動作開始前の概念図である。図2(b)は、ユーザによる表示情報の選択動作開始後の概念図である。図2(a)に示す通り、ユーザによる表示情報の選択動作開始前においては、ユーザは表示部7を含む画像処理装置1を両手で保持してマーカに合わせて画像処理装置1を静止させている状態である。この為、表示情報の表示位置(第1表示位置に相当)は、一定時間以上(第2閾値時間以上に相当)に渡って、ほぼ静止した状態(第1閾値範囲未満に相当)となる。なお、画像処理装置1の表示部7には、左端に表示情報、中央に作業対象の物体、右端にマーカが表示されている。図2(b)に示す通り、表示情報の選択動作開始後においては、片手で画像処理装置1を保持する為、画像処理装置1を保持する手指の位置が安定しなくなり、表示情報の表示位置は、ある範囲以上(第1閾値範囲以上に相当)で変動することなる。換言すると、表示情報の表示位置は、選択動作開始前後で異なる位置となる。
FIG. 2A is a conceptual diagram before the start of the display information selection operation by the user. FIG. 2B is a conceptual diagram after the display information selection operation by the user is started. As shown in FIG. 2A, before the display information selection operation by the user is started, the user holds the
図1の算出部5は、開始情報に含まれる開始時刻から選択動作の終了時刻までの選択動作時間を算出する。なお、選択動作時間は、単なる時間長の情報ではなく、例えば、選択動作の開始時刻と終了時刻が含まれても良い。算出部5は、算出した選択動作時間を制御部6へ出力する。
The
制御部6は、例えば、ワイヤードロジックによるハードウェア回路である。また、制御部6は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。制御部6は、基準位置と表示情報を認識部3から受け取り、選択動作時間を算出部5から受け取る。なお、実施例1における選択動作時間には、選択動作の開始時刻と終了時刻の情報が含まれているものとする。制御部6は、表示情報に対するユーザの操作領域を、表示情報の表示領域よりも広く制御する。また、制御部6は、開始情報に基づいて表示情報の操作領域を制御する。制御部6は、開始情報と基準位置の移動量に基づいて操作領域を制御する。更に、制御部6は、選択動作時間における移動量に基づいて操作領域を制御する。更に、制御部6は、操作領域を、前記開始時刻における表示領域(初期表示領域と称しても良い)よりも広く制御する。具体的には、制御部6は、操作領域の制御として、例えば、選択動作時間における基準位置の最小座標と最大座標で規定される移動範囲に表示情報を重畳して表示させる。以下に制御部6の制御処理の詳細について説明する。
The
制御部6は、表示情報に対するユーザの選択動作の開始時刻tsから終了時刻tpまでの基準位置の移動量(移動量の単位は例えばピクセルである)を格納したテーブルを、例えば、制御部6の図示しないキャッシュまたはメモリに格納する。図3は、選択動作時間における基準位置の移動量を含む第1テーブルの一例である。図3に示すテーブル30には、ユーザの選択動作の開始時刻をts、終了時刻をtpとした取得部2が取得する画像のフレーム毎の基準位置が格納される。なお、実施例1においては、マーカは2次元座標で表現出来る矩形形状であり、基準点は4頂点で表現されるものとして説明する。また、基準点は4頂点ではなく、任意の1点としても良い。なお、テーブル30における2次元座標系は、例えば、表示部7の左上端を原点とし、水平方向をx軸、垂直方向をy軸と規定した場合の座標系である。また、時刻tp+1は、検知部4が接触を検知した時刻の次のフレームの時刻を示している。
The
図3のテーブル30において、x軸の最小座標は10であり、y軸の最大座標は340である。当該範囲が上述の選択動作時間における基準位置の最小座標と最大座標で規定される移動範囲に該当する。なお、当該移動範囲を上述の移動軌跡と称しても良い。制御部6は、操作領域の制御として、例えば、選択動作時間における基準位置の最小座標と最大座標で規定される移動範囲に表示情報を重畳して表示させる。これにより、ユーザの表示情報に対する押下精度が向上する。図4は、選択動作時間の基準位置の移動範囲における表示情報の重畳表示の概念図である。図4において、ユーザの指先が押下した位置(時刻tpにおける検知位置)は、時刻tsにおける表示位置以外の位置(時刻tp−1)となっているが、当該押下した位置は選択動作時間における基準位置の最小座標と最大座標で規定される操作領域の移動範囲内である為、検知部4がユーザの表示情報への選択を検知することで、ユーザの表示情報に対する押下精度が向上する。
In the table 30 of FIG. 3, the minimum coordinate of the x axis is 10 and the maximum coordinate of the y axis is 340. This range corresponds to the movement range defined by the minimum coordinate and the maximum coordinate of the reference position in the selection operation time described above. Note that the movement range may be referred to as the above-described movement locus. For example, as the control of the operation area, the
なお、制御部6は、必ずしも表示情報を重畳して表示させる必要はない。例えば、検知部4が接触を検知した検知位置が、制御部6が規定した移動範囲内であれば、検知部4が表示情報への選択が成されたと見做して検知することで、ユーザの表示情報に対する押下精度が向上する。換言すると制御部6は、操作領域の制御として、例えば、選択動作時間における基準位置の最小座標と最大座標で規定される移動範囲の領域自体を、操作範囲と見做した上で、検知部4が表示情報への選択を検知することで、実効的な操作範囲が拡大し、ユーザの表示情報に対する押下精度が向上する。なお、説明の便宜上、制御部6が表示情報の表示位置を制御する為の各種情報を制御情報と称することにする。制御部6は制御情報を表示部7へ出力する。
Note that the
また、制御部6は、異なる2つの時刻の基準位置を用いて、各フレームにおける基準位置の時間変化を算出し、算出した計算上の基準位置の移動範囲に基づいて表示情報を制御しても良い。基準位置の時間変化は、例えば、次式を用いて算出することが出来る。但し、次式において、x、yは基準点の座標であり、tは任意のフレームの時刻である。
(数1)
x=5t+35
y=−15t+165
なお、基準位置の時間変化が曲線状の場合には、制御部6は、近似曲線式を用いて移動軌跡を算出しても良い。また、制御部6は、各フレームにおける基準位置の時間変化を、後述の回転ベクトルと並進ベクトルを考慮した座標に基づいて算出しても良い。
Further, the
(Equation 1)
x = 5t + 35
y = -15t + 165
In addition, when the time change of the reference position is a curve, the
図1の表示部7は、例えば、液晶ディスプレイまたは有機エレクトロルミネッセンスディスプレイなどの表示デバイスである。表示部7は、表示情報と基準位置を認識部3から受け取り、表示情報の制御情報を制御部6から受け取る。表示部7は、制御部6から制御情報を受け取っている場合は、当該制御情報に基づいて表示情報を表示し、制御部6から制御情報を受け取っていない場合は、基準位置に基づいて表示情報を表示する。
The
図5は、画像処理装置1による画像処理のフローチャートである。取得部2は、表示部7が表示する表示情報と、当該表示情報を表示する基準位置を規定するマーカを含む画像を取得する(ステップS501)。取得部2は取得した画像を認識部3に出力する。認識部3は画像を取得部2から受け取り、当該画像に含まれるマーカに規定される表示情報と基準位置を認識する(ステップS502)。認識部3は、認識した表示情報と、基準位置を制御部6に出力する。
FIG. 5 is a flowchart of image processing by the
検知部4は、表示部7へのユーザの手指の接触を検知し、表示部7における検知位置を検知する(ステップS503)。なお、検知部4は、接触を検知した時刻を表示情報に対するユーザの選択動作の終了時刻と規定することが出来る。また、検知部4は、接触を検知した検知位置と表示部7が表示する表示情報に対するユーザの操作領域に基づいて、ユーザの表示情報への選択を検知する。なお、操作領域は、例えば、表示情報の表示領域である。検知部4は、検出した選択動作の終了時刻を算出部5に出力する。
The
算出部5は、認識部3から基準位置と表示位置を受け取る。また、算出部5は、選択動作の終了時刻を検知部4から受け取る。算出部5は、表示部7が表示する表示情報に対するユーザの選択動作の開始情報を算出する(ステップS504)。ここで、開始情報は、基準位置の移動量に基づいた選択動作の開始時刻を含む。換言すると、開始時刻は、表示情報の第1表示位置が第1閾値範囲未満かつ第2閾値時間以上の閾値を満たした後に、当該第1閾値範囲以上の閾値を満たした時刻である。
The
算出部5は、開始情報に含まれる開始時刻から選択動作の終了時刻までの選択動作時間を算出する(ステップS505)。なお、選択動作時間は、単なる時間長の情報ではなく、例えば、選択動作の開始時刻と終了時刻が含まれても良い。算出部5は、算出した選択動作時間を制御部6へ出力する。算出部5は、算出した選択動作時間を制御部6へ出力する。
The
制御部6は、基準位置と表示情報を認識部3から受け取り、選択動作時間を算出部5から受け取る。なお、選択動作時間には、選択動作の開始時刻と終了時刻の情報が含まれているものとする。制御部6は、表示情報の表示領域を選択時間動作に基づいて制御する(ステップS506)例えば、制御部6は、ステップS506において、表示情報に対するユーザの操作領域を、表示情報の表示領域よりも広く制御する。また、制御部6は、開始情報に基づいて表示情報の操作領域を制御する。また、制御部6は、開始情報と基準位置の移動量に基づいて操作領域を制御する。更に、制御部6は、選択動作時間における移動量に基づいて操作領域を制御する。具体的には、制御部6は、操作領域の制御として、例えば、選択動作時間における基準位置の最小座標と最大座標で規定される移動範囲に表示情報を重畳して表示させる。
The
なお、ステップS506において、制御部6は、必ずしも表示情報を重畳して表示させる必要はない。例えば、検知部4が接触を検知した検知位置が、制御部6が規定した移動範囲内であれば、検知部4が表示情報への選択が成されたと見做して検知することで、ユーザの表示情報に対する押下精度が向上する。換言すると、制御部6は、操作領域の制御として、例えば、選択動作時間における基準位置の最小座標と最大座標で規定される移動範囲の領域自体を、操作範囲と見做した上で、検知部4が表示情報への選択を検知することで、実効的な操作範囲が拡大し、ユーザの表示情報に対する押下精度が向上する。
なお、説明の便宜上、制御部6が表示情報の表示位置を制御する為の各種情報を制御情報と称することにする。制御部6は制御情報を表示部7へ出力する。
In step S506, the
For convenience of explanation, various information for the
表示部7は、表示情報と基準位置を認識部3から受け取り、表示情報の制御情報を制御部6から受け取る。表示部7は表示情報を表示する(ステップS507)。例えば、表示部7は、ステップS507において、制御部6から制御情報を受け取っている場合は、当該制御情報に基づいて表示情報を表示し、制御部6から制御情報を受け取っていない場合は、基準位置に基づいて表示情報を表示することで、画像処理装置1は、図5のフローチャートに示す画像処理を終了する。なお、ステップS507の処理終了時において、取得部2が、画像を受け取っている場合には、画像処理装置はステップS501〜S507の処理を繰り返し実行しても良い。
The
実施例1による画像処理装置1においては、ユーザに対する利用性を向上させることが可能となる。また、実施例1による画像処理装置1においては、ユーザの表示情報に対する押下精度を向上させることが可能になる。例えば、画像処理装置1の移動に伴い表示情報の表示位置が移動してしまう場合でも、ユーザが動作の狙いを定めた時刻の表示位置に対して時間的に近いものが表示または選択されることにより、ユーザの表示情報に対する押下精度を向上させることが可能になる。
In the
(実施例2)
実施例2においては、算出部5による回転ベクトルと並進ベクトルを用いた選択動作時間の算出方法について開示する。実施例2における算出部5が含まれる画像処理装置1の機能ブロック図は実施例1と同様である為、詳細な説明は省略する。
(Example 2)
In the second embodiment, a method for calculating the selection operation time using the rotation vector and the translation vector by the
図6は、回転ベクトルと並進ベクトルの定義図である。図6に示される通り、任意の位置の原点0から画像処理装置1の表示部7に対して垂直に並進ベクトルTzが規定され、並進ベクトルTzに対応する並進ベクトルTx、Tyがそれぞれ規定される。また、並進ベクトルTx、Ty、Tzの回転方向に対して、回転ベクトルRx、Ry、Rzがそれぞれ規定される。算出部5は、例えば、図3のテーブル30に示す様な4頂点で表現される基準点から、回転ベクトルR=(Rx、Ry、Rz)と並進ベクトルT=(Tx,Ty,Tz)を公知の手法を用いて算出する。
FIG. 6 is a definition diagram of the rotation vector and the translation vector. As shown in FIG. 6, a translation vector Tz is defined perpendicularly from the origin 0 at an arbitrary position to the
算出部5は、時刻tn(例えば、図3のテーブル30の時刻ts+2)の並進ベクトルTn=(Txn、Tyn、Tzn)と、1フレーム前の時刻tn−1(例えば、図3のテーブル30の時刻ts+1)の並進ベクトルTn−1=(Txn−1、Tyn−1、Tzn−1)から、時刻tn−1から時刻tn間における移動量を表す並進ベクトル量ΔTnを、次式を用いて算出する。
(数2)
The
(Equation 2)
算出部5は、並進ベクトルと同様に、時刻tn−1から時刻tn間における移動量を表す回転ベクトル量ΔRnを、次式を用いて算出する。
(数3)
Similarly to the translation vector, the
(Equation 3)
算出部5は、並進ベクトル量ΔTnが所定値ΔTα未満、かつ回転ベクトル量ΔRnが所定値ΔRα未満である場合、画像処理装置1が静止状態と判断する。次に、算出部5は、静止状態の継続時間t1を算出する。継続時間t1が所定時間tβ未満の場合は、算出部5は、継続時間を0にリセットした上で、上述の並進ベクトル量ΔTnと回転ベクトル量ΔRnの算出を繰り返し実行する。継続時間t1が所定時間tβを以上の場合は、算出部5は、以下の処理を実行する。
When the translation vector amount ΔTn is less than the predetermined value ΔTα and the rotation vector amount ΔRn is less than the predetermined value ΔRα, the
算出部5は、並進ベクトル量ΔTnと所定値ΔTαの比較を行うと共に、回転ベクトル量ΔRnと所定値ΔRαの比較を行う。算出部5は、ΔTn<=ΔTα、かつ、ΔRn<=ΔRαの場合、画像処理装置1は静止状態を継続していると判断する。算出部5は、
ΔTn>ΔTαまたはΔRn>ΔRαと変化した場合は、画像処理装置1の位置が変動したと判断し、上述の条件を満たした時刻を選択動作の開始時刻tsと規定することが出来る。
The
When ΔTn> ΔTα or ΔRn> ΔRα is changed, it is determined that the position of the
実施例2における画像処理装置1においては、3軸方向の並進ベクトルと3軸方向の回転ベクトルの6個の測定値の変化量と複数の閾値判定を用いることにより、高い精度で選択動作の開始時刻tsと規定することが出来る。この為、実施例2による画像処理装置1においては、ユーザに対する利用性を向上させることが可能となる。また、実施例2による画像処理装置1においては、ユーザの表示情報に対する押下精度を向上させることが可能になる。
In the
(実施例3)
ユーザによる画像処理装置1の使用状況においては、ブレ等の発生により認識部3がマーカの認識を出来ない場合がある。認識部3がマーカを認識しない場合は、基準位置の消失により、表示情報が表示部7に表示されない場合がある。この場合は、ユーザは表示情報を手指等により押下出来なくなり、可用性が低下する場合も考えられる。実施例3における画像処理装置1においては、マーカの認識が出来ない場合においても、可用性が低下しないことが可能となる画像処理装置1について説明する。
(Example 3)
When the user uses the
図7は、第2の実施形態による画像処理装置1の機能ブロック図である。画像処理装置1は、取得部2、認識部3、検知部4、算出部5、制御部6、表示部7、ならびに、推定部8を有する。なお、画像処理装置1は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路で構成しても良い。また、推定部8以外の各機能は、図1に示す各機能と同様の機能を有する為、詳細な説明は省略する。
FIG. 7 is a functional block diagram of the
推定部8は、例えば、ワイヤードロジックによるハードウェア回路である。また、推定部8は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。推定部8は、算出部5が認識部3から基準位置を受け取っていない場合、以下の推定処理を実行する。
The
図8は、選択動作時間における基準位置の移動量を含む第2テーブルの一例である。テーブル80における座標系等の各種規定は図3のテーブル30と同様である為、詳細な説明は省略する。図8に示すテーブル80には、ユーザの選択動作の開始時刻をts、終了時刻をtpとした取得部2が取得する画像のフレーム毎の基準位置が格納される。テーブル80には、マーカ認識結果が格納されている。マーカの認識結果は、例えば、認識部3がマーカを認識出来たか否かに基づいて格納されれば良い。テーブル80においては、時刻ts〜時刻tm−1の時刻ではマーカの認識に成功しており、時刻tm〜時刻tp+1の時刻ではマーカの認識に失敗していることを示している。推定部8は、時刻tsから、マーカ認識失敗時刻前tm−1までの基準位置の変化を用いて、マーカ認識失敗時刻tmから接触が検知される時刻tpまでの基準位置の移動量(移動軌跡と称しても良い)を推定する。
FIG. 8 is an example of a second table including the amount of movement of the reference position during the selection operation time. Since various specifications such as the coordinate system in the table 80 are the same as those in the table 30 of FIG. 3, detailed description thereof is omitted. The table 80 shown in FIG. 8 stores a reference position for each frame of an image acquired by the
推定部8は、マーカ認識失敗時刻tmから接触が検知される時刻tpまでの基準位置の移動量の推定として様々な公知の手法を用いることが出来る。例えば、時刻ts〜時刻tm−1の時刻における基準位置から算出することが可能な時間変化に基づく直線近似方法や、「コンピュータビジョン、 David A. Forsyth、 Jean Ponce (著)、大北剛(訳)、共立出版(2007)」に開示されるカルマンフィルタ、または、「パーティクルフィルタとその実装法(チュートリアル)、情報処理学会研究報告、CVIM、 2007(1)、161−168、2007−01−11」に開示されるパーティクルフィルタ等の様々なフィルタ処理を用いることができる。実施例3においては、時間変化に基づく直線近似を例示として説明する。テーブル80において、例えば、時刻tm−3〜時刻tm−1の基準位置の時間変化は、例えば、次式で表現することが出来る。但し、次式において、x、yは基準点の座標であり、tは任意のフレームの時刻である。
(数4)
x=5t+35
y=−15t+165
The
(Equation 4)
x = 5t + 35
y = -15t + 165
推定部8は、上述の(数4)を用いて時刻tm〜時刻tpまでの移動量を推定することが出来る。なお、推定された基準位置の座標はテーブル80に示される座標となる。図7の制御部6は、テーブル80を参照し、実施例1または実施例2に開示した制御処理を適宜実行する。
The
実施例3による画像処理装置1によれば、ユーザの選択動作中に表示情報が正確に表示されなくなった場合においても、表示情報の位置を推定して表示することが出来る。この為、実施例3による画像処理装置1においては、ユーザに対する利用性を向上させることが可能となる。また、実施例3による画像処理装置1によれば、ユーザの表示情報に対する押下精度を向上させることが可能になる。
According to the
(実施例4)
実施例1ないし実施例3に開示する画像処理装置1における制御部6は、表示情報の操作領域の制御として、選択動作時間の終了時刻の次フレームにおける表示情報の第2表示位置を、選択動作時間の開始時刻の表示情報の第1表示位置に切り替えて、表示情報を表示させても良い。なお、第2表示位置を補足的に説明すると、選択動作時間の終了時刻の次フレームにおける表示情報の表示位置を第2表示位置とする。特に、実施例4においては、検知部4が接触を検知した検知位置が表示領域以外だった場合に当該処理を実施することがより好ましい。実施例4における制御部6が含まれる画像処理装置1の機能ブロック図は実施例1ないし実施例3と同様である為、詳細な説明は省略する。
Example 4
The
図9(a)は、ユーザによる表示情報の選択動作開始時刻tsの概念図である。図9(b)は、ユーザによる表示情報の選択動作終了時刻tpの概念図である。図9(c)は、ユーザによる表示情報の選択動作終了時刻の次フレーム時刻tp+1の概念図である。図9(a)の選択動作開始時刻tsから選択動作終了時刻tpにおいては、画像処理装置1の移動に伴い表示情報の表示位置が移動している。この場合において、制御部6は、選択動作開始時刻tsにおいて、選択動作開始時刻tsの基準位置を記憶する。次に、制御部6は、図9(c)に示す様に、表示情報の選択動作終了時刻tpの次のフレームとなる時刻tp+1において、記憶した選択動作開始時刻tsの基準位置に基づいて、表示情報を表示する様に制御する。換言すると、時刻tsと時刻tp+1の表示情報の表示位置は同じ位置となる。なお、当該処理は、検知部4が接触を検知した検知位置が表示領域以外かつ操作領域範囲内だった場合に当該処理を実施することがより好ましい。実施例4による画像処理装置1においては、ユーザに対する利用性(視認性)を向上させることが可能となる。
FIG. 9A is a conceptual diagram of the display information selection operation start time ts by the user. FIG. 9B is a conceptual diagram of the display information selection operation end time tp by the user. FIG. 9C is a conceptual diagram of the next frame time tp + 1 of the display information selection operation end time by the user. From the selection operation start time ts to the selection operation end time tp in FIG. 9A, the display position of the display information is moved with the movement of the
また、図9(a)ないし図9(c)において、制御部6は、ユーザによる表示情報の選択動作終了時刻tpの検知位置が、選択動作開始時刻tsの基準位置と選択動作終了時刻tpの基準位置のどちらが近いかを判断し、近い位置の基準位置に基づいて表示情報を表示する様に制御しても良い。換言すると、時刻tp+1の表示情報の表示位置は、時刻tsまたは時刻tpの何れかの表示位置となる。当該動作により、ユーザが動作の狙いを定めた時刻の表示位置に対して時間的に近いものが表示または選択されることにより、ユーザに対する利用性(視認性)を向上させることが可能となる。
Further, in FIGS. 9A to 9C, the
更に、図9(a)ないし図9(c)において、制御部6は、ユーザによる表示情報の選択動作終了時刻tpの検知位置が、表示領域以外である場合においても、図3のテーブル30または図8のテーブル80に基づいて制御部6が規定した移動範囲内であれば、時刻tp+1の表示情報の表示位置を、選択動作終了時刻tpの検知位置に重畳させても良い。当該動作により、ユーザに対する利用性(視認性)を向上させることが可能となる。
Further, in FIG. 9A to FIG. 9C, the
(実施例5)
実施例5における制御部6が含まれる画像処理装置1の機能ブロック図は実施例1ないし実施例4と同様である為、詳細な説明は省略する。図9(a)ないし図9(c)において、制御部6は、選択動作開始時刻tsを起点として、選択動作終了時刻tpまで表示情報の表示位置を固定することも可能である。当該動作においては、ユーザが動作の狙いを定めた時刻の表示位置そのものが表示し続けられる為、ユーザの表示情報に対する押下精度を向上させることが可能になる。実施例5による画像処理装置1においては、ユーザに対する利用性を向上させることが可能となる。また、実施例5による画像処理装置1によれば、ユーザの表示情報に対する押下精度を向上させることが可能になる。
(Example 5)
Since the functional block diagram of the
上述した各実施例において、画像処理装置1は、ユーザの音声信号を取得するマイクを更に備えることも可能である。なお、マイクは、例えば、算出部5に接続されれば良い。また、音声信号は、例えば、音声認識が可能な特定の言葉を含む信号を用いることが出来る。算出部5は、音声信号を上述の開始情報として算出しても良い。
In each embodiment described above, the
また、画像処理装置1は、ユーザの動作信号を取得する加速度センサ、角速度センサ、または接触スイッチを更に備えることが可能である。加速度センサ、角速度センサ、または接触スイッチは、例えば、算出部5に接続されれば良い。なお、動作信号は所定の閾値で設定される動作量、または、スイッチによる電気的な接触信号を用いることが出来る。算出部5は、動作信号を上述の開始情報として算出しても良い。
The
また、画像処理装置1は、選択動作を含む選択動作画像を撮像するカメラを更に備えることが可能である。カメラは、例えば、算出部5に接続されれば良い。また、カメラは、例えば、ユーザの手指を撮像する。算出部5は、選択動作画像をテンプレートマッチング等の処理結果に基づいて開始情報を算出することが出来る。
The
また、画像処理装置1の制御部6は、開始情報に基づいて、表示情報の表示領域を単純に拡大して表示させても良い。当該処理によっても、ユーザによる押下精度を向上させることが可能となる。更に、制御部6は、認識部3がマーカを認識した場合に、表示情報の表示領域を拡大して表示させても良い。 具体的には、画像処理装置1の制御部6は、表示部7が表示情報を表示する前に、操作領域を、認識部3が認識する表示情報の表示領域よりも広く制御しても良い。例えば、制御部6は、認識部3がマーカを認識した時点で、当該マーカに対応付けられている表示情報の表示領域を単純に拡大して表示させても良い。当該処理によっても、ユーザによる押下精度を向上させることが可能となる。また、表示情報の一部の領域をユーザに押下させる様な表示形態である場合は、当該一部の領域のみを拡大して表示しても良い。当該処理によっても、ユーザによる押下精度を向上させることが可能となる。また、表示情報は、表示情報に関連付けられる付帯情報を含み、制御部6は、検知部4が表示情報への選択を検知した場合に、付帯情報を表示させることが可能である。
Further, the
(実施例6)
図10は、一つの実施形態による画像処理装置1として機能するコンピュータのハードウェア構成図である。図10に示す通り、画像処理装置1は、コンピュータ100、およびコンピュータ100に接続する入出力装置(周辺機器)を含んで構成される。
(Example 6)
FIG. 10 is a hardware configuration diagram of a computer that functions as the
コンピュータ100は、プロセッサ101によって装置全体が制御されている。プロセッサ101には、バス109を介してRAM(Random Access Memory)102と複数の周辺機器が接続されている。なお、プロセッサ101は、マルチプロセッサであってもよい。また、プロセッサ101は、例えば、CPU、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、またはPLD(Programmable Logic Device)である。更に、プロセッサ101は、CPU、MPU、DSP、ASIC、PLDのうちの2以上の要素の組み合わせであってもよい。
The computer 100 is entirely controlled by a
RAM102は、コンピュータ100の主記憶装置として使用される。RAM102には、プロセッサ101に実行させるOS(Operating System)のプログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、RAM102には、プロセッサ101による処理に必要な各種データが格納される。
The RAM 102 is used as a main storage device of the computer 100. The RAM 102 temporarily stores at least a part of an OS (Operating System) program and application programs to be executed by the
バス109に接続されている周辺機器としては、HDD(Hard Disk Drive)103、グラフィック処理装置104、入力インタフェース105、光学ドライブ装置106、機器接続インタフェース107およびネットワークインタフェース108がある。
Peripheral devices connected to the
HDD103は、内蔵したディスクに対して、磁気的にデータの書き込みおよび読み出しを行う。HDD103は、例えば、コンピュータ100の補助記憶装置として使用される。HDD103には、OSのプログラム、アプリケーションプログラム、および各種データが格納される。なお、補助記憶装置としては、フラッシュメモリなどの半導体記憶装置を使用することも出来る。 The HDD 103 magnetically writes and reads data to and from the built-in disk. The HDD 103 is used as an auxiliary storage device of the computer 100, for example. The HDD 103 stores an OS program, application programs, and various data. Note that a semiconductor storage device such as a flash memory can be used as the auxiliary storage device.
グラフィック処理装置104には、モニタ110が接続されている。グラフィック処理装置104は、プロセッサ101からの命令にしたがって、各種画像をモニタ110の画面に表示させる。モニタ110としては、CRT(Cathode Ray Tube)を用いた表示装置や液晶表示装置などがある。
A monitor 110 is connected to the graphic processing device 104. The graphic processing device 104 displays various images on the screen of the monitor 110 in accordance with instructions from the
入力インタフェース105には、キーボード111とマウス112とが接続されている。入力インタフェース105は、キーボード111やマウス112から送られてくる信号をプロセッサ101に送信する。なお、マウス112は、ポインティングデバイスの一例であり、他のポインティングデバイスを使用することもできる。他のポインティングデバイスとしては、タッチパネル、タブレット、タッチパッド、トラックボールなどがある。
A keyboard 111 and a mouse 112 are connected to the input interface 105. The input interface 105 transmits signals sent from the keyboard 111 and the mouse 112 to the
光学ドライブ装置106は、レーザ光などを利用して、光ディスク113に記録されたデータの読み取りを行う。光ディスク113は、光の反射によって読み取り可能なようにデータが記録された可搬型の記録媒体である。光ディスク113には、DVD(Digital Versatile Disc)、DVD−RAM、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)などがある。可搬型の記録媒体となる光ディスク113に格納されたプログラムは光学ドライブ装置106を介して画像処理装置1にインストールされる。インストールされた所定のプログラムは、画像処理装置1より実行可能となる。
The optical drive device 106 reads data recorded on the optical disk 113 using laser light or the like. The optical disk 113 is a portable recording medium on which data is recorded so that it can be read by reflection of light. Examples of the optical disc 113 include a DVD (Digital Versatile Disc), a DVD-RAM, a CD-ROM (Compact Disc Read Only Memory), and a CD-R (Recordable) / RW (ReWriteable). A program stored in the optical disk 113 serving as a portable recording medium is installed in the
機器接続インタフェース107は、コンピュータ100に周辺機器を接続するための通信インタフェースである。例えば、機器接続インタフェース107には、メモリ装置114やメモリリーダライタ115を接続することが出来る。メモリ装置114は、機器接続インタフェース107との通信機能を搭載した記録媒体である。メモリリーダライタ115は、メモリカード116へのデータの書き込み、またはメモリカード116からのデータの読み出しを行う装置である。メモリカード116は、カード型の記録媒体である。
The device connection interface 107 is a communication interface for connecting peripheral devices to the computer 100. For example, a memory device 114 or a memory reader /
ネットワークインタフェース108は、ネットワーク11に接続されている。ネットワークインタフェース108は、ネットワーク11を介して、他のコンピュータまたは通信機器との間でデータの送受信を行う。 The network interface 108 is connected to the network 11. The network interface 108 transmits and receives data to and from other computers or communication devices via the network 11.
コンピュータ100は、たとえば、コンピュータ読み取り可能な記録媒体に記録されたプログラムを実行することにより、上述した画像処理機能を実現する。コンピュータ100に実行させる処理内容を記述したプログラムは、様々な記録媒体に記録しておくことが出来る。上記プログラムは、1つのまたは複数の機能モジュールから構成することが出来る。例えば、図1または図8に記載の取得部2、認識部3、検知部4、算出部5、制御部6、推定部8の処理を実現させた機能モジュールからプログラムを構成することが出来る。なお、コンピュータ100に実行させるプログラムをHDD103に格納しておくことができる。プロセッサ101は、HDD103内のプログラムの少なくとも一部をRAM102にロードし、プログラムを実行する。また、コンピュータ100に実行させるプログラムを、光ディスク113、メモリ装置114、メモリカード116などの可搬型記録媒体に記録しておくことも出来る。可搬型記録媒体に格納されたプログラムは、例えば、プロセッサ101からの制御により、HDD103にインストールされた後、実行可能となる。またプロセッサ101が、可搬型記録媒体から直接プログラムを読み出して実行することも出来る。
The computer 100 implements the above-described image processing function by executing a program recorded on a computer-readable recording medium, for example. A program describing the processing contents to be executed by the computer 100 can be recorded in various recording media. The program can be composed of one or a plurality of functional modules. For example, a program can be comprised from the functional module which implement | achieved the process of the
また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することが出来る。 In addition, each component of each illustrated apparatus does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. The various processes described in the above embodiments can be realized by executing a prepared program on a computer such as a personal computer or a workstation.
以上、説明した実施形態に関し、更に以下の付記を開示する。
(付記1)
表示情報を表示する表示部と、
前記表示情報と前記表示情報を表示する基準位置を規定するマーカを含む画像を取得する取得部と、
前記マーカに規定される前記表示情報と前記基準位置を認識する認識部と、
前記表示情報に対するユーザの操作領域を、前記表示情報の表示領域よりも広く制御する制御部と、
を備えることを特徴とする画像処理装置。
(付記2)
前記表示情報に対するユーザの選択動作の開始情報を算出する算出部を更に有し、
前記制御部は、前記開始情報に基づいて前記表示情報の操作領域を制御することを特徴とする付記1記載の画像処理装置。
(付記3)
前記制御部は、前記開始情報と前記画像における前記基準位置の移動量に基づいて前記操作領域を制御することを特徴とする付記2記載の画像処理装置。
(付記4)
前記開始情報は、前記移動量に基づいた前記選択動作の開始時刻を含み、
前記算出部は、前記開始時刻から前記選択動作の終了時刻までの選択動作時間を更に算出し、
前記制御部は、前記選択動作時間における前記移動量に基づいて前記操作領域を制御することを特徴とする付記3記載の画像処理装置。
(付記5)
前記制御部は、前記操作領域を、前記開始時刻における前記表示領域よりも広く制御することを特徴とする付記4記載の画像処理装置。
(付記6)
前記表示部に対する接触を検知する検知部を更に備え、
前記検知部は、前記接触を検知した検知位置と前記操作領域に基づいて、前記ユーザの前記表示情報への選択を検知することを特徴とする付記1ないし付記5の何れか一つに記載の画像処理装置。
(付記7)
前記開始時刻は、前記表示情報の第1表示位置が第1閾値範囲未満かつ第2閾値時間以上継続する閾値を満たした後に、前記第1閾値範囲以上の閾値を満たした時刻であり、
前記終了時刻は、前記検知部が前記接触を検知した時刻であることを特徴とする付記4ないし付記6の何れか一つに記載の画像処理装置。
(付記8)
前記制御部は、前記操作領域の制御として、前記選択動作時間における前記基準位置の最小座標と最大座標で規定される移動範囲に前記表示画像を重畳して表示させることを特徴とする付記4ないし付記7の何れか一つに記載の画像処理装置。
(付記9)
前記制御部は、前記操作領域の制御として、前記選択動作時間における前記基準位置の最小座標と最大座標で規定される移動範囲を前記操作領域と見做して制御することを特徴とする付記4ないし付記7の何れか一つに記載の画像処理装置。
(付記10)
前記制御部は、前記検知位置が前記表示領域以外の場合において、前記操作領域の制御として、前記終了時刻の次フレームにおける前記表示情報の第2表示位置を、前記開始時刻の前記表示画像の第1表示位置に切り替えて、前記表示情報を表示させることを特徴とする付記7ないし付記8の何れか一つに記載の画像処理装置。
(付記11)
前記認識部がマーカを認識しない場合に、前記選択動作時間における前記移動量を所定の近似処理または所定のフィルタ処理を用いて推定する推定部と、を更に備えることを特徴とする付記4ないし付記9の何れか一つに記載の画像処理装置。
(付記12)
前記操作領域は、前記表示情報の表示領域であることを特徴とする付記1ないし付記11の何れか一つに記載の画像処理装置。
(付記13)
前記ユーザの音声信号を取得するマイクを更に備え、
前記算出部は、前記音声信号を前記開始情報として算出することを特徴とする付記2記載の画像処理装置。
(付記14)
前記ユーザの動作信号を取得する加速度センサ、角速度センサ、または接触スイッチを更に備え、
前記算出部は、前記動作信号を前記開始情報として算出することを特徴とする付記2記載の画像処理装置。
(付記15)
前記選択動作を含む選択動作画像を撮像するカメラを更に備え、
前記算出部は、前記選択動作画像の処理結果に基づいて前記開始情報を算出することを特徴とする付記4記載の画像処理装置。
(付記16)
前記制御部は、前記開始情報に基づいて、前記表示情報の表示領域を拡大して表示させることを特徴とする付記2記載の画像処理装置。
(付記17)
前記制御部は、前記操作領域を、前記開始時刻における前記表示領域に固定する制御を行うことを特徴とする付記4記載の画像処理装置。
(付記18)
前記制御部は、前記終了時刻の検知位置が、前記開始時刻の前記基準位置と前記終了時刻の前記基準位置の何れが近い位置かを判断し、当該近い位置の基準位置に基づいて前記表示情報を表示することを特徴とする付記6に記載の画像処理装置。
(付記19)
前記制御部は、前記検知位置が前記表示領域以外かつ前記操作領域内の場合において、前記終了時刻の次フレームにおける前記表示情報の第2表示位置を、前記終了時刻の前記表示画像の表示位置に切り替えて、前記表示情報を表示させることを特徴とする付記6に記載の画像処理装置。
(付記20)
前記表示情報は、前記表示情報に関連付けられる付帯情報を含み、
前記制御部は、前記検知部が前記表示情報への選択を検知した場合に、前記付帯情報を表示させることを特徴とする付記6記載の画像処理装置。
(付記21)
表示情報を表示し、
前記表示情報と前記表示情報を表示する基準位置を規定するマーカを含む画像を取得し、
前記マーカに規定される前記表示情報と前記基準位置を認識し、
前記表示情報に対するユーザの操作領域を、前記表示情報の表示領域よりも広く制御すること、
を含むことを特徴とする画像処理方法。
(付記22)
コンピュータに、
表示情報を表示し、
前記表示情報と前記表示情報を表示する基準位置を規定するマーカを含む画像を取得し、
前記マーカに規定される前記表示情報と前記基準位置を認識し、
前記表示情報に対するユーザの操作領域を、前記表示情報の表示領域よりも広く制御すること、
を実行させることを特徴とする画像処理プログラム。
The following supplementary notes are further disclosed with respect to the embodiment described above.
(Appendix 1)
A display unit for displaying display information;
An acquisition unit that acquires an image including a marker that defines a reference position for displaying the display information and the display information;
A recognition unit for recognizing the display information and the reference position defined by the marker;
A control unit for controlling a user operation area for the display information wider than a display area of the display information;
An image processing apparatus comprising:
(Appendix 2)
A calculation unit that calculates start information of a user's selection operation for the display information;
The image processing apparatus according to
(Appendix 3)
The image processing apparatus according to
(Appendix 4)
The start information includes a start time of the selection operation based on the movement amount,
The calculation unit further calculates a selection operation time from the start time to an end time of the selection operation,
The image processing apparatus according to
(Appendix 5)
The image processing apparatus according to
(Appendix 6)
A detection unit for detecting contact with the display unit;
The said detection part detects the selection to the said display information of the said user based on the detection position and the said operation area | region which detected the said contact, The
(Appendix 7)
The start time is a time when the first display position of the display information satisfies a threshold that is less than a first threshold range and continues for a second threshold time or more and then satisfies a threshold that is equal to or greater than the first threshold range.
The image processing apparatus according to any one of
(Appendix 8)
The control unit causes the display image to be superimposed and displayed on a moving range defined by the minimum coordinate and the maximum coordinate of the reference position in the selection operation time as control of the operation area. The image processing device according to any one of
(Appendix 9)
The control unit controls the operation area by considering a movement range defined by a minimum coordinate and a maximum coordinate of the reference position in the selection operation time as the operation area. Or the image processing device according to any one of
(Appendix 10)
In the case where the detection position is other than the display area, the control unit controls the operation area as the second display position of the display information in the next frame of the end time, the second display position of the display image at the start time. The image processing apparatus according to any one of
(Appendix 11)
And an estimation unit that estimates the amount of movement during the selection operation time using a predetermined approximation process or a predetermined filter process when the recognition unit does not recognize a marker. The image processing apparatus according to any one of 9.
(Appendix 12)
The image processing apparatus according to any one of
(Appendix 13)
A microphone for acquiring the user's voice signal;
The image processing apparatus according to
(Appendix 14)
An acceleration sensor, an angular velocity sensor, or a contact switch for acquiring the user's operation signal;
The image processing apparatus according to
(Appendix 15)
A camera that captures a selection operation image including the selection operation;
The image processing apparatus according to
(Appendix 16)
The image processing apparatus according to
(Appendix 17)
The image processing apparatus according to
(Appendix 18)
The control unit determines whether the detection position of the end time is closer to the reference position of the start time or the reference position of the end time, and the display information is based on the reference position of the close position The image processing apparatus according to
(Appendix 19)
In the case where the detection position is outside the display area and in the operation area, the control unit changes the second display position of the display information in the next frame of the end time to the display position of the display image at the end time. The image processing apparatus according to
(Appendix 20)
The display information includes incidental information associated with the display information,
The image processing apparatus according to
(Appendix 21)
Display information,
Obtaining an image including a marker that defines a reference position for displaying the display information and the display information;
Recognizing the display information defined by the marker and the reference position;
Controlling the user's operation area for the display information wider than the display area of the display information;
An image processing method comprising:
(Appendix 22)
On the computer,
Display information,
Obtaining an image including a marker that defines a reference position for displaying the display information and the display information;
Recognizing the display information defined by the marker and the reference position;
Controlling the user's operation area for the display information wider than the display area of the display information;
An image processing program for executing
1 画像処理装置
2 取得部
3 認識部
4 検知部
5 算出部
6 制御部
7 表示部
8 推定部
DESCRIPTION OF
Claims (14)
前記表示情報と前記表示情報を表示する基準位置を規定するマーカとを含む画像を取得する取得部と、
前記マーカに規定される前記表示情報と前記基準位置を認識する認識部と、
前記基準位置の移動量に基づいて、前記表示情報に対するユーザの選択動作の開始情報を算出する算出部と、
前記開始情報に基づいて、前記表示情報に対するユーザの操作領域を、前記表示情報の表示領域よりも広く制御する制御部と、
を備えることを特徴とする画像処理装置。 A display unit for displaying display information;
An acquisition unit that acquires an image including the display information and a marker that defines a reference position for displaying the display information;
A recognition unit for recognizing the display information and the reference position defined by the marker;
A calculation unit that calculates start information of a user's selection operation with respect to the display information based on a movement amount of the reference position ;
Based on the start information, a control unit that controls a user operation area for the display information wider than the display area of the display information;
An image processing apparatus comprising:
前記制御部は、前記検知部が前記ユーザの前記表示情報に対する選択動作を検知した後に前記表示情報に対する前記ユーザの操作領域を制御することを特徴とする請求項1記載の画像処理装置。 A detection unit for detecting a selection operation on the display information of the user by detecting contact with the display unit;
The image processing apparatus according to claim 1, wherein the control unit controls an operation area of the user for the display information after the detection unit detects a selection operation for the display information of the user.
前記算出部は、前記開始時刻から前記選択動作の終了時刻までの選択動作時間を更に算出し、
前記制御部は、前記選択動作時間における前記移動量に基づいて前記操作領域を制御することを特徴とする請求項3記載の画像処理装置。 The start information includes a start time of the selection operation based on the movement amount,
The calculation unit further calculates a selection operation time from the start time to an end time of the selection operation,
The image processing apparatus according to claim 3, wherein the control unit controls the operation area based on the movement amount in the selection operation time.
前記終了時刻は、前記検知部が前記接触を検知した時刻であることを特徴とする請求項6記載の画像処理装置。 The start time is a time when the amount of change in the first display position of the display information is less than the first threshold range, and after the second threshold time or more has elapsed, becomes the first threshold range or more.
The image processing apparatus according to claim 6, wherein the end time is a time when the detection unit detects the contact.
前記表示情報と前記表示情報を表示する基準位置を規定するマーカとを含む画像を取得し、
前記マーカに規定される前記表示情報と前記基準位置を認識し、
前記基準位置の移動量に基づいて、前記表示情報に対するユーザの選択動作の開始情報を算出し、
前記開始情報に基づいて、前記表示情報に対するユーザの操作領域を、前記表示情報の表示領域よりも広く制御すること、
を含むことを特徴とする画像処理方法。 Display information,
Obtaining an image including the display information and a marker defining a reference position for displaying the display information;
Recognizing the display information defined by the marker and the reference position;
Based on the amount of movement of the reference position, calculating start information of the user's selection operation for the display information,
Based on the start information, controlling a user operation area for the display information wider than the display area of the display information,
An image processing method comprising:
表示情報を表示し、
前記表示情報と前記表示情報を表示する基準位置を規定するマーカとを含む画像を取得し、
前記マーカに規定される前記表示情報と前記基準位置を認識し、
前記基準位置の移動量に基づいて、前記表示情報に対するユーザの選択動作の開始情報を算出し、
前記開始情報に基づいて、前記表示情報に対するユーザの操作領域を、前記表示情報の表示領域よりも広く制御すること、
を実行させることを特徴とする画像処理プログラム。 On the computer,
Display information,
Obtaining an image including the display information and a marker defining a reference position for displaying the display information;
Recognizing the display information defined by the marker and the reference position;
Based on the amount of movement of the reference position, calculating start information of the user's selection operation for the display information,
Based on the start information, controlling a user operation area for the display information wider than the display area of the display information,
An image processing program for executing
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013153074A JP6244712B2 (en) | 2013-07-23 | 2013-07-23 | Image processing apparatus, image processing method, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013153074A JP6244712B2 (en) | 2013-07-23 | 2013-07-23 | Image processing apparatus, image processing method, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015022730A JP2015022730A (en) | 2015-02-02 |
JP6244712B2 true JP6244712B2 (en) | 2017-12-13 |
Family
ID=52487071
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013153074A Expired - Fee Related JP6244712B2 (en) | 2013-07-23 | 2013-07-23 | Image processing apparatus, image processing method, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6244712B2 (en) |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10269022A (en) * | 1997-03-25 | 1998-10-09 | Hitachi Ltd | Portable information processor with communication function |
JP4479962B2 (en) * | 2005-02-25 | 2010-06-09 | ソニー エリクソン モバイル コミュニケーションズ, エービー | Input processing program, portable terminal device, and input processing method |
JP4898586B2 (en) * | 2007-07-25 | 2012-03-14 | 京セラミタ株式会社 | Operating device and image forming apparatus |
JP2009048245A (en) * | 2007-08-14 | 2009-03-05 | Konami Digital Entertainment:Kk | Input reception device, area control method and program |
JP4777449B2 (en) * | 2009-06-01 | 2011-09-21 | 株式会社バンダイナムコゲームス | Program, information storage medium and electronic device |
JP2011175456A (en) * | 2010-02-24 | 2011-09-08 | Kyocera Mita Corp | Operation apparatus and image forming apparatus |
JP5257437B2 (en) * | 2010-10-20 | 2013-08-07 | コニカミノルタビジネステクノロジーズ株式会社 | Method for operating portable terminal and processing device |
JP5220157B2 (en) * | 2011-04-01 | 2013-06-26 | キヤノン株式会社 | Information processing apparatus, control method therefor, program, and storage medium |
JP2012226691A (en) * | 2011-04-22 | 2012-11-15 | Ntt Docomo Inc | Display control device and display control method |
JP5686690B2 (en) * | 2011-07-22 | 2015-03-18 | 京セラドキュメントソリューションズ株式会社 | Image forming system, portable terminal device, and program |
JP5825921B2 (en) * | 2011-08-10 | 2015-12-02 | キヤノン株式会社 | Display device and control method thereof |
JP2013092952A (en) * | 2011-10-27 | 2013-05-16 | Sharp Corp | Display device and display method for enhancing visibility |
-
2013
- 2013-07-23 JP JP2013153074A patent/JP6244712B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2015022730A (en) | 2015-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10456918B2 (en) | Information processing apparatus, information processing method, and program | |
US9916043B2 (en) | Information processing apparatus for recognizing user operation based on an image | |
US20140247964A1 (en) | Information processing device, information processing method, and recording medium | |
KR101631011B1 (en) | Gesture recognition apparatus and control method of gesture recognition apparatus | |
JP6256475B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US20160054859A1 (en) | User interface apparatus and control method | |
US10249058B2 (en) | Three-dimensional information restoration device, three-dimensional information restoration system, and three-dimensional information restoration method | |
US9348465B2 (en) | Input method, input device, and storage medium | |
JP6344530B2 (en) | Input device, input method, and program | |
JP6287382B2 (en) | Gesture recognition device and method for controlling gesture recognition device | |
US20150227789A1 (en) | Information processing apparatus, information processing method, and program | |
US10185399B2 (en) | Image processing apparatus, non-transitory computer-readable recording medium, and image processing method | |
US20190180503A1 (en) | Estimation apparatus, estimation method, and non-transitory computer-readable storage medium for storing estimation program | |
JP2017084307A (en) | Information processing device, control method therefor, program, and recording medium | |
JP6244712B2 (en) | Image processing apparatus, image processing method, and image processing program | |
KR101593950B1 (en) | Apparatus for hand gesture based interface and pointing method using the same | |
JP6337530B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US10416814B2 (en) | Information processing apparatus to display an image on a flat surface, method of controlling the same, and storage medium | |
JP6852612B2 (en) | Display program, information processing device, and display method | |
US11176360B2 (en) | Work skill supporting device and work skill supporting system | |
KR20190049349A (en) | Method for recognizing user's touch on projection image and apparatus for performing the method | |
JP2019186698A (en) | Image processing apparatus, processing method, and program | |
JP6342832B2 (en) | Input device | |
JP6716897B2 (en) | Operation detection method, operation detection device, and operation detection program | |
JP2018200527A (en) | Information processing device, method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20160401 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160405 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170606 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170720 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171017 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171030 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6244712 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |