JP6244712B2 - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP6244712B2
JP6244712B2 JP2013153074A JP2013153074A JP6244712B2 JP 6244712 B2 JP6244712 B2 JP 6244712B2 JP 2013153074 A JP2013153074 A JP 2013153074A JP 2013153074 A JP2013153074 A JP 2013153074A JP 6244712 B2 JP6244712 B2 JP 6244712B2
Authority
JP
Japan
Prior art keywords
display information
display
image processing
time
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013153074A
Other languages
Japanese (ja)
Other versions
JP2015022730A (en
Inventor
伸之 原
伸之 原
山口 伸康
伸康 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013153074A priority Critical patent/JP6244712B2/en
Publication of JP2015022730A publication Critical patent/JP2015022730A/en
Application granted granted Critical
Publication of JP6244712B2 publication Critical patent/JP6244712B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、例えば、画像上の任意の位置に表示情報を表示する画像処理装置、画像処理方法および画像処理プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program that display display information at an arbitrary position on an image, for example.

近年、情報通信技術の発展に伴い、現実空間(外界)を撮像した画像にコンピュータを用いて視覚的な表示情報を付加して表示する、拡張現実感(Augmented Reality:AR)による画像処理技術の開発が行われている。拡張現実に関する技術におけるインタフェースは、任意の場所に固定されたカメラ、または自由に移動が可能なカメラを用いて、ユーザの眼前の物体に付与されるマーカ(2次元コードと称しても良い)を撮影することにより、マーカを含む画像を取得した後、その物体に関連する付加的な情報であり、かつマーカに対応付けられる表示情報をディスプレイ上に表示する機能を具備している。   In recent years, with the development of information communication technology, an image processing technology based on augmented reality (AR), in which visual display information is added to an image obtained by imaging a real space (external world) using a computer and displayed. Development is underway. The interface in the augmented reality technology uses a camera (may be referred to as a two-dimensional code) attached to an object in front of the user's eyes using a camera fixed in an arbitrary place or a camera that can move freely. After acquiring an image including a marker by photographing, it has a function of displaying, on a display, additional information related to the object and display information associated with the marker.

拡張現実感による画像処理方法は、具体的には、マーカに対応する表示情報を、撮像したマーカの4隅から決定される基準位置と当該基準位置に基づく物理座標系に基づいて、カメラのディスプレイや、カメラが搭載されるPCまたは、携帯端末のディスプレイに重畳表示することを特徴としている。当該画像処理方法により、表示情報と物体の表示位置を関連付けることが可能となる。   Specifically, the image processing method based on augmented reality is based on a reference position determined from the four corners of the captured marker and a physical coordinate system based on the reference position. In addition, it is characterized by being superimposed and displayed on a PC on which a camera is mounted or a display of a portable terminal. With this image processing method, it is possible to associate display information with the display position of an object.

拡張現実技術を利用し、電子機器等の障害発生時における障害箇所の特定、及び、ユーザの障害修復作業等の現場作業を支援する機能が実現されている。例えば、作業対象物となる物体または、当該物体付近に特定の形状特徴を有するマーカを付与し、マーカに含まれる各種情報に基づいて、カメラが撮影する画像上にリアルタイムで表示情報を重畳表示する。例えば、コピー機の紙詰まり障害の修復作業支援において、紙詰まり発生位置に対応付けられたコピー機の内部映像及び操作手順を、作業対象の物体となるコピー機に重畳表示する技術が提案されている。   Using augmented reality technology, a function for identifying a fault location when a fault occurs in an electronic device or the like and supporting a field work such as a fault repair work by a user is realized. For example, an object to be a work target or a marker having a specific shape feature is provided near the object, and display information is superimposed and displayed in real time on an image captured by the camera based on various information included in the marker. . For example, a technology for superimposing and displaying an internal image and an operation procedure of a copier associated with a paper jam occurrence position on a copier serving as an object to be worked in a repair work support for a paper jam failure of a copier has been proposed. Yes.

ここで、従来の拡張現実感の画像処理技術を用いない従来の手法による現場作業においては、以下の様な問題が存在し得ることが想定されている。
(1−1)作業対象箇所や手順を記載した大量の紙媒体の作業手順書を作業現場に持って行き、作業者が必要な個所を自分で選択して参照すると共に、作業手順書の記載と現場の状況を見比べながら作業を実施する。この為、必要箇所の選択に時間がかかる、間違った箇所を選択する・見比べる時に見間違いが発生するなどの作業ミスが発生する。
(1−2)作業結果は、紙媒体のチェックシートへ記入して記録する。記録内容を電子化する作業負荷は大きいことから、紙媒体のチェックシートのまま作業結果が保存されることになる為、作業結果の整理や解析が難しくなる。
Here, it is assumed that the following problems may exist in the field work by the conventional method which does not use the conventional augmented reality image processing technique.
(1-1) Bring a large amount of paper-based work procedure manuals describing the work location and procedures to the work site, and select and refer to the necessary locations by the worker himself, and describe the work procedure manuals. We will work while comparing the situation at the site. For this reason, it takes time to select a necessary part, and an operation error such as a misidentification occurs when a wrong part is selected or compared.
(1-2) Record the work results on a check sheet on a paper medium. Since the work load for digitizing the recorded contents is large, the work results are stored as a check sheet of a paper medium, so that it is difficult to organize and analyze the work results.

上述の問題点に関して、拡張現実感を用いた画像処理技術を上述の現場作業に対して適用することで、以下の改善効果が期待される。
(2−1)電子化したマニュアルを格納した画像処理装置のカメラを用いて作業対象の物体を撮影するだけで、その作業対象の物体に関する作業箇所や手順を、ディスプレイの画像(カメラプレビュー画像と称しても良い)への表示情報(オブジェクトアイコンと称しても良い)の重畳表示という形でリアルタイムに表示して提示する。これにより、ユーザの作業時間の短縮と作業ミスの低減を図ることが可能となる。
(2−2)作業結果の記録作業は、作業対象の物体に関連付けて表示されている表示情報を、例えば、手指で押下して選択することで、作業結果の入力用画面に切り替えて実施する。作業結果の記録完了時において、既に作業結果は電子化されている為、作業結果のデータの整理や改正が容易になる。
この様に、拡張現実感を用いた画像処理技術においては、作業現場における様々な作業効率化が期待されている。
Regarding the above-mentioned problems, the following improvement effect is expected by applying the image processing technology using augmented reality to the above-mentioned field work.
(2-1) Just by photographing a work target object using a camera of an image processing apparatus that stores an electronic manual, the work location and procedure related to the work target object are displayed on a display image (camera preview image and Display information (may also be referred to as object icons) in real time in the form of superimposed display. As a result, it is possible to shorten the user's work time and reduce work mistakes.
(2-2) The work result recording work is performed by switching to a work result input screen by, for example, pressing and selecting display information displayed in association with an object to be worked with a finger. . When the work result recording is completed, the work result is already digitized, so that the work result data can be easily organized and revised.
As described above, in the image processing technology using augmented reality, various work efficiencies at the work site are expected.

「拡張現実感を利用した原子力発電プラントの解体支援手法の提案と評価」、日本バーチャルリアリティ学会論文誌、Vol.13、No.2、pp.289−300、2008   "Proposal and Evaluation of Nuclear Power Plant Dismantling Support Method Using Augmented Reality", Transactions of the Virtual Reality Society of Japan, Vol. 2, pp. 289-300, 2008

現状のマーカの認識に基づく拡張現実感を用いる画像処理技術における表示情報の表示動作は、例えば、以下に示す処理に基づいて動作する。
(3−1)画像に含まれるマーカの認識に成功している間は、当該画像内のマーカの認識位置や姿勢を基準とし、マーカの基準位置に対する相対位置に基づいて表示情報を表示する。
(3−2)ユーザの動作に応じて発生するマーカに対する撮影位置や方向の変化に追従して、表示情報の表示位置がリアルタイムで変化する。
(3−3)撮影位置の移動や姿勢の変化により、マーカの撮影範囲外に移動した場合や、撮影時のブレの発生等によってマーカの認識に失敗した場合には、直ちに表示情報の表示を停止する。
(3−4)表示情報が表示されている場合において、ユーザが手指による押下で表示情報を選択操作することで、その選択情報に割り当てられた機能を実行する。
The display information display operation in the image processing technology using augmented reality based on the recognition of the current marker operates based on the following processing, for example.
(3-1) While the recognition of the marker included in the image is successful, the display information is displayed based on the relative position of the marker with respect to the reference position with reference to the recognition position and orientation of the marker in the image.
(3-2) The display position of the display information changes in real time following changes in the shooting position and direction with respect to the marker generated according to the user's operation.
(3-3) Display information is immediately displayed when the marker moves out of the shooting range due to movement of the shooting position or changes in posture, or when marker recognition fails due to the occurrence of blurring during shooting, etc. Stop.
(3-4) When display information is displayed, the user performs a function assigned to the selection information by selecting the display information by pressing with a finger.

拡張現実感技術は、上述の(3−1)〜(3−4)の項目において、(3−2)の項目が顕著な技術的な特徴である。具体的には、撮像中の撮影範囲に合わせて表示情報の表示位置が逐次リアルタイムで変化する為、ボタン操作等の特別な動作を行うことなく、画像処理装置の位置を動かすことだけで以下の効果を得ることが出来る。
(4−1)画像処理装置を移動させながらディスプレイを視認するだけで撮影範囲における表示情報の有無を確認出来る(表示情報の一覧性の確保)。
(4−2)作業対象の物体や表示情報の表示位置が作業時に適切な場所や大きさになる様に、撮影位置の調整が容易に出来る。また、作業対象に対する物体の鏡面反射や、ディスプレイへの映り込み等で表示情報を視認し難い場合に、視認し易い位置に表示情報が表示される様にする調整が容易に出来る(表示情報の表示範囲の制御性)。
The augmented reality technology is a technical feature in which the item (3-2) is prominent among the items (3-1) to (3-4) described above. Specifically, since the display position of the display information sequentially changes in real time in accordance with the shooting range during imaging, the following processing can be performed only by moving the position of the image processing apparatus without performing a special operation such as button operation. An effect can be obtained.
(4-1) The presence / absence of display information in the shooting range can be confirmed simply by visually recognizing the display while moving the image processing apparatus (ensuring listability of display information).
(4-2) The photographing position can be easily adjusted so that the display position of the object to be worked and the display information becomes an appropriate place and size at the time of work. In addition, when it is difficult to visually recognize display information due to mirror reflection of an object with respect to a work target or reflection on a display, it is possible to easily adjust the display information to be displayed at a position where it can be easily viewed (display information Display range controllability).

上述の様な表示情報の一覧性や、表示情報の表示範囲の制御性を確保していることからも理解出来る通り、拡張現実感を用いる画像処理においては、ユーザに対する高い利用性(ユーザビリティ)が求められている状態にある。利便性の確保においては、ユーザの表示情報に対する押下精度を確保することも重要となる。これは、後述する通り、ユーザがディスプレイ上の表示情報に対して、一方の手指の接触による押下選択動作を行う為に、手指を表示情報に伸ばしている間に、画像処理装置を保持する他方の手指の位置が安定しなくなり、カメラを搭載する画像処理装置の位置や姿勢が急激に動いてしまうという現象が発生することが、本発明者らの鋭意検証によって明らかになった為である。本発明は、ユーザに対する利用性が向上する画像処理装置を提供することを目的とする。   As can be understood from the fact that the display information listability and controllability of the display range of the display information are secured as described above, in image processing using augmented reality, high usability (usability) for the user is achieved. It is in the required state. In ensuring convenience, it is also important to ensure the accuracy of pressing the user's display information. This is because, as will be described later, the user holds the image processing apparatus while extending the finger to the display information so that the user can perform a pressing selection operation by touching one of the fingers with respect to the display information on the display. This is because it has been clarified by the present inventors that the position of the user's finger becomes unstable and the position and posture of the image processing apparatus on which the camera is mounted suddenly moves. An object of the present invention is to provide an image processing apparatus that improves usability for a user.

本発明が開示する画像処理装置は、表示情報を表示する表示部と、表示情報と表示情報を表示する基準位置を規定するマーカを含む画像を取得する取得部を備える。更に、当該画像処理装置は、マーカに規定される表示情報と基準位置を認識する認識部と、表示情報に対するユーザの操作領域を、表示情報の表示領域よりも広く制御する制御部を備える。   An image processing device disclosed in the present invention includes a display unit that displays display information, and an acquisition unit that acquires an image including a marker that defines the display information and a reference position for displaying the display information. Further, the image processing apparatus includes a recognition unit that recognizes display information and a reference position defined by the marker, and a control unit that controls a user operation area for the display information wider than the display area of the display information.

なお、本発明の目的及び利点は、例えば、請求項におけるエレメント及び組み合わせにより実現され、かつ達成されるものである。また、上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を制限するものではないことを理解されたい。   The objects and advantages of the invention may be realized and attained by means of the elements and combinations in the claims, for example. It should also be understood that both the above general description and the following detailed description are exemplary and explanatory and are not restrictive of the invention as claimed.

本明細書に開示される画像処理装置では、ユーザの表示情報に対する押下精度を向上させることが可能となる。   In the image processing apparatus disclosed in this specification, it is possible to improve the pressing accuracy of the display information of the user.

第1の実施形態による画像処理装置1の機能ブロック図である。It is a functional block diagram of the image processing apparatus 1 by 1st Embodiment. (a)は、ユーザによる表示情報の選択動作開始前の概念図である。(b)は、ユーザによる表示情報の選択動作開始後の概念図である。(A) is a conceptual diagram before the selection operation of the display information by a user is started. (B) is a conceptual diagram after the display information selection operation by the user is started. 選択動作時間における基準位置の移動量を含む第1テーブルの一例である。It is an example of the 1st table containing the movement amount of the reference position in selection operation time. 選択動作時間の基準位置の移動範囲における表示情報の重畳表示の概念図である。It is a conceptual diagram of the superimposed display of the display information in the movement range of the reference position of the selection operation time. 画像処理装置1による画像処理のフローチャートである。3 is a flowchart of image processing by the image processing apparatus 1. 回転ベクトルと並進ベクトルの定義図である。It is a definition diagram of a rotation vector and a translation vector. 第2の実施形態による画像処理装置1の機能ブロック図である。It is a functional block diagram of the image processing apparatus 1 by 2nd Embodiment. 選択動作時間における基準位置の移動量を含む第2テーブルの一例である。It is an example of the 2nd table containing the movement amount of the reference | standard position in selection operation time. (a)は、ユーザによる表示情報の選択動作開始時刻tsの概念図である。(b)は、ユーザによる表示情報の選択動作終了時刻tpの概念図である。(c)は、ユーザによる表示情報の選択動作終了時刻の次フレーム時刻tp+1の概念図である。(A) is a conceptual diagram of display information selection operation start time ts by the user. (B) is a conceptual diagram of the display information selection operation end time tp by the user. (C) is a conceptual diagram of the next frame time tp + 1 of the display information selection operation end time by the user. 一つの実施形態による画像処理装置1として機能するコンピュータのハードウェア構成図である。It is a hardware block diagram of the computer which functions as the image processing apparatus 1 by one Embodiment.

上述の表示情報の表示位置がリアルタイムで変動する拡張現実感を用いる画像処理においては、本発明者らの鋭意検証によって、以下の事項が明らかになった。ユーザがディスプレイ上の表示情報に対して、一方の手指の接触による押下選択動作を行う為に、手指を表示情報に伸ばしている間に、画像処理装置を保持する他方の手指の位置が安定しなくなり、カメラを搭載する画像処理装置の位置や姿勢が急激に動いてしまうという現象が発生する。この場合、マーカに対するカメラ撮影位置や方向が変化する為、表示情報の表示位置が変化する。この結果、ユーザの手指がディスプレイに接触する時刻における表示情報の表示位置は、押下選択動作を開始した時刻の表示位置とズレが生じている為、ユーザが表示情報を正確に押下出来ない現象が発生することが明らかになった。また、この現象は、両手で画像処理装置を保持しつつ、表示情報を押下する場合でも発生することが明らかになった。これは、両手で画像処理装置を保持した状態においても、手指を伸ばす動作や、当該動作に伴う画像処理装置の持ち替えにより、画像処理装置の位置や姿勢が変化することに依る為である。   In the image processing using the augmented reality in which the display position of the display information fluctuates in real time, the following matters have been clarified by the inventors' extensive examination. Since the user performs a pressing selection operation by touching one finger with respect to the display information on the display, the position of the other finger holding the image processing apparatus is stabilized while the finger is extended to the display information. The phenomenon that the position and posture of the image processing apparatus on which the camera is mounted moves suddenly occurs. In this case, since the camera photographing position and direction with respect to the marker change, the display position of the display information changes. As a result, the display position of the display information at the time when the user's finger touches the display is misaligned with the display position at the time when the pressing selection operation is started, so that the user cannot press the display information accurately. It became clear that it occurred. It has also been clarified that this phenomenon occurs even when the display information is pressed while holding the image processing apparatus with both hands. This is because even when the image processing apparatus is held with both hands, the position and orientation of the image processing apparatus change due to the operation of extending the finger and the change of the image processing apparatus accompanying the operation.

画像処理装置の位置や姿勢の変化に伴う表示情報の表示位置の変化に対して、本発明者らは、比較例として以下の手法を検討した。例えば、表示情報をディスプレイの所定位置に固定して表示し、作業対象の物体と、移動する画像上の矢印で結び付ける方法が考えられる。当該方法に依れば、画像処理装置の位置や姿勢が変化しても、表示情報の表示位置が変化しない為、ユーザは的確に表示情報を押下することができる。しかしながら、当該方法は、表示情報と作業対象の物体が、ディスプレイ上で離れてしまい視認性が劣化する課題が生じる。   As a comparative example, the present inventors have examined the following method with respect to changes in the display position of display information accompanying changes in the position and orientation of the image processing apparatus. For example, a method is conceivable in which the display information is fixedly displayed at a predetermined position on the display, and is linked to the work target object by an arrow on the moving image. According to this method, even if the position or orientation of the image processing apparatus changes, the display position of the display information does not change, so that the user can press the display information accurately. However, this method has a problem that the display information and the object to be worked are separated on the display and the visibility is deteriorated.

また、他の比較例として、ディスプレイ上に表示される特定の表示情報への押下によって、リアルタイムの画像表示から一時的に静止画像表示に切り替えた上で、当該静止画像上の表示情報に対して、ユーザに押下させることが考えられる。しかしながら、リアルタイムの画像表示から静止画像表示に切り替えるための押下操作自体が、リアルタイムの表示情報における特定の表示情報へ押下が必要となる為、上述の画像処理装置の位置や姿勢が変化する課題が生じる。換言すると、拡張現実感を用いる画像処理装置においては、表示情報の表示位置がリアルタイムで変動することになる。この為、表示情報の表示位置がリアルタイムで変動しても、ユーザの表示情報に対する押下精度を十分に確保させることが必要になる。   Further, as another comparative example, by pressing a specific display information displayed on the display, the real-time image display is temporarily switched to the still image display, and then the display information on the still image is changed. It is conceivable that the user presses the button. However, since the pressing operation itself for switching from the real-time image display to the still image display requires pressing down to specific display information in the real-time display information, there is a problem that the position and orientation of the image processing apparatus described above change. Arise. In other words, in an image processing apparatus that uses augmented reality, the display position of display information varies in real time. For this reason, even if the display position of the display information fluctuates in real time, it is necessary to ensure sufficient pressing accuracy for the display information of the user.

上述の本発明者らの鋭意検証によって、新たに見出された事項を考慮しつつ、以下に、一つの実施形態による画像処理装置、画像処理方法及び画像処理プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例は、開示の技術を限定するものではない。   Based on the drawings, an example of an image processing apparatus, an image processing method, and an image processing program according to one embodiment will be described below in consideration of newly discovered items by the above-described diligent verification by the present inventors. This will be described in detail. Note that this embodiment does not limit the disclosed technology.

(実施例1)
図1は、第1の実施形態による画像処理装置1の機能ブロック図である。画像処理装置1は、取得部2、認識部3、検知部4、算出部5、制御部6、ならびに、表示部7を有する。なお、画像処理装置1は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路で構成しても良い。
Example 1
FIG. 1 is a functional block diagram of an image processing apparatus 1 according to the first embodiment. The image processing apparatus 1 includes an acquisition unit 2, a recognition unit 3, a detection unit 4, a calculation unit 5, a control unit 6, and a display unit 7. Note that the image processing apparatus 1 may be configured by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

取得部2は、例えば、ワイヤードロジックによるハードウェア回路である。また、取得部2は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。更に、取得部2は、図示しない通信部を有しており、通信回線を介して様々な外部装置と双方向にデータの送受信を行うことが可能である。取得部2は、後述する表示部7が表示する表示情報と、当該表示情報を表示する基準位置を規定するマーカを含む画像を取得する。ここで、表示情報とは、例えば、作業対象となる物体に対応付けられる作業内容等を含む情報である。取得部2は、当該画像を、例えば、外部装置の一例となる図示しない撮像素子(カメラと称しても良い)から取得する。撮像素子は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)カメラなどの撮像デバイスである。また、画像処理装置1は、撮像素子を画像処理装置1の構成要素の一部とすることが出来る。取得部2は取得した画像を認識部3に出力する。   The acquisition unit 2 is a hardware circuit based on wired logic, for example. The acquisition unit 2 may be a functional module realized by a computer program executed by the image processing apparatus 1. Furthermore, the acquisition unit 2 includes a communication unit (not shown), and can bidirectionally transmit and receive data to and from various external devices via a communication line. The acquisition unit 2 acquires an image including display information displayed by the display unit 7 described later and a marker that defines a reference position for displaying the display information. Here, the display information is information including work contents associated with an object to be worked, for example. The acquisition unit 2 acquires the image from, for example, an image sensor (not shown) (also referred to as a camera) that is an example of an external device. The imaging device is an imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) camera, for example. Further, the image processing apparatus 1 can make the imaging element a part of the components of the image processing apparatus 1. The acquisition unit 2 outputs the acquired image to the recognition unit 3.

認識部3は、例えば、ワイヤードロジックによるハードウェア回路である。また、認識部3は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。認識部3は画像を取得部2から受け取り、当該画像に含まれるマーカに対応する表示情報と基準位置を認識する。認識部3は、認識した表示情報と、基準位置を制御部6に出力する。また、認識部3は図示しない記憶部を内部に備えても良い。当該記憶部には、例えば、マーカに対応する表示情報が記憶される。記憶部は、例えば、フラッシュメモリ(flash memory)などの半導体メモリ素子、または、HDD(Hard Disk Drive)、光ディスクなどの記憶装置である。なお、記憶部は、上記の種類の記憶装置に限定されるものではなく、RAM(Random Access Memory)、ROM(Read Only Memory)であってもよい。認識部3は、認識した基準位置と表示情報を算出部5、制御部6ならびに表示部7に出力する。   The recognition unit 3 is a hardware circuit based on wired logic, for example. Further, the recognition unit 3 may be a functional module realized by a computer program executed by the image processing apparatus 1. The recognition unit 3 receives an image from the acquisition unit 2, and recognizes display information and a reference position corresponding to a marker included in the image. The recognition unit 3 outputs the recognized display information and the reference position to the control unit 6. The recognition unit 3 may include a storage unit (not shown). For example, display information corresponding to the marker is stored in the storage unit. The storage unit is, for example, a semiconductor memory device such as a flash memory, or a storage device such as an HDD (Hard Disk Drive) or an optical disk. Note that the storage unit is not limited to the above-described type of storage device, and may be a RAM (Random Access Memory) or a ROM (Read Only Memory). The recognition unit 3 outputs the recognized reference position and display information to the calculation unit 5, the control unit 6, and the display unit 7.

検知部4は、例えば、ワイヤードロジックによるハードウェア回路である。また、検知部4は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。検知部4は、後述する表示部7へのユーザの手指の接触を検知し、表示部7における検知位置を検知する。なお、検知部4は、接触を検知した時刻を表示情報に対するユーザの選択動作の終了時刻と規定することが出来る。また、検知部4は、接触を検知した検知位置と表示部7が表示する表示情報に対するユーザの操作領域に基づいて、ユーザの表示情報への選択を検知する。なお、操作領域は、例えば、表示情報の表示領域である。検知部4は、検出した選択動作の終了時刻を算出部5に出力する。   The detection unit 4 is a hardware circuit based on wired logic, for example. The detection unit 4 may be a functional module realized by a computer program executed by the image processing apparatus 1. The detection unit 4 detects the contact of the user's finger with the display unit 7 described later, and detects the detection position on the display unit 7. In addition, the detection part 4 can prescribe | regulate the time which detected the contact as the end time of the user's selection operation | movement with respect to display information. The detection unit 4 detects the selection of the user's display information based on the detection position where the contact is detected and the user's operation area for the display information displayed on the display unit 7. The operation area is, for example, a display area for display information. The detection unit 4 outputs the detected end time of the selection operation to the calculation unit 5.

算出部5は、例えば、ワイヤードロジックによるハードウェア回路である。また、算出部5は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。算出部5は、認識部3から基準位置と表示位置を受け取る。また、算出部5は、選択動作の終了時刻を検知部4から受け取る。算出部5は、後述する表示部7が表示する表示情報に対するユーザの選択動作の開始情報を算出する。ここで、開始情報は、基準位置の移動量に基づいた選択動作の開始時刻を含む。換言すると、開始時刻は、表示情報の第1表示位置が第1閾値範囲未満かつ第2閾値時間以上の閾値を満たした後に、当該第1閾値範囲以上の閾値を満たした時刻である。更に、換言すると、開始時刻は、表示情報の第1表示位置の変化量が、第1閾値範囲未満かつ第2閾値時間以上の閾値を満たした後に、当該第1閾値範囲以上の閾値を満たした時刻である。具体的には、ユーザがマーカに合わせて画像処理装置1を静止させている場合は、表示情報の表示位置(第1表示位置に相当)は、一定時間以上(第2閾値時間以上に相当)に渡って、ほぼ静止した状態(第1閾値範囲未満に相当)となる。なお、第1表示位置の詳細について補足的に説明すると、選択動作の開始時刻における表示情報の表示位置を第1表示位置と換言することが出来る。次に、ユーザの手指が表示情報に向かって動作すると、画像処理装置1は、ユーザの保持状態が変化する為、表示情報の表示位置は、ある範囲以上(第1閾値範囲以上に相当)で変動する。この様な処理方法を用いることで、算出部5は、ユーザの選択動作の開始情報を算出することが可能となる。   The calculation unit 5 is a hardware circuit based on wired logic, for example. The calculation unit 5 may be a functional module that is realized by a computer program executed by the image processing apparatus 1. The calculation unit 5 receives the reference position and the display position from the recognition unit 3. Further, the calculation unit 5 receives the end time of the selection operation from the detection unit 4. The calculation unit 5 calculates start information of a user's selection operation for display information displayed by the display unit 7 to be described later. Here, the start information includes the start time of the selection operation based on the movement amount of the reference position. In other words, the start time is a time when the first display position of the display information satisfies the threshold value not less than the first threshold range and the threshold value not less than the second threshold time and then the threshold value not less than the first threshold range. Furthermore, in other words, the start time satisfies the threshold value not less than the first threshold range after the change amount of the first display position of the display information satisfies the threshold value less than the first threshold range and not less than the second threshold time. It's time. Specifically, when the user has stopped the image processing apparatus 1 according to the marker, the display position of the display information (corresponding to the first display position) is a certain time or more (corresponding to the second threshold time or more). Over an almost stationary state (corresponding to less than the first threshold range). If the details of the first display position are supplementarily described, the display position of the display information at the start time of the selection operation can be rephrased as the first display position. Next, when the user's finger moves toward the display information, the image processing apparatus 1 changes the holding state of the user, so the display position of the display information is within a certain range (corresponding to the first threshold range or more). fluctuate. By using such a processing method, the calculation unit 5 can calculate the start information of the user's selection operation.

図2(a)は、ユーザによる表示情報の選択動作開始前の概念図である。図2(b)は、ユーザによる表示情報の選択動作開始後の概念図である。図2(a)に示す通り、ユーザによる表示情報の選択動作開始前においては、ユーザは表示部7を含む画像処理装置1を両手で保持してマーカに合わせて画像処理装置1を静止させている状態である。この為、表示情報の表示位置(第1表示位置に相当)は、一定時間以上(第2閾値時間以上に相当)に渡って、ほぼ静止した状態(第1閾値範囲未満に相当)となる。なお、画像処理装置1の表示部7には、左端に表示情報、中央に作業対象の物体、右端にマーカが表示されている。図2(b)に示す通り、表示情報の選択動作開始後においては、片手で画像処理装置1を保持する為、画像処理装置1を保持する手指の位置が安定しなくなり、表示情報の表示位置は、ある範囲以上(第1閾値範囲以上に相当)で変動することなる。換言すると、表示情報の表示位置は、選択動作開始前後で異なる位置となる。   FIG. 2A is a conceptual diagram before the start of the display information selection operation by the user. FIG. 2B is a conceptual diagram after the display information selection operation by the user is started. As shown in FIG. 2A, before the display information selection operation by the user is started, the user holds the image processing apparatus 1 including the display unit 7 with both hands and rests the image processing apparatus 1 according to the marker. It is in a state. For this reason, the display position of display information (corresponding to the first display position) is substantially stationary (corresponding to less than the first threshold range) for a certain time or more (corresponding to the second threshold time or more). The display unit 7 of the image processing apparatus 1 displays display information at the left end, an object to be worked at the center, and a marker at the right end. As shown in FIG. 2B, since the image processing apparatus 1 is held with one hand after the display information selection operation is started, the position of the finger holding the image processing apparatus 1 becomes unstable, and the display position of the display information is displayed. Fluctuates over a certain range (corresponding to the first threshold range or more). In other words, the display position of the display information is different before and after the start of the selection operation.

図1の算出部5は、開始情報に含まれる開始時刻から選択動作の終了時刻までの選択動作時間を算出する。なお、選択動作時間は、単なる時間長の情報ではなく、例えば、選択動作の開始時刻と終了時刻が含まれても良い。算出部5は、算出した選択動作時間を制御部6へ出力する。   The calculation unit 5 in FIG. 1 calculates the selection operation time from the start time included in the start information to the end time of the selection operation. Note that the selection operation time is not simply information on the time length, and may include, for example, the start time and end time of the selection operation. The calculation unit 5 outputs the calculated selection operation time to the control unit 6.

制御部6は、例えば、ワイヤードロジックによるハードウェア回路である。また、制御部6は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。制御部6は、基準位置と表示情報を認識部3から受け取り、選択動作時間を算出部5から受け取る。なお、実施例1における選択動作時間には、選択動作の開始時刻と終了時刻の情報が含まれているものとする。制御部6は、表示情報に対するユーザの操作領域を、表示情報の表示領域よりも広く制御する。また、制御部6は、開始情報に基づいて表示情報の操作領域を制御する。制御部6は、開始情報と基準位置の移動量に基づいて操作領域を制御する。更に、制御部6は、選択動作時間における移動量に基づいて操作領域を制御する。更に、制御部6は、操作領域を、前記開始時刻における表示領域(初期表示領域と称しても良い)よりも広く制御する。具体的には、制御部6は、操作領域の制御として、例えば、選択動作時間における基準位置の最小座標と最大座標で規定される移動範囲に表示情報を重畳して表示させる。以下に制御部6の制御処理の詳細について説明する。   The control unit 6 is a hardware circuit based on wired logic, for example. The control unit 6 may be a functional module realized by a computer program executed by the image processing apparatus 1. The control unit 6 receives the reference position and display information from the recognition unit 3 and receives the selection operation time from the calculation unit 5. Note that the selection operation time in the first embodiment includes information on the start time and end time of the selection operation. The control unit 6 controls the user operation area for the display information to be wider than the display information display area. Moreover, the control part 6 controls the operation area | region of display information based on start information. The control unit 6 controls the operation area based on the start information and the movement amount of the reference position. Furthermore, the control unit 6 controls the operation area based on the movement amount during the selection operation time. Further, the control unit 6 controls the operation area wider than the display area at the start time (may be referred to as an initial display area). Specifically, as control of the operation area, the control unit 6 causes display information to be superimposed and displayed on a moving range defined by the minimum coordinate and the maximum coordinate of the reference position during the selection operation time, for example. Details of the control process of the control unit 6 will be described below.

制御部6は、表示情報に対するユーザの選択動作の開始時刻tsから終了時刻tpまでの基準位置の移動量(移動量の単位は例えばピクセルである)を格納したテーブルを、例えば、制御部6の図示しないキャッシュまたはメモリに格納する。図3は、選択動作時間における基準位置の移動量を含む第1テーブルの一例である。図3に示すテーブル30には、ユーザの選択動作の開始時刻をts、終了時刻をtpとした取得部2が取得する画像のフレーム毎の基準位置が格納される。なお、実施例1においては、マーカは2次元座標で表現出来る矩形形状であり、基準点は4頂点で表現されるものとして説明する。また、基準点は4頂点ではなく、任意の1点としても良い。なお、テーブル30における2次元座標系は、例えば、表示部7の左上端を原点とし、水平方向をx軸、垂直方向をy軸と規定した場合の座標系である。また、時刻tp+1は、検知部4が接触を検知した時刻の次のフレームの時刻を示している。   The control unit 6 stores a table storing the movement amount of the reference position from the start time ts to the end time tp (for example, the unit of the movement amount is a pixel) of the selection operation of the user with respect to the display information. Store in a cache or memory (not shown). FIG. 3 is an example of a first table including the amount of movement of the reference position during the selection operation time. The table 30 shown in FIG. 3 stores a reference position for each frame of an image acquired by the acquisition unit 2 where the start time of the user's selection operation is ts and the end time is tp. In the first embodiment, it is assumed that the marker has a rectangular shape that can be expressed by two-dimensional coordinates, and the reference point is expressed by four vertices. Further, the reference point may be an arbitrary point instead of the four vertices. The two-dimensional coordinate system in the table 30 is, for example, a coordinate system in which the upper left corner of the display unit 7 is the origin, the horizontal direction is defined as the x axis, and the vertical direction is defined as the y axis. Time tp + 1 indicates the time of the next frame after the time when the detection unit 4 detects contact.

図3のテーブル30において、x軸の最小座標は10であり、y軸の最大座標は340である。当該範囲が上述の選択動作時間における基準位置の最小座標と最大座標で規定される移動範囲に該当する。なお、当該移動範囲を上述の移動軌跡と称しても良い。制御部6は、操作領域の制御として、例えば、選択動作時間における基準位置の最小座標と最大座標で規定される移動範囲に表示情報を重畳して表示させる。これにより、ユーザの表示情報に対する押下精度が向上する。図4は、選択動作時間の基準位置の移動範囲における表示情報の重畳表示の概念図である。図4において、ユーザの指先が押下した位置(時刻tpにおける検知位置)は、時刻tsにおける表示位置以外の位置(時刻tp−1)となっているが、当該押下した位置は選択動作時間における基準位置の最小座標と最大座標で規定される操作領域の移動範囲内である為、検知部4がユーザの表示情報への選択を検知することで、ユーザの表示情報に対する押下精度が向上する。   In the table 30 of FIG. 3, the minimum coordinate of the x axis is 10 and the maximum coordinate of the y axis is 340. This range corresponds to the movement range defined by the minimum coordinate and the maximum coordinate of the reference position in the selection operation time described above. Note that the movement range may be referred to as the above-described movement locus. For example, as the control of the operation area, the control unit 6 superimposes and displays the display information on the movement range defined by the minimum coordinate and the maximum coordinate of the reference position in the selection operation time. Thereby, the pressing precision with respect to a user's display information improves. FIG. 4 is a conceptual diagram of superimposed display of display information in the movement range of the reference position for the selection operation time. In FIG. 4, the position pressed by the user's fingertip (detected position at time tp) is a position other than the display position at time ts (time tp-1), but the pressed position is a reference in the selection operation time. Since it is within the movement range of the operation area defined by the minimum coordinates and the maximum coordinates of the position, the detection unit 4 detects the selection of the display information by the user, thereby improving the pressing accuracy of the display information of the user.

なお、制御部6は、必ずしも表示情報を重畳して表示させる必要はない。例えば、検知部4が接触を検知した検知位置が、制御部6が規定した移動範囲内であれば、検知部4が表示情報への選択が成されたと見做して検知することで、ユーザの表示情報に対する押下精度が向上する。換言すると制御部6は、操作領域の制御として、例えば、選択動作時間における基準位置の最小座標と最大座標で規定される移動範囲の領域自体を、操作範囲と見做した上で、検知部4が表示情報への選択を検知することで、実効的な操作範囲が拡大し、ユーザの表示情報に対する押下精度が向上する。なお、説明の便宜上、制御部6が表示情報の表示位置を制御する為の各種情報を制御情報と称することにする。制御部6は制御情報を表示部7へ出力する。   Note that the control unit 6 does not necessarily display the display information in a superimposed manner. For example, if the detection position at which the detection unit 4 detects contact is within the movement range defined by the control unit 6, the detection unit 4 detects that the selection of the display information has been made, thereby detecting the user. The pressing accuracy for the display information is improved. In other words, the control unit 6 controls the operation region by, for example, considering the region of the movement range defined by the minimum coordinate and the maximum coordinate of the reference position during the selection operation time as the operation range, and then detecting the detection unit 4. By detecting the selection of display information, the effective operation range is expanded, and the accuracy of pressing the display information by the user is improved. For convenience of explanation, various information for the control unit 6 to control the display position of the display information will be referred to as control information. The control unit 6 outputs control information to the display unit 7.

また、制御部6は、異なる2つの時刻の基準位置を用いて、各フレームにおける基準位置の時間変化を算出し、算出した計算上の基準位置の移動範囲に基づいて表示情報を制御しても良い。基準位置の時間変化は、例えば、次式を用いて算出することが出来る。但し、次式において、x、yは基準点の座標であり、tは任意のフレームの時刻である。
(数1)
x=5t+35
y=−15t+165
なお、基準位置の時間変化が曲線状の場合には、制御部6は、近似曲線式を用いて移動軌跡を算出しても良い。また、制御部6は、各フレームにおける基準位置の時間変化を、後述の回転ベクトルと並進ベクトルを考慮した座標に基づいて算出しても良い。
Further, the control unit 6 may calculate a time change of the reference position in each frame using the reference positions at two different times, and may control the display information based on the calculated movement range of the reference position. good. The time change of the reference position can be calculated using, for example, the following equation. In the following equation, x and y are the coordinates of the reference point, and t is the time of an arbitrary frame.
(Equation 1)
x = 5t + 35
y = -15t + 165
In addition, when the time change of the reference position is a curve, the control unit 6 may calculate the movement locus using an approximate curve equation. In addition, the control unit 6 may calculate the time change of the reference position in each frame based on coordinates taking into account a rotation vector and a translation vector, which will be described later.

図1の表示部7は、例えば、液晶ディスプレイまたは有機エレクトロルミネッセンスディスプレイなどの表示デバイスである。表示部7は、表示情報と基準位置を認識部3から受け取り、表示情報の制御情報を制御部6から受け取る。表示部7は、制御部6から制御情報を受け取っている場合は、当該制御情報に基づいて表示情報を表示し、制御部6から制御情報を受け取っていない場合は、基準位置に基づいて表示情報を表示する。   The display unit 7 in FIG. 1 is a display device such as a liquid crystal display or an organic electroluminescence display. The display unit 7 receives display information and a reference position from the recognition unit 3, and receives display information control information from the control unit 6. The display unit 7 displays the display information based on the control information when the control information is received from the control unit 6, and displays the display information based on the reference position when the control information is not received from the control unit 6. Is displayed.

図5は、画像処理装置1による画像処理のフローチャートである。取得部2は、表示部7が表示する表示情報と、当該表示情報を表示する基準位置を規定するマーカを含む画像を取得する(ステップS501)。取得部2は取得した画像を認識部3に出力する。認識部3は画像を取得部2から受け取り、当該画像に含まれるマーカに規定される表示情報と基準位置を認識する(ステップS502)。認識部3は、認識した表示情報と、基準位置を制御部6に出力する。   FIG. 5 is a flowchart of image processing by the image processing apparatus 1. The acquisition unit 2 acquires an image including display information displayed by the display unit 7 and a marker that defines a reference position for displaying the display information (step S501). The acquisition unit 2 outputs the acquired image to the recognition unit 3. The recognition unit 3 receives the image from the acquisition unit 2, and recognizes the display information and the reference position defined by the marker included in the image (step S502). The recognition unit 3 outputs the recognized display information and the reference position to the control unit 6.

検知部4は、表示部7へのユーザの手指の接触を検知し、表示部7における検知位置を検知する(ステップS503)。なお、検知部4は、接触を検知した時刻を表示情報に対するユーザの選択動作の終了時刻と規定することが出来る。また、検知部4は、接触を検知した検知位置と表示部7が表示する表示情報に対するユーザの操作領域に基づいて、ユーザの表示情報への選択を検知する。なお、操作領域は、例えば、表示情報の表示領域である。検知部4は、検出した選択動作の終了時刻を算出部5に出力する。   The detection unit 4 detects contact of the user's finger with the display unit 7 and detects a detection position on the display unit 7 (step S503). In addition, the detection part 4 can prescribe | regulate the time which detected the contact as the end time of the user's selection operation | movement with respect to display information. The detection unit 4 detects the selection of the user's display information based on the detection position where the contact is detected and the user's operation area for the display information displayed on the display unit 7. The operation area is, for example, a display area for display information. The detection unit 4 outputs the detected end time of the selection operation to the calculation unit 5.

算出部5は、認識部3から基準位置と表示位置を受け取る。また、算出部5は、選択動作の終了時刻を検知部4から受け取る。算出部5は、表示部7が表示する表示情報に対するユーザの選択動作の開始情報を算出する(ステップS504)。ここで、開始情報は、基準位置の移動量に基づいた選択動作の開始時刻を含む。換言すると、開始時刻は、表示情報の第1表示位置が第1閾値範囲未満かつ第2閾値時間以上の閾値を満たした後に、当該第1閾値範囲以上の閾値を満たした時刻である。   The calculation unit 5 receives the reference position and the display position from the recognition unit 3. Further, the calculation unit 5 receives the end time of the selection operation from the detection unit 4. The calculation unit 5 calculates start information of the user's selection operation for the display information displayed by the display unit 7 (step S504). Here, the start information includes the start time of the selection operation based on the movement amount of the reference position. In other words, the start time is a time when the first display position of the display information satisfies the threshold value not less than the first threshold range and the threshold value not less than the second threshold time and then the threshold value not less than the first threshold range.

算出部5は、開始情報に含まれる開始時刻から選択動作の終了時刻までの選択動作時間を算出する(ステップS505)。なお、選択動作時間は、単なる時間長の情報ではなく、例えば、選択動作の開始時刻と終了時刻が含まれても良い。算出部5は、算出した選択動作時間を制御部6へ出力する。算出部5は、算出した選択動作時間を制御部6へ出力する。   The calculation unit 5 calculates the selection operation time from the start time included in the start information to the end time of the selection operation (step S505). Note that the selection operation time is not simply information on the time length, and may include, for example, the start time and end time of the selection operation. The calculation unit 5 outputs the calculated selection operation time to the control unit 6. The calculation unit 5 outputs the calculated selection operation time to the control unit 6.

制御部6は、基準位置と表示情報を認識部3から受け取り、選択動作時間を算出部5から受け取る。なお、選択動作時間には、選択動作の開始時刻と終了時刻の情報が含まれているものとする。制御部6は、表示情報の表示領域を選択時間動作に基づいて制御する(ステップS506)例えば、制御部6は、ステップS506において、表示情報に対するユーザの操作領域を、表示情報の表示領域よりも広く制御する。また、制御部6は、開始情報に基づいて表示情報の操作領域を制御する。また、制御部6は、開始情報と基準位置の移動量に基づいて操作領域を制御する。更に、制御部6は、選択動作時間における移動量に基づいて操作領域を制御する。具体的には、制御部6は、操作領域の制御として、例えば、選択動作時間における基準位置の最小座標と最大座標で規定される移動範囲に表示情報を重畳して表示させる。   The control unit 6 receives the reference position and display information from the recognition unit 3 and receives the selection operation time from the calculation unit 5. The selection operation time includes information on the start time and end time of the selection operation. The control unit 6 controls the display area of the display information based on the selected time operation (step S506). For example, in step S506, the control unit 6 sets the user's operation area for the display information more than the display area of the display information. Widely control. Moreover, the control part 6 controls the operation area | region of display information based on start information. The control unit 6 controls the operation area based on the start information and the amount of movement of the reference position. Furthermore, the control unit 6 controls the operation area based on the movement amount during the selection operation time. Specifically, as control of the operation area, the control unit 6 causes display information to be superimposed and displayed on a moving range defined by the minimum coordinate and the maximum coordinate of the reference position during the selection operation time, for example.

なお、ステップS506において、制御部6は、必ずしも表示情報を重畳して表示させる必要はない。例えば、検知部4が接触を検知した検知位置が、制御部6が規定した移動範囲内であれば、検知部4が表示情報への選択が成されたと見做して検知することで、ユーザの表示情報に対する押下精度が向上する。換言すると、制御部6は、操作領域の制御として、例えば、選択動作時間における基準位置の最小座標と最大座標で規定される移動範囲の領域自体を、操作範囲と見做した上で、検知部4が表示情報への選択を検知することで、実効的な操作範囲が拡大し、ユーザの表示情報に対する押下精度が向上する。
なお、説明の便宜上、制御部6が表示情報の表示位置を制御する為の各種情報を制御情報と称することにする。制御部6は制御情報を表示部7へ出力する。
In step S506, the control unit 6 does not necessarily display the display information in a superimposed manner. For example, if the detection position at which the detection unit 4 detects contact is within the movement range defined by the control unit 6, the detection unit 4 detects that the selection of the display information has been made, thereby detecting the user. The pressing accuracy for the display information is improved. In other words, the control unit 6 controls the operation region by, for example, considering the movement range region itself defined by the minimum coordinate and the maximum coordinate of the reference position in the selection operation time as the operation range, When 4 detects the selection of display information, the effective operation range is expanded, and the pressing accuracy with respect to the display information of the user is improved.
For convenience of explanation, various information for the control unit 6 to control the display position of the display information will be referred to as control information. The control unit 6 outputs control information to the display unit 7.

表示部7は、表示情報と基準位置を認識部3から受け取り、表示情報の制御情報を制御部6から受け取る。表示部7は表示情報を表示する(ステップS507)。例えば、表示部7は、ステップS507において、制御部6から制御情報を受け取っている場合は、当該制御情報に基づいて表示情報を表示し、制御部6から制御情報を受け取っていない場合は、基準位置に基づいて表示情報を表示することで、画像処理装置1は、図5のフローチャートに示す画像処理を終了する。なお、ステップS507の処理終了時において、取得部2が、画像を受け取っている場合には、画像処理装置はステップS501〜S507の処理を繰り返し実行しても良い。   The display unit 7 receives display information and a reference position from the recognition unit 3, and receives display information control information from the control unit 6. The display unit 7 displays the display information (Step S507). For example, if the display unit 7 has received control information from the control unit 6 in step S507, the display unit 7 displays the display information based on the control information. If the control unit 6 has not received control information, the display unit 7 By displaying the display information based on the position, the image processing apparatus 1 ends the image processing shown in the flowchart of FIG. Note that when the acquisition unit 2 has received an image at the end of the process in step S507, the image processing apparatus may repeatedly execute the processes in steps S501 to S507.

実施例1による画像処理装置1においては、ユーザに対する利用性を向上させることが可能となる。また、実施例1による画像処理装置1においては、ユーザの表示情報に対する押下精度を向上させることが可能になる。例えば、画像処理装置1の移動に伴い表示情報の表示位置が移動してしまう場合でも、ユーザが動作の狙いを定めた時刻の表示位置に対して時間的に近いものが表示または選択されることにより、ユーザの表示情報に対する押下精度を向上させることが可能になる。   In the image processing apparatus 1 according to the first embodiment, usability for the user can be improved. Further, in the image processing apparatus 1 according to the first embodiment, it is possible to improve the pressing accuracy with respect to the display information of the user. For example, even when the display position of the display information moves with the movement of the image processing apparatus 1, a display that is temporally close to the display position at the time when the user has aimed for the operation is displayed or selected. As a result, it is possible to improve the pressing accuracy for the display information of the user.

(実施例2)
実施例2においては、算出部5による回転ベクトルと並進ベクトルを用いた選択動作時間の算出方法について開示する。実施例2における算出部5が含まれる画像処理装置1の機能ブロック図は実施例1と同様である為、詳細な説明は省略する。
(Example 2)
In the second embodiment, a method for calculating the selection operation time using the rotation vector and the translation vector by the calculation unit 5 will be disclosed. Since the functional block diagram of the image processing apparatus 1 including the calculation unit 5 in the second embodiment is the same as that in the first embodiment, detailed description thereof is omitted.

図6は、回転ベクトルと並進ベクトルの定義図である。図6に示される通り、任意の位置の原点0から画像処理装置1の表示部7に対して垂直に並進ベクトルTzが規定され、並進ベクトルTzに対応する並進ベクトルTx、Tyがそれぞれ規定される。また、並進ベクトルTx、Ty、Tzの回転方向に対して、回転ベクトルRx、Ry、Rzがそれぞれ規定される。算出部5は、例えば、図3のテーブル30に示す様な4頂点で表現される基準点から、回転ベクトルR=(Rx、Ry、Rz)と並進ベクトルT=(Tx,Ty,Tz)を公知の手法を用いて算出する。   FIG. 6 is a definition diagram of the rotation vector and the translation vector. As shown in FIG. 6, a translation vector Tz is defined perpendicularly from the origin 0 at an arbitrary position to the display unit 7 of the image processing apparatus 1, and translation vectors Tx and Ty corresponding to the translation vector Tz are respectively defined. . Further, rotation vectors Rx, Ry, and Rz are respectively defined with respect to the rotation directions of the translation vectors Tx, Ty, and Tz. For example, the calculation unit 5 calculates a rotation vector R = (Rx, Ry, Rz) and a translation vector T = (Tx, Ty, Tz) from a reference point represented by four vertices as shown in the table 30 of FIG. It calculates using a well-known method.

算出部5は、時刻tn(例えば、図3のテーブル30の時刻ts+2)の並進ベクトルTn=(Txn、Tyn、Tzn)と、1フレーム前の時刻tn−1(例えば、図3のテーブル30の時刻ts+1)の並進ベクトルTn−1=(Txn−1、Tyn−1、Tzn−1)から、時刻tn−1から時刻tn間における移動量を表す並進ベクトル量ΔTnを、次式を用いて算出する。
(数2)

Figure 0006244712
The calculation unit 5 calculates the translation vector Tn = (Txn, Tyn, Tzn) at the time tn (for example, the time ts + 2 in the table 30 in FIG. 3) and the time tn−1 (for example, the table in FIG. 3). From the translation vector Tn−1 = (Txn−1, Tyn−1, Tzn−1) at time 30 (ts + 1)), a translation vector amount ΔTn representing the movement amount from time tn−1 to time tn is expressed by the following equation: Calculate using.
(Equation 2)

Figure 0006244712

算出部5は、並進ベクトルと同様に、時刻tn−1から時刻tn間における移動量を表す回転ベクトル量ΔRnを、次式を用いて算出する。
(数3)

Figure 0006244712
Similarly to the translation vector, the calculation unit 5 calculates a rotation vector amount ΔRn that represents a movement amount from time tn−1 to time tn using the following equation.
(Equation 3)

Figure 0006244712

算出部5は、並進ベクトル量ΔTnが所定値ΔTα未満、かつ回転ベクトル量ΔRnが所定値ΔRα未満である場合、画像処理装置1が静止状態と判断する。次に、算出部5は、静止状態の継続時間t1を算出する。継続時間t1が所定時間tβ未満の場合は、算出部5は、継続時間を0にリセットした上で、上述の並進ベクトル量ΔTnと回転ベクトル量ΔRnの算出を繰り返し実行する。継続時間t1が所定時間tβを以上の場合は、算出部5は、以下の処理を実行する。   When the translation vector amount ΔTn is less than the predetermined value ΔTα and the rotation vector amount ΔRn is less than the predetermined value ΔRα, the calculation unit 5 determines that the image processing apparatus 1 is in a stationary state. Next, the calculation unit 5 calculates the duration t1 of the stationary state. When the duration t1 is less than the predetermined time tβ, the calculation unit 5 resets the duration to 0 and then repeatedly calculates the translation vector amount ΔTn and the rotation vector amount ΔRn. When the duration t1 is equal to or longer than the predetermined time tβ, the calculation unit 5 executes the following process.

算出部5は、並進ベクトル量ΔTnと所定値ΔTαの比較を行うと共に、回転ベクトル量ΔRnと所定値ΔRαの比較を行う。算出部5は、ΔTn<=ΔTα、かつ、ΔRn<=ΔRαの場合、画像処理装置1は静止状態を継続していると判断する。算出部5は、
ΔTn>ΔTαまたはΔRn>ΔRαと変化した場合は、画像処理装置1の位置が変動したと判断し、上述の条件を満たした時刻を選択動作の開始時刻tsと規定することが出来る。
The calculation unit 5 compares the translation vector amount ΔTn with the predetermined value ΔTα and also compares the rotation vector amount ΔRn with the predetermined value ΔRα. When ΔTn <= ΔTα and ΔRn <= ΔRα, the calculation unit 5 determines that the image processing apparatus 1 is still in a stationary state. The calculation unit 5
When ΔTn> ΔTα or ΔRn> ΔRα is changed, it is determined that the position of the image processing apparatus 1 has changed, and the time when the above-described condition is satisfied can be defined as the start time ts of the selection operation.

実施例2における画像処理装置1においては、3軸方向の並進ベクトルと3軸方向の回転ベクトルの6個の測定値の変化量と複数の閾値判定を用いることにより、高い精度で選択動作の開始時刻tsと規定することが出来る。この為、実施例2による画像処理装置1においては、ユーザに対する利用性を向上させることが可能となる。また、実施例2による画像処理装置1においては、ユーザの表示情報に対する押下精度を向上させることが可能になる。   In the image processing apparatus 1 according to the second embodiment, the selection operation is started with high accuracy by using the change amounts of the six measurement values of the translation vector in the three-axis direction and the rotation vector in the three-axis direction and the plurality of threshold determinations. It can be defined as time ts. For this reason, in the image processing apparatus 1 according to the second embodiment, the usability for the user can be improved. Further, in the image processing apparatus 1 according to the second embodiment, it is possible to improve the pressing accuracy with respect to the display information of the user.

(実施例3)
ユーザによる画像処理装置1の使用状況においては、ブレ等の発生により認識部3がマーカの認識を出来ない場合がある。認識部3がマーカを認識しない場合は、基準位置の消失により、表示情報が表示部7に表示されない場合がある。この場合は、ユーザは表示情報を手指等により押下出来なくなり、可用性が低下する場合も考えられる。実施例3における画像処理装置1においては、マーカの認識が出来ない場合においても、可用性が低下しないことが可能となる画像処理装置1について説明する。
(Example 3)
When the user uses the image processing apparatus 1, the recognition unit 3 may not be able to recognize the marker due to occurrence of blurring or the like. When the recognition unit 3 does not recognize the marker, the display information may not be displayed on the display unit 7 due to the disappearance of the reference position. In this case, the user cannot press the display information with a finger or the like, and the availability may be reduced. In the image processing apparatus 1 according to the third embodiment, the image processing apparatus 1 that can prevent the availability from being lowered even when the marker cannot be recognized will be described.

図7は、第2の実施形態による画像処理装置1の機能ブロック図である。画像処理装置1は、取得部2、認識部3、検知部4、算出部5、制御部6、表示部7、ならびに、推定部8を有する。なお、画像処理装置1は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路で構成しても良い。また、推定部8以外の各機能は、図1に示す各機能と同様の機能を有する為、詳細な説明は省略する。   FIG. 7 is a functional block diagram of the image processing apparatus 1 according to the second embodiment. The image processing apparatus 1 includes an acquisition unit 2, a recognition unit 3, a detection unit 4, a calculation unit 5, a control unit 6, a display unit 7, and an estimation unit 8. Note that the image processing apparatus 1 may be configured by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). Moreover, since each function other than the estimation part 8 has a function similar to each function shown in FIG. 1, detailed description is abbreviate | omitted.

推定部8は、例えば、ワイヤードロジックによるハードウェア回路である。また、推定部8は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。推定部8は、算出部5が認識部3から基準位置を受け取っていない場合、以下の推定処理を実行する。   The estimation unit 8 is a hardware circuit based on wired logic, for example. Further, the estimation unit 8 may be a functional module realized by a computer program executed by the image processing apparatus 1. When the calculating unit 5 has not received the reference position from the recognizing unit 3, the estimating unit 8 performs the following estimation process.

図8は、選択動作時間における基準位置の移動量を含む第2テーブルの一例である。テーブル80における座標系等の各種規定は図3のテーブル30と同様である為、詳細な説明は省略する。図8に示すテーブル80には、ユーザの選択動作の開始時刻をts、終了時刻をtpとした取得部2が取得する画像のフレーム毎の基準位置が格納される。テーブル80には、マーカ認識結果が格納されている。マーカの認識結果は、例えば、認識部3がマーカを認識出来たか否かに基づいて格納されれば良い。テーブル80においては、時刻ts〜時刻tm−1の時刻ではマーカの認識に成功しており、時刻tm〜時刻tp+1の時刻ではマーカの認識に失敗していることを示している。推定部8は、時刻tsから、マーカ認識失敗時刻前tm−1までの基準位置の変化を用いて、マーカ認識失敗時刻tmから接触が検知される時刻tpまでの基準位置の移動量(移動軌跡と称しても良い)を推定する。   FIG. 8 is an example of a second table including the amount of movement of the reference position during the selection operation time. Since various specifications such as the coordinate system in the table 80 are the same as those in the table 30 of FIG. 3, detailed description thereof is omitted. The table 80 shown in FIG. 8 stores a reference position for each frame of an image acquired by the acquisition unit 2 where the start time of the user's selection operation is ts and the end time is tp. The table 80 stores marker recognition results. The marker recognition result may be stored based on, for example, whether the recognition unit 3 has recognized the marker. The table 80 indicates that marker recognition has succeeded at time ts to time tm−1 and marker recognition has failed at time tm to time tp + 1. The estimation unit 8 uses the change in the reference position from time ts to tm−1 before the marker recognition failure time, and uses the movement amount (movement trajectory) of the reference position from the marker recognition failure time tm to the time tp at which contact is detected. May be referred to).

推定部8は、マーカ認識失敗時刻tmから接触が検知される時刻tpまでの基準位置の移動量の推定として様々な公知の手法を用いることが出来る。例えば、時刻ts〜時刻tm−1の時刻における基準位置から算出することが可能な時間変化に基づく直線近似方法や、「コンピュータビジョン、 David A. Forsyth、 Jean Ponce (著)、大北剛(訳)、共立出版(2007)」に開示されるカルマンフィルタ、または、「パーティクルフィルタとその実装法(チュートリアル)、情報処理学会研究報告、CVIM、 2007(1)、161−168、2007−01−11」に開示されるパーティクルフィルタ等の様々なフィルタ処理を用いることができる。実施例3においては、時間変化に基づく直線近似を例示として説明する。テーブル80において、例えば、時刻tm−3〜時刻tm−1の基準位置の時間変化は、例えば、次式で表現することが出来る。但し、次式において、x、yは基準点の座標であり、tは任意のフレームの時刻である。
(数4)
x=5t+35
y=−15t+165
The estimation unit 8 can use various known methods for estimating the amount of movement of the reference position from the marker recognition failure time tm to the time tp at which contact is detected. For example, a linear approximation method based on a time change that can be calculated from a reference position at time ts to time tm−1, “Computer Vision, David A. Forsyth, Jean Ponce (Author), Takeshi Ohkita (translation) ), Kyoritsu Shuppan (2007) ", or" Particle filter and its implementation (tutorial), IPSJ Research Report, CVIM, 2007 (1), 161-168, 2007-01-11 " Various filter processes such as a particle filter disclosed in the above can be used. In the third embodiment, linear approximation based on time change will be described as an example. In the table 80, for example, the time change of the reference position from time tm-3 to time tm-1 can be expressed by the following equation, for example. In the following equation, x and y are the coordinates of the reference point, and t is the time of an arbitrary frame.
(Equation 4)
x = 5t + 35
y = -15t + 165

推定部8は、上述の(数4)を用いて時刻tm〜時刻tpまでの移動量を推定することが出来る。なお、推定された基準位置の座標はテーブル80に示される座標となる。図7の制御部6は、テーブル80を参照し、実施例1または実施例2に開示した制御処理を適宜実行する。   The estimation unit 8 can estimate the amount of movement from time tm to time tp using the above (Equation 4). The estimated coordinates of the reference position are the coordinates shown in the table 80. The control unit 6 in FIG. 7 refers to the table 80 and appropriately executes the control process disclosed in the first embodiment or the second embodiment.

実施例3による画像処理装置1によれば、ユーザの選択動作中に表示情報が正確に表示されなくなった場合においても、表示情報の位置を推定して表示することが出来る。この為、実施例3による画像処理装置1においては、ユーザに対する利用性を向上させることが可能となる。また、実施例3による画像処理装置1によれば、ユーザの表示情報に対する押下精度を向上させることが可能になる。 According to the image processing apparatus 1 according to the third embodiment, the position of the display information can be estimated and displayed even when the display information is not accurately displayed during the user's selection operation. For this reason, in the image processing apparatus 1 according to the third embodiment, the usability for the user can be improved. Further, according to the image processing apparatus 1 according to the third embodiment, it is possible to improve the pressing accuracy with respect to the display information of the user.

(実施例4)
実施例1ないし実施例3に開示する画像処理装置1における制御部6は、表示情報の操作領域の制御として、選択動作時間の終了時刻の次フレームにおける表示情報の第2表示位置を、選択動作時間の開始時刻の表示情報の第1表示位置に切り替えて、表示情報を表示させても良い。なお、第2表示位置を補足的に説明すると、選択動作時間の終了時刻の次フレームにおける表示情報の表示位置を第2表示位置とする。特に、実施例4においては、検知部4が接触を検知した検知位置が表示領域以外だった場合に当該処理を実施することがより好ましい。実施例4における制御部6が含まれる画像処理装置1の機能ブロック図は実施例1ないし実施例3と同様である為、詳細な説明は省略する。
Example 4
The control unit 6 in the image processing apparatus 1 disclosed in the first to third embodiments selects the second display position of the display information in the next frame after the end time of the selection operation time as the control of the operation area of the display information. The display information may be displayed by switching to the first display position of the display information of the time start time. In addition, if a 2nd display position is demonstrated supplementarily, the display position of the display information in the next frame of the end time of selection operation time will be made into a 2nd display position. In particular, in the fourth embodiment, it is more preferable to perform the processing when the detection position where the detection unit 4 detects contact is outside the display area. Since the functional block diagram of the image processing apparatus 1 including the control unit 6 in the fourth embodiment is the same as that in the first to third embodiments, detailed description thereof is omitted.

図9(a)は、ユーザによる表示情報の選択動作開始時刻tsの概念図である。図9(b)は、ユーザによる表示情報の選択動作終了時刻tpの概念図である。図9(c)は、ユーザによる表示情報の選択動作終了時刻の次フレーム時刻tp+1の概念図である。図9(a)の選択動作開始時刻tsから選択動作終了時刻tpにおいては、画像処理装置1の移動に伴い表示情報の表示位置が移動している。この場合において、制御部6は、選択動作開始時刻tsにおいて、選択動作開始時刻tsの基準位置を記憶する。次に、制御部6は、図9(c)に示す様に、表示情報の選択動作終了時刻tpの次のフレームとなる時刻tp+1において、記憶した選択動作開始時刻tsの基準位置に基づいて、表示情報を表示する様に制御する。換言すると、時刻tsと時刻tp+1の表示情報の表示位置は同じ位置となる。なお、当該処理は、検知部4が接触を検知した検知位置が表示領域以外かつ操作領域範囲内だった場合に当該処理を実施することがより好ましい。実施例4による画像処理装置1においては、ユーザに対する利用性(視認性)を向上させることが可能となる。   FIG. 9A is a conceptual diagram of the display information selection operation start time ts by the user. FIG. 9B is a conceptual diagram of the display information selection operation end time tp by the user. FIG. 9C is a conceptual diagram of the next frame time tp + 1 of the display information selection operation end time by the user. From the selection operation start time ts to the selection operation end time tp in FIG. 9A, the display position of the display information is moved with the movement of the image processing apparatus 1. In this case, the control unit 6 stores the reference position of the selection operation start time ts at the selection operation start time ts. Next, as illustrated in FIG. 9C, the control unit 6 determines, based on the reference position of the stored selection operation start time ts, at the time tp + 1 that is the next frame of the display information selection operation end time tp. Control display information to be displayed. In other words, the display position of the display information at time ts and time tp + 1 is the same position. The process is more preferably performed when the detection position at which the detection unit 4 detects contact is outside the display area and within the operation area range. In the image processing apparatus 1 according to the fourth embodiment, usability (visibility) for the user can be improved.

また、図9(a)ないし図9(c)において、制御部6は、ユーザによる表示情報の選択動作終了時刻tpの検知位置が、選択動作開始時刻tsの基準位置と選択動作終了時刻tpの基準位置のどちらが近いかを判断し、近い位置の基準位置に基づいて表示情報を表示する様に制御しても良い。換言すると、時刻tp+1の表示情報の表示位置は、時刻tsまたは時刻tpの何れかの表示位置となる。当該動作により、ユーザが動作の狙いを定めた時刻の表示位置に対して時間的に近いものが表示または選択されることにより、ユーザに対する利用性(視認性)を向上させることが可能となる。   Further, in FIGS. 9A to 9C, the control unit 6 determines that the detection position of the display information selection operation end time tp by the user is the reference position of the selection operation start time ts and the selection operation end time tp. It may be controlled to determine which of the reference positions is close and to display the display information based on the reference position of the close position. In other words, the display position of the display information at time tp + 1 is the display position at either time ts or time tp. By this operation, a display that is close in time to the display position at the time when the user has aimed for the operation is displayed or selected, so that the usability (visibility) for the user can be improved.

更に、図9(a)ないし図9(c)において、制御部6は、ユーザによる表示情報の選択動作終了時刻tpの検知位置が、表示領域以外である場合においても、図3のテーブル30または図8のテーブル80に基づいて制御部6が規定した移動範囲内であれば、時刻tp+1の表示情報の表示位置を、選択動作終了時刻tpの検知位置に重畳させても良い。当該動作により、ユーザに対する利用性(視認性)を向上させることが可能となる。   Further, in FIG. 9A to FIG. 9C, the control unit 6 does not change the table 30 in FIG. 3 or the table 30 in FIG. 3 even when the detection position of the display information selection operation end time tp by the user is outside the display area. The display position of the display information at time tp + 1 may be superimposed on the detection position at the selection operation end time tp as long as it is within the movement range defined by the control unit 6 based on the table 80 of FIG. With this operation, usability (visibility) for the user can be improved.

(実施例5)
実施例5における制御部6が含まれる画像処理装置1の機能ブロック図は実施例1ないし実施例4と同様である為、詳細な説明は省略する。図9(a)ないし図9(c)において、制御部6は、選択動作開始時刻tsを起点として、選択動作終了時刻tpまで表示情報の表示位置を固定することも可能である。当該動作においては、ユーザが動作の狙いを定めた時刻の表示位置そのものが表示し続けられる為、ユーザの表示情報に対する押下精度を向上させることが可能になる。実施例5による画像処理装置1においては、ユーザに対する利用性を向上させることが可能となる。また、実施例5による画像処理装置1によれば、ユーザの表示情報に対する押下精度を向上させることが可能になる。
(Example 5)
Since the functional block diagram of the image processing apparatus 1 including the control unit 6 in the fifth embodiment is the same as that in the first to fourth embodiments, detailed description thereof is omitted. 9A to 9C, the control unit 6 can also fix the display position of the display information from the selection operation start time ts to the selection operation end time tp. In the operation, since the display position itself at the time when the user sets the target of the operation continues to be displayed, it is possible to improve the pressing accuracy with respect to the display information of the user. In the image processing apparatus 1 according to the fifth embodiment, usability for the user can be improved. Further, according to the image processing apparatus 1 according to the fifth embodiment, it is possible to improve the pressing accuracy with respect to the display information of the user.

上述した各実施例において、画像処理装置1は、ユーザの音声信号を取得するマイクを更に備えることも可能である。なお、マイクは、例えば、算出部5に接続されれば良い。また、音声信号は、例えば、音声認識が可能な特定の言葉を含む信号を用いることが出来る。算出部5は、音声信号を上述の開始情報として算出しても良い。   In each embodiment described above, the image processing apparatus 1 may further include a microphone that acquires a user's voice signal. The microphone may be connected to the calculation unit 5, for example. Further, as the audio signal, for example, a signal including a specific word that can be recognized can be used. The calculation unit 5 may calculate an audio signal as the above start information.

また、画像処理装置1は、ユーザの動作信号を取得する加速度センサ、角速度センサ、または接触スイッチを更に備えることが可能である。加速度センサ、角速度センサ、または接触スイッチは、例えば、算出部5に接続されれば良い。なお、動作信号は所定の閾値で設定される動作量、または、スイッチによる電気的な接触信号を用いることが出来る。算出部5は、動作信号を上述の開始情報として算出しても良い。   The image processing apparatus 1 can further include an acceleration sensor, an angular velocity sensor, or a contact switch that acquires a user's operation signal. The acceleration sensor, the angular velocity sensor, or the contact switch may be connected to the calculation unit 5, for example. The operation signal can be an operation amount set with a predetermined threshold or an electrical contact signal by a switch. The calculation unit 5 may calculate the operation signal as the above-described start information.

また、画像処理装置1は、選択動作を含む選択動作画像を撮像するカメラを更に備えることが可能である。カメラは、例えば、算出部5に接続されれば良い。また、カメラは、例えば、ユーザの手指を撮像する。算出部5は、選択動作画像をテンプレートマッチング等の処理結果に基づいて開始情報を算出することが出来る。   The image processing apparatus 1 can further include a camera that captures a selection operation image including a selection operation. The camera may be connected to the calculation unit 5, for example. Moreover, a camera images a user's finger, for example. The calculation unit 5 can calculate start information based on a processing result such as template matching for the selected operation image.

また、画像処理装置1の制御部6は、開始情報に基づいて、表示情報の表示領域を単純に拡大して表示させても良い。当該処理によっても、ユーザによる押下精度を向上させることが可能となる。更に、制御部6は、認識部3がマーカを認識した場合に、表示情報の表示領域を拡大して表示させても良い。 具体的には、画像処理装置1の制御部6は、表示部7が表示情報を表示する前に、操作領域を、認識部3が認識する表示情報の表示領域よりも広く制御しても良い。例えば、制御部6は、認識部3がマーカを認識した時点で、当該マーカに対応付けられている表示情報の表示領域を単純に拡大して表示させても良い。当該処理によっても、ユーザによる押下精度を向上させることが可能となる。また、表示情報の一部の領域をユーザに押下させる様な表示形態である場合は、当該一部の領域のみを拡大して表示しても良い。当該処理によっても、ユーザによる押下精度を向上させることが可能となる。また、表示情報は、表示情報に関連付けられる付帯情報を含み、制御部6は、検知部4が表示情報への選択を検知した場合に、付帯情報を表示させることが可能である。   Further, the control unit 6 of the image processing apparatus 1 may simply enlarge and display the display area of the display information based on the start information. This process can also improve the pressing accuracy by the user. Furthermore, when the recognition unit 3 recognizes the marker, the control unit 6 may enlarge and display the display area of the display information. Specifically, before the display unit 7 displays the display information, the control unit 6 of the image processing apparatus 1 may control the operation region to be wider than the display information display region recognized by the recognition unit 3. . For example, when the recognition unit 3 recognizes a marker, the control unit 6 may simply enlarge and display the display area of the display information associated with the marker. This process can also improve the pressing accuracy by the user. Further, when the display form is such that the user presses a partial area of the display information, only the partial area may be displayed in an enlarged manner. This process can also improve the pressing accuracy by the user. The display information includes incidental information associated with the display information, and the control unit 6 can display the incidental information when the detection unit 4 detects selection of the display information.

(実施例6)
図10は、一つの実施形態による画像処理装置1として機能するコンピュータのハードウェア構成図である。図10に示す通り、画像処理装置1は、コンピュータ100、およびコンピュータ100に接続する入出力装置(周辺機器)を含んで構成される。
(Example 6)
FIG. 10 is a hardware configuration diagram of a computer that functions as the image processing apparatus 1 according to an embodiment. As shown in FIG. 10, the image processing apparatus 1 includes a computer 100 and an input / output device (peripheral device) connected to the computer 100.

コンピュータ100は、プロセッサ101によって装置全体が制御されている。プロセッサ101には、バス109を介してRAM(Random Access Memory)102と複数の周辺機器が接続されている。なお、プロセッサ101は、マルチプロセッサであってもよい。また、プロセッサ101は、例えば、CPU、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、またはPLD(Programmable Logic Device)である。更に、プロセッサ101は、CPU、MPU、DSP、ASIC、PLDのうちの2以上の要素の組み合わせであってもよい。   The computer 100 is entirely controlled by a processor 101. The processor 101 is connected to a RAM (Random Access Memory) 102 and a plurality of peripheral devices via a bus 109. The processor 101 may be a multiprocessor. In addition, the processor 101 is, for example, a CPU, an MPU (Micro Processing Unit), a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), or a PLD (Programmable Logic D). Further, the processor 101 may be a combination of two or more elements of CPU, MPU, DSP, ASIC, and PLD.

RAM102は、コンピュータ100の主記憶装置として使用される。RAM102には、プロセッサ101に実行させるOS(Operating System)のプログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、RAM102には、プロセッサ101による処理に必要な各種データが格納される。   The RAM 102 is used as a main storage device of the computer 100. The RAM 102 temporarily stores at least a part of an OS (Operating System) program and application programs to be executed by the processor 101. The RAM 102 stores various data necessary for processing by the processor 101.

バス109に接続されている周辺機器としては、HDD(Hard Disk Drive)103、グラフィック処理装置104、入力インタフェース105、光学ドライブ装置106、機器接続インタフェース107およびネットワークインタフェース108がある。   Peripheral devices connected to the bus 109 include an HDD (Hard Disk Drive) 103, a graphic processing device 104, an input interface 105, an optical drive device 106, a device connection interface 107, and a network interface 108.

HDD103は、内蔵したディスクに対して、磁気的にデータの書き込みおよび読み出しを行う。HDD103は、例えば、コンピュータ100の補助記憶装置として使用される。HDD103には、OSのプログラム、アプリケーションプログラム、および各種データが格納される。なお、補助記憶装置としては、フラッシュメモリなどの半導体記憶装置を使用することも出来る。   The HDD 103 magnetically writes and reads data to and from the built-in disk. The HDD 103 is used as an auxiliary storage device of the computer 100, for example. The HDD 103 stores an OS program, application programs, and various data. Note that a semiconductor storage device such as a flash memory can be used as the auxiliary storage device.

グラフィック処理装置104には、モニタ110が接続されている。グラフィック処理装置104は、プロセッサ101からの命令にしたがって、各種画像をモニタ110の画面に表示させる。モニタ110としては、CRT(Cathode Ray Tube)を用いた表示装置や液晶表示装置などがある。   A monitor 110 is connected to the graphic processing device 104. The graphic processing device 104 displays various images on the screen of the monitor 110 in accordance with instructions from the processor 101. Examples of the monitor 110 include a display device using a cathode ray tube (CRT) and a liquid crystal display device.

入力インタフェース105には、キーボード111とマウス112とが接続されている。入力インタフェース105は、キーボード111やマウス112から送られてくる信号をプロセッサ101に送信する。なお、マウス112は、ポインティングデバイスの一例であり、他のポインティングデバイスを使用することもできる。他のポインティングデバイスとしては、タッチパネル、タブレット、タッチパッド、トラックボールなどがある。   A keyboard 111 and a mouse 112 are connected to the input interface 105. The input interface 105 transmits signals sent from the keyboard 111 and the mouse 112 to the processor 101. Note that the mouse 112 is an example of a pointing device, and other pointing devices can also be used. Examples of other pointing devices include a touch panel, a tablet, a touch pad, and a trackball.

光学ドライブ装置106は、レーザ光などを利用して、光ディスク113に記録されたデータの読み取りを行う。光ディスク113は、光の反射によって読み取り可能なようにデータが記録された可搬型の記録媒体である。光ディスク113には、DVD(Digital Versatile Disc)、DVD−RAM、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)などがある。可搬型の記録媒体となる光ディスク113に格納されたプログラムは光学ドライブ装置106を介して画像処理装置1にインストールされる。インストールされた所定のプログラムは、画像処理装置1より実行可能となる。   The optical drive device 106 reads data recorded on the optical disk 113 using laser light or the like. The optical disk 113 is a portable recording medium on which data is recorded so that it can be read by reflection of light. Examples of the optical disc 113 include a DVD (Digital Versatile Disc), a DVD-RAM, a CD-ROM (Compact Disc Read Only Memory), and a CD-R (Recordable) / RW (ReWriteable). A program stored in the optical disk 113 serving as a portable recording medium is installed in the image processing apparatus 1 via the optical drive device 106. The installed predetermined program can be executed by the image processing apparatus 1.

機器接続インタフェース107は、コンピュータ100に周辺機器を接続するための通信インタフェースである。例えば、機器接続インタフェース107には、メモリ装置114やメモリリーダライタ115を接続することが出来る。メモリ装置114は、機器接続インタフェース107との通信機能を搭載した記録媒体である。メモリリーダライタ115は、メモリカード116へのデータの書き込み、またはメモリカード116からのデータの読み出しを行う装置である。メモリカード116は、カード型の記録媒体である。   The device connection interface 107 is a communication interface for connecting peripheral devices to the computer 100. For example, a memory device 114 or a memory reader / writer 115 can be connected to the device connection interface 107. The memory device 114 is a recording medium equipped with a communication function with the device connection interface 107. The memory reader / writer 115 is a device that writes data to the memory card 116 or reads data from the memory card 116. The memory card 116 is a card type recording medium.

ネットワークインタフェース108は、ネットワーク11に接続されている。ネットワークインタフェース108は、ネットワーク11を介して、他のコンピュータまたは通信機器との間でデータの送受信を行う。   The network interface 108 is connected to the network 11. The network interface 108 transmits and receives data to and from other computers or communication devices via the network 11.

コンピュータ100は、たとえば、コンピュータ読み取り可能な記録媒体に記録されたプログラムを実行することにより、上述した画像処理機能を実現する。コンピュータ100に実行させる処理内容を記述したプログラムは、様々な記録媒体に記録しておくことが出来る。上記プログラムは、1つのまたは複数の機能モジュールから構成することが出来る。例えば、図1または図8に記載の取得部2、認識部3、検知部4、算出部5、制御部6、推定部8の処理を実現させた機能モジュールからプログラムを構成することが出来る。なお、コンピュータ100に実行させるプログラムをHDD103に格納しておくことができる。プロセッサ101は、HDD103内のプログラムの少なくとも一部をRAM102にロードし、プログラムを実行する。また、コンピュータ100に実行させるプログラムを、光ディスク113、メモリ装置114、メモリカード116などの可搬型記録媒体に記録しておくことも出来る。可搬型記録媒体に格納されたプログラムは、例えば、プロセッサ101からの制御により、HDD103にインストールされた後、実行可能となる。またプロセッサ101が、可搬型記録媒体から直接プログラムを読み出して実行することも出来る。   The computer 100 implements the above-described image processing function by executing a program recorded on a computer-readable recording medium, for example. A program describing the processing contents to be executed by the computer 100 can be recorded in various recording media. The program can be composed of one or a plurality of functional modules. For example, a program can be comprised from the functional module which implement | achieved the process of the acquisition part 2, the recognition part 3, the detection part 4, the calculation part 5, the control part 6, and the estimation part 8 of FIG. 1 or FIG. Note that a program to be executed by the computer 100 can be stored in the HDD 103. The processor 101 loads at least a part of the program in the HDD 103 into the RAM 102 and executes the program. A program to be executed by the computer 100 can also be recorded on a portable recording medium such as the optical disc 113, the memory device 114, and the memory card 116. The program stored in the portable recording medium becomes executable after being installed in the HDD 103 under the control of the processor 101, for example. The processor 101 can also read and execute a program directly from a portable recording medium.

また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することが出来る。   In addition, each component of each illustrated apparatus does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. The various processes described in the above embodiments can be realized by executing a prepared program on a computer such as a personal computer or a workstation.

以上、説明した実施形態に関し、更に以下の付記を開示する。
(付記1)
表示情報を表示する表示部と、
前記表示情報と前記表示情報を表示する基準位置を規定するマーカを含む画像を取得する取得部と、
前記マーカに規定される前記表示情報と前記基準位置を認識する認識部と、
前記表示情報に対するユーザの操作領域を、前記表示情報の表示領域よりも広く制御する制御部と、
を備えることを特徴とする画像処理装置。
(付記2)
前記表示情報に対するユーザの選択動作の開始情報を算出する算出部を更に有し、
前記制御部は、前記開始情報に基づいて前記表示情報の操作領域を制御することを特徴とする付記1記載の画像処理装置。
(付記3)
前記制御部は、前記開始情報と前記画像における前記基準位置の移動量に基づいて前記操作領域を制御することを特徴とする付記2記載の画像処理装置。
(付記4)
前記開始情報は、前記移動量に基づいた前記選択動作の開始時刻を含み、
前記算出部は、前記開始時刻から前記選択動作の終了時刻までの選択動作時間を更に算出し、
前記制御部は、前記選択動作時間における前記移動量に基づいて前記操作領域を制御することを特徴とする付記3記載の画像処理装置。
(付記5)
前記制御部は、前記操作領域を、前記開始時刻における前記表示領域よりも広く制御することを特徴とする付記4記載の画像処理装置。
(付記6)
前記表示部に対する接触を検知する検知部を更に備え、
前記検知部は、前記接触を検知した検知位置と前記操作領域に基づいて、前記ユーザの前記表示情報への選択を検知することを特徴とする付記1ないし付記5の何れか一つに記載の画像処理装置。
(付記7)
前記開始時刻は、前記表示情報の第1表示位置が第1閾値範囲未満かつ第2閾値時間以上継続する閾値を満たした後に、前記第1閾値範囲以上の閾値を満たした時刻であり、
前記終了時刻は、前記検知部が前記接触を検知した時刻であることを特徴とする付記4ないし付記6の何れか一つに記載の画像処理装置。
(付記8)
前記制御部は、前記操作領域の制御として、前記選択動作時間における前記基準位置の最小座標と最大座標で規定される移動範囲に前記表示画像を重畳して表示させることを特徴とする付記4ないし付記7の何れか一つに記載の画像処理装置。
(付記9)
前記制御部は、前記操作領域の制御として、前記選択動作時間における前記基準位置の最小座標と最大座標で規定される移動範囲を前記操作領域と見做して制御することを特徴とする付記4ないし付記7の何れか一つに記載の画像処理装置。
(付記10)
前記制御部は、前記検知位置が前記表示領域以外の場合において、前記操作領域の制御として、前記終了時刻の次フレームにおける前記表示情報の第2表示位置を、前記開始時刻の前記表示画像の第1表示位置に切り替えて、前記表示情報を表示させることを特徴とする付記7ないし付記8の何れか一つに記載の画像処理装置。
(付記11)
前記認識部がマーカを認識しない場合に、前記選択動作時間における前記移動量を所定の近似処理または所定のフィルタ処理を用いて推定する推定部と、を更に備えることを特徴とする付記4ないし付記9の何れか一つに記載の画像処理装置。
(付記12)
前記操作領域は、前記表示情報の表示領域であることを特徴とする付記1ないし付記11の何れか一つに記載の画像処理装置。
(付記13)
前記ユーザの音声信号を取得するマイクを更に備え、
前記算出部は、前記音声信号を前記開始情報として算出することを特徴とする付記2記載の画像処理装置。
(付記14)
前記ユーザの動作信号を取得する加速度センサ、角速度センサ、または接触スイッチを更に備え、
前記算出部は、前記動作信号を前記開始情報として算出することを特徴とする付記2記載の画像処理装置。
(付記15)
前記選択動作を含む選択動作画像を撮像するカメラを更に備え、
前記算出部は、前記選択動作画像の処理結果に基づいて前記開始情報を算出することを特徴とする付記4記載の画像処理装置。
(付記16)
前記制御部は、前記開始情報に基づいて、前記表示情報の表示領域を拡大して表示させることを特徴とする付記2記載の画像処理装置。
(付記17)
前記制御部は、前記操作領域を、前記開始時刻における前記表示領域に固定する制御を行うことを特徴とする付記4記載の画像処理装置。
(付記18)
前記制御部は、前記終了時刻の検知位置が、前記開始時刻の前記基準位置と前記終了時刻の前記基準位置の何れが近い位置かを判断し、当該近い位置の基準位置に基づいて前記表示情報を表示することを特徴とする付記6に記載の画像処理装置。
(付記19)
前記制御部は、前記検知位置が前記表示領域以外かつ前記操作領域内の場合において、前記終了時刻の次フレームにおける前記表示情報の第2表示位置を、前記終了時刻の前記表示画像の表示位置に切り替えて、前記表示情報を表示させることを特徴とする付記6に記載の画像処理装置。
(付記20)
前記表示情報は、前記表示情報に関連付けられる付帯情報を含み、
前記制御部は、前記検知部が前記表示情報への選択を検知した場合に、前記付帯情報を表示させることを特徴とする付記6記載の画像処理装置。
(付記21)
表示情報を表示し、
前記表示情報と前記表示情報を表示する基準位置を規定するマーカを含む画像を取得し、
前記マーカに規定される前記表示情報と前記基準位置を認識し、
前記表示情報に対するユーザの操作領域を、前記表示情報の表示領域よりも広く制御すること、
を含むことを特徴とする画像処理方法。
(付記22)
コンピュータに、
表示情報を表示し、
前記表示情報と前記表示情報を表示する基準位置を規定するマーカを含む画像を取得し、
前記マーカに規定される前記表示情報と前記基準位置を認識し、
前記表示情報に対するユーザの操作領域を、前記表示情報の表示領域よりも広く制御すること、
を実行させることを特徴とする画像処理プログラム。
The following supplementary notes are further disclosed with respect to the embodiment described above.
(Appendix 1)
A display unit for displaying display information;
An acquisition unit that acquires an image including a marker that defines a reference position for displaying the display information and the display information;
A recognition unit for recognizing the display information and the reference position defined by the marker;
A control unit for controlling a user operation area for the display information wider than a display area of the display information;
An image processing apparatus comprising:
(Appendix 2)
A calculation unit that calculates start information of a user's selection operation for the display information;
The image processing apparatus according to claim 1, wherein the control unit controls an operation area of the display information based on the start information.
(Appendix 3)
The image processing apparatus according to claim 2, wherein the control unit controls the operation area based on the start information and a movement amount of the reference position in the image.
(Appendix 4)
The start information includes a start time of the selection operation based on the movement amount,
The calculation unit further calculates a selection operation time from the start time to an end time of the selection operation,
The image processing apparatus according to claim 3, wherein the control unit controls the operation area based on the movement amount in the selection operation time.
(Appendix 5)
The image processing apparatus according to claim 4, wherein the control unit controls the operation area to be wider than the display area at the start time.
(Appendix 6)
A detection unit for detecting contact with the display unit;
The said detection part detects the selection to the said display information of the said user based on the detection position and the said operation area | region which detected the said contact, The appendix 1 thru | or any one of the appendix 5 characterized by the above-mentioned Image processing device.
(Appendix 7)
The start time is a time when the first display position of the display information satisfies a threshold that is less than a first threshold range and continues for a second threshold time or more and then satisfies a threshold that is equal to or greater than the first threshold range.
The image processing apparatus according to any one of appendix 4 to appendix 6, wherein the end time is a time when the detection unit detects the contact.
(Appendix 8)
The control unit causes the display image to be superimposed and displayed on a moving range defined by the minimum coordinate and the maximum coordinate of the reference position in the selection operation time as control of the operation area. The image processing device according to any one of appendix 7.
(Appendix 9)
The control unit controls the operation area by considering a movement range defined by a minimum coordinate and a maximum coordinate of the reference position in the selection operation time as the operation area. Or the image processing device according to any one of Appendix 7.
(Appendix 10)
In the case where the detection position is other than the display area, the control unit controls the operation area as the second display position of the display information in the next frame of the end time, the second display position of the display image at the start time. The image processing apparatus according to any one of appendices 7 to 8, wherein the display information is displayed by switching to one display position.
(Appendix 11)
And an estimation unit that estimates the amount of movement during the selection operation time using a predetermined approximation process or a predetermined filter process when the recognition unit does not recognize a marker. The image processing apparatus according to any one of 9.
(Appendix 12)
The image processing apparatus according to any one of appendices 1 to 11, wherein the operation area is a display area for the display information.
(Appendix 13)
A microphone for acquiring the user's voice signal;
The image processing apparatus according to appendix 2, wherein the calculation unit calculates the audio signal as the start information.
(Appendix 14)
An acceleration sensor, an angular velocity sensor, or a contact switch for acquiring the user's operation signal;
The image processing apparatus according to claim 2, wherein the calculation unit calculates the operation signal as the start information.
(Appendix 15)
A camera that captures a selection operation image including the selection operation;
The image processing apparatus according to appendix 4, wherein the calculation unit calculates the start information based on a processing result of the selected action image.
(Appendix 16)
The image processing apparatus according to claim 2, wherein the control unit enlarges and displays a display area of the display information based on the start information.
(Appendix 17)
The image processing apparatus according to claim 4, wherein the control unit performs control to fix the operation area to the display area at the start time.
(Appendix 18)
The control unit determines whether the detection position of the end time is closer to the reference position of the start time or the reference position of the end time, and the display information is based on the reference position of the close position The image processing apparatus according to appendix 6, wherein:
(Appendix 19)
In the case where the detection position is outside the display area and in the operation area, the control unit changes the second display position of the display information in the next frame of the end time to the display position of the display image at the end time. The image processing apparatus according to appendix 6, wherein the display information is displayed by switching.
(Appendix 20)
The display information includes incidental information associated with the display information,
The image processing apparatus according to appendix 6, wherein the control unit displays the supplementary information when the detection unit detects selection of the display information.
(Appendix 21)
Display information,
Obtaining an image including a marker that defines a reference position for displaying the display information and the display information;
Recognizing the display information defined by the marker and the reference position;
Controlling the user's operation area for the display information wider than the display area of the display information;
An image processing method comprising:
(Appendix 22)
On the computer,
Display information,
Obtaining an image including a marker that defines a reference position for displaying the display information and the display information;
Recognizing the display information defined by the marker and the reference position;
Controlling the user's operation area for the display information wider than the display area of the display information;
An image processing program for executing

1 画像処理装置
2 取得部
3 認識部
4 検知部
5 算出部
6 制御部
7 表示部
8 推定部
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 2 Acquisition part 3 Recognition part 4 Detection part 5 Calculation part 6 Control part 7 Display part 8 Estimation part

Claims (14)

表示情報を表示する表示部と、
前記表示情報と前記表示情報を表示する基準位置を規定するマーカとを含む画像を取得する取得部と、
前記マーカに規定される前記表示情報と前記基準位置を認識する認識部と、
前記基準位置の移動量に基づいて、前記表示情報に対するユーザの選択動作の開始情報を算出する算出部と、
前記開始情報に基づいて、前記表示情報に対するユーザの操作領域を、前記表示情報の表示領域よりも広く制御する制御部と、
を備えることを特徴とする画像処理装置。
A display unit for displaying display information;
An acquisition unit that acquires an image including the display information and a marker that defines a reference position for displaying the display information;
A recognition unit for recognizing the display information and the reference position defined by the marker;
A calculation unit that calculates start information of a user's selection operation with respect to the display information based on a movement amount of the reference position ;
Based on the start information, a control unit that controls a user operation area for the display information wider than the display area of the display information;
An image processing apparatus comprising:
前記表示部に対する接触を検知することにより、前記ユーザの前記表示情報に対する選択動作を検知する検知部を更に備え、
前記制御部は、前記検知部が前記ユーザの前記表示情報に対する選択動作を検知した後に前記表示情報に対する前記ユーザの操作領域制御することを特徴とする請求項1記載の画像処理装置。
A detection unit for detecting a selection operation on the display information of the user by detecting contact with the display unit;
The image processing apparatus according to claim 1, wherein the control unit controls an operation area of the user for the display information after the detection unit detects a selection operation for the display information of the user.
前記制御部は、前記開始情報と前記画像における前記基準位置の移動量に基づいて前記操作領域を制御することを特徴とする請求項2記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the control unit controls the operation region based on the start information and an amount of movement of the reference position in the image. 前記開始情報は、前記移動量に基づいた前記選択動作の開始時刻を含み、
前記算出部は、前記開始時刻から前記選択動作の終了時刻までの選択動作時間を更に算出し、
前記制御部は、前記選択動作時間における前記移動量に基づいて前記操作領域を制御することを特徴とする請求項3記載の画像処理装置。
The start information includes a start time of the selection operation based on the movement amount,
The calculation unit further calculates a selection operation time from the start time to an end time of the selection operation,
The image processing apparatus according to claim 3, wherein the control unit controls the operation area based on the movement amount in the selection operation time.
前記制御部は、前記操作領域を、前記開始時刻における前記表示領域よりも広く制御することを特徴とする請求項4記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the control unit controls the operation area to be wider than the display area at the start time. 前記検知部は、前記接触を検知した検知位置と前記操作領域に基づいて、前記ユーザの前記表示情報に対する選択動作を検知することを特徴とする請求項4または請求項5記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the detection unit detects a selection operation for the display information of the user based on a detection position where the contact is detected and the operation region. 前記開始時刻は、前記表示情報の第1表示位置の変化量が第1閾値範囲未満である状態が第2閾値時間以上継続した後に、前記第1閾値範囲以上となった時刻であり、
前記終了時刻は、前記検知部が前記接触を検知した時刻であることを特徴とする請求項6記載の画像処理装置。
The start time is a time when the amount of change in the first display position of the display information is less than the first threshold range, and after the second threshold time or more has elapsed, becomes the first threshold range or more.
The image processing apparatus according to claim 6, wherein the end time is a time when the detection unit detects the contact.
前記制御部は、前記操作領域の制御として、前記選択動作時間における前記基準位置の最小座標と最大座標で規定される移動範囲に前記表示情報を重畳して表示させることを特徴とする請求項4ないし請求項7の何れか一項に記載の画像処理装置。   5. The control unit according to claim 4, wherein the control information is displayed by superimposing the display information on a movement range defined by a minimum coordinate and a maximum coordinate of the reference position in the selection operation time as control of the operation area. The image processing apparatus according to claim 7. 前記制御部は、前記操作領域の制御として、前記選択動作時間における前記基準位置の最小座標と最大座標で規定される移動範囲を前記操作領域と見做して制御することを特徴とする請求項4ないし請求項7の何れか一項に記載の画像処理装置。   2. The control unit according to claim 1, wherein as the operation area is controlled, a movement range defined by a minimum coordinate and a maximum coordinate of the reference position in the selection operation time is regarded as the operation area. The image processing apparatus according to any one of claims 4 to 7. 前記制御部は、前記検知位置が前記表示領域以外の場合において、前記操作領域の制御として、前記終了時刻の次フレームにおける前記表示情報の第2表示位置を、前記開始時刻の前記表示情報の第1表示位置に切り替えて、前記表示情報を表示させることを特徴とする請求項6または請求項7記載の画像処理装置。   In the case where the detection position is other than the display area, the control unit determines the second display position of the display information in the next frame of the end time as the control of the operation area, the second display position of the display information at the start time. The image processing apparatus according to claim 6, wherein the display information is displayed by switching to one display position. 前記認識部がマーカを認識しない場合に、前記選択動作時間における前記移動量を所定の近似処理または所定のフィルタ処理を用いて推定する推定部と、を更に備えることを特徴とする請求項4ないし請求項9の何れか一項に記載の画像処理装置。   5. The apparatus according to claim 4, further comprising: an estimation unit configured to estimate the movement amount during the selection operation time using a predetermined approximation process or a predetermined filter process when the recognition unit does not recognize a marker. The image processing apparatus according to claim 9. 前記操作領域は、前記表示情報の表示領域であることを特徴とする請求項1ないし請求項11の何れか一項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the operation area is a display area for the display information. 表示情報を表示し、
前記表示情報と前記表示情報を表示する基準位置を規定するマーカとを含む画像を取得し、
前記マーカに規定される前記表示情報と前記基準位置を認識し、
前記基準位置の移動量に基づいて、前記表示情報に対するユーザの選択動作の開始情報を算出し、
前記開始情報に基づいて、前記表示情報に対するユーザの操作領域を、前記表示情報の表示領域よりも広く制御すること、
を含むことを特徴とする画像処理方法。
Display information,
Obtaining an image including the display information and a marker defining a reference position for displaying the display information;
Recognizing the display information defined by the marker and the reference position;
Based on the amount of movement of the reference position, calculating start information of the user's selection operation for the display information,
Based on the start information, controlling a user operation area for the display information wider than the display area of the display information,
An image processing method comprising:
コンピュータに、
表示情報を表示し、
前記表示情報と前記表示情報を表示する基準位置を規定するマーカとを含む画像を取得し、
前記マーカに規定される前記表示情報と前記基準位置を認識し、
前記基準位置の移動量に基づいて、前記表示情報に対するユーザの選択動作の開始情報を算出し、
前記開始情報に基づいて、前記表示情報に対するユーザの操作領域を、前記表示情報の表示領域よりも広く制御すること、
を実行させることを特徴とする画像処理プログラム。
On the computer,
Display information,
Obtaining an image including the display information and a marker defining a reference position for displaying the display information;
Recognizing the display information defined by the marker and the reference position;
Based on the amount of movement of the reference position, calculating start information of the user's selection operation for the display information,
Based on the start information, controlling a user operation area for the display information wider than the display area of the display information,
An image processing program for executing
JP2013153074A 2013-07-23 2013-07-23 Image processing apparatus, image processing method, and image processing program Expired - Fee Related JP6244712B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013153074A JP6244712B2 (en) 2013-07-23 2013-07-23 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013153074A JP6244712B2 (en) 2013-07-23 2013-07-23 Image processing apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2015022730A JP2015022730A (en) 2015-02-02
JP6244712B2 true JP6244712B2 (en) 2017-12-13

Family

ID=52487071

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013153074A Expired - Fee Related JP6244712B2 (en) 2013-07-23 2013-07-23 Image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP6244712B2 (en)

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10269022A (en) * 1997-03-25 1998-10-09 Hitachi Ltd Portable information processor with communication function
JP4479962B2 (en) * 2005-02-25 2010-06-09 ソニー エリクソン モバイル コミュニケーションズ, エービー Input processing program, portable terminal device, and input processing method
JP4898586B2 (en) * 2007-07-25 2012-03-14 京セラミタ株式会社 Operating device and image forming apparatus
JP2009048245A (en) * 2007-08-14 2009-03-05 Konami Digital Entertainment:Kk Input reception device, area control method and program
JP4777449B2 (en) * 2009-06-01 2011-09-21 株式会社バンダイナムコゲームス Program, information storage medium and electronic device
JP2011175456A (en) * 2010-02-24 2011-09-08 Kyocera Mita Corp Operation apparatus and image forming apparatus
JP5257437B2 (en) * 2010-10-20 2013-08-07 コニカミノルタビジネステクノロジーズ株式会社 Method for operating portable terminal and processing device
JP5220157B2 (en) * 2011-04-01 2013-06-26 キヤノン株式会社 Information processing apparatus, control method therefor, program, and storage medium
JP2012226691A (en) * 2011-04-22 2012-11-15 Ntt Docomo Inc Display control device and display control method
JP5686690B2 (en) * 2011-07-22 2015-03-18 京セラドキュメントソリューションズ株式会社 Image forming system, portable terminal device, and program
JP5825921B2 (en) * 2011-08-10 2015-12-02 キヤノン株式会社 Display device and control method thereof
JP2013092952A (en) * 2011-10-27 2013-05-16 Sharp Corp Display device and display method for enhancing visibility

Also Published As

Publication number Publication date
JP2015022730A (en) 2015-02-02

Similar Documents

Publication Publication Date Title
US10456918B2 (en) Information processing apparatus, information processing method, and program
US9916043B2 (en) Information processing apparatus for recognizing user operation based on an image
US20140247964A1 (en) Information processing device, information processing method, and recording medium
KR101631011B1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
JP6256475B2 (en) Image processing apparatus, image processing method, and image processing program
US20160054859A1 (en) User interface apparatus and control method
US10249058B2 (en) Three-dimensional information restoration device, three-dimensional information restoration system, and three-dimensional information restoration method
US9348465B2 (en) Input method, input device, and storage medium
JP6344530B2 (en) Input device, input method, and program
JP6287382B2 (en) Gesture recognition device and method for controlling gesture recognition device
US20150227789A1 (en) Information processing apparatus, information processing method, and program
US10185399B2 (en) Image processing apparatus, non-transitory computer-readable recording medium, and image processing method
US20190180503A1 (en) Estimation apparatus, estimation method, and non-transitory computer-readable storage medium for storing estimation program
JP2017084307A (en) Information processing device, control method therefor, program, and recording medium
JP6244712B2 (en) Image processing apparatus, image processing method, and image processing program
KR101593950B1 (en) Apparatus for hand gesture based interface and pointing method using the same
JP6337530B2 (en) Image processing apparatus, image processing method, and image processing program
US10416814B2 (en) Information processing apparatus to display an image on a flat surface, method of controlling the same, and storage medium
JP6852612B2 (en) Display program, information processing device, and display method
US11176360B2 (en) Work skill supporting device and work skill supporting system
KR20190049349A (en) Method for recognizing user&#39;s touch on projection image and apparatus for performing the method
JP2019186698A (en) Image processing apparatus, processing method, and program
JP6342832B2 (en) Input device
JP6716897B2 (en) Operation detection method, operation detection device, and operation detection program
JP2018200527A (en) Information processing device, method, and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20160401

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171030

R150 Certificate of patent or registration of utility model

Ref document number: 6244712

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees