JP2015065612A - Image processing system, program, and display control method - Google Patents
Image processing system, program, and display control method Download PDFInfo
- Publication number
- JP2015065612A JP2015065612A JP2013199279A JP2013199279A JP2015065612A JP 2015065612 A JP2015065612 A JP 2015065612A JP 2013199279 A JP2013199279 A JP 2013199279A JP 2013199279 A JP2013199279 A JP 2013199279A JP 2015065612 A JP2015065612 A JP 2015065612A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- recognition
- display
- objects
- recognized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、画像処理装置、プログラム及び表示制御方法に関する。 The present invention relates to an image processing apparatus, a program, and a display control method.
近年、実空間に仮想物体が存在するかのように重畳させる拡張現実技術を用いた拡張現実感システム(AR(Augmented Reality:拡張現実)システム)が用いられるようになってきている。例えば、AR用のマーカや予め登録された物体等の特定の対象物を含む画像を撮影すると、撮像画像から対象物を認識し、認識された対象物の種類及び配置した位置に対応して、撮像画像中に仮想物体画像を合成して表示する拡張現実感システムが知られている。 In recent years, augmented reality systems (AR (Augmented Reality) systems) using augmented reality technology that superimposes virtual objects as if they exist in real space have come to be used. For example, when an image including a specific target object such as an AR marker or a pre-registered object is photographed, the target object is recognized from the captured image, and the type and position of the recognized target object An augmented reality system that synthesizes and displays a virtual object image in a captured image is known.
しかし、対象物の認識を用いた拡張現実感システムでは、表示したい仮想物体画像の種類の数だけ対象物が必要となる。そこで、例えば、特許文献1には、マーカ掲示用携帯端末に、複数種類のマーカと仮想物体画像とを対応付けて記憶させておき、ユーザにより選択されたマーカをマーカ掲示用携帯端末に表示することで、複数のマーカの印刷物等を持ち歩かなくても複数種類の仮想物体の中から表示する仮想物体を選択できるようにした技術が記載されている。
However, in the augmented reality system using the recognition of the target object, the target objects are required as many as the types of virtual object images to be displayed. Therefore, for example, in
しかしながら、特許文献1においても、同じのマーカを認識したときに表示される仮想物体画像は同じであり、他の表示をさせるためにはユーザが選択操作をして、マーカ掲示用携帯端末に表示させるマーカの種類を切り替える必要があった。
However, also in
本発明の課題は、撮像画像から認識した対象物に基づいて表示を行う場合に、同じの対象物を用いて異なる複数の表示ができるようにすることである。 An object of the present invention is to enable a plurality of different displays using the same object when performing display based on the object recognized from the captured image.
上記課題を解決するため、請求項1に記載の発明の画像処理装置は、
撮像手段と、
前記撮像手段により取得された撮像画像を表示する表示手段と、
前記表示手段の画面内に特定の対象物がフレームインしたことを認識するフレームイン認識手段と、
前記対象物のフレームインが認識された回数を記憶する記憶手段と、
前記記憶手段に記憶されている前記対象物のフレームインの認識回数に応じた所定の表示を前記表示手段に行わせる制御手段と、
を備える。
In order to solve the above problem, an image processing apparatus according to
Imaging means;
Display means for displaying a captured image acquired by the imaging means;
Frame-in recognition means for recognizing that a specific object has been framed in the screen of the display means;
Storage means for storing the number of times frame-in of the object is recognized;
Control means for causing the display means to perform a predetermined display according to the number of times frame-in is recognized of the object stored in the storage means;
Is provided.
本発明によれば、撮像画像から認識した対象物に基づいて表示を行う場合に、同じの対象物を用いて異なる複数の表示を行うことが可能となる。 According to the present invention, when display is performed based on an object recognized from a captured image, a plurality of different displays can be performed using the same object.
以下、添付図面を参照して本発明に係る好適な実施形態を詳細に説明する。なお、本発明は、図示例に限定されるものではない。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The present invention is not limited to the illustrated example.
[第1の実施形態]
<画像処理装置1の構成>
まず、第1の実施形態に係る画像処理装置1の構成について説明する。
画像処理装置1としては、例えば、スマートフォン、タブレット端末、ノートPC(Personal Computer)、ハンディターミナル等の移動型端末が適用可能である。
[First Embodiment]
<Configuration of
First, the configuration of the
As the
図1に、画像処理装置1の機能構成例を示す。図1に示すように、画像処理装置1は、CPU(Central Processing Unit)10、RAM(Random Access Memory)11、記憶部12、通信部13、表示部14、操作部15、カメラ16、現在時刻取得部17等を備えて構成され、各部はバス18により接続されている。
FIG. 1 shows a functional configuration example of the
CPU10は、記憶部12に記憶されているプログラムを読み出してRAM11のワークエリアに展開し、展開したプログラムに従って、後述する表示制御処理P1を始めとする各種処理を実行する。CPU10は、フレームイン認識手段、フレームアウト認識手段、制御手段として機能する。
The
RAM11は、揮発性のメモリであり、CPU10により実行される各種プログラムやこれら各種プログラムに係るデータ等を記憶するワークエリアを有する。
The
また、RAM11は、予め設定された特定の対象物Aのフレームインが認識された回数を記憶するための認識回数カウンタ111を有する。対象物Aは、例えば、ARマーカや特定の物体である。
ここで、フレームインとは、カメラ16により取得された撮像画像を表示部14の画面上に表示させている場合において、当該画面上に対象物がない状態から当該画面上に対象物が入ってくることをいう。フレームアウトとは、カメラ16により取得された撮像画像を表示部14の画面上に表示させている場合において、表示部14の画面上に表示されていた対象物が当該画面上からなくなる(出て行く)ことをいう。
In addition, the
Here, the term “frame-in” means that when a captured image acquired by the
記憶部12は、HDD(Hard Disk Drive)、半導体の不揮発性メモリ等により構成される。記憶部12には、例えば、図1に示すように、プログラム記憶部121、対象物記憶部122、設定情報記憶部123が設けられている。
The
プログラム記憶部121には、CPU10で実行されるシステムプログラムや各種処理プログラム、これらのプログラムの実行に必要なデータ等が記憶されている。例えば、プログラム記憶部121には、後述する表示制御処理P1を実行するためのプログラム等が記憶されている。これらのプログラムは、コンピュータ読み取り可能なプログラムコードの形態でプログラム記憶部121に格納されている。CPU10は、当該プログラムコードに従った動作を逐次実行する。
The
対象物記憶部122には、対象物Aの認識用データが記憶されている。対象物記憶部122に記憶される認識用データは、操作部15や通信部13によりユーザが設定、変更することが可能である。
対象物Aとしては、上述のように、ARマーカ、特定の物体等が適用可能である。対象物AがARマーカである場合、認識用データとしては、例えば、そのARマーカの画像パターンを示すパターンファイルが記憶される。対象物Aが特定の物体である場合、認識用データとしては、例えば、特定の物体の撮像画像が格納される。本実施形態においては、対象物AがARマーカである場合を例にとり説明する。
The
As the object A, as described above, an AR marker, a specific object, or the like can be applied. When the object A is an AR marker, for example, a pattern file indicating an image pattern of the AR marker is stored as the recognition data. When the target A is a specific object, for example, a captured image of the specific object is stored as the recognition data. In the present embodiment, a case where the object A is an AR marker will be described as an example.
設定情報記憶部123は、図2に示すように、対象物Aのフレームインの認識回数と、対象物Aのフレームインがその認識回数だけ認識されたときに表示部14に表示する内容を示す表示情報と、を対応付けて記憶する。設定情報記憶部123への情報の設定は、操作部15や通信部13によりユーザが設定可能である。
As shown in FIG. 2, the setting
通信部13は、LAN(Local Area Network)アダプタやルータ等により構成され、LAN等の通信ネットワークを介して外部装置と通信接続し、データ送受信を行う。
The
表示部14は、LCD(Liquid Crystal Display)等により構成され、CPU10からの表示制御信号に従って、画面上に各種表示を行う表示手段である。
The
操作部15は、カーソルキー、各種機能キー、シャッターキーを備え、ユーザによる各キーの押下入力を受け付けてその操作情報をCPU10に出力する。また、操作部15は、表示部14の表面を覆うように透明電極を格子状に配置したタッチパネル等を有し、手指やタッチペン等で押下された位置を検出し、その位置情報を操作情報としてCPU10に出力する。
The
カメラ16は、レンズ、絞り、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を備え、撮像素子上に被写体の光学像を結像し、その像を電気的な信号としてCPU10に出力する撮像手段である。
現在時刻取得部17は、RTC(Real Time Clock)等により構成され、現在日時を計測してCPU10に出力する。
The
The current
<画像処理装置1の動作>
次に、本実施形態における画像処理装置1の動作について説明する。
図3に、画像処理装置1によって実行される表示制御処理P1のフローチャートを示す。表示制御処理P1は、操作部15による実行指示に応じて、CPU10とプログラム記憶部121に記憶されているプログラムとの協働により実行される。
<Operation of
Next, the operation of the
FIG. 3 shows a flowchart of the display control process P1 executed by the
まず、CPU10は、認識回数カウンタ111をリセットする(ステップS10)。
次いで、CPU10は、カメラ16を起動させる(ステップS11)。なお、カメラ16の起動後、表示制御処理P1の実行中において、カメラ16は、所定時間毎に撮像画像を取得する。CPU10は、カメラ16により取得された撮像画像を現在時刻取得部17からの現在時刻と対応付けてRAM11に記憶するとともに、略リアルタイムで表示部14の画面上に表示させる。
First, the
Next, the
次いで、CPU10は、対象物Aのフレームインが認識されるのを待機する(ステップS12)。具体的には、CPU10は、カメラ16により所定時間毎に取得される撮像画像に対して順次画像処理による対象物認識処理を行う。対象物認識処理は、対象物AがARマーカである場合、公知のARマーカの認識処理と同様の手法により行うことができる。例えば、撮像画像から黒枠で囲まれた矩形領域を認識し、この黒枠で囲まれた領域内の画像パターンと、対象物記憶部122に記憶されている対象物Aの認識用データ(即ち、パターンファイル)とを比較し、一致率が所定の閾値以上である場合に、対象物Aを認識したと判断する。対象物Aが認識されていなかった状態から認識された状態となったときに、CPU10は、対象物Aがフレームインしたと認識する。
なお、対象物Aを特定の物体とした場合は、例えば、記憶部25に認識用データとして対象物Aの撮像画像をテンプレート画像として記憶しておき、対象物認識処理として、例えばテンプレートマッチングを行ってカメラ16により取得された撮像画像から対象物Aを認識することができる。
Next, the
When the target object A is a specific object, for example, a captured image of the target object A is stored as a template image in the storage unit 25 as recognition data, and for example, template matching is performed as the target object recognition process. Thus, the object A can be recognized from the captured image acquired by the
対象物Aのフレームインが認識されると(ステップS12;YES)、CPU10は、認識回数カウンタ111に1を加算する(ステップS13)。
When the frame-in of the object A is recognized (step S12; YES), the
次いで、CPU10は、認識回数カウンタ111の値と、設定情報記憶部123に記憶されている認識回数のそれぞれとを比較する(ステップS14)。
比較の結果、認識回数カウンタ111の値と、設定情報記憶部123に記憶されている認識回数とが一致していると判断した場合(ステップS15;YES)、CPU10は、設定情報記憶部123においてその一致した認識回数に対応付けて記憶されている表示情報に基づいて表示部14に表示を行わせ(ステップS16)、ステップS17に移行する。例えば、表示部14に対象物Aの認識回数に応じた仮想物体画像を表示させる。
比較の結果、認識回数カウンタ111の値と、設定情報記憶部123に記憶されている認識回数とが一致していないと判断した場合(ステップS15;NO)、CPU10は、ステップS17の処理に移行する。即ち、現在表示している情報の表示をそのまま継続させる。
Next, the
As a result of the comparison, when it is determined that the value of the
As a result of the comparison, when it is determined that the value of the
ステップS17において、CPU10は、対象物Aのフレームアウトが認識されるのを待機する(ステップS17)。この間、CPU10は、カメラ16により所定時間毎に取得される撮像画像に対し、上述の対象物認識処理を行い、対象物Aが認識されなくなった場合に、対象物Aがフレームアウトしたと認識する。
In step S17, the
対象物Aのフレームアウトが認識されると(ステップS17;YES)、CPU10は、内部クロックにより計時を開始する(ステップS18)。
When the frame out of the object A is recognized (step S17; YES), the
次いで、CPU10は、フレームアウト後の撮像画像に対し、対象物認識処理を行い、対象物Aのフレームインが認識されたか否かを判断する(ステップS19)。対象物Aのフレームインが認識されたと判断した場合(ステップS19;YES)、CPU10は、ステップS13の処理に戻り、ステップS13〜ステップS19の処理を繰り返し実行する。
Next, the
対象物Aのフレームインが認識されていないと判断した場合(ステップS19;NO)、CPU10は、計時開始から(即ち、フレームアウトしてから)所定時間が経過したか否かを判断する(ステップS20)。
計時開始から(即ち、フレームアウトしてから)所定時間が経過していないと判断した場合(ステップS20;NO)、処理はステップS19に戻る。
計時開始から(即ち、フレームアウトしてから)所定時間が経過したと判断した場合(ステップS20;YES)、CPU10は、RAM11に記憶されている撮像画像及び認識回数カウンタ111をリセット(消去)する(ステップS21)。これにより、初期状態となる。
When it is determined that the frame-in of the object A has not been recognized (step S19; NO), the
When it is determined that the predetermined time has not elapsed since the start of time measurement (that is, after frame out) (step S20; NO), the process returns to step S19.
When it is determined that a predetermined time has elapsed from the start of timing (that is, after frame out) (step S20; YES), the
操作部15から終了指示が入力されるまでステップS12〜ステップS21の処理が繰り返し実行される。操作部15から終了指示が入力されると(ステップS22;YES)、CPU10は、表示制御処理P1を終了する。
The processes in steps S12 to S21 are repeatedly executed until an end instruction is input from the
ここで、上記の表示制御処理P1による表示動作について、図4に具体例を挙げて説明する。
例えば、図4(a)に示す初期状態において、画像処理装置1を左に動かすと、図4(b)に示すように対象物Aがフレームインする。このとき、対象物Aのフレームインの認識回数は1回であり、これは設定情報記憶部123(図2参照)に記憶されている認識回数と一致しているので、認識回数1回に対応付けられている表示情報(ウサギ)に基づいて、表示部14にウサギの画像が表示される。
Here, the display operation by the display control process P1 will be described with reference to a specific example in FIG.
For example, in the initial state shown in FIG. 4A, when the
次に、画像処理装置1を右に動かすと、図4(c)に示すように、対象物Aが左からフレームアウトする。ここから画像処理装置1を左に動かすと、図4(d)に示すように対象物Aが左からフレームインする。このとき、対象物Aのフレームインの認識回数は2回であるが、認識回数2回のときの表示情報は設定情報記憶部123に設定されていないため、表示内容は変更されない。
Next, when the
次に、画像処理装置1を上に動かすと、図4(e)に示すように、対象物Aが下からフレームアウトする。ここから画像処理装置1を下に動かすと、図4(f)に示すように対象物Aが下からフレームインする。このとき、対象物Aのフレームインの認識回数は3回であり、これは設定情報記憶部123に記憶されている認識回数と一致しているので、設定情報記憶部123において認識回数3回に対応付けられている表示情報(ネコ)に基づいて、表示部14にネコの画像が表示される。
Next, when the
このように、第1の実施形態によれば、図5に示すように、画像処理装置1を上下左右に動かして対象物Aをフレームインさせると、フレームインが認識された回数に応じた所定の表示が行われる。従って、同じ対象物Aを用いて、画面からの入力操作を行うことなく異なる複数の表示を行わせることができ、利便性が向上する。
Thus, according to the first embodiment, as shown in FIG. 5, when the
[第2の実施形態]
次に、第2の実施形態について説明する。
第1の実施形態においては、1つの対象物のフレームインを認識した回数に基づいて表示制御を行う場合について説明したが、第2の実施形態においては、複数の対象物のそれぞれのフレームインを認識した回数に基づいて表示制御を行う場合について説明する。
[Second Embodiment]
Next, a second embodiment will be described.
In the first embodiment, the case where display control is performed based on the number of times frame-in of one object is recognized has been described. However, in the second embodiment, each frame-in of a plurality of objects is determined. A case where display control is performed based on the recognized number of times will be described.
第2の実施形態における画像処理装置1の構成は、第1の実施形態で図1を用いて説明したものと略同様であるが、認識回数カウンタ111の構成、プログラム記憶部121に記憶されているプログラムの内容、対象物記憶部122及び設定情報記憶部123の構成が第1の実施形態と異なる。
The configuration of the
認識回数カウンタ111は、2つの対象物A、Bのそれぞれのフレームインの認識回数を格納するための2つの認識回数カウンタを有している。
プログラム記憶部121には、CPU10が後述する表示制御処理P2をはじめとする各種処理を実行するためのプログラムやプログラムの実行に必要なデータが記憶されている。
対象物記憶部122には、2つの対象物A、Bのそれぞれの認識用データが記憶されている。
設定情報記憶部123には、図6に示すように、対象物A、Bのそれぞれのフレームインの認識回数と、対象物A、Bのフレームインがその認識回数だけ認識されたときに表示部14に表示する内容を示す表示情報と、を対応付けて記憶する。
その他の画像処理装置1の構成は、第1の実施形態で説明したものと同様であるので説明を援用する。
The
The
The
As shown in FIG. 6, the setting
Since the other configuration of the
次に、第2の実施形態の動作について説明する。
図7に、第2の実施形態において画像処理装置1により実行される表示制御処理P2のフローチャートを示す。表示制御処理P2は、操作部15による実行指示に応じて、CPU10とプログラム記憶部121に記憶されているプログラムとの協働により実行される。
Next, the operation of the second embodiment will be described.
FIG. 7 shows a flowchart of the display control process P2 executed by the
まず、CPU10は、認識回数カウンタ111をリセットする(ステップS30)。
次いで、CPU10は、カメラ16を起動させる(ステップS31)。なお、カメラ16の起動後、表示制御処理P2の実行中において、カメラ16は、所定時間毎に撮像画像を取得する。CPU10は、カメラ16により取得された撮像画像を現在時刻取得部17からの現在時刻と対応付けてRAM11に記憶するとともに、略リアルタイムで表示部14の画面上に表示させる。
First, the
Next, the
次いで、CPU10は、対象物A、Bの何れかのフレームインが認識されたか否かを判断する(ステップS32)。ステップS32の処理はステップS12と同様であるので説明を援用する。
Next, the
対象物A、Bの何れかのフレームインが認識されたと判断した場合(ステップS32;YES)、CPU10は、フレームインが認識された対象物に対応する認識回数カウンタ111に1を加算する(ステップS33)。
If it is determined that any frame-in of the objects A and B has been recognized (step S32; YES), the
次いで、CPU10は、対象物A、Bの認識回数カウンタ111の値と、設定情報記憶部123の各レコードに記憶されている対象物A、Bの認識回数とを比較する(ステップS34)。
比較の結果、対象物A、Bの認識回数カウンタ111の値と、設定情報記憶部123に記憶されている何れかのレコードの対象物A、Bの認識回数とがそれぞれ一致していると判断した場合(ステップS35;YES)、CPU10は、設定情報記憶部123においてその一致した対象物A、Bの認識回数に対応付けて記憶されている表示情報に基づいて、表示部14に表示を行わせ(ステップS36)、ステップS37の処理に移行する。例えば、表示部14に対象物A、Bの認識回数に応じた仮想物体画像を表示させる。
比較の結果、対象物A、Bの認識回数カウンタ111の値と、設定情報記憶部123に記憶されている対象物A、Bの認識回数とが一致していないと判断した場合(ステップS35;NO)、CPU10は、ステップS37の処理に移行する。即ち、現在表示している情報の表示をそのまま継続させる。
Next, the
As a result of the comparison, it is determined that the value of the
As a result of comparison, when it is determined that the value of the
ステップS37において、CPU10は、対象物A、Bの何れかのフレームアウトが認識されたか否かを判断する(ステップS37)。フレームアウトの認識は、図3のステップS17で説明したものと同様であるので説明を援用する。
対象物A、Bの何れかのフレームアウトが認識されたと判断した場合(ステップS37;YES)、CPU10は、ステップS39の処理に移行する。
対象物A、Bの何れのフレームアウトも認識されていないと判断した場合(ステップS37;NO)、CPU10は、ステップS32の処理に戻る。
In step S <b> 37, the
If it is determined that any frame out of the objects A and B has been recognized (step S37; YES), the
When it is determined that neither frame out of the objects A and B has been recognized (step S37; NO), the
ステップS32において、対象物A、Bの何れのフレームインも認識されず(ステップS32;NO)、対象物A、Bの何れかのフレームアウトが認識されたと判断した場合(ステップS38;YES)、CPU10は、ステップS39に移行する。 When it is determined in step S32 that neither frame-in of the objects A and B is recognized (step S32; NO) and any frame-out of the objects A and B is recognized (step S38; YES), CPU10 transfers to step S39.
ステップS39において、CPU10は、全ての対象物A、Bがフレームアウトした状態であるか否かを判断する(ステップS39)。全ての対象物A、Bがフレームアウトした状態ではないと判断した場合(ステップS39;NO)、CPU10は、ステップS32の処理に戻る。
全ての対象物A、Bがフレームアウトした状態であると判断した場合(ステップS39;YES)、CPU10は、内部クロックにより計時を開始する(ステップS40)。
In step S39, the
When it is determined that all the objects A and B are in a frame-out state (step S39; YES), the
次いで、CPU10は、フレームアウト後の撮像画像に対し、対象物認識処理を行い、対象物A、Bの何れかのフレームインが認識されたか否かを判断する(ステップS41)。対象物A、Bの何れかのフレームインが認識されたと判断した場合(ステップS41;YES)、CPU10は、ステップS33の処理に戻る。
Next, the
対象物A、Bの何れのフレームインも認識されていないと判断した場合(ステップS41;NO)、CPU10は、計時開始から(即ち、フレームアウトしてから)所定時間が経過したか否かを判断する(ステップS42)。
計時開始から(即ち、フレームアウトしてから)所定時間が経過していないと判断した場合(ステップS42;NO)、処理はステップS41に戻る。
計時開始から(即ち、フレームアウトしてから)所定時間が経過したと判断した場合(ステップS42;YES)、CPU10は、RAM11に記憶されている撮像画像及び認識回数カウンタ111をリセット(消去)する(ステップS43)。これにより、初期状態となる。
When it is determined that neither frame-in of the objects A and B has been recognized (step S41; NO), the
When it is determined that the predetermined time has not elapsed since the start of time measurement (that is, after frame out) (step S42; NO), the process returns to step S41.
When it is determined that a predetermined time has elapsed from the start of timing (that is, after frame out) (step S42; YES), the
操作部15から終了指示が入力されるまでステップS32〜ステップS43の処理が繰り返し実行される。操作部15から終了指示が入力されると(ステップS44;YES)、CPU10は、表示制御処理P2を終了する。
The processes in steps S32 to S43 are repeatedly executed until an end instruction is input from the
ここで、上記の表示制御処理P2による表示動作について、図8に具体例を挙げて説明する。なお、図8においては、フレームインした対象物を星形で囲んで示している(図12、図15、図18についても同様)。
例えば、図8(a)に示す初期状態において、画像処理装置1を左に動かすと、図8(b)に示すように対象物A、Bがそれぞれフレームインする。このとき、対象物Aのフレームインの認識回数は1回、対象物Bのフレームインの認識回数は1回であり、これは設定情報記憶部123(図6参照)に記憶されている認識回数と一致しているので、設定情報記憶部123において対象物Aの認識回数=1、対象物Bの認識回数=1に対応付けられている表示情報(ウサギ)に基づいて、表示部14にウサギの画像が表示される。
Here, the display operation by the display control process P2 will be described with reference to FIG. In FIG. 8, the framed-in object is surrounded by a star (the same applies to FIGS. 12, 15, and 18).
For example, when the
次に、画像処理装置1を右に動かすと、図8(c)に示すように、対象物A及び対象物Bがフレームアウトする。ここから画像処理装置1を左に動かすと、図8(d)に示すように対象物A及び対象物Bが左からフレームインする。このとき、対象物Aのフレームインの認識回数は2回、対象物Bのフレームインの認識回数は2回であり、これは設定情報記憶部123に記憶されている認識回数と一致しているので、設定情報記憶部123において対象物Aの認識回数=2、対象物Bの認識回数=2に対応付けられている表示情報(ネコ)に基づいて、表示部14にネコの画像が表示される。
Next, when the
このように、第2の実施形態によれば、図5に示すように、画像処理装置1を上下左右に動かして、対象物A、Bをフレームインさせると、それぞれのフレームインが認識された回数に応じた所定の表示が行われる。従って、同じ対象物A、Bを用いて、画面からの入力操作を行うことなく異なる複数の表示を行わせることができ、利便性が向上する。また、対象物を複数とすることで、対象物1つ当たりの認識回数を増やすことなく切り替え可能な表示の種類を増やすことができる。
Thus, according to the second embodiment, as shown in FIG. 5, when the
[第3の実施形態]
次に、第3の実施形態について説明する。
第2の実施形態においては、複数の対象物のそれぞれのフレームインが認識された回数のみに基づいて表示制御を行う場合について説明したが、第3の実施形態においては、複数の対象物のそれぞれのフレームインが認識された回数と、複数の対象物がフレームイン/フレームアウトした順序とに基づいて表示制御を行う場合について説明する。
[Third Embodiment]
Next, a third embodiment will be described.
In the second embodiment, the case where display control is performed based only on the number of times each frame-in of a plurality of objects has been recognized has been described. However, in the third embodiment, each of the plurality of objects. A case will be described in which display control is performed based on the number of times the frame-in is recognized and the order in which a plurality of objects are frame-in / frame-out.
第3の実施形態における画像処理装置1の構成は、第1の実施形態で図1を用いて説明したものと略同様であるが、RAM11の構成、プログラム記憶部121に記憶されているプログラムの内容、対象物記憶部122及び設定情報記憶部123の構成は、第1の実施形態と異なる。
The configuration of the
RAM11には、図9に示すように、認識回数カウンタ111の他、履歴記憶部112、認識回数メモリ113が設けられている。
認識回数カウンタ111は、第2の実施形態と同様、2つの対象物A、Bのそれぞれのフレームインの認識回数を格納するための2つの認識回数カウンタを有している。
履歴記憶部112は、対象物A、Bのフレームイン又はフレームアウトが認識されたときに、その履歴を記憶する。
認識回数メモリ113は、認識回数カウンタ111の値と設定情報記憶部123に設定されている認識回数とが一致したときの認識回数を格納しておくためのメモリである。
As shown in FIG. 9, the
Similar to the second embodiment, the
The
The
プログラム記憶部121には、CPU10が後述する表示制御処理P3をはじめとする各種処理を実行するためのプログラムやプログラムの実行に必要なデータが記憶されている。
対象物記憶部122には、第2の実施形態と同様、2つの対象物A、Bのそれぞれの認識用データが記憶されている。
設定情報記憶部123には、図10に示すように、対象物A、Bのそれぞれのフレームインの認識回数と、対象物A、Bのフレームインとフレームアウトの認識順序のパターン(認識パターンという)と、対象物A、Bのそれぞれがその認識回数だけ認識されかつ対象物A、Bのフレームインとフレームアウトが認識された順序が認識パターンに一致したときに表示部14に表示する内容を示す表示情報と、を対応付けて記憶する。なお、Ainは対象物Aがフレームインしたことを示し、Aoutは対象物Aがフレームアウトしたことを示す。Binは対象物Bがフレームインしたことを示し、Boutは対象物Bがフレームアウトしたことを示す。
その他の画像処理装置1の構成は、第1の実施形態で説明したものと同様であるので説明を援用する。
The
Similar to the second embodiment, the
In the setting
Since the other configuration of the
次に、第3の実施形態の動作について説明する。
図11に、第3の実施形態において画像処理装置1により実行される表示制御処理P3のフローチャートを示す。表示制御処理P3は、操作部15による実行指示に応じて、CPU10とプログラム記憶部121に記憶されているプログラムとの協働により実行される。
Next, the operation of the third embodiment will be described.
FIG. 11 shows a flowchart of the display control process P3 executed by the
まず、CPU10は、認識回数カウンタ111、履歴記憶部112、認識回数メモリ113をリセットする(ステップS50)。
次いで、CPU10は、カメラ16を起動させる(ステップS51)。なお、カメラ16の起動後、表示制御処理P3の実行中において、カメラ16は、所定時間毎に撮像画像を取得する。CPU10は、カメラ16により取得された撮像画像を現在時刻取得部17からの現在時刻と対応付けてRAM11に記憶するとともに、略リアルタイムで表示部14の画面上に表示させる。
First, the
Next, the
次いで、CPU10は、対象物A、Bの何れかのフレームインが認識されたか否かを判断する(ステップS52)。ステップS52の処理は図3のステップS12と同様であるので説明を援用する。
Next, the
対象物A、Bの何れかのフレームインが認識されたと判断した場合(ステップS52;YES)、CPU10は、その対象物のフレームインが認識されたことを示す履歴を履歴記憶部112に記憶するとともに(ステップS53)、その対象物に対応する認識回数カウンタ111に1を加算する(ステップS54)。
When it is determined that any frame-in of the object A or B has been recognized (step S52; YES), the
次いで、CPU10は、対象物A、Bの認識回数カウンタ111の値と、設定情報記憶部123の各レコードに記憶されている対象物A、Bの認識回数とを比較する(ステップS55)。
比較の結果、対象物A、Bの認識回数カウンタ111の値と、設定情報記憶部123に記憶されている何れかのレコードの対象物A、Bの認識回数とがそれぞれ一致していると判断した場合(ステップS56;YES)、CPU10は、履歴記憶部112に記憶されている履歴により特定される、対象物A、Bのフレームインとフレームアウトが認識された順序のパターンと、設定情報記憶部123において対象物A、Bの認識回数に対応付けて記憶されている認識パターンとを比較する(ステップS57)。
Next, the
As a result of the comparison, it is determined that the value of the
比較の結果、履歴記憶部112に記憶されている履歴による順序パターンと、設定情報記憶部123において対象物A、Bの認識回数に対応付けて記憶されている認識パターンとが一致すると判断した場合(ステップS58;YES)、CPU10は、設定情報記憶部123において対象物A、Bの認識回数及び認識パターンに対応付けて記憶されている表示情報に基づいて、表示部14に表示を行わせる(ステップS59)。そして、対象物A、Bの認識回数カウンタ111の値を認識回数メモリ113に格納し(ステップS60)、ステップS62の処理に移行する。
比較の結果、履歴記憶部112に記憶されている履歴による順序パターンと、設定情報記憶部123において対象物A、Bの認識回数に対応付けて記憶されている認識パターンとが一致しないと判断した場合(ステップS58;NO)、CPU10は、対象物A、Bの認識回数カウンタ111の値を認識回数メモリ113に格納し(ステップS60)、ステップS62の処理に移行する。
As a result of comparison, when it is determined that the order pattern based on the history stored in the
As a result of the comparison, it is determined that the order pattern based on the history stored in the
一方、ステップS56における比較の結果、対象物A、Bの認識回数カウンタ111の値と、設定情報記憶部123に設定されている対象物A、Bの認識回数とが一致していないと判断した場合(ステップS56;NO)、CPU10は、認識回数メモリ113をリセットし(ステップS61)、ステップS62の処理に移行する。
On the other hand, as a result of the comparison in step S56, it is determined that the value of the
ステップS62においては、CPU10は、対象物A、Bの何れかのフレームアウトが認識されたか否かを判断する(ステップS62)。フレームアウトの認識は、図3のステップS17で説明したものと同様であるので説明を援用する。
対象物A、Bの何れかのフレームアウトが認識されたと判断した場合(ステップS62;YES)、CPU10は、ステップS64の処理に移行する。
対象物A、Bの何れのフレームアウトも認識されていないと判断した場合(ステップS62;NO)、CPU10は、ステップS52の処理に戻る。
In step S62, the
If it is determined that any frame out of the objects A and B has been recognized (step S62; YES), the
When it is determined that neither frame out of the objects A and B has been recognized (step S62; NO), the
ステップS52において、対象物A、Bのフレームインが認識されず(ステップS52;NO)、対象物A、Bの何れかのフレームアウトが認識されたと判断した場合(ステップS63;YES)、CPU10は、ステップS64の処理に移行する。
In step S52, when it is determined that the frame-in of the objects A and B is not recognized (step S52; NO) and any frame-out of the objects A and B is recognized (step S63; YES), the
ステップS64において、CPU10は、対象物A、Bの何れかのフレームアウトが認識されたことを示す履歴を記憶する(ステップS64)。
次いで、CPU10は、認識回数メモリ113にデータが記憶されているか否かを判断する(ステップS65)。認識回数メモリ113にデータが記憶されている場合、対象物A、Bのフレームインの認識回数が設定情報記憶部123に記憶されている対象物A、Bの認識回数と一致していることを示す。
認識回数メモリ113にデータが記憶されていない場合(ステップS65;NO)、CPU10は、ステップS69の処理に移行する。
認識回数メモリ113にデータが記憶されていると判断した場合(ステップS65;YES)、CPU10は、履歴記憶部112に記憶されている履歴により特定される、対象物A、Bのフレームインとフレームアウトが認識された順序のパターンと、設定情報記憶部123において対象物A、Bの認識回数(認識回数メモリ113の回数)に対応付けて記憶されている認識パターンとを比較する(ステップS66)。
In step S64, the
Next, the
When data is not stored in the recognition number memory 113 (step S65; NO), the
When it is determined that data is stored in the recognition number memory 113 (step S65; YES), the
比較の結果、履歴記憶部112に記憶されている履歴による順序パターンと、設定情報記憶部123において対象物A、Bの認識回数に対応付けて記憶されている認識パターンとが一致すると判断した場合(ステップS67;YES)、CPU10は、設定情報記憶部123において対象物A、Bの認識回数及び認識パターンに対応付けて記憶されている表示情報に基づいて、表示部14に表示を行わせ(ステップS68)、ステップS69の処理に移行する。
比較の結果、履歴記憶部112に記憶されている履歴による順序パターンと、設定情報記憶部123において対象物A、Bの認識回数に対応付けて記憶されている認識パターンとが一致しないと判断した場合(ステップS67;NO)、CPU10は、ステップS69の処理に移行する。
As a result of comparison, when it is determined that the order pattern based on the history stored in the
As a result of the comparison, it is determined that the order pattern based on the history stored in the
ステップS69において、CPU10は、全ての対象物A、Bがフレームアウトした状態であるか否かを判断する(ステップS69)。全ての対象物A、Bがフレームアウトした状態ではないと判断した場合(ステップS69;NO)、CPU10は、ステップS52の処理に戻る。
全ての対象物A、Bがフレームアウトした状態であると判断した場合(ステップS69;YES)、ステップS70の処理に移行する。
ステップS70〜ステップS74の処理は、図7のステップS40〜44で説明したものと同様であるので説明を援用する。
In step S69, the
When it is determined that all the objects A and B are out of frame (step S69; YES), the process proceeds to step S70.
Since the process of step S70-step S74 is the same as that of what was demonstrated by step S40-44 of FIG. 7, description is used.
ここで、上記の表示制御処理P3による表示動作について、図12に具体例を挙げて説明する。
例えば、図12(a)に示す初期状態において、画像処理装置1を左に動かすと、図12(b)に示すように対象物Aがフレームインする。このとき、対象物Aのフレームインの認識回数は1回、対象物Bのフレームインの認識回数は0回であり、履歴記憶部112に記憶されている履歴は対象物Aのフレームイン(Ain)である。これらは、設定情報記憶部123(図10参照)に記憶されている認識回数及び認識パターンと一致しているので、対応する表示情報(ウサギ)に基づいて、表示部14にウサギの画像が表示される。
Here, the display operation by the display control process P3 will be described with reference to a specific example in FIG.
For example, when the
更に、画像処理装置1を左に動かすと、図12(c)に示すように、対象物Bもフレームインする。このとき、対象物Aのフレームインの認識回数は1回、対象物Bのフレームインの認識回数は1回となるが、この認識回数は設定情報記憶部123に設定されていないため、表示内容は変更されない。
Further, when the
更に、画像処理装置1を左に動かすと、図12(d)に示すように、対象物Aがフレームアウトする。このときの対象物Aのフレームインの認識回数は1回、対象物Bのフレームインの認識回数は1回であるが、この認識回数は設定情報記憶部123に設定されていないため、表示内容は変更されない。
Further, when the
ここで、画像処理装置1を右に動かすと、図12(e)に示すように、対象物Aがフレームインする。このとき、対象物Aのフレームインの認識回数は2回、対象物Bのフレームインの認識回数は1回であり、履歴記憶部112に記憶されている履歴は対象物Aのフレームイン→対象物Bのフレームイン→対象物Aのフレームアウト→対象物Aのフレームイン(Ain→Bin→Aout→Ain)である。これらは、設定情報記憶部123に記憶されている認識回数及び認識パターンと一致しているので、対応する表示情報(ネコ)に基づいて、表示部14にネコの画像が表示される。
Here, when the
このように、第3の実施形態によれば、図5に示すように、画像処理装置1を上下左右に動かして、対象物A、Bをフレームイン/フレームアウトさせると、対象物A、Bのそれぞれのフレームインが認識された回数及び対象物A、Bがフレームイン/フレームアウトした順序のパターンに応じた所定の表示が行われる。従って、同じ対象物A、Bを用いて、画面からの入力操作を行うことなく異なる複数の表示を行わせることができ、利便性が向上する。対象物を複数とすることで、対象物1つ当たりの認識回数を増やすことなく切り替え可能な表示の種類を増やすことができる。また、フレームインが認識された回数が同じでも、対象物A、Bがフレームイン/フレームアウトした順序のパターンによって異なる表示を行うことができるので、同じ認識回数に対して切り替え可能な表示の種類を増やすことができる。
Thus, according to the third embodiment, as illustrated in FIG. 5, when the
[第4の実施形態]
次に、第4の実施形態について説明する。
第4の実施形態においては、複数の対象物のそれぞれを認識した回数の合計に基づいて表示制御を行う場合について説明する。
[Fourth Embodiment]
Next, a fourth embodiment will be described.
In 4th Embodiment, the case where display control is performed based on the total of the frequency | count which recognized each of several target object is demonstrated.
第4の実施形態における画像処理装置1の構成は、第1の実施形態で図1を用いて説明したものと略同様であるが、認識回数カウンタ111の構成、プログラム記憶部121に記憶されているプログラムの内容、対象物記憶部122及び設定情報記憶部123の構成が第1の実施形態と異なる。
The configuration of the
認識回数カウンタ111は、第2の実施形態と同様に、2つの対象物A、Bのそれぞれのフレームインの認識回数を格納するための2つの認識回数カウンタを有している。
プログラム記憶部121には、CPU10が後述する表示制御処理P4をはじめとする各種処理を実行するためのプログラムやプログラムの実行に必要なデータが記憶されている。
対象物記憶部122には、第2の実施形態と同様に、2つの対象物A、Bのそれぞれの認識用データが記憶されている。
設定情報記憶部123は、図13に示すように、対象物A、Bのフレームインの認識回数の合計と、その合計のときに表示部14に表示する内容を示す表示情報と、を対応付けて記憶する。
その他の画像処理装置1の構成は、第1の実施形態で説明したものと同様であるので説明を援用する。
Similar to the second embodiment, the
The
Similar to the second embodiment, the
As illustrated in FIG. 13, the setting
Since the other configuration of the
次に、第4の実施形態の動作について説明する。
図14に、第4の実施形態において画像処理装置1により実行される表示制御処理P4のフローチャートを示す。表示制御処理P4は、操作部15による実行指示に応じて、CPU10とプログラム記憶部121に記憶されているプログラムとの協働により実行される。
Next, the operation of the fourth embodiment will be described.
FIG. 14 shows a flowchart of the display control process P4 executed by the
まず、CPU10は、認識回数カウンタ111をリセットする(ステップS80)。
次いで、CPU10は、カメラ16を起動させる(ステップS81)。なお、カメラ16の起動後、表示制御処理P4の実行中において、カメラ16は、所定時間毎に撮像画像を取得する。CPU10は、カメラ16により取得された撮像画像を現在時刻取得部17からの現在時刻と対応付けてRAM11に記憶するとともに、略リアルタイムで表示部14の画面上に表示させる。
First, the
Next, the
次いで、CPU10は、対象物A、Bの何れかのフレームインが認識されたか否かを判断する(ステップS82)。ステップS82の処理は図3のステップS12と同様であるので説明を援用する。
Next, the
対象物A、Bの何れかのフレームインが認識されたと判断した場合(ステップS82;YES)、CPU10は、フレームインが認識された対象物に対応する認識回数カウンタ111に1を加算する(ステップS83)。
When it is determined that any frame-in of the objects A and B has been recognized (step S82; YES), the
次いで、CPU10は、対象物A、Bの認識回数カウンタ111の値の合計を算出し(ステップS84)、算出した合計と、設定情報記憶部123の各レコードに記憶されている認識回数の合計とを比較する(ステップS85)。
Next, the
比較の結果、算出した合計と、設定情報記憶部123に記憶されている何れかのレコードの認識回数の合計とが一致していると判断した場合(ステップS86;YES)、CPU10は、設定情報記憶部123においてその認識回数の合計に対応付けて記憶されている表示情報に基づいて、表示部14に表示を行わせ(ステップS87)、ステップS88の処理に移行する。例えば、表示部14に対象物A、Bの認識回数の合計に応じた仮想物体画像を表示させる。
比較の結果、算出した合計と、設定情報記憶部123に記憶されている認識回数の合計とが一致していないと判断した場合(ステップS86;NO)、CPU10は、ステップS88の処理に移行する。即ち、現在表示している情報の表示をそのまま継続させる。
As a result of the comparison, when it is determined that the calculated total matches the total number of times of recognition of any record stored in the setting information storage unit 123 (step S86; YES), the
As a result of the comparison, when it is determined that the calculated total does not match the total number of recognition times stored in the setting information storage unit 123 (step S86; NO), the
ステップS88〜S95の処理は、図7のステップS37〜S44の処理と同様であるので説明を援用する。 Since the process of step S88-S95 is the same as the process of step S37-S44 of FIG. 7, description is used.
ここで、上記の表示制御処理P4による表示動作について、図15に具体例を挙げて説明する。
例えば、図15(a)に示す初期状態において、画像処理装置1を左に動かすと、図15(b)に示すように対象物Aがフレームインする。このとき、対象物Aのフレームインの認識回数は1回、対象物Bのフレームインの認識回数は0回であり、認識回数の合計は1回である。これは設定情報記憶部123(図13参照)に記憶されている認識回数の合計=1と一致しているので、認識回数の合計=1に対応付けられている表示情報(ウサギ)に基づいて、表示部14にウサギの画像が表示される。
Here, the display operation by the display control process P4 will be described with reference to a specific example in FIG.
For example, when the
次に、画像処理装置1を右に動かすと、図15(c)に示すように、対象物Aがフレームアウトする。ここから画像処理装置1を左に動かすと、図15(d)に示すように対象物Aがフレームインする。このとき、対象物Aのフレームインの認識回数は2回、対象物Bのフレームインの認識回数は0回であり、認識回数の合計は2回である。認識回数の合計=2回は設定情報記憶部123に記憶されていないので、表示は変化しない。
Next, when the
更に、画像処理装置1を左に動かすと、図15(e)に示すように、対象物Bがフレームインする。このとき、対象物Aのフレームインの認識回数は2回、対象物Bのフレームインの認識回数は1回であり、認識回数の合計は3回である。これは設定情報記憶部123(図13参照)に記憶されている認識回数の合計=3と一致しているので、認識回数の合計=3に対応付けられている表示情報(ネコ)に基づいて、表示部14にネコの画像が表示される。
Further, when the
このように、第4の実施形態によれば、図5に示すように、画像処理装置1を上下左右に動かして、対象物A、Bをフレームインさせると、それぞれのフレームインが認識された回数の合計に応じた所定の表示が行われる。従って、同じ対象物A、Bを用いて、画面からの入力操作を行うことなく異なる複数の表示を行わせることができ、利便性が向上する。
Thus, according to the fourth embodiment, as shown in FIG. 5, when the
[第5の実施形態]
次に、第5の実施形態について説明する。
第5の実施形態においては、複数の対象物のそれぞれを認識した回数の差に基づいて表示制御を行う場合について説明する。
[Fifth Embodiment]
Next, a fifth embodiment will be described.
In the fifth embodiment, a case will be described in which display control is performed based on the difference in the number of times each of a plurality of objects has been recognized.
第5の実施形態における画像処理装置1の構成は、第1の実施形態で図1を用いて説明したものと略同様であるが、認識回数カウンタ111の構成、プログラム記憶部121に記憶されているプログラムの内容、対象物記憶部122及び設定情報記憶部123の構成が第1の実施形態と異なる。
The configuration of the
認識回数カウンタ111は、第2の実施形態と同様に、2つの対象物A、Bのそれぞれのフレームインの認識回数を格納するための2つの認識回数カウンタを有している。
プログラム記憶部121には、CPU10が後述する表示制御処理P5をはじめとする各種処理を実行するためのプログラムやプログラムの実行に必要なデータが記憶されている。
対象物記憶部122には、第2の実施形態と同様に、2つの対象物A、Bのそれぞれの認識用データが記憶されている。
設定情報記憶部123は、図16に示すように、対象物A、Bのフレームインの認識回数の差と、その差のときに表示部14に表示する内容を示す表示情報と、を対応付けて記憶する。
その他の画像処理装置1の構成は、第1の実施形態で説明したものと同様であるので説明を援用する。
Similar to the second embodiment, the
The
Similar to the second embodiment, the
As shown in FIG. 16, the setting
Since the other configuration of the
次に、第5の実施形態の動作について説明する。
図17に、第5の実施形態において画像処理装置1により実行される表示制御処理P5のフローチャートを示す。表示制御処理P5は、操作部15による実行指示に応じて、CPU10とプログラム記憶部121に記憶されているプログラムとの協働により実行される。
Next, the operation of the fifth embodiment will be described.
FIG. 17 shows a flowchart of the display control process P5 executed by the
まず、CPU10は、認識回数カウンタ111をリセットする(ステップS100)。
次いで、CPU10は、カメラ16を起動させる(ステップS101)。なお、カメラ16の起動後、表示制御処理P5の実行中において、カメラ16は、所定時間毎に撮像画像を取得する。CPU10は、カメラ16により取得された撮像画像を現在時刻取得部17からの現在時刻と対応付けてRAM11に記憶するとともに、略リアルタイムで表示部14の画面上に表示させる。
First, the
Next, the
次いで、CPU10は、対象物A、Bの何れかのフレームインが認識されたか否かを判断する(ステップS102)。ステップS102の処理は図3のステップS12と同様であるので説明を援用する。
Next, the
対象物A、対象物Bの何れかのフレームインが認識されたと判断した場合(ステップS102;YES)、CPU10は、フレームインが認識された対象物に対応する認識回数カウンタ111に1を加算する(ステップS103)。
When it is determined that any frame-in of the object A or the object B has been recognized (step S102; YES), the
次いで、CPU10は、対象物A、Bの認識回数カウンタ111の値の差を算出し(ステップS104)、算出した差と、設定情報記憶部123に記憶されている各レコードの認識回数の差とを比較する(ステップS105)。
Next, the
比較の結果、算出した差と、設定情報記憶部123の何れかのレコードに記憶されている認識回数の差とが一致していると判断した場合(ステップS106;YES)、CPU10は、設定情報記憶部123において対象物A、Bの認識回数の差に対応付けて記憶されている表示情報に基づいて、表示部14に表示を行わせ(ステップS107)、ステップS108の処理に移行する。例えば、表示部14に対象物A、Bの認識回数の差に応じた仮想物体画像を表示させる。
比較の結果、算出した差と、設定情報記憶部123に記憶されている認識回数の差とが一致していないと判断した場合(ステップS106;NO)、CPU10は、ステップS108の処理に移行する。即ち、現在表示している情報の表示をそのまま継続させる。
As a result of the comparison, when it is determined that the calculated difference matches the difference in the number of times of recognition stored in any record of the setting information storage unit 123 (step S106; YES), the
As a result of the comparison, when it is determined that the calculated difference does not match the difference in the number of recognitions stored in the setting information storage unit 123 (step S106; NO), the
ステップS108〜S115の処理は、図7のステップS37〜S44の処理と同様であるので説明を援用する。 Since the process of step S108-S115 is the same as the process of step S37-S44 of FIG. 7, description is used.
ここで、上記の表示制御処理P5による表示動作について、図18に具体例を挙げて説明する。
例えば、図18(a)に示す初期状態において、画像処理装置1を左に動かすと、図18(b)に示すように対象物Aがフレームインする。このとき、対象物Aのフレームインの認識回数は1回、対象物Bのフレームインの認識回数は0回であり、認識回数の差は1回である。これは設定情報記憶部123(図16参照)に記憶されている認識回数の差=1と一致しているので、認識回数の差=1に対応付けられている表示情報(ウサギ)に基づいて、表示部14にウサギの画像が表示される。
Here, the display operation by the display control process P5 will be described with reference to a specific example in FIG.
For example, when the
次に、画像処理装置1を右に動かすと、図18(c)に示すように、対象物Aがフレームアウトする。次に、画像処理装置1を大きく左に動かすと、対象物A、Bがフレームインする。このとき、対象物Aのフレームインの認識回数は2回、対象物Bのフレームインの認識回数は1回であり、認識回数の差は1である。認識回数の差=1に対応付けられている表示情報は現在と変わらないため、表示は変化しない。
Next, when the
次に、画像処理装置1を上に動かすと、図18(e)に示すように、対象物Aがフレームアウトする。次に、画像処理装置1を下に動かすと、図18(f)に示すように、対象物Aがフレームインする。このとき、対象物Aのフレームインの認識回数は3回、対象物Bのフレームインの認識回数は1回であり、認識回数の差は2である。これは設定情報記憶部123(図16参照)に記憶されている認識回数の差=2と一致しているので、認識回数の差=2に対応付けられている表示情報(ネコ)に基づいて、表示部14にネコの画像が表示される。
Next, when the
このように、第5の実施形態によれば、図5に示すように、画像処理装置1を上下左右に動かして、対象物A、Bをフレームインさせると、それぞれのフレームインが認識された回数の差に応じた所定の表示が行われる。従って、同じ対象物A、Bを用いて、画面からの入力操作を行うことなく異なる複数の表示を行わせることができ、利便性が向上する。また、第5の実施形態では、対象物A、Bのフレームインの認識回数の差に応じた所定の表示に切り替えていたが、CPU10は、更に、対象物A,Bのどちらが多いかを検出し、認識回数の差及び検出された対象物に応じた所定の表示に切り替えてもよい。
Thus, according to the fifth embodiment, as shown in FIG. 5, when the
以上説明したように、画像処理装置1によれば、CPU10は、表示部14の画面内への対象物のフレームインの認識回数に応じた所定の表示を表示部14に行わせる。
従って、同じ対象物を用いて異なる複数の表示を行わせることが可能となる。
As described above, according to the
Therefore, a plurality of different displays can be performed using the same object.
また、対象物を複数とし、複数の対象物のそれぞれのフレームインの認識回数に応じた所定の表示を表示部14に行わせることで、対象物1つ当たりの認識回数を増やすことなく切り替え可能な表示の種類を増やすことができる。
In addition, it is possible to switch without increasing the number of recognitions per object by making the
また、複数の対象物のそれぞれのフレームインの認識回数の合計や差分に応じた所定の表示を表示部14に行わせることで、複数の対象物のフレームインの認識回数の合計や差を用いた表示の切り替えを行うことが可能となる。
In addition, by causing the
また、複数の対象物のそれぞれのフレームインの認識回数及び複数の対象物のフレームインとフレームアウトが認識された順序に応じた所定の表示を表示部14に行わせるようにすることで、同じ対象物の同じ認識回数に対しても切り替え可能な表示の種類を増やすことができる。
In addition, the same is achieved by causing the
対象物としては、ARマーカ又は予め設定された物体を用いることができる。 An AR marker or a preset object can be used as the object.
なお、上記実施形態における記述内容は、画像処理装置の好適な一例であり、これに限定されるものではない。 In addition, the description content in the said embodiment is a suitable example of an image processing apparatus, and is not limited to this.
例えば、上記各実施形態においては、表示制御に用いる対象物は1種類(第1の実施形態の場合)または1組(第2〜第5の実施形態)であることとして説明したが、対象物は複数種類または複数組あってもよい。この場合、設定情報記憶部123は、対象物の種類(組)毎に認識回数等及び認識回数等に応じた表示情報を記憶し、フレームインが認識された対象物の種類(組)に応じた設定情報を用いて表示制御処理が行われる。
For example, in each of the above embodiments, the object used for display control has been described as one type (in the case of the first embodiment) or one set (in the second to fifth embodiments). There may be a plurality of types or a plurality of sets. In this case, the setting
また、第2〜第5の実施形態においては、2つの対象物を用いる場合を例にとり説明したが、3以上の対象物を用いることとしてもよい。 In the second to fifth embodiments, the case where two objects are used has been described as an example, but three or more objects may be used.
また、上記各実施形態においては、対象物のフレームインの認識回数等に応じた所定の表示を行う場合を例にとり説明したが、対象物のフレームインの認識回数等に応じたアクション(動作)を画像処理装置1が行うこととしてもよい。即ち、設定情報記憶部123の表示情報の代わりに、画像処理装置1が行うアクションを対象物のフレームインの認識回数等に対応付けて記憶しておき、対象物のフレームインの認識回数等が設定情報記憶部123に記憶されている回数等と一致した場合に、認識回数等に応じたアクションを行うこととしてもよい。アクションとしては、例えば、改ページ、カメラ16による撮像、セキュリティーロックの解除等、画面のタップやボタン操作に応じて実行可能な動作の何れとしてもよい。このようにすれば、画面からの入力操作を行うことなく装置を動作させることができ、利便性が向上する。
Further, in each of the above embodiments, the case where a predetermined display according to the number of times of recognition of the target object frame-in has been described as an example, but the action (operation) according to the number of times of recognition of the target object frame-in, etc. May be performed by the
また、例えば、上記実施形態においては、画像処理装置1がスマートフォン等の手に持つタイプの移動型端末である場合を例にとり説明したが、眼鏡型HMD(Head Mounted Display)等であってもよい。この場合、図19に示すように、首振り動作でマーカのフレームイン、フレームアウトを行うことができるので、ハンズフリーで表示部14への表示を切り替えることが可能となる。
Further, for example, in the above-described embodiment, the case where the
また、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。 Also, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory, a portable recording medium such as a CD-ROM, in addition to a ROM, a hard disk, etc. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.
その他、画像処理装置を構成する各装置の細部構成及び細部動作に関しても、発明の趣旨を逸脱することのない範囲で適宜変更可能である。 In addition, the detailed configuration and detailed operation of each apparatus constituting the image processing apparatus can be changed as appropriate without departing from the spirit of the invention.
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
[付記]
<請求項1>
撮像手段と、
前記撮像手段により取得された撮像画像を表示する表示手段と、
前記表示手段の画面内に特定の対象物がフレームインしたことを認識するフレームイン認識手段と、
前記対象物のフレームインが認識された回数を記憶する記憶手段と、
前記記憶手段に記憶されている前記対象物のフレームインの認識回数に応じた所定の表示を前記表示手段に行わせる制御手段と、
を備える画像処理装置。
<請求項2>
前記対象物は複数の対象物であり、
前記記憶手段は、前記複数の対象物のそれぞれのフレームインが認識された回数を記憶し、
前記制御手段は、前記記憶手段に記憶されている前記複数の対象物のそれぞれのフレームインの認識回数に応じた所定の表示を前記表示手段に行わせる請求項1に記載の画像処理装置。
<請求項3>
前記制御手段は、前記記憶手段に記憶されている前記複数の対象物のそれぞれのフレームインの認識回数の合計に応じた所定の表示を前記表示手段に行わせる請求項2に記載の画像処理装置。
<請求項4>
前記対象物は2つの対象物であり、
前記制御手段は、前記記憶手段に記憶されている前記2つの対象物のそれぞれのフレームインの認識回数の差に応じた所定の表示を前記表示手段に行わせる請求項2に記載の画像処理装置。
<請求項5>
前記2つの対象物の内、フレームインの認識回数の多い対象物を検出する多認識回数検出手段を備え、
前記制御手段は、前記2つの対象物のそれぞれのフレームインの認識回数の差及び前記多認識回数検出手段によって検出された対象物に応じた所定の表示を前記表示手段に行わせる請求項4に記載の画像処理装置。
<請求項6>
前記表示手段の画面から前記対象物がフレームアウトしたことを認識するフレームアウト認識手段を備え、
前記記憶手段は、更に、前記複数の対象物のそれぞれについてフレームイン又はフレームアウトが認識されたときに、その履歴を記憶し、
前記制御手段は、前記記憶手段に記憶されている前記複数の対象物のそれぞれのフレームインの認識回数及び前記記憶手段に記憶されている前記履歴により特定される前記複数の対象物のフレームインとフレームアウトが認識された順序に応じた所定の表示を前記表示手段に行わせる請求項2に記載の画像処理装置。
<請求項7>
前記対象物は、ARマーカ又は予め設定された物体である請求項1〜6の何れか一項に記載の画像処理装置。
<請求項8>
撮像手段と、前記撮像手段により取得された撮像画像を表示する表示手段とを備えるコンピュータを、
前記表示手段の画面内に特定の対象物がフレームインしたことを認識するフレームイン認識手段、
前記対象物のフレームインが認識された回数を記憶する記憶手段、
前記記憶手段に記憶されている前記対象物のフレームインの認識回数に応じた所定の表示を前記表示手段に行わせる制御手段、
として機能させるためのプログラム。
<請求項9>
撮像手段と、前記撮像手段により取得された撮像画像を表示する表示手段とを備える画像処理装置における表示制御方法であって、
前記表示手段の画面内に特定の対象物がフレームインしたことを認識する工程と、
前記対象物のフレームインが認識された回数を記憶手段に記憶する工程と、
前記記憶手段に記憶されている前記対象物のフレームインの認識回数に応じた所定の表示を前記表示手段に行わせる工程と、
を含む表示制御方法。
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
Imaging means;
Display means for displaying a captured image acquired by the imaging means;
Frame-in recognition means for recognizing that a specific object has been framed in the screen of the display means;
Storage means for storing the number of times frame-in of the object is recognized;
Control means for causing the display means to perform a predetermined display according to the number of times frame-in is recognized of the object stored in the storage means;
An image processing apparatus comprising:
<Claim 2>
The object is a plurality of objects;
The storage means stores the number of times each frame-in of the plurality of objects is recognized,
The image processing apparatus according to
<Claim 3>
The image processing apparatus according to
<Claim 4>
The object is two objects,
The image processing apparatus according to
<Claim 5>
A multi-recognition number detecting means for detecting an object having a large number of frame-in recognition times out of the two objects,
5. The control unit according to
<Claim 6>
A frame-out recognizing means for recognizing that the object is out of frame from the screen of the display means;
The storage means further stores the history when frame-in or frame-out is recognized for each of the plurality of objects.
The control means includes the number of frame-in recognitions of each of the plurality of objects stored in the storage means and the frame-in of the plurality of objects specified by the history stored in the storage means. The image processing apparatus according to
<Claim 7>
The image processing apparatus according to
<Claim 8>
A computer comprising imaging means and display means for displaying a captured image acquired by the imaging means;
Frame-in recognition means for recognizing that a specific object has been framed in the screen of the display means;
Storage means for storing the number of times frame-in of the object is recognized;
Control means for causing the display means to perform a predetermined display according to the number of times of recognition of the object frame-in stored in the storage means;
Program to function as.
<Claim 9>
A display control method in an image processing apparatus comprising: an imaging unit; and a display unit that displays a captured image acquired by the imaging unit,
Recognizing that a specific object is framed in the screen of the display means;
Storing the number of times frame-in of the object is recognized in a storage means;
A step of causing the display means to perform a predetermined display according to the number of times of recognition of the frame-in of the object stored in the storage means;
A display control method including:
1 画像処理装置
10 CPU
11 RAM
111 認識回数カウンタ
112 履歴記憶部
113 認識回数メモリ
12 記憶部
121 プログラム記憶部
122 対象物記憶部
123 設定情報記憶部
13 通信部
14 表示部
15 操作部
16 カメラ
17 現在時刻取得部
18 バス
1
11 RAM
111
Claims (9)
前記撮像手段により取得された撮像画像を表示する表示手段と、
前記表示手段の画面内に特定の対象物がフレームインしたことを認識するフレームイン認識手段と、
前記対象物のフレームインが認識された回数を記憶する記憶手段と、
前記記憶手段に記憶されている前記対象物のフレームインの認識回数に応じた所定の表示を前記表示手段に行わせる制御手段と、
を備える画像処理装置。 Imaging means;
Display means for displaying a captured image acquired by the imaging means;
Frame-in recognition means for recognizing that a specific object has been framed in the screen of the display means;
Storage means for storing the number of times frame-in of the object is recognized;
Control means for causing the display means to perform a predetermined display according to the number of times frame-in is recognized of the object stored in the storage means;
An image processing apparatus comprising:
前記記憶手段は、前記複数の対象物のそれぞれのフレームインが認識された回数を記憶し、
前記制御手段は、前記記憶手段に記憶されている前記複数の対象物のそれぞれのフレームインの認識回数に応じた所定の表示を前記表示手段に行わせる請求項1に記載の画像処理装置。 The object is a plurality of objects;
The storage means stores the number of times each frame-in of the plurality of objects is recognized,
The image processing apparatus according to claim 1, wherein the control unit causes the display unit to perform a predetermined display according to the number of times of recognition of each of the plurality of objects stored in the storage unit.
前記制御手段は、前記記憶手段に記憶されている前記2つの対象物のそれぞれのフレームインの認識回数の差に応じた所定の表示を前記表示手段に行わせる請求項2に記載の画像処理装置。 The object is two objects,
The image processing apparatus according to claim 2, wherein the control unit causes the display unit to perform a predetermined display according to a difference in the number of times of recognition of each of the two objects stored in the storage unit. .
前記制御手段は、前記2つの対象物のそれぞれのフレームインの認識回数の差及び前記多認識回数検出手段によって検出された対象物に応じた所定の表示を前記表示手段に行わせる請求項4に記載の画像処理装置。 A multi-recognition number detecting means for detecting an object having a large number of frame-in recognition times out of the two objects,
5. The control unit according to claim 4, wherein the display unit causes the display unit to perform a predetermined display according to a difference in the number of times the frame-in is recognized between the two objects and the object detected by the multi-recognition number detection unit. The image processing apparatus described.
前記記憶手段は、更に、前記複数の対象物のそれぞれについてフレームイン又はフレームアウトが認識されたときに、その履歴を記憶し、
前記制御手段は、前記記憶手段に記憶されている前記複数の対象物のそれぞれのフレームインの認識回数及び前記記憶手段に記憶されている前記履歴により特定される前記複数の対象物のフレームインとフレームアウトが認識された順序に応じた所定の表示を前記表示手段に行わせる請求項2に記載の画像処理装置。 A frame-out recognizing means for recognizing that the object is out of frame from the screen of the display means;
The storage means further stores the history when frame-in or frame-out is recognized for each of the plurality of objects.
The control means includes the number of frame-in recognitions of each of the plurality of objects stored in the storage means and the frame-in of the plurality of objects specified by the history stored in the storage means. The image processing apparatus according to claim 2, wherein the display unit performs predetermined display according to an order in which frame-out is recognized.
前記表示手段の画面内に特定の対象物がフレームインしたことを認識するフレームイン認識手段、
前記対象物のフレームインが認識された回数を記憶する記憶手段、
前記記憶手段に記憶されている前記対象物のフレームインの認識回数に応じた所定の表示を前記表示手段に行わせる制御手段、
として機能させるためのプログラム。 A computer comprising imaging means and display means for displaying a captured image acquired by the imaging means;
Frame-in recognition means for recognizing that a specific object has been framed in the screen of the display means;
Storage means for storing the number of times frame-in of the object is recognized;
Control means for causing the display means to perform a predetermined display according to the number of times of recognition of the object frame-in stored in the storage means;
Program to function as.
前記表示手段の画面内に特定の対象物がフレームインしたことを認識する工程と、
前記対象物のフレームインが認識された回数を記憶手段に記憶する工程と、
前記記憶手段に記憶されている前記対象物のフレームインの認識回数に応じた所定の表示を前記表示手段に行わせる工程と、
を含む表示制御方法。 A display control method in an image processing apparatus comprising: an imaging unit; and a display unit that displays a captured image acquired by the imaging unit,
Recognizing that a specific object is framed in the screen of the display means;
Storing the number of times frame-in of the object is recognized in a storage means;
A step of causing the display means to perform a predetermined display according to the number of times of recognition of the frame-in of the object stored in the storage means;
A display control method including:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013199279A JP6318519B2 (en) | 2013-09-26 | 2013-09-26 | Image processing apparatus, program, and control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013199279A JP6318519B2 (en) | 2013-09-26 | 2013-09-26 | Image processing apparatus, program, and control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015065612A true JP2015065612A (en) | 2015-04-09 |
JP6318519B2 JP6318519B2 (en) | 2018-05-09 |
Family
ID=52833127
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013199279A Active JP6318519B2 (en) | 2013-09-26 | 2013-09-26 | Image processing apparatus, program, and control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6318519B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11283197A (en) * | 1998-03-31 | 1999-10-15 | Ntt Power And Building Facilities Inc | Method and device for displaying number of cars in parking lot |
JP2008065807A (en) * | 2006-08-11 | 2008-03-21 | Canon Inc | Marker arrangement information measurement unit and method |
JP2008249407A (en) * | 2007-03-29 | 2008-10-16 | Canon Inc | Image processing device and image processing method |
JP2011101161A (en) * | 2009-11-05 | 2011-05-19 | Canon Inc | Imaging device, control method of the same, reproducing device, and program |
JP2012100082A (en) * | 2010-11-02 | 2012-05-24 | Canon Inc | Image processing device, image processing method, and program |
JP2013070868A (en) * | 2011-09-28 | 2013-04-22 | Daikoku Denki Co Ltd | Portable game terminal and game program |
JP2014215646A (en) * | 2013-04-22 | 2014-11-17 | 富士通株式会社 | Display control device, display control method, information setting device, information setting method, and information providing system |
-
2013
- 2013-09-26 JP JP2013199279A patent/JP6318519B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11283197A (en) * | 1998-03-31 | 1999-10-15 | Ntt Power And Building Facilities Inc | Method and device for displaying number of cars in parking lot |
JP2008065807A (en) * | 2006-08-11 | 2008-03-21 | Canon Inc | Marker arrangement information measurement unit and method |
JP2008249407A (en) * | 2007-03-29 | 2008-10-16 | Canon Inc | Image processing device and image processing method |
JP2011101161A (en) * | 2009-11-05 | 2011-05-19 | Canon Inc | Imaging device, control method of the same, reproducing device, and program |
JP2012100082A (en) * | 2010-11-02 | 2012-05-24 | Canon Inc | Image processing device, image processing method, and program |
JP2013070868A (en) * | 2011-09-28 | 2013-04-22 | Daikoku Denki Co Ltd | Portable game terminal and game program |
JP2014215646A (en) * | 2013-04-22 | 2014-11-17 | 富士通株式会社 | Display control device, display control method, information setting device, information setting method, and information providing system |
Also Published As
Publication number | Publication date |
---|---|
JP6318519B2 (en) | 2018-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9998651B2 (en) | Image processing apparatus and image processing method | |
US10115015B2 (en) | Method for recognizing a specific object inside an image and electronic device thereof | |
US11158057B2 (en) | Device, method, and graphical user interface for processing document | |
US20190045130A1 (en) | Image display apparatus and image display method | |
JP5962403B2 (en) | Information processing apparatus, display control method, and program | |
CN109684980B (en) | Automatic scoring method and device | |
KR20190092995A (en) | Terminal and image processing method thereof | |
TWI633499B (en) | Method and electronic device for displaying panoramic image | |
JP2016143919A (en) | Image processing apparatus and control method therefor | |
EP2897354B1 (en) | Method for setting image capture conditions and electronic device performing the same | |
CN106462567A (en) | Augmented data view | |
US20160334975A1 (en) | Information processing device, non-transitory computer-readable recording medium storing an information processing program, and information processing method | |
CN106815809B (en) | Picture processing method and device | |
CN112911147A (en) | Display control method, display control device and electronic equipment | |
JP2013054542A (en) | Image display device, image display system, and program | |
WO2015003493A1 (en) | Data recovery method and electronic device | |
KR20050098499A (en) | Method of displaying for finger image in wireless communication terminal | |
KR102303206B1 (en) | Method and apparatus for recognizing object of image in electronic device | |
JP6255731B2 (en) | Display system, display method, and display terminal | |
JP6155893B2 (en) | Image processing apparatus and program | |
JP6628116B2 (en) | Electronics | |
JP6318519B2 (en) | Image processing apparatus, program, and control method | |
WO2017215211A1 (en) | Picture display method based on intelligent terminal having touch screen, and electronic apparatus | |
JP6369604B2 (en) | Image processing apparatus, image processing method, and program | |
CN112765620A (en) | Display control method, display control device, electronic device, and medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160829 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170606 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170704 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180306 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180319 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6318519 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |