JP2018106481A - Display device, display controlling device and program - Google Patents

Display device, display controlling device and program Download PDF

Info

Publication number
JP2018106481A
JP2018106481A JP2016253009A JP2016253009A JP2018106481A JP 2018106481 A JP2018106481 A JP 2018106481A JP 2016253009 A JP2016253009 A JP 2016253009A JP 2016253009 A JP2016253009 A JP 2016253009A JP 2018106481 A JP2018106481 A JP 2018106481A
Authority
JP
Japan
Prior art keywords
search
image
display
unit
augmented reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016253009A
Other languages
Japanese (ja)
Inventor
智弘 小川
Tomohiro Ogawa
智弘 小川
俊文 坂井
Toshibumi Sakai
俊文 坂井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016253009A priority Critical patent/JP2018106481A/en
Publication of JP2018106481A publication Critical patent/JP2018106481A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a display device, a display controlling device and a program that have an excellent usability.SOLUTION: A display device 1 according to the present invention includes: an imaging unit 110 that images an object; a specifying unit 130 that specifies positions of multiple search subjects in a motion image imaged by the imaging unit 110; and a display unit 140 that displays multiple augmented reality image so as to allow a user to identify each of the multiple search subjects from the imaged object on the basis of the respective positions of the multiple search subjects specified by the specifying unit 130.SELECTED DRAWING: Figure 3

Description

本発明は、被写体を撮影した画像の表示を行う表示装置、表示制御装置およびプログラムに関する。   The present invention relates to a display device, a display control device, and a program for displaying an image obtained by photographing a subject.

従来、この種の技術として、特許文献1が知られている。特許文献1には、携帯端末で文字を撮影し、その文字に対応する文字コードを取得する際に、撮影対象となる文字列を見失わないようにするため、直前に撮影した文字列を強調表示する技術が開示されている。この強調表示は、拡張現実表示と称され、近年、ゲーム機やスマートフォンなどで広く利用されている。   Conventionally, patent document 1 is known as this kind of technique. In Patent Literature 1, when a character is photographed with a mobile terminal and a character code corresponding to the character is acquired, the character string photographed immediately before is highlighted so that the character string to be photographed is not lost. Techniques to do this are disclosed. This highlighting is called augmented reality display and has been widely used in game machines and smartphones in recent years.

特開2006−209599号公報JP 2006-209599 A

ところで、特許文献1の使い勝手はさらなる改善の余地があった。   Incidentally, the usability of Patent Document 1 has room for further improvement.

本発明は、より使い勝手のよい表示装置、表示制御装置およびプログラムを提供することを目的とする。   It is an object of the present invention to provide a display device, a display control device, and a program that are easier to use.

本発明の表示装置は、被写体を撮影する撮影部と、撮影部により撮影された画像に写っている検索対象の位置を特定する特定部と、特定部により特定された検索対象の位置に基づいて、ユーザーが検索対象を被写体のなかから識別できるように、拡張現実画像を表示する表示部と、を備えることを特徴とする。   The display device according to the present invention is based on an imaging unit that captures a subject, a specifying unit that specifies a position of a search target in an image captured by the imaging unit, and a position of the search target specified by the specifying unit. A display unit for displaying an augmented reality image so that the user can identify the search target from among the subjects.

本発明の構成によれば、被写体を撮影した画像に写っている検索対象の位置を特定し、その特定結果に基づいて拡張現実画像を表示するため、ユーザーは、被写体のなかから検索対象を容易に識別することができる。
なお、「ユーザーが検索対象を被写体のなかから識別できるように」の「被写体」は、「透過性を有する画面越しに見える被写体」でもよいし、「画像に写っている被写体」でもよい。
また、撮影部により撮影される画像は、動画像でもよいし、静止画像でもよい。
また、特定部は、1の検出対象の位置を特定してもよいし、複数の検出対象の位置を特定してもよい。後者の場合、表示部は、複数の拡張現実画像を表示し、表示制御部は、複数の拡張現実画像を表示させる。
According to the configuration of the present invention, since the position of the search target in the image obtained by photographing the subject is specified and the augmented reality image is displayed based on the result of the specification, the user can easily select the search target from the subject. Can be identified.
The “subject” of “so that the user can identify the search target from among the subjects” may be “a subject that can be seen through a transparent screen” or “a subject that appears in the image”.
In addition, the image captured by the imaging unit may be a moving image or a still image.
The specifying unit may specify the position of one detection target or may specify the positions of a plurality of detection targets. In the latter case, the display unit displays a plurality of augmented reality images, and the display control unit displays the plurality of augmented reality images.

上記の表示装置において、画像のなかから検索対象を検索するための検索条件を取得する取得部を備え、特定部は、検索条件に基づいて画像のなかから検索対象を検索し、検索対象の検索結果に基づいて、検索対象の位置を特定することを特徴とする。   The display device includes an acquisition unit that acquires a search condition for searching for a search target from an image, and the specifying unit searches the search target from the image based on the search condition, and searches for the search target Based on the result, the position of the search target is specified.

本発明の構成によれば、ユーザーは、検索条件を指示することができる。
なお、取得部は、一つに限らず複数の検索条件を取得してもよい。また、複数の検索条件を取得した場合、検索対象の検索アルゴリズムは、各種論理演算式(AND、OR、NOT、NAND、NOR、EOR、XORなど)または各種論理演算式の組み合わせを採用可能である。
According to the configuration of the present invention, the user can instruct search conditions.
Note that the acquisition unit is not limited to one and may acquire a plurality of search conditions. When a plurality of search conditions are acquired, the search target search algorithm can employ various logical operation expressions (AND, OR, NOT, NAND, NOR, EOR, XOR, etc.) or a combination of various logical operation expressions. .

上記の表示装置において、取得部は、検索条件を音声認識により取得することを特徴とする。   In the above display device, the acquisition unit acquires the search condition by voice recognition.

本発明の構成によれば、ユーザーは、検索条件を音声で指示することができるため、手を使えない状況において便利である。また、例えば、本の読み合わせや資料を用いた会議などにおいて、読み終わった個所や説明対象となっている文・段落などを、検索対象として示したい場合にも便利である。   According to the configuration of the present invention, the user can instruct search conditions by voice, which is convenient in situations where the hand cannot be used. Further, for example, in a book reading or a conference using materials, it is also convenient when it is desired to indicate a part that has been read or a sentence / paragraph to be explained as a search target.

上記の表示装置において、特定部により、複数の検索対象の位置が特定された場合、表示部は、特定部により特定された複数の検索対象のそれぞれの位置に基づいて、複数の拡張現実画像を、それぞれ異なる表示形態で表示することを特徴とする。   In the above display device, when a plurality of search target positions are specified by the specifying unit, the display unit displays a plurality of augmented reality images based on the positions of the plurality of search targets specified by the specifying unit. These are displayed in different display forms.

本発明の構成によれば、複数の拡張現実画像を、それぞれ異なる表示形態で表示するため、ユーザーは、複数の検索対象を、それぞれ区別することができる。   According to the configuration of the present invention, since the plurality of augmented reality images are displayed in different display forms, the user can distinguish the plurality of search objects from each other.

上記の表示装置において、検索対象は文字であることを特徴とする。   In the above display device, the search target is a character.

本発明の構成によれば、例えば、本の読み合わせや資料を用いた会議など、文章のなかから特定の文字を識別する必要がある場合に便利である。
なお、検索対象となる「文字」は、一文字でもよいし、複数の文字でもよい。
According to the structure of this invention, it is convenient when it is necessary to identify a specific character from sentences, such as a meeting using a book reading or a document, for example.
The “character” to be searched may be a single character or a plurality of characters.

上記の表示装置において、特定部は、文字の光学文字認識結果に基づいて、文字の位置を特定することを特徴とする。   In the above display device, the specifying unit specifies a character position based on an optical character recognition result of the character.

本発明の構成によれば、光学文字認識技術を用いて、容易に文字を認識し、文字の位置を特定することができる。   According to the structure of this invention, a character can be easily recognized and the position of a character can be specified using an optical character recognition technique.

上記の表示装置において、被写体は印刷物であり、特定部は、印刷物を印刷するための画像データに基づいて、印刷物に印刷された検索対象の位置を特定することを特徴とする。   In the above display device, the subject is a printed material, and the specifying unit specifies a position of a search target printed on the printed material based on image data for printing the printed material.

本発明の構成によれば、印刷物を印刷するための画像データを利用するため、画像に対し光学文字認識を行う必要がない。これにより、検索対象が小さい場合や印刷物の印刷品質が悪い場合であっても、正確に検索対象の位置を特定することができる。   According to the configuration of the present invention, since image data for printing a printed material is used, it is not necessary to perform optical character recognition on the image. Thereby, even when the search target is small or the print quality of the printed matter is poor, the position of the search target can be specified accurately.

上記の表示装置において、印刷物の所定の位置には、識別マークが印刷されており、特定部は、印刷物に印刷されている識別マークの位置を基準にして、検索対象の位置を特定することを特徴とする。   In the above display device, an identification mark is printed at a predetermined position of the printed material, and the specifying unit specifies the position of the search target on the basis of the position of the identification mark printed on the printed material. Features.

本発明の構成によれば、印刷物に印刷されている識別マークの位置を基準にして、検索対象の位置を特定するため、識別マークが印刷されていない印刷物の文字列の位置を特定する場合と比較して、正確に検索対象の位置を特定することができる。   According to the configuration of the present invention, in order to specify the position of the search target with reference to the position of the identification mark printed on the printed material, the position of the character string of the printed material on which the identification mark is not printed is specified. In comparison, the position of the search target can be specified accurately.

上記の表示装置において、識別マークの画像を含む画像データを生成する生成部を備えることを特徴とする。   The display device includes a generation unit that generates image data including an image of an identification mark.

本発明の構成によれば、識別マーク付きの印刷物を印刷するための画像データを自装置で生成するため、外部から画像データを取得する必要がない。   According to the configuration of the present invention, since the image data for printing the printed matter with the identification mark is generated by the own apparatus, it is not necessary to acquire the image data from the outside.

本発明の表示制御装置は、被写体を撮影した画像に写っている検索対象の位置を特定する特定部と、特定部により特定された検索対象の位置に基づいて、ユーザーが検索対象を被写体のなかから識別できるように、拡張現実画像を表示させる表示制御部と、を備えることを特徴とする。   The display control apparatus according to the present invention includes a specifying unit that specifies a position of a search target in an image obtained by photographing a subject, and a user selects a search target as a subject based on the position of the search target specified by the specifying unit. A display control unit for displaying an augmented reality image so that the image can be identified.

本発明の構成によれば、被写体を撮影した画像に写っている検索対象の位置を特定し、その特定結果に基づいて拡張現実画像を表示させるため、ユーザーは、その表示結果から検索対象を容易に識別することができる。
なお、表示制御装置は、表示装置を内蔵してもよいし、外付けしてもよい。後者の場合、無線通信または有線通信を介して表示制御装置と表示装置が通信可能な構成であればよい。
According to the configuration of the present invention, since the position of the search target in the image obtained by photographing the subject is specified and the augmented reality image is displayed based on the specification result, the user can easily select the search target from the display result. Can be identified.
The display control device may have a built-in display device or may be externally attached. In the latter case, the display control device and the display device may be configured to communicate with each other via wireless communication or wired communication.

本発明のプログラムは、コンピューターを、被写体を撮影した画像に写っている検索対象の位置を特定する特定部と、特定部により特定された検索対象の位置に基づいて、ユーザーが検索対象を被写体のなかから識別できるように、拡張現実画像を表示させる表示制御部と、として機能させることを特徴とする。   According to the program of the present invention, the user selects a search target of the subject based on the specifying unit that specifies the position of the search target in the image obtained by photographing the subject, and the position of the search target specified by the specifying unit. It is characterized by functioning as a display control unit for displaying an augmented reality image so that it can be identified from among them.

このプログラムを用いることにより、ユーザーが被写体のなかから検索対象を容易に識別可能とするための表示を行う表示装置を実現することができる。
なお、コンピューターを含む上記の表示装置は、物理的に1つのものでもよいし、複数のものが協働して上記の表示装置を構成してもよい。
By using this program, it is possible to realize a display device that performs display so that a user can easily identify a search target from among subjects.
Note that the display device including a computer may be physically one, or a plurality of display devices may form the display device in cooperation.

本発明の一実施形態に係る携帯端末および印刷物の平面図である。It is a top view of a portable terminal and printed matter concerning one embodiment of the present invention. 携帯端末のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of a portable terminal. 携帯端末の機能構成を示すブロック図である。It is a block diagram which shows the function structure of a portable terminal. 印刷物の一例を示す図である。It is a figure which shows an example of printed matter. 被写体画像および拡張現実画像の表示例を示す図である。It is a figure which shows the example of a display of a to-be-photographed image and an augmented reality image. 被写体画像および拡張現実画像の表示例を示す図である。It is a figure which shows the example of a display of a to-be-photographed image and an augmented reality image. 拡張現実表示処理の流れを示すフローチャートである。It is a flowchart which shows the flow of an augmented reality display process. 第2実施形態に係る携帯端末の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the portable terminal which concerns on 2nd Embodiment. 第2実施形態に係る識別マーク付きの印刷物の一例を示す図である。It is a figure which shows an example of the printed matter with the identification mark which concerns on 2nd Embodiment. 第3実施形態に係る表示システムの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the display system which concerns on 3rd Embodiment.

[第1実施形態]
以下、本発明の一実施形態に係る表示装置、表示制御装置およびプログラムについて、添付図面を参照しながら詳細に説明する。本実施形態では、本発明の表示装置を、携帯端末に適用した場合について例示する。
[First Embodiment]
Hereinafter, a display device, a display control device, and a program according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings. In this embodiment, the case where the display device of the present invention is applied to a mobile terminal is illustrated.

図1は、本発明の一実施形態に係る携帯端末1および印刷物Pの平面図である。印刷物Pは、「被写体」の一例であり、文字列を棒線で表している。携帯端末1は、例えばスマートフォンであり、撮像レンズ15a、マイクロフォン16aおよびタッチパネル17(ディスプレー17a)を備える。同図は、携帯端末1の撮像レンズ15aで、印刷物Pを撮影している状態を示している。印刷物Pを撮影した画像は、タッチパネル17に表示される。以下、画像に含まれる印刷物Pの画像を「被写体画像」と称する。   FIG. 1 is a plan view of a portable terminal 1 and a printed material P according to an embodiment of the present invention. The printed matter P is an example of “subject”, and character strings are represented by bar lines. The mobile terminal 1 is a smartphone, for example, and includes an imaging lens 15a, a microphone 16a, and a touch panel 17 (display 17a). The figure shows a state in which the printed matter P is being photographed by the imaging lens 15 a of the mobile terminal 1. An image obtained by photographing the printed matter P is displayed on the touch panel 17. Hereinafter, the image of the printed matter P included in the image is referred to as a “subject image”.

なお、携帯端末1としては、同図に示したスマートフォンに限らず、スマートグラスなど様々なカメラ機能および表示機能付きの情報処理端末を適用可能であるが、以下ではスマートフォンの場合を例にして説明を行う。   Note that the mobile terminal 1 is not limited to the smartphone shown in the figure, and various information processing terminals with a camera function and a display function such as smart glasses can be applied. I do.

次に、図2を参照し、携帯端末1のハードウェア構成を説明する。携帯端末1は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、端末メモリー14、カメラモジュール15、マイクロフォンモジュール16およびタッチパネル17を備える。   Next, the hardware configuration of the mobile terminal 1 will be described with reference to FIG. The mobile terminal 1 includes a central processing unit (CPU) 11, a read only memory (ROM) 12, a random access memory (RAM) 13, a terminal memory 14, a camera module 15, a microphone module 16, and a touch panel 17.

CPU11は、携帯端末1内の各部と信号の入出力を行い、各種演算処理を行う。ROM12は、不揮発性の記憶媒体であり、OS(Operating System)や各種アプリケーションを記憶する。本実施形態の携帯端末1は、アプリケーションとして、専用アプリケーション50を記憶する。専用アプリケーション50は、被写体を撮影した画像から、検索対象を検索して検索対象の位置を特定し、その特定位置に、拡張現実画像g(図5,図6参照)を表示させるものである。なお、専用アプリケーション50は、「プログラム」の一例である。   The CPU 11 inputs and outputs signals to and from each unit in the portable terminal 1 and performs various arithmetic processes. The ROM 12 is a nonvolatile storage medium and stores an OS (Operating System) and various applications. The mobile terminal 1 of the present embodiment stores a dedicated application 50 as an application. The dedicated application 50 searches for a search target from an image obtained by photographing a subject, specifies the position of the search target, and displays an augmented reality image g (see FIGS. 5 and 6) at the specific position. The dedicated application 50 is an example of a “program”.

RAM13は、揮発性の記憶媒体であり、CPU11のワークエリアとして用いられる。また、端末メモリー14は、不揮発性の記憶媒体であり、各種設定情報を記憶する。   The RAM 13 is a volatile storage medium and is used as a work area for the CPU 11. The terminal memory 14 is a non-volatile storage medium and stores various setting information.

カメラモジュール15は、被写体像を形成する撮像レンズ15aの他、撮像レンズ15aにより形成された被写体像を光電変換する撮像素子、撮像素子から出力された出力信号をA/D変換するA/D変換器、A/D変換されたデジタル信号に対し画像処理を行う画像処理回路を含む。   The camera module 15 includes an imaging lens 15a that forms a subject image, an imaging device that photoelectrically converts a subject image formed by the imaging lens 15a, and an A / D conversion that performs A / D conversion on an output signal output from the imaging device. And an image processing circuit for performing image processing on the A / D converted digital signal.

マイクロフォンモジュール16は、ユーザーの音声を集音(受音)するマイクロフォン16aの他、集音したアナログ音声信号を増幅するアンプ、アンプから出力されたアナログ音声信号をA/D変換するA/D変換器、A/D変換されたデジタル音声信号に対し音声信号処理を行う音声信号処理回路を含む。   The microphone module 16 includes a microphone 16a that collects (receives) a user's voice, an amplifier that amplifies the collected analog voice signal, and an A / D conversion that performs A / D conversion on the analog voice signal output from the amplifier. And an audio signal processing circuit for performing audio signal processing on the A / D converted digital audio signal.

タッチパネル17は、ディスプレー17aおよびタッチ式センサー17bを一体形成したものであり、表示手段および入力手段として用いられる。ディスプレー17aは、撮影された動画像など各種情報を表示する。また、タッチ式センサー17bは、タッチパネル17に対するユーザーの操作を検出し、その検出信号をCPU11に出力する。   The touch panel 17 is an integrated display 17a and touch sensor 17b, and is used as display means and input means. The display 17a displays various information such as a captured moving image. The touch sensor 17 b detects a user operation on the touch panel 17 and outputs a detection signal to the CPU 11.

なお、携帯端末1の上記のハードウェア構成は、あくまでも一例であり、同様の機能を有する他のハードウェアを採用してもよい。例えば、タッチパネル17に代えて、表示手段および入力手段を個別に搭載してもよい。   Note that the above hardware configuration of the mobile terminal 1 is merely an example, and other hardware having the same function may be adopted. For example, instead of the touch panel 17, a display unit and an input unit may be individually mounted.

次に、図3を参照し、携帯端末1の機能構成を説明する。携帯端末1は、機能構成として、撮影部110、取得部120、特定部130および表示部140を備える。これらの機能は、主にCPU11が専用アプリケーション50を実行することにより実現される機能である。なお、撮影部110は、専用アプリケーション50ではなく、既知のカメラアプリケーションを利用して実現してもよい。   Next, the functional configuration of the mobile terminal 1 will be described with reference to FIG. The portable terminal 1 includes a photographing unit 110, an acquisition unit 120, a specifying unit 130, and a display unit 140 as functional configurations. These functions are functions realized mainly by the CPU 11 executing the dedicated application 50. Note that the photographing unit 110 may be realized using a known camera application instead of the dedicated application 50.

撮影部110は、被写体となる印刷物Pを撮影するものであり、カメラモジュール15の機能を含む。本実施形態において、撮影部110は、動画像(音声無しの映像)を撮影する。   The photographing unit 110 photographs a printed matter P that is a subject, and includes the function of the camera module 15. In the present embodiment, the imaging unit 110 captures a moving image (video without sound).

取得部120は、動画像のなかから検索対象を検索するための検索条件を音声認識により取得するものであり、マイクロフォンモジュール16の機能を含む。取得部120は、ユーザーの音声を集音し、音声認識アルゴリズムに基づいて音声認識を行い、その音声認識結果を検索条件として取得する。なお、本実施形態において、文字には数字や記号を含み、「検索対象」は「1以上の文字」であり、「検索条件」は、「1以上の文字の読み方(音)」である。つまり、後述する特定部130では、検索条件として取得した「1以上の文字の読み方」と一致する「1以上の文字」を検索対象として検索し、その位置を特定する。なお、以下の説明では、「1以上の文字」を「文字列」と称する。   The acquisition unit 120 acquires search conditions for searching for a search target from a moving image by voice recognition, and includes the function of the microphone module 16. The acquisition unit 120 collects the user's voice, performs voice recognition based on the voice recognition algorithm, and acquires the voice recognition result as a search condition. In the present embodiment, characters include numbers and symbols, “search target” is “one or more characters”, and “search condition” is “how to read one or more characters (sound)”. That is, the specifying unit 130 to be described later searches for “one or more characters” matching the “how to read one or more characters” acquired as a search condition, and specifies the position. In the following description, “one or more characters” is referred to as a “character string”.

特定部130は、取得部120により取得した検索条件に基づいて、撮影部110により撮影された動画像のなかから検索対象を検索し、複数の検索対象の検索結果に基づいて、複数の検索対象の位置を特定する。つまり、動画像のなかから、音声認識により取得した文字列と一致する1以上の文字列を検索し、その1以上の文字列の動画像上の位置(タッチパネル17上の位置)を特定する。このとき特定部130は、動画像に対して光学文字認識を行うことにより文字列を検索し、その検索結果に基づいて、文字列の位置を特定する。また、特定部130は、文字列の位置を特定するだけでなく、文字列の文字サイズ、文字コード、フォント種類を特定する。なお、一致するとは完全一致でなくともよく、必要に応じて同じ意味を持つ文字列(数字や記号や別言語での文字列に置き換えたものを含む)であってもよい。例えば、「いち」と「一」と「1」と「one」とは全て「いち」と一致するとみなしてもよい。   Based on the search condition acquired by the acquisition unit 120, the specifying unit 130 searches for a search target from the moving images captured by the capturing unit 110, and based on the search results of the plurality of search targets, Specify the position of. That is, one or more character strings that match the character string acquired by voice recognition are searched from the moving image, and the position (position on the touch panel 17) of the one or more character strings is specified. At this time, the specifying unit 130 searches for a character string by performing optical character recognition on the moving image, and specifies the position of the character string based on the search result. The specifying unit 130 not only specifies the position of the character string, but also specifies the character size, character code, and font type of the character string. Note that the term “match” does not need to be a complete match, and may be a character string having the same meaning (including numbers, symbols, and characters replaced in another language) as necessary. For example, “1”, “1”, “1”, and “one” may all be considered to match “1”.

表示部140は、特定部130により特定された文字列の位置に基づいて、拡張現実画像gを表示するものであり、タッチパネル17(ディスプレー17a)の機能を含む。表示部140は、特定部130により複数の文字列が特定された場合、特定された複数の文字列のそれぞれの位置に基づいて、複数の文字列のそれぞれを、ユーザーが被写体(タッチパネル17に表示された被写体画像)のなかから識別できるように、複数の拡張現実画像gを表示する。   The display unit 140 displays the augmented reality image g based on the position of the character string specified by the specifying unit 130, and includes the function of the touch panel 17 (display 17a). When a plurality of character strings are specified by the specifying unit 130, the display unit 140 displays each of the plurality of character strings on the subject (touch panel 17) based on the position of each of the specified character strings. A plurality of augmented reality images g are displayed so that they can be identified from among the captured subject images.

ここで、図4ないし図6を参照し、具体例を挙げて表示部140の処理を説明する。図4は、印刷物Pの一例を示す図である。同図に示すように、印刷物Pには、文章が印刷されている。この文書は、日本語版ウィキペディア (Wikipedia): フリー百科事典の2016年11月29日 (火) 09:30更新版の「セイコーエプソン」の記事より引用したものである。また、撮影部110により印刷物Pを撮影すると、表示部140は、同図に示すような被写体を含む動画像Sをタッチパネル17に表示する。   Here, the processing of the display unit 140 will be described with reference to FIGS. FIG. 4 is a diagram illustrating an example of the printed matter P. As shown in the figure, a text is printed on the printed matter P. This document is cited from the article "Seiko Epson" updated on 09/29/2016 (Tuesday), 09:30, in the Japanese Wikipedia: Free Encyclopedia. Further, when the printed matter P is photographed by the photographing unit 110, the display unit 140 displays a moving image S including a subject as shown in FIG.

撮影部110により印刷物Pを撮影している状態で、ユーザーがマイクロフォンモジュール16に「セイコーインスツル」と声を出す場合を例として説明する。まずユーザーが「セイコー」まで声を出した時点で、取得部120により「セイコー」という文字列の読み方を検索条件として取得する(文字列「セイコー」を音声認識する)。そして特定部130は、撮影部110が印刷物Pを撮影した動画像Sから光学文字認識によって印刷物Pに印刷されている文字を認識し、読み方が「セイコー」の文字列(同図の例では、文字列「セイコー」、文字列「Seiko」)の位置を特定する。そして表示部140は撮影部110が印刷物Pを撮影した動画像Sの中の特定された位置の文字列に対して、拡張現実画像gを表示する(図5参照)。図5の例では、検索対象が6個検索されたため、6個の拡張現実画像g1〜g6を表示する。本実施形態では、拡張現実画像gとして、検索対象となる文字列を太文字化した画像と、検索対象となる文字列に付加される下線の画像と、を表示する。前者の「文字列を太文字化した画像」は、特定部130により特定された文字サイズ、文字コード、フォント種類に応じて生成される画像である。このように、音声で読み上げられた文字列が太文字および下線によって強調表示されるため、ユーザーは、印刷物Pのどの部分が読み上げられたのかを容易に把握することができる。なお、本実施形態では、動画像Sを用いているため、撮影部110が撮影している位置が変動しうる。そのため、撮影部110が撮影している位置が変動しても変動に追随し常に検索対象の文字列に拡張現実画像gを表示するようにする。   An example will be described in which the user speaks “Seiko Instruments” to the microphone module 16 while the printed part P is photographed by the photographing unit 110. First, when the user speaks up to “Seiko”, the acquisition unit 120 acquires how to read the character string “Seiko” as a search condition (the character string “Seiko” is recognized by voice). Then, the specifying unit 130 recognizes characters printed on the printed matter P by optical character recognition from the moving image S obtained by photographing the printed matter P by the photographing unit 110, and reads a character string whose reading is “Seiko” (in the example of FIG. The position of the character string “Seiko” and the character string “Seiko”) is specified. Then, the display unit 140 displays the augmented reality image g with respect to the character string at the specified position in the moving image S in which the photographing unit 110 has photographed the printed matter P (see FIG. 5). In the example of FIG. 5, since six search objects are searched, six augmented reality images g1 to g6 are displayed. In the present embodiment, as the augmented reality image g, an image in which a character string to be searched is bolded and an underline image added to the character string to be searched are displayed. The former “image in which a character string is bolded” is an image generated according to the character size, character code, and font type specified by the specifying unit 130. As described above, since the character string read out by voice is highlighted by the bold character and the underline, the user can easily grasp which part of the printed matter P has been read out. In the present embodiment, since the moving image S is used, the position where the photographing unit 110 is photographing can vary. For this reason, even if the position where the image capturing unit 110 captures changes, the change follows the change and the augmented reality image g is always displayed on the character string to be searched.

次に、図5のように、動画像Sおよび拡張現実画像g1〜g6が表示されている状態で、ユーザーが「インスツル」と声を出すことで取得部120により「セイコー」に続く文字列として「インスツル」という文字列の読み方を検索条件として取得する(文字列「インスツル」を音声認識すると)。そして特定部130は読み方が「インスツル」の文字列を特定する。次いで、表示部140は、それまで表示していた拡張現実画像g1〜g6のうち、読み方が「インスツル」の文字列の前に存在する拡張現実画像g4を残したまま、読み方が「インスツル」の文字列に対して、新たな拡張現実画像g11を表示する(図6参照)。また、表示部140は、「インスツル」という文字列を取得した時点で、それまで表示していた、その他の拡張現実画像g1,g2,g3,g5,g6を、非表示とする。   Next, as shown in FIG. 5, in a state where the moving image S and the augmented reality images g1 to g6 are displayed, the user speaks “instrument” so that the acquisition unit 120 can generate a character string following “Seiko”. How to read the character string “instrument” is acquired as a search condition (when the character string “instrument” is recognized by voice). The specifying unit 130 specifies a character string whose reading is “instrument”. Next, the display unit 140 leaves the augmented reality image g4 existing before the character string whose reading is “instrument” among the augmented reality images g1 to g6 that have been displayed so far, while the reading is “instrument”. A new augmented reality image g11 is displayed for the character string (see FIG. 6). Further, the display unit 140 hides the other augmented reality images g1, g2, g3, g5, and g6 that have been displayed until the character string “instrument” is acquired.

このように、携帯端末1(専用アプリケーション50)は、文字列が順次読み上げられ、検索条件を取得する度に、拡張現実画像gの表示を更新する。但し、ユーザーにより、拡張現実表示処理を終了する操作が行われた場合、または検索条件の取得が長時間(例えば3分間)途切れた場合、拡張現実表示処理を一旦終了する(それまで表示していた全ての拡張現実画像gを非表示とする)。そして、再度文字列が読み上げられると、新たに読み上げられた文字列に拡張現実画像gの表示を行う。   In this way, the mobile terminal 1 (dedicated application 50) reads out the character strings sequentially and updates the display of the augmented reality image g each time the search condition is acquired. However, when the user performs an operation to end the augmented reality display process, or when acquisition of the search condition is interrupted for a long time (for example, 3 minutes), the augmented reality display process is temporarily terminated (displayed until then). All the augmented reality images g are not displayed). When the character string is read again, the augmented reality image g is displayed on the newly read character string.

なお、検索条件の取得が一定時間(一連の文字列と認識する時間よりも長く、拡張現実表示処理を一旦終了する時間よりも短い時間。例えば5秒間)途切れた場合には、別の検索対象の文字列としてもよい。また、図5および図6の例では、拡張現実画像gとして、検索対象となる文字列を太文字化した画像と、検索対象となる文字列に付加される下線の画像と、を表示しているため、拡張現実画像gの対象となる文字列が連続している場合、下線の画像が連続しているように見えるが、別の検索対象の文字列に対し、下線の画像が連続しないような異なる拡張現実画像gを表示してもよい。例えば、検索対象の文字列ごとに下線の種類を変えたりしてもよい。   In addition, when acquisition of search conditions is interrupted for a certain period of time (longer than the time for recognizing a series of character strings and shorter than the time for temporarily ending augmented reality display processing, for example, 5 seconds), another search target It is good also as a character string. In the example of FIGS. 5 and 6, as the augmented reality image g, an image in which a character string to be searched is bolded and an underline image added to the character string to be searched are displayed. Therefore, if the character string that is the target of the augmented reality image g is continuous, the underlined image appears to be continuous, but the underlined image does not continue to another character string to be searched. Different augmented reality images g may be displayed. For example, the type of underline may be changed for each character string to be searched.

また、拡張現実画像gは、図5および図6に示した例に限定されるものではない。例えば、検索対象となる文字列に対して太字以外の文字装飾を行った画像(文字色、文字サイズ、文字フォントを変化させた画像など)を重畳表示してもよい。また、重畳表示する場合は、文字の画線部のみを重畳させてもよいし、ラベルを貼り付けたようにベース部分を含めて重畳させてもよい。前者の場合、被写体画像のベース色(印刷物Pの印刷媒体の色)を生かすことができる。また、後者の場合、被写体画像の検索対象となる文字列の位置と、拡張現実画像gの表示位置が多少ずれてしまった場合でも、被写体画像に印刷された文字と拡張現実画像gの太字の文字とが二重に見えることがないため視認性を損なわない。また、透過性を有するマーカーを、検索対象となる文字列に対して重畳表示してもよい。さらに、拡張現実画像gとして動画像を表示してもよい。例えば、検索対象となる文字列が浮き上がっていくような動画像、検索対象となる文字列の画線部が振動するような動画像、などが考えられる。   The augmented reality image g is not limited to the examples shown in FIGS. For example, an image obtained by decorating a character string to be searched with a character decoration other than bold (such as an image in which a character color, a character size, or a character font is changed) may be superimposed and displayed. In the case of superimposing display, only the image line portion of the character may be superimposed, or it may be superimposed including the base portion as if a label is attached. In the former case, the base color of the subject image (the color of the print medium of the printed matter P) can be used. In the latter case, even if the position of the character string to be searched for the subject image and the display position of the augmented reality image g are slightly shifted, the characters printed on the subject image and the bold characters of the augmented reality image g Visibility is not impaired because the characters do not look double. In addition, a marker having transparency may be displayed superimposed on the character string to be searched. Further, a moving image may be displayed as the augmented reality image g. For example, a moving image in which a character string to be searched rises, a moving image in which an image line portion of the character string to be searched vibrates, and the like can be considered.

次に、図7のフローチャートを参照し、携帯端末1による拡張現実表示処理の流れを説明する。ここでは、専用アプリケーション50が起動されて、撮影部110により被写体(印刷物P)の撮影が行われ、表示部140が、被写体を含む動画像Sを表示している状態であるものとする。このフローチャートは、専用アプリケーション50を終了するまで繰返し実行される。   Next, the flow of augmented reality display processing by the mobile terminal 1 will be described with reference to the flowchart of FIG. Here, it is assumed that the dedicated application 50 is activated, the subject (printed matter P) is photographed by the photographing unit 110, and the display unit 140 displays the moving image S including the subject. This flowchart is repeatedly executed until the dedicated application 50 is terminated.

この状態で、取得部120が新たに検索条件を取得する又は既に取得していた検索条件があると(S01:Yes)、新たに取得した動画像Sに対して光学文字認識を行って動画像S中の対象フレームから文字列を認識する(S02)。そして、特定部130は、取得した又は既に取得していた検索条件に基づいて動画像S中の対象フレームから検索対象を検索し、検索対象の有無を判断する(S03)。つまり、検索条件として取得した文字列(音声認識された文字列)が、対象フレームの光学文字認識結果に含まれるか否かを判断する。なお、検索条件を取得しないで既に取得していた検索条件もない場合(S01:No)、および検索対象がないと判断した場合は(S03:No)、S01に戻る。また、S01では、音節や単語を認識するたびに(音節ごとに又は単語ごとに)検索条件を取得してもよいし、音声が短時間途切れたときに検索条件を取得してもよい。   In this state, when the acquisition unit 120 newly acquires a search condition or there is a search condition that has already been acquired (S01: Yes), optical character recognition is performed on the newly acquired moving image S to obtain a moving image. A character string is recognized from the target frame in S (S02). Then, the specifying unit 130 searches for a search target from the target frame in the moving image S based on the acquired or already acquired search condition, and determines whether there is a search target (S03). That is, it is determined whether or not the character string acquired as a search condition (character string recognized by speech) is included in the optical character recognition result of the target frame. If there is no search condition already acquired without acquiring the search condition (S01: No), and if it is determined that there is no search target (S03: No), the process returns to S01. In S01, the search condition may be acquired every time a syllable or word is recognized (for each syllable or for each word), or the search condition may be acquired when the sound is interrupted for a short time.

特定部130は、S03で「Yes」と判断した場合、検索対象の位置を特定する(S04)。つまり、検索条件として新たに取得した文字列や検索条件として既に取得していた文字列が、対象フレームのどの位置に存在するのかを特定する。なお、S03で複数の検索対象が見つかった場合、S04では、複数の検索対象の位置を特定する。その後、表示部140は、S03で検索された文字列に、連続文字列が含まれるか否かを判断する(S05)。ここで、「連続文字列」とは、既に拡張現実画像gが重畳表示されている文字列の後に、新たに連続する文字列を指す。例えば、図6に示した例では、文字列「インスツル」が、連続文字列となる。S05の判断は、拡張現実画像gが重畳表示されている文字列が存在しない場合は「No」となるため、拡張現実表示処理の処理開始後、1回目は必ず「No」となる。また、新たな検索条件が取得されていない場合(検索条件が更新されていない場合)にも、新たな文字列がないため、S05の判断は「No」となる。   When determining “Yes” in S03, the specifying unit 130 specifies the position to be searched (S04). That is, it is specified in which position of the target frame the character string newly acquired as the search condition or the character string already acquired as the search condition exists. If a plurality of search targets are found in S03, the positions of the plurality of search targets are specified in S04. Thereafter, the display unit 140 determines whether or not the character string searched in S03 includes a continuous character string (S05). Here, the “continuous character string” refers to a character string that is newly continuous after the character string on which the augmented reality image g is already superimposed and displayed. For example, in the example shown in FIG. 6, the character string “instrument” is a continuous character string. The determination in S05 is “No” when there is no character string on which the augmented reality image g is superimposed and displayed, and therefore, “No” is always the first time after the augmented reality display process starts. Further, even when a new search condition is not acquired (when the search condition is not updated), since there is no new character string, the determination in S05 is “No”.

表示部140は、S05で「No」と判断した場合、S04で特定された検索対象の位置に基づいて、ユーザーが検索対象を対象フレーム上で識別できるように、検索対象の文字列に対し拡張現実画像gを重畳して対象フレームを表示する(S06)。また、S06では、それまで表示していた拡張現実画像gである旧拡張現実画像が存在する場合、その旧拡張現実画像とは異なる表示形態の拡張現実画像gを重畳表示する。   If the display unit 140 determines “No” in S05, the display unit 140 expands the search target character string so that the user can identify the search target on the target frame based on the position of the search target specified in S04. The target frame is displayed by superimposing the real image g (S06). In S06, when there is an old augmented reality image that is the augmented reality image g that has been displayed so far, the augmented reality image g having a display form different from that of the old augmented reality image is superimposed and displayed.

一方、表示部140は、S05で「Yes」と判断した場合、S04で特定された検索対象の位置に基づいて、S03で検索された文字列のうち連続文字列に対し、新規の拡張現実画像gである新拡張現実画像を重畳して対象フレームを表示する(S07)。つまり、S07では、S03で検索された文字列のうち連続文字列に該当しない文字列に対しては、新拡張現実画像を表示しない。また、S07では、旧拡張現実画像のうち連続文字列前に存在する旧拡張現実画像を残し、その他の拡張現実画像gを非表示とする。つまり、図6に示した例では、拡張現実画像g4が「連続文字列前に存在する旧拡張現実画像」であり、拡張現実画像g11が「新拡張現実画像」である。   On the other hand, if the display unit 140 determines “Yes” in S05, a new augmented reality image is generated for the continuous character string among the character strings searched in S03 based on the position of the search target specified in S04. The new augmented reality image which is g is superimposed and the target frame is displayed (S07). That is, in S07, the new augmented reality image is not displayed for character strings that do not correspond to the continuous character string among the character strings searched in S03. In S07, the old augmented reality image existing before the continuous character string in the old augmented reality image is left and the other augmented reality image g is not displayed. That is, in the example illustrated in FIG. 6, the augmented reality image g4 is “an old augmented reality image existing before a continuous character string”, and the augmented reality image g11 is a “new augmented reality image”.

そして、S06やS07で表示を行った後は、新たな検索条件の取得が長時間途切れたかどうかを判断する(S08)。S08で「No」と判断した場合、つまり長時間途切れていなければ動画像Sの次のフレームを対象フレームとして(S09)、S01に戻る。なお、S08における、新たな検索条件の取得が長時間途切れたかどうかの判断は、最後の検索条件の取得時からの経過時間を計測し、経過時間が所定時間に達した場合、途切れたと判断する。つまり、S01:Noと判断した時点からの経過時間に基づいて判断するものではない。また、「新たな検索条件」とは、「前回の検索条件と異なる検索条件」を指すものではなく、「新規に音声認識された検索条件」を指すものである。つまり、「セイコー」、「セイコー」と同じ音を続けて認識した場合、2回目の「セイコー」は「新たな検索条件」となる。一方、S08で「Yes」と判断した場合、つまり新たな検索条件の取得が長時間途切れていれば、既に取得していた検索条件を消去して全ての拡張現実画像gを非表示とする(S10)。そしてその後、動画像Sの次のフレームを対象フレームとして(S09)、S01に戻る。   Then, after displaying in S06 and S07, it is determined whether or not acquisition of a new search condition has been interrupted for a long time (S08). If “No” is determined in S08, that is, if there is no interruption for a long time, the next frame of the moving image S is set as the target frame (S09), and the process returns to S01. In S08, whether or not the acquisition of a new search condition has been interrupted for a long time is determined by measuring the elapsed time from the acquisition of the last search condition and determining that the acquisition has been interrupted when the elapsed time reaches a predetermined time. . In other words, the determination is not based on the elapsed time from the point of determination of S01: No. Further, the “new search condition” does not indicate “a search condition different from the previous search condition” but indicates a “newly recognized search condition”. That is, when the same sound as “Seiko” and “Seiko” is continuously recognized, the second “Seiko” becomes a “new search condition”. On the other hand, if “Yes” is determined in S08, that is, if acquisition of a new search condition is interrupted for a long time, the already acquired search condition is deleted and all augmented reality images g are not displayed ( S10). Thereafter, the next frame of the moving image S is set as a target frame (S09), and the process returns to S01.

以上説明したとおり、本実施形態の携帯端末1によれば、被写体となる印刷物Pを撮影した動画像のなかから、検索条件として取得した文字列と一致する文字列の位置を特定し、その特定結果に基づいて複数の拡張現実画像gを表示するため、ユーザーは、被写体画像のなかから検索対象となる複数の文字列を容易に識別することができる。また、携帯端末1は、音声認識により検索条件を取得するため、ユーザーは、手を使えない状況においても、検索条件を指示することができる。さらに、本実施形態の携帯端末1は、動画像を撮影している間、図7に示した拡張現実表示処理をフレーム単位で実行するため、一旦検索対象となる文字列の位置を特定した後、新たな検索条件を取得していない状態で携帯端末1が動いたとしても、検索対象となる文字列に対し拡張現実画像gを表示し続けることができる。   As described above, according to the mobile terminal 1 of the present embodiment, the position of the character string that matches the character string acquired as the search condition is identified from the moving image obtained by photographing the printed matter P that is the subject, and the identification is performed. Since the plurality of augmented reality images g are displayed based on the result, the user can easily identify the plurality of character strings to be searched from the subject images. Further, since the mobile terminal 1 acquires the search condition by voice recognition, the user can instruct the search condition even in a situation where the hand cannot be used. Furthermore, since the mobile terminal 1 according to the present embodiment executes the augmented reality display process shown in FIG. 7 in units of frames while shooting a moving image, the position of the character string to be searched is once specified. Even if the mobile terminal 1 moves without acquiring new search conditions, the augmented reality image g can be continuously displayed for the character string to be searched.

なお、ここで言う「複数の拡張現実画像gの表示」とは、図5に示した拡張現実画像g1〜g6を表示すること、および図6に示した拡張現実画像g4,g11を表示すること、の両方を含む。つまり、検索条件は必ずしも1回で取得する必要はなく、複数回に分けて取得してもよい。上記の実施形態では、1回目に取得した検索条件に基づいて表示する拡張現実画像gが拡張現実画像g1〜g6であり、1回目と2回目に取得した検索条件に基づいて表示する拡張現実画像gが拡張現実画像g4,g11である。   Note that “display of a plurality of augmented reality images g” here refers to displaying the augmented reality images g1 to g6 shown in FIG. 5 and displaying the augmented reality images g4 and g11 shown in FIG. , Including both. That is, the search condition is not necessarily acquired once, and may be acquired in a plurality of times. In the above embodiment, the augmented reality images g displayed based on the search conditions acquired for the first time are the augmented reality images g1 to g6, and the augmented reality images displayed based on the search conditions acquired for the first time and the second time. g is augmented reality images g4 and g11.

なお、以下の変形例を採用可能である。
[変形例1]
上記の実施形態において表示部140は、拡張現実画像gを上述とは異なる表示形態で表示してもよい。また、複数の検索対象に対する複数の拡張現実画像gを、全て同一表示形態で表示したが、それぞれ異なる表示形態で表示してもよい。「異なる表示形態」とは、装飾の種類や装飾方法が異なることを含む。例えば、複数の拡張現実画像gを、全て異なる色で表示してもよいし、異なる付加情報(番号1、2などや、一本下線と波下線や、丸囲みと雲囲み等)を付加して表示してもよい。また、複数の拡張現実画像gを、異なる周期で点滅表示させるようにしてもよい。また、文字列の文字種類(片仮名、平仮名、漢字、アルファベットなど)や文字サイズに応じて、表示形態を変更してもよい。例えば、片仮名には、黄色マーカーの拡張現実画像gを表示し、アルファベットには、赤色マーカーの拡張現実画像gを表示する、などが考えられる。
In addition, the following modifications can be employed.
[Modification 1]
In the above embodiment, the display unit 140 may display the augmented reality image g in a display form different from the above. Further, although the plurality of augmented reality images g corresponding to the plurality of search targets are all displayed in the same display form, they may be displayed in different display forms. “Different display forms” include different types of decoration and decoration methods. For example, a plurality of augmented reality images g may be displayed in different colors, or different additional information (numbers 1 and 2 or the like, single underline and wave underline, round circle and cloud circle, etc.) may be added. May be displayed. Also, a plurality of augmented reality images g may be blinked and displayed at different periods. Further, the display form may be changed according to the character type (katakana, hiragana, kanji, alphabet, etc.) of the character string and the character size. For example, an augmented reality image g of a yellow marker is displayed for Katakana, and an augmented reality image g of a red marker is displayed for an alphabet.

[変形例2]
上記の実施形態において特定部130は、複数の検索対象の位置を特定したが、必ずしも複数でなくて良く、一つの検索対象の位置を特定してもよい。また、さらなる変形例として、複数の検索対象がある場合に、検索対象の位置を特定し、複数の検索対象がない場合(検索対象が一つしかない場合)は、検索対象の位置を特定しない(すなわち、拡張現実画像gを表示しない)構成としてもよい。この構成によれば、印刷物Pに印刷されている文字数が少ない場合など、拡張現実画像gの表示の必要性が低い場合に、無駄な表示制御を省略できる。
[Modification 2]
In the above-described embodiment, the specifying unit 130 specifies a plurality of search target positions, but may not necessarily be a plurality, and may specify a single search target position. As a further modification, the position of the search target is specified when there are a plurality of search targets, and the position of the search target is not specified when there are no plurality of search targets (when there is only one search target). (In other words, the augmented reality image g is not displayed). According to this configuration, useless display control can be omitted when the necessity for displaying the augmented reality image g is low, such as when the number of characters printed on the printed matter P is small.

[変形例3]
上記の実施形態において撮影部110は、動画像を撮影したが、静止画像を撮影してもよい。この場合、上記の拡張現実表示処理は、タッチパネル17に静止画像が表示されている状態で実行される。
[Modification 3]
In the above embodiment, the imaging unit 110 captures a moving image, but may capture a still image. In this case, the augmented reality display process is executed in a state where a still image is displayed on the touch panel 17.

[変形例4]
上記の実施形態において特定部130は、検索対象として文字列を検索したが、文字列以外の画像を検索対象としてもよい。また、取得部120は、検索条件として文字列を取得したが、検索対象を特定可能であれば、文字列以外の情報を取得してもよい。例えば、検索対象が文字列の場合、文字種類や文字色を検索条件として取得してもよい。また、検索対象が文字列以外の画像の場合、画像の特徴(色、大きさ、明るさ、形状など)を検索条件として取得してもよい。
[Modification 4]
In the above embodiment, the specifying unit 130 searches for a character string as a search target. However, an image other than the character string may be set as a search target. Moreover, although the acquisition part 120 acquired the character string as a search condition, if the search object can be specified, you may acquire information other than a character string. For example, when the search target is a character string, the character type or character color may be acquired as a search condition. In addition, when the search target is an image other than a character string, image characteristics (color, size, brightness, shape, etc.) may be acquired as a search condition.

[変形例5]
上記の実施形態において取得部120は、一つの検索条件を取得してもよいし、複数の検索条件を取得してもよい。複数の検索条件を取得する場合、検索対象の検索アルゴリズムは、各種論理演算式(AND、OR、NOT、NAND、NOR、EOR、XORなど)または各種論理演算式の組み合わせを採用可能である。例えば、図5に示す被写体画像が表示されている場合であって、検索条件1が文字列の読み方として「セイコー」、検索条件2が文字種類として「アルファベット」、採用する論理演算式が「AND」の場合、特定部130は、これら2つの条件を満たす文字列「Seiko」の位置を特定すればよい。つまり、表示部140は、拡張現実画像g2および拡張現実画像g6を表示すればよい。
[Modification 5]
In the above embodiment, the acquisition unit 120 may acquire one search condition or a plurality of search conditions. When acquiring a plurality of search conditions, the search target search algorithm can employ various logical operation expressions (AND, OR, NOT, NAND, NOR, EOR, XOR, etc.) or a combination of various logical operation expressions. For example, in the case where the subject image shown in FIG. 5 is displayed, the search condition 1 is “Seiko” as the reading method of the character string, the search condition 2 is “alphabet” as the character type, and the logical operation expression adopted is “AND”. ", The specifying unit 130 may specify the position of the character string" Seiko "that satisfies these two conditions. That is, the display unit 140 may display the augmented reality image g2 and the augmented reality image g6.

[変形例6]
上記の実施形態において表示部140は、検索条件に対応する1以上の文字列があり、その1以上の文字列に連続文字列が含まれない場合、検索対象の文字列に対し、旧拡張現実画像とは異なる拡張現実画像gを重畳表示したが(図7のS06参照)、旧拡張現実画像を非表示としてもよい。一方、検索条件に対応する1以上の文字列があり、その1以上の文字列に連続文字列が含まれる場合、旧拡張現実画像のうち連続文字列前の旧拡張現実画像のみを残し、新拡張現実画像を重畳表示したが(図7のS07参照)、全ての旧拡張現実画像を残してもよい。また、図7のS07では、連続文字列に対してのみ新拡張現実画像を重畳表示したが、S03で検索された全ての文字列に対して新拡張現実画像を重畳表示してもよい。また、図7のS03で検索対象の有無を判断する場合、読み上げられた文字列と、文章中の文字列とが完全に一致しない場合でも、整合性が所定割合以上であれば、「検索対象あり」と判断してもよい。
[Modification 6]
In the above embodiment, the display unit 140 includes one or more character strings corresponding to the search condition, and if the one or more character strings do not include a continuous character string, the display unit 140 determines the old augmented reality for the character string to be searched. Although the augmented reality image g different from the image is superimposed and displayed (see S06 in FIG. 7), the old augmented reality image may be hidden. On the other hand, when there is one or more character strings corresponding to the search condition and the one or more character strings include a continuous character string, only the old augmented reality image before the continuous character string is left among the old augmented reality images, and the new Although the augmented reality image is superimposed and displayed (see S07 in FIG. 7), all the old augmented reality images may be left. In S07 of FIG. 7, the new augmented reality image is superimposed and displayed only on the continuous character string. However, the new augmented reality image may be superimposed and displayed on all the character strings searched in S03. When determining whether or not there is a search target in S03 of FIG. 7, even if the read-out character string does not completely match the character string in the sentence, if the consistency is equal to or higher than a predetermined ratio, “search target “Yes” may be determined.

[変形例7]
上記の実施形態において表示部140は、特定部130により特定された文字列を対象として拡張現実画像gを表示したが、特定部130により特定された文字列を含む所定の範囲を対象として拡張現実画像gを表示してもよい。例えば、特定部130により特定された文字列を中心とした所定領域、特定された文字列を含む文または段落、などを対象として拡張現実画像gを表示することが考えられる。
[Modification 7]
In the above embodiment, the display unit 140 displays the augmented reality image g for the character string specified by the specifying unit 130, but the augmented reality for the predetermined range including the character string specified by the specifying unit 130. The image g may be displayed. For example, it is conceivable to display the augmented reality image g for a predetermined area centered on a character string specified by the specifying unit 130, a sentence or a paragraph including the specified character string, and the like.

[変形例8]
上記の実施形態において特定部130は、検索対象の位置として、動画像上の位置を特定したが、動画像のなかの被写体画像上の位置を特定してもよい。この場合、特定部130は、特定された被写体画像上の検索対象の位置と、タッチパネル17に表示されている動画像のなかの被写体画像の位置と、に基づいて、動画像上における検索対象の位置を特定する。
[Modification 8]
In the above embodiment, the specifying unit 130 specifies the position on the moving image as the position to be searched, but may specify the position on the subject image in the moving image. In this case, the specifying unit 130 determines the search target on the moving image based on the position of the search target on the specified subject image and the position of the subject image in the moving image displayed on the touch panel 17. Identify the location.

[変形例9]
上記の実施形態では、携帯端末1のタッチパネル17に動画像を表示したが、透過性(透光性)を有する画面に動画像を表示してもよい。この場合、表示部140は、被写体画像を表示する必要はなく、ユーザーが画面を通して視認可能な被写体の位置に合わせて、拡張現実画像gを表示すればよい。また、この場合、撮影部110による撮影範囲がユーザーの視野に含まれることが前提となるため、ユーザーの頭の位置、顔の向き、眼球の動き等をセンサー等により検出し、それらの検出結果に基づいて、被写体を視認しているユーザーの視野を特定してもよい。そして、ユーザーが、視野に含まれる被写体(透過性を有する画面越しに見える被写体)のなかから、複数の検索対象のそれぞれを識別できるように複数の拡張現実画像gを表示すればよい。透過性を有する画面を備えた表示装置としては、例えば、レーザープロジェクション式カーナビゲーション、シースループロジェクション、透過型デジタルサイネージ、などが考えられる。また、透過性を有する画面を備えた表示装置として、ヘッドマウントディスプレーを採用してもよい。この場合は、ユーザーの頭部の動きに合わせて撮影部110による撮影範囲が変化するため、ユーザーの頭の位置や顔の向きの検出を省略してもよい。また、さらなる変形例として、書画カメラやプロジェクターにより、スクリーンや壁に向けて拡張現実画像gを投影してもよい。
[Modification 9]
In the above embodiment, a moving image is displayed on the touch panel 17 of the mobile terminal 1, but the moving image may be displayed on a screen having transparency (translucency). In this case, the display unit 140 does not need to display the subject image, and may display the augmented reality image g in accordance with the position of the subject visible to the user through the screen. In this case, since it is assumed that the shooting range of the shooting unit 110 is included in the user's visual field, the user's head position, face orientation, eyeball movement, and the like are detected by a sensor or the like, and the detection results thereof Based on the above, the visual field of the user viewing the subject may be specified. Then, the plurality of augmented reality images g may be displayed so that the user can identify each of the plurality of search targets from the subjects included in the field of view (subjects that can be seen through the transparent screen). As a display device provided with a screen having transparency, for example, laser projection type car navigation, see-through projection, transmissive digital signage, and the like are conceivable. Further, a head mounted display may be adopted as a display device having a transmissive screen. In this case, since the imaging range by the imaging unit 110 changes according to the movement of the user's head, detection of the user's head position and face orientation may be omitted. As a further modification, the augmented reality image g may be projected toward a screen or a wall by a document camera or a projector.

[第2実施形態]
次に、図8および図9を参照し、本発明の第2実施形態について説明する。本実施形態は、特定部130が、印刷物PMを印刷するための画像データを利用し、印刷物PM(図9参照)に印刷された識別マークMの位置を基準として検索対象の位置を特定する点で第1実施形態と異なる。以下、第1実施形態と異なる点のみ説明する。なお、本実施形態において、第1実施形態と同様の構成部分については同様の符号を付し、詳細な説明を省略する。また、第1実施形態と同様の構成部分について適用される変形例は、本実施形態についても同様に適用される。
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference to FIGS. In the present embodiment, the specifying unit 130 uses image data for printing the printed material PM, and specifies the position to be searched based on the position of the identification mark M printed on the printed material PM (see FIG. 9). This is different from the first embodiment. Only differences from the first embodiment will be described below. In the present embodiment, the same components as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted. Moreover, the modification applied about the component similar to 1st Embodiment is applied similarly about this embodiment.

携帯端末1´のハードウェア構成は、第1実施形態(図2参照)と同様の構成を採用可能であるため、説明を省略する。図8は、第2実施形態に係る携帯端末1´の機能構成を示すブロック図である。本実施形態に係る携帯端末1´は、図1の携帯端末1´の機能構成(図3参照)に、生成部150を追加した構成である。   Since the hardware configuration of the mobile terminal 1 ′ can be the same as that of the first embodiment (see FIG. 2), description thereof is omitted. FIG. 8 is a block diagram illustrating a functional configuration of the mobile terminal 1 ′ according to the second embodiment. The mobile terminal 1 ′ according to the present embodiment has a configuration in which a generation unit 150 is added to the functional configuration of the mobile terminal 1 ′ in FIG. 1 (see FIG. 3).

生成部150は、印刷物PMを印刷するための画像データを生成するものであり、主にCPU11が専用アプリケーション50を実行することにより実現される。生成する画像データのファイル形式(JPEGやBMPなど)は問わない。また、生成部150は、携帯端末1´に入力された情報、または外部から取得した情報である原稿データを印刷するための第1の画像データに、識別マークMを印刷するための第2の画像データを付加することにより、印刷物PMを印刷するための画像データを生成する。そしてその画像データを必要に応じて変換したり制御情報を付加したりして印刷データを生成する。必要がなければ、画像データをそのまま印刷データとしてもよい。なお、生成部150は、原稿データと、識別マークM(識別マークMを生成するためのキャラクタ列)と、を関連付けた関連情報を、端末メモリー14内の所定の記憶領域に記憶する。   The generation unit 150 generates image data for printing the printed matter PM, and is realized mainly by the CPU 11 executing the dedicated application 50. The file format of the image data to be generated (JPEG, BMP, etc.) does not matter. The generation unit 150 also prints a second mark for printing the identification mark M on the first image data for printing document data that is information input to the portable terminal 1 ′ or information acquired from the outside. By adding the image data, image data for printing the printed matter PM is generated. Then, the image data is converted as necessary or control information is added to generate print data. If not necessary, the image data may be used as print data as it is. The generation unit 150 stores related information in which the document data is associated with the identification mark M (character string for generating the identification mark M) in a predetermined storage area in the terminal memory 14.

図9は、識別マークM付きの印刷物PMの一例を示す図である。本実施形態では、識別マークM1〜M4としてバーコードを印刷している。バーコードには、印刷物PMを特定するための印刷物コードと、各バーコードの印刷位置(用紙の左上、右上、左下、右下、など)を示す情報を含む。なお、識別マークMは、1回の印刷で複数ページが印刷される場合、印刷番号とページ番号を示す情報をさらに含む。若しくは、各ページに、異なる印刷物コードを含むバーコードを印刷してもよい。これにより、1回の印刷で複数ページが印刷される場合、ページを特定することができる。また、図9の例では、印刷物PMの四隅に識別マークMが印刷されているが、1か所のみでもよいし、さらに多くの箇所に識別マークMを印刷してもよい。   FIG. 9 is a diagram illustrating an example of the printed material PM with the identification mark M. In the present embodiment, barcodes are printed as the identification marks M1 to M4. The barcode includes a printed matter code for specifying the printed matter PM and information indicating the printing position of each barcode (upper left, upper right, lower left, lower right, etc. of the paper). Note that the identification mark M further includes information indicating a print number and a page number when a plurality of pages are printed by one printing. Alternatively, a barcode including a different printed matter code may be printed on each page. Thereby, when a plurality of pages are printed by one printing, the page can be specified. In the example of FIG. 9, the identification marks M are printed at the four corners of the printed matter PM. However, the identification marks M may be printed at one place or more places.

図8の説明に戻る。本実施形態の携帯端末1´は、印刷装置2と直接的又は間接的に通信可能に構成される。特に図示しないが、携帯端末1´および印刷装置2には、両者が通信を行うための通信部が設けられる。また、印刷装置2は、印刷部210を備える。印刷部210は、携帯端末1´から送信された印刷データに基づいて印刷を行うものであり、印刷ヘッドや用紙搬送機構などを含む。また、当該印刷部210による印刷により、印刷物PMが作成される。   Returning to the description of FIG. The mobile terminal 1 ′ of the present embodiment is configured to be able to communicate with the printing apparatus 2 directly or indirectly. Although not particularly illustrated, the mobile terminal 1 ′ and the printing apparatus 2 are provided with a communication unit for communicating with each other. The printing apparatus 2 includes a printing unit 210. The printing unit 210 performs printing based on print data transmitted from the mobile terminal 1 ′, and includes a print head, a paper transport mechanism, and the like. Further, the printed matter PM is created by printing by the printing unit 210.

上記の構成により、本実施形態に係る特定部130´は、原稿データに基づいて、印刷物PMに印刷された検索対象(文字列)の位置を特定する。または、特定部130´は、印刷物PMに印刷されている識別マークMと原稿データとに基づいて、識別マークMの位置を基準にして、検索対象の位置を特定する。つまり、特定部130´は、端末メモリー14内の所定の記憶領域を参照し、撮影部110が撮影した動画像に含まれる被写体画像の識別マークMから、識別マークMに関連付けられた原稿データを特定する。これは具体的にいうと、バーコードリーダー機能を用いてバーコード情報を読み取り、それをデコードすることで、識別マークMを特定して、特定された識別マークMに関連付けられた原稿データを特定する。さらに、特定部130´は、特定された原稿データの文字コードのなかから、検索条件として取得した文字列の文字コードを検索し、その検索結果が示す文字列の位置と、識別マークMの位置と、に基づいて、識別マークMを基準とした文字列の位置を特定する。例えば、識別マークM1の先端位置を座標(0,Y)、識別マークM2の後端位置を座標(X,Y)、識別マークM3の先端位置を座標(0,0)、識別マークM4の後端位置を座標(X,0)としたときの、検索対象となる文字列の先端位置および後端位置を特定する。そして、画像データのなかの文字列の位置(識別マークMを基準とした文字列の位置)と、タッチパネル17に表示されている動画像Sの識別マークMの位置と、に基づいて、動画像S上の文字列の位置(すなわち、拡張現実画像gを表示すべき位置)を特定する。なお、文字コードが含まれていない原稿データである場合には、原稿データの画像に対して光学文字認識を使って検索してもよい。   With the above configuration, the specifying unit 130 ′ according to the present embodiment specifies the position of the search target (character string) printed on the printed matter PM based on the document data. Alternatively, the specifying unit 130 ′ specifies the position to be searched based on the position of the identification mark M based on the identification mark M printed on the printed matter PM and the document data. That is, the specifying unit 130 ′ refers to a predetermined storage area in the terminal memory 14, and reads the document data associated with the identification mark M from the identification mark M of the subject image included in the moving image captured by the imaging unit 110. Identify. Specifically, the barcode information is read using the barcode reader function, and the barcode data is read and decoded to identify the identification mark M, and the document data associated with the identified identification mark M is identified. To do. Further, the specifying unit 130 ′ searches the character code of the character string acquired as the search condition from the character code of the specified document data, and the position of the character string indicated by the search result and the position of the identification mark M And the position of the character string with the identification mark M as a reference. For example, the front end position of the identification mark M1 is coordinates (0, Y), the rear end position of the identification mark M2 is coordinates (X, Y), the front end position of the identification mark M3 is coordinates (0, 0), and the rear end of the identification mark M4. When the end position is the coordinate (X, 0), the leading end position and the trailing end position of the character string to be searched are specified. Then, based on the position of the character string in the image data (position of the character string with reference to the identification mark M) and the position of the identification mark M of the moving image S displayed on the touch panel 17, the moving image The position of the character string on S (that is, the position where the augmented reality image g is to be displayed) is specified. If the document data does not include a character code, the image of the document data may be searched using optical character recognition.

一方、本実施形態に係る表示部140は、特定部130´により特定された文字列の位置に基づいて、拡張現実画像gを表示する。   On the other hand, the display unit 140 according to the present embodiment displays the augmented reality image g based on the position of the character string specified by the specifying unit 130 ′.

以上説明したとおり、第2実施形態の携帯端末1´によれば、印刷物PMを印刷するための画像データを利用して、印刷物PMに印刷された検索対象の位置を特定するため、撮影した動画像に対して光学文字認識を行う必要がない。これにより、撮影された画像中の文字が小さい場合や印刷物PMの印刷品質が悪い場合など、撮影された画像に対して光学文字認識を行うことが困難であっても、正確に検索対象の位置を特定することができる。また、印刷物PMに印刷されている識別マークMの位置を基準にして、検索対象の位置を特定するため、識別マークMの位置を基準としない構成と比較して、正確に検索対象の位置を特定することができる。また、携帯端末1´自身で画像データを生成するため、外部から画像データを取得する必要がない。   As described above, according to the mobile terminal 1 ′ of the second embodiment, a moving image that is taken to identify the position of the search target printed on the printed matter PM using the image data for printing the printed matter PM. There is no need to perform optical character recognition on the image. As a result, even if it is difficult to perform optical character recognition on the captured image, such as when the characters in the captured image are small or the print quality of the printed matter PM is poor, the position of the search target can be accurately determined. Can be specified. In addition, since the position of the search target is specified based on the position of the identification mark M printed on the printed matter PM, the position of the search target is accurately compared with a configuration that does not use the position of the identification mark M as a reference. Can be identified. Further, since the mobile terminal 1 ′ itself generates image data, it is not necessary to acquire image data from the outside.

なお、第2実施形態では、以下の変形例を採用可能である。
[変形例10]
上記の実施形態において生成部150は、識別マークMの画像を含む画像データを生成したが、識別マークMの画像を含まない画像データを生成してもよい。識別マークMの画像を含めない場合は、被写体画像の四隅または用紙の上端、下端、左端、右端の位置を基準として、検索対象の位置を特定してもよい。
In the second embodiment, the following modifications can be employed.
[Modification 10]
In the above-described embodiment, the generation unit 150 generates image data including the image of the identification mark M, but may generate image data that does not include the image of the identification mark M. When the image of the identification mark M is not included, the search target position may be specified based on the positions of the four corners of the subject image or the top, bottom, left, and right edges of the paper.

[変形例11]
上記の実施形態では、識別マークMとしてバーコードを例示したが、2次元コードなど、他のコード画像を用いてもよい。また、コード画像以外に、所定の記号やマークを用いてもよい。
[Modification 11]
In the above embodiment, a barcode is exemplified as the identification mark M, but other code images such as a two-dimensional code may be used. In addition to the code image, a predetermined symbol or mark may be used.

[変形例12]
上記の実施形態では、携帯端末1´の生成部150により原稿データから印刷データを生成したが、携帯端末1´と異なる印刷データ生成装置が、原稿データから印刷データを生成し、携帯端末1´は印刷データを生成しない構成でもよい。この場合、特定部130´は、原稿データと関連情報とを印刷データ生成装置から取得し、取得した原稿データと関連情報とを利用して検索対象となる文字列の位置を特定する。この印刷データ生成装置は、パーソナルコンピューターであってもよいし、印刷装置2が兼ねていてもよい。
[Modification 12]
In the above embodiment, the print data is generated from the document data by the generation unit 150 of the mobile terminal 1 ′. However, a print data generation device different from the mobile terminal 1 ′ generates the print data from the document data, and the mobile terminal 1 ′. May be configured not to generate print data. In this case, the specifying unit 130 ′ acquires the document data and the related information from the print data generation apparatus, and specifies the position of the character string to be searched using the acquired document data and the related information. The print data generation device may be a personal computer, or the printing device 2 may also serve as the print data generation device.

[第3実施形態]
次に、図10を参照し、本発明の第3実施形態について説明する。本実施形態は、第1実施形態に示した携帯端末1を複数の装置の組み合わせによって実現するものである。以下、第1実施形態と異なる点のみ説明する。なお、本実施形態においても、第1実施形態と同様の構成部分については同様の符号を付し、詳細な説明を省略する。また、第1実施形態と同様の構成部分について適用される変形例は、本実施形態についても同様に適用される。
[Third Embodiment]
Next, a third embodiment of the present invention will be described with reference to FIG. This embodiment implement | achieves the portable terminal 1 shown in 1st Embodiment by the combination of a some apparatus. Only differences from the first embodiment will be described below. In the present embodiment, the same components as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted. Moreover, the modification applied about the component similar to 1st Embodiment is applied similarly about this embodiment.

図10は、第3実施形態に係る表示システムSYの機能構成を示すブロック図である。表示システムSYは、表示制御装置3と、撮影装置4と、表示装置5と、を含む。表示制御装置3と撮影装置4、および表示制御装置3と表示装置5は、通信可能に構成される。撮影装置4は、第1実施形態の撮影部110と同機能の撮影部410を備える。撮影装置4で撮影された動画像データは、表示制御装置3に送信される。   FIG. 10 is a block diagram illustrating a functional configuration of the display system SY according to the third embodiment. The display system SY includes a display control device 3, a photographing device 4, and a display device 5. The display control device 3 and the imaging device 4, and the display control device 3 and the display device 5 are configured to be communicable. The imaging device 4 includes an imaging unit 410 having the same function as the imaging unit 110 of the first embodiment. The moving image data photographed by the photographing device 4 is transmitted to the display control device 3.

一方、表示制御装置3は、取得部120、特定部130および表示制御部160を備える。表示制御部160は、主にCPU11が専用アプリケーション50を実行することにより実現される機能であり、第1実施形態の表示部140の表示制御を司る機能に相当する。表示制御部160は、拡張現実画像gを表示するための表示データを生成し、表示装置5に送信する。表示装置5は、表示制御装置3から送信された表示データを表示する表示部510を備える。表示部510は、非透過性または透過性のディスプレーである。   On the other hand, the display control device 3 includes an acquisition unit 120, a specification unit 130, and a display control unit 160. The display control unit 160 is a function that is realized mainly by the CPU 11 executing the dedicated application 50, and corresponds to a function that controls display control of the display unit 140 of the first embodiment. The display control unit 160 generates display data for displaying the augmented reality image g and transmits the display data to the display device 5. The display device 5 includes a display unit 510 that displays the display data transmitted from the display control device 3. The display unit 510 is a non-transmissive or transmissive display.

以上説明したとおり、第3実施形態によれば、簡易な構成の表示制御装置3であっても、撮影装置4および表示装置5と協働することにより、第1実施形態と同様の効果を奏することができる。   As described above, according to the third embodiment, even if the display control device 3 has a simple configuration, the same effect as that of the first embodiment is obtained by cooperating with the photographing device 4 and the display device 5. be able to.

なお、第3実施形態では、以下の変形例を採用可能である。
[変形例13]
本実施形態を、第2実施形態と組み合わせてもよい。つまり、第2実施形態の生成部150を、表示制御装置3に追加し、特定部130を特定部130´に入れ替えた構成としてもよい。
[変形例14]
本実施形態とは異なる複数の装置の組み合わせで携帯端末1,1´を実現してもよい。
In the third embodiment, the following modifications can be employed.
[Modification 13]
This embodiment may be combined with the second embodiment. That is, the configuration may be such that the generation unit 150 of the second embodiment is added to the display control device 3 and the specifying unit 130 is replaced with the specifying unit 130 ′.
[Modification 14]
You may implement | achieve portable terminal 1,1 'with the combination of the several apparatus different from this embodiment.

また、実施形態1〜3に共通して、以下の変形例を採用可能である。
[変形例15]
上記の実施形態および変形例に示した携帯端末1,1´または表示制御装置3における各構成要素をプログラムとして提供してもよい。また、そのプログラムを各種記録媒体(CD−ROM、フラッシュメモリー等)に格納して提供してもよい。すなわち、コンピューターを携帯端末1,1´または表示制御装置3の各構成要素として機能させるためのプログラム、それを記録したコンピューター読み取り可能な記録媒体、並びにそれによって作成された成果物(印刷物PMなど)も、本発明の権利範囲に含まれる。その他、本発明の要旨を逸脱しない範囲で、適宜変更が可能である。
In addition, the following modifications can be adopted in common with the first to third embodiments.
[Modification 15]
You may provide each component in the portable terminal 1, 1 'shown in said embodiment and the modification, or the display control apparatus 3 as a program. The program may be provided by being stored in various recording media (CD-ROM, flash memory, etc.). That is, a program for causing a computer to function as each component of the portable terminal 1, 1 'or the display control device 3, a computer-readable recording medium on which the program is recorded, and a product (printed material PM or the like) created thereby Is also included in the scope of rights of the present invention. Other modifications can be made as appropriate without departing from the scope of the present invention.

1…携帯端末、110…撮影部、120…取得部、130…特定部、140…表示部   DESCRIPTION OF SYMBOLS 1 ... Portable terminal, 110 ... Image pick-up part, 120 ... Acquisition part, 130 ... Identification part, 140 ... Display part

Claims (11)

被写体を撮影する撮影部と、
前記撮影部により撮影された動画像に写っている複数の検索対象の位置を特定する特定部と、
前記特定部により特定された複数の前記検索対象のそれぞれの位置に基づいて、ユーザーが複数の前記検索対象のそれぞれを前記被写体のなかから識別できるように、複数の拡張現実画像を表示する表示部と、を備えることを特徴とする表示装置。
A shooting section for shooting the subject;
A specifying unit that specifies the positions of a plurality of search targets that are reflected in the moving image shot by the shooting unit;
A display unit that displays a plurality of augmented reality images so that the user can identify each of the plurality of search targets from among the subjects based on the positions of the plurality of search targets specified by the specifying unit. A display device comprising:
前記動画像のなかから複数の前記検索対象を検索するための検索条件を取得する取得部を備え、
前記特定部は、前記検索条件に基づいて前記動画像のなかから複数の前記検索対象を検索し、複数の前記検索対象の検索結果に基づいて、複数の前記検索対象の位置を特定することを特徴とする請求項1に記載の表示装置。
An acquisition unit for acquiring a search condition for searching the plurality of search objects from the moving image;
The specifying unit searches a plurality of search objects from the moving images based on the search condition, and specifies a plurality of positions of the search objects based on a plurality of search object search results. The display device according to claim 1.
前記取得部は、前記検索条件を音声認識により取得することを特徴とする請求項2に記載の表示装置。   The display device according to claim 2, wherein the acquisition unit acquires the search condition by voice recognition. 前記表示部は、複数の前記拡張現実画像を、それぞれ異なる表示形態で表示することを特徴とする請求項1ないし3のいずれか1項に記載の表示装置。   The display device according to claim 1, wherein the display unit displays the plurality of augmented reality images in different display forms. 前記検索対象は文字であることを特徴とする請求項1ないし4のいずれか1項に記載の表示装置。   The display device according to claim 1, wherein the search target is a character. 前記特定部は、前記文字の光学文字認識結果に基づいて、前記文字の位置を特定することを特徴とする請求項5に記載の表示装置。   The display device according to claim 5, wherein the specifying unit specifies a position of the character based on an optical character recognition result of the character. 前記被写体は印刷物であり、
前記特定部は、前記印刷物を印刷するための画像データに基づいて、前記印刷物に印刷された前記検索対象の位置を特定することを特徴とする請求項1ないし5のいずれか1項に記載の表示装置。
The subject is a printed matter,
The said specific | specification part specifies the position of the said search object printed on the said printed matter based on the image data for printing the said printed matter, The one of Claim 1 thru | or 5 characterized by the above-mentioned. Display device.
前記印刷物の所定の位置には、識別マークが印刷されており、
前記特定部は、前記印刷物に印刷されている前記識別マークの位置を基準にして、前記検索対象の位置を特定することを特徴とする請求項7に記載の表示装置。
An identification mark is printed at a predetermined position of the printed matter,
The display device according to claim 7, wherein the specifying unit specifies the position of the search target based on a position of the identification mark printed on the printed matter.
前記識別マークの画像を含む前記画像データを生成する生成部を備えることを特徴とする請求項8に記載の表示装置。   The display device according to claim 8, further comprising a generation unit that generates the image data including an image of the identification mark. 被写体を撮影した動画像に写っている複数の検索対象の位置を特定する特定部と、
前記特定部により特定された複数の前記検索対象のそれぞれの位置に基づいて、ユーザーが複数の前記検索対象のそれぞれを前記被写体のなかから識別できるように、複数の拡張現実画像を表示させる表示制御部と、を備えることを特徴とする表示制御装置。
A specifying unit for specifying the positions of a plurality of search targets in a moving image obtained by shooting a subject;
Display control for displaying a plurality of augmented reality images so that the user can identify each of the plurality of search targets from among the subjects based on the positions of the plurality of search targets specified by the specifying unit. A display control device.
コンピューターを、
被写体を撮影した動画像に写っている複数の検索対象の位置を特定する特定部と、
前記特定部により特定された複数の前記検索対象のそれぞれの位置に基づいて、ユーザーが複数の前記検索対象のそれぞれを前記被写体のなかから識別できるように、拡張現実画像を表示させる表示制御部と、として機能させるためのプログラム。
Computer
A specifying unit for specifying the positions of a plurality of search targets in a moving image obtained by shooting a subject;
A display control unit that displays an augmented reality image so that a user can identify each of the plurality of search targets from among the subjects based on the positions of the plurality of search targets specified by the specifying unit; , A program to make it function as.
JP2016253009A 2016-12-27 2016-12-27 Display device, display controlling device and program Pending JP2018106481A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016253009A JP2018106481A (en) 2016-12-27 2016-12-27 Display device, display controlling device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016253009A JP2018106481A (en) 2016-12-27 2016-12-27 Display device, display controlling device and program

Publications (1)

Publication Number Publication Date
JP2018106481A true JP2018106481A (en) 2018-07-05

Family

ID=62787934

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016253009A Pending JP2018106481A (en) 2016-12-27 2016-12-27 Display device, display controlling device and program

Country Status (1)

Country Link
JP (1) JP2018106481A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021082040A (en) * 2019-11-20 2021-05-27 Kddi株式会社 Information terminal apparatus, server, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021082040A (en) * 2019-11-20 2021-05-27 Kddi株式会社 Information terminal apparatus, server, and program
JP7231529B2 (en) 2019-11-20 2023-03-01 Kddi株式会社 Information terminal device, server and program

Similar Documents

Publication Publication Date Title
US10585488B2 (en) System, method, and apparatus for man-machine interaction
KR102147935B1 (en) Method for processing data and an electronic device thereof
US20170255253A1 (en) Projector and image drawing method
US11397320B2 (en) Information processing apparatus, information processing system, and non-transitory computer readable medium
KR102236616B1 (en) Information processing apparatus, control method thereof, and storage medium
JP2010134876A (en) Information processing device and method
US20180213147A1 (en) Information processing apparatus having camera function and producing guide display to capture character recognizable image, control method thereof, and storage medium
KR102159767B1 (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
CN110378318B (en) Character recognition method and device, computer equipment and storage medium
JP2018106481A (en) Display device, display controlling device and program
KR101513856B1 (en) Braille-to-Voice Translation System
JP2013182211A (en) Portable terminal, handwriting support method, and program
KR101742779B1 (en) System for making dynamic digital image by voice recognition
US20190189122A1 (en) Information processing device and information processing method
US20210397866A1 (en) Information processing device, information processing method, and program
US9880630B2 (en) User interface device, user interface method, program, and computer-readable information storage medium
JP2017188787A (en) Imaging apparatus, image synthesizing method, and image synthesizing program
WO2018211826A1 (en) Information processing system, information processing method, and program
JP6652446B2 (en) Work support device
JP2018181243A (en) Information processor, information processor control method, and program
JP3164748U (en) Information processing device
JP6408055B2 (en) Information processing apparatus, method, and program
US20230316667A1 (en) Information processing apparatus, non-transitory computer readable medium storing information processing program, and information processing method
JP6677410B2 (en) Information processing apparatus, control method for information processing apparatus, and program
JP2009216890A (en) Image display system, projector, and control method for image display device