JP6168872B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP6168872B2
JP6168872B2 JP2013128292A JP2013128292A JP6168872B2 JP 6168872 B2 JP6168872 B2 JP 6168872B2 JP 2013128292 A JP2013128292 A JP 2013128292A JP 2013128292 A JP2013128292 A JP 2013128292A JP 6168872 B2 JP6168872 B2 JP 6168872B2
Authority
JP
Japan
Prior art keywords
information
image
attention
content
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013128292A
Other languages
Japanese (ja)
Other versions
JP2015005018A (en
Inventor
泰輔 石黒
泰輔 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013128292A priority Critical patent/JP6168872B2/en
Publication of JP2015005018A publication Critical patent/JP2015005018A/en
Application granted granted Critical
Publication of JP6168872B2 publication Critical patent/JP6168872B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、撮像された画像に関連する拡張情報を出力する画像処理装置、方法及びプログラムに関する。   The present invention relates to an image processing apparatus, method, and program for outputting extended information related to a captured image.

タブレット端末やスマートフォン(以下、タブレット端末およびスマートフォンを併せて、「スマート端末」とも記載する)のカメラを用いて撮像した被写体に関連する拡張情報を検索し、検索された拡張情報をスマート端末の画面に表示する技術が知られている。たとえば、Augmented Reality(以下、「AR」とも記載する)と呼ばれる拡張現実技術では、カメラで撮像された被写体に関連する拡張情報を特定し、特定された拡張情報をカメラで撮像された被写体が表示される画面に重畳表示する。   Search for extended information related to the subject imaged using a camera of a tablet terminal or a smartphone (hereinafter also referred to as “smart terminal” together with the tablet terminal and the smartphone), and the searched extended information is displayed on the screen of the smart terminal. The technique of displaying on is known. For example, in augmented reality technology called Augmented Reality (hereinafter also referred to as “AR”), the augmented information related to the subject imaged by the camera is identified, and the identified augmented information is displayed on the subject imaged by the camera. Displayed on the screen.

さらに、被写体として紙文書を撮像すると、撮像された紙文書が表示される画面に拡張情報(以下、「ARコンテンツ」とも記載する)が重畳表示されるサービスも展開されている。動画等のコンテンツを紙面上で表現(再生)することはできないが、紙文書に印刷されている静止画のARコンテンツとして動画を特定し、当該動画をスマート端末の画面において静止画に重畳表示することが可能になる。たとえば、特許文献1では、撮像した紙文書から注目単語を検出し、該注目単語に関連する拡張情報を重畳表示する技術が開示されている。   Furthermore, a service is also developed in which, when a paper document is captured as a subject, extended information (hereinafter also referred to as “AR content”) is superimposed and displayed on a screen on which the captured paper document is displayed. Although content such as moving images cannot be expressed (reproduced) on paper, a moving image is specified as AR content of a still image printed on a paper document, and the moving image is superimposed on the still image on the screen of the smart terminal. It becomes possible. For example, Patent Document 1 discloses a technique for detecting a noticed word from an imaged paper document and superimposing and displaying extended information related to the noticed word.

特開2012−22442JP2012-22442

J.J.Koenderink and A.J.van Doorn, “Representation of local geometry in the visual system,” Riological Cybernetics, vol.55, pp.367−375, 1987J. et al. J. et al. Koenderink and A.K. J. et al. van Doorn, “Representation of local geometry in the visual system,” Riologic Cybernetics, vol. 55, pp. 367-375, 1987 菊田 裕次 井上 創造 岩井原 瑞穂、“重要度と誘目度を考慮した大量情報の提示手法および表示達成度を用いた評価について”、電子情報通信学会技術研究報告、2000年5月、Vol.100、No.31、pp.41−48Yuji Kikuta Sozo Inoue Mizuho Iwaihara, “About the presentation method of large amount of information in consideration of importance and attractiveness and evaluation using display achievement”, IEICE Technical Report, May 2000, Vol. 100, no. 31, pp. 41-48

前述した技術では、紙文書のARコンテンツとして表示される情報を閲覧者が注目しない可能性がある。たとえば、紙文書を閲覧する際に、紙文書に非常に目立つ色合いのコンテンツが存在すると、閲覧者は目立つ色合いのコンテンツに注目してしまい、ARコンテンツに注目しない可能性がある。ARコンテンツの提供者にとって、閲覧者に注目してもらいたい重要なARコンテンツの場合、ARコンテンツが閲覧者に注目されないことが問題になってしまう。たとえば、紙文書に付随する重要な情報がARコンテンツとして関連付けられており、ARコンテンツの提供者は閲覧者に注目されていることを期待している。しかし、実際は、閲覧者が該ARコンテンツに注目しないため、重要なARコンテンツの情報が閲覧者によって理解されない状況が生じてしまうと考えられる。   In the technology described above, there is a possibility that the viewer does not pay attention to information displayed as AR content of a paper document. For example, when browsing a paper document, if there is content with a very conspicuous color in the paper document, the viewer may focus on the content with a conspicuous color and may not pay attention to the AR content. For the AR content provider, in the case of important AR content that the viewer wants to be noticed, it becomes a problem that the AR content is not noticed by the viewer. For example, important information associated with a paper document is associated as AR content, and the provider of the AR content expects the viewer to attract attention. However, in reality, since the viewer does not pay attention to the AR content, it is considered that a situation occurs in which important AR content information is not understood by the viewer.

撮像対象のコンテンツがどのようなものであっても、それ以上に注目されやすいARコンテンツを用意しておくことも考えられるが、過度に目立つと美観を損なう。また、紙文書の情報を閲覧する環境は様々である。いずれの環境の下においても注目されやすいARコンテンツを用意しておくことは困難である。例えば、ARコンテンツを投影装置から紙文書が搭載されている平面に投射して閲覧する際には、周囲に存在する風景やその他の文書・オブジェクト、光源の位置などは、状況によって異なる。これらの状況に共通で注目されやすいARコンテンツを作成することは難しい。   Regardless of the content to be imaged, it may be possible to prepare AR content that is more noticeable than that, but if it is too conspicuous, the beauty will be impaired. In addition, there are various environments for browsing information on paper documents. It is difficult to prepare AR content that is likely to attract attention in any environment. For example, when the AR content is projected from a projection device onto a plane on which a paper document is mounted and viewed, the surrounding scenery, other documents / objects, the position of the light source, and the like vary depending on the situation. It is difficult to create AR content that is common to these situations and that attracts attention.

本発明は上記の課題に鑑みてなされたものであり、撮影された画像とともに表示する拡張情報を撮像情報に合わせて変更することにより拡張情報が注目されやすくする情報処理装置を提供することを目的とする。また、その方法、及びプログラムを提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an information processing apparatus in which extended information is easily noticed by changing extended information displayed together with a captured image according to imaging information. And Moreover, it aims at providing the method and program.

本発明に係る画像処理装置は以下の構成を備える。即ち、撮像された画像の特徴情報に基づいて当該撮像された画像とともに表示すべき拡張情報を取得する取得手段と、前記撮像された画像を分割した複数の領域画像のそれぞれの注目度を導出する導出手段と、前記複数の領域画像のそれぞれの注目度と、前記拡張情報の注目度とを比較する比較手段と、前記比較の結果に基づいて、前記拡張情報の表示条件を変更する変更手段。   An image processing apparatus according to the present invention has the following configuration. In other words, the acquisition means for acquiring extended information to be displayed together with the captured image based on the feature information of the captured image, and the attention level of each of the plurality of region images obtained by dividing the captured image are derived. Deriving means, comparing means for comparing the respective attention degrees of the plurality of area images with the attention degree of the extended information, and changing means for changing the display condition of the extended information based on the comparison result.

本発明によれば、撮像情報に基づいて、注目されやすい拡張情報を動的に生成することで、様々な撮像環境下に対応した注目されやすい拡張情報を提供することが可能になる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the extended information which attracts attention easily corresponding to various imaging environments by dynamically producing | generating the extended information which attracts attention based on imaging information.

本発明の実施形態におけるAR処理の概念図を示す。A conceptual diagram of AR processing in an embodiment of the present invention is shown. 本発明の実施形態におけるハードウェア構成の一例を示すブロック図を示す。The block diagram which shows an example of the hardware constitutions in embodiment of this invention is shown. 本発明の実施形態におけるAR処理システムの構成を示すブロック図を示す。The block diagram which shows the structure of the AR processing system in embodiment of this invention is shown. 本発明の実施形態におけるAR処理全体の流れを示すフローチャートを示す。3 is a flowchart showing the overall flow of AR processing in the embodiment of the present invention. 本発明の実施形態における特徴量抽出処理の流れを示すフローチャートを示す。5 is a flowchart showing a flow of feature amount extraction processing in the embodiment of the present invention. 本発明の実施形態における縮小画像の一例を示す。An example of the reduced image in embodiment of this invention is shown. 本発明の実施形態におけるARコンテンツ管理テーブルの一例を示す。An example of the AR content management table in the embodiment of the present invention is shown. 本発明の実施形態におけるARコンテンツテーブルの一例を示す。An example of the AR content table in the embodiment of the present invention is shown. 本発明の実施形態における注目度算出処理の流れを示すフローチャートを示す。The flowchart which shows the flow of the attention degree calculation process in embodiment of this invention is shown. 本発明の実施形態における撮像情報注目度算出処理の概念図を示す。The conceptual diagram of the imaging information attention degree calculation process in embodiment of this invention is shown. 本発明の実施形態におけるARコンテンツ変更処理の流れを示すフローチャートを示す。The flowchart which shows the flow of the AR content change process in embodiment of this invention is shown. 本発明の実施形態におけるARコンテンツ変更結果の一例を示す。An example of the AR content change result in the embodiment of the present invention is shown. 本発明の実施形態における情報処理装置の外観と構成の一例を示す。1 shows an example of the appearance and configuration of an information processing apparatus according to an embodiment of the present invention.

以下、本発明の実施形態について添付の図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

<実施形態1>
はじめに、本実施形態における処理概要を説明する。紙文書内の特徴情報に関連するARコンテンツ(拡張情報)を、スマート端末などの情報表示装置の画面に表示されている紙文書上に重畳表示するシステムである。以降、本システムのことを単にAR処理システムと記載する。
<Embodiment 1>
First, an outline of processing in the present embodiment will be described. In this system, AR content (extended information) related to feature information in a paper document is superimposed and displayed on a paper document displayed on a screen of an information display device such as a smart terminal. Hereinafter, this system is simply referred to as an AR processing system.

当該AR処理システムでは、スマート端末のカメラにより紙文書を撮像すると、撮像画像から抽出された特徴情報と関連するARコンテンツを特定し、ARコンテンツ(拡張情報)をスマート端末などの情報表示装置の画面に表示されている紙文書上に重畳表示する。   In the AR processing system, when a paper document is captured by a camera of a smart terminal, AR content related to feature information extracted from the captured image is specified, and the AR content (extended information) is displayed on a screen of an information display device such as a smart terminal. Is superimposed on the paper document displayed on the screen.

図1は、本AR処理システムの概念図である。スマート端末102により紙文書101を撮像すると、紙文書の撮像画像から抽出された特徴情報に関連するARコンテンツ(拡張情報)をARコンテンツDB103から特定する。そして、特定されたARコンテンツ(拡張情報)をスマート端末の画面に紙文書の撮像情報とともに表示する。図1の表示結果例Aでは、紙文書とARコンテンツ105を含むビューが表示結果104として表示されている。表示結果例Bでは、ARコンテンツ107を含むビューが表示結果106として表示されている。表示結果例Bでは、表示結果の生成を行う際に、ARコンテンツ(拡張情報)は、ARコンテンツ(拡張情報)の閲覧者にとって注目されやすいように表示処理が行われている。ARコンテンツDB103から特定したARコンテンツ(拡張情報)に対し、閲覧者にとって注目しやすい形式に変換がおこなわれた後、変換後のARコンテンツ(拡張情報)を表示出力されている。図1の表示結果例Bでは、注目を惹きつけてしまいやすいグラフを隠すようにARコンテンツ(拡張情報)の表示位置とサイズを変更している。その他、ARコンテンツ(拡張情報)自体に注目を惹きつけやすくなるように色を変換しても良い。本処理によって、ARコンテンツが注目を惹きつけ易くなるので、閲覧者がARコンテンツを見逃しにくい表示出力を動的に生成することが可能になる。   FIG. 1 is a conceptual diagram of the AR processing system. When the paper document 101 is captured by the smart terminal 102, AR content (extended information) related to the feature information extracted from the captured image of the paper document is specified from the AR content DB 103. Then, the specified AR content (extended information) is displayed on the screen of the smart terminal together with the imaging information of the paper document. In the display result example A in FIG. 1, a view including a paper document and the AR content 105 is displayed as the display result 104. In the display result example B, a view including the AR content 107 is displayed as the display result 106. In the display result example B, when the display result is generated, the AR content (extended information) is subjected to display processing so that a viewer of the AR content (extended information) is likely to receive attention. After the AR content (extended information) identified from the AR content DB 103 is converted into a format that is easy for the viewer to watch, the converted AR content (extended information) is displayed and output. In the display result example B of FIG. 1, the display position and size of the AR content (extended information) are changed so as to hide a graph that tends to attract attention. In addition, the colors may be converted so that the AR content (extended information) itself is likely to attract attention. This process makes it easy for the AR content to attract attention, so that it is possible to dynamically generate a display output that makes it difficult for the viewer to miss the AR content.

以降、図2〜図12を用いて詳細に説明する。   Hereinafter, a detailed description will be given with reference to FIGS.

図2は、本実施形態における情報処理システム(以下、「AR処理システム」とも記載する)に含まれる各ハードウェア構成の一例である。   FIG. 2 is an example of each hardware configuration included in the information processing system (hereinafter also referred to as “AR processing system”) in the present embodiment.

CPU(Central Processing Unit)202は、各種処理のための演算や論理判断などを行い、バス201に接続された各種要素を制御する。   A CPU (Central Processing Unit) 202 performs calculations and logic determinations for various processes, and controls various elements connected to the bus 201.

本AR処理システムは、プログラムメモリとデータメモリを含むメモリが搭載されている。プログラムメモリには、フローチャートにより後述する各種処理手順を含むCPUによる制御のためのプログラムを格納する。このメモリはROM(Read−Only Memory)203であっても良いし、外部記憶装置などからプログラムがロードされるRAM(Random Access Memory)204であっても良い。あるいは、これらの組合せで実現しても構わない。   The AR processing system is equipped with a memory including a program memory and a data memory. The program memory stores a program for control by the CPU including various processing procedures described later with reference to flowcharts. This memory may be a ROM (Read-Only Memory) 203 or a RAM (Random Access Memory) 204 into which a program is loaded from an external storage device or the like. Or you may implement | achieve with these combination.

記憶装置205は本実施形態に係るデータやプログラムを記憶しておくためのハードディスクなどの装置である。また、本実施形態では、写真や文書等を保持しておくためにも利用される。なお、写真や文書等を保持しておく装置としては、外部接続やネットワークに接続された不図示のデータ保持装置を用いても良い。ここで、外部記憶装置206は、たとえば、メディア(記録媒体)と、当該メディアへのアクセスを実現するための外部記憶ドライブとで実現することができる。このようなメディアとしては、たとえば、フレキシブルディスク(FD)、CD−ROM、DVD、USBメモリ、MO、フラッシュメモリ等が知られている。   The storage device 205 is a device such as a hard disk for storing data and programs according to the present embodiment. In the present embodiment, it is also used for holding photographs, documents, and the like. Note that a data holding device (not shown) connected to an external connection or a network may be used as a device for holding photographs, documents, and the like. Here, the external storage device 206 can be realized by, for example, a medium (recording medium) and an external storage drive for realizing access to the medium. As such media, for example, a flexible disk (FD), a CD-ROM, a DVD, a USB memory, an MO, a flash memory, and the like are known.

入力装置207はユーザからの指示を入力するための装置である。ユーザは入力装置207を介して、当該AR処理システムに指示を行う。入力装置207は、たとえば、キーボードやポインティングデバイスにより実現することができる。   The input device 207 is a device for inputting an instruction from the user. The user gives an instruction to the AR processing system via the input device 207. The input device 207 can be realized by, for example, a keyboard or a pointing device.

出力装置208は処理結果等を表示出力する表示手段としての装置である。出力装置208は、たとえば、出力のための回路を含むCRT(Cathode−Ray Tube)や液晶表示器などのディスプレイ装置により実現することができる。本実施形態においては、写真や文書等を出力装置208に表示する。   The output device 208 is a device as display means for displaying and outputting the processing result and the like. The output device 208 can be realized, for example, by a display device such as a CRT (Cathode-Ray Tube) including a circuit for output or a liquid crystal display. In the present embodiment, photographs, documents, etc. are displayed on the output device 208.

インタフェース(以下、「I/F」とも記載する)209は、情報の仲介を行う装置であり、このI/F209を介して外部装置とのデータのやり取りを行う。ネットワークインタフェースや入出力インタフェースである。   An interface (hereinafter also referred to as “I / F”) 209 is a device that mediates information, and exchanges data with an external device via this I / F 209. Network interface and input / output interface.

図3は、本実施形態におけるAR処理システムの構成を示すブロック図である。該システムは、AR表示装置301、AR処理装置302から構成される。各装置は、図2にて説明したハードウェア構成を持つ。   FIG. 3 is a block diagram showing the configuration of the AR processing system in the present embodiment. The system includes an AR display device 301 and an AR processing device 302. Each device has the hardware configuration described in FIG.

AR表示装置301は、カメラによる撮像処理を行う撮像部303、AR処理装置により生成されたARコンテンツを表示する表示部304から構成される。撮像部303は、カメラにより紙文書等の撮像を行う。撮像された紙文書に関連する拡張情報としてARコンテンツが表示部304に表示されることになる。   The AR display device 301 includes an imaging unit 303 that performs imaging processing by a camera, and a display unit 304 that displays AR content generated by the AR processing device. The imaging unit 303 images a paper document or the like with a camera. The AR content is displayed on the display unit 304 as extended information related to the captured paper document.

AR処理装置302は、撮像部303によりI/F209を介して入力された画像情報に基づき、表示部304に出力するARコンテンツを生成する装置である。AR処理装置302は、特徴量抽出部305、コンテンツ特定部306、注目度算出部307、ARコンテンツ変更部308から構成される。特徴量抽出部305は、撮像部303により入力された画像情報から特徴量を抽出する。特徴量の抽出方法の詳細については後述する。コンテンツ特定部306は、特徴量抽出部305により抽出された特徴量を用いて、対応するARコンテンツを特定する。コンテンツ特定処理は、図1のARコンテンツDBにて保持されるARコンテンツ管理テーブルを参照して行われる。ARコンテンツDBは、AR処理装置302の記憶装置205若しくはI/F209を介してアクセスできる外部記憶装置206に存在する。ARコンテンツ管理テーブルの詳細は、図7を用いて後述する。注目度算出部307は、撮像部303により入力された画像情報およびARコンテンツ特定部306により特定されたARコンテンツに対する注目度算出処理を行う。注目度算出処理の詳細は、図9を用いて後述する。ARコンテンツ変更部308は、注目度算出部307により算出された画像情報に対する注目度およびARコンテンツに対する注目度に基づき、ARコンテンツを変更する。ARコンテンツ変更処理の詳細は、図11を用いて後述する。   The AR processing device 302 is a device that generates AR content to be output to the display unit 304 based on image information input by the imaging unit 303 via the I / F 209. The AR processing device 302 includes a feature amount extraction unit 305, a content specification unit 306, an attention level calculation unit 307, and an AR content change unit 308. The feature amount extraction unit 305 extracts a feature amount from the image information input by the imaging unit 303. Details of the feature amount extraction method will be described later. The content identifying unit 306 identifies the corresponding AR content using the feature amount extracted by the feature amount extracting unit 305. The content specifying process is performed with reference to the AR content management table held in the AR content DB of FIG. The AR content DB exists in the external storage device 206 that can be accessed via the storage device 205 or the I / F 209 of the AR processing device 302. Details of the AR content management table will be described later with reference to FIG. The attention level calculation unit 307 performs attention level calculation processing on the image information input by the imaging unit 303 and the AR content specified by the AR content specification unit 306. Details of the attention level calculation processing will be described later with reference to FIG. The AR content changing unit 308 changes the AR content based on the attention level for the image information and the attention level for the AR content calculated by the attention level calculation unit 307. Details of the AR content change process will be described later with reference to FIG.

各処理は図2のCPU202によって制御されている。当該処理群の詳細は後述する。   Each process is controlled by the CPU 202 of FIG. Details of the processing group will be described later.

撮影部301、表示部302と、特徴量抽出部305、コンテンツ特定部306、注目度算出部307、ARコンテンツ変更部308と、を単体の装置で提供することも可能である。   The photographing unit 301, the display unit 302, the feature amount extracting unit 305, the content specifying unit 306, the attention level calculating unit 307, and the AR content changing unit 308 can be provided as a single device.

尚、CPUはプログラムを実行することで各種の手段として機能することが可能である。   The CPU can function as various means by executing a program.

なお、CPUと協調して動作するASICなどの制御回路がこれらの手段として機能してもよい。また、CPUと画像処理装置の動作を制御する制御回路との協調によってこれらの手段が実現されてもよい。また、CPUは単一のものである必要はなく、複数であってもよい。この場合、複数のCPUは分散して処理を実行することが可能である。また、複数のCPUは単一のコンピュータに配置されていてもよいし、物理的に異なる複数のコンピュータに配置されていてもよい。なお、CPUがプログラムを実行することで実現する手段が専用の回路によって実現されてもよい。   Note that a control circuit such as an ASIC that operates in cooperation with the CPU may function as these means. These means may be realized by cooperation between the CPU and a control circuit that controls the operation of the image processing apparatus. Further, the CPU need not be a single one, and may be a plurality. In this case, a plurality of CPUs can perform processing in a distributed manner. The plurality of CPUs may be arranged in a single computer, or may be arranged in a plurality of physically different computers. Note that the means realized by the CPU executing the program may be realized by a dedicated circuit.

図4は、本実施形態におけるAR処理システム全体の流れをフローチャートにより説明するものである。以下、フローチャートは、CPUが制御プログラムを実行することにより実現されるものとする。   FIG. 4 is a flowchart for explaining the overall flow of the AR processing system according to this embodiment. Hereinafter, the flowchart is realized by the CPU executing the control program.

ステップS4000は文書撮像処理であり、図3に示された撮像部303により紙文書を撮像する。   Step S4000 is document imaging processing, in which a paper document is imaged by the imaging unit 303 shown in FIG.

ステップS4010は特徴量抽出処理であり、図3に示された特徴量抽出部305により実行される。特徴量抽出処理では、ステップS4000にて撮像された紙文書から特徴情報の画像特徴量を抽出する。特徴情報は、紙に印刷されていても良いし、その他、撮像部により認識できる特徴情報を指す。その他の特徴情報としては、不可視の透かし情報や紙文などが存在する。特徴量抽出処理の詳細は後述する。   Step S4010 is a feature quantity extraction process, which is executed by the feature quantity extraction unit 305 shown in FIG. In the feature amount extraction process, the image feature amount of the feature information is extracted from the paper document imaged in step S4000. The feature information may be printed on paper or may be feature information that can be recognized by the imaging unit. Other feature information includes invisible watermark information and paper text. Details of the feature amount extraction processing will be described later.

ステップS4020はARコンテンツ特定処理であり、図3に示したコンテンツ特定部306により実現する。ARコンテンツ特定処理では、ステップS4010で抽出した特徴量および図7を用いて後述するARコンテンツ管理テーブルを用いて、ARコンテンツを特定する。   Step S4020 is an AR content specifying process, which is realized by the content specifying unit 306 shown in FIG. In the AR content specifying process, the AR content is specified using the feature amount extracted in step S4010 and an AR content management table described later with reference to FIG.

ステップS4030は、注目度算出処理であり、図3に示した注目度算出部307により実現される。注目度算出処理では、ステップS4000にて撮像された紙文書の画像情報およびステップS4020にて特定されたARコンテンツに対する注目度の算出を行う。特定されたARコンテンツの情報は、図8を用いて後述するARコンテンツテーブルを参照することで取得可能である。ARコンテンツの注目度は予め算出しておき、ARコンテンツテーブルで管理していれば、その注目度を用いて導出することもできる。注目度算出処理の詳細は後述する。   Step S4030 is attention level calculation processing, which is realized by the attention level calculation unit 307 shown in FIG. In the attention level calculation process, the attention level is calculated for the image information of the paper document imaged in step S4000 and the AR content specified in step S4020. Information on the specified AR content can be acquired by referring to an AR content table described later with reference to FIG. The degree of attention of the AR content can be calculated in advance, and can be derived using the degree of attention as long as it is managed in the AR content table. Details of the attention level calculation processing will be described later.

ステップS4040は、注目度判定処理である。注目度判定処理では、ステップS4030において算出した撮像された紙文書の注目度とARコンテンツの注目度との比較処理を行う。比較の結果、ARコンテンツの注目度の方が撮像された紙文書よりも高い場合、処理を終了する。一方、比較結果において、ARコンテンツの注目度が撮像された紙文書よりも低い場合、ステップS4050へ移行する。   Step S4040 is attention level determination processing. In the attention level determination process, a comparison process between the attention level of the captured paper document calculated in step S4030 and the attention level of the AR content is performed. As a result of the comparison, when the attention level of the AR content is higher than that of the captured paper document, the process ends. On the other hand, in the comparison result, when the attention level of the AR content is lower than that of the captured paper document, the process proceeds to step S4050.

ステップS4050は、ARコンテンツ変更処理であり、図3に示したARコンテンツ変更部308により実現する。ARコンテンツ変更処理では、ARコンテンツの注目度が撮像された紙文書よりも高くなるように、ARコンテンツを変更する。   Step S4050 is an AR content change process, which is realized by the AR content change unit 308 shown in FIG. In the AR content change process, the AR content is changed so that the attention level of the AR content is higher than that of the captured paper document.

次に、図4のステップS4010における特徴量抽出処理について詳細を説明する。特徴量抽出とは、画像の局所的な特徴量(以下、局所特徴量とも記載する)を抽出する処理である。局所特徴量は、回転不変、拡大・縮小不変という性質を持つ。当該特徴により、画像を回転もしくは拡大又は縮小した場合であっても特徴量を使った画像の特定処理を可能にする。   Next, details of the feature amount extraction processing in step S4010 of FIG. 4 will be described. The feature amount extraction is a process of extracting a local feature amount of an image (hereinafter also referred to as a local feature amount). A local feature has a property of rotation invariance and enlargement / reduction invariance. With this feature, even when the image is rotated, enlarged, or reduced, it is possible to specify the image using the feature amount.

局所特徴量抽出処理は、既存の局所特徴量抽出技術を用いて行うことが可能である。以下、簡単に局所特徴量抽出技術の一例を示す。以下の例では、紙文書の撮像情報から得た画像データ全体の局所特徴量を求めているが、部分画像の局所特徴量を求めても良い。また、画像の局所特徴量を用いずに、QRコード(登録商標)などを認識しても良い。   The local feature quantity extraction process can be performed using an existing local feature quantity extraction technique. Hereinafter, an example of a local feature extraction technique will be simply shown. In the following example, the local feature amount of the entire image data obtained from the imaging information of the paper document is obtained, but the local feature amount of the partial image may be obtained. Further, a QR code (registered trademark) or the like may be recognized without using the local feature amount of the image.

図5は、画像からの局所特徴量抽出処理の流れをフローチャートにより説明するものである。   FIG. 5 is a flowchart for explaining the flow of local feature extraction processing from an image.

入力画像の読み込みステップS5000では、指定された画像を読み込む。   In the input image reading step S5000, the designated image is read.

輝度成分画像の作成ステップS5010では、ステップS5000で読み込まれた入力画像から輝度成分を抽出し、輝度成分画像を生成する。   In the luminance component image creation step S5010, a luminance component is extracted from the input image read in step S5000 to generate a luminance component image.

縮小画像生成ステップS5020では、ステップS5010にて作成した輝度成分画像に対して、倍率pに従って順次縮小し、縮小画像をn枚生成する。ここで、倍率p及び縮小画像の枚数nは予め規定されているものとする。   In a reduced image generation step S5020, the luminance component image created in step S5010 is sequentially reduced according to the magnification p, and n reduced images are generated. Here, the magnification p and the number n of reduced images are defined in advance.

図6は、ステップS5020の縮小画像生成処理の一例を示す図である。図6では、倍率pを2の−(1/4)乗、縮小によって生成される縮小画像の枚数nを8にした場合の例を示す。ただし、この例では、倍率pを面積比ではなく辺の長さの比としている。図6において、601はステップS5010で作成した輝度成分画像である。602は輝度成分画像601から倍率pに従って4回縮小された縮小画像であり、輝度成分画像601を1/2に縮小した画像に相当する。また、603は輝度成分画像601から倍率pに従って8回縮小された縮小画像であり、輝度成分画像601を1/4に縮小した画像に相当する。なお、画像を縮小する方法は単純に画素を間引く方法、線形補間を用いる方法、低域フィルタ適用後にサンプリングする方法など様々あるが、本実施形態での縮小画像の生成方法は何れの方法でもよい。604はスケール番号であり、縮小画像のサイズが大きい方から順に付与される番号である。   FIG. 6 is a diagram illustrating an example of the reduced image generation process in step S5020. FIG. 6 shows an example in which the magnification p is 2 to the power of-(1/4) and the number n of reduced images generated by reduction is 8. However, in this example, the magnification p is not the area ratio but the side length ratio. In FIG. 6, reference numeral 601 denotes the luminance component image created in step S5010. Reference numeral 602 denotes a reduced image obtained by reducing the luminance component image 601 four times in accordance with the magnification p, and corresponds to an image obtained by reducing the luminance component image 601 by half. Reference numeral 603 denotes a reduced image obtained by reducing the luminance component image 601 eight times according to the magnification p, and corresponds to an image obtained by reducing the luminance component image 601 to ¼. Note that there are various methods for reducing an image, such as a method for thinning out pixels, a method using linear interpolation, a method for sampling after applying a low-pass filter, and the generation method of a reduced image in this embodiment may be any method. . Reference numeral 604 denotes a scale number, which is assigned in order from the larger size of the reduced image.

ステップS5030では、ステップS5010で作成した輝度成分画像およびステップS5020で得られたn枚の縮小画像のそれぞれから局所的な特徴点(局所特徴点)を抽出する。ここで抽出する局所特徴点は、画像に回転や縮小などの画像処理を施しても同じ場所から安定的に抽出されるようなロバストな局所特徴点である。このような局所特徴点を抽出する方法として、Harris作用素などが存在する。   In step S5030, local feature points (local feature points) are extracted from each of the luminance component image created in step S5010 and the n reduced images obtained in step S5020. The local feature points extracted here are robust local feature points that can be stably extracted from the same place even if image processing such as rotation or reduction is performed on the image. As a method for extracting such local feature points, there is a Harris operator or the like.

具体的には、Harris作用素を作用させて得られた画像の画素それぞれについて、着目画素とその周囲8近傍にある画素(合計9画素)の画素値を調べる。着目画素の画素値が予め定めた値以上であり、かつ局所極大になる(当該9画素の中で該当画素の画素値が最大になる)場合に、着目画素が位置する点を局所特徴点として抽出する。なお、ロバストな局所特徴点を抽出可能な方法であれば、上述のHarris作用素による特徴点抽出方法に限らず、どのような特徴点抽出方法でも適用可能である。   Specifically, for each pixel of the image obtained by applying the Harris operator, the pixel values of the pixel of interest and pixels in the vicinity of the surrounding 8 (a total of 9 pixels) are examined. When the pixel value of the pixel of interest is greater than or equal to a predetermined value and has a local maximum (the pixel value of the pixel of interest is the maximum among the nine pixels), the point where the pixel of interest is located is defined as a local feature point Extract. Note that any feature point extraction method is applicable as long as it is a method capable of extracting a robust local feature point, not limited to the above-described feature point extraction method using the Harris operator.

次にステップS5040では、ステップS5030で得られた局所特徴点それぞれについて、画像の回転があっても不変となるように定義された特徴量(局所特徴量)を算出する。この局所特徴量の算出方法として、本実施形態では非特許文献1のLocal Jet及びそれらの導関数の組合せを用いる。   Next, in step S5040, for each local feature point obtained in step S5030, a feature quantity (local feature quantity) defined so as to remain unchanged even when the image is rotated is calculated. As a method for calculating the local feature amount, in this embodiment, a local jet of Non-Patent Document 1 and a combination of derivatives thereof are used.

当該手法により、算出される局所特徴量は、拡大もしくは縮小、又は回転に対して、比較的高い耐性を持つような特性を持たせることができる。具体的には、式(1)に示す局所的な特徴量を算出する。   By this method, the calculated local feature amount can have characteristics that have a relatively high resistance to enlargement, reduction, or rotation. Specifically, the local feature amount shown in Expression (1) is calculated.

Figure 0006168872
Figure 0006168872

ただし、式(1)の右辺で用いている記号は、以下に示す式(2)から式(7)で定義される。ここで、式(2)右辺のG(x,y)はガウス関数、I(x,y)は画像の座標(x,y)における画素値であり、“*”は畳み込み演算を表す記号である。また、式(3)は式(2)で定義された変数Lのxに関する偏導関数、式(4)は当該変数Lのyに関する偏導関数である。式(5)は式(3)で定義された変数Lxのyに関する偏導関数、式(6)は式(3)で定義されたLxのxに関する偏導関数、式(7)は式(4)で定義されたLyのyに関する偏導関数である。   However, the symbols used on the right side of the equation (1) are defined by the following equations (2) to (7). Here, G (x, y) on the right side of Expression (2) is a Gaussian function, I (x, y) is a pixel value at image coordinates (x, y), and “*” is a symbol representing a convolution operation. is there. Equation (3) is a partial derivative of variable L defined by equation (2) with respect to x, and equation (4) is a partial derivative of variable L with respect to y. Equation (5) is the partial derivative of y of the variable Lx defined in Equation (3), Equation (6) is the partial derivative of Lx defined in Equation (3), and Equation (7) is the equation ( This is a partial derivative of Ly defined by 4) with respect to y.

Figure 0006168872
Figure 0006168872

Figure 0006168872
Figure 0006168872

Figure 0006168872
Figure 0006168872

Figure 0006168872
Figure 0006168872

Figure 0006168872
Figure 0006168872

Figure 0006168872
Figure 0006168872

なお、局所特徴量の算出方法は上述の方法に限らず他の局所特徴量の算出方法も適用可能である。他の局所特徴量の例としては、SIFT特徴量、SURF特徴量などがある。   In addition, the calculation method of a local feature-value is not restricted to the above-mentioned method, The calculation method of another local feature-value is applicable. Examples of other local feature values include SIFT feature values and SURF feature values.

次に、図4のステップS4020にて参照されるARコンテンツ管理テーブルについて詳細に説明する。ARコンテンツ管理テーブルは、ARコンテンツと該ARコンテンツを表示する際の条件となる画像特徴量とを対応付けて管理するテーブルである。図4のステップS4020において、本ARコンテンツ管理テーブルを参照することで、撮像された紙文書と関連するARコンテンツが特定される。本ARコンテンツ管理テーブルは、紙文書が作成されると、紙文書に関連するARコンテンツと紙文書の画像特徴量とが対応付けられて登録される。   Next, the AR content management table referred to in step S4020 of FIG. 4 will be described in detail. The AR content management table is a table that manages AR content in association with image feature amounts that are conditions for displaying the AR content. In step S4020 of FIG. 4, the AR content related to the captured paper document is specified by referring to the AR content management table. In the AR content management table, when a paper document is created, the AR content related to the paper document and the image feature amount of the paper document are registered in association with each other.

図7は、ARコンテンツ管理テーブルの一例である。ARコンテンツ管理テーブルは、ARコンテンツを一意に特定するARコンテンツID701、ARコンテンツを特定するためのキーとなる画像特徴量702から構成される。“ID701”はARコンテンツの識別情報である。本ARコンテンツ管理テーブルを用いて、図4のステップS4010にて抽出された画像特徴量と同一の画像特徴量が本ARコンテンツ管理テーブルの画像特徴量702に含まれているかを判定する。そして、紙文書の撮像情報の画像特徴量が本ARコンテンツ管理テーブルに含まれている場合には、合致した画像特徴量に関連付けられているARコンテンツを撮像された紙文書に関連するARコンテンツとして特定できる。   FIG. 7 is an example of an AR content management table. The AR content management table includes an AR content ID 701 for uniquely specifying the AR content, and an image feature amount 702 serving as a key for specifying the AR content. “ID 701” is identification information of the AR content. Using the AR content management table, it is determined whether the image feature amount 702 of the AR content management table includes the same image feature amount as the image feature amount extracted in step S4010 of FIG. When the image feature amount of the imaging information of the paper document is included in the AR content management table, the AR content associated with the matched image feature amount is used as the AR content associated with the captured paper document. Can be identified.

なお、本実施形態では、紙文書の作成と同時にARコンテンツが登録されることとしたが、紙文書の作成と同時である必要はない。たとえば、紙文書が作成された後、関連するARコンテンツとして本ARコンテンツ管理テーブルに登録してもよい。また、撮像された紙文書に対して文字認識技術等の技術を用いて、紙文書に含まれる情報の抽出を行う。そして、抽出された情報を検索クエリとして、インターネット等から情報を検索し、検索された情報から動的にARコンテンツを作成、登録してもよい。   In the present embodiment, the AR content is registered at the same time as the paper document is created, but it is not necessary to be at the same time as the paper document. For example, after a paper document is created, it may be registered in the AR content management table as related AR content. Also, information contained in the paper document is extracted from the captured paper document using a technique such as a character recognition technique. Then, using the extracted information as a search query, information may be searched from the Internet or the like, and AR content may be dynamically created and registered from the searched information.

次に、ステップS4030で参照されるARコンテンツテーブルについて詳細を説明する。ARコンテンツテーブルは、図7を用いて説明したARコンテンツ管理テーブルに含まれるARコンテンツID701が示すARコンテンツの実体データおよび表示条件(表示位置、表示サイズ)を保持する。   Next, the details of the AR content table referred to in step S4030 will be described. The AR content table holds entity data and display conditions (display position and display size) of the AR content indicated by the AR content ID 701 included in the AR content management table described with reference to FIG.

図8は、ARコンテンツテーブルの一例である。ARコンテンツテーブルは、ARコンテンツを特定するARコンテンツID801、データの記憶場所を示すデータパス802、表示サイズを示す幅803、高さ804、表示位置を示す表示位置805から構成される。ARコンテンツID801には、図7を用いて説明を行ったARコンテンツID701に記載される情報と同一の情報が記載される。   FIG. 8 is an example of an AR content table. The AR content table includes an AR content ID 801 for specifying the AR content, a data path 802 indicating the data storage location, a width 803 indicating the display size, a height 804, and a display position 805 indicating the display position. In the AR content ID 801, the same information as the information described in the AR content ID 701 described with reference to FIG. 7 is described.

図4のステップS4020にて特定されたARコンテンツIDを用いて、本ARコンテンツテーブルを参照することで、ARコンテンツの実体データと表示条件が取得できる。   By referring to the AR content table using the AR content ID specified in step S4020 of FIG. 4, the entity data and display conditions of the AR content can be acquired.

データパス802は、ARコンテンツの実体データを示すファイルへのデータパスであり、ファイルシステムがサポートする相対パスもしくは絶対パスにて記載される。図8の例では、データパスは相対パスにて表現されており、画像データを示すファイルへのパス806、動画データを示すファイルへのパス807、HTMLデータを示すファイルへのパス808が記載されている。本実施形態では、ファイルへのパス情報を記載するようにしたが、実体データを表現できるものであれば異なる形式でもよい。たとえば、ARコンテンツの実体データを示す画像のバイナリデータを格納してもよい。また、HTMLをテキスト形式で記載したデータを格納することも可能である。   A data path 802 is a data path to a file indicating the actual data of the AR content, and is described as a relative path or an absolute path supported by the file system. In the example of FIG. 8, the data path is expressed as a relative path, and a path 806 to a file indicating image data, a path 807 to a file indicating moving image data, and a path 808 to a file indicating HTML data are described. ing. In the present embodiment, the path information to the file is described. However, any format may be used as long as it can represent the entity data. For example, image binary data indicating entity data of AR content may be stored. It is also possible to store data describing HTML in text format.

表示サイズ(幅)803は、ARコンテンツを表示する際の幅を示すデータである。幅を示すデータの単位は、ピクセルであり、ARコンテンツを表示する際は、表示サイズ(幅)803で指定された値になるように表示される。表示サイズ(高さ)804は、ARコンテンツを表示する際の高さを示すデータである。表示サイズ(幅)と同様に、本データの単位は、ピクセルで表現される。表示位置805は、ARコンテンツを表示する際の位置を示すデータである。位置データの単位はピクセルで表現されており、表示デバイス上の左上を原点(0、0)としたデバイスのピクセルに対応する。なお、本実施形態では、表示サイズ(幅)803、表示サイズ(高さ)804および表示位置805の単位をピクセルとしたが、異なる単位を用いてもよい。たとえば、mmなどの単位を用いることが可能である。また、表示位置805に関しては、表示デバイスの左上を原点とする座標系を用いたが、異なる方法を用いても良い。具体的には、表示デバイスの絶対座標を用いるのではなく、撮像されている紙文書の左上を原点とした相対座標を用いることも可能である。相対座標を用いることで、表示デバイスによらないARコンテンツの情報を規定することが可能になる。   The display size (width) 803 is data indicating the width when displaying the AR content. The unit of data indicating the width is a pixel, and when displaying the AR content, the data is displayed so as to have a value specified by the display size (width) 803. The display size (height) 804 is data indicating the height when the AR content is displayed. Similar to the display size (width), the unit of this data is expressed in pixels. A display position 805 is data indicating a position when the AR content is displayed. The unit of the position data is expressed in pixels, and corresponds to the pixel of the device having the upper left on the display device as the origin (0, 0). In this embodiment, the units of the display size (width) 803, the display size (height) 804, and the display position 805 are pixels, but different units may be used. For example, a unit such as mm can be used. For the display position 805, a coordinate system having the origin at the upper left of the display device is used, but a different method may be used. Specifically, instead of using the absolute coordinates of the display device, it is also possible to use relative coordinates with the upper left corner of the paper document being imaged as the origin. By using the relative coordinates, it becomes possible to define information on AR content that does not depend on the display device.

次に、ステップS4030における注目度算出処理について詳細を説明する。注目度算出処理では、図4のステップS4010にて撮像された紙文書の撮像画像およびステップS4020にて特定されたARコンテンツに対して、注目度の算出処理を行う。当該処理の詳細について、図9を用いて説明を行う。   Next, details of the attention level calculation processing in step S4030 will be described. In the attention level calculation processing, attention level calculation processing is performed on the captured image of the paper document captured in step S4010 of FIG. 4 and the AR content specified in step S4020. Details of the processing will be described with reference to FIG.

図9は、注目度算出処理の流れをフローチャートにより説明するものである。
ステップS9000は、ARコンテンツの注目度算出処理である。ARコンテンツの注目度算出処理では、図4のステップS4020にて特定されたARコンテンツについて注目度の算出処理を行う。注目度算出の対象となるARコンテンツのデータについては、前述したARコンテンツテーブルを用いて取得することが可能である。ARコンテンツテーブルのデータパス802を参照し、取得したARコンテンツに対して、注目度を算出する。本実施形態では、注目度の算出として既存の注目度算出技術を用いる。既存の注目度算出技術としては、たとえば、下記の非特許文献2がある。非特許文献2では、表示されたオブジェクトに対する注目の集めやすさを誘目度と表現し、誘目度を算出する方法を開示している。具体的には、オブジェクトの色相などを用いて、誘目度を算出することが可能である。
FIG. 9 is a flowchart for explaining the flow of attention level calculation processing.
Step S9000 is an AR content attention level calculation process. In the AR content attention level calculation processing, attention level calculation processing is performed for the AR content specified in step S4020 of FIG. The AR content data that is subject to attention level calculation can be acquired using the AR content table described above. The attention level is calculated for the acquired AR content with reference to the data path 802 of the AR content table. In the present embodiment, an existing attention level calculation technique is used for calculating the attention level. As an existing attention level calculation technique, for example, there is the following Non-Patent Document 2. Non-Patent Document 2 discloses a method of calculating the degree of attraction by expressing the ease of attracting attention for the displayed object as the degree of attraction. Specifically, it is possible to calculate the degree of attraction using the hue of the object.

本実施形態では、上述の非特許文献2に記載される誘目度を算出する計算式を用いて、誘目度を求め、求められた誘目度を注目度として、不図示のARコンテンツ注目度DBに格納する。計算式の一例としては、式(8)がある。式(8)は色相を用いた注目度の算出式である。式(8)において、Hは表示されたオブジェクトの色相を示し、Hdは色相を用いて算出される注目度(誘目度)を示す。   In the present embodiment, using the calculation formula for calculating the degree of attraction described in Non-Patent Document 2 above, the degree of attraction is obtained, and the obtained degree of attraction is used as the degree of attention in the AR content attention degree DB (not shown). Store. As an example of the calculation formula, there is formula (8). Formula (8) is a formula for calculating the degree of attention using the hue. In Equation (8), H indicates the hue of the displayed object, and Hd indicates the degree of attention (attraction) calculated using the hue.

Figure 0006168872
Figure 0006168872

上記の計算式(8)を用いて、ARコンテンツが画像データである場合に画像データの色相から注目度を算出することができる。また、HTMLデータのようにARコンテンツが画像データでない場合も、表示結果としてレンダリングした画像データを生成し、この画像データに対して誘目度を算出することで、注目度を計算することが可能である。   Using the above calculation formula (8), when the AR content is image data, the attention level can be calculated from the hue of the image data. Further, even when the AR content is not image data such as HTML data, it is possible to calculate the degree of attention by generating image data rendered as a display result and calculating the degree of attraction for the image data. is there.

ステップS9010は、撮像情報の注目度算出処理である。撮像情報の注目度算出処理では、図4のステップS4010にて撮像された紙文書の撮像情報に対して注目度算出を行う。撮像情報には、紙文書以外にも周囲の情報を含んでも良い。紙文書の周囲に注目を惹く情報があれば、それに対応して、ARコンテンツを変更する。   Step S9010 is imaging information attention level calculation processing. In the imaging information attention level calculation processing, attention level calculation is performed on the imaging information of the paper document captured in step S4010 of FIG. The imaging information may include surrounding information in addition to the paper document. If there is information that attracts attention around the paper document, the AR content is changed accordingly.

撮像情報の注目度算出では、規定の数に撮像情報を分割し、分割された領域画像毎に注目度算出を行う。注目度の算出方法は、ステップS9000にて記載した方法と同様である。たとえば、上述の式(8)を用いることで、撮像情報の注目度を算出することが可能である。撮像された紙文書を画像情報として構成し、当該画像情報に対して、式(8)を用いることが可能である。画像情報として構成することで、光源の位置などが異なる状況においても注目度情報を適切に算出することが可能になる。   In the calculation of the attention level of the imaging information, the imaging information is divided into a prescribed number, and the attention level is calculated for each of the divided area images. The method of calculating the attention level is the same as the method described in step S9000. For example, it is possible to calculate the degree of attention of imaging information by using the above equation (8). An imaged paper document can be configured as image information, and Expression (8) can be used for the image information. By configuring as image information, attention level information can be appropriately calculated even in situations where the position of the light source is different.

図10は、撮像情報の注目度算出処理の概念図である。紙文書1001が撮像された紙文書の情報である。この紙文書1001を予め規定された一定の大きさの24の領域に分割する。領域分割結果1002が24の領域に分割した結果である。この分割結果1002の各領域を1つの画像としてみなし、画像毎の注目度を算出する。算出された注目度は、各領域に対応づけられ、注目度情報1003として保持される。   FIG. 10 is a conceptual diagram of the attention level calculation process of the imaging information. This is information on a paper document in which the paper document 1001 is captured. This paper document 1001 is divided into 24 areas having a predetermined fixed size. The area division result 1002 is a result of dividing into 24 areas. Each region of the division result 1002 is regarded as one image, and the degree of attention for each image is calculated. The calculated attention level is associated with each area and is stored as attention level information 1003.

本実施形態では、撮像情報の紙文書を規定数の領域画像に分割し、各領域画像に対する注目度算出を行ったが異なる方法でもよい。たとえば、既存の文書領域解析技術やオブジェクト抽出技術を用いて抽出した領域やオブジェクトに対して注目度を算出する方法を用いてもよい。既存の文書領域解析技術では、撮像された紙文書中の文字列が記載される文字領域、画像が存在する画像領域などの複数種の領域を抽出することが可能であり、これらの文字列領域、画像領域に対して、上述の方法を用いて注目度を算出することが可能である。   In the present embodiment, the paper document of the imaging information is divided into a prescribed number of area images, and the attention level is calculated for each area image, but a different method may be used. For example, a method of calculating the degree of attention for an area or object extracted using an existing document area analysis technique or object extraction technique may be used. With the existing document area analysis technology, it is possible to extract a plurality of types of areas such as a character area in which a character string in a captured paper document is described, an image area in which an image exists, and the like. The attention level can be calculated for the image area using the above-described method.

次に、図4のステップS4040およびステップS4050として説明したARコンテンツ変更処理について詳細を説明する。ARコンテンツ変更処理では、撮像された情報よりもARコンテンツの注目度が低い場合に、ARコンテンツの注目度が撮像された情報よりも高くなるようにARコンテンツの表示条件を変更する。当該処理の詳細について、図11を用いて説明を行う。   Next, the details of the AR content change process described as step S4040 and step S4050 of FIG. 4 will be described. In the AR content change process, when the attention level of the AR content is lower than the captured information, the display condition of the AR content is changed so that the attention level of the AR content is higher than the captured information. Details of the processing will be described with reference to FIG.

図11は、ARコンテンツ変更処理の流れをフローチャートにより説明するものである。   FIG. 11 is a flowchart for explaining the flow of the AR content change process.

ステップS11000は、ARコンテンツの注目度取得処理である。ARコンテンツの注目度取得処理では、図9のステップS9000にて算出したARコンテンツの注目度を取得する。ARコンテンツの注目度取得処理は、不図示のARコンテンツ注目度DBを参照し、ARコンテンツ注目度を取得する。   Step S11000 is AR content attention level acquisition processing. In the AR content attention level acquisition process, the AR content attention level calculated in step S9000 of FIG. 9 is acquired. The AR content attention level acquisition processing refers to an AR content attention level DB (not shown) to acquire the AR content attention level.

ステップS11010は、撮像情報の注目度取得処理である。撮像情報の注目度取得処理では、図10の注目度情報1003として記載した注目度情報を参照することで、撮像情報の注目度を取得する。該注目度は、前述したように複数の領域毎の注目度である。   Step S11010 is an imaging information attention level acquisition process. In the attention level acquisition process of the imaging information, the attention level of the imaging information is acquired by referring to the attention level information described as the attention level information 1003 in FIG. The degree of attention is the degree of attention for each of the plurality of regions as described above.

ステップS11020は、注目度の比較処理である。注目度の比較処理では、ステップS11000にて取得したARコンテンツの注目度とステップS11010にて取得した撮像情報の各領域に対応付けられた注目度を比較する。比較の結果、ARコンテンツの注目度よりも高い注目度を持つ撮像情報の領域が存在する場合、該領域の情報を不図示の注目領域DBに格納する。比較処理を撮像情報の全ての領域に対して行った後、前述の注目領域DBにデータが格納されていない場合、撮像情報の注目度はARコンテンツの注目度よりも低いと判断し、処理を終了する。前述の注目度DBにデータが格納されている場合は、撮像情報の一部領域もしくは全領域の注目度がARコンテンツの注目度よりも高いと判断し、ステップS11030へ移行する。   Step S11020 is attention level comparison processing. In the attention level comparison process, the attention level of the AR content acquired in step S11000 is compared with the attention level associated with each area of the imaging information acquired in step S11010. As a result of the comparison, if there is a region of imaging information having a higher attention level than the attention level of the AR content, information on the region is stored in a not-shown attention region DB. After the comparison process is performed on all areas of the imaging information, if no data is stored in the attention area DB, it is determined that the attention level of the imaging information is lower than the attention level of the AR content, and the process is performed. finish. When data is stored in the attention level DB described above, it is determined that the attention level of a part or all of the imaging information is higher than the attention level of the AR content, and the process proceeds to step S11030.

ステップS11030は、ARコンテンツの表示位置・表示サイズなどの表示条件を変更する処理である。表示位置・表示サイズの変更処理では、ステップS11020にて作成された注目領域DBを参照し、ARコンテンツの注目度よりも注目度が高い注目領域が隠れるようにARコンテンツの表示位置・表示サイズを変更する。表示条件を変更されたARコンテンツは、AR画像表示装置301にI/F209を介して送信される。   Step S11030 is a process of changing display conditions such as the display position and display size of the AR content. In the display position / display size change process, the attention area DB created in step S11020 is referred to, and the display position / display size of the AR content is set so that the attention area having a higher attention degree than the attention degree of the AR content is hidden. change. The AR content whose display conditions are changed is transmitted to the AR image display device 301 via the I / F 209.

図12を用いて詳しく説明する。図12の注目領域結果1201は、撮像された紙文書に対して注目度DBの情報を重ねて表現した情報である。注目度DBに格納されたARコンテンツ1210よりも注目度が高い領域が、注目領域1202〜1207である。注目領域1202〜1207のみを切り出した領域が高注目領域1209であり、ARコンテンツの変更処理では、高注目領域1209が隠れるようにARコンテンツ1210の表示位置および表示サイズを決定する。ARコンテンツ変更後のARコンテンツ表示結果を示したものが、表示結果1208である。表示結果1208からもわかる通り、ARコンテンツよりも注目度が高い領域(高注目領域1209)がARコンテンツ1210の表示によって隠れており、結果として、ARコンテンツの注目度が一番高くなるように表示することが可能になる。   This will be described in detail with reference to FIG. The attention area result 1201 in FIG. 12 is information obtained by superimposing the information of the attention level DB on the captured paper document. The areas with higher attention level than the AR content 1210 stored in the attention level DB are attention areas 1202 to 1207. The region where only the attention regions 1202 to 1207 are cut out is the high attention region 1209, and in the AR content change processing, the display position and display size of the AR content 1210 are determined so that the high attention region 1209 is hidden. A display result 1208 indicates the AR content display result after the AR content is changed. As can be seen from the display result 1208, an area having a higher degree of attention than the AR content (high attention area 1209) is hidden by the display of the AR content 1210, and as a result, the AR content is displayed with the highest degree of attention. It becomes possible to do.

本実施形態の例では、各注目領域が隣接している例を説明したが、注目領域が隣接していなくてもよい。注目領域が隣接していない場合、注目領域でない領域も含めて、全ての注目領域を包含するようにARコンテンツを変更することができる。   In the example of the present embodiment, the example in which the attention regions are adjacent to each other has been described, but the attention regions may not be adjacent. When the attention area is not adjacent, the AR content can be changed so as to include all the attention areas including the area that is not the attention area.

また、ARコンテンツと並べて対比してみると意味のある領域の注目度が高いこともあり得る。意味のある領域が隠されないようにその領域を予めARコンテンツ毎に特定しておき、その領域を隠す対象の領域から除く。   In addition, when compared with AR content, there is a possibility that the attention level of a meaningful area is high. The area is specified for each AR content in advance so that the meaningful area is not hidden, and the area is excluded from the area to be hidden.

なお、表示されたARコンテンツについては、非表示にするためのボタンをARコンテンツと併せて提示する。ユーザがARコンテンツの非表示を所望する場合、このボタンを指示することにより、ARコンテンツを非表示にすることができる。   For the displayed AR content, a button for non-display is presented together with the AR content. When the user desires to hide the AR content, the AR content can be hidden by instructing this button.

以上、詳細に説明したように、撮像された紙文書の情報に基づき、ARコンテンツを動的に変更することで、様々な閲覧環境や閲覧対象において、ARコンテンツに注目しやすい表示をすることが可能になる。   As described above in detail, by dynamically changing the AR content based on the information of the captured paper document, it is possible to display the AR content easily in various browsing environments and browsing targets. It becomes possible.

本実施形態では、撮像情報の注目度算出の対象として、紙文書としたが、異なる情報が含まれていてもよい。たとえば、紙文書を置いているテーブルや風景等の情報も含めて注目度を算出することが可能である。この場合も、テーブルや風景等の情報を含む画像情報に対して、本実施形態で説明した方法を用いることで注目度算出を実現することができる。   In this embodiment, a paper document is used as a target for calculating the degree of attention of imaging information, but different information may be included. For example, it is possible to calculate the attention level including information such as a table on which a paper document is placed and a landscape. Also in this case, attention level calculation can be realized by using the method described in the present embodiment for image information including information such as a table and a landscape.

また、特徴量抽出の方法として画像に対する特徴量を抽出する方法を示したが、異なる方法を用いてもよい。たとえば、文字や画像を認識して、認識された結果を特徴量として扱うこともできる。   Moreover, although the method of extracting the feature-value with respect to an image was shown as a feature-value extraction method, you may use a different method. For example, characters and images can be recognized and the recognized result can be handled as a feature amount.

また、本実施形態では、単一の特徴量を用いたが、複数の特徴量を用いてもよい。たとえば、風景写真などの自然画に対する特徴量、文字列の画像に対する特徴量など、コンテンツに応じて特徴量の種別を変更してもよい。特徴量の種別毎に特徴量を抽出しやすいコンテンツが存在する場合、複数の特徴量を用いることで、ARコンテンツの特定処理の精度を向上させることができる。   In the present embodiment, a single feature amount is used, but a plurality of feature amounts may be used. For example, the type of feature quantity such as a feature quantity for a natural image such as a landscape photograph and a feature quantity for a character string image may be changed according to the content. When there is content that allows easy extraction of feature amounts for each type of feature amount, the accuracy of AR content specifying processing can be improved by using a plurality of feature amounts.

<実施形態2>
実施形態1では、撮像された紙文書の注目度算出方法として、前述の非特許文献2の方法を説明した。本実施形態では、撮像された紙文書の注目度算出方法として、ユーザの視線情報を用いる方法を説明する。
<Embodiment 2>
In the first embodiment, the method of Non-Patent Document 2 described above has been described as a method of calculating the attention level of a captured paper document. In the present embodiment, a method of using the user's line-of-sight information will be described as a method of calculating the attention level of a captured paper document.

具体的には、図9のステップS9010において説明した注目度算出方法をユーザの視線情報を用いた方法として説明する。その他の処理については、実施形態1と同様であるので省略する。実施形態1と同様のAR処理システムのハードウェア構成で実現され、実施形態1と同様の機能部を有する。   Specifically, the attention level calculation method described in step S9010 of FIG. 9 will be described as a method using the user's line-of-sight information. The other processes are the same as those in the first embodiment, and will be omitted. The hardware configuration of the AR processing system is the same as that of the first embodiment, and the same functional units as those of the first embodiment are included.

ユーザの視線情報を用いた注目度の算出方法では、ユーザの視線情報を図3における撮像部303において取得し、取得された視線情報が集中している領域を注目度の高い領域として特定する。撮像情報の領域については、実施形態1において説明したように、予め規定した領域に分割したうえで、各領域の視線情報を取得する。各領域での視線情報が規定回数または規定時間以上、収集された場合に注目領域として特定する。   In the attention level calculation method using the user's line-of-sight information, the user's line-of-sight information is acquired by the imaging unit 303 in FIG. 3, and an area where the acquired line-of-sight information is concentrated is specified as a high-attention area. As described in the first embodiment, the imaging information area is divided into predetermined areas, and the line-of-sight information of each area is acquired. When the line-of-sight information in each area is collected for a specified number of times or for a specified time or more, it is specified as the attention area.

以上、詳細に説明したように、ユーザの視線情報を用いて、注目領域を特定することで、ユーザの注目度に応じてARコンテンツを変更することが可能になる。ユーザの注目度に応じたARコンテンツの変更により、ユーザが既に注目しているARコンテンツを変更する必要性がなくなり、閲覧者にとって違和感のない表示を実現するとともに、ARコンテンツの変更処理に必要な計算負荷を軽減することができる。   As described above, the AR content can be changed according to the degree of attention of the user by specifying the attention area using the user's line-of-sight information. By changing the AR content in accordance with the degree of attention of the user, there is no need to change the AR content that the user has already noticed, and a display that does not give the viewer a sense of incongruity is realized. Calculation load can be reduced.

<実施形態3>
実施形態1および実施形態2では、ARコンテンツの変更方法として、ARコンテンツよりも注目度が高い領域が見えなくなるように、ARコンテンツの表示位置・表示サイズを決定する方法について説明した。本実施形態では、ARコンテンツの色の表示条件を変更することでARコンテンツを変更し、ARコンテンツの注目度を向上させる方法を説明する。
<Embodiment 3>
In the first embodiment and the second embodiment, as a method for changing the AR content, a method for determining the display position / display size of the AR content so that an area having a higher degree of attention than the AR content cannot be seen has been described. In the present embodiment, a method for changing the AR content by changing the display condition of the color of the AR content and improving the degree of attention of the AR content will be described.

具体的には、図11のステップS11030において説明したARコンテンツの変更方法をARコンテンツの色を変更することで実現する方法を説明する。その他の処理については、実施形態1と同様であるので省略する。実施形態1と同様のAR処理システムのハードウェア構成で実現され、実施形態1と同様の機能部を有する。   Specifically, a method for realizing the AR content changing method described in step S11030 of FIG. 11 by changing the color of the AR content will be described. The other processes are the same as those in the first embodiment, and will be omitted. The hardware configuration of the AR processing system is the same as that of the first embodiment, and the same functional units as those of the first embodiment are included.

ARコンテンツの色を変更する処理では、前述した注目領域DBの各領域に対応付けられる注目度よりもARコンテンツの注目度が高くなるようにARコンテンツの色を変更する。非特許文献2に記載するように、注目度は色に基づき算出することが可能である。当該計算式を用いて、ARコンテンツの注目度が高くなるように変更することが可能である。例えば、赤みが強ければ、式(8)で算出される注目度が高くなるので、ARコンテンツの赤みを強くすることを行う。   In the process of changing the color of the AR content, the color of the AR content is changed so that the attention level of the AR content is higher than the attention level associated with each area of the attention area DB described above. As described in Non-Patent Document 2, the degree of attention can be calculated based on color. Using the calculation formula, it is possible to change the AR content so that the degree of attention is high. For example, if redness is strong, the degree of attention calculated by Expression (8) increases, so the redness of the AR content is increased.

以上、詳細に説明したように、ARコンテンツの色を変更することで、相対的に撮像された紙文書よりもARコンテンツの注目度が高くなるようにすることができる。ARコンテンツの色変更により、ARコンテンツの注目度を向上させることで、他の注目度が高い撮像情報を隠すことなく、ARコンテンツに注目させることができる。   As described above in detail, by changing the color of the AR content, it is possible to increase the degree of attention of the AR content as compared with a relatively captured paper document. By increasing the attention level of the AR content by changing the color of the AR content, the AR content can be focused without hiding other imaging information with a high level of attention.

本実施形態では、ARコンテンツの色を変更したが、既存の注目度算出技術にて使用される他のパラメータを用いてもよい。具体的には、他の注目度が高い撮像情報を隠すことなくARコンテンツの大きさを変更することで、注目度を向上させることが可能である。大きさを用いた注目度算出の一例としては、前述した非特許文献2に記載される下記式(9)が使用可能である。式(9)において、peが注目度であり、mがオブジェクトもしくは撮像画像(または撮像画像を複数領域に分割した各領域)の面積、arが撮像画像全体の面積を示す。   In this embodiment, the color of the AR content is changed, but other parameters used in the existing attention level calculation technique may be used. Specifically, it is possible to improve the degree of attention by changing the size of the AR content without hiding other imaging information with a high degree of attention. As an example of calculating the degree of attention using the size, the following formula (9) described in Non-Patent Document 2 described above can be used. In Equation (9), pe is the degree of attention, m is the area of the object or the captured image (or each region obtained by dividing the captured image into a plurality of regions), and ar is the area of the entire captured image.

Figure 0006168872
Figure 0006168872

また、大きさのほかにARコンテンツを点滅させるなどの表示効果を与えることで、注目度を向上させることもできる。   In addition to the size, it is possible to improve the degree of attention by giving a display effect such as blinking AR content.

<実施形態4>
本実施形態では、ARコンテンツを、紙文書が搭載された平面の作業台に投影する。
<Embodiment 4>
In the present embodiment, the AR content is projected onto a flat work table on which a paper document is mounted.

図13(a)は、本実施形態における情報処理装置1300のハードウェア構成図である。CPU1301は、CPU(Central Processing Unit)であり、各種処理のための演算や論理判断などを行い、システムバス1307に接続された各構成要素を制御する。ROM(Read−Only Memory)1302は、後述するフローチャートに示す各種処理手順を含むCPUによる制御のためのプログラムデータを格納する。RAM1303(Random Access Memory)1303は、データメモリであり、CPU1301の上記プログラムのワーク領域、エラー処理時のデータの退避領域、上記制御プログラムのロード領域などを有する。記憶装置1304はハードディスクや外部に接続された記憶装置などからなり、本実施形態に係る電子データなどの各種データやプログラムを記憶する。CPU1301は、ROM1302もしくは記憶装置1304に記憶された処理ステップやプログラムを読み出して実行する。これらの処理ステップやプログラムは、ディスクデバイスを始めとする記憶媒体から読み出されたり、ネットワーク通信によって取得されたりして、ROM1302もしくは記憶装置1304に記憶されることができる。その際CPU1301がコントローラとして機能する。本実施形態において、CPU1301は、フローチャートに示された工程を実行することで、情報処理装置1300の各機能部として動作する。撮像装置1305は、ユーザが操作を行う作業空間を撮像し、入力画像としてシステムに提供する。投影装置106は後述する作業台1321に電子データやユーザインタフェース部品を含む映像を投影する。なお、本実施形態では、撮像装置1305及び投影装置1306は、情報処理装置1300内に構成されるが、有線あるいは無線のインタフェースによって接続された外部装置でも良い。   FIG. 13A is a hardware configuration diagram of the information processing apparatus 1300 in the present embodiment. The CPU 1301 is a CPU (Central Processing Unit), performs calculations and logic determinations for various processes, and controls each component connected to the system bus 1307. A ROM (Read-Only Memory) 1302 stores program data for control by the CPU including various processing procedures shown in flowcharts to be described later. A RAM 1303 (Random Access Memory) 1303 is a data memory, and includes a work area for the program of the CPU 1301, a data save area during error processing, a load area for the control program, and the like. The storage device 1304 includes a hard disk, a storage device connected to the outside, and the like, and stores various data and programs such as electronic data according to the present embodiment. The CPU 1301 reads out and executes processing steps and programs stored in the ROM 1302 or the storage device 1304. These processing steps and programs can be read from a storage medium such as a disk device or acquired by network communication and stored in the ROM 1302 or the storage device 1304. At that time, the CPU 1301 functions as a controller. In the present embodiment, the CPU 1301 operates as each functional unit of the information processing apparatus 1300 by executing the steps shown in the flowchart. The imaging device 1305 images a work space in which a user operates, and provides the system as an input image. The projection device 106 projects an image including electronic data and user interface components onto a workbench 1321 described later. In this embodiment, the imaging device 1305 and the projection device 1306 are configured in the information processing device 1300, but may be external devices connected by a wired or wireless interface.

ここで図13(b)は、本実施形態における情報処理装置1300の外観の一例を示す図である。本実施形態では、作業台1321に対し、撮像装置1305は上部に設置され、作業台1321に上向きに置かれた紙などの物理データ1322を俯瞰撮像し、上に向いた読み取り対象面を読み取り、情報を認識する。また、投影装置1306も同様に、作業台1321の上面あるいは物理データ1322上に、ユーザインタフェースを構成する画像や情報処理装置1300が生成した電子データ1323等を含む投影画像を投影する。本実施形態では、撮像装置1305と投影装置1306は同一の筐体で構成される。ただし、撮像装置1305の設置位置と撮像画角、および投影装置1306の位置と投影画角の情報を情報処理装置が予め把握していれば、それぞれ別の場所に設置されてもよい。   Here, FIG. 13B is a diagram illustrating an example of an appearance of the information processing apparatus 1300 according to the present embodiment. In the present embodiment, the imaging device 1305 is installed on the upper side of the workbench 1321, takes a bird's-eye image of physical data 1322 such as paper placed on the workbench 1321, and reads the reading target surface facing upward. Recognize information. Similarly, the projection apparatus 1306 projects a projection image including an image constituting the user interface, electronic data 1323 generated by the information processing apparatus 1300, and the like on the upper surface of the work table 1321 or the physical data 1322. In the present embodiment, the imaging device 1305 and the projection device 1306 are configured with the same casing. However, as long as the information processing apparatus grasps in advance the information on the installation position and imaging angle of view of the imaging apparatus 1305 and the position and projection angle of view of the projection apparatus 1306, they may be installed in different places.

撮像装置1305は、実施形態1の図3の撮像部301に相当する。投影装置1306は、作業台1321の平面にARコンテンツを投影して表示する。AR処理装置の各機能構成は、情報処理装置1300内部に備えられても良いし、情報処理装置1300からネットワークインタフェースを介してアクセス可能な情報処理装置1301とは別のAR処理装置に備えられても良い。   The imaging device 1305 corresponds to the imaging unit 301 of FIG. The projection device 1306 projects and displays the AR content on the plane of the work table 1321. Each functional configuration of the AR processing apparatus may be provided in the information processing apparatus 1300, or may be provided in an AR processing apparatus different from the information processing apparatus 1301 accessible from the information processing apparatus 1300 via the network interface. Also good.

情報処理装置1300は、図4で示されたAR処理システム全体の処理、図5で示された局所特徴量抽出処理、図9で示された注目度算出処理、図11のARコンテンツ変更処理を実行する。   The information processing apparatus 1300 performs processing of the entire AR processing system shown in FIG. 4, local feature amount extraction processing shown in FIG. 5, attention degree calculation processing shown in FIG. 9, and AR content change processing shown in FIG. Run.

以上、実施形態を詳述したが、本発明は上述の実施形態に限定されるのではなく、本発明の趣旨を逸脱しない限りにおいて適宜変更が可能である。各実施形態の処理を組み合わせることも可能である。   Although the embodiment has been described in detail above, the present invention is not limited to the above-described embodiment, and can be appropriately changed without departing from the gist of the present invention. It is also possible to combine the processes of the embodiments.

本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。   The present invention can take the form of, for example, a system, apparatus, method, program, or storage medium. Specifically, the present invention may be applied to a system composed of a plurality of devices, or may be applied to an apparatus composed of a single device.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

301 AR表示装置
302 AR処理装置
303 撮像部
304 表示部
305 特徴量抽出部
306 コンテンツ特定部
307 注目度算出部
308 ARコンテンツ変更部
DESCRIPTION OF SYMBOLS 301 AR display apparatus 302 AR processing apparatus 303 Imaging part 304 Display part 305 Feature-value extraction part 306 Content specific | specification part 307 Attention degree calculation part 308 AR content change part

Claims (21)

撮像された画像の特徴情報に基づいて当該撮像された画像とともに表示すべき拡張情報を取得する取得手段と、
前記撮像された画像を分割した複数の領域画像のそれぞれの注目度を導出する導出手段と、
前記複数の領域画像のそれぞれの注目度と、前記拡張情報の注目度とを比較する比較手段と、
前記比較の結果に基づいて、前記拡張情報の表示条件を変更する変更手段と、を備えることを特徴とする画像処理装置。
Acquiring means for acquiring extended information to be displayed together with the captured image based on feature information of the captured image;
Derivation means for deriving the degree of attention of each of the plurality of region images obtained by dividing the captured image;
Comparison means for comparing the attention level of each of the plurality of region images with the attention level of the extended information;
An image processing apparatus comprising: changing means for changing a display condition of the extended information based on the result of the comparison.
前記変更手段は、何れかの前記領域画像の注目度よりも前記拡張情報の注目度が低い場合に、前記拡張情報の表示条件を変更することを特徴とする請求項記載の画像処理装置。 The changing means is any one of the If there is a little attention of the extension information than attention area images, the image processing apparatus according to claim 1, wherein changing the display condition of the extension information. 前記比較手段は、特定の領域画像を除く前記複数の領域画像の注目度それぞれと、前記拡張情報の注目度とを比較することを特徴とする請求項または記載の画像処理装置。 Said comparing means includes a respective saliency of said plurality of area image excluding the specific area image, the image processing apparatus according to claim 1 or 2, wherein the comparing the saliency of the extension information. 前記取得手段は、前記特徴情報と前記拡張情報の識別情報とが対応付けられたテーブルを参照して当該特徴情報に対応する拡張情報を取得することを特徴とする請求項1乃至何れか1項に記載の画像処理装置。 It said acquisition means, according to claim 1 to 3 or 1 and acquires the extended information corresponding to the characteristic information by referring to a table in which the feature information and the identification information of the extended information associated with The image processing apparatus according to item. 前記変更手段は、前記拡張情報と前記拡張情報の表示条件とが対応付けられたテーブルを参照して取得される表示条件を変更することを特徴とする請求項1乃至何れか1項に記載の画像処理装置。 It said changing means according to any one of claims 1 to 4 any one and changes the display condition and the extension information and display condition of the extension information is obtained by referring to the table associated with Image processing apparatus. 前記特徴情報は、画像特徴量であることを特徴とする請求項1乃至何れか1項に記載の画像処理装置。 The feature information, the image processing apparatus according to any one of claims 1 to 4, characterized in that an image feature amount. 前記変更手段は、前記拡張情報の注目度よりも高い注目度の領域画像を当該拡張情報が隠すように当該拡張情報の表示位置を変更することを特徴とする請求項乃至何れか1項に記載の画像処理装置。 The changing means, according to claim 1 to 6 any one and changes the display position of the extended information to a high degree of attention area image than attention of the extension information is the extended information hiding An image processing apparatus according to 1. 前記変更手段は、前記拡張情報の注目度よりも高い注目度の領域画像を当該拡張情報が隠すように当該拡張情報の表示サイズを変更することを特徴とする請求項乃至何れか1項に記載の画像処理装置。 The changing means, according to claim 1 to 6 any one and changes the display size of the high prominence the expansion information to the region image corresponding extension information hide than attention of the extension information An image processing apparatus according to 1. 前記変更手段は、何れかの前記領域画像の注目度よりも前記拡張情報の注目度が低い場合に、前記拡張情報の色合いを注目度が高くなるように変更することを特徴とする請求項乃至何れか1項に記載の画像処理装置。 The changing means, according to claim 1, any of the If there is a little attention of the extension information than attention area images, and changing the hue of the extension information such attention increases 7. The image processing device according to any one of 6 to 6 . 前記画像特徴量は、Harris作用素を作用させて得られた特徴点と該特徴点に対応する特徴量であることを特徴とする請求項記載の画像処理装置。 The image processing apparatus according to claim 6 , wherein the image feature amount is a feature point obtained by applying a Harris operator and a feature amount corresponding to the feature point. 前記画像特徴量は、SIFT特徴量またはSURF特徴量であることを特徴とする請求項記載の画像処理装置。 The image processing apparatus according to claim 6 , wherein the image feature amount is a SIFT feature amount or a SURF feature amount. 前記導出手段は、前記領域画像の注目度を、色相を用いて導出することを特徴とする請求項乃至何れか1項に記載の画像処理装置。 It said deriving means, the attention of the region image, the image processing apparatus according to claim 1 to 6 any one, characterized in that derived using the hue. 前記導出手段は、前記領域画像の注目度を、各領域画像に視線が向けられた回数または時間を用いて導出することを特徴とする請求項乃至何れか1項に記載の画像処理装置。 Said deriving means, the prominence of the area image, the image processing apparatus according to any one of claims 1 to 6, characterized in that derived using the number of times or time the line of sight is directed to each area image . 前記領域画像は、前記撮像された画像を一定の大きさに分割することによって得られることを特徴とする請求項乃至何れか1項に記載の画像処理装置。 The area image is an image processing apparatus according to claim 1 to 6 any one characterized in that it is obtained by dividing the captured image to a certain size. 前記領域画像は、前記撮像された画像を文字領域と画像領域とを含む複数種の領域に分割することによって得られることを特徴とする請求項乃至何れか1項に記載の画像処理装置。 The area image is an image processing apparatus according to any one of claims 1 to 6, characterized in that it is obtained by dividing into a plurality of kinds of regions including the said captured image character area and an image area . 前記表示条件を変更された拡張情報を、表示手段を備える画像表示装置に送信する送信手段を更に備えることを特徴とする請求項1乃至何れか1項に記載の情報処理装置。 The changed extended information display conditions, the information processing apparatus according to claim 1 to 6 any one characterized by further comprising transmission means for transmitting to the image display apparatus including a display unit. 前記表示条件を変更された拡張情報を投影する投影手段を更に備えることを特徴とする請求項1乃至何れか1項に記載の情報処理装置。 The information processing apparatus according to claim 1 to 6 any one characterized by further comprising a projection means for projecting the extended information that has changed the display condition. 前記特定の領域画像は、前記拡張情報と前記拡張情報の表示条件とが対応付けられたテーブルに、前記拡張情報ごとに特定して記憶されていることを特徴とする請求項記載の画像処理装置。 4. The image processing according to claim 3, wherein the specific area image is specified and stored for each extension information in a table in which the extension information and a display condition of the extension information are associated with each other. apparatus. 撮像された画像を処理する画像処理方法であって、
前記撮像された画像から抽出された特徴情報に関連付けられた拡張情報を取得する取得工程と、
前記撮像された画像を分割した領域画像の注目度それぞれと、前記拡張情報の注目度とを比較する比較工程と、
前記比較の結果に基づいて、前記拡張情報の表示条件を変更する変更工程と、を備えることを特徴とする画像処理方法。
An image processing method for processing a captured image,
An acquisition step of acquiring extended information associated with feature information extracted from the captured image;
A comparison step of comparing each of the attention levels of the region images obtained by dividing the captured image with the attention level of the extended information;
An image processing method comprising: a changing step of changing a display condition of the extended information based on a result of the comparison.
コンピュータを、
撮像された画像から抽出された特徴情報に関連付けられた拡張情報を取得する取得手段と、
前記撮像された画像を分割した領域画像の注目度それぞれと、前記拡張情報の注目度とを比較する比較手段と、
前記比較の結果に基づいて、前記拡張情報の表示条件を変更する変更手段と、
として機能させるためのプログラム。
Computer
Acquisition means for acquiring extended information associated with feature information extracted from the captured image;
Comparison means for comparing each of the attention levels of the region images obtained by dividing the captured image with the attention level of the extended information;
Based on the result of the comparison, changing means for changing the display condition of the extended information;
Program to function as.
画像処理装置と画像表示装置とから構成される画像処理システムであって、
前記画像処理装置は、
撮像された画像から抽出された特徴情報に関連付けられた拡張情報を取得する取得手段と、
前記撮像された画像を分割した領域画像の注目度それぞれと、前記拡張情報の注目度とを比較する比較手段と、
前記比較の結果に基づいて、前記拡張情報の表示条件を変更する変更手段と、
前記表示条件を変更された拡張情報を、前記画像表示装置に送信する送信手段と、
を備え、
前記画像表示装置は、
前記送信された拡張情報を受信する受信手段と、
前記拡張情報を変更された前記表示条件で前記撮像された画像に重畳させて表示する表示手段と、
を備えることを特徴とする画像処理システム。
An image processing system comprising an image processing device and an image display device,
The image processing apparatus includes:
Acquisition means for acquiring extended information associated with feature information extracted from the captured image;
Comparison means for comparing each of the attention levels of the region images obtained by dividing the captured image with the attention level of the extended information;
Based on the result of the comparison, changing means for changing the display condition of the extended information;
Transmitting means for transmitting the extended information whose display condition has been changed to the image display device;
With
The image display device includes:
Receiving means for receiving the transmitted extension information;
Display means for displaying the extended information superimposed on the captured image under the changed display condition;
An image processing system comprising:
JP2013128292A 2013-06-19 2013-06-19 Image processing apparatus, image processing method, and program Active JP6168872B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013128292A JP6168872B2 (en) 2013-06-19 2013-06-19 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013128292A JP6168872B2 (en) 2013-06-19 2013-06-19 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2015005018A JP2015005018A (en) 2015-01-08
JP6168872B2 true JP6168872B2 (en) 2017-07-26

Family

ID=52300901

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013128292A Active JP6168872B2 (en) 2013-06-19 2013-06-19 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6168872B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6883195B2 (en) * 2016-12-13 2021-06-09 富士フイルムビジネスイノベーション株式会社 Information processing equipment and programs
JP2021103341A (en) * 2018-03-30 2021-07-15 ソニーグループ株式会社 Information processing device, information processing method, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010118019A (en) * 2008-11-14 2010-05-27 Sharp Corp Terminal device, distribution device, control method of terminal device, control method of distribution device, control program, and recording medium
JP5511084B2 (en) * 2011-02-08 2014-06-04 パナソニック株式会社 COMMUNICATION DEVICE, COMMUNICATION SYSTEM, COMMUNICATION METHOD, AND COMMUNICATION PROGRAM

Also Published As

Publication number Publication date
JP2015005018A (en) 2015-01-08

Similar Documents

Publication Publication Date Title
US10559053B2 (en) Screen watermarking methods and arrangements
JP6022732B2 (en) Content creation tool
JP6013642B2 (en) Campaign optimization for experience content datasets
CN105517681B (en) Use the chart converting system and method for metadata
EP2894634A1 (en) Electronic device and image compostition method thereof
US20140229426A1 (en) Electronic blueprint system and method
EP2972950B1 (en) Segmentation of content delivery
US8873892B2 (en) Trainable handheld optical character recognition systems and methods
JP2007013550A5 (en)
KR20120019331A (en) Apparatus and method for augmented reality using instant marker
US20140267408A1 (en) Real world analytics visualization
JP2014106692A (en) Image processing apparatus, image processing method, image processing system, and program
KR20160027862A (en) Method for processing image data and electronic device supporting thereof
AU2014202500A1 (en) Method, apparatus and system for rendering virtual content
US8941767B2 (en) Mobile device and method for controlling the same
US20140285686A1 (en) Mobile device and method for controlling the same
US20170206711A1 (en) Video-enhanced greeting cards
JP6168872B2 (en) Image processing apparatus, image processing method, and program
JP6623565B2 (en) Shelf allocation information generation device, shelf allocation information generation system, shelf allocation information generation method, imaging device, and program
CN110136233B (en) Method, terminal and storage medium for generating nail effect map
US20180063344A1 (en) Mobile device and method for controlling the same
JP2015125541A (en) Line-of-sight prediction system, line-of-sight prediction method, and line-of-sight prediction program
KR20120087232A (en) System and method for expressing augmented reality-based content
KR102526113B1 (en) Apparatus and method for visualizing congestion degree
KR101754993B1 (en) Photo zone photographing apparatus using Augmented Reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170228

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170627

R151 Written notification of patent or utility model registration

Ref document number: 6168872

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151