JP2014215977A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2014215977A
JP2014215977A JP2013095625A JP2013095625A JP2014215977A JP 2014215977 A JP2014215977 A JP 2014215977A JP 2013095625 A JP2013095625 A JP 2013095625A JP 2013095625 A JP2013095625 A JP 2013095625A JP 2014215977 A JP2014215977 A JP 2014215977A
Authority
JP
Japan
Prior art keywords
information
content
image processing
processing apparatus
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013095625A
Other languages
Japanese (ja)
Other versions
JP6245837B2 (en
JP2014215977A5 (en
Inventor
洋 大藤
Hiroshi Ofuji
洋 大藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013095625A priority Critical patent/JP6245837B2/en
Publication of JP2014215977A publication Critical patent/JP2014215977A/en
Publication of JP2014215977A5 publication Critical patent/JP2014215977A5/ja
Application granted granted Critical
Publication of JP6245837B2 publication Critical patent/JP6245837B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique for making it possible to easily edit extension information associated with certain feature information and associate it with different feature information.SOLUTION: First feature information and second feature information are extracted, extension information associated with the first feature information is acquired, new extension information is generated from the extension information, and the new extension information is associated with the second feature information.

Description

本発明は、画像に仮想的な画像を重畳して表示させる表示技術に関するものである。   The present invention relates to a display technique for displaying a virtual image superimposed on an image.

近年、撮像装置により得られる画像に対し、仮想的な拡張情報を重畳して表示させることで現実を拡張する、拡張現実(AR: Augmented Reality)技術が開発されてきている。   In recent years, augmented reality (AR) technology has been developed that expands reality by superimposing and displaying virtual augmented information on an image obtained by an imaging apparatus.

例えば、撮影された画像中における特定の物理オブジェクトについて、予め対応付けておいた動画などの拡張情報(ARコンテンツ)を該対象の位置に合わせて重畳表示させる技術が存在している。   For example, there is a technique for superimposing and displaying extended information (AR content) such as a moving image associated with a specific physical object in a captured image in accordance with the position of the target.

特許文献1では、実写画像から特定画像の領域を示す領域情報を検出し、検出した領域情報を用いて、実写画像における特定画像の領域以外の領域に対してはコンピュータグラフィックス画像を合成する。これにより実写風景を背景としてCG物体をその上に重畳し、さらにその手前に実写の被写体の画像を合成させるときに、実写の背景と被写体とを別々に撮影することなく同時に撮影した画像を用いてCGと合成することが可能となる。   In Patent Document 1, region information indicating a region of a specific image is detected from a photographed image, and a computer graphics image is synthesized with a region other than the region of the specific image in the photographed image using the detected region information. As a result, when a CG object is superimposed on the background of a live-action landscape and an image of a live-action subject is synthesized in front of the CG object, an image taken at the same time without separately shooting the background of the live-action subject and the subject is used. Can be synthesized with CG.

さらに、ARコンテンツと物理オブジェクトを簡易に対応付ける技術もある。   Furthermore, there is a technique for easily associating AR content with a physical object.

例えば特許文献2では、プロジェクタとカメラにより拡張されたデジタル作業空間において、ポインタにより操作されるデジタルオブジェクトを、マーカーが付された物理オブジェクトにドラッグアンドドロップしている。そして、マーカーにデジタルオブジェクトをリンク付けする技術を開示している。   For example, in Patent Document 2, in a digital work space expanded by a projector and a camera, a digital object operated by a pointer is dragged and dropped onto a physical object provided with a marker. A technique for linking a digital object to a marker is disclosed.

特許文献3では、基本マーカーに対応付けられているAR情報を意味単位に分解し、また物理オブジェクトを撮影した画像から要素を抽出し、AR情報の各意味を画像の各要素に対応付けることで、画像の各要素を代替マーカーとする技術を開示している。   In Patent Document 3, the AR information associated with the basic marker is decomposed into semantic units, elements are extracted from the image of the physical object, and each meaning of the AR information is associated with each element of the image. The technique which uses each element of an image as a substitute marker is disclosed.

特許04136420Patent 04136420 特許04332964Patent 0433964 特開2012−48720JP2012-48720

しかしながら、特許文献2に記載されている技術においては、元々のデジタルオブジェクトはマーカーなどの特徴情報に関連付いた拡張情報ではない。デジタルオブジェクトを表示するのにプロジェクタとカメラにより拡張されたデジタル作業空間を要するため、操作・編集対象のデジタルオブジェクト(拡張情報)を取得することに大規模な準備が必要となり簡単に利用することが難しい。   However, in the technique described in Patent Document 2, the original digital object is not extended information related to feature information such as a marker. Displaying a digital object requires a digital work space extended by a projector and a camera, so that a large-scale preparation is required to acquire a digital object (extended information) to be operated and edited, and it can be easily used. difficult.

また、特許文献3に記載されている技術においては、基本マーカーの情報を意味単位で物理オブジェクトの要素にそのまま対応付けるため、基本マーカーに対応付けられた拡張情報(ARコンテンツ)をそのまま複製することしかできない。   Further, in the technique described in Patent Document 3, since the basic marker information is directly associated with the physical object element in a semantic unit, the extension information (AR content) associated with the basic marker can only be copied as it is. Can not.

本発明は上記の課題に鑑みて成されたものであり、ある特徴情報に対応付けられた拡張情報(ARコンテンツ)を簡易に意図通りに別の特徴情報に対応付けることを可能とするための画像処理装置を提供することを目的とする。また、その方法、及びプログラムを提供することを目的とする。   The present invention has been made in view of the above-described problem, and is an image for enabling extended information (AR content) associated with certain feature information to be easily associated with other feature information as intended. An object is to provide a processing apparatus. Moreover, it aims at providing the method and program.

本発明の画像処理装置は、以下の構成を備える。即ち、第1の特徴情報と第2の特徴情報とを抽出する抽出手段と、前記第1の特徴情報に対応付けられた拡張情報を取得する取得手段と、前記拡張情報から新たな拡張情報を生成する生成手段と、前記第2の特徴情報に前記新たな拡張情報を対応付ける対応付け手段。   The image processing apparatus of the present invention has the following configuration. That is, extraction means for extracting first feature information and second feature information, acquisition means for acquiring extension information associated with the first feature information, and new extension information from the extension information. Generating means for generating and associating means for associating the new extended information with the second feature information;

本発明によれば、ある特徴情報に対応付けられている拡張情報を別の特徴情報に、簡易に対応付けることができる。   According to the present invention, it is possible to easily associate extended information associated with certain feature information with other feature information.

実施形態における画像処理装置の機能構成図である。It is a functional block diagram of the image processing apparatus in an embodiment. 実施形態における画像処理装置の概観の概念図である。1 is a conceptual diagram of an overview of an image processing apparatus in an embodiment. 実施形態1における画像処理装置のメイン処理を示すフローチャートである。3 is a flowchart illustrating main processing of the image processing apparatus according to the first embodiment. 実施形態1におけるARコンテンツ取得処理フローを示す図である。It is a figure which shows the AR content acquisition process flow in Embodiment 1. FIG. 実施形態1におけるマーカーを示す図である。It is a figure which shows the marker in Embodiment 1. FIG. 実施形態1におけるARコンテンツ情報を概念的に示す図である。It is a figure which shows AR content information in Embodiment 1 notionally. 実施形態1におけるARコンテンツとマーカーの対応の記録内容を概念的に示す図である。It is a figure which shows notionally the recording content corresponding to AR content and a marker in Embodiment 1. FIG. 実施形態1における画像処理装置の表示処理フローを示す図である。6 is a diagram illustrating a display processing flow of the image processing apparatus according to the first embodiment. FIG. 実施形態1における画像処理装置の表示例である。3 is a display example of the image processing apparatus according to the first embodiment. 実施形態1におけるARコンテンツの選択方法を例示する図である。It is a figure which illustrates the selection method of AR content in Embodiment 1. 実施形態2におけるARコンテンツの編集を行うUIを例示する図である。FIG. 10 is a diagram illustrating a UI for editing AR content in the second embodiment. 実施形態2におけるARコンテンツの編集を行うUIを例示する図である。FIG. 10 is a diagram illustrating a UI for editing AR content in the second embodiment. 実施形態3におけるARコンテンツとマーカーの対応の記録内容を概念的に示す図である。It is a figure which shows notionally the recording content corresponding to AR content and a marker in Embodiment 3. 実施形態3におけるARコンテンツ情報を概念的に示す図である。It is a figure which shows AR content information in Embodiment 3 notionally. 実施形態3における画像処理装置の表示処理フローを示す図である。FIG. 10 is a diagram illustrating a display processing flow of an image processing apparatus according to a third embodiment. 画像処理装置のハードウェア構成図である。It is a hardware block diagram of an image processing apparatus.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施形態の一つである。   Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific embodiments having the configurations described in the claims.

<実施形態1>
まず図1を用いて、本実施形態に係る機能構成例について説明する。図1に示す如く、本実施形態では、ARコンテンツの取得・編集・リンク付けなどの処理をする画像処理装置10、ARコンテンツを管理しているARコンテンツ管理装置20を有している。
<Embodiment 1>
First, a functional configuration example according to the present embodiment will be described with reference to FIG. As shown in FIG. 1, the present embodiment includes an image processing device 10 that performs processing such as acquisition, editing, and linking of AR content, and an AR content management device 20 that manages AR content.

また画像処理装置10は、撮影部11、制御部12、通信部13、表示部14、指示部15、を有している。   Further, the image processing apparatus 10 includes a photographing unit 11, a control unit 12, a communication unit 13, a display unit 14, and an instruction unit 15.

またARコンテンツ管理装置20は制御部21、通信部22、記録部23を有している。   The AR content management apparatus 20 includes a control unit 21, a communication unit 22, and a recording unit 23.

本実施形態における前提として画像処理装置10は、例えば図2のような形状を成す。すなわち、一方の面に撮影部、他方の面に表示・指示部が搭載されている。この表示・指示部は例えばタッチパネルを用いることで実現できる。   As a premise in the present embodiment, the image processing apparatus 10 has a shape as shown in FIG. That is, a photographing unit is mounted on one surface, and a display / instruction unit is mounted on the other surface. This display / instruction unit can be realized by using, for example, a touch panel.

また図1の画像処理装置のハードウェア構成例について、図16のブロック図を参照して説明する。同図において、3は装置全体を制御するCentral Processing Unit(CPU)である。4は変更を必要としないプログラムやパラメータを格納するRead Only Memory(ROM)である。5は外部装置等から供給されるプログラムやデータを一時記録するRandom Access Memory(RAM)である。12はメモリカードに代表されるデータの読み書き可能な外部記録媒体である。また14はハードディスク、SSDに代表される大容量の記録装置として機能し、一般的には外部記録媒体12の記録容量よりも大きい。また、11,13はこれら外部記録媒体12、記録装置14をコンピュータ装置と接続するI/Oである。9は画像を取得する撮像装置10とのI/Oである。7はユーザーの操作を受けるタッチパネルとのI/Oである。2は画像処理装置の保持するデータや供給されたデータを表示するためのディスプレイモニタ1との映像I/Oである。15はインターネット等のネットワーク回線に接続するための通信I/Fである。6は1〜15の各ユニットを通信可能に接続するシステムバスである。   A hardware configuration example of the image processing apparatus in FIG. 1 will be described with reference to the block diagram in FIG. In the figure, reference numeral 3 denotes a central processing unit (CPU) for controlling the entire apparatus. A read only memory (ROM) 4 stores programs and parameters that do not need to be changed. A random access memory (RAM) 5 temporarily records programs and data supplied from an external device or the like. Reference numeral 12 denotes an external recording medium capable of reading and writing data represented by a memory card. Reference numeral 14 functions as a large-capacity recording device represented by a hard disk or SSD, and is generally larger than the recording capacity of the external recording medium 12. Reference numerals 11 and 13 denote I / Os for connecting the external recording medium 12 and the recording device 14 to a computer device. Reference numeral 9 denotes an I / O with the imaging apparatus 10 that acquires an image. Reference numeral 7 denotes an I / O with a touch panel that receives a user operation. Reference numeral 2 denotes video I / O with the display monitor 1 for displaying data held by the image processing apparatus and supplied data. Reference numeral 15 denotes a communication I / F for connecting to a network line such as the Internet. A system bus 6 connects the units 1 to 15 so that they can communicate with each other.

以下から各装置の制御部12、21における処理について、図3のフローチャートを使いながら説明する。以下、フローチャートは、CPUが制御プログラムを実行することにより実現されるものとする。   The processes in the control units 12 and 21 of each device will be described below using the flowchart of FIG. Hereinafter, the flowchart is realized by the CPU executing the control program.

まず画像処理装置10の画像取得処理101では、撮影部11に命令を出し物理オブジェクトの撮影を行って画像を取得する。   First, in the image acquisition process 101 of the image processing apparatus 10, a command is issued to the imaging unit 11 to capture a physical object and acquire an image.

次に、画像処理装置10の特徴抽出処理102では、ARコンテンツを重畳させる候補となる特徴情報を物理オブジェクトの画像から複数抽出する。   Next, in the feature extraction process 102 of the image processing apparatus 10, a plurality of pieces of feature information as candidates for superimposing the AR content are extracted from the physical object image.

尚、ARコンテンツを実写画像に重畳させる対象の特徴情報にはマーカー型と非マーカー型がある。マーカー型は予め定めたフォーマットで描かれた特定のパターンを文書等に印刷しておき、それを読み取ることで重畳させる手法である。例えば、QRコード(登録商標)などである。非マーカー型はマーカーのような特定のパターンは必要とせず、代わりに画像の特徴量(SIFT特徴量、SURF特徴量)を用いて重畳させる手法である。本実施形態においては、マーカー型でのARコンテンツ重畳手法を用いて説明するが、本実施形態に非マーカー型を適用することも可能である。   Note that the target feature information on which the AR content is superimposed on the photographed image includes a marker type and a non-marker type. The marker type is a technique in which a specific pattern drawn in a predetermined format is printed on a document or the like and is superposed by reading it. For example, it is a QR code (registered trademark). The non-marker type does not require a specific pattern such as a marker, and is a method of superimposing using image feature values (SIFT feature values, SURF feature values) instead. In the present embodiment, description will be made using a marker-type AR content superimposition method, but a non-marker type can also be applied to the present embodiment.

本実施形態では説明のため、ARコンテンツを重畳させることができる特徴情報を図4(a)に示すような黒斑の四角で囲ったマーカーであるとし、以下の説明ではマーカーと呼称する。   In the present embodiment, for the sake of explanation, it is assumed that the feature information on which AR content can be superimposed is a marker surrounded by a black spot square as shown in FIG.

例えば図4(a)に示すように物理オブジェクトとして紙文書と付箋紙が写っている画像を取得した場合、特徴抽出処理102では図4(b)に示すように、二つのマーカーを取得することとなる。   For example, when an image in which a paper document and a sticky note are captured as physical objects is acquired as shown in FIG. 4A, the feature extraction processing 102 acquires two markers as shown in FIG. 4B. It becomes.

次に、画像処理装置10のARコンテンツ情報取得処理103では、ARコンテンツ管理装置からARコンテンツ情報を取得する。この処理は特徴抽出処理102で得られた複数のマーカー(特徴情報)を、通信部13を介してARコンテンツ管理装置に送信し、それぞれに対応したARコンテンツ情報を受け取る。ここで言うARコンテンツ情報とは、図6の概念図で示したように各マーカーがARコンテンツ(拡張情報)と対応関係があったか否かを示すARコンテンツ対応フラグと、対応関係があった場合はARコンテンツの3Dモデル情報や、マーカーに対する表示位置などの情報を含む。尚、このARコンテンツの表示位置は図5(b)に示すようにマーカーを基準とした座標系で受け取ればよい。   Next, in the AR content information acquisition process 103 of the image processing apparatus 10, AR content information is acquired from the AR content management apparatus. In this process, a plurality of markers (feature information) obtained in the feature extraction process 102 are transmitted to the AR content management apparatus via the communication unit 13, and AR content information corresponding to each marker is received. The AR content information here refers to an AR content correspondence flag indicating whether each marker has a corresponding relationship with the AR content (extended information) as shown in the conceptual diagram of FIG. It includes information such as 3D model information of AR content and a display position with respect to the marker. Note that the AR content display position may be received in a coordinate system based on the marker as shown in FIG.

次に、ARコンテンツ管理装置20側のARコンテンツ情報生成処理201について説明する。ここで前提条件として、ARコンテンツ管理装置20ではARコンテンツとマーカーの対応関係を予め記録部23に記録している。この対応関係は例えば図7の概念図に示すようなものである。   Next, the AR content information generation process 201 on the AR content management apparatus 20 side will be described. Here, as a precondition, the AR content management apparatus 20 records the correspondence between the AR content and the marker in the recording unit 23 in advance. This correspondence is as shown in the conceptual diagram of FIG.

ARコンテンツ情報生成処理201では、通信部22を介して受信した各マーカー(特徴情報)に対し、対応するARコンテンツ(拡張情報)があるか否かを判別し、ARコンテンツ情報を生成する。このARコンテンツ情報は先に述べたとおり、図6の表で示したような対応するARコンテンツがあるか否かを示すARコンテンツ対応フラグと、対応ARコンテンツがある場合ARコンテンツの3Dモデル情報、ARコンテンツ表示座標等を含む。尚、ARコンテンツの3Dモデル情報は通常の3Dコンテンツ作成時と同様、CAD等を用いて作成すればよい。またARコンテンツ表示座標は、オーサリングツールなどを用いてARマーカーを基準とした座標系における3Dコンテンツの表示座標を指定すればよい。また受信したマーカーがARコンテンツと対応しているか否かの判定は、記録部23上のマーカーと受信したマーカーとをパターンマッチングして行えばよい。   In the AR content information generation processing 201, it is determined whether or not there is a corresponding AR content (extended information) for each marker (feature information) received via the communication unit 22, and AR content information is generated. As described above, this AR content information includes an AR content correspondence flag indicating whether or not there is a corresponding AR content as shown in the table of FIG. 6, and 3D model information of the AR content when there is a corresponding AR content, Including AR content display coordinates. Note that the AR content 3D model information may be created using CAD or the like, as in the case of normal 3D content creation. The AR content display coordinates may be specified using 3D content display coordinates in a coordinate system based on the AR marker using an authoring tool or the like. Whether the received marker corresponds to the AR content may be determined by pattern matching between the marker on the recording unit 23 and the received marker.

次にARコンテンツ情報送信処理202について説明する。本処理ではARコンテンツ情報生成処理201により得られたARコンテンツ情報を、通信部22を介して受信元の画像処理装置10に送信する。   Next, the AR content information transmission process 202 will be described. In this process, the AR content information obtained by the AR content information generation process 201 is transmitted to the image processing apparatus 10 as the reception source via the communication unit 22.

次に、画像処理装置10の表示処理104では、受信したARコンテンツ情報を用いて図1の表示部14に表示する画像を生成し、表示させる。この処理を図8のフローチャートと図9の例を用いて説明する。以下、フローチャートは、CPUが制御プログラムを実行することにより実現されるものとする。   Next, in the display process 104 of the image processing apparatus 10, an image to be displayed on the display unit 14 in FIG. 1 is generated and displayed using the received AR content information. This process will be described with reference to the flowchart of FIG. 8 and the example of FIG. Hereinafter, the flowchart is realized by the CPU executing the control program.

まず図8のステップS1041は、処理中のマーカーが何番目であるかを示す変数nを0で初期化し、ステップS1042に移る。   First, in step S1041 in FIG. 8, a variable n indicating the number of the marker being processed is initialized with 0, and the process proceeds to step S1042.

次にステップS1041は、まず処理中のマーカーMnに対応するARコンテンツ情報における、ARコンテンツ対応フラグを参照する。そしてフラグがTRUE、すなわち対応するARコンテンツが存在する場合、ステップS1043に移る。フラグがFALSE、すなわち対応するARコンテンツが存在しない場合、ステップS1044に移る。   Next, step S1041 refers to the AR content correspondence flag in the AR content information corresponding to the marker Mn being processed. If the flag is TRUE, that is, if the corresponding AR content exists, the process proceeds to step S1043. If the flag is FALSE, that is, the corresponding AR content does not exist, the process proceeds to step S1044.

次にステップS1043は、処理中のマーカーMnに対し、ARコンテンツ情報を用いてARコンテンツを重畳描画する。マーカーに対しARコンテンツを重畳描画させる技術は公知であるため、説明は省略する。ARコンテンツを重畳描画したら、ステップS1045に移る。   In step S1043, the AR content is superimposed and drawn on the marker Mn being processed using the AR content information. Since the technique for superimposing and drawing the AR content on the marker is well known, description thereof is omitted. When the AR content is superimposed and drawn, the process proceeds to step S1045.

次にステップS1044は、処理中のマーカーMnに対し、対応するARコンテンツがない旨をメッセージとして表示し、ステップS1045に移る。   In step S1044, a message indicating that there is no corresponding AR content is displayed for the marker Mn being processed, and the process proceeds to step S1045.

次にステップS1045は、画像取得処理で取得した画像中のマーカーの個数Nmaxが、処理中のマーカーが何番目であるかを示す変数nより大きいか否かを判定する。大きい場合はステップS1046に移る。そうでない場合は処理を終える。   In step S1045, it is determined whether the number Nmax of markers in the image acquired in the image acquisition process is greater than a variable n indicating the number of the marker being processed. If larger, the process proceeds to step S1046. If not, the process ends.

次にステップS1046は、処理中のマーカーが何番目であるかを示す変数nに1加算しステップS1042に移る。   In step S1046, 1 is added to the variable n indicating the number of the marker being processed, and the flow advances to step S1042.

以上の処理により、画像処理装置10は例えば、図9のようにマーカーに対応付けられたARコンテンツを表示部14で表示することができる。ARコンテンツが対応付けられていないマーカーに対しては、ARコンテンツが対応付けられていないことを示すメッセージを表示する。   Through the above processing, the image processing apparatus 10 can display the AR content associated with the marker on the display unit 14 as shown in FIG. For a marker not associated with AR content, a message indicating that AR content is not associated is displayed.

尚、ARコンテンツ、メッセージの表示位置やマーカーの撮影角度によっては、画面上でARコンテンツ、マーカー、メッセージの何れかが重複することがあり得る。この場合はARコンテンツ、メッセージを半透明にする、メッセージを移動する、大きさを変える、もしくはマーカーだけは別枠で表示するなどすれば、この後の選択処理が行いやすくなる。   Depending on the AR content, the display position of the message, and the shooting angle of the marker, any of the AR content, the marker, and the message may overlap on the screen. In this case, if the AR content and the message are made translucent, the message is moved, the size is changed, or only the marker is displayed in a separate frame, the subsequent selection process can be easily performed.

次に、画像処理装置10のARコンテンツ選択処理105は、ユーザーに操作を促し、マーカーに重畳表示されているARコンテンツの一部を選択させる。この選択方法は表示するARコンテンツの種別に応じて変化させることが望ましい。   Next, the AR content selection process 105 of the image processing apparatus 10 prompts the user to select a part of the AR content superimposed on the marker. This selection method is preferably changed according to the type of AR content to be displayed.

例えば、図10(a)はマーカーに多数の画像が対応付けられているようなケースである。この場合は所望の画像を一つまたは複数を、指示部15を介して選択すればよい。画像処理装置10が図2に示すような形状であるとすると、ARコンテンツ表示部に表示された多数の画像中の所望の画像部分を図10(a)のように手指でタッチして指定することにより実現できる。   For example, FIG. 10A shows a case where a number of images are associated with the marker. In this case, one or more desired images may be selected via the instruction unit 15. If the image processing apparatus 10 has a shape as shown in FIG. 2, a desired image portion in a large number of images displayed on the AR content display unit is specified by touching with a finger as shown in FIG. Can be realized.

図10(b)はマーカーにARコンテンツとして電子文書が対応付けられているようなケースである。この場合は電子文書中の所望の部分を、指示部15を介して選択すればよい。画像処理装置10が図2に示すような形状であるとすると、ARコンテンツ表示部に表示された電子文書の所望の部分を、図10(b)のように手指でスワイプして矩形指定することにより実現できる。   FIG. 10B shows a case where an electronic document is associated with the marker as AR content. In this case, a desired part in the electronic document may be selected via the instruction unit 15. If the image processing apparatus 10 has a shape as shown in FIG. 2, a desired part of the electronic document displayed on the AR content display unit is swiped with a finger as shown in FIG. 10B to designate a rectangle. Can be realized.

図10(c)はマーカーに3Dオブジェクトが対応付けられているようなケースである。この場合は3Dオブジェクト中の所望のパーツを、指示部15を介して選択すればよい。画像処理装置10が図2に示すような形状であるとすると、ARコンテンツ表示部に表示された3Dオブジェクトの所望のパーツ部分を、図10(c)のように手指でタッチして指定することにより実現できる。   FIG. 10C shows a case where a 3D object is associated with a marker. In this case, a desired part in the 3D object may be selected via the instruction unit 15. If the image processing apparatus 10 has a shape as shown in FIG. 2, a desired part portion of the 3D object displayed on the AR content display unit is specified by touching with a finger as shown in FIG. 10C. Can be realized.

次に画像処理装置10の選択ARコンテンツリンク指示処理106は、ユーザーに操作を促し、対応するARコンテンツが存在しないマーカーに対し、ARコンテンツの対応付け指示を行わせる。   Next, the selected AR content link instruction processing 106 of the image processing apparatus 10 prompts the user to perform an instruction for associating AR content with a marker for which no corresponding AR content exists.

ここで対応付けるARコンテンツとは、前の処理であるARコンテンツ選択処理105で選択された、部分ARコンテンツである。対応付ける指示としては例えば、図9の例で言うと、部分ARコンテンツをドラッグし、メッセージを表示していたドロップ領域にドロップすることで実現できる。他にも、対応するARコンテンツが存在しないマーカーにタッチするなどの操作でも当処理は実現可能である。   The AR content to be associated here is the partial AR content selected in the AR content selection process 105 as the previous process. For example, in the example of FIG. 9, the association instruction can be realized by dragging the partial AR content and dropping it in the drop area where the message was displayed. In addition, this process can be realized by an operation such as touching a marker for which no corresponding AR content exists.

以上の処理により、ユーザーが所望の部分ARコンテンツと、部分ARコンテンツを対応付けるリンク先マーカーとの指定が行われる。当処理は最後に通信部13を介してこの部分ARコンテンツ情報と、リンク先マーカー情報とをARコンテンツ管理装置20に送信し、処理を終える。   Through the above processing, the user designates a desired partial AR content and a link destination marker that associates the partial AR content. This process finally transmits the partial AR content information and the link destination marker information to the AR content management apparatus 20 via the communication unit 13, and the process ends.

最後にARコンテンツ管理装置20では、通信部22を介して画像処理装置10から受信した部分ARコンテンツ情報とリンク先マーカー情報を対応付けし、保存する。   Finally, the AR content management apparatus 20 associates and stores the partial AR content information received from the image processing apparatus 10 via the communication unit 22 and the link destination marker information.

以上の処理を行うことで、ARコンテンツに対応付けられていない物理オブジェクトの特徴情報(マーカー)に対して、既存のARコンテンツを編集した新たなARコンテンツを対応付けることができる。   By performing the above processing, it is possible to associate a new AR content obtained by editing the existing AR content with the feature information (marker) of the physical object that is not associated with the AR content.

<実施形態2>
実施形態1においては、ARコンテンツ選択処理105でARコンテンツ情報の編集操作の一例として選択操作を挙げたが、他の編集操作を実施してもよい。本実施形態では、他の編集操作について述べる。
<Embodiment 2>
In the first embodiment, the selection operation is described as an example of the editing operation of the AR content information in the AR content selection processing 105, but other editing operations may be performed. In this embodiment, other editing operations will be described.

一例として、リンク先マーカーに対するARコンテンツの表示形態の変更方法を述べる。図11はその編集操作を実施するためのUI画面の例である。   As an example, a method for changing the display mode of the AR content for the link destination marker will be described. FIG. 11 shows an example of a UI screen for performing the editing operation.

まず図11におけるUI1は実写画像表示部兼ARコンテンツ表示位置指定部である。ユーザーは当画面のARコンテンツ部分をタッチ、スライドし、リンク先マーカーに対する表示位置を決定する。   First, UI1 in FIG. 11 is a live-action image display unit and AR content display position designation unit. The user touches and slides the AR content portion of the screen to determine the display position for the link destination marker.

次に図11におけるUI2はARコンテンツ表示角度指定部である。ユーザーはこの部分のスライドバーを上下することで、リンク先マーカーの表示角度を決定する。この表示角度はx軸方向、y軸方向、z軸方向それぞれについて指定できる。尚、xyz座標系は図11のUI1画面で示したように、リンク先マーカーを基点としたものを用いればよい。   Next, UI2 in FIG. 11 is an AR content display angle designation unit. The user moves the slide bar in this part up and down to determine the display angle of the link destination marker. This display angle can be specified for each of the x-axis direction, the y-axis direction, and the z-axis direction. Note that, as shown in the UI1 screen of FIG. 11, the xyz coordinate system may be one based on the link destination marker.

最後に図11におけるUI3はARコンテンツの表示サイズ指定部である。この表示されているリング上のバーを回転させることで、リンク先マーカーに対するARコンテンツの表示サイズを指定することができる。この他にも、ARコンテンツの形状や色の変更など、より詳細な指定を行ってもよい。   Finally, UI3 in FIG. 11 is an AR content display size designation unit. By rotating the bar on the displayed ring, the display size of the AR content with respect to the link destination marker can be designated. In addition to this, more detailed designation such as changing the shape or color of the AR content may be performed.

また、一例としてリンク先マーカーに対し、複数の部分ARコンテンツを選択し、レイアウトする方法について述べる。図12は複数のARコンテンツを対応付ける操作を実施するためのUI画面の例である。図12のUI4は、これまで選択してきたARコンテンツの履歴を一覧したものである。ユーザーはこの中から所望のARコンテンツを手指でドラッグ&ドロップすることで、リンク先マーカーに対しARコンテンツをリンク指示することができる。またこの時マーカーが複数画面上に写りこんでいる場合があり得るので、図12に示したように処理中のリンク先マーカーがどれに当たるかを示すような効果を画面中に設けるのが望ましい。また、各ARコンテンツのレイアウトに関しては、先に述べた編集操作を実施するためのUIを用いればよい。   As an example, a method for selecting and laying out a plurality of partial AR contents for a link destination marker will be described. FIG. 12 shows an example of a UI screen for performing an operation for associating a plurality of AR contents. The UI 4 in FIG. 12 lists the history of AR content selected so far. The user can instruct to link the AR content to the link destination marker by dragging and dropping the desired AR content with the finger. At this time, since the marker may be reflected on a plurality of screens, it is desirable to provide an effect on the screen to indicate which link destination marker being processed corresponds to as shown in FIG. In addition, regarding the layout of each AR content, a UI for performing the editing operation described above may be used.

以上のような編集操作を実施することで、ユーザーはより詳細なARコンテンツ形態の指示を行うことができる。   By performing the editing operation as described above, the user can instruct a more detailed AR content form.

<実施形態3>
実施形態1ではARコンテンツの一部を選択し、リンク先のマーカーに対応付ける手法を述べた。しかしこの手法は対応付けを行うユーザー権限については加味されていない。実施形態1の手法を全てのユーザーに対して許容すると、機密を伴うARコンテンツの場合セキュリティ面で不都合がある場合がある。本実施形態ではこうした事情を鑑み、ユーザーの権限によって処理を制限する手法について以下に述べる。なお下記に述べる以外の処理は実施形態1と同様でよい。
<Embodiment 3>
In the first embodiment, a method of selecting a part of AR content and associating it with a link destination marker has been described. However, this method does not take into account the user authority for association. If the method of the first embodiment is allowed for all users, there is a problem in terms of security in the case of AR content with confidentiality. In the present embodiment, in view of such circumstances, a technique for restricting processing according to the authority of the user will be described below. The processes other than those described below may be the same as those in the first embodiment.

まず前提条件として、ARコンテンツ管理装置20は記録部23に、図13で示したような情報を記録しているものとする。すなわちマーカーとARコンテンツの対応関係、表示位置などに加え、ARコンテンツの表示権限、複製権限のあるユーザーIDを記録している。この記録の作業自体はARコンテンツの管理者が予め行っておく。   First, as a precondition, it is assumed that the AR content management apparatus 20 records information as shown in FIG. That is, in addition to the correspondence between the marker and the AR content, the display position, etc., the user ID having the authority to display and copy the AR content is recorded. This recording operation itself is performed in advance by the AR content manager.

そして画像処理装置10におけるARコンテンツ情報取得処理3103ではARコンテンツ管理装置20に対し、抽出したマーカーに加え、自分のデバイスからユーザーIDも送信し、図14の概念図で示すようなARコンテンツ情報を受け取る。このARコンテンツ情報は各マーカーのARコンテンツとの対応フラグ、ARコンテンツ、表示位置などに加え、ARコンテンツの表示、複製権限フラグを含んでいる。   Then, in the AR content information acquisition process 3103 in the image processing apparatus 10, in addition to the extracted marker, the user ID is also transmitted from the own device to the AR content management apparatus 20, and the AR content information as shown in the conceptual diagram of FIG. receive. This AR content information includes an AR content display and duplication authority flag in addition to the flag corresponding to the AR content of each marker, the AR content, and the display position.

ARコンテンツ管理装置20のARコンテンツ情報生成処理3201では各マーカーに対し、対応するARコンテンツがあるか否か、受信したデバイスのIDに表示、複製する権限があるか否かを判別し、図14の概念図で示すようなARコンテンツ情報を生成する。   In the AR content information generation process 3201 of the AR content management apparatus 20, it is determined whether or not each marker has a corresponding AR content and whether or not it has the authority to display and copy the received device ID. AR content information as shown in the conceptual diagram is generated.

そして生成したARコンテンツ情報を、ARコンテンツ管理装置20はARコンテンツ情報送信処理3202にて画像処理装置10に送信する。   Then, the AR content management device 20 transmits the generated AR content information to the image processing device 10 in the AR content information transmission processing 3202.

そして画像処理装置10では表示処理3104にて受け取ったARコンテンツ情報を用いて表示部14に画像を表示する。この表示処理3104の詳細を、図15の処理フローを用いて説明する。   Then, the image processing apparatus 10 displays an image on the display unit 14 using the AR content information received in the display process 3104. Details of the display processing 3104 will be described with reference to the processing flow of FIG.

まず図15のステップS31041は、処理中のマーカーが何番目であるかを示す変数nを0で初期化し、ステップS31042に移る。   First, in step S31041 in FIG. 15, a variable n indicating the number of the marker being processed is initialized with 0, and the process proceeds to step S31042.

次にステップS31041は、まず処理中のマーカーMnに対応するARコンテンツ情報における、ARコンテンツ対応フラグを参照する。そしてフラグがTRUE、すなわち対応するARコンテンツが存在する場合、ステップS31043に移る。フラグがFALSE、すなわち対応するARコンテンツが存在しない場合、ステップS31044に移る。   In step S31041, the AR content correspondence flag in the AR content information corresponding to the marker Mn being processed is first referred to. If the flag is TRUE, that is, if the corresponding AR content exists, the process proceeds to step S31043. If the flag is FALSE, that is, the corresponding AR content does not exist, the process proceeds to step S31044.

次にステップS31043は、処理中のマーカーMnに対し、対応するARコンテンツの表示権限フラグを参照する。表示権限フラグがOKの場合はステップS31045に、そうでない場合はステップS31046に移る。   In step S31043, the display authority flag of the corresponding AR content is referred to the marker Mn being processed. If the display authority flag is OK, the process proceeds to step S31045; otherwise, the process proceeds to step S31046.

次にステップS31044は、処理中のマーカーMnに対し、対応するARコンテンツがない旨をメッセージとして表示し、ステップS31047に移る。   In step S31044, a message indicating that there is no corresponding AR content is displayed for the marker Mn being processed, and the process proceeds to step S31047.

次にステップS31045は、処理中のマーカーMnに対し、ARコンテンツ情報を用いてARコンテンツを重畳描画する。ARコンテンツを重畳描画したら、ステップS31047に移る。   In step S31045, the AR content is superimposed and drawn on the marker Mn being processed using the AR content information. When the AR content is superimposed and drawn, the process proceeds to step S31047.

次にステップS31046は、処理中のマーカーMnに対し、対応するARコンテンツの表示権限がない旨をメッセージとして表示し、ステップS31047に移る。   In step S31046, a message indicating that the corresponding AR content is not displayed is displayed as a message for the marker Mn being processed, and the process proceeds to step S31047.

次にステップS31047では画像取得処理で取得した画像中のマーカーの個数Nmaxが、処理中のマーカーが何番目であるかを示す変数nより大きいか否かを判定する。大きい場合はステップS31048に移る。そうでない場合は処理を終える。   In step S31047, it is determined whether the number Nmax of markers in the image acquired by the image acquisition process is larger than a variable n indicating the number of the marker being processed. If larger, the process proceeds to step S31048. If not, the process ends.

次にステップS31048は、処理中のマーカーが何番目であるかを示す変数nに1加算しステップS31042に移る。   In step S31048, 1 is added to the variable n indicating the number of the marker being processed, and the flow advances to step S31042.

ここまでの処理で、表示権限のないユーザーにはARコンテンツを表示させず、表示権限のあるユーザーにはARコンテンツを表示させる事ができる。   With the processing up to this point, it is possible to display AR content for a user with display authority without displaying AR content for a user without display authority.

そして、次に画像処理装置10におけるARコンテンツ編集処理3105では、表示しているARコンテンツのうち、複製権限フラグがOKのもののみ、編集対象とする。図14の例で言うと二つのマーカーどちらも複製権限がNGとなっているので、操作中のデバイスでは編集ができない。なお編集処理そのものは実施形態1や2と同様でよい。   Then, in the AR content editing processing 3105 in the image processing apparatus 10, only the AR content whose copy authority flag is OK among the displayed AR content is to be edited. In the example of FIG. 14, since the duplication authority for both of the two markers is NG, editing cannot be performed with the device being operated. The editing process itself may be the same as in the first and second embodiments.

そしてARコンテンツリンク指示処理3106では、複製権限フラグがOKのもののみ、リンク指示が可能な対象とする。指示処理そのものは実施形態1や2と同様でよい。   In the AR content link instruction processing 3106, only those whose copy authority flag is OK are set as targets for which a link instruction can be made. The instruction process itself may be the same as in the first and second embodiments.

以上のような処理を行うことで、ARコンテンツに対する表示や、既存のARコンテンツの複製を制限することができる。   By performing the processing as described above, it is possible to restrict display of AR content and copying of existing AR content.

<実施形態4>
実施形態1、2ではユーザーの操作を介し、ARコンテンツの選択や編集を行った。これにより、ユーザーは所望の形態でARコンテンツをマーカーに対応付けることができる。しかし逆にARコンテンツの重要な部分の複製ができればよく、形態など詳細は気にしないユーザーの場合、実施形態1,2で述べたような操作は負担となる。
<Embodiment 4>
In the first and second embodiments, the AR content is selected and edited through a user operation. Thereby, the user can associate the AR content with the marker in a desired form. However, on the contrary, it is only necessary to copy an important part of the AR content, and for the user who does not care about details such as the form, the operations described in the first and second embodiments become a burden.

そうした要求に対応するために、本実施形態ではユーザーの操作負荷を軽減する方法について説明する。   In order to respond to such a request, this embodiment will explain a method for reducing the operation load on the user.

まず前提条件として、ARコンテンツの管理者は複製を行うであろうARコンテンツの重要な一部分、形態を予めデフォルトで指定しARコンテンツ管理装置20に記録しておく。そして画像処理装置10における処理は、画像取得処理、特徴抽出処理、ARコンテンツ情報取得処理、表示処理までは実施形態1と同様でよい。次にARコンテンツ選択処理では、複製元とするARマーカーと、複製先とするARマーカーを指定する。これはUIで画面上のARマーカーをタップするなどして指示してもよいし、カメラをARコンテンツ複製モードにして二つのマーカーを同時に撮る、二回に分けて撮るなどで実現してもよい。そして複製先のARマーカーに対応付けるARコンテンツはあらかじめARコンテンツの管理者によりデフォルトで指定されたARコンテンツの一部と形態をそのまま用いてマーカーに対応付ければよい。   First, as a precondition, an AR content manager designates an important part and form of AR content to be duplicated in advance as default and records it in the AR content management apparatus 20. The processing in the image processing apparatus 10 may be the same as that in the first embodiment up to the image acquisition processing, feature extraction processing, AR content information acquisition processing, and display processing. Next, in the AR content selection process, an AR marker as a duplication source and an AR marker as a duplication destination are designated. This may be instructed by tapping an AR marker on the screen in the UI, or may be realized by taking two markers at the same time with the camera set in the AR content duplication mode, or taking two separate shots. . Then, the AR content associated with the AR marker that is the copy destination may be associated with the marker using the part and form of the AR content specified by the AR content administrator as a default in advance.

以上のような処理を行うことで、ユーザーはマーカーを撮影するだけで簡易にARコンテンツの一部の複写を実施することができる。   By performing the processing as described above, the user can easily copy a part of the AR content simply by photographing the marker.

<その他の実施形態>
実施形態1ではARコンテンツの一部を選択し、リンク先のマーカーに対応付ける手法を述べた。それに加え、選択されたARコンテンツの部分をARコンテンツのリンク元から削除することで、PCの操作で言うカット&ペーストのような効果を実現することもできる。
<Other embodiments>
In the first embodiment, a method of selecting a part of AR content and associating it with a link destination marker has been described. In addition, by deleting the selected AR content portion from the link source of the AR content, it is possible to realize an effect such as cut and paste, which is referred to as a PC operation.

また実施形態1では選択ARコンテンツリンク指示処理106においてARコンテンツが存在しないマーカーに対し、ARコンテンツの対応付け指示を行わせた。しかしその他にも、すでに対応するARコンテンツが存在するマーカーに対しても、実施形態1と同様の操作によりARコンテンツを対応付けることもできる。この場合はすでに存在するARコンテンツを上書きすることになる。   In the first embodiment, in the selected AR content link instruction processing 106, an AR content association instruction is issued to a marker for which no AR content exists. However, AR content can also be associated with a marker that already has corresponding AR content by the same operation as in the first embodiment. In this case, the existing AR content is overwritten.

また実施形態3では権限があるか否かで複製の制限を行ったが、予めARコンテンツ管理者がARコンテンツの複製可能回数を設定することで、ARコンテンツの無秩序な拡散を制限することもできる。この場合は画像処理装置からリンク指示が出される度に、ARコンテンツの複製可能回数を減算していき、0となった時点で複製不可とすればよい。複製要求回数をカウントし、複製可能回数を超えれば、複製不可としても良い。   In the third embodiment, the copy is restricted depending on whether or not there is an authority. However, the AR content manager can limit the random diffusion of the AR content by setting the number of times the AR content can be copied in advance. . In this case, every time a link instruction is issued from the image processing apparatus, the number of times the AR content can be copied is subtracted, and when it becomes 0, the copy is disabled. If the number of duplication requests is counted and the number of duplication times is exceeded, duplication may be prohibited.

以上、実施形態を詳述したが、本発明は上述の実施形態に限定されるのではなく、本発明の趣旨を逸脱しない限りにおいて適宜変更が可能である。   Although the embodiment has been described in detail above, the present invention is not limited to the above-described embodiment, and can be appropriately changed without departing from the gist of the present invention.

本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。   The present invention can take the form of, for example, a system, apparatus, method, program, or storage medium. Specifically, the present invention may be applied to a system composed of a plurality of devices, or may be applied to an apparatus composed of a single device.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

1 ディスプレイ
2 映像I/O
3 CPU
4 ROM
5 RAM
6 システムバス
7 I/O
8 タッチパネル
9 I/O
10 撮像装置
11 I/O
12 外部記録媒体
13 I/O
14 記録装置
15 通信I/F
1 Display 2 Video I / O
3 CPU
4 ROM
5 RAM
6 System bus 7 I / O
8 Touch panel 9 I / O
10 Imaging device 11 I / O
12 External recording medium 13 I / O
14 Recording device 15 Communication I / F

Claims (10)

画像処理装置であって、
第1の特徴情報と第2の特徴情報とを抽出する抽出手段と、
前記第1の特徴情報に対応付けられた拡張情報を取得する取得手段と、
前記拡張情報から新たな拡張情報を生成する生成手段と、
前記第2の特徴情報に前記新たな拡張情報を対応付ける対応付け手段と、を備えることを特徴とする画像処理装置。
An image processing apparatus,
Extraction means for extracting the first feature information and the second feature information;
Obtaining means for obtaining extended information associated with the first feature information;
Generating means for generating new extension information from the extension information;
An image processing apparatus comprising: association means for associating the new extension information with the second feature information.
前記新たな拡張情報は、前記拡張情報の一部であることを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the new extension information is a part of the extension information. 前記抽出手段で抽出された前記第2の特徴情報には、拡張情報が対応付けられていないことを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein extended information is not associated with the second feature information extracted by the extraction unit. 前記抽出手段で抽出された前記第2の特徴情報には、既に拡張情報が対応付けられており、前記対応付け手段の対応付けにより新たな拡張情報が上書きされることを特徴とする請求項1記載の画像処理装置。   2. The extension information is already associated with the second feature information extracted by the extraction unit, and new extension information is overwritten by the association by the association unit. The image processing apparatus described. 前記対応付け手段では、権限を有するユーザーの操作または権限を有する画像処理装置での操作の場合に、前記対応付けを行うことを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the association unit performs the association in the case of an operation of an authorized user or an operation of an authorized image processing apparatus. 前記対応付け手段では、拡張情報に対して予め定められている複製可能回数を参照し、複製可能回数が残っている場合に対応付けを行うことを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the association unit refers to a predetermined number of times of duplication possible for the extended information, and performs association when the number of duplication times remains. 前記生成手段では、拡張情報の管理者が予め設定した編集操作により、新たな拡張情報を生成することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the generation unit generates new extended information by an editing operation preset by an administrator of extended information. 前記特徴情報は、QRコードまたはSIFT特徴量またはSURF特徴量であることを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the feature information is a QR code, a SIFT feature amount, or a SURF feature amount. 画像処理方法であって、
第1の特徴情報と第2の特徴情報とを抽出する抽出工程と、
前記第1の特徴情報に対応付けられた拡張情報を取得する取得工程と、
前記拡張情報から新たな拡張情報を生成する生成工程と、
前記第2の特徴情報に前記新たな拡張情報を対応付ける対応付け工程と、を備えることを特徴とする画像処理方法。
An image processing method comprising:
An extraction step of extracting the first feature information and the second feature information;
An acquisition step of acquiring extended information associated with the first feature information;
A generation step of generating new extension information from the extension information;
And an associating step of associating the new extended information with the second feature information.
コンピュータを、
第1の特徴情報と第2の特徴情報とを抽出する抽出手段と、
前記第1の特徴情報に対応付けられた拡張情報を取得する取得手段と、
前記拡張情報から新たな拡張情報を生成する生成手段と、
前記第2の特徴情報に前記新たな拡張情報を対応付ける対応付け手段と、
として機能させるためのプログラム。
Computer
Extraction means for extracting the first feature information and the second feature information;
Obtaining means for obtaining extended information associated with the first feature information;
Generating means for generating new extension information from the extension information;
Association means for associating the new extended information with the second feature information;
Program to function as.
JP2013095625A 2013-04-30 2013-04-30 Image processing apparatus, image processing method, and program Active JP6245837B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013095625A JP6245837B2 (en) 2013-04-30 2013-04-30 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013095625A JP6245837B2 (en) 2013-04-30 2013-04-30 Image processing apparatus, image processing method, and program

Publications (3)

Publication Number Publication Date
JP2014215977A true JP2014215977A (en) 2014-11-17
JP2014215977A5 JP2014215977A5 (en) 2016-06-16
JP6245837B2 JP6245837B2 (en) 2017-12-13

Family

ID=51941637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013095625A Active JP6245837B2 (en) 2013-04-30 2013-04-30 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6245837B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105184327A (en) * 2015-10-30 2015-12-23 上海海事大学 Vertex trisection strategy-based remote sensing image feature point matching method
JP2016152474A (en) * 2015-02-17 2016-08-22 コニカミノルタ株式会社 Image processing system, image processing device, and image formation device
JP2019061455A (en) * 2017-09-26 2019-04-18 株式会社Nttドコモ Information processing apparatus, terminal device, and information processing system
JP2022023668A (en) * 2020-07-27 2022-02-08 ソフトバンク株式会社 Display control system, program, and display control method

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06266498A (en) * 1993-03-16 1994-09-22 Hitachi Ltd Information processor
JPH07168949A (en) * 1993-04-30 1995-07-04 Rank Xerox Ltd Interactive copying device
JPH07175587A (en) * 1993-10-28 1995-07-14 Hitachi Ltd Information processor
JPH09319556A (en) * 1996-05-28 1997-12-12 Matsushita Electric Ind Co Ltd Information processor
JP2004102562A (en) * 2002-09-09 2004-04-02 Fuji Xerox Co Ltd Paper identifying and collating device and paper identifying and collating method
JP2004164069A (en) * 2002-11-11 2004-06-10 Nippon Telegr & Teleph Corp <Ntt> Information control system, information control method, program for the same, recording medium recording that program
JP2004213518A (en) * 2003-01-08 2004-07-29 Sony Corp Information processor, method for processing information and computer program
JP2006059020A (en) * 2004-08-18 2006-03-02 Nippon Telegr & Teleph Corp <Ntt> Tag with code, idea extraction support system using the same, and method
JP4332964B2 (en) * 1999-12-21 2009-09-16 ソニー株式会社 Information input / output system and information input / output method
US20120038669A1 (en) * 2010-08-12 2012-02-16 Pantech Co., Ltd. User equipment, server, and method for selectively filtering augmented reality
US20120038668A1 (en) * 2010-08-16 2012-02-16 Lg Electronics Inc. Method for display information and mobile terminal using the same
US20120105703A1 (en) * 2010-11-03 2012-05-03 Lg Electronics Inc. Mobile terminal and method for controlling the same
WO2012074528A1 (en) * 2010-12-02 2012-06-07 Empire Technology Development Llc Augmented reality system
JP2012141779A (en) * 2010-12-28 2012-07-26 Ns Solutions Corp Device for providing augmented reality, system for providing augmented reality, and method and program for providing augmented reality
JP2012168798A (en) * 2011-02-15 2012-09-06 Sony Corp Information processing device, authoring method, and program
JP2012178069A (en) * 2011-02-25 2012-09-13 Nintendo Co Ltd Information processing program, information processing method, information processor and information processing system
JP2014203164A (en) * 2013-04-02 2014-10-27 株式会社東芝 Information processing device, information processing method, and program

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06266498A (en) * 1993-03-16 1994-09-22 Hitachi Ltd Information processor
JPH07168949A (en) * 1993-04-30 1995-07-04 Rank Xerox Ltd Interactive copying device
JPH07175587A (en) * 1993-10-28 1995-07-14 Hitachi Ltd Information processor
JPH09319556A (en) * 1996-05-28 1997-12-12 Matsushita Electric Ind Co Ltd Information processor
JP4332964B2 (en) * 1999-12-21 2009-09-16 ソニー株式会社 Information input / output system and information input / output method
JP2004102562A (en) * 2002-09-09 2004-04-02 Fuji Xerox Co Ltd Paper identifying and collating device and paper identifying and collating method
JP2004164069A (en) * 2002-11-11 2004-06-10 Nippon Telegr & Teleph Corp <Ntt> Information control system, information control method, program for the same, recording medium recording that program
JP2004213518A (en) * 2003-01-08 2004-07-29 Sony Corp Information processor, method for processing information and computer program
JP2006059020A (en) * 2004-08-18 2006-03-02 Nippon Telegr & Teleph Corp <Ntt> Tag with code, idea extraction support system using the same, and method
US20120038669A1 (en) * 2010-08-12 2012-02-16 Pantech Co., Ltd. User equipment, server, and method for selectively filtering augmented reality
US20120038668A1 (en) * 2010-08-16 2012-02-16 Lg Electronics Inc. Method for display information and mobile terminal using the same
US20120105703A1 (en) * 2010-11-03 2012-05-03 Lg Electronics Inc. Mobile terminal and method for controlling the same
WO2012074528A1 (en) * 2010-12-02 2012-06-07 Empire Technology Development Llc Augmented reality system
JP2012141779A (en) * 2010-12-28 2012-07-26 Ns Solutions Corp Device for providing augmented reality, system for providing augmented reality, and method and program for providing augmented reality
JP2012168798A (en) * 2011-02-15 2012-09-06 Sony Corp Information processing device, authoring method, and program
JP2012178069A (en) * 2011-02-25 2012-09-13 Nintendo Co Ltd Information processing program, information processing method, information processor and information processing system
JP2014203164A (en) * 2013-04-02 2014-10-27 株式会社東芝 Information processing device, information processing method, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016152474A (en) * 2015-02-17 2016-08-22 コニカミノルタ株式会社 Image processing system, image processing device, and image formation device
CN105184327A (en) * 2015-10-30 2015-12-23 上海海事大学 Vertex trisection strategy-based remote sensing image feature point matching method
CN105184327B (en) * 2015-10-30 2018-10-23 上海海事大学 A kind of Characteristics of The Remote Sensing Images point matching process dividing strategy based on vertex three
JP2019061455A (en) * 2017-09-26 2019-04-18 株式会社Nttドコモ Information processing apparatus, terminal device, and information processing system
JP2022023668A (en) * 2020-07-27 2022-02-08 ソフトバンク株式会社 Display control system, program, and display control method
JP7096295B2 (en) 2020-07-27 2022-07-05 ソフトバンク株式会社 Display control system, program, and display control method

Also Published As

Publication number Publication date
JP6245837B2 (en) 2017-12-13

Similar Documents

Publication Publication Date Title
JP5991423B2 (en) Display device, display method, display program, and position setting system
KR100805871B1 (en) Electronic conference control device, electronic conference assistance method, and storage medium
JP6627861B2 (en) Image processing system, image processing method, and program
JP2008226257A (en) Preparation of image assigning file, and regeneration of image using same
KR101920035B1 (en) Method for providing augmented reality content using virtual object and apparatus using the same
JP2008117019A (en) Conference information management apparatus, conference reproduction apparatus, equipment management apparatus, conference system and program
JP6723965B2 (en) Information processing method, information processing apparatus, and program
JP6245837B2 (en) Image processing apparatus, image processing method, and program
JP2009094868A (en) Information processing apparatus, remote indication system and program
JP6504256B2 (en) Electronic blackboard, electronic blackboard image processing method, and recording medium recording electronic blackboard program
JP4827521B2 (en) Information processing apparatus, control method thereof, and program
JP2014120805A (en) Information processing device, information processing method, and program
JP6963764B2 (en) Digital Evidence Creation Device, Digital Evidence Creation Program and Digital Evidence Creation Method
JP7192953B2 (en) Information processing device, information processing method and program
JP2022171739A (en) Generation device, generation method and program
JP2019139332A (en) Information processor, information processing method and information processing program
JP4562183B2 (en) Information processing method and information processing apparatus
JP2008191858A (en) Terminal monitoring device and program for terminal monitoring device
JP6303723B2 (en) Display control device and display control device control program
KR20140106180A (en) Method and apparatus for sharing electronic documents
JP2010267214A (en) Information processing apparatus, method, and program
JP2002209088A (en) Image edit device and method
JP2007316647A (en) Creation of image designation file and reproduction of image using the same
JP5767574B2 (en) Image processing apparatus and image processing system
JP4103878B2 (en) Creating an image specification file and playing an image using it

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160422

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160422

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171114

R151 Written notification of patent or utility model registration

Ref document number: 6245837

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151