JP2014215977A - Image processing device, image processing method, and program - Google Patents
Image processing device, image processing method, and program Download PDFInfo
- Publication number
- JP2014215977A JP2014215977A JP2013095625A JP2013095625A JP2014215977A JP 2014215977 A JP2014215977 A JP 2014215977A JP 2013095625 A JP2013095625 A JP 2013095625A JP 2013095625 A JP2013095625 A JP 2013095625A JP 2014215977 A JP2014215977 A JP 2014215977A
- Authority
- JP
- Japan
- Prior art keywords
- information
- content
- image processing
- processing apparatus
- marker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、画像に仮想的な画像を重畳して表示させる表示技術に関するものである。 The present invention relates to a display technique for displaying a virtual image superimposed on an image.
近年、撮像装置により得られる画像に対し、仮想的な拡張情報を重畳して表示させることで現実を拡張する、拡張現実(AR: Augmented Reality)技術が開発されてきている。 In recent years, augmented reality (AR) technology has been developed that expands reality by superimposing and displaying virtual augmented information on an image obtained by an imaging apparatus.
例えば、撮影された画像中における特定の物理オブジェクトについて、予め対応付けておいた動画などの拡張情報(ARコンテンツ)を該対象の位置に合わせて重畳表示させる技術が存在している。 For example, there is a technique for superimposing and displaying extended information (AR content) such as a moving image associated with a specific physical object in a captured image in accordance with the position of the target.
特許文献1では、実写画像から特定画像の領域を示す領域情報を検出し、検出した領域情報を用いて、実写画像における特定画像の領域以外の領域に対してはコンピュータグラフィックス画像を合成する。これにより実写風景を背景としてCG物体をその上に重畳し、さらにその手前に実写の被写体の画像を合成させるときに、実写の背景と被写体とを別々に撮影することなく同時に撮影した画像を用いてCGと合成することが可能となる。
In
さらに、ARコンテンツと物理オブジェクトを簡易に対応付ける技術もある。 Furthermore, there is a technique for easily associating AR content with a physical object.
例えば特許文献2では、プロジェクタとカメラにより拡張されたデジタル作業空間において、ポインタにより操作されるデジタルオブジェクトを、マーカーが付された物理オブジェクトにドラッグアンドドロップしている。そして、マーカーにデジタルオブジェクトをリンク付けする技術を開示している。
For example, in
特許文献3では、基本マーカーに対応付けられているAR情報を意味単位に分解し、また物理オブジェクトを撮影した画像から要素を抽出し、AR情報の各意味を画像の各要素に対応付けることで、画像の各要素を代替マーカーとする技術を開示している。
In
しかしながら、特許文献2に記載されている技術においては、元々のデジタルオブジェクトはマーカーなどの特徴情報に関連付いた拡張情報ではない。デジタルオブジェクトを表示するのにプロジェクタとカメラにより拡張されたデジタル作業空間を要するため、操作・編集対象のデジタルオブジェクト(拡張情報)を取得することに大規模な準備が必要となり簡単に利用することが難しい。
However, in the technique described in
また、特許文献3に記載されている技術においては、基本マーカーの情報を意味単位で物理オブジェクトの要素にそのまま対応付けるため、基本マーカーに対応付けられた拡張情報(ARコンテンツ)をそのまま複製することしかできない。
Further, in the technique described in
本発明は上記の課題に鑑みて成されたものであり、ある特徴情報に対応付けられた拡張情報(ARコンテンツ)を簡易に意図通りに別の特徴情報に対応付けることを可能とするための画像処理装置を提供することを目的とする。また、その方法、及びプログラムを提供することを目的とする。 The present invention has been made in view of the above-described problem, and is an image for enabling extended information (AR content) associated with certain feature information to be easily associated with other feature information as intended. An object is to provide a processing apparatus. Moreover, it aims at providing the method and program.
本発明の画像処理装置は、以下の構成を備える。即ち、第1の特徴情報と第2の特徴情報とを抽出する抽出手段と、前記第1の特徴情報に対応付けられた拡張情報を取得する取得手段と、前記拡張情報から新たな拡張情報を生成する生成手段と、前記第2の特徴情報に前記新たな拡張情報を対応付ける対応付け手段。 The image processing apparatus of the present invention has the following configuration. That is, extraction means for extracting first feature information and second feature information, acquisition means for acquiring extension information associated with the first feature information, and new extension information from the extension information. Generating means for generating and associating means for associating the new extended information with the second feature information;
本発明によれば、ある特徴情報に対応付けられている拡張情報を別の特徴情報に、簡易に対応付けることができる。 According to the present invention, it is possible to easily associate extended information associated with certain feature information with other feature information.
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施形態の一つである。 Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific embodiments having the configurations described in the claims.
<実施形態1>
まず図1を用いて、本実施形態に係る機能構成例について説明する。図1に示す如く、本実施形態では、ARコンテンツの取得・編集・リンク付けなどの処理をする画像処理装置10、ARコンテンツを管理しているARコンテンツ管理装置20を有している。
<
First, a functional configuration example according to the present embodiment will be described with reference to FIG. As shown in FIG. 1, the present embodiment includes an
また画像処理装置10は、撮影部11、制御部12、通信部13、表示部14、指示部15、を有している。
Further, the
またARコンテンツ管理装置20は制御部21、通信部22、記録部23を有している。
The AR
本実施形態における前提として画像処理装置10は、例えば図2のような形状を成す。すなわち、一方の面に撮影部、他方の面に表示・指示部が搭載されている。この表示・指示部は例えばタッチパネルを用いることで実現できる。
As a premise in the present embodiment, the
また図1の画像処理装置のハードウェア構成例について、図16のブロック図を参照して説明する。同図において、3は装置全体を制御するCentral Processing Unit(CPU)である。4は変更を必要としないプログラムやパラメータを格納するRead Only Memory(ROM)である。5は外部装置等から供給されるプログラムやデータを一時記録するRandom Access Memory(RAM)である。12はメモリカードに代表されるデータの読み書き可能な外部記録媒体である。また14はハードディスク、SSDに代表される大容量の記録装置として機能し、一般的には外部記録媒体12の記録容量よりも大きい。また、11,13はこれら外部記録媒体12、記録装置14をコンピュータ装置と接続するI/Oである。9は画像を取得する撮像装置10とのI/Oである。7はユーザーの操作を受けるタッチパネルとのI/Oである。2は画像処理装置の保持するデータや供給されたデータを表示するためのディスプレイモニタ1との映像I/Oである。15はインターネット等のネットワーク回線に接続するための通信I/Fである。6は1〜15の各ユニットを通信可能に接続するシステムバスである。
A hardware configuration example of the image processing apparatus in FIG. 1 will be described with reference to the block diagram in FIG. In the figure,
以下から各装置の制御部12、21における処理について、図3のフローチャートを使いながら説明する。以下、フローチャートは、CPUが制御プログラムを実行することにより実現されるものとする。
The processes in the
まず画像処理装置10の画像取得処理101では、撮影部11に命令を出し物理オブジェクトの撮影を行って画像を取得する。
First, in the
次に、画像処理装置10の特徴抽出処理102では、ARコンテンツを重畳させる候補となる特徴情報を物理オブジェクトの画像から複数抽出する。
Next, in the
尚、ARコンテンツを実写画像に重畳させる対象の特徴情報にはマーカー型と非マーカー型がある。マーカー型は予め定めたフォーマットで描かれた特定のパターンを文書等に印刷しておき、それを読み取ることで重畳させる手法である。例えば、QRコード(登録商標)などである。非マーカー型はマーカーのような特定のパターンは必要とせず、代わりに画像の特徴量(SIFT特徴量、SURF特徴量)を用いて重畳させる手法である。本実施形態においては、マーカー型でのARコンテンツ重畳手法を用いて説明するが、本実施形態に非マーカー型を適用することも可能である。 Note that the target feature information on which the AR content is superimposed on the photographed image includes a marker type and a non-marker type. The marker type is a technique in which a specific pattern drawn in a predetermined format is printed on a document or the like and is superposed by reading it. For example, it is a QR code (registered trademark). The non-marker type does not require a specific pattern such as a marker, and is a method of superimposing using image feature values (SIFT feature values, SURF feature values) instead. In the present embodiment, description will be made using a marker-type AR content superimposition method, but a non-marker type can also be applied to the present embodiment.
本実施形態では説明のため、ARコンテンツを重畳させることができる特徴情報を図4(a)に示すような黒斑の四角で囲ったマーカーであるとし、以下の説明ではマーカーと呼称する。 In the present embodiment, for the sake of explanation, it is assumed that the feature information on which AR content can be superimposed is a marker surrounded by a black spot square as shown in FIG.
例えば図4(a)に示すように物理オブジェクトとして紙文書と付箋紙が写っている画像を取得した場合、特徴抽出処理102では図4(b)に示すように、二つのマーカーを取得することとなる。
For example, when an image in which a paper document and a sticky note are captured as physical objects is acquired as shown in FIG. 4A, the
次に、画像処理装置10のARコンテンツ情報取得処理103では、ARコンテンツ管理装置からARコンテンツ情報を取得する。この処理は特徴抽出処理102で得られた複数のマーカー(特徴情報)を、通信部13を介してARコンテンツ管理装置に送信し、それぞれに対応したARコンテンツ情報を受け取る。ここで言うARコンテンツ情報とは、図6の概念図で示したように各マーカーがARコンテンツ(拡張情報)と対応関係があったか否かを示すARコンテンツ対応フラグと、対応関係があった場合はARコンテンツの3Dモデル情報や、マーカーに対する表示位置などの情報を含む。尚、このARコンテンツの表示位置は図5(b)に示すようにマーカーを基準とした座標系で受け取ればよい。
Next, in the AR content
次に、ARコンテンツ管理装置20側のARコンテンツ情報生成処理201について説明する。ここで前提条件として、ARコンテンツ管理装置20ではARコンテンツとマーカーの対応関係を予め記録部23に記録している。この対応関係は例えば図7の概念図に示すようなものである。
Next, the AR content
ARコンテンツ情報生成処理201では、通信部22を介して受信した各マーカー(特徴情報)に対し、対応するARコンテンツ(拡張情報)があるか否かを判別し、ARコンテンツ情報を生成する。このARコンテンツ情報は先に述べたとおり、図6の表で示したような対応するARコンテンツがあるか否かを示すARコンテンツ対応フラグと、対応ARコンテンツがある場合ARコンテンツの3Dモデル情報、ARコンテンツ表示座標等を含む。尚、ARコンテンツの3Dモデル情報は通常の3Dコンテンツ作成時と同様、CAD等を用いて作成すればよい。またARコンテンツ表示座標は、オーサリングツールなどを用いてARマーカーを基準とした座標系における3Dコンテンツの表示座標を指定すればよい。また受信したマーカーがARコンテンツと対応しているか否かの判定は、記録部23上のマーカーと受信したマーカーとをパターンマッチングして行えばよい。
In the AR content
次にARコンテンツ情報送信処理202について説明する。本処理ではARコンテンツ情報生成処理201により得られたARコンテンツ情報を、通信部22を介して受信元の画像処理装置10に送信する。
Next, the AR content
次に、画像処理装置10の表示処理104では、受信したARコンテンツ情報を用いて図1の表示部14に表示する画像を生成し、表示させる。この処理を図8のフローチャートと図9の例を用いて説明する。以下、フローチャートは、CPUが制御プログラムを実行することにより実現されるものとする。
Next, in the display process 104 of the
まず図8のステップS1041は、処理中のマーカーが何番目であるかを示す変数nを0で初期化し、ステップS1042に移る。 First, in step S1041 in FIG. 8, a variable n indicating the number of the marker being processed is initialized with 0, and the process proceeds to step S1042.
次にステップS1041は、まず処理中のマーカーMnに対応するARコンテンツ情報における、ARコンテンツ対応フラグを参照する。そしてフラグがTRUE、すなわち対応するARコンテンツが存在する場合、ステップS1043に移る。フラグがFALSE、すなわち対応するARコンテンツが存在しない場合、ステップS1044に移る。 Next, step S1041 refers to the AR content correspondence flag in the AR content information corresponding to the marker Mn being processed. If the flag is TRUE, that is, if the corresponding AR content exists, the process proceeds to step S1043. If the flag is FALSE, that is, the corresponding AR content does not exist, the process proceeds to step S1044.
次にステップS1043は、処理中のマーカーMnに対し、ARコンテンツ情報を用いてARコンテンツを重畳描画する。マーカーに対しARコンテンツを重畳描画させる技術は公知であるため、説明は省略する。ARコンテンツを重畳描画したら、ステップS1045に移る。 In step S1043, the AR content is superimposed and drawn on the marker Mn being processed using the AR content information. Since the technique for superimposing and drawing the AR content on the marker is well known, description thereof is omitted. When the AR content is superimposed and drawn, the process proceeds to step S1045.
次にステップS1044は、処理中のマーカーMnに対し、対応するARコンテンツがない旨をメッセージとして表示し、ステップS1045に移る。 In step S1044, a message indicating that there is no corresponding AR content is displayed for the marker Mn being processed, and the process proceeds to step S1045.
次にステップS1045は、画像取得処理で取得した画像中のマーカーの個数Nmaxが、処理中のマーカーが何番目であるかを示す変数nより大きいか否かを判定する。大きい場合はステップS1046に移る。そうでない場合は処理を終える。 In step S1045, it is determined whether the number Nmax of markers in the image acquired in the image acquisition process is greater than a variable n indicating the number of the marker being processed. If larger, the process proceeds to step S1046. If not, the process ends.
次にステップS1046は、処理中のマーカーが何番目であるかを示す変数nに1加算しステップS1042に移る。 In step S1046, 1 is added to the variable n indicating the number of the marker being processed, and the flow advances to step S1042.
以上の処理により、画像処理装置10は例えば、図9のようにマーカーに対応付けられたARコンテンツを表示部14で表示することができる。ARコンテンツが対応付けられていないマーカーに対しては、ARコンテンツが対応付けられていないことを示すメッセージを表示する。
Through the above processing, the
尚、ARコンテンツ、メッセージの表示位置やマーカーの撮影角度によっては、画面上でARコンテンツ、マーカー、メッセージの何れかが重複することがあり得る。この場合はARコンテンツ、メッセージを半透明にする、メッセージを移動する、大きさを変える、もしくはマーカーだけは別枠で表示するなどすれば、この後の選択処理が行いやすくなる。 Depending on the AR content, the display position of the message, and the shooting angle of the marker, any of the AR content, the marker, and the message may overlap on the screen. In this case, if the AR content and the message are made translucent, the message is moved, the size is changed, or only the marker is displayed in a separate frame, the subsequent selection process can be easily performed.
次に、画像処理装置10のARコンテンツ選択処理105は、ユーザーに操作を促し、マーカーに重畳表示されているARコンテンツの一部を選択させる。この選択方法は表示するARコンテンツの種別に応じて変化させることが望ましい。
Next, the AR content selection process 105 of the
例えば、図10(a)はマーカーに多数の画像が対応付けられているようなケースである。この場合は所望の画像を一つまたは複数を、指示部15を介して選択すればよい。画像処理装置10が図2に示すような形状であるとすると、ARコンテンツ表示部に表示された多数の画像中の所望の画像部分を図10(a)のように手指でタッチして指定することにより実現できる。
For example, FIG. 10A shows a case where a number of images are associated with the marker. In this case, one or more desired images may be selected via the
図10(b)はマーカーにARコンテンツとして電子文書が対応付けられているようなケースである。この場合は電子文書中の所望の部分を、指示部15を介して選択すればよい。画像処理装置10が図2に示すような形状であるとすると、ARコンテンツ表示部に表示された電子文書の所望の部分を、図10(b)のように手指でスワイプして矩形指定することにより実現できる。
FIG. 10B shows a case where an electronic document is associated with the marker as AR content. In this case, a desired part in the electronic document may be selected via the
図10(c)はマーカーに3Dオブジェクトが対応付けられているようなケースである。この場合は3Dオブジェクト中の所望のパーツを、指示部15を介して選択すればよい。画像処理装置10が図2に示すような形状であるとすると、ARコンテンツ表示部に表示された3Dオブジェクトの所望のパーツ部分を、図10(c)のように手指でタッチして指定することにより実現できる。
FIG. 10C shows a case where a 3D object is associated with a marker. In this case, a desired part in the 3D object may be selected via the
次に画像処理装置10の選択ARコンテンツリンク指示処理106は、ユーザーに操作を促し、対応するARコンテンツが存在しないマーカーに対し、ARコンテンツの対応付け指示を行わせる。
Next, the selected AR content
ここで対応付けるARコンテンツとは、前の処理であるARコンテンツ選択処理105で選択された、部分ARコンテンツである。対応付ける指示としては例えば、図9の例で言うと、部分ARコンテンツをドラッグし、メッセージを表示していたドロップ領域にドロップすることで実現できる。他にも、対応するARコンテンツが存在しないマーカーにタッチするなどの操作でも当処理は実現可能である。 The AR content to be associated here is the partial AR content selected in the AR content selection process 105 as the previous process. For example, in the example of FIG. 9, the association instruction can be realized by dragging the partial AR content and dropping it in the drop area where the message was displayed. In addition, this process can be realized by an operation such as touching a marker for which no corresponding AR content exists.
以上の処理により、ユーザーが所望の部分ARコンテンツと、部分ARコンテンツを対応付けるリンク先マーカーとの指定が行われる。当処理は最後に通信部13を介してこの部分ARコンテンツ情報と、リンク先マーカー情報とをARコンテンツ管理装置20に送信し、処理を終える。
Through the above processing, the user designates a desired partial AR content and a link destination marker that associates the partial AR content. This process finally transmits the partial AR content information and the link destination marker information to the AR
最後にARコンテンツ管理装置20では、通信部22を介して画像処理装置10から受信した部分ARコンテンツ情報とリンク先マーカー情報を対応付けし、保存する。
Finally, the AR
以上の処理を行うことで、ARコンテンツに対応付けられていない物理オブジェクトの特徴情報(マーカー)に対して、既存のARコンテンツを編集した新たなARコンテンツを対応付けることができる。 By performing the above processing, it is possible to associate a new AR content obtained by editing the existing AR content with the feature information (marker) of the physical object that is not associated with the AR content.
<実施形態2>
実施形態1においては、ARコンテンツ選択処理105でARコンテンツ情報の編集操作の一例として選択操作を挙げたが、他の編集操作を実施してもよい。本実施形態では、他の編集操作について述べる。
<
In the first embodiment, the selection operation is described as an example of the editing operation of the AR content information in the AR content selection processing 105, but other editing operations may be performed. In this embodiment, other editing operations will be described.
一例として、リンク先マーカーに対するARコンテンツの表示形態の変更方法を述べる。図11はその編集操作を実施するためのUI画面の例である。 As an example, a method for changing the display mode of the AR content for the link destination marker will be described. FIG. 11 shows an example of a UI screen for performing the editing operation.
まず図11におけるUI1は実写画像表示部兼ARコンテンツ表示位置指定部である。ユーザーは当画面のARコンテンツ部分をタッチ、スライドし、リンク先マーカーに対する表示位置を決定する。 First, UI1 in FIG. 11 is a live-action image display unit and AR content display position designation unit. The user touches and slides the AR content portion of the screen to determine the display position for the link destination marker.
次に図11におけるUI2はARコンテンツ表示角度指定部である。ユーザーはこの部分のスライドバーを上下することで、リンク先マーカーの表示角度を決定する。この表示角度はx軸方向、y軸方向、z軸方向それぞれについて指定できる。尚、xyz座標系は図11のUI1画面で示したように、リンク先マーカーを基点としたものを用いればよい。 Next, UI2 in FIG. 11 is an AR content display angle designation unit. The user moves the slide bar in this part up and down to determine the display angle of the link destination marker. This display angle can be specified for each of the x-axis direction, the y-axis direction, and the z-axis direction. Note that, as shown in the UI1 screen of FIG. 11, the xyz coordinate system may be one based on the link destination marker.
最後に図11におけるUI3はARコンテンツの表示サイズ指定部である。この表示されているリング上のバーを回転させることで、リンク先マーカーに対するARコンテンツの表示サイズを指定することができる。この他にも、ARコンテンツの形状や色の変更など、より詳細な指定を行ってもよい。 Finally, UI3 in FIG. 11 is an AR content display size designation unit. By rotating the bar on the displayed ring, the display size of the AR content with respect to the link destination marker can be designated. In addition to this, more detailed designation such as changing the shape or color of the AR content may be performed.
また、一例としてリンク先マーカーに対し、複数の部分ARコンテンツを選択し、レイアウトする方法について述べる。図12は複数のARコンテンツを対応付ける操作を実施するためのUI画面の例である。図12のUI4は、これまで選択してきたARコンテンツの履歴を一覧したものである。ユーザーはこの中から所望のARコンテンツを手指でドラッグ&ドロップすることで、リンク先マーカーに対しARコンテンツをリンク指示することができる。またこの時マーカーが複数画面上に写りこんでいる場合があり得るので、図12に示したように処理中のリンク先マーカーがどれに当たるかを示すような効果を画面中に設けるのが望ましい。また、各ARコンテンツのレイアウトに関しては、先に述べた編集操作を実施するためのUIを用いればよい。 As an example, a method for selecting and laying out a plurality of partial AR contents for a link destination marker will be described. FIG. 12 shows an example of a UI screen for performing an operation for associating a plurality of AR contents. The UI 4 in FIG. 12 lists the history of AR content selected so far. The user can instruct to link the AR content to the link destination marker by dragging and dropping the desired AR content with the finger. At this time, since the marker may be reflected on a plurality of screens, it is desirable to provide an effect on the screen to indicate which link destination marker being processed corresponds to as shown in FIG. In addition, regarding the layout of each AR content, a UI for performing the editing operation described above may be used.
以上のような編集操作を実施することで、ユーザーはより詳細なARコンテンツ形態の指示を行うことができる。 By performing the editing operation as described above, the user can instruct a more detailed AR content form.
<実施形態3>
実施形態1ではARコンテンツの一部を選択し、リンク先のマーカーに対応付ける手法を述べた。しかしこの手法は対応付けを行うユーザー権限については加味されていない。実施形態1の手法を全てのユーザーに対して許容すると、機密を伴うARコンテンツの場合セキュリティ面で不都合がある場合がある。本実施形態ではこうした事情を鑑み、ユーザーの権限によって処理を制限する手法について以下に述べる。なお下記に述べる以外の処理は実施形態1と同様でよい。
<
In the first embodiment, a method of selecting a part of AR content and associating it with a link destination marker has been described. However, this method does not take into account the user authority for association. If the method of the first embodiment is allowed for all users, there is a problem in terms of security in the case of AR content with confidentiality. In the present embodiment, in view of such circumstances, a technique for restricting processing according to the authority of the user will be described below. The processes other than those described below may be the same as those in the first embodiment.
まず前提条件として、ARコンテンツ管理装置20は記録部23に、図13で示したような情報を記録しているものとする。すなわちマーカーとARコンテンツの対応関係、表示位置などに加え、ARコンテンツの表示権限、複製権限のあるユーザーIDを記録している。この記録の作業自体はARコンテンツの管理者が予め行っておく。
First, as a precondition, it is assumed that the AR
そして画像処理装置10におけるARコンテンツ情報取得処理3103ではARコンテンツ管理装置20に対し、抽出したマーカーに加え、自分のデバイスからユーザーIDも送信し、図14の概念図で示すようなARコンテンツ情報を受け取る。このARコンテンツ情報は各マーカーのARコンテンツとの対応フラグ、ARコンテンツ、表示位置などに加え、ARコンテンツの表示、複製権限フラグを含んでいる。
Then, in the AR content information acquisition process 3103 in the
ARコンテンツ管理装置20のARコンテンツ情報生成処理3201では各マーカーに対し、対応するARコンテンツがあるか否か、受信したデバイスのIDに表示、複製する権限があるか否かを判別し、図14の概念図で示すようなARコンテンツ情報を生成する。
In the AR content information generation process 3201 of the AR
そして生成したARコンテンツ情報を、ARコンテンツ管理装置20はARコンテンツ情報送信処理3202にて画像処理装置10に送信する。
Then, the AR
そして画像処理装置10では表示処理3104にて受け取ったARコンテンツ情報を用いて表示部14に画像を表示する。この表示処理3104の詳細を、図15の処理フローを用いて説明する。
Then, the
まず図15のステップS31041は、処理中のマーカーが何番目であるかを示す変数nを0で初期化し、ステップS31042に移る。 First, in step S31041 in FIG. 15, a variable n indicating the number of the marker being processed is initialized with 0, and the process proceeds to step S31042.
次にステップS31041は、まず処理中のマーカーMnに対応するARコンテンツ情報における、ARコンテンツ対応フラグを参照する。そしてフラグがTRUE、すなわち対応するARコンテンツが存在する場合、ステップS31043に移る。フラグがFALSE、すなわち対応するARコンテンツが存在しない場合、ステップS31044に移る。 In step S31041, the AR content correspondence flag in the AR content information corresponding to the marker Mn being processed is first referred to. If the flag is TRUE, that is, if the corresponding AR content exists, the process proceeds to step S31043. If the flag is FALSE, that is, the corresponding AR content does not exist, the process proceeds to step S31044.
次にステップS31043は、処理中のマーカーMnに対し、対応するARコンテンツの表示権限フラグを参照する。表示権限フラグがOKの場合はステップS31045に、そうでない場合はステップS31046に移る。 In step S31043, the display authority flag of the corresponding AR content is referred to the marker Mn being processed. If the display authority flag is OK, the process proceeds to step S31045; otherwise, the process proceeds to step S31046.
次にステップS31044は、処理中のマーカーMnに対し、対応するARコンテンツがない旨をメッセージとして表示し、ステップS31047に移る。 In step S31044, a message indicating that there is no corresponding AR content is displayed for the marker Mn being processed, and the process proceeds to step S31047.
次にステップS31045は、処理中のマーカーMnに対し、ARコンテンツ情報を用いてARコンテンツを重畳描画する。ARコンテンツを重畳描画したら、ステップS31047に移る。 In step S31045, the AR content is superimposed and drawn on the marker Mn being processed using the AR content information. When the AR content is superimposed and drawn, the process proceeds to step S31047.
次にステップS31046は、処理中のマーカーMnに対し、対応するARコンテンツの表示権限がない旨をメッセージとして表示し、ステップS31047に移る。 In step S31046, a message indicating that the corresponding AR content is not displayed is displayed as a message for the marker Mn being processed, and the process proceeds to step S31047.
次にステップS31047では画像取得処理で取得した画像中のマーカーの個数Nmaxが、処理中のマーカーが何番目であるかを示す変数nより大きいか否かを判定する。大きい場合はステップS31048に移る。そうでない場合は処理を終える。 In step S31047, it is determined whether the number Nmax of markers in the image acquired by the image acquisition process is larger than a variable n indicating the number of the marker being processed. If larger, the process proceeds to step S31048. If not, the process ends.
次にステップS31048は、処理中のマーカーが何番目であるかを示す変数nに1加算しステップS31042に移る。 In step S31048, 1 is added to the variable n indicating the number of the marker being processed, and the flow advances to step S31042.
ここまでの処理で、表示権限のないユーザーにはARコンテンツを表示させず、表示権限のあるユーザーにはARコンテンツを表示させる事ができる。 With the processing up to this point, it is possible to display AR content for a user with display authority without displaying AR content for a user without display authority.
そして、次に画像処理装置10におけるARコンテンツ編集処理3105では、表示しているARコンテンツのうち、複製権限フラグがOKのもののみ、編集対象とする。図14の例で言うと二つのマーカーどちらも複製権限がNGとなっているので、操作中のデバイスでは編集ができない。なお編集処理そのものは実施形態1や2と同様でよい。
Then, in the AR content editing processing 3105 in the
そしてARコンテンツリンク指示処理3106では、複製権限フラグがOKのもののみ、リンク指示が可能な対象とする。指示処理そのものは実施形態1や2と同様でよい。 In the AR content link instruction processing 3106, only those whose copy authority flag is OK are set as targets for which a link instruction can be made. The instruction process itself may be the same as in the first and second embodiments.
以上のような処理を行うことで、ARコンテンツに対する表示や、既存のARコンテンツの複製を制限することができる。 By performing the processing as described above, it is possible to restrict display of AR content and copying of existing AR content.
<実施形態4>
実施形態1、2ではユーザーの操作を介し、ARコンテンツの選択や編集を行った。これにより、ユーザーは所望の形態でARコンテンツをマーカーに対応付けることができる。しかし逆にARコンテンツの重要な部分の複製ができればよく、形態など詳細は気にしないユーザーの場合、実施形態1,2で述べたような操作は負担となる。
<Embodiment 4>
In the first and second embodiments, the AR content is selected and edited through a user operation. Thereby, the user can associate the AR content with the marker in a desired form. However, on the contrary, it is only necessary to copy an important part of the AR content, and for the user who does not care about details such as the form, the operations described in the first and second embodiments become a burden.
そうした要求に対応するために、本実施形態ではユーザーの操作負荷を軽減する方法について説明する。 In order to respond to such a request, this embodiment will explain a method for reducing the operation load on the user.
まず前提条件として、ARコンテンツの管理者は複製を行うであろうARコンテンツの重要な一部分、形態を予めデフォルトで指定しARコンテンツ管理装置20に記録しておく。そして画像処理装置10における処理は、画像取得処理、特徴抽出処理、ARコンテンツ情報取得処理、表示処理までは実施形態1と同様でよい。次にARコンテンツ選択処理では、複製元とするARマーカーと、複製先とするARマーカーを指定する。これはUIで画面上のARマーカーをタップするなどして指示してもよいし、カメラをARコンテンツ複製モードにして二つのマーカーを同時に撮る、二回に分けて撮るなどで実現してもよい。そして複製先のARマーカーに対応付けるARコンテンツはあらかじめARコンテンツの管理者によりデフォルトで指定されたARコンテンツの一部と形態をそのまま用いてマーカーに対応付ければよい。
First, as a precondition, an AR content manager designates an important part and form of AR content to be duplicated in advance as default and records it in the AR
以上のような処理を行うことで、ユーザーはマーカーを撮影するだけで簡易にARコンテンツの一部の複写を実施することができる。 By performing the processing as described above, the user can easily copy a part of the AR content simply by photographing the marker.
<その他の実施形態>
実施形態1ではARコンテンツの一部を選択し、リンク先のマーカーに対応付ける手法を述べた。それに加え、選択されたARコンテンツの部分をARコンテンツのリンク元から削除することで、PCの操作で言うカット&ペーストのような効果を実現することもできる。
<Other embodiments>
In the first embodiment, a method of selecting a part of AR content and associating it with a link destination marker has been described. In addition, by deleting the selected AR content portion from the link source of the AR content, it is possible to realize an effect such as cut and paste, which is referred to as a PC operation.
また実施形態1では選択ARコンテンツリンク指示処理106においてARコンテンツが存在しないマーカーに対し、ARコンテンツの対応付け指示を行わせた。しかしその他にも、すでに対応するARコンテンツが存在するマーカーに対しても、実施形態1と同様の操作によりARコンテンツを対応付けることもできる。この場合はすでに存在するARコンテンツを上書きすることになる。
In the first embodiment, in the selected AR content
また実施形態3では権限があるか否かで複製の制限を行ったが、予めARコンテンツ管理者がARコンテンツの複製可能回数を設定することで、ARコンテンツの無秩序な拡散を制限することもできる。この場合は画像処理装置からリンク指示が出される度に、ARコンテンツの複製可能回数を減算していき、0となった時点で複製不可とすればよい。複製要求回数をカウントし、複製可能回数を超えれば、複製不可としても良い。 In the third embodiment, the copy is restricted depending on whether or not there is an authority. However, the AR content manager can limit the random diffusion of the AR content by setting the number of times the AR content can be copied in advance. . In this case, every time a link instruction is issued from the image processing apparatus, the number of times the AR content can be copied is subtracted, and when it becomes 0, the copy is disabled. If the number of duplication requests is counted and the number of duplication times is exceeded, duplication may be prohibited.
以上、実施形態を詳述したが、本発明は上述の実施形態に限定されるのではなく、本発明の趣旨を逸脱しない限りにおいて適宜変更が可能である。 Although the embodiment has been described in detail above, the present invention is not limited to the above-described embodiment, and can be appropriately changed without departing from the gist of the present invention.
本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。 The present invention can take the form of, for example, a system, apparatus, method, program, or storage medium. Specifically, the present invention may be applied to a system composed of a plurality of devices, or may be applied to an apparatus composed of a single device.
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
1 ディスプレイ
2 映像I/O
3 CPU
4 ROM
5 RAM
6 システムバス
7 I/O
8 タッチパネル
9 I/O
10 撮像装置
11 I/O
12 外部記録媒体
13 I/O
14 記録装置
15 通信I/F
1
3 CPU
4 ROM
5 RAM
6 System bus 7 I / O
8 Touch panel 9 I / O
10 Imaging device 11 I / O
12 External recording medium 13 I / O
14
Claims (10)
第1の特徴情報と第2の特徴情報とを抽出する抽出手段と、
前記第1の特徴情報に対応付けられた拡張情報を取得する取得手段と、
前記拡張情報から新たな拡張情報を生成する生成手段と、
前記第2の特徴情報に前記新たな拡張情報を対応付ける対応付け手段と、を備えることを特徴とする画像処理装置。 An image processing apparatus,
Extraction means for extracting the first feature information and the second feature information;
Obtaining means for obtaining extended information associated with the first feature information;
Generating means for generating new extension information from the extension information;
An image processing apparatus comprising: association means for associating the new extension information with the second feature information.
第1の特徴情報と第2の特徴情報とを抽出する抽出工程と、
前記第1の特徴情報に対応付けられた拡張情報を取得する取得工程と、
前記拡張情報から新たな拡張情報を生成する生成工程と、
前記第2の特徴情報に前記新たな拡張情報を対応付ける対応付け工程と、を備えることを特徴とする画像処理方法。 An image processing method comprising:
An extraction step of extracting the first feature information and the second feature information;
An acquisition step of acquiring extended information associated with the first feature information;
A generation step of generating new extension information from the extension information;
And an associating step of associating the new extended information with the second feature information.
第1の特徴情報と第2の特徴情報とを抽出する抽出手段と、
前記第1の特徴情報に対応付けられた拡張情報を取得する取得手段と、
前記拡張情報から新たな拡張情報を生成する生成手段と、
前記第2の特徴情報に前記新たな拡張情報を対応付ける対応付け手段と、
として機能させるためのプログラム。 Computer
Extraction means for extracting the first feature information and the second feature information;
Obtaining means for obtaining extended information associated with the first feature information;
Generating means for generating new extension information from the extension information;
Association means for associating the new extended information with the second feature information;
Program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013095625A JP6245837B2 (en) | 2013-04-30 | 2013-04-30 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013095625A JP6245837B2 (en) | 2013-04-30 | 2013-04-30 | Image processing apparatus, image processing method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2014215977A true JP2014215977A (en) | 2014-11-17 |
JP2014215977A5 JP2014215977A5 (en) | 2016-06-16 |
JP6245837B2 JP6245837B2 (en) | 2017-12-13 |
Family
ID=51941637
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013095625A Active JP6245837B2 (en) | 2013-04-30 | 2013-04-30 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6245837B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105184327A (en) * | 2015-10-30 | 2015-12-23 | 上海海事大学 | Vertex trisection strategy-based remote sensing image feature point matching method |
JP2016152474A (en) * | 2015-02-17 | 2016-08-22 | コニカミノルタ株式会社 | Image processing system, image processing device, and image formation device |
JP2019061455A (en) * | 2017-09-26 | 2019-04-18 | 株式会社Nttドコモ | Information processing apparatus, terminal device, and information processing system |
JP2022023668A (en) * | 2020-07-27 | 2022-02-08 | ソフトバンク株式会社 | Display control system, program, and display control method |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06266498A (en) * | 1993-03-16 | 1994-09-22 | Hitachi Ltd | Information processor |
JPH07168949A (en) * | 1993-04-30 | 1995-07-04 | Rank Xerox Ltd | Interactive copying device |
JPH07175587A (en) * | 1993-10-28 | 1995-07-14 | Hitachi Ltd | Information processor |
JPH09319556A (en) * | 1996-05-28 | 1997-12-12 | Matsushita Electric Ind Co Ltd | Information processor |
JP2004102562A (en) * | 2002-09-09 | 2004-04-02 | Fuji Xerox Co Ltd | Paper identifying and collating device and paper identifying and collating method |
JP2004164069A (en) * | 2002-11-11 | 2004-06-10 | Nippon Telegr & Teleph Corp <Ntt> | Information control system, information control method, program for the same, recording medium recording that program |
JP2004213518A (en) * | 2003-01-08 | 2004-07-29 | Sony Corp | Information processor, method for processing information and computer program |
JP2006059020A (en) * | 2004-08-18 | 2006-03-02 | Nippon Telegr & Teleph Corp <Ntt> | Tag with code, idea extraction support system using the same, and method |
JP4332964B2 (en) * | 1999-12-21 | 2009-09-16 | ソニー株式会社 | Information input / output system and information input / output method |
US20120038669A1 (en) * | 2010-08-12 | 2012-02-16 | Pantech Co., Ltd. | User equipment, server, and method for selectively filtering augmented reality |
US20120038668A1 (en) * | 2010-08-16 | 2012-02-16 | Lg Electronics Inc. | Method for display information and mobile terminal using the same |
US20120105703A1 (en) * | 2010-11-03 | 2012-05-03 | Lg Electronics Inc. | Mobile terminal and method for controlling the same |
WO2012074528A1 (en) * | 2010-12-02 | 2012-06-07 | Empire Technology Development Llc | Augmented reality system |
JP2012141779A (en) * | 2010-12-28 | 2012-07-26 | Ns Solutions Corp | Device for providing augmented reality, system for providing augmented reality, and method and program for providing augmented reality |
JP2012168798A (en) * | 2011-02-15 | 2012-09-06 | Sony Corp | Information processing device, authoring method, and program |
JP2012178069A (en) * | 2011-02-25 | 2012-09-13 | Nintendo Co Ltd | Information processing program, information processing method, information processor and information processing system |
JP2014203164A (en) * | 2013-04-02 | 2014-10-27 | 株式会社東芝 | Information processing device, information processing method, and program |
-
2013
- 2013-04-30 JP JP2013095625A patent/JP6245837B2/en active Active
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06266498A (en) * | 1993-03-16 | 1994-09-22 | Hitachi Ltd | Information processor |
JPH07168949A (en) * | 1993-04-30 | 1995-07-04 | Rank Xerox Ltd | Interactive copying device |
JPH07175587A (en) * | 1993-10-28 | 1995-07-14 | Hitachi Ltd | Information processor |
JPH09319556A (en) * | 1996-05-28 | 1997-12-12 | Matsushita Electric Ind Co Ltd | Information processor |
JP4332964B2 (en) * | 1999-12-21 | 2009-09-16 | ソニー株式会社 | Information input / output system and information input / output method |
JP2004102562A (en) * | 2002-09-09 | 2004-04-02 | Fuji Xerox Co Ltd | Paper identifying and collating device and paper identifying and collating method |
JP2004164069A (en) * | 2002-11-11 | 2004-06-10 | Nippon Telegr & Teleph Corp <Ntt> | Information control system, information control method, program for the same, recording medium recording that program |
JP2004213518A (en) * | 2003-01-08 | 2004-07-29 | Sony Corp | Information processor, method for processing information and computer program |
JP2006059020A (en) * | 2004-08-18 | 2006-03-02 | Nippon Telegr & Teleph Corp <Ntt> | Tag with code, idea extraction support system using the same, and method |
US20120038669A1 (en) * | 2010-08-12 | 2012-02-16 | Pantech Co., Ltd. | User equipment, server, and method for selectively filtering augmented reality |
US20120038668A1 (en) * | 2010-08-16 | 2012-02-16 | Lg Electronics Inc. | Method for display information and mobile terminal using the same |
US20120105703A1 (en) * | 2010-11-03 | 2012-05-03 | Lg Electronics Inc. | Mobile terminal and method for controlling the same |
WO2012074528A1 (en) * | 2010-12-02 | 2012-06-07 | Empire Technology Development Llc | Augmented reality system |
JP2012141779A (en) * | 2010-12-28 | 2012-07-26 | Ns Solutions Corp | Device for providing augmented reality, system for providing augmented reality, and method and program for providing augmented reality |
JP2012168798A (en) * | 2011-02-15 | 2012-09-06 | Sony Corp | Information processing device, authoring method, and program |
JP2012178069A (en) * | 2011-02-25 | 2012-09-13 | Nintendo Co Ltd | Information processing program, information processing method, information processor and information processing system |
JP2014203164A (en) * | 2013-04-02 | 2014-10-27 | 株式会社東芝 | Information processing device, information processing method, and program |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016152474A (en) * | 2015-02-17 | 2016-08-22 | コニカミノルタ株式会社 | Image processing system, image processing device, and image formation device |
CN105184327A (en) * | 2015-10-30 | 2015-12-23 | 上海海事大学 | Vertex trisection strategy-based remote sensing image feature point matching method |
CN105184327B (en) * | 2015-10-30 | 2018-10-23 | 上海海事大学 | A kind of Characteristics of The Remote Sensing Images point matching process dividing strategy based on vertex three |
JP2019061455A (en) * | 2017-09-26 | 2019-04-18 | 株式会社Nttドコモ | Information processing apparatus, terminal device, and information processing system |
JP2022023668A (en) * | 2020-07-27 | 2022-02-08 | ソフトバンク株式会社 | Display control system, program, and display control method |
JP7096295B2 (en) | 2020-07-27 | 2022-07-05 | ソフトバンク株式会社 | Display control system, program, and display control method |
Also Published As
Publication number | Publication date |
---|---|
JP6245837B2 (en) | 2017-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5991423B2 (en) | Display device, display method, display program, and position setting system | |
KR100805871B1 (en) | Electronic conference control device, electronic conference assistance method, and storage medium | |
JP6627861B2 (en) | Image processing system, image processing method, and program | |
JP2008226257A (en) | Preparation of image assigning file, and regeneration of image using same | |
KR101920035B1 (en) | Method for providing augmented reality content using virtual object and apparatus using the same | |
JP2008117019A (en) | Conference information management apparatus, conference reproduction apparatus, equipment management apparatus, conference system and program | |
JP6723965B2 (en) | Information processing method, information processing apparatus, and program | |
JP6245837B2 (en) | Image processing apparatus, image processing method, and program | |
JP2009094868A (en) | Information processing apparatus, remote indication system and program | |
JP6504256B2 (en) | Electronic blackboard, electronic blackboard image processing method, and recording medium recording electronic blackboard program | |
JP4827521B2 (en) | Information processing apparatus, control method thereof, and program | |
JP2014120805A (en) | Information processing device, information processing method, and program | |
JP6963764B2 (en) | Digital Evidence Creation Device, Digital Evidence Creation Program and Digital Evidence Creation Method | |
JP7192953B2 (en) | Information processing device, information processing method and program | |
JP2022171739A (en) | Generation device, generation method and program | |
JP2019139332A (en) | Information processor, information processing method and information processing program | |
JP4562183B2 (en) | Information processing method and information processing apparatus | |
JP2008191858A (en) | Terminal monitoring device and program for terminal monitoring device | |
JP6303723B2 (en) | Display control device and display control device control program | |
KR20140106180A (en) | Method and apparatus for sharing electronic documents | |
JP2010267214A (en) | Information processing apparatus, method, and program | |
JP2002209088A (en) | Image edit device and method | |
JP2007316647A (en) | Creation of image designation file and reproduction of image using the same | |
JP5767574B2 (en) | Image processing apparatus and image processing system | |
JP4103878B2 (en) | Creating an image specification file and playing an image using it |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160422 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160422 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170329 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170509 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170706 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171017 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171114 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6245837 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |