JP2013239006A - Object extraction method, object extraction device, and object extraction program - Google Patents

Object extraction method, object extraction device, and object extraction program Download PDF

Info

Publication number
JP2013239006A
JP2013239006A JP2012111389A JP2012111389A JP2013239006A JP 2013239006 A JP2013239006 A JP 2013239006A JP 2012111389 A JP2012111389 A JP 2012111389A JP 2012111389 A JP2012111389 A JP 2012111389A JP 2013239006 A JP2013239006 A JP 2013239006A
Authority
JP
Japan
Prior art keywords
image
object extraction
pattern
information
visualization information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012111389A
Other languages
Japanese (ja)
Other versions
JP5986422B2 (en
Inventor
Naoto Hanyu
直人 羽生
Kenichi Sakuma
健一 佐久間
Hiroshi Fukui
寛 福井
Takakuni Doseki
隆国 道関
Kazuma Kitamura
一真 北村
Yoshimi Suzuki
愛実 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ritsumeikan Trust
Shiseido Co Ltd
Original Assignee
Ritsumeikan Trust
Shiseido Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ritsumeikan Trust, Shiseido Co Ltd filed Critical Ritsumeikan Trust
Priority to JP2012111389A priority Critical patent/JP5986422B2/en
Publication of JP2013239006A publication Critical patent/JP2013239006A/en
Application granted granted Critical
Publication of JP5986422B2 publication Critical patent/JP5986422B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To extract with high accuracy an object included in an image.SOLUTION: An object extraction device which extracts an object included in an acquired image, comprises: image analysis means which analyzes the image to acquire a position and content of invisible information; object extraction means which extracts an object included in the image on the basis of the invisible information acquired by the image analysis means; invisible information corresponding processing means which performs predetermined processing on the object extracted by the object extraction means according to a pattern of the invisible information; and output means which outputs an image acquired by the invisible information corresponding processing means.

Description

本発明は、オブジェクト抽出方法、オブジェクト抽出装置、及びオブジェクト抽出プログラムに係り、特にオブジェクトの抽出を高精度に行うためのオブジェクト抽出方法、オブジェクト抽出装置、及びオブジェクト抽出プログラムに関する。   The present invention relates to an object extraction method, an object extraction device, and an object extraction program, and more particularly, to an object extraction method, an object extraction device, and an object extraction program for performing object extraction with high accuracy.

従来では、クロマキー等の技術を用いて、撮影されたオブジェクト(例えば、人物や物体、文字情報等を含む)と、背景との色の違い等に着目して、オブジェクト部分の画像領域を抽出する手法が存在する。しかしながら、例えばオブジェクトと背景画像とが同一色である場合には、画像中からオブジェクトを適切に抽出することができなかった。   Conventionally, using a technique such as chroma key, an image area of an object portion is extracted by focusing on a color difference between a photographed object (including a person, an object, character information, etc.) and a background. There is a method. However, for example, when the object and the background image have the same color, the object cannot be appropriately extracted from the image.

そこで、従来では、例えば2色からなる市松模様の背景の前で撮影を行い、色情報に加えて市松模様の領域情報を用いることで、背景と同一色を含む対象物(オブジェクト)を抽出する手法が存在する(例えば、非特許文献1参照)。また、従来では、ストライプ状の背景を用いた対象物抽出画像に対して動的輪郭モデルを利用することで、対象物の輪郭を抽出し、対象物と背景を制度よく領域分割する手法が存在する(例えば、非特許文献2参照)。   Therefore, conventionally, for example, an object (object) including the same color as the background is extracted by shooting in front of a checkered pattern background of two colors and using the checkered pattern area information in addition to the color information. There exists a method (see, for example, Non-Patent Document 1). Conventionally, there is a method to extract the contour of an object by using an active contour model for an object extraction image using a striped background, and systematically divide the object and the background. (For example, refer nonpatent literature 2).

また、上述した従来手法は、オブジェクトと背景とが明らかに分かれている場合であって、背景に市松模様やストライプを濃く設定しておくことで、領域の抽出を行うことができる。   Further, the above-described conventional method is a case where the object and the background are clearly separated, and the region can be extracted by setting the checkerboard pattern and the stripe to be dark in the background.

縣 弘樹,山下 淳,金子 透、「市松模様の背景を用いたクロマキーによる領域抽出」、社団法人 電子情報通信学会、信学技報CS2005−62,IE2005−117(2005−12)Hiroki Tsuji, Satoshi Yamashita, Toru Kaneko, “Area Extraction Using Chroma Keys Using Checkered Background”, The Institute of Electronics, Information and Communication Engineers, IEICE Tech. Reports CS 2005-62, IE 2005-117 (2005-12) 山下 淳,縣 弘樹,金子 透、「動的輪郭モデルを用いたストライプ状クロマキー」、映像情報メディア学会誌、Vol.61,No、2,pp.101〜109(2007)Satoshi Yamashita, Hiroki Tsuji, Toru Kaneko, “Striped Chroma Key Using an Active Contour Model”, Journal of the Institute of Image Information and Television Engineers, Vol. 61, No, 2, pp. 101-109 (2007)

ここで、例えば背景上にユーザが自由に絵を描いたり、予めメモリ等に記憶されている所定の画像を貼り付けるような画像編集やお絵描き用のソフトウェアやアプリケーション等の場合には、ユーザの手書き等により描かれたオブジェクトや所定の画像がその背景色の上に描写されることになる。また、上述したソフトウェア等で編集された画像を紙等の印刷媒体に印刷すると、背景とオブジェクトとの識別する電子的な情報がなくなった状態になる。そのため、そのような印刷媒体からオブジェクトのみを抽出するには、上述した従来手法のように、背景に市松模様やストライプを濃く設定しておくことが考えられる。   Here, for example, in the case of image editing or painting software or application such that the user freely draws a picture on the background or pastes a predetermined image stored in advance in a memory or the like, the user's An object or a predetermined image drawn by handwriting or the like is drawn on the background color. Further, when an image edited with the above-described software or the like is printed on a print medium such as paper, the electronic information for identifying the background and the object is lost. Therefore, in order to extract only the object from such a print medium, it is conceivable to set a checkered pattern or a stripe deep in the background as in the conventional method described above.

しかしながら、例えばユーザによって描写されたオブジェクト領域や画像領域に色を付けたとしても、色の濃さや透過率等によっては、背景に設定された濃い市松模様やストライプが、オブジェクト領域や画像領域の内部に表示されてしまう可能性がある。そのため、濃い市松模様やストライプを用いてオブジェクトを抽出できたとしても市松模様やストライプが視認できてしまう。   However, for example, even if the object area or image area drawn by the user is colored, depending on the color density, transmittance, etc., a dark checkered pattern or stripe set as the background may appear inside the object area or image area. May be displayed. Therefore, even if an object can be extracted using a dark checkered pattern or stripe, the checkered pattern or stripe can be visually recognized.

更に、従来では、市松模様やストライプは、単にオブジェクトの抽出のために用いられているだけであり、その種類に応じて抽出されたオブジェクトに対して幾つかの動作や処理等を行うような処理は存在していなかった。   Furthermore, conventionally, checkerboard patterns and stripes are merely used for extracting objects, and some operations and processes are performed on the extracted objects according to their types. Did not exist.

本発明は、上述した課題に鑑みてなされたものであって、オブジェクトの抽出を高精度に行うためのオブジェクト抽出方法、オブジェクト抽出装置、及びオブジェクト抽出プログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems, and an object thereof is to provide an object extraction method, an object extraction apparatus, and an object extraction program for performing object extraction with high accuracy.

上述した課題を解決するために、本件発明は、以下の特徴を有する課題を解決するための手段を採用している。   In order to solve the above-described problems, the present invention employs means for solving the problems having the following characteristics.

本発明は、取得した画像に含まれるオブジェクトを抽出するオブジェクト抽出装置において、前記画像を解析して非可視化情報の位置、内容を取得する画像解析手段と、前記画像解析手段により得られる非可視化情報に基づいて前記画像中に含まれるオブジェクトを抽出するオブジェクト抽出手段と、前記非可視化情報のパターンに対応させて前記オブジェクト抽出手段により抽出されたオブジェクトに対して所定の処理を行う非可視化情報対応処理手段と、前記非可視化情報対応処理手段により得られる画像を出力する出力手段とを有することを特徴とする。   The present invention provides an object extraction device that extracts an object included in an acquired image, an image analysis unit that analyzes the image and acquires the position and content of the non-visualization information, and the non-visualization information obtained by the image analysis unit An object extraction means for extracting an object included in the image based on the image, and a non-visualization information corresponding process for performing a predetermined process on the object extracted by the object extraction means in correspondence with the pattern of the non-visualization information Means and an output means for outputting an image obtained by the invisible information corresponding processing means.

また、本発明は、取得した画像に含まれるオブジェクトを抽出するオブジェクト抽出方法において、前記画像を解析して非可視化情報の位置、内容を取得する画像解析ステップと、前記画像解析ステップにより得られる非可視化情報に基づいて前記画像中に含まれるオブジェクトを抽出するオブジェクト抽出ステップと、前記非可視化情報のパターンに対応させて前記オブジェクト抽出ステップにより抽出されたオブジェクトに対して所定の処理を行う非可視化情報対応処理ステップと、前記非可視化情報対応処理ステップにより得られる画像を出力する出力ステップとを有することを特徴とする。   According to another aspect of the present invention, there is provided an object extraction method for extracting an object included in an acquired image, an image analysis step for analyzing the image to acquire a position and content of non-visualization information, An object extraction step for extracting an object included in the image based on visualization information, and non-visualization information for performing predetermined processing on the object extracted by the object extraction step in correspondence with the pattern of the non-visualization information It has a correspondence processing step and an output step for outputting an image obtained by the non-visualization information correspondence processing step.

また、本発明は、コンピュータを、上述したオブジェクト抽出装置が有する各手段として機能させるためのオブジェクト抽出プログラムである。   Further, the present invention is an object extraction program for causing a computer to function as each unit included in the object extraction device described above.

なお、本発明の構成要素、表現又は構成要素の任意の組み合わせを、方法、装置、システム、コンピュータプログラム、記録媒体、データ構造等に適用したものも本発明の態様として有効である。   In addition, what applied the component, expression, or arbitrary combination of the component of this invention to a method, an apparatus, a system, a computer program, a recording medium, a data structure, etc. is also effective as an aspect of this invention.

本発明によれば、オブジェクトの抽出を高精度に行うことができる。   According to the present invention, an object can be extracted with high accuracy.

本実施形態におけるオブジェクト抽出装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the object extraction apparatus in this embodiment. 本実施形態におけるオブジェクト抽出処理が実現可能なハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions which can implement | achieve the object extraction process in this embodiment. 本実施形態におけるオブジェクト抽出処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the object extraction process sequence in this embodiment. 高周波パターンの一例を示す図である。It is a figure which shows an example of a high frequency pattern. フィルタリングの内容を説明するための図である。It is a figure for demonstrating the content of filtering. 従来手法と本実施形態を適用した場合のオブジェクトの抽出結果の一例を示す図である。It is a figure which shows an example of the extraction result of the object at the time of applying a conventional method and this embodiment. 本実施形態における画像例とオブジェクトの動作例について説明するための図である。It is a figure for demonstrating the example of an image in this embodiment, and the operation example of an object.

<本発明ついて>
本発明では、例えば背景等に対し、非可視化情報を用いたストライプや市松模様等の模様を形成し、その背景上に描画したり貼り付けたオブジェクト等に対して、上述した非可視化情報を用いて高精度なオブジェクト抽出を実現する。なお、本実施形態では、ソフトウェアやアプリケーション等により非可視化情報が埋め込まれた背景上にオブジェクトを描画し、その描画した画像を印刷した印刷媒体(例えば、紙媒体)をカメラ等の撮像手段等を用いて撮影された画像情報や、背景画像に関するオブジェクトの電子的な位置情報等が存在しない画像情報等を用いて、その画像に含まれるオブジェクト部分を高精度に抽出する例を示すが、本実施形態においては、これに限定されるものではない。
<About the present invention>
In the present invention, for example, a pattern such as a stripe or checkered pattern using invisible information is formed on the background, and the above-described invisible information is used for an object drawn or pasted on the background. Highly accurate object extraction. In this embodiment, an object is drawn on a background in which invisible information is embedded by software, an application, or the like, and a printing medium (for example, a paper medium) on which the drawn image is printed is used as an imaging unit such as a camera. This example shows how to extract the object part included in the image with high accuracy using the image information captured using the image information or the image information without the electronic position information of the object related to the background image. The form is not limited to this.

更に、本発明では、上述した非可視化情報の模様の種類に応じて抽出されたオブジェクトに対する所定の動作や処理を行わせる。また、本発明では、背景色とも組み合わせてオブジェクトに対応する動作や処理を設定することができる。   Furthermore, in the present invention, a predetermined operation or process is performed on the object extracted in accordance with the pattern type of the invisible information described above. In the present invention, an operation and processing corresponding to an object can be set in combination with the background color.

なお、非可視化情報とは、例えば後述する高周波パターン等を用いて形成される情報であって、コンピュータを用いたソフトウェア上では解析でき、ユーザの目視(肉眼)では認識しにくい(又は認識できない)情報を意味する。また、オブジェクトとは、例えば人物、物体、文字情報等を含み、撮影された画像やユーザがソフトウェア上で描画したもの等も含まれる。   The non-visualized information is information formed by using, for example, a high-frequency pattern described later, and can be analyzed on software using a computer and is difficult (or cannot be recognized) by the user's visual (visual). Means information. The object includes, for example, a person, an object, character information, and the like, and includes a photographed image and an image drawn by a user on software.

以下に、本発明におけるオブジェクト抽出方法、オブジェクト抽出装置、及びオブジェクト抽出プログラムを好適に実施した形態について、図面を用いて説明する。なお、以下に説明する画像には、映像の1フレーム(フレーム画像)も含むものとする。   Hereinafter, preferred embodiments of an object extraction method, an object extraction apparatus, and an object extraction program according to the present invention will be described with reference to the drawings. Note that the image described below includes one frame (frame image) of a video.

<オブジェクト抽出装置:機能構成例>
ここで、本実施形態におけるオブジェクト抽出装置の機能構成例について図を用いて説明する。図1は、本実施形態におけるオブジェクト抽出装置の機能構成の一例を示す図である。
<Object extraction device: functional configuration example>
Here, a functional configuration example of the object extraction device in the present embodiment will be described with reference to the drawings. FIG. 1 is a diagram illustrating an example of a functional configuration of an object extraction device according to the present embodiment.

図1に示すオブジェクト抽出装置10は、入力手段11と、出力手段12と、記憶手段13と、画像取得手段14と、画像解析手段15と、オブジェクト抽出手段16と、非可視化情報対応処理手段17と、送受信手段18と、制御手段19とを有するよう構成されている。   An object extraction apparatus 10 shown in FIG. 1 includes an input unit 11, an output unit 12, a storage unit 13, an image acquisition unit 14, an image analysis unit 15, an object extraction unit 16, and a non-visualization information correspondence processing unit 17. And a transmission / reception means 18 and a control means 19.

入力手段11は、ユーザ等からの画像取得処理や、画像解析処理、オブジェクト抽出処理、非可視化情報対応処理、送受信処理等の各種処理に対する指示の開始/終了等の入力、各種設定情報の入力等を受け付ける。なお、入力手段11は、例えばPC(Personal Computer)等の汎用のコンピュータであればキーボードやマウス等のポインティングデバイスからなり、携帯型端末やゲーム機器等であれば各操作ボタンやタッチパネル等からなる。また、入力手段11は、例えばデジタルカメラ等の撮像手段等により撮影された画像や映像等を入力する機能も有する。なお、上述の撮像手段は、オブジェクト抽出装置10内に設けられていてもよく、外部の機能構成であってもよい。   The input means 11 is an input for starting / ending instructions for various processing such as image acquisition processing, image analysis processing, object extraction processing, invisible information handling processing, transmission / reception processing, etc., input of various setting information, etc. Accept. The input unit 11 includes a pointing device such as a keyboard and a mouse in a general-purpose computer such as a PC (Personal Computer), and includes operation buttons and a touch panel in a portable terminal or a game machine. The input unit 11 also has a function of inputting an image or video captured by an imaging unit such as a digital camera. Note that the above-described imaging unit may be provided in the object extraction device 10 or may have an external functional configuration.

出力手段12は、入力手段11により入力された内容や、入力内容に基づいて実行された内容等の出力を行う。具体的には、出力手段12は、取得した画像や、画像解析結果、オブジェクト抽出結果、非可視化情報対応処理結果等、オブジェクト抽出装置10の各構成における処理の結果等の画面表示、設定画面表示、表示内容に対応する音声出力等を行う。なお、出力手段12は、ディスプレイやスピーカ等からなる。   The output unit 12 outputs the content input by the input unit 11 and the content executed based on the input content. Specifically, the output unit 12 displays a screen display and a setting screen display of processing results in each component of the object extraction device 10 such as an acquired image, an image analysis result, an object extraction result, and a non-visualization information corresponding processing result. Audio output corresponding to the display content is performed. The output unit 12 includes a display, a speaker, and the like.

更に、出力手段12は、プリンタ等の印刷機能を有していてもよく、上述の各出力内容を紙等の印刷媒体等に印刷して、ユーザ等に提供することもできる。   Further, the output unit 12 may have a printing function such as a printer, and can print the above-described output contents on a printing medium such as paper and provide it to a user or the like.

記憶手段13は、本実施形態において必要となる各種情報やオブジェクト抽出処理の実行時、又は実行後の各種データ等を記憶する。具体的には、記憶手段13は、例えば画像取得手段14で取得される1又は複数の画像等を記憶する。また、記憶手段13は、画像解析手段15にて解析された結果や、オブジェクト抽出手段16にて抽出されたオブジェクト、非可視化情報対応処理手段17にて処理された結果、本実施形態を実行するための各種設定情報等を記憶する。また、記憶手段13は、必要に応じて記憶されている各種情報を読み出すことができる。   The storage unit 13 stores various information required in the present embodiment, various data at the time of execution of the object extraction process, and various data after execution. Specifically, the storage unit 13 stores, for example, one or a plurality of images acquired by the image acquisition unit 14. The storage unit 13 executes the present embodiment as a result of analysis by the image analysis unit 15, an object extracted by the object extraction unit 16, and a result of processing by the non-visualization information correspondence processing unit 17. Various setting information and the like are stored. Moreover, the memory | storage means 13 can read the various information memorize | stored as needed.

画像取得手段14は、オブジェクトを抽出する対象となる画像等を取得する。なお、画像等は、例えばカメラ等の撮像手段により得られる画像等であり、その画像は、単なる紙から取得した画像に限定されず、ポスターや写真、カード、シール、テレビ画面等を撮影して得られた画像等を含むが、これに限定されるものではない。また、画像取得手段14は、送受信手段18を介して通信ネットワーク上に接続される外部装置で撮影された画像や外部データベース等に記憶された画像等を取得することもでき、また、入力手段11を介して実際にユーザ等がカメラ等で撮影した画像を取得することもできる。   The image acquisition unit 14 acquires an image or the like from which an object is extracted. The image is an image obtained by an imaging means such as a camera, for example, and the image is not limited to an image obtained from simple paper, and a poster, a photograph, a card, a sticker, a TV screen, etc. is photographed. Although the obtained image etc. are included, it is not limited to this. The image acquisition unit 14 can also acquire an image taken by an external device connected to the communication network via the transmission / reception unit 18, an image stored in an external database, or the like. It is also possible to acquire an image actually taken by a user or the like via a camera.

画像解析手段15は、画像取得手段14にて取得した画像を解析して画像中に含まれる内容を解析する。具体的には、画像中のどの部分(例えば、位置、領域)にどのような非可視化情報が埋め込まれているかを解析する。なお、画像解析手段15は、非可視化領域を抽出するために画像に対して所定のフィルタリング処理等を行う。また、画像解析手段15は、画像の色情報(例えば、どの領域がどの色であるか等)を解析する。なお、上述した非可視化情報の例としては、例えば高周波パターンがあるが、これに限定されるものではない。高周波については、後述する。   The image analysis unit 15 analyzes the image acquired by the image acquisition unit 14 and analyzes the contents included in the image. Specifically, what part of the invisible information is embedded in which part (for example, position and area) in the image is analyzed. Note that the image analysis unit 15 performs a predetermined filtering process or the like on the image in order to extract the invisible region. Further, the image analysis means 15 analyzes the color information of the image (for example, which area is which color). In addition, as an example of the non-visualization information mentioned above, although there exists a high frequency pattern, for example, it is not limited to this. The high frequency will be described later.

オブジェクト抽出手段16は、画像解析手段15により得られる非可視化情報に基づいて、画像に含まれるオブジェクトを抽出する。具体的には、オブジェクト抽出手段16は、例えば、非可視化情報の含まれていない領域をオブジェクト領域として抽出する。なお、オブジェクト領域は、画像中に1又は複数含まれているが、その全ての領域を抽出することができるが、これに限定されるものではない。   The object extraction unit 16 extracts an object included in the image based on the non-visualization information obtained by the image analysis unit 15. Specifically, the object extraction unit 16 extracts, for example, an area that does not include the invisible information as an object area. One or a plurality of object areas are included in the image, but all the areas can be extracted, but the present invention is not limited to this.

例えば、本実施形態では、画像に含まれるオブジェクトの中で一番大きい又は一番小さいオブジェクトのみを抽出してもよく、画像中の所定の位置(例えば、中央又は右側等)にあるオブジェクトを抽出してもよく、更に各オブジェクトの形状を比較し、所定の形状(例えば、矩形や円形)に近い形状のオブジェクトを抽出してもよい。なお、どのようなオブジェクトを抽出するかについては、予めユーザやソフトウェア作成者等により設定することができ、その設定された情報は、記憶手段13に記憶され、オブジェクト抽出時に用いられる。   For example, in the present embodiment, only the largest or smallest object among the objects included in the image may be extracted, and the object at a predetermined position (for example, the center or the right side) in the image is extracted. Alternatively, the shapes of the objects may be compared to extract an object having a shape close to a predetermined shape (for example, a rectangle or a circle). Note that what kind of object is to be extracted can be set in advance by a user, a software creator, or the like, and the set information is stored in the storage unit 13 and used when extracting the object.

更に、オブジェクト抽出手段16は、オブジェクト領域同士が重なっている場合には、例えば、全体を1つのオブジェクトとして抽出してもよく、また画像解析手段15により解析された各オブジェクトに対する色情報に基づいて、所定の輝度差に基づいてそれぞれのオブジェクトを抽出してもよい。   Further, when the object areas overlap, the object extraction means 16 may extract the whole as one object, for example, or based on the color information for each object analyzed by the image analysis means 15. Each object may be extracted based on a predetermined luminance difference.

また、非可視化情報対応処理手段17は、画像取得手段14により得られた非可視化情報の内容(模様や向き)等に対応させて、出力手段12等により出力される画像に対して所定の処理を行う。例えば、非可視化情報対応処理手段17は、オブジェクト抽出手段16により抽出されたオブジェクトに対して、その周囲の非可視化情報の内容に基づいて、所定の動作を行わせた画像を生成し、出力手段12等の画面に表示させる。なお、所定の動作とは、例えば、移動(例えば、画像の上下、左右等)、回転、拡大・縮小、縦振動、横振動、スイング、フェードイン、及びフェードアウトのうち、少なくとも1つの動作を意味するが、これに限定されるものではない。本実施形態では、例えばオブジェクトの動作パターンに応じて動作スピードを変えたり、オブジェクトの色を変えるといった処理を行ってもよい。また、複数の動作をさせる場合には、異なる動作を1つずつ連続して動作させてもよく、同時に動作させてもよい。また、動作する回数は、1回でもよく、複数回繰り返してもよい。   Further, the non-visualized information correspondence processing unit 17 performs predetermined processing on the image output by the output unit 12 or the like in correspondence with the contents (pattern or orientation) of the non-visualized information obtained by the image acquisition unit 14. I do. For example, the non-visualization information correspondence processing unit 17 generates an image in which a predetermined operation is performed on the object extracted by the object extraction unit 16 based on the contents of the surrounding non-visualization information, and the output unit 12 is displayed on the screen. The predetermined operation means, for example, at least one of movement (eg, up / down, left / right, etc.), rotation, enlargement / reduction, vertical vibration, horizontal vibration, swing, fade-in, and fade-out. However, the present invention is not limited to this. In the present embodiment, for example, processing such as changing the operation speed or changing the color of the object may be performed according to the operation pattern of the object. Further, when a plurality of operations are performed, different operations may be performed one by one successively or may be performed simultaneously. Further, the number of times of operation may be one or may be repeated a plurality of times.

また、非可視化情報対応処理手段17は、オブジェクト以外に対して画像処理を行ってもよい。例えば、非可視化情報対応処理手段17は、背景の色を変えたり、背景を移動、回転、拡大・縮小、縦振動、及び横振動のうち、少なくとも1つの動作をさせる。また、非可視化情報対応処理手段17は、非可視化情報に基づいて、音声(例えば、オブジェクトのセリフ、鳴声、BGM等)を出力させてもよく、テロップや吹き出しのように所定の位置に文字等を表示させてもよい。   Further, the non-visualization information correspondence processing unit 17 may perform image processing on objects other than objects. For example, the non-visualization information correspondence processing unit 17 changes at least one of the background color and causes at least one of a movement, rotation, enlargement / reduction, vertical vibration, and horizontal vibration. Further, the non-visualized information correspondence processing means 17 may output a voice (for example, a speech of an object, a cry, a BGM, etc.) based on the non-visualized information, and a character at a predetermined position such as a telop or a balloon. Etc. may be displayed.

更に、非可視化情報対応処理手段17は、オブジェクトの位置の背景色に対応させて所定の動作を行ってもよく、上述した非可視化情報の内容と背景色とを組み合わせて所定の動作をさせてもよい。また、非可視化情報対応処理手段17は、得られた非可視化情報に基づいて、複数のオブジェクトに対して同一の処理をさせてもよく、複数のオブジェクトが連動する画像処理を行ってもよい。なお、連動する画像処理とは、例えば、オブジェクト同士が中央に移動してぶつかったり、交互に表示/非表示が切り替わったり、回転スピードが交互に変わるといった処理を示すが、これに限定されるものではない。   Further, the invisible information correspondence processing means 17 may perform a predetermined operation corresponding to the background color of the position of the object, or perform a predetermined operation by combining the content of the above-described invisible information and the background color. Also good. Further, the non-visualization information correspondence processing unit 17 may perform the same processing on a plurality of objects based on the obtained non-visualization information, or may perform image processing in which a plurality of objects are linked. The linked image processing includes, for example, processing in which objects move to the center and collide with each other, display / non-display is alternately switched, and rotation speed is alternately changed, but is not limited thereto. is not.

また、本実施形態では、オブジェクトを動作させる場合に、そのオブジェクトの周囲の非可視化情報の内容に対応させて処理の動作をさせているが、これに限定されるものではなく、例えば画像中のオブジェクトの数や種類等の組み合わせに対応させてオブジェクトに所定の動作をさせてもよい。   In this embodiment, when an object is operated, the processing operation is performed in accordance with the contents of the invisible information around the object. However, the present invention is not limited to this, and for example, in the image The object may be caused to perform a predetermined action in correspondence with a combination of the number and type of objects.

なお、背景画像に対してオブジェクトを移動させる場合には、今までオブジェクトにより表示されていなかった背景領域が表示されることになるが、その領域については、非可視化情報対応処理手段17において、その領域の周囲にある今まで表示されていた背景画像の色情報等に基づいて、その背景領域を補間する処理を行う。したがって、本実施形態では、水色の背景上にあるオブジェクトを移動させる場合に、オブジェクトにより表示されていなかった背景領域については、上述した補間処理により水色が表示される。   When the object is moved with respect to the background image, a background area that has not been displayed by the object until now is displayed. Based on the color information or the like of the background image that has been displayed around the area, the background area is interpolated. Therefore, in this embodiment, when an object on a light blue background is moved, light blue is displayed by the above-described interpolation processing for the background area that is not displayed by the object.

送受信手段18は、通信ネットワーク等を用いて接続可能な外部装置から撮影画像等や、本実施形態におけるオブジェクト抽出処理を実現するための実行プログラム等を取得するためのインタフェースである。また、送受信手段18は、オブジェクト抽出装置10内で得られた画像や処理結果等の各種情報を外部装置に送信することができる。   The transmission / reception means 18 is an interface for acquiring a photographed image and the like, an execution program for realizing the object extraction processing in the present embodiment, and the like from an external device that can be connected using a communication network or the like. The transmission / reception means 18 can transmit various information such as images and processing results obtained in the object extraction device 10 to an external device.

制御手段19は、オブジェクト抽出装置10の各構成部全体の制御を行う。具体的には、制御手段19は、例えばユーザ等による入力手段11からの指示等に基づいて、画像の取得や画像解析、オブジェクト抽出、非可視化情報対応処理等の各処理の制御等を行う。   The control means 19 controls the entire components of the object extraction device 10. Specifically, the control unit 19 performs control of each process such as image acquisition, image analysis, object extraction, and invisible information handling process based on an instruction from the input unit 11 by a user or the like.

本実施形態では、上述した画像に埋め込まれた非可視化情報に基づいて、高精度にオブジェクトを抽出することができる。また、本実施形態では、非可視化情報を用いて、取得されたオブジェクト等に対して付加価値性に優れた高精度な画像の提供を実現できる。   In the present embodiment, an object can be extracted with high accuracy based on the invisible information embedded in the image described above. Further, in the present embodiment, it is possible to provide a highly accurate image with excellent added value with respect to an acquired object or the like using the invisible information.

<オブジェクト抽出装置10:ハードウェア構成>
ここで、上述したオブジェクト抽出装置10においては、各機能をコンピュータに実行させることができる実行プログラム(オブジェクト抽出プログラム)を生成し、例えば汎用のパーソナルコンピュータ、サーバ、携帯型端末(例えば、スマートフォンや携帯電話機、ノート型PC、タブレット端末等)、ゲーム機器等にその実行プログラムをインストールすることにより、本発明におけるオブジェクト抽出処理及び非可視化情報認識処理等を実現することができる。ここで、本実施形態におけるオブジェクト抽出処理が実現可能なコンピュータのハードウェア構成例について図を用いて説明する。
<Object Extraction Device 10: Hardware Configuration>
Here, in the object extraction device 10 described above, an execution program (object extraction program) capable of causing a computer to execute each function is generated, and for example, a general-purpose personal computer, a server, or a portable terminal (for example, a smartphone or a mobile phone) The object extraction process and the invisible information recognition process in the present invention can be realized by installing the execution program in a telephone, a notebook PC, a tablet terminal, etc.), a game machine or the like. Here, a hardware configuration example of a computer capable of realizing the object extraction processing in the present embodiment will be described with reference to the drawings.

図2は、本実施形態におけるオブジェクト抽出処理が実現可能なハードウェア構成の一例を示す図である。図2におけるコンピュータ本体には、入力装置21と、出力装置22と、ドライブ装置23と、補助記憶装置24と、メモリ装置25と、各種制御を行うCPU(Central Processing Unit)26と、ネットワーク接続装置27とを有するよう構成されており、これらはシステムバスBで相互に接続されている。   FIG. 2 is a diagram illustrating an example of a hardware configuration capable of realizing the object extraction process according to the present embodiment. 2 includes an input device 21, an output device 22, a drive device 23, an auxiliary storage device 24, a memory device 25, a CPU (Central Processing Unit) 26 for performing various controls, and a network connection device. 27, and these are connected to each other by a system bus B.

入力装置21は、ユーザ等が操作するキーボード及びマウス等のポインティングデバイスを有しており、ユーザ等からのプログラムの実行等、各種操作信号を入力する。また、入力装置21は、カメラ等の撮像手段から撮影された画像を入力する画像入力ユニットを有していてもよい。   The input device 21 has a pointing device such as a keyboard and a mouse operated by a user or the like, and inputs various operation signals such as execution of a program from the user or the like. The input device 21 may include an image input unit that inputs an image taken from an imaging unit such as a camera.

出力装置22は、本発明における処理を行うためのコンピュータ本体を操作するのに必要な各種ウィンドウやデータ等を表示するディスプレイを有し、CPU26が有する制御プログラムによりプログラムの実行経過や結果等を表示することができる。   The output device 22 has a display for displaying various windows and data necessary for operating the computer main body for performing the processing according to the present invention, and displays the program execution progress, results, and the like by the control program of the CPU 26. can do.

ここで、本発明においてコンピュータ本体にインストールされる実行プログラムは、例えばUSB(Universal Serial Bus)メモリやCD−ROM等の可搬型の記録媒体28等により提供される。プログラムを記録した記録媒体28は、ドライブ装置23にセット可能であり、記録媒体28に含まれる実行プログラムが、記録媒体28からドライブ装置23を介して補助記憶装置24にインストールされる。   Here, the execution program installed in the computer main body in the present invention is provided by, for example, a portable recording medium 28 such as a USB (Universal Serial Bus) memory or a CD-ROM. The recording medium 28 on which the program is recorded can be set in the drive device 23, and the execution program included in the recording medium 28 is installed in the auxiliary storage device 24 from the recording medium 28 via the drive device 23.

補助記憶装置24は、ハードディスク等のストレージ手段であり、本発明における実行プログラムやコンピュータに設けられた制御プログラム等を記憶し、必要に応じて入出力を行うことができる。   The auxiliary storage device 24 is a storage means such as a hard disk, and stores an execution program according to the present invention, a control program provided in a computer, and the like, and can perform input / output as necessary.

メモリ装置25は、CPU26により補助記憶装置24から読み出された実行プログラム等を格納する。なお、メモリ装置25は、ROM(Read Only Memory)やRAM(Random Access Memory)等からなる。   The memory device 25 stores an execution program read from the auxiliary storage device 24 by the CPU 26. The memory device 25 includes a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.

CPU26は、OS(Operating System)等の制御プログラム、及びメモリ装置25に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して、オブジェクト抽出における各処理を実現することができる。なお、プログラムの実行中に必要な各種情報等は、補助記憶装置24から取得することができ、また実行結果等を格納することもできる。   The CPU 26 controls processing of the entire computer, such as various operations and input / output of data with each hardware component, based on a control program such as an OS (Operating System) and an execution program stored in the memory device 25. Thus, each process in the object extraction can be realized. Various information necessary during the execution of the program can be acquired from the auxiliary storage device 24, and an execution result or the like can be stored.

ネットワーク接続装置27は、通信ネットワーク等と接続することにより、実行プログラムを通信ネットワークに接続されている他の端末等から取得したり、プログラムを実行することで得られた実行結果又は本発明における実行プログラム自体を他の端末等に提供することができる。   The network connection device 27 acquires an execution program from another terminal connected to the communication network by connecting to a communication network or the like, or an execution result obtained by executing the program or an execution in the present invention The program itself can be provided to other terminals.

上述したようなハードウェア構成により、本発明におけるオブジェクト抽出処理を実行することができる。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明におけるオブジェクト抽出処理を容易に実現することができる。   With the hardware configuration as described above, the object extraction processing according to the present invention can be executed. Also, by installing the program, the object extraction processing in the present invention can be easily realized by a general-purpose personal computer or the like.

次に、オブジェクト抽出処理について具体的に説明する。   Next, the object extraction process will be specifically described.

<オブジェクト抽出処理手順>
まず、本実施形態におけるオブジェクト抽出処理手順について説明する。図3は、本実施形態におけるオブジェクト抽出処理手順の一例を示すフローチャートである。
<Object extraction processing procedure>
First, the object extraction processing procedure in this embodiment will be described. FIG. 3 is a flowchart showing an example of an object extraction processing procedure in the present embodiment.

図3に示すオブジェクト抽出処理は、まずカメラ等の撮像手段により撮影されたオブジェクトを抽出する対象の画像を読み込み(S01)、読み込んだ画像に対して非可視化領域を抽出するためにフィルタリングを行い(S02)、その結果からオブジェクトを抽出する(S03)。なお、S02の処理では、S01で取得した画像に対して、ローパスフィルタをかけたり、S01で取得した画像から所定の画像を用いた差分画像を抽出してもよいが、これに限定されるものではない。なお、S03の処理では、非可視化情報のない部分(領域)がオブジェクトとして抽出される。   In the object extraction process shown in FIG. 3, first, an image to be extracted from an object photographed by an imaging means such as a camera is read (S01), and filtering is performed on the read image to extract a non-visible region ( (S02), an object is extracted from the result (S03). In the process of S02, a low-pass filter may be applied to the image acquired in S01, or a difference image using a predetermined image may be extracted from the image acquired in S01. However, the present invention is not limited to this. is not. In the process of S03, a part (region) without the invisible information is extracted as an object.

次に、オブジェクト抽出処理は、S02で得られるフィルタリング結果から、画像に含まれる非可視化情報のパターン(例えば、高周波パターン等)の判定を行い(S04)、更に高周波パターンの周波数の内容を判定する(S05)。ここで、高周波パターンの周波数とは、例えば高周波により形成された内容(例えば、模様等)が、横縞・縦縞等のストライプであるか、斜めのストライプ模様であるか、市松模様であるか等の情報を、周波数のパターンとして判定する。更に、S05における判定は、例えば画像中のどの領域にどのパターンがあるか等の領域情報についても判定する。   Next, the object extraction processing determines the pattern (eg, high frequency pattern) of the invisible information included in the image from the filtering result obtained in S02 (S04), and further determines the frequency content of the high frequency pattern. (S05). Here, the frequency of the high frequency pattern is, for example, whether the content (for example, pattern) formed by the high frequency is a stripe such as a horizontal stripe or a vertical stripe, an oblique stripe pattern, or a checkered pattern. Information is determined as a frequency pattern. Further, the determination in S05 also determines area information such as which pattern is in which area in the image.

次に、オブジェクト抽出処理は、S05の処理で得られた高周波パターンの周波数判定結果に対応させてオブジェクトの動作パターンを決定する(S06)。なお、S06の処理では、例えば、周波数判定結果が得られた高周波パターン(非可視化情報)に囲まれたオブジェクトに対して、その高周波パターンに対応する所定の動作パターンを決定する。また、周波数判定結果(高周波パターン)に対応する動作パターンは、例えばソフトウェア作成者やユーザ等が予め設定しておき、そのデータを参照して周波数判定結果に対する動作パターンを決定する。   Next, the object extraction process determines an object motion pattern corresponding to the frequency determination result of the high-frequency pattern obtained in S05 (S06). In the process of S06, for example, a predetermined motion pattern corresponding to the high frequency pattern is determined for the object surrounded by the high frequency pattern (invisible information) from which the frequency determination result is obtained. The operation pattern corresponding to the frequency determination result (high frequency pattern) is set in advance by, for example, a software creator or a user, and the operation pattern for the frequency determination result is determined with reference to the data.

また、オブジェクト抽出処理は、周波数判定結果に基づいて動作パターンに対応する動作スピードを決定し(S07)、決定した内容に基づいて、画像表示を行う(S08)。   In the object extraction process, the operation speed corresponding to the operation pattern is determined based on the frequency determination result (S07), and the image is displayed based on the determined content (S08).

なお、上述の例では、非可視化情報として高周波パターンを用いたが、これに限定されるものではない。また、上述の例では、非可視化情報に基づいて、画像中に含まれるオブジェクトを動作させたが、本実施形態においてはこれに限定されるものではなく、例えば背景の色を変えたり、印刷処理をさせたり、印刷時にオブジェクトのみを印刷させたり、オブジェクトを印刷しなかったりする等の各種制御を行うこともできる。更に、本実施形態では、上述S02の処理におけるフィルタリング処理と共に、背景の色情報を取得し、取得した色情報と非可視化情報とを組み合わせて、S06の処理におけるオブジェクトの動作パターンを決定する処理を行ってもよい。   In the above example, the high-frequency pattern is used as the invisible information, but the present invention is not limited to this. In the above-described example, the object included in the image is operated based on the invisible information. However, the present embodiment is not limited to this. For example, the background color is changed or the printing process is performed. It is also possible to perform various controls such as printing, printing only the object at the time of printing, or not printing the object. Further, in the present embodiment, the background color information is acquired together with the filtering process in the above-described process of S02, and the process of determining the operation pattern of the object in the process of S06 by combining the acquired color information and the invisible information. You may go.

<高周波について>
ここで、上述した本実施形態における高周波について説明する。通常、周波数には時間についての周波数(時間周波数)と空間の位置についての周波数(空間周波数)があるが、本実施形態においては、特に断らない限りは空間周波数を意味する。空間周波数は、「単位長さに対する画素値の周期の逆数」と定義される。
<About high frequency>
Here, the high frequency in this embodiment mentioned above is demonstrated. Usually, the frequency includes a frequency for time (temporal frequency) and a frequency for spatial position (spatial frequency). In the present embodiment, the frequency means a spatial frequency unless otherwise specified. The spatial frequency is defined as “the reciprocal of the period of the pixel value with respect to the unit length”.

つまり、本実施形態における高周波は、明部と暗部が周期的に繰り返した領域を意味する。本実施形態における周波数は、特に限定されるものではないが、例えば高周波部では0.2〜2[cycle/画素]の範囲で設定されるが、これに限定されるものではない。   That is, the high frequency in the present embodiment means a region where the bright part and the dark part are periodically repeated. Although the frequency in this embodiment is not specifically limited, For example, although it is set in the range of 0.2-2 [cycle / pixel] in a high frequency part, it is not limited to this.

例えば、高周波部にて形成される所定の画素領域(例えば、4×4ピクセル等)は、明部と暗部が周期的に繰り返していればよく、例えば、縦縞、横縞、市松模様状等があげられる。また、そのときの明部と暗部の明度差は10以上であればよく、好適なのは50以上であり、更に好適なのは100以上である。明度差は、予め固定値が設定しておいてもよく、背景の色やオブジェクトの内容等に応じて任意に変更することもできる。したがって、例えば明度の増減値を背景の明度から判断して決定することもできる。これにより、本実施形態では、背景の色やオブジェクトの内容等に応じて、より適切な非可視化情報を埋め込ませることができる。   For example, a predetermined pixel region (for example, 4 × 4 pixels) formed in a high-frequency part only needs to periodically repeat a bright part and a dark part, for example, vertical stripes, horizontal stripes, checkered pattern, etc. It is done. In addition, the brightness difference between the bright part and the dark part at that time may be 10 or more, preferably 50 or more, and more preferably 100 or more. The brightness difference may be set in advance as a fixed value, and can be arbitrarily changed according to the background color, the content of the object, and the like. Therefore, for example, the increase / decrease value of the brightness can be determined by determining from the brightness of the background. Thereby, in this embodiment, more appropriate de-visualization information can be embedded according to the background color, the content of the object, or the like.

ここで、背景画像に埋め込まれている高周波パターンについて説明する。高周波パターンは、背景の画像(グリッド)領域において、所定の模様が生成されている。例えば、横縞模様の高周波パターンが形成されている場合には、グリッドの偶数行の明度が高く、奇数行の明度は低い状態となっている。   Here, the high frequency pattern embedded in the background image will be described. In the high-frequency pattern, a predetermined pattern is generated in the background image (grid) region. For example, when a horizontal striped high-frequency pattern is formed, the lightness of the even rows of the grid is high and the lightness of the odd rows is low.

<高周波パターンの具体例>
次に、高周波パターンの具体例について説明する。図4は、高周波パターンの一例を示す図である。本実施形態では、例えば予め設定された複数の高周波パターン(模様)からなる非可視化情報を背景画像に埋め込む。つまり、本実施形態では、例えば図4(a)〜(e)の模様のうち、少なくとも1つが背景の所定の位置に埋め込まれる。なお、図4(a)は横ストライプの高周波パターンであり、図4(b)は縦横ストライプの高周波パターンであり、図4(c)は右下斜めストライプの高周波パターンであり、図4(d)は左下斜めのストライプの高周波パターンであり、図4(e)は、市松模様の高周波パターンである。これらの高周波パターンは、例えば背景色や背景内容(例えば、模様、風景、建物、人物等)、オブジェクトに動作させる内容等に基づいて設定される。
<Specific examples of high-frequency patterns>
Next, a specific example of the high frequency pattern will be described. FIG. 4 is a diagram illustrating an example of a high-frequency pattern. In this embodiment, for example, invisible information including a plurality of preset high-frequency patterns (patterns) is embedded in the background image. That is, in this embodiment, for example, at least one of the patterns shown in FIGS. 4A to 4E is embedded at a predetermined position on the background. 4A is a high frequency pattern of horizontal stripes, FIG. 4B is a high frequency pattern of vertical and horizontal stripes, FIG. 4C is a high frequency pattern of right lower diagonal stripes, and FIG. ) Is the high-frequency pattern of the lower left diagonal stripe, and FIG. 4E is a checkered high-frequency pattern. These high-frequency patterns are set based on, for example, the background color and background content (for example, patterns, landscapes, buildings, people, etc.), the content operated by the object, and the like.

したがって、本実施形態では、オブジェクトの抽出時に、高周波パターンに基づいてオブジェクトを抽出することができると共に、オブジェクトに所定の動作をさせて表示することができる。   Therefore, in this embodiment, when extracting an object, the object can be extracted based on the high-frequency pattern, and can be displayed with a predetermined action on the object.

なお、本実施形態では、背景画像に高周波パターンを埋め込んでいるが、本発明においてはこれに限定されるものではなく、例えばオブジェクト領域のみに上述した高周波パターンを埋め込んでもよい。この場合には、高周波パターンを有する領域を抽出することで、オブジェクトの抽出を実現できる。しかしながら、オブジェクト領域に非可視化情報とはいえ高周波パターンが埋め込まれているのは好ましくはない。したがって、このような場合には、オブジェクトを抽出した後にそのオブジェクト領域内の高周波パターンを消去する処理を行ってからオブジェクトの表示を行うことが好ましい。   In the present embodiment, the high-frequency pattern is embedded in the background image. However, the present invention is not limited to this. For example, the above-described high-frequency pattern may be embedded only in the object region. In this case, object extraction can be realized by extracting a region having a high-frequency pattern. However, it is not preferable that a high-frequency pattern is embedded in the object area although it is invisible information. Therefore, in such a case, it is preferable to display the object after extracting the object and then performing a process of deleting the high frequency pattern in the object area.

<フィルタリング処理について>
次に、上述したS02の処理におけるフィルタリング処理について、具体的に説明する。本実施形態におけるフィルタリング処理とは、例えば、予め設定された縦方向ソベルフィルタ、横方向ソベルフィルタ、市松模様検出フィルタ等の各ローパスフィルタを全て適用し、その結果として得られる特徴点の数(例えば、高周波部分の面積、位置等)から高周波パターンを決定する。
<About filtering processing>
Next, the filtering process in the process of S02 described above will be specifically described. The filtering processing in the present embodiment applies, for example, all the low-pass filters such as a preset vertical sobel filter, horizontal sobel filter, checkered pattern detection filter, and the number of feature points obtained as a result (for example, The high frequency pattern is determined from the area and position of the high frequency portion.

ここで、図5は、フィルタリングの内容を説明するための図である。図5(a)は、縦ストライプ画像によるフィルタ適用例を示し、図5(b)は、横ストライプ画像によるフィルタ適用例を示し、図5(c)は、左下斜めストライプ画像によるフィルタ適用例を示す。   Here, FIG. 5 is a diagram for explaining the contents of filtering. 5A shows an example of filter application using a vertical stripe image, FIG. 5B shows an example of filter application using a horizontal stripe image, and FIG. 5C shows an example of filter application using a lower left diagonal stripe image. Show.

また、図5(a)〜(c)において、上段は背景に埋め込まれた各ストライプ画像例を示し、中段は、一例として横方向ソベルフィルタを適用後の画像例を示し、下段は、一例として縦方向ソベルフィルタ適用後の画像例を示している。   Further, in FIGS. 5A to 5C, the upper row shows an example of each stripe image embedded in the background, the middle row shows an example of an image after applying the lateral sobel filter as an example, and the lower row shows an example. The example of an image after applying a vertical direction Sobel filter is shown.

本実施形態におけるフィルタリング処理では、同一のストライプでフィルタリングした場合には、ストライプの目立たない白っぽい画像となる。したがって、図5の例では、縦ストライプ画像には、縦方向ソベルフィルタを適用すると高周波パターンが消え(図5(a)下段)、横ストライプ画像には、横方向ソベルフィルタを適用すると高周波パターンが消える(図5(b)中段)。更に、縦方向ソベルフィルタ、横方向ソベルフィルタを適用しても高周波パターンが残る場合には、図5(c)に示すように、元画像は斜めストライプ画像の領域であると判定することができる。   In the filtering process according to the present embodiment, when filtering is performed with the same stripe, a whitish image in which the stripe is not conspicuous is obtained. Therefore, in the example of FIG. 5, the high frequency pattern disappears when the vertical direction Sobel filter is applied to the vertical stripe image (the lower part of FIG. 5A), and the high frequency pattern is applied to the horizontal stripe image when the horizontal direction Sobel filter is applied. It disappears (middle of FIG. 5B). Further, when a high frequency pattern remains even when the vertical direction sobel filter and the horizontal direction sobel filter are applied, as shown in FIG. 5C, it can be determined that the original image is a region of an oblique stripe image. .

なお、上述の例では、縦、横、左下斜めの各ストライプの判定例を示したが、本発明においては、これに限定されるものではなく、例えば右下斜めストライプや市松模様を含んでいる場合には、そのパターンに合わせたソベルフィルタを用いることで、上述したように、高周波パターンが消えた画像を取得することで、パターン判定を高精度に行うことができる。なお、フィルタリング処理の内容については、これに限定されるものではない。   In the above example, the determination example of each of the vertical, horizontal, and lower left diagonal stripes is shown. However, the present invention is not limited to this, and includes, for example, the lower right diagonal stripes and the checkered pattern. In this case, by using a Sobel filter matched to the pattern, as described above, it is possible to perform pattern determination with high accuracy by acquiring an image in which the high-frequency pattern has disappeared. Note that the content of the filtering process is not limited to this.

ここで、本実施形態では、例えば画像の上半分に縦ストライプ、下半分に横ストライプが入った高周波画像を使用する場合に、具体的には以下のような処理を行う。   Here, in the present embodiment, for example, when a high-frequency image having a vertical stripe in the upper half and a horizontal stripe in the lower half is used, the following processing is performed.

まず初めにオブジェクトを抽出する対象画像(撮影画像)に対して、例えば図5(a)〜(c)示す3種類のフィルタを全て適用する。この3回の試行の中で、縦方向ソベルフィルタを適用した場合のみ、画像の上半分に多くの特徴点が得られる。また、フィルタ適用結果は、白黒の画像として得られ、特徴点部分のみが白色、それ以外の部分が黒色で表される。したがって、この場合には、画像の上半分が白色、下半分が黒色の画像が得られる。   First, for example, all three types of filters shown in FIGS. 5A to 5C are applied to a target image (captured image) from which an object is extracted. Of these three trials, many feature points are obtained in the upper half of the image only when the vertical sobel filter is applied. The filter application result is obtained as a black and white image, and only the feature point portion is expressed in white and the other portions are expressed in black. Therefore, in this case, an image in which the upper half of the image is white and the lower half is black is obtained.

このように、本実施形態では、この白色部分と黒色部分の面積(領域)に基づいて、どこに、どのような高周波パターンが埋め込まれているのかを認識することができる。また、この場合には、縦方向ソベルフィルタを用いて、結果画像の上半分に特徴点が多く得られるため、撮影画像の上半分縦ストライプが埋め込まれていることを認識することができる。また、同様に横方向ソベルフィルタを適用したときのみ、画像の下半分に特徴点が得られる場合には、画像の上半分に横ストライプが埋め込まれていることを認識することができる。   Thus, in the present embodiment, it is possible to recognize where and what high-frequency pattern is embedded based on the areas (regions) of the white portion and the black portion. Further, in this case, since many feature points are obtained in the upper half of the result image using the vertical direction Sobel filter, it can be recognized that the upper half vertical stripe of the captured image is embedded. Similarly, when a feature point is obtained in the lower half of the image only when the horizontal direction Sobel filter is applied, it can be recognized that a horizontal stripe is embedded in the upper half of the image.

<高周波パターンの判定>
なお、上述したS04の処理における高周波パターンの判定については、例えばどのストライプの方向(縦、横、または斜め)がどの領域にあるかといった位置情報や何種類の高周波パターンがどのように組み合わさっているかといった内容を判定し、その情報を用いて例えば同じ高周波パターン上でも、より左側にあるイラストは動作スピードをより早く、より右側にあるイラストは動作スピードをより遅くするといった動作をさせることができる。
<Determination of high frequency pattern>
For the determination of the high-frequency pattern in the above-described processing of S04, for example, the combination of position information such as which stripe direction (vertical, horizontal, or diagonal) is in which region and how many types of high-frequency patterns are combined. For example, even on the same high frequency pattern, the illustration on the left side can be operated faster, and the illustration on the right side can be operated more slowly using the information. .

<従来手法と本実施形態を適用した場合のオブジェクトの抽出結果>
次に、従来手法と本実施形態を適用した場合のオブジェクトの抽出結果について、図を用いて説明する。図6は、従来手法と本実施形態を適用した場合のオブジェクトの抽出結果の一例を示す図である。なお、図6(a)は、従来手法によりオブジェクト(図6の例では、USBメモリ)を抽出した例を示し、図6(b)は、本実施形態を適用した場合のオブジェクト抽出例を示している。
<Object Extraction Result When Conventional Method and This Embodiment are Applied>
Next, object extraction results when the conventional method and the present embodiment are applied will be described with reference to the drawings. FIG. 6 is a diagram illustrating an example of an object extraction result when the conventional method and the present embodiment are applied. 6A shows an example in which an object (USB memory in the example of FIG. 6) is extracted by a conventional technique, and FIG. 6B shows an example of object extraction when the present embodiment is applied. ing.

図6(a)に示す例では、ブルーバックのみを用いて画像30−1に含まれるオブジェクト31−1を抽出する例を示している。この場合、オブジェクトがブルーバックと同系色の場合には、誤り率が74.4%にもなった。なお、誤り率は、「切り取られなかったピクセル数×100/切り取る対象オブジェクト内のピクセル数」と定義した。   The example illustrated in FIG. 6A illustrates an example in which the object 31-1 included in the image 30-1 is extracted using only the blue background. In this case, when the object has the same color as the blue background, the error rate is 74.4%. The error rate was defined as “the number of pixels that were not cut × 100 / the number of pixels in the target object to be cut”.

しかしながら、図6(b)に示す本実施形態では、背景画像30−2に高周波パターンを埋め込んだブルーバックを用いているため、上述した手法により抽出されたオブジェクト31−2は、誤り率が3.8%と非常に低い数値で抽出することができた。   However, in the present embodiment shown in FIG. 6B, since a blue background in which a high-frequency pattern is embedded in the background image 30-2 is used, the object 31-2 extracted by the above-described method has an error rate of 3. It was possible to extract at a very low value of .8%.

<画像例とその動作について>
ここで、本実施形態に適用される画像例と、その動作について説明する。図7は、本実施形態における画像例とオブジェクトの動作例について説明するための図である。なお、図7の例では、例えばPC等の画面上に表示される画像に含まれるオブジェクトの動作例を示すものである。
<Example of image and its operation>
Here, an example of an image applied to this embodiment and its operation will be described. FIG. 7 is a diagram for explaining an example of an image and an example of the operation of an object in the present embodiment. Note that the example of FIG. 7 shows an operation example of an object included in an image displayed on a screen such as a PC.

図7(a)に示す画像40には、一例として上半分の背景画像41−1に空(水色)を示し、下半分の背景画像41−2に地面(緑色)を示している。また、画像40の上半分の水色部分には縦ストライプを埋め込み、下半分の緑色部分には横ストライプを埋め込む。   In the image 40 shown in FIG. 7A, as an example, the upper half background image 41-1 shows the sky (light blue), and the lower half background image 41-2 shows the ground (green). Also, vertical stripes are embedded in the upper half light blue portion of the image 40, and horizontal stripes are embedded in the lower half green portion.

このような画像40において、ユーザが、例えば画像40の水色部分に白い雲のオブジェクト42−1を描写し、画像40の緑色部分に黄色い鳥のオブジェクト42−2を描写したとする。この場合、上述したオブジェクトの抽出処理や非可視化情報対応処理により、例えば雲のオブジェクト42−1は所定倍率で拡大・縮小の繰り返し表示を行い、鳥のオブジェクト42−2は所定方向に直進(移動)するというような処理を行うことができる。   In such an image 40, it is assumed that the user has drawn a white cloud object 42-1 in the light blue portion of the image 40 and a yellow bird object 42-2 in the green portion of the image 40, for example. In this case, for example, the cloud object 42-1 is repeatedly enlarged and reduced at a predetermined magnification, and the bird object 42-2 goes straight (moves) in a predetermined direction by the object extraction process and the invisible information handling process described above. ) Can be performed.

具体的には、画面上の画像40において、図7(b)に示すように、雲のオブジェクト42−1は、同じ位置において所定の時間間隔で所定倍率の拡大と縮小を繰り返しながら表示される。また、鳥のオブジェクト42−2は、予め設定された速度で左側に所定距離分だけ移動する。なお、移動時の速度は、一定でも可変でもよく、それらの組み合わせであってもよい。また、移動距離については、所定距離の移動だけに限定されず、例えば鳥のオブジェクト42−2が画像40からフレームアウトするような移動を行ってもよく、画像40の端部で逆方向を向いて右側に移動するような処理を行ってもよい。なお、図7(b)の例では、オブジェクト42の動作前後の位置関係を説明する便宜上、背景画像41にオブジェクト42の残像が表示されているが、本実施形態においてはこれに限定されるものではなく、例えばオブジェクト42を除く周囲の色情報を用いて補間された残像のない背景画像を表示してもよい。   Specifically, in the image 40 on the screen, as shown in FIG. 7B, the cloud object 42-1 is displayed at the same position while being repeatedly enlarged and reduced at a predetermined magnification at predetermined time intervals. . The bird object 42-2 moves to the left by a predetermined distance at a preset speed. The moving speed may be constant or variable, or a combination thereof. Further, the movement distance is not limited to the movement of a predetermined distance, and for example, the bird object 42-2 may move such that it moves out of the frame of the image 40, and faces the opposite direction at the end of the image 40. Then, a process of moving to the right side may be performed. In the example of FIG. 7B, the afterimage of the object 42 is displayed on the background image 41 for convenience of describing the positional relationship of the object 42 before and after the movement. However, in the present embodiment, the present invention is not limited to this. Instead, for example, a background image without an afterimage interpolated using surrounding color information excluding the object 42 may be displayed.

また、本実施形態では、背景に埋め込まれる高周波パターン(非可視化情報)の数(種類)は、例えば背景に対応する紙や画面等のサイズ(大きさ)に対応させて設定することができる。例えば、A4サイズの紙(シート)の場合は、最大4パターンほど組み合わせることができる。これは、アプリケーションとしてのお絵かきソフト等において、非可視化情報のパターンを4パターンより多くすると、背景全体に対する個々の非可視化情報の領域が狭くなり、一つ一つの絵(オブジェクト)をより狭いスペースに書かなければならなくなるためである。なお、本実施形態においては、これに限定されるものではなく、ユーザが任意にパターン数(種類)を設定してもよい。   In the present embodiment, the number (type) of high-frequency patterns (non-visualization information) embedded in the background can be set in correspondence with the size (size) of paper or screen corresponding to the background, for example. For example, in the case of A4 size paper (sheet), a maximum of four patterns can be combined. This is because, in drawing software as an application, if the number of non-visualization information patterns is more than 4 patterns, the area of each non-visualization information with respect to the entire background becomes narrow, and each picture (object) is narrower. This is because it has to be written on. In the present embodiment, the present invention is not limited to this, and the user may arbitrarily set the number of patterns (type).

また、オブジェクトは、背景に異なる高周波パターンにまたがらないように描写させる方が好ましいが、これに限定されるものではない。例えば、複数の高周波パターンにまたがった場合には、オブジェクトに対する動作処理を行わないか、又は各高周波パターンに対して設定された動作をさせるか、高周波パターンを組み合わせた新たな動作を行うことができる。なお、本実施形態では、複数の高周波パターンにまたがった場合でも高周波パターン以外をオブジェクトとしているため、オブジェクトの抽出は可能である。   Further, although it is preferable to draw the object so as not to straddle different high-frequency patterns in the background, the present invention is not limited to this. For example, when a plurality of high-frequency patterns are straddled, the operation processing for the object is not performed, the operation set for each high-frequency pattern is performed, or a new operation combining the high-frequency patterns can be performed. . In the present embodiment, objects other than the high-frequency pattern are used as objects even if they extend over a plurality of high-frequency patterns, so that objects can be extracted.

なお、このような複数の高周波パターンは、例えば背景シートの作成時に埋め込む。例えば、背景シートの作成者が左半分のイラスト(オブジェクト)と右半分のイラスト(オブジェクト)とで動作を変えたい場合には、左半分と右半分に異なる高周波パターンを埋め込む。この作業は、シート作成者が手作業で行なってもよく、埋め込みをプログラムによって自動化することもできる。この場合、例えばPC上で、高周波パターンの埋め込み領域と動作パターンを選択することで自動的に対応する高周波パターンが、選択した領域埋め込まれる。   Such a plurality of high-frequency patterns are embedded at the time of creating a background sheet, for example. For example, when the creator of the background sheet wants to change the operation between the left half illustration (object) and the right half illustration (object), different high frequency patterns are embedded in the left half and the right half. This work may be performed manually by the sheet creator, or embedding can be automated by a program. In this case, for example, by selecting a high frequency pattern embedding region and an operation pattern on a PC, the corresponding high frequency pattern is automatically embedded in the selected region.

また、本実施形態におけるオブジェクト抽出後の動作については、同じ高周波パターン(例えば、ストライプ等)でも鳥や雲等の形状や大きさ、色等によって、その動作内容を変えることもできる。また、ストライプ等の模様(パターン)が同一でも背景色が変わると、そのストライプと背景色との関係で、異なる動作をさせることができる。例えば、青色の縦ストライプは拡大・縮小、赤色の縦ストライプは回転等のように処理することができる。この場合、ユーザが描画した絵(オブジェクト)に動作を持たせるための判別対象はストライプだけではなく色も含まれることになる。   In addition, regarding the operation after object extraction in the present embodiment, the operation content can be changed depending on the shape, size, color, etc. of birds and clouds even with the same high-frequency pattern (for example, stripes). Further, even if the pattern such as a stripe is the same, if the background color changes, different operations can be performed depending on the relationship between the stripe and the background color. For example, blue vertical stripes can be processed such as enlargement / reduction, and red vertical stripes can be processed such as rotation. In this case, a determination target for giving an action to a picture (object) drawn by the user includes not only stripes but also colors.

また、本実施形態では、例えばユーザが描画したオブジェクトを含む画像(例えば、図7(a))を紙媒体等に印刷し、印刷された紙媒体をカメラ(撮像手段)等で撮影することで得られる画像に対しても図7(b)に示すようなオブジェクトの動作を行わせることができる。つまり、本実施形態では、紙等の印刷媒体に印刷された画像のように、オブジェクトに関するメタ情報が全く付加されていない画像であっても、適切にオブジェクトを抽出することができる。また、本実施形態では抽出したオブジェクト等に対して所定の動作を行わせることができる。   In this embodiment, for example, an image including an object drawn by a user (for example, FIG. 7A) is printed on a paper medium or the like, and the printed paper medium is photographed by a camera (imaging means) or the like. The object motion as shown in FIG. 7B can also be performed on the obtained image. That is, in the present embodiment, an object can be appropriately extracted even for an image to which no meta information about the object is added, such as an image printed on a print medium such as paper. In the present embodiment, a predetermined operation can be performed on the extracted object or the like.

上述したように本発明によれば、オブジェクトの抽出を高精度に行うことができる。また、非可視化情報を用いて効率的に情報を取得して、付加価値性に優れた高精度な画像を提供することができる。   As described above, according to the present invention, an object can be extracted with high accuracy. In addition, it is possible to efficiently obtain information using non-visualized information and provide a highly accurate image with excellent added value.

以上本発明の好ましい実施例について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications, within the scope of the gist of the present invention described in the claims, It can be changed.

10 オブジェクト抽出装置
11 入力手段
12 出力手段
13 記憶手段
14 画像取得手段
15 画像解析手段
16 オブジェクト抽出手段
17 非可視化情報対応処理手段
18 送受信手段
19 制御手段
21 入力装置
22 出力装置
23 ドライブ装置
24 補助記憶装置
25 メモリ装置
26 CPU(Central Processing Unit)
27 ネットワーク接続装置
28 記録媒体
30,40 画像
31,42 オブジェクト
41 背景画像
DESCRIPTION OF SYMBOLS 10 Object extraction apparatus 11 Input means 12 Output means 13 Storage means 14 Image acquisition means 15 Image analysis means 16 Object extraction means 17 Invisible information corresponding processing means 18 Transmission / reception means 19 Control means 21 Input device 22 Output device 23 Drive device 24 Auxiliary storage Device 25 Memory device 26 CPU (Central Processing Unit)
27 Network connection device 28 Recording medium 30, 40 Image 31, 42 Object 41 Background image

Claims (11)

取得した画像に含まれるオブジェクトを抽出するオブジェクト抽出装置において、
前記画像を解析して非可視化情報の位置、内容を取得する画像解析手段と、
前記画像解析手段により得られる非可視化情報に基づいて前記画像中に含まれるオブジェクトを抽出するオブジェクト抽出手段と、
前記非可視化情報のパターンに対応させて前記オブジェクト抽出手段により抽出されたオブジェクトに対して所定の処理を行う非可視化情報対応処理手段と、
前記非可視化情報対応処理手段により得られる画像を出力する出力手段とを有することを特徴とするオブジェクト抽出装置。
In an object extraction device that extracts an object included in an acquired image,
Image analysis means for analyzing the image and obtaining the position and content of the invisible information;
Object extraction means for extracting an object contained in the image based on the non-visualization information obtained by the image analysis means;
Non-visualization information corresponding processing means for performing predetermined processing on the object extracted by the object extraction means in correspondence with the pattern of the non-visualization information;
An object extraction apparatus comprising: output means for outputting an image obtained by the non-visualization information correspondence processing means.
前記非可視化情報は、背景画像又は前記オブジェクトの何れかに埋め込まれた高周波パターンであることを特徴とする請求項1に記載のオブジェクト抽出装置。   The object extracting apparatus according to claim 1, wherein the invisible information is a high frequency pattern embedded in either a background image or the object. 前記画像解析手段は、
予め設定された複数のフィルタを用いて前記画像に対するフィルタリングを行い、フィルタリングされた各画像の関係から、前記画像に埋め込まれた非可視化情報のパターンを取得することを特徴とする請求項1又は2に記載のオブジェクト抽出装置。
The image analysis means includes
The filtering of the image is performed using a plurality of preset filters, and the pattern of the invisible information embedded in the image is acquired from the relationship between the filtered images. The object extraction device described in 1.
前記非可視化情報対応処理手段は、
前記非可視化情報のパターンに基づいて、前記非可視化情報に囲まれたオブジェクトに対して所定の動作を行わせることを特徴とする請求項1乃至3の何れか1項に記載のオブジェクト抽出装置。
The invisible information corresponding processing means is
4. The object extraction device according to claim 1, wherein a predetermined operation is performed on an object surrounded by the non-visualization information based on the pattern of the non-visualization information. 5.
前記非可視化情報対応処理手段は、
前記画像解析手段により得られる複数の非可視化情報の内容に基づいてオブジェクトに対する1又は複数の動作を行わせることを特徴とする請求項1乃至4の何れか1項に記載のオブジェクト抽出装置。
The invisible information corresponding processing means is
5. The object extraction device according to claim 1, wherein one or a plurality of operations are performed on an object based on contents of a plurality of pieces of non-visualization information obtained by the image analysis unit.
取得した画像に含まれるオブジェクトを抽出するオブジェクト抽出方法において、
前記画像を解析して非可視化情報の位置、内容を取得する画像解析ステップと、
前記画像解析ステップにより得られる非可視化情報に基づいて前記画像中に含まれるオブジェクトを抽出するオブジェクト抽出ステップと、
前記非可視化情報のパターンに対応させて前記オブジェクト抽出ステップにより抽出されたオブジェクトに対して所定の処理を行う非可視化情報対応処理ステップと、
前記非可視化情報対応処理ステップにより得られる画像を出力する出力ステップとを有することを特徴とするオブジェクト抽出方法。
In an object extraction method for extracting an object included in an acquired image,
Image analysis step for analyzing the image and obtaining the position and content of the invisible information;
An object extraction step of extracting an object included in the image based on the non-visualization information obtained by the image analysis step;
A non-visualization information corresponding processing step for performing a predetermined process on the object extracted by the object extraction step corresponding to the pattern of the non-visualization information;
And an output step of outputting an image obtained by the non-visualization information corresponding processing step.
前記非可視化情報は、背景画像又は前記オブジェクトの何れかに埋め込まれた高周波パターンであることを特徴とする請求項6に記載のオブジェクト抽出方法。   The object extraction method according to claim 6, wherein the non-visualization information is a high-frequency pattern embedded in either a background image or the object. 前記画像解析ステップは、
予め設定された複数のフィルタを用いて前記画像に対するフィルタリングを行い、フィルタリングされた各画像の関係から、前記画像に埋め込まれた非可視化情報のパターンを取得することを特徴とする請求項6又は7に記載のオブジェクト抽出方法。
The image analysis step includes
The filtering of the image is performed using a plurality of preset filters, and the pattern of the invisible information embedded in the image is acquired from the relationship between the filtered images. The object extraction method described in 1.
前記非可視化情報対応処理ステップは、
前記非可視化情報のパターンに基づいて、前記非可視化情報に囲まれたオブジェクトに対して所定の動作を行わせることを特徴とする請求項6乃至8の何れか1項に記載のオブジェクト抽出方法。
The invisible information corresponding processing step includes:
The object extraction method according to claim 6, wherein a predetermined operation is performed on an object surrounded by the non-visualization information based on the pattern of the non-visualization information.
前記非可視化情報対応処理ステップは、
前記画像解析ステップにより得られる複数の非可視化情報の内容に基づいてオブジェクトに対する1又は複数の動作を行わせることを特徴とする請求項6乃至9の何れか1項に記載のオブジェクト抽出方法。
The invisible information corresponding processing step includes:
10. The object extraction method according to claim 6, wherein one or a plurality of operations are performed on an object based on the contents of a plurality of pieces of non-visualization information obtained by the image analysis step.
コンピュータを、請求項1乃至5の何れか1項に記載のオブジェクト抽出装置が有する各手段として機能させるためのオブジェクト抽出プログラム。   An object extraction program for causing a computer to function as each unit included in the object extraction device according to any one of claims 1 to 5.
JP2012111389A 2012-05-15 2012-05-15 Object extraction method, object extraction device, and object extraction program Expired - Fee Related JP5986422B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012111389A JP5986422B2 (en) 2012-05-15 2012-05-15 Object extraction method, object extraction device, and object extraction program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012111389A JP5986422B2 (en) 2012-05-15 2012-05-15 Object extraction method, object extraction device, and object extraction program

Publications (2)

Publication Number Publication Date
JP2013239006A true JP2013239006A (en) 2013-11-28
JP5986422B2 JP5986422B2 (en) 2016-09-06

Family

ID=49763980

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012111389A Expired - Fee Related JP5986422B2 (en) 2012-05-15 2012-05-15 Object extraction method, object extraction device, and object extraction program

Country Status (1)

Country Link
JP (1) JP5986422B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015143116A (en) * 2014-01-31 2015-08-06 ユニバーサル製缶株式会社 cap with liner
JP5848486B1 (en) * 2015-08-07 2016-01-27 チームラボ株式会社 Drawing image display system
JP2017037614A (en) * 2015-10-06 2017-02-16 チームラボ株式会社 Painting image display system
US10573041B2 (en) 2016-09-16 2020-02-25 Fujifilm Corporation Rear image candidate determination device, rear image candidate determination method, and rear image candidate determination program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005236843A (en) * 2004-02-23 2005-09-02 Oki Electric Ind Co Ltd Document processing method and system
JP2011142607A (en) * 2009-12-08 2011-07-21 Shiseido Co Ltd Invisible information embedding device, invisible information recognition device, invisible information embedding method, invisible information recognition method, invisible information embedding program, and invisible information recognition program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005236843A (en) * 2004-02-23 2005-09-02 Oki Electric Ind Co Ltd Document processing method and system
JP2011142607A (en) * 2009-12-08 2011-07-21 Shiseido Co Ltd Invisible information embedding device, invisible information recognition device, invisible information embedding method, invisible information recognition method, invisible information embedding program, and invisible information recognition program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015143116A (en) * 2014-01-31 2015-08-06 ユニバーサル製缶株式会社 cap with liner
JP5848486B1 (en) * 2015-08-07 2016-01-27 チームラボ株式会社 Drawing image display system
WO2017026419A1 (en) * 2015-08-07 2017-02-16 チームラボ株式会社 Drawing image display system
JP2017037614A (en) * 2015-10-06 2017-02-16 チームラボ株式会社 Painting image display system
US10573041B2 (en) 2016-09-16 2020-02-25 Fujifilm Corporation Rear image candidate determination device, rear image candidate determination method, and rear image candidate determination program

Also Published As

Publication number Publication date
JP5986422B2 (en) 2016-09-06

Similar Documents

Publication Publication Date Title
CN106355153B (en) A kind of virtual objects display methods, device and system based on augmented reality
US10372226B2 (en) Visual language for human computer interfaces
JP6355746B2 (en) Image editing techniques for devices
CN110058685B (en) Virtual object display method and device, electronic equipment and computer-readable storage medium
CN111833340B (en) Image detection method, device, electronic equipment and storage medium
CN110503725B (en) Image processing method, device, electronic equipment and computer readable storage medium
JP2019504386A (en) Facial image processing method and apparatus, and storage medium
EP3822757A1 (en) Method and apparatus for setting background of ui control
US20170039753A1 (en) Method, apparatus and non-transitory computer-readable storage medium for uninstalling an application
JP5986422B2 (en) Object extraction method, object extraction device, and object extraction program
CN114003160B (en) Data visual display method, device, computer equipment and storage medium
JP6779688B2 (en) Image processing equipment, image processing method, computer program
CN111179159A (en) Method and device for eliminating target image in video, electronic equipment and storage medium
JP5787644B2 (en) Image processing apparatus and image processing apparatus control method
CN108038916A (en) A kind of display methods of augmented reality
CN110267079B (en) Method and device for replacing human face in video to be played
CN109491565B (en) Method and equipment for displaying component information of object in three-dimensional scene
CN111107264A (en) Image processing method, image processing device, storage medium and terminal
CN109766530B (en) Method and device for generating chart frame, storage medium and electronic equipment
US20180211027A1 (en) Password setting method and device
JP7102844B2 (en) Frame interpolation device, frame interpolation method and frame interpolation program
KR20170002921A (en) Apparatus and method for creating digital building instruction
CN111625101A (en) Display control method and device
US10685238B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP2020166653A (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150501

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150501

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160301

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160426

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160502

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160719

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160805

R150 Certificate of patent or registration of utility model

Ref document number: 5986422

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees