JP2021047448A - Imaging system, method for imaging, and program - Google Patents

Imaging system, method for imaging, and program Download PDF

Info

Publication number
JP2021047448A
JP2021047448A JP2020203193A JP2020203193A JP2021047448A JP 2021047448 A JP2021047448 A JP 2021047448A JP 2020203193 A JP2020203193 A JP 2020203193A JP 2020203193 A JP2020203193 A JP 2020203193A JP 2021047448 A JP2021047448 A JP 2021047448A
Authority
JP
Japan
Prior art keywords
image
product
name
unit
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020203193A
Other languages
Japanese (ja)
Inventor
石山 塁
Rui Ishiyama
塁 石山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2020203193A priority Critical patent/JP2021047448A/en
Publication of JP2021047448A publication Critical patent/JP2021047448A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Stroboscope Apparatuses (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Abstract

To provide an imaging system, a method for imaging, and a program that can acquire a taken image from which the same feature point can be safely extracted by using a camera of a portable terminal.SOLUTION: The imaging system of the present invention uses a portable terminal having a camera unit and a display unit. The imaging system includes: an acquisition unit for acquiring an image including a pattern formed on a surface of an object randomly; a control unit for displaying a transparent image of the image acquired by the acquisition unit so as to make the transparent image overlap with a live view image displayed in the display unit, when the camera unit takes an image of a comparison target object. The pattern is used to extract feature points.SELECTED DRAWING: Figure 1

Description

本発明は、撮影システム、撮影方法及びプログラムに関する。 The present invention relates to a photographing system, an imaging method and a program.

物体の表面にある凹凸部を撮影し、撮影画像を検査や認証等に用いるシステムが考案されている。 A system has been devised in which an uneven portion on the surface of an object is photographed and the photographed image is used for inspection, authentication, or the like.

例えば特許文献1には、光透過性及び光拡散性を有し、検査用カメラが撮影する検査領域を覆うように近接配置される概略平板状又はドーム状をなす光拡散部材と、その光拡散部材の外側に離間して配置され、検査領域に光拡散部材を透過させて光を照射する複数の光照射部材と、光拡散部材に設けられた撮影用観測孔の周囲からカメラの方向に延びる筒状体と、を備え、カメラが、それら筒状体及び観測孔を介し検査領域を撮影できるように構成するとともに、筒状体のカメラ側開口に、光照射部材からの直射光が入らないように構成された光照射装置が記載されている。
For example, Patent Document 1 describes a substantially flat plate-shaped or dome-shaped light diffusing member which has light transmissivity and light diffusivity and is arranged close to each other so as to cover an inspection area photographed by an inspection camera, and the light diffusing thereof. A plurality of light irradiation members that are arranged apart from each other on the outside of the members and irradiate light by transmitting the light diffusion member through the inspection area, and extend in the direction of the camera from the periphery of the observation hole for photographing provided in the light diffusion member. The tubular body is provided so that the camera can take an image of the inspection area through the tubular body and the observation hole, and the direct light from the light irradiation member does not enter the opening on the camera side of the tubular body. A light irradiation device configured as described above is described.

特開2008−102103号公報Japanese Unexamined Patent Publication No. 2008-102103

しかし、特許文献1のような特殊な装置を認証や照合を行う場所にそれぞれ配置するのは手間やコストがかかるという問題がある。 However, there is a problem that it takes time and cost to arrange a special device such as Patent Document 1 in a place where authentication and verification are performed.

一方、一般に普及している携帯端末が備えるカメラを用いてバーコードを撮影し、識別や認証を行う技術が実現されている。バーコードの撮影画像は黒白部分を容易に判別できる。しかし、物体表面の凹凸の撮影画像は、物体の位置や向き、光の照射方向等の差異に影響されやすく、同一の特徴点を安定して抽出できるような撮影画像を得ることは困難であった。 On the other hand, a technique has been realized in which a bar code is photographed using a camera provided in a widely used mobile terminal to identify and authenticate. Black and white parts can be easily identified in the captured image of the barcode. However, the captured image of the unevenness on the surface of the object is easily affected by the difference in the position and orientation of the object, the irradiation direction of light, etc., and it is difficult to obtain a captured image that can stably extract the same feature points. It was.

さらに、カメラの視野角や照明の配置は携帯端末の機種ごとに異なっているが、これら異なる機種の携帯端末で撮影した場合においても同一の撮影対象について同一の特徴点を抽出できる撮影画像を得る必要がある。そのためには携帯端末毎に異なるカメラと光源を基準として、それに対する撮影対象の相対的な位置姿勢が適切な状態になるように、端末を保持する必要がある。そのような保持状態は端末毎に異なるうえ、距離や姿勢の数値で指示されても、携帯端末を手で持っている人がそのように調整することは困難である。 Furthermore, although the viewing angle of the camera and the arrangement of lighting differ depending on the model of the mobile terminal, even when shooting with these different models of mobile terminals, a captured image capable of extracting the same feature points for the same shooting target is obtained. There is a need. For that purpose, it is necessary to hold the terminal so that the relative position and orientation of the shooting target with respect to the camera and light source, which are different for each mobile terminal, are in an appropriate state. Such a holding state is different for each terminal, and even if it is instructed by a numerical value of a distance or a posture, it is difficult for a person holding a mobile terminal to make such an adjustment.

本発明は、上記問題点に鑑みてなされたもので、携帯端末が備えるカメラを用いて、同一の特徴点を安定して抽出できる撮影画像を取得することができる撮影システム、撮影方法及びプログラムを提供することを目的とする。 The present invention has been made in view of the above problems, and provides a photographing system, a photographing method, and a program capable of acquiring a photographed image capable of stably extracting the same feature points by using a camera provided in a mobile terminal. The purpose is to provide.

本発明は、カメラ部と表示部とを備える携帯端末を用いる撮影システムであって、物体の表面にランダムに形成された模様を含む画像を取得する取得部と、前記カメラ部によって照合対象物を撮影する際に、前記取得部によって取得された画像の透過画像を、前記表示部に表示されるライブビュー画像に重畳表示する制御部と、を備え、前記模様は、特徴点の抽出に用いられる撮影システムである。 The present invention is a photographing system using a portable terminal including a camera unit and a display unit, in which an acquisition unit that acquires an image including a pattern randomly formed on the surface of an object and a collation object are collated by the camera unit. A control unit that superimposes and displays a transparent image of an image acquired by the acquisition unit on a live view image displayed on the display unit at the time of shooting is provided, and the pattern is used for extracting feature points. It is a shooting system.

本発明は、カメラ部と表示部とを備える携帯端末を用いる撮影方法であって、対象物の表面にランダムに形成された模様を含む画像を取得し、前記カメラ部によって照合対象物を撮影する際に、取得された前記画像の透過画像を、前記表示部に表示されるライブビュー画像に重畳表示し、前記模様は、特徴点の抽出に用いられる撮影方法である。 The present invention is a photographing method using a mobile terminal including a camera unit and a display unit, in which an image including a pattern randomly formed on the surface of an object is acquired and the collation object is photographed by the camera unit. At that time, the acquired transparent image of the image is superimposed and displayed on the live view image displayed on the display unit, and the pattern is a photographing method used for extracting feature points.

本発明は、カメラ部と表示部とを備える携帯端末に、対象物の表面にランダムに形成された模様を含む画像を取得する取得処理と、前記カメラ部によって照合対象物を撮影する際に、前記取得処理によって取得された画像の透過画像を、前記表示部に表示されるライブビュー画像に重畳表示する制御処理と、を実行させ、前記模様は、特徴点の抽出に用いられるプログラムである。 The present invention provides an acquisition process for acquiring an image including a pattern randomly formed on the surface of an object on a mobile terminal including a camera unit and a display unit, and when the camera unit captures a collation object. The control process of superimposing and displaying the transparent image of the image acquired by the acquisition process on the live view image displayed on the display unit is executed, and the pattern is a program used for extracting feature points.

本発明によれば、携帯端末が備えるカメラを用いて、同一の特徴点を安定して抽出できる撮影画像を取得することができる。 According to the present invention, it is possible to acquire a captured image capable of stably extracting the same feature points by using a camera provided in a mobile terminal.

図1は本発明の実施形態に係る携帯端末の構成図である。FIG. 1 is a configuration diagram of a mobile terminal according to an embodiment of the present invention. 図2は携帯端末の光源とカメラと照合領域の相対位置姿勢について説明するための図である。FIG. 2 is a diagram for explaining the relative position and orientation of the light source of the mobile terminal, the camera, and the collation area. 図3は基準画像が表示された撮影画面を例示する図である。FIG. 3 is a diagram illustrating a shooting screen on which a reference image is displayed. 図4は基準画像が表示された撮影画面を例示する図である。FIG. 4 is a diagram illustrating a shooting screen on which a reference image is displayed. 図5は本発明の実施形態の動作を説明するためのフローチャートである。FIG. 5 is a flowchart for explaining the operation of the embodiment of the present invention. 図6は端末装置がネットワークを介してデータベースから基準画像をダウンロードする処理を説明するための図である。FIG. 6 is a diagram for explaining a process in which a terminal device downloads a reference image from a database via a network.

以下、本発明の実施形態を説明する。 Hereinafter, embodiments of the present invention will be described.

図1は、本発明の実施形態に係る携帯端末の構成図である。本発明の実施形態に係る携帯端末10は、光源部11と、カメラ部12と、表示部13と、制御部14を備える。制御部14は、対象物の照合領域を撮影する際に、前記光源部11と前記カメラ部12と照合領域の相対位置姿勢が所定関係を満たした状態で対象物の梨地模様が施された照合領域を撮影するための基準画像を、表示部13に表示されるスルー画像に重畳表示する。 FIG. 1 is a configuration diagram of a mobile terminal according to an embodiment of the present invention. The mobile terminal 10 according to the embodiment of the present invention includes a light source unit 11, a camera unit 12, a display unit 13, and a control unit 14. When the control unit 14 takes a picture of the collation area of the object, the control unit 14 performs the collation with the satin pattern of the object in a state where the relative positions and orientations of the light source unit 11 and the camera unit 12 and the collation area satisfy a predetermined relationship. The reference image for photographing the area is superimposed and displayed on the through image displayed on the display unit 13.

携帯端末10は、スマートフォン、携帯電話機、タブレット等の装置を含み、通常のカメラ機能を備える。光源部11は、LED(Light Emitting Diode)等であり、カメラ撮影時に点灯する。カメラ部12は、レンズ及び撮像素子や、カメラ部全体を制御するコントローラ等を含む。表示部13は、液晶ディスプレイ等を含む。制御部14は、携帯端末全体を制御する。 The mobile terminal 10 includes devices such as a smartphone, a mobile phone, and a tablet, and has a normal camera function. The light source unit 11 is an LED (Light Emitting Diode) or the like, and is turned on when the camera takes a picture. The camera unit 12 includes a lens, an image sensor, a controller that controls the entire camera unit, and the like. The display unit 13 includes a liquid crystal display and the like. The control unit 14 controls the entire mobile terminal.

スルー画像とは、携帯端末10が備えるカメラが撮影モードで動作している間、撮像素子の出力信号から生成された画像が液晶ディスプレイに表示されたものであり、プレビュー画像やライブビュー画像ともいう。 The through image is an image generated from the output signal of the image sensor displayed on the liquid crystal display while the camera included in the mobile terminal 10 is operating in the shooting mode, and is also called a preview image or a live view image. ..

カメラの視野角は、カメラの撮像素子の画素数や大きさ、レンズの焦点距離等で決まる。携帯端末の光源の位置、カメラの撮像素子の画素数や大きさ、レンズの焦点距離等は携帯端末の機種によって異なるため、撮影時の照明の配置やカメラの視野角も携帯端末の機種によって異なることとなる。本願発明では、照明の配置やカメラの視野角が異なる携帯端末間で同一の撮影条件(照射方向及び撮影画像サイズが同一)で対象物の照合領域を撮影したときの画像を、携帯端末の機種ごとに予め取得しておく。そして、制御部14は、予め取得された画像のうち、その携帯端末に対応する画像を取得し、撮影時に基準画像としてスルー画像に重畳表示する。ユーザは撮影画面上で撮影対象の照合領域と基準画像について、向きと位置と大きさが合うように操作することで、携帯端末の光源とカメラと照合領域の相対位置姿勢(図2のaとbの関係)が、基準画像が撮影されたときと同じ関係となる。これにより、カメラの照明の配置や視野角が異なる携帯端末間でも同一の撮影条件で対象物の照合領域を撮影することができる。 The viewing angle of the camera is determined by the number and size of pixels of the image sensor of the camera, the focal length of the lens, and the like. Since the position of the light source of the mobile terminal, the number and size of the image sensor of the camera, the focal length of the lens, etc. differ depending on the model of the mobile terminal, the arrangement of lighting at the time of shooting and the viewing angle of the camera also differ depending on the model of the mobile terminal. It will be. In the present invention, a model of a mobile terminal can be used to capture an image of a matching area of an object under the same shooting conditions (same irradiation direction and shot image size) between mobile terminals having different lighting arrangements and camera viewing angles. Obtain it in advance for each. Then, the control unit 14 acquires an image corresponding to the mobile terminal among the images acquired in advance, and superimposes and displays it on the through image as a reference image at the time of shooting. The user operates the collation area and the reference image to be photographed on the shooting screen so that the orientation, position, and size match, so that the relative position and orientation of the light source of the mobile terminal, the camera, and the collation area (a in FIG. 2). The relationship (b) is the same as when the reference image was taken. As a result, it is possible to shoot the collation area of the object under the same shooting conditions even between mobile terminals having different camera illumination arrangements and viewing angles.

前記異なる携帯端末間で同一の撮影条件で予め撮影された照合領域の画像は、それぞれ対応する携帯端末のメモリ等の記憶部に格納され、制御部14が撮影時に記憶部から読み出して用いるようにしてもよい。また、各種携帯端末にそれぞれ対応する画像が、対応する携帯端末の光源の位置、撮像素子の画素や大きさ、レンズの焦点距離等の情報(機種依存情報)と紐付けされたデータベースを携帯端末10の記憶部に格納し、制御部14が、そのデータベースから当該携帯端末10の機種依存情報に対応する画像を読み出して用いてもよい。 The images of the collation area previously shot between the different mobile terminals under the same shooting conditions are stored in a storage unit such as a memory of the corresponding mobile terminal, and the control unit 14 reads the images from the storage unit at the time of shooting and uses them. You may. In addition, the mobile terminal has a database in which images corresponding to various mobile terminals are linked with information (model-dependent information) such as the position of the light source of the corresponding mobile terminal, the pixel and size of the image sensor, and the focal length of the lens. It may be stored in the storage unit of the ten, and the control unit 14 may read the image corresponding to the model-dependent information of the mobile terminal 10 from the database and use it.

表示部13への基準画像の表示態様は任意であり、例えば、予め撮影した画像を透過表示してもよく、また、予め撮影した画像における照合領域に対応する部分の輪郭線を抽出して表示してもよい。基準画像が照合領域に対応する部分の輪郭線の場合であって、異なる機種の携帯端末での表示例を図3、図4に示す。図3に示すように、ある機種の携帯端末においては、基準画像は例えば横長で表示される。操作者は、対象物の照合領域が横長で表示された基準画像に合うように操作する。また、図4に示すように、他の機種の携帯端末においては、基準画像は例えば縦長で表示される。操作者は、対象物の照合領域が縦長で表示された基準画像に合うように操作する。 The display mode of the reference image on the display unit 13 is arbitrary. For example, a pre-captured image may be transparently displayed, or the contour line of a portion corresponding to the collation area in the pre-captured image is extracted and displayed. You may. FIG. 3 and FIG. 4 show examples in which the reference image is the contour line of the portion corresponding to the collation area and are displayed on mobile terminals of different models. As shown in FIG. 3, in a certain model of mobile terminal, the reference image is displayed in a horizontally long shape, for example. The operator operates so that the collation area of the object matches the reference image displayed in landscape orientation. Further, as shown in FIG. 4, in a mobile terminal of another model, the reference image is displayed in a vertically long shape, for example. The operator operates so that the collation area of the object matches the reference image displayed in portrait orientation.

対象物の照合領域は、梨地模様の領域であれば特に限定されないが、照合の容易さを考慮し、予め照合領域を定めておくことが望ましい。照合領域としては、物品に共通して存在する基準部位を基準として定められる位置の領域を照合領域とすることが考えられる。例えば、物品の基準部位とは、物品に貼付、印刷、刻印、焼印された製品の商標、ロゴ、製造者名、製造会社、ブランド名、製品名、製品番号等である。これらの基準部位は、同一物品であれば個体によらず同一のパターンを保有しており、外観上の特徴的な見え方をする。そして、これらの基準部位の位置姿勢を基準として定め、その特徴を記憶しておけば、物品の照合領域を自動的に検出することもできる。 The collation area of the object is not particularly limited as long as it is a satin pattern area, but it is desirable to determine the collation area in advance in consideration of the ease of collation. As the collation area, it is conceivable that the area at the position determined with reference to the reference part commonly existing in the article is used as the collation area. For example, the reference part of an article is a trademark, logo, manufacturer name, manufacturer, brand name, product name, product number, etc. of a product affixed, printed, stamped, or branded on the article. These reference parts have the same pattern regardless of the individual as long as they are the same article, and have a characteristic appearance in appearance. Then, if the position and orientation of these reference parts are set as a reference and the characteristics are stored, the collation area of the article can be automatically detected.

梨地模様は、例えば、デザインとして梨地模様が形成されている場合のみならず、物品の識別又は照合のために、故意に照合領域に梨地模様を形成した場合も含む。更に、梨地模様は、金属や合成樹脂(プラスチック等)等への加工処理によって施された梨地模様のみならず、皮革製品に表面処理(例えば、シボ加工)することにより得られたシワ模様(シボ)等も含む概念である。例えば、シボ加工が施された皮革のバックの場合、バックの皮の表面には微少な凹凸がランダムに形成されており、これらの微少な凹凸は梨地模様と同様とみなすことができる。 The satin pattern includes, for example, not only the case where the satin pattern is formed as a design, but also the case where the satin pattern is intentionally formed in the collation area for identification or collation of an article. Further, the satin pattern is not only a satin pattern applied by processing a metal or synthetic resin (plastic, etc.), but also a wrinkle pattern (wrinkle pattern) obtained by surface-treating a leather product (for example, embossing). ) Etc. are also included in the concept. For example, in the case of a leather bag that has been textured, minute irregularities are randomly formed on the surface of the leather of the bag, and these minute irregularities can be regarded as similar to a satin pattern.

次に本発明の実施形態の動作を図5を参照して説明する。
携帯端末10において照合領域撮影処理の実行を指示する操作がなされると、制御部14は、カメラ機能をオンにし、カメラ部12から出力されるスルー画像を液晶ディスプレイ(表示部13)に表示させる(S1)。
Next, the operation of the embodiment of the present invention will be described with reference to FIG.
When the mobile terminal 10 is instructed to execute the collation area shooting process, the control unit 14 turns on the camera function and displays the through image output from the camera unit 12 on the liquid crystal display (display unit 13). (S1).

また、制御部14は、当該携帯端末10に対応する基準画像をメモリから読み出し、液晶ディスプレイに表示されたスルー画像に重畳表示する(S2)。 Further, the control unit 14 reads out the reference image corresponding to the mobile terminal 10 from the memory and superimposes and displays it on the through image displayed on the liquid crystal display (S2).

操作者は、携帯端末10の撮影画面に表示されたスルー画像の照合領域と基準画像について、向きと位置と大きさが合うように調整してシャッターボタンを押下する(S3)。これに応じて、カメラ部12は、撮影処理を行い、撮影画像データをメモリに記憶する(S4)。 The operator adjusts the collation area of the through image displayed on the shooting screen of the mobile terminal 10 and the reference image so that the orientation, position, and size match, and presses the shutter button (S3). In response to this, the camera unit 12 performs a shooting process and stores the shot image data in the memory (S4).

以上説明したように、本実施形態によれば、照明の配置やカメラの視野角が異なる携帯端末間で同一の撮影条件で対象物の照合領域を撮影したときの画像を予め取得しておき、照合領域を撮影する際に基準画像としてスルー画像に重畳表示する。そして、撮影画面においてスルー画像の照合領域と基準画像を合わせるように操作して撮影することで、異なる携帯端末間でも同一の撮影条件で対象物の照合領域を容易に撮影することができる。 As described above, according to the present embodiment, an image when the collation area of the object is photographed under the same shooting conditions between mobile terminals having different lighting arrangements and viewing angles of the camera is acquired in advance. When the collation area is photographed, it is superimposed and displayed on the through image as a reference image. Then, by performing an operation so as to match the matching area of the through image with the reference image on the shooting screen, it is possible to easily shoot the matching area of the object under the same shooting conditions even between different mobile terminals.

なお、上記フローのS3において、制御部14がカメラ部12より出力されたスルー画像における照合領域を所定の基準位置に基づいて認識し、表示画面における座標等に基づいて、当該認識した照合領域と、基準画像の大きさが合うように自動でズーム制御するようにしてもよい。 In S3 of the above flow, the control unit 14 recognizes the collation area in the through image output from the camera unit 12 based on a predetermined reference position, and based on the coordinates on the display screen, the recognized collation area is used. , The zoom may be automatically controlled so that the size of the reference image matches.

また、スルー画像の照合領域と基準画像を完全に一致させるのは困難であるため、制御部14がカメラ部12より出力されたスルー画像における照合領域を所定の基準位置に基づいて認識し、表示画面における座標等に基づいて、スルー画像の照合領域が基準画像に十分近づいた時点でカメラ部12に撮影を指示してもよい。 Further, since it is difficult to completely match the matching area of the through image with the reference image, the control unit 14 recognizes and displays the matching area of the through image output from the camera unit 12 based on a predetermined reference position. The camera unit 12 may be instructed to take a picture when the collation area of the through image is sufficiently close to the reference image based on the coordinates on the screen.

また、図6に示すように、端末装置10の制御部14が、インターネット等のネットワークを介して各種基準画像が登録されているデータベースに接続し、当該携帯端末に対応する基準画像又はデータベースに登録されている全基準データをダウンロードして携帯端末10の記憶部に格納し、上述のように用いてもよい。 Further, as shown in FIG. 6, the control unit 14 of the terminal device 10 connects to a database in which various reference images are registered via a network such as the Internet, and registers the reference image or database corresponding to the mobile terminal. All the reference data described above may be downloaded, stored in the storage unit of the mobile terminal 10, and used as described above.

また、上記説明では基準画像と機種依存情報とを対応付けて登録しているが、これに限定されず、例えば、携帯端末の機種名、機種コード等のような機種識別情報と基準画像を対応付けて登録してもよい。 Further, in the above explanation, the reference image and the model-dependent information are registered in association with each other, but the present invention is not limited to this, and for example, the model identification information such as the model name and model code of the mobile terminal and the reference image are supported. You may attach and register.

以上好ましい実施の形態をあげて本発明を説明したが、本発明は必ずしも上記実施の形態に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することが出来る。 Although the present invention has been described above with reference to preferred embodiments, the present invention is not necessarily limited to the above embodiments, and can be variously modified and implemented within the scope of the technical idea.

上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。 Some or all of the above embodiments may also be described, but not limited to:

(付記1)
光源部と、
カメラ部と、
表示部と、
対象物の梨地模様が施された照合領域を撮影する際に、前記光源部と前記カメラ部と前記照合領域の相対位置姿勢が所定関係を満たした状態で前記照合領域を撮影するための基準画像を表示部に表示されるスルー画像に重畳表示する制御部と、
を備える携帯端末。
(Appendix 1)
Light source and
With the camera part
Display and
A reference image for photographing the collation area in a state where the relative positions and orientations of the light source unit, the camera unit, and the collation area satisfy a predetermined relationship when photographing the collation area in which the satin pattern of the object is applied. A control unit that superimposes and displays on the through image displayed on the display unit,
A mobile terminal equipped with.

(付記2)
前記基準画像は、前記光源部と前記カメラ部と前記照合領域の相対位置姿勢が所定関係を満たした状態で前記照合領域を予め撮影した画像から取得される
付記1に記載の携帯端末。
(Appendix 2)
The mobile terminal according to Appendix 1, wherein the reference image is obtained from an image obtained by preliminarily photographing the collation area in a state where the relative positions and orientations of the light source unit, the camera unit, and the collation area satisfy a predetermined relationship.

(付記3)
前記基準画像は、光源の位置とカメラの視野角の少なくとも一方が異なる携帯端末間で同一の撮影条件で対象物の照合領域を撮影した画像から取得される
付記1又は付記2に記載の携帯端末。
(Appendix 3)
The mobile terminal according to Appendix 1 or Appendix 2, wherein the reference image is obtained from an image obtained by photographing a matching area of an object under the same shooting conditions between mobile terminals having different positions of a light source and at least one of a viewing angle of a camera. ..

(付記4)
携帯端末に対応する前記基準画像を、複数種類の基準画像が記憶されたデータベースから取得する
付記1から付記3のいずれかに記載の携帯端末。
(Appendix 4)
The mobile terminal according to any one of Supplementary note 1 to Supplementary note 3, wherein the reference image corresponding to the mobile terminal is acquired from a database in which a plurality of types of reference images are stored.

(付記5)
前記データベースは、携帯端末毎の基準画像と、各基準画像を撮影した携帯端末の光源の位置及びカメラの視野角に関する情報とが対応付けて格納される
付記4に記載の携帯端末。
(Appendix 5)
The portable terminal according to Appendix 4, wherein the database stores a reference image for each mobile terminal and information on the position of the light source of the mobile terminal that captured each reference image and the viewing angle of the camera in association with each other.

(付記6)
前記データベースは、異なる機種の携帯端末間で同一の撮影条件で対象物の照合領域を撮影したときの基準画像が携帯端末の機種ごとに格納される
付記4に記載の携帯端末。
(Appendix 6)
The database is the mobile terminal according to Appendix 4, wherein a reference image when a collation area of an object is photographed between mobile terminals of different models under the same shooting conditions is stored for each model of the mobile terminal.

(付記7)
携帯端末における撮影方法であって、
対象物の梨地模様が施された照合領域を撮影する際に、携帯端末の光源部とカメラ部の相対位置姿勢と、前記カメラ部と対象物までの距離と、が所定関係を満たした状態で前記照合領域を撮影するための基準画像を、携帯端末の撮影画面に表示されるスルー画像に重畳表示する
撮影方法。
(Appendix 7)
This is a shooting method for mobile terminals.
When photographing the collation area with the satin pattern of the object, the relative position and orientation of the light source unit and the camera unit of the mobile terminal and the distance between the camera unit and the object satisfy a predetermined relationship. A shooting method in which a reference image for shooting the collation area is superimposed and displayed on a through image displayed on a shooting screen of a mobile terminal.

(付記8)
前記基準画像は、前記光源部と前記カメラ部と前記照合領域の相対位置姿勢が所定関係を満たした状態で前記照合領域を予め撮影した画像から取得される
付記7に記載の撮影方法。
(Appendix 8)
The imaging method according to Appendix 7, wherein the reference image is obtained from an image in which the collation region is captured in advance with the relative positions and orientations of the light source unit, the camera unit, and the collation region satisfying a predetermined relationship.

(付記9)
前記基準画像は、光源の位置とカメラの視野角の少なくとも一方が異なる携帯端末間で同一の撮影条件で対象物の照合領域を撮影した画像から取得される
付記7又は付記8に記載の撮影方法。
(Appendix 9)
The imaging method according to Appendix 7 or Appendix 8, wherein the reference image is obtained from an image obtained by photographing a collation area of an object under the same imaging conditions between mobile terminals having different positions of a light source and at least one of a viewing angle of a camera. ..

(付記10)
携帯端末に対応する前記基準画像を、複数種類の基準画像が記憶されたデータベースから取得する
付記7から付記9のいずれかに記載の撮影方法。
(Appendix 10)
The photographing method according to any one of Supplementary note 7 to Supplementary note 9, wherein the reference image corresponding to a mobile terminal is acquired from a database in which a plurality of types of reference images are stored.

(付記11)
前記データベースは、携帯端末毎の基準画像と、各基準画像を撮影した携帯端末の光源の位置及びカメラの視野角に関する情報とが対応付けて格納される
付記10に記載の撮影方法。
(Appendix 11)
The imaging method according to Appendix 10, wherein the database stores a reference image for each mobile terminal and information on the position of a light source of the mobile terminal that captured each reference image and the viewing angle of the camera in association with each other.

(付記12)
前記データベースは、異なる機種の携帯端末間で同一の撮影条件で対象物の照合領域を撮影したときの基準画像が携帯端末の機種ごとに格納される
付記10に記載の撮影方法。
(Appendix 12)
The imaging method according to Appendix 10, wherein a reference image when a collation area of an object is photographed between mobile terminals of different models under the same shooting conditions is stored for each model of the mobile terminal.

(付記13)
携帯端末に、
対象物の梨地模様が施された照合領域を撮影する際に、携帯端末の光源部とカメラ部と前記照合領域の相対位置姿勢が所定関係を満たした状態で前記照合領域を撮影するための基準画像を、携帯端末の撮影画面に表示されるスルー画像に重畳表示する処理
を実行させるプログラム。
(Appendix 13)
On mobile terminals
A reference for photographing the collation area in a state where the relative positions and orientations of the light source unit, the camera unit, and the collation area of the mobile terminal satisfy a predetermined relationship when photographing the collation area with the satin pattern of the object. A program that executes a process of superimposing an image on a through image displayed on the shooting screen of a mobile terminal.

(付記14)
前記基準画像は、前記光源部と前記カメラ部と前記照合領域の相対位置姿勢が所定関係を満たした状態で前記照合領域を予め撮影した画像から取得される
付記13に記載のプログラム。
(Appendix 14)
The program according to Appendix 13, wherein the reference image is obtained from an image obtained by preliminarily photographing the collation area in a state where the relative positions and orientations of the light source unit, the camera unit, and the collation area satisfy a predetermined relationship.

(付記15)
前記基準画像は、光源の位置とカメラの視野角の少なくとも一方が異なる携帯端末間で同一の撮影条件で対象物の照合領域を撮影した画像から取得される
付記13又は付記14に記載のプログラム。
(Appendix 15)
The program according to Appendix 13 or Appendix 14, wherein the reference image is obtained from an image obtained by photographing a collation area of an object under the same photographing conditions between mobile terminals having different positions of a light source and at least one of a viewing angle of a camera.

(付記16)
携帯端末に対応する前記基準画像を、複数種類の基準画像が記憶されたデータベースから取得する
付記13から付記15のいずれかに記載のプログラム。
(Appendix 16)
The program according to any one of Supplementary note 13 to Supplementary note 15, which acquires the reference image corresponding to a mobile terminal from a database in which a plurality of types of reference images are stored.

(付記17)
前記データベースは、携帯端末毎の基準画像と、各基準画像を撮影した携帯端末の光源の位置及びカメラの視野角に関する情報とが対応付けて格納される
付記16に記載のプログラム。
(Appendix 17)
The program according to Appendix 16 in which the database is stored in association with a reference image for each mobile terminal and information on the position of a light source of the mobile terminal that captured each reference image and the viewing angle of the camera.

(付記18)
前記データベースは、異なる機種の携帯端末間で同一の撮影条件で対象物の照合領域を撮影したときの基準画像が携帯端末の機種ごとに格納される
付記16に記載のプログラム。
(Appendix 18)
The program according to Appendix 16, wherein a reference image when a collation area of an object is photographed between mobile terminals of different models under the same shooting conditions is stored for each model of the mobile terminal.

10 携帯端末
11 光源部
12 カメラ部
13 表示部
14 制御部
10 Mobile terminal 11 Light source unit 12 Camera unit 13 Display unit 14 Control unit

Claims (9)

カメラ部と表示部とを備える携帯端末を用いる撮影システムであって、
物体の表面にランダムに形成された模様を含む画像を取得する取得部と、
前記カメラ部によって照合対象物を撮影する際に、前記取得部によって取得された画像の透過画像を、前記表示部に表示されるライブビュー画像に重畳表示する制御部と、
を備え、
前記模様は、特徴点の抽出に用いられる
撮影システム。
A shooting system that uses a mobile terminal equipped with a camera unit and a display unit.
An acquisition unit that acquires an image containing a pattern randomly formed on the surface of an object,
A control unit that superimposes and displays a transparent image of the image acquired by the acquisition unit on the live view image displayed on the display unit when the collation object is photographed by the camera unit.
With
The pattern is a photographing system used for extracting feature points.
前記取得部によって取得された画像は、前記物体に貼付、印刷、刻印又は焼印された、製品の商標、ロゴ、製造者名、製造会社、ブランド名、製品名及び製品番号の少なくとも1つをさらに含む
請求項1に記載の撮影システム。
The image acquired by the acquisition unit further includes at least one of the product trademark, logo, manufacturer name, manufacturer, brand name, product name and product number, which is affixed, printed, stamped or branded on the object. The photographing system according to claim 1, which includes.
前記製品の商標、ロゴ、製造者名、製造会社、ブランド名、製品名及び製品番号の少なくとも1つは、前記照合対象物の撮影時の位置合わせに用いられる
請求項2に記載の撮影システム。
The imaging system according to claim 2, wherein at least one of the trademark, logo, manufacturer name, manufacturing company, brand name, product name, and product number of the product is used for alignment at the time of photographing the collation object.
カメラ部と表示部とを備える携帯端末を用いる撮影方法であって、
対象物の表面にランダムに形成された模様を含む画像を取得し、
前記カメラ部によって照合対象物を撮影する際に、取得された前記画像の透過画像を、前記表示部に表示されるライブビュー画像に重畳表示し、
前記模様は、特徴点の抽出に用いられる
撮影方法。
It is a shooting method using a mobile terminal having a camera unit and a display unit.
Acquire an image containing randomly formed patterns on the surface of the object,
When the collation target is photographed by the camera unit, the acquired transparent image of the image is superimposed and displayed on the live view image displayed on the display unit.
The pattern is a photographing method used for extracting feature points.
取得された前記画像は、前記物体に貼付、印刷、刻印又は焼印された、製品の商標、ロゴ、製造者名、製造会社、ブランド名、製品名及び製品番号の少なくとも1つをさらに含む
請求項4に記載の撮影方法。
The acquired image further comprises at least one of a product trademark, logo, manufacturer name, manufacturer, brand name, product name and product number affixed, printed, stamped or branded on the object. The shooting method according to 4.
前記製品の商標、ロゴ、製造者名、製造会社、ブランド名、製品名及び製品番号の少なくとも1つは、前記照合対象物の撮影時の位置合わせに用いられる
請求項5に記載の撮影方法。
The photographing method according to claim 5, wherein at least one of the trademark, logo, manufacturer name, manufacturing company, brand name, product name and product number of the product is used for alignment at the time of photographing the collation object.
カメラ部と表示部とを備える携帯端末に、
対象物の表面にランダムに形成された模様を含む画像を取得する取得処理と、
前記カメラ部によって照合対象物を撮影する際に、前記取得処理によって取得された画像の透過画像を、前記表示部に表示されるライブビュー画像に重畳表示する制御処理と、
を実行させ、
前記模様は、特徴点の抽出に用いられる
プログラム。
For mobile terminals equipped with a camera unit and a display unit
Acquisition process to acquire an image including a pattern randomly formed on the surface of an object,
A control process for superimposing and displaying a transparent image of an image acquired by the acquisition process on a live view image displayed on the display unit when a collation object is photographed by the camera unit.
To execute,
The pattern is a program used to extract feature points.
前記取得処理によって取得された画像は、前記物体に貼付、印刷、刻印又は焼印された、製品の商標、ロゴ、製造者名、製造会社、ブランド名、製品名及び製品番号の少なくとも1つをさらに含む
請求項7に記載のプログラム。
The image acquired by the acquisition process further includes at least one of the product trademark, logo, manufacturer name, manufacturer, brand name, product name and product number, which is affixed, printed, stamped or branded on the object. The program according to claim 7, which includes.
前記製品の商標、ロゴ、製造者名、製造会社、ブランド名、製品名及び製品番号の少なくとも1つは、前記照合対象物の撮影時の位置合わせに用いられる
請求項8に記載のプログラム。
The program according to claim 8, wherein at least one of the trademark, logo, manufacturer name, manufacturing company, brand name, product name and product number of the product is used for alignment of the collated object at the time of photographing.
JP2020203193A 2020-12-08 2020-12-08 Imaging system, method for imaging, and program Pending JP2021047448A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020203193A JP2021047448A (en) 2020-12-08 2020-12-08 Imaging system, method for imaging, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020203193A JP2021047448A (en) 2020-12-08 2020-12-08 Imaging system, method for imaging, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019097404A Division JP2019191589A (en) 2019-05-24 2019-05-24 Photographing system, photographing method and program

Publications (1)

Publication Number Publication Date
JP2021047448A true JP2021047448A (en) 2021-03-25

Family

ID=74876334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020203193A Pending JP2021047448A (en) 2020-12-08 2020-12-08 Imaging system, method for imaging, and program

Country Status (1)

Country Link
JP (1) JP2021047448A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023283081A1 (en) * 2021-07-06 2023-01-12 Motorola Solutions, Inc. Video camera with alignment feature
EP4156119A1 (en) 2021-09-24 2023-03-29 FUJIFILM Business Innovation Corp. Collation device, program, and collation method
DE112022000749T5 (en) 2021-03-22 2023-11-23 Isuzu Motors Limited Temperature adjustment mechanism

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005057736A (en) * 2003-07-18 2005-03-03 Casio Comput Co Ltd Image difference discrimination method, image pickup device attitude control method, image pickup device, and program
WO2013018614A1 (en) * 2011-07-29 2013-02-07 日本電気株式会社 Comparison/search system, comparison/search server, image characteristic extraction device, comparison/search method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005057736A (en) * 2003-07-18 2005-03-03 Casio Comput Co Ltd Image difference discrimination method, image pickup device attitude control method, image pickup device, and program
WO2013018614A1 (en) * 2011-07-29 2013-02-07 日本電気株式会社 Comparison/search system, comparison/search server, image characteristic extraction device, comparison/search method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112022000749T5 (en) 2021-03-22 2023-11-23 Isuzu Motors Limited Temperature adjustment mechanism
WO2023283081A1 (en) * 2021-07-06 2023-01-12 Motorola Solutions, Inc. Video camera with alignment feature
EP4156119A1 (en) 2021-09-24 2023-03-29 FUJIFILM Business Innovation Corp. Collation device, program, and collation method
US11825190B2 (en) 2021-09-24 2023-11-21 Fujifilm Business Innovation Corp. Collation device

Similar Documents

Publication Publication Date Title
JP2021047448A (en) Imaging system, method for imaging, and program
US7349020B2 (en) System and method for displaying an image composition template
JP3892407B2 (en) Imaging device
US9667764B1 (en) Camera-based accessory classification
CN105488782B (en) Gloss determination device and gloss determination method
JPWO2004072899A1 (en) Impersonation detection device and impersonation detection method
CN101399914B (en) Image capture device and image capture method
US10346682B2 (en) Method of authenticating documents by means of a mobile telecommunications terminal
JP2003016434A (en) Individual authenticating device
JP2015027052A (en) Imaging apparatus, imaging method, and program
JP2014106794A (en) Face authentication device, authentication method and program thereof, and information apparatus
JP2019113972A (en) Contour detection device, drawing device, contour detection method and contour detection program
WO2019084385A1 (en) Tire code reader
JP6206645B2 (en) Portable terminal, photographing method and program
CN105723285B (en) Holographic equipment, the method and system that alignment is realized using holographic
JP5880135B2 (en) Detection apparatus, detection method, and program
JP2019191589A (en) Photographing system, photographing method and program
JP2017229093A (en) Portable terminal, imaging method and program
JP6833584B2 (en) Lens meter
TWI577979B (en) Method and system for correcting light channels
JP2009076020A (en) Iris recognition device
US20210192205A1 (en) Binding of selfie face image to iris images for biometric identity enrollment
WO2018185744A1 (en) A system and method for capturing an iris of a subject
JP6441763B2 (en) Display device, display control method, and program therefor
WO2022070401A1 (en) Information processing device, information processing method, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211223

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220511

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20220712