JP6814775B2 - Collection device, collection method and collection program - Google Patents
Collection device, collection method and collection program Download PDFInfo
- Publication number
- JP6814775B2 JP6814775B2 JP2018188870A JP2018188870A JP6814775B2 JP 6814775 B2 JP6814775 B2 JP 6814775B2 JP 2018188870 A JP2018188870 A JP 2018188870A JP 2018188870 A JP2018188870 A JP 2018188870A JP 6814775 B2 JP6814775 B2 JP 6814775B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- captured
- collecting device
- captured image
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 9
- 239000003550 marker Substances 0.000 claims description 23
- 238000003384 imaging method Methods 0.000 claims description 20
- 238000000605 extraction Methods 0.000 claims description 17
- 239000000284 extract Substances 0.000 claims description 13
- 239000007787 solid Substances 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 12
- 238000009966 trimming Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、収集装置、収集方法及び収集プログラムに関する。 The present invention relates to a collection device, a collection method and a collection program.
画像認識のための機械学習を行う場合、認識対象のオブジェクトが画角いっぱいに映った画像が用いられる。このような画像を収集するためには、認識対象のオブジェクトを様々な角度から撮影し、さらにそれぞれの画像に対しトリミング加工を行う必要がある。 When performing machine learning for image recognition, an image in which the object to be recognized is reflected at the full angle of view is used. In order to collect such images, it is necessary to photograph the object to be recognized from various angles and further perform trimming processing on each image.
また、AR(Augmented Reality)技術によれば、撮像した画像の傾きや、画像に映っているオブジェクトの位置を把握することができる(例えば、特許文献1又は特許文献2を参照)。 Further, according to the AR (Augmented Reality) technology, it is possible to grasp the inclination of the captured image and the position of the object reflected in the image (see, for example, Patent Document 1 or Patent Document 2).
しかしながら、従来の技術には、特定のオブジェクトの画像を効率的に収集することが困難な場合があるという問題がある。例えば、画像のトリミングは手動で行われるため、必要な画像の数が多くなると、膨大な時間がかかるようになる。 However, the conventional technique has a problem that it may be difficult to efficiently collect an image of a specific object. For example, image cropping is done manually, which can take a huge amount of time as the number of images required increases.
実施形態の収集装置は、撮像部と、特定部と、取得部とを有する。撮像部は、画像を撮像する。特定部は、撮像部によって撮像された画像である撮像画像内のマーカを基に、撮像部の位置及び姿勢を特定する。取得部は、撮像画像と、特定部によって特定された位置及び姿勢を示すパラメータと、を対応付けて取得する。 The collecting device of the embodiment includes an imaging unit, a specific unit, and an acquisition unit. The image pickup unit captures an image. The specific unit identifies the position and orientation of the imaging unit based on the markers in the captured image, which is the image captured by the imaging unit. The acquisition unit acquires the captured image in association with the parameters indicating the position and posture specified by the specific unit.
以下に、本願に係る収集装置、収集方法及び収集プログラムの実施形態を図面に基づいて詳細に説明する。なお、本発明は、以下に説明する実施形態により限定されるものではない。 Hereinafter, embodiments of the collection device, collection method, and collection program according to the present application will be described in detail with reference to the drawings. The present invention is not limited to the embodiments described below.
(第1の実施形態)
まず、図1を用いて、第1の実施形態に係る収集装置の利用シーンを説明する。図1は、第1の実施形態に係る収集装置の利用シーンを説明するための図である。収集装置10は画像を撮像する撮像機能を有しているものとする。収集装置10は、例えば、カメラ付きのスマートフォンである。
(First Embodiment)
First, the usage scene of the collecting device according to the first embodiment will be described with reference to FIG. FIG. 1 is a diagram for explaining a usage scene of the collecting device according to the first embodiment. It is assumed that the
図1に示すように、ユーザは、収集装置10を用いて、撮像対象のオブジェクト20の撮像を行う。また、オブジェクト20の付近には、マーカ30が備えられている。マーカ30は、収集装置10がARを実行するためのマーカである。例えば、マーカ30は、QR(Quick Response)コード(登録商標)である。また、収集装置10は、マーカレスARを実行してもよい。
As shown in FIG. 1, the user uses the
収集装置10は、撮像した画像と、画像の内部パラメータと、ARを実行することで得られる外部パラメータとを対応付けたデータを収集する。例えば、内部パラメータは、焦点距離、画像中心、解像度、歪み係数等である。また、外部パラメータは、ARを実行することによって特定されるカメラの位置及び姿勢である。そのほかにも、収集装置10は、撮像日時、場所、絞り、露光時間、センサの感度といったメタデータをパラメータとして取得してもよい。
The
また、収集装置10は、撮像した画像を加工した画像を収集してもよい。例えば、収集装置10は、撮像した画像をトリミングした画像を収集する。このとき、収集装置10は、外部パラメータを基にトリミングを行うことができる。
Further, the
このように、収集装置10は、画像を、内部パラメータ及び外部パラメータとともに収集する。これにより、内部パラメータ又は外部パラメータを用いてトリミング等の加工を行うことで、収集した画像から対象オブジェクトが映った領域を抽出することができる。このため、収集装置10によれば、特定のオブジェクトの画像を効率的に収集することができる。
In this way, the
(第1の実施形態の収集装置の構成)
図2を用いて、収集装置10の構成について説明する。図2は、第1の実施形態に係る収集装置の構成の一例を示す図である。図2に示すように、収集装置10は、カメラ11、記憶部12及び制御部13を有する。カメラ11は、撮像部の一例である。
(Structure of the collecting device of the first embodiment)
The configuration of the
記憶部12は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)等の記憶装置である。記憶部12は、収集装置10で実行されるOS(Operating System)やプログラムを記憶する。さらに、記憶部12は、プログラムの実行で用いられる各種情報を記憶する。また、記憶部12は、AR情報121及び収集データ122を記憶する。
The storage unit 12 is a storage device for HDD (Hard Disk Drive), SSD (Solid State Drive), optical disk, RAM (Random Access Memory), flash memory, NVSRAM (Non Volatile Static Random Access Memory), and the like. The storage unit 12 stores an OS (Operating System) and a program executed by the
AR情報121は、ARを実行するための情報である。AR情報121には、マーカ30の画像が含まれる。また、AR情報121には、撮像対象のオブジェクトを配置する位置である撮像空間の、マーカ30に対する相対的な位置を示す情報が含まれる。例えば、撮像空間は、マーカ30に対する所定の位置に仮想的に配置された球等の立体の内部空間である。なお、マーカ30は、撮像空間が撮像対象のオブジェクトを内包するように設置されているものとする。
The
収集データ122は、収集装置10によって収集されたデータである。図3は、第1の実施形態に係る収集データについて説明するための図である。図3に示すように、収集データ122には、撮像画像122a及びパラメータ122bが含まれる。撮像画像122aは、カメラ11によって撮像された画像である。また、パラメータ122bには、日時、緯度経度、外部パラメータ及び内部パラメータが含まれる。図3の例における日時及び緯度経度は、それぞれ「2018/8/28 11:58:00」及び「35°N139°E」である。
The collected
図3に示すように、外部パラメータには、位置及び角度が含まれる。位置は、撮像時のカメラ11の位置を示す座標である。また、角度は、撮像時のカメラ11のx軸、y軸、z軸に対する回転角度である。図3の例における外部パラメータは、撮像画像122aを撮像した際のカメラ11の位置が(1.5,2,2)であり、x軸、y軸、z軸に対する回転角度が(0°,30°,30°)であったことを示している。
As shown in FIG. 3, the external parameters include position and angle. The position is a coordinate indicating the position of the camera 11 at the time of imaging. The angle is the rotation angle of the camera 11 with respect to the x-axis, y-axis, and z-axis at the time of imaging. The external parameters in the example of FIG. 3 are that the position of the camera 11 when the captured
図3に示すように、内部パラメータには、焦点距離、解像度、画像中心及び歪み係数が含まれる。図3の例における内部パラメータは、撮像画像122aが、焦点距離50mmで撮像されたことを示している。また内部パラメータは、撮像画像122aの解像度が1920×1080であり、画像中心が(950,550)であり、歪み係数が0.01であることを示している。
As shown in FIG. 3, the internal parameters include focal length, resolution, image center and distortion factor. The internal parameters in the example of FIG. 3 indicate that the captured
制御部13は、収集装置10を制御する。制御部13は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等である。例えば、制御部13は、特定部131、取得部132及び抽出部133として機能する。
The
特定部131は、カメラ11によって撮像された画像内のマーカ30を基に、カメラ11の位置及び姿勢を特定する。特定部131は、既知のAR技術を用いて位置及び姿勢を特定することができる。また、特定部131は、特定した位置及び姿勢を表す外部パラメータ行列を計算することができる。
The
取得部132は、カメラ11によって撮像された画像と、特定部131によって特定された位置及び姿勢を示すパラメータと、を対応付けて取得する。例えば、取得部132は、撮像画像122a、パラメータ122bを取得し、収集データ122として記憶部12に格納する。
The
抽出部133は、パラメータを基に、カメラ11によって撮像された画像から、マーカ30に対してあらかじめ定められた位置にある所定の領域の画像を抽出する。ここでいう所定の領域は、例えば、前述のAR情報121に含まれる撮像空間である。
The extraction unit 133 extracts an image of a predetermined region at a position predetermined with respect to the
さらに、撮像空間は、仮想的な立体の内部空間とみなせる。このため、撮像空間を内包する仮想的な立体をフレームに収めた正投影画像には、撮像対象のオブジェクトが映っていることになる。そこで、抽出部133は、マーカ30に対してあらかじめ定められた位置に仮想的に配置された立体が中心になるような正投影図を抽出する。なお、抽出部133は、撮像対象のオブジェクトの大きさ及び形状に応じて、抽出する領域の立体の大きさ及び形状を変化させてもよい。また、抽出部133は、抽出した正投影図を収集データ122として記憶部12に格納する。
Further, the imaging space can be regarded as a virtual three-dimensional internal space. Therefore, the object to be imaged is reflected in the orthographic image in which the virtual solid including the imaging space is contained in the frame. Therefore, the extraction unit 133 extracts an orthographic projection in which a solid virtually arranged at a predetermined position with respect to the
図4を用いて、撮像空間を球の内部空間とした場合の抽出部133の処理の例について説明する。図4は、第1の実施形態に係る仮想カメラについて説明するための図である。図4に示すように、仮想球30aは、マーカ30に対してあらかじめ定められた位置に仮想的に配置されている。また、仮想球30aはオブジェクト20を内包している。
An example of processing of the extraction unit 133 when the imaging space is the internal space of the sphere will be described with reference to FIG. FIG. 4 is a diagram for explaining the virtual camera according to the first embodiment. As shown in FIG. 4, the
仮想カメラ11aは、仮想球30aが中心になるような正投影図を撮像する仮想的な正投影(Orthographic)カメラである。抽出部133は、仮想カメラ11aによって撮像された画像を抽出する。つまり、抽出部133は、カメラ11の位置及び姿勢が仮想カメラ11aの位置及び姿勢と同じであったと仮定した場合に、カメラ11が撮像したと考えられる撮像画像を抽出する。
The
なお、正投影図に対象のオブジェクトを最も大きく映すことができるのは、仮想球30aがオブジェクト20に外接している場合である。また、オブジェクト20の立体的な形状を事前に特定できている場合は、仮想球30aを形状に合わせて変形させてもよい。例えば、仮想球30aは、オブジェクト20に外接し、オブジェクト20との接点がなるべく多くなるような多面体に置き換えられる。
The object can be projected in the orthographic projection in the largest size when the
図5は、第1の実施形態に係る正投影図について説明するための図である。図5に示すように、抽出部133は、撮像画像201aから正投影図201bを抽出する。また、抽出部133は、撮像画像202aから正投影図202bを抽出する。また、抽出部133は、撮像画像203aから正投影図203bを抽出する。
FIG. 5 is a diagram for explaining an orthographic projection according to the first embodiment. As shown in FIG. 5, the extraction unit 133 extracts the
図5の例では、撮像画像201a、撮像画像202a、撮像画像203aに映ったオブジェクト20の大きさはそれぞれ異なる。これに対し、正投影図201b、正投影図202b、正投影図203bに映ったオブジェクト20の大きさは同一である。一方で、正投影図201b、正投影図202b、正投影図203bに映ったオブジェクト20の角度はそれぞれ異なっている。このため、収集装置10は、異なる角度から撮像したオブジェクト20の画像を、大きさを揃えたうえで収集することができる。
In the example of FIG. 5, the sizes of the
また、収集装置10は、図6に示すように、少しずつ角度を変えたオブジェクト20の画像を収集することができる。図6は、第1の実施形態に係る収集画像の一例を示す図である。
Further, as shown in FIG. 6, the collecting
収集画像が多様な角度から撮像されているほど、より有効な学習データになることが考えられる。逆に、同じ角度から撮像した多数の画像があったとしても、画像の数に対する学習データとしての有効性は低いと考えられる。 It is conceivable that the more the collected images are captured from various angles, the more effective the learning data will be. On the contrary, even if there are many images taken from the same angle, it is considered that the effectiveness as learning data for the number of images is low.
そこで、収集装置10は、なるべく多くの異なる角度から撮像が行われるように、音声や画面表示により、収集装置10を持ったユーザを所定の位置に誘導するようにしてもよい。
Therefore, the collecting
ここで、例えば、図4のように、オブジェクト20の周囲の空間を、仮想球30aの中心を原点とする互いに垂直な3軸を用いた空間座標を(x,y,z)のように表すとする。このとき、収集装置10は、収集画像の中から、x=0、y=0、z=0の平面で分割された8個の空間それぞれからの正投影図の数をカウントする。そして、収集装置10は、カウントした正投影図の数が所定値以下である空間からの正投影図が抽出可能な撮像画像が得られる位置にユーザを誘導する。
Here, for example, as shown in FIG. 4, the space around the
例えば、収集画像が、図1のオブジェクト20からユーザの方向(z軸のマイナス方向)を見て右側から見た画像に偏っている場合、収集装置10は、左側にユーザを誘導する。
For example, when the collected image is biased toward the image viewed from the right side when the user's direction (minus direction of the z-axis) is viewed from the
また、収集データ122を用いることで、オブジェクト20をマーカとするARを容易に行うことができるようになる。例えば、ARを実行する際に撮像されたAR用の画像内に収集画像のいずれかが映っている場合、収集画像及び収集したパラメータから、オブジェクト20の正面の位置を基準としたときの、当該AR用の画像を撮像しているカメラの位置及び姿勢を特定することができる。
Further, by using the collected
(第1の実施形態の処理)
図7を用いて、収集装置10の処理について説明する。図7は、第1の実施形態に係る収集装置の処理の流れを示すフローチャートである。まず、収集装置10は、オブジェクト20の画像を撮像する(ステップS101)。このとき、マーカ30がオブジェクト20の付近の所定の位置に備えられているものとする。
(Processing of the first embodiment)
The processing of the collecting
次に、収集装置10は、撮像した画像内のマーカ30を基に、カメラ11の位置と姿勢を特定する(ステップS102)。ここで、収集装置10は、撮像した画像及びパラメータを取得する(ステップS103)。パラメータは、外部パラメータ及び内部パラメータを含む。
Next, the collecting
さらに、収集装置10は、撮像した画像から、オブジェクト20が映った領域の画像を抽出する(ステップS104)。例えば、収集装置10は、前述の仮想カメラ11aを用いた手法により正投影図を抽出する。収集装置10は、抽出した画像及びパラメータを記憶部12に格納する(ステップS105)。
Further, the collecting
ここで、ユーザの操作等により撮像が終了した場合(ステップS106、Yes)、収集装置10は処理を終了する。また、引き続き撮像が行われる場合(ステップS106、No)、収集装置10はステップS101に戻り、処理を繰り返す。
Here, when the imaging is completed by the user's operation or the like (step S106, Yes), the collecting
(第1の実施形態の効果)
これまで説明してきたように、収集装置10はカメラ11を用いて画像を撮像する。また、収集装置10は、撮像した画像である撮像画像内のマーカ30を基に、カメラ11の位置及び姿勢を特定する。また、収集装置10は、撮像画像と、特定した位置及び姿勢を示すパラメータと、を対応付けて取得する。このため、本実施形態によれば、特定のオブジェクトの画像を効率的に収集することができる。例えば、本実施形態によれば、従来手動で行われていた画像のトリミングを自動で行うことができる。また、画像とともに収集されたパラメータは、機械学習の教師データに含めることができるため、収集したデータの活用の幅を広げることができる。
(Effect of the first embodiment)
As described above, the collecting
また、収集装置10は、パラメータを基に、撮像画像から、マーカ30に対してあらかじめ定められた位置にある所定の領域の画像を抽出する。これにより、ARを用いて撮像対象オブジェクトの位置を特定することができるようになる。
Further, the collecting
また、収集装置10は、マーカ30に対してあらかじめ定められた位置に仮想的に配置された立体が中心になるような正投影図を抽出する。これにより、抽出する画像にオブジェクトを大きく映すことができるようになる。
Further, the collecting
なお、本実施形態の収集装置10で実行されるプログラムは、ROM等にあらかじめ組み込まれて提供される。本実施形態の収集装置10で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。
The program executed by the collecting
さらに、本実施形態の収集装置10で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態の収集装置10で実行されるプログラムをインターネット等のネットワーク経由で提供又は配布するように構成してもよい。
Further, the program executed by the collecting
本実施形態の収集装置10で実行されるプログラムは、上述した各部(特定部131、取得部132及び抽出部133)を含むモジュール構成となっており、実際のハードウェアとしてはCPUが上記ROMからプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、特定部131、取得部132及び抽出部133が主記憶装置上に生成されるようになっている。
The program executed by the
本発明の実施形態を説明したが、実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although embodiments of the present invention have been described, the embodiments are presented as examples and are not intended to limit the scope of the invention. The embodiment can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the gist of the invention. The embodiments and variations thereof are included in the scope of the invention described in the claims and the equivalent scope thereof, as are included in the scope and gist of the invention.
10 収集装置
11 カメラ
12 記憶部
13 制御部
20 オブジェクト
30 マーカ
121 AR情報
122 収集データ
131 特定部
132 取得部
133 抽出部
10 Collecting device 11 Camera 12
Claims (5)
前記撮像部によって撮像された画像である撮像画像内のマーカを基に、前記撮像部の位置及び姿勢を特定する特定部と、
前記撮像画像と、前記特定部によって特定された位置及び姿勢を示すパラメータと、を対応付けて取得する取得部と、
を有することを特徴とする収集装置。 An imaging unit that captures images and
Based on the markers in the captured image, which is the image captured by the imaging unit, the specific unit that specifies the position and orientation of the imaging unit, and the specific unit.
An acquisition unit that acquires the captured image in association with a parameter indicating a position and a posture specified by the specific unit.
A collecting device characterized by having.
カメラによって撮像された画像である撮像画像内のマーカを基に、前記撮像画像を撮像した時の前記カメラの位置及び姿勢を特定する特定工程と、
前記撮像画像と、前記特定工程によって特定された位置及び姿勢を示すパラメータと、を対応付けて取得する取得工程と、
を含むことを特徴とする収集方法。 A collection method performed by a computer
A specific step of specifying the position and orientation of the camera when the captured image is captured based on a marker in the captured image, which is an image captured by the camera, and
An acquisition step of associating the captured image with a parameter indicating a position and a posture specified by the specific step and acquiring the image.
A collection method characterized by including.
カメラによって撮像された画像である撮像画像内のマーカを基に、前記撮像画像を撮像した時の前記カメラの位置及び姿勢を特定する特定手段と、
前記撮像画像と、前記特定手段によって特定された位置及び姿勢を示すパラメータと、を対応付けて取得する取得手段と、
として機能させることを特徴とする収集プログラム。 Computer,
A specific means for identifying the position and orientation of the camera when the captured image is captured, based on a marker in the captured image, which is an image captured by the camera, and
An acquisition means for acquiring the captured image in association with a parameter indicating a position and a posture specified by the specific means.
A collection program characterized by functioning as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018188870A JP6814775B2 (en) | 2018-10-04 | 2018-10-04 | Collection device, collection method and collection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018188870A JP6814775B2 (en) | 2018-10-04 | 2018-10-04 | Collection device, collection method and collection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020057299A JP2020057299A (en) | 2020-04-09 |
JP6814775B2 true JP6814775B2 (en) | 2021-01-20 |
Family
ID=70107381
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018188870A Active JP6814775B2 (en) | 2018-10-04 | 2018-10-04 | Collection device, collection method and collection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6814775B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4896823B2 (en) * | 2007-06-01 | 2012-03-14 | 独立行政法人日本原子力研究開発機構 | Field work support system |
JP6822482B2 (en) * | 2016-10-31 | 2021-01-27 | 日本電気株式会社 | Line-of-sight estimation device, line-of-sight estimation method, and program recording medium |
JP7071054B2 (en) * | 2017-01-20 | 2022-05-18 | キヤノン株式会社 | Information processing equipment, information processing methods and programs |
-
2018
- 2018-10-04 JP JP2018188870A patent/JP6814775B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020057299A (en) | 2020-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6803899B2 (en) | Image processing methods, image processing equipment and electronic devices | |
EP1984892B1 (en) | Foreground/background segmentation in digital images | |
JP4508257B2 (en) | Composition determination apparatus, composition determination method, and program | |
JP4556813B2 (en) | Image processing apparatus and program | |
JP6320075B2 (en) | Image processing apparatus and control method thereof | |
CN109416744A (en) | Improved camera calibration system, target and process | |
CN109479082B (en) | Image processing method and apparatus | |
JP6942940B2 (en) | Image processing equipment, image processing methods and programs | |
EP3627822B1 (en) | Focus region display method and apparatus, and terminal device | |
JP2017168882A5 (en) | ||
CN111815781A (en) | Augmented reality data presentation method, apparatus, device and computer storage medium | |
JP2016212784A (en) | Image processing apparatus and image processing method | |
JP2016019249A (en) | Display control device | |
JP5857712B2 (en) | Stereo image generation apparatus, stereo image generation method, and computer program for stereo image generation | |
JP2019201397A (en) | Imaging apparatus and program | |
JP6814775B2 (en) | Collection device, collection method and collection program | |
JP6409769B2 (en) | 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program | |
JP6677980B2 (en) | Panorama video data processing device, processing method and processing program | |
JP2023034160A5 (en) | ||
JP5336798B2 (en) | Image processing apparatus, image processing method, and program | |
JP4461001B2 (en) | Information terminal | |
US10379318B2 (en) | Image-capturing device, proposal-image generating device, proposal-image generating method, proposal-image generating program, and storage medium | |
JP2010074312A (en) | Image processing apparatus and method, and program | |
JP2017010555A (en) | Image processing method and image processing apparatus | |
KR20230135521A (en) | Improved masking of objects in an image stream |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201215 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201221 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6814775 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |