JP7172066B2 - Information processing device and program - Google Patents
Information processing device and program Download PDFInfo
- Publication number
- JP7172066B2 JP7172066B2 JP2018042418A JP2018042418A JP7172066B2 JP 7172066 B2 JP7172066 B2 JP 7172066B2 JP 2018042418 A JP2018042418 A JP 2018042418A JP 2018042418 A JP2018042418 A JP 2018042418A JP 7172066 B2 JP7172066 B2 JP 7172066B2
- Authority
- JP
- Japan
- Prior art keywords
- information processing
- processing apparatus
- depth
- image
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Processing (AREA)
Description
本発明は、情報処理装置及びプログラムに関する。 The present invention relates to an information processing apparatus and program.
現在、撮影された画像に含まれる物体の像を画像解析により認識する技術が研究されている。例えば距離の情報を含むカラー画像の一部分が前景又は背景としてユーザが指定した場合に、指定されていない方の領域を画像の解析によって認識する技術がある。 Techniques for recognizing an image of an object included in a captured image by image analysis are currently being researched. For example, when a user designates a part of a color image containing distance information as the foreground or background, there is a technique for recognizing the area that is not designated by analyzing the image.
しかし、ユーザが画像毎に領域を指定する手法は、処理の対象とする画像の数が多い場合や実時間での処理が必要になる場合への応用が難しい。 However, it is difficult to apply the method in which the user designates an area for each image when there are many images to be processed or when real-time processing is required.
本発明は、手作業による領域の指定を前提とすることなく処理の対象とする領域の特定を可能にする。 The present invention makes it possible to specify an area to be processed without assuming manual specification of the area.
請求項1に記載の発明は、撮像された画像を構成する各画素に対応する深度の分布が集中して出現する範囲を抽出する抽出手段と、抽出された前記範囲に属する画素の少なくとも一部を、処理の対象とする領域を特定するための起点として設定する設定手段とを有する情報処理装置である。
請求項2に記載の発明は、前記抽出手段は、予め定めた条件を満たす深度の分布を前記範囲として抽出する、請求項1に記載の情報処理装置である。
請求項3に記載の発明は、前記条件は、分布の形状が予め定めた関数の形状に類似することである、請求項2に記載の情報処理装置である。
請求項4に記載の発明は、前記関数は、単峰性の関数である、請求項3に記載の情報処理装置である。
請求項5に記載の発明は、前記条件は、予め定めた閾値を超える度数が出現することである、請求項2に記載の情報処理装置である。
請求項6に記載の発明は、前記設定手段は、抽出された前記範囲の中でも画素の出現が集中する深度の画素を前記起点に設定する、請求項1に記載の情報処理装置である。
請求項7に記載の発明は、前記少なくとも一部の画素は、前記範囲の中で出現する画素の数が極大となる深度に対応する、請求項6に記載の情報処理装置である。
請求項8に記載の発明は、前記少なくとも一部の画素は、前記範囲の中央値に対して標準偏差の定数倍の範囲に含まれる深度に対応する、請求項6に記載の情報処理装置である。
請求項9に記載の発明は、前記画像は、深度の分布が対応付けられた画素を有する、請求項1に記載の情報処理装置である。
請求項10に記載の発明は、各画素に対応する深度の分布は、複数の撮像手段の視差として与えられる、請求項9に記載の情報処理装置である。
請求項11に記載の発明は、各画素に対応する深度の分布は、前記画像を撮像する際の測定値として与えられる、請求項9に記載の情報処理装置である。
請求項12に記載の発明は、前記起点に設定された前記画素の値を使用して、前記画像を複数の領域に分割する、請求項1に記載の情報処理装置である。
請求項13に記載の発明は、処理の対象とする前記領域は、予め定めた規則に基づいて選択的に特定される、請求項1に記載の情報処理装置である。
請求項14に記載の発明は、予め定めた規則に従って、前記起点を通じて特定された領域の一部を処理の対象として選択する、請求項13に記載の情報処理装置である。
請求項15に記載の発明は、予め定めた前記規則は、前記画像の中央に近い領域を優先することである、請求項14に記載の情報処理装置である。
請求項16に記載の発明は、予め定めた前記規則は、ユーザの視線が集中する領域を優先することである、請求項14に記載の情報処理装置である。
請求項17に記載の発明は、前記規則に基づく選択は、前記起点を通じて特定された複数の領域の深度の違いが予め定めた範囲内である場合に実行される、請求項14に記載の情報処理装置である。
請求項18に記載の発明は、コンピュータを、撮像された画像を構成する各画素に対応する深度の分布が集中して出現する範囲を抽出する抽出手段と、抽出された前記範囲に属する画素の少なくとも一部を、処理の対象とする領域を特定するための起点として設定する設定手段として機能させるプログラムである。
The invention according to
The invention according to
The invention according to
The invention according to
The invention according to
The invention according to
The invention according to
The invention according to claim 8 is the information processing apparatus according to
The invention according to claim 9 is the information processing apparatus according to
The invention according to
The invention according to
The invention according to
The invention according to
The invention according to
The invention according to claim 15 is the information processing apparatus according to
The invention according to claim 16 is the information processing apparatus according to
17. The information according to
According to an eighteenth aspect of the present invention, a computer comprises an extracting means for extracting a range in which depth distribution corresponding to each pixel constituting a captured image appears in a concentrated manner; The program causes at least a part of the program to function as setting means for setting a starting point for specifying a region to be processed.
請求項1記載の発明によれば、手作業による領域の指定を前提とすることなく処理の対象とする領域を特定できる。
請求項2記載の発明によれば、処理の対象とする領域の候補の推定の精度を高めることができる。
請求項3記載の発明によれば、処理の対象とする領域の候補の推定の精度を高めることができる。
請求項4記載の発明によれば、処理の対象とする領域の候補の推定の精度を高めることができる。
請求項5記載の発明によれば、処理の対象とする領域の候補の推定の精度を高めることができる。
請求項6記載の発明によれば、処理の対象とする領域の候補の推定の精度を高めることができる。
請求項7記載の発明によれば、処理の対象とする領域の候補の推定の精度を高めることができる。
請求項8記載の発明によれば、処理の対象とする領域の候補の推定の精度を高めることができる。
請求項9記載の発明によれば、画像の数が多い場合や実時間での処理が要求される場合にも対応できる。
請求項10記載の発明によれば、像の数が多い場合や実時間での処理が要求される場合にも対応できる。
請求項11記載の発明によれば、像の数が多い場合や実時間での処理が要求される場合にも対応できる。
請求項12記載の発明によれば、処理の対象とする領域の候補を計算により推定できる。
請求項13記載の発明によれば、手動で領域を指定できない場合でも処理の対象とする領域の候補を効率的に推定できる。
請求項14記載の発明によれば、予め規則を定めておけば、特別な操作を必要とせずに処理の対象とする領域を選択できる。
請求項15記載の発明によれば、予め規則を定めておけば、特別な操作を必要とせずに処理の対象とする領域を選択できる。
請求項16記載の発明によれば、予め規則を定めておけば、特別な操作を必要とせずに処理の対象とする領域を選択できる。
請求項17記載の発明によれば、予め規則を定めておけば、特別な操作を必要とせずに処理の対象とする領域を選択できる。
請求項18記載の発明によれば、手作業による領域の指定を前提とすることなく処理の対象とする領域の特定を可能にできる。
According to the first aspect of the invention, the area to be processed can be specified without the assumption that the area is specified manually.
According to the second aspect of the present invention, it is possible to improve the accuracy of estimating a candidate region to be processed.
According to the third aspect of the present invention, it is possible to improve the accuracy of estimating a candidate region to be processed.
According to the fourth aspect of the present invention, it is possible to improve the accuracy of estimating a candidate region to be processed.
According to the fifth aspect of the present invention, it is possible to improve the accuracy of estimating a candidate region to be processed.
According to the sixth aspect of the present invention, it is possible to improve the accuracy of estimating a candidate region to be processed.
According to the seventh aspect of the present invention, it is possible to improve the accuracy of estimating a candidate region to be processed.
According to the eighth aspect of the present invention, it is possible to improve the accuracy of estimating candidates for the area to be processed.
According to the ninth aspect of the invention, it is possible to cope with the case where the number of images is large and the case where real-time processing is required.
According to the tenth aspect of the present invention, it is possible to cope with the case where the number of images is large and the case where real-time processing is required.
According to the eleventh aspect of the invention, it is possible to cope with the case where the number of images is large and the case where real-time processing is required.
According to the twelfth aspect of the present invention, it is possible to estimate a candidate region to be processed by calculation.
According to the thirteenth aspect of the present invention, it is possible to efficiently estimate candidates for the area to be processed even when the area cannot be specified manually.
According to the fourteenth aspect of the invention, if a rule is defined in advance, a region to be processed can be selected without requiring any special operation.
According to the fifteenth aspect of the present invention, if a rule is defined in advance, a region to be processed can be selected without requiring any special operation.
According to the sixteenth aspect of the invention, if a rule is defined in advance, a region to be processed can be selected without requiring any special operation.
According to the seventeenth aspect of the invention, if a rule is defined in advance, a region to be processed can be selected without requiring any special operation.
According to the eighteenth aspect of the invention, it is possible to specify the area to be processed without assuming that the area is specified manually.
以下、図面を参照して、本発明の実施の形態を説明する。
<実施の形態1>
<使用の形態>
図1は、実施の形態1における使用の形態の例を説明する図である。
図1では、現実の空間に実在する物体(卓10、ワイングラス11、12、皿13、ごみ箱14)を、カメラ機能付きの情報処理装置20で撮像する場面を表している。なお、卓10の奥には壁があり、卓10は床面の上に置かれている。
図1では、情報処理装置20が、いわゆるスマートフォンの場合を表している。もっとも、情報処理装置20は、いわゆるデジタルカメラやビデオカメラでもよい。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<
<Mode of use>
FIG. 1 is a diagram for explaining an example of a mode of use according to
FIG. 1 shows a scene in which objects (table 10,
FIG. 1 shows a case where the
本実施の形態の場合、情報処理装置20は、現実の空間に実在する物体を、静止画像又は動画像の形式で撮像する。現実の空間を撮像して得られる静止画像等の各画素には、特定の領域への帰属を示す情報は含まれていない。換言すると、情報処理装置20が扱う静止画像等はオブジェクトの情報を含んでいない。
ここで、オブジェクトとは、コンピュータが構築する仮想の空間で定義された取り扱いの単位をいい、ピクセルの集合体、ポリゴンの集合体、又はボクセルの集合体として与えられる。
In the case of the present embodiment, the
Here, an object refers to a unit of handling defined in a virtual space constructed by a computer, and given as a collection of pixels, a collection of polygons, or a collection of voxels.
<装置構成>
図2は、実施の形態1における情報処理装置20のハードウェア構成の一例を説明する図である。
情報処理装置20は、データを処理する処理回路部200と、プログラムやデータを記憶する不揮発性のメモリ211と、オーディオ信号を入出力するオーディオ回路212と、画像を表示する液晶ディスプレイ(LCD)213と、電源制御デバイス214と、現実の空間に実在する物体の画像を撮像するカメラ215と、カメラ215の前方に実在する物体までの距離を測定する距離センサ216と、ユーザの操作を検知するタッチパネル217と、WiFi(登録商標)規格に準拠する無線信号を送受信するWiFi(Wireless Fidelity)モジュール218と、近距離無線通信規格の1つであるブルートゥース(登録商標)規格に準拠する無線信号を送受信するBluetoothモジュール219とを有している。
<Device configuration>
FIG. 2 is a diagram illustrating an example of the hardware configuration of the
The
本実施の形態の場合、距離センサ216には、例えば光学式センサや超音波式センサが用いられる。光学式センサには、例えば赤外線を発光する赤外線LED(Light Emitting Diode)と、赤外線に反応するフォトトランジスタとで構成される赤外線センサがある。なお、距離センサ216は、光源から発した光が対象物で反射してセンサに届くまでの光の飛行時間(時間差)を画毎に測定することにより対象物までの距離を求めるTOF(Time Of Flight)方式のセンサでもよい。
In this embodiment, the
なお、本実施の形態における処理回路部200には、メモリ211との間でデータの読み書きを制御するメモリ制御部201と、処理を実行する複数のCPUコア(Core)202と、電源の供給を管理する電源管理部203と、組み込みシステムの動作を管理するシステム管理部204と、オーディオ信号を処理するオーディオ処理部205と、実時間で画像を処理するGPU(Graphics Processing Unit)206と、液晶ディスプレイ213に画像を表示するディスプレイ制御部207と、外部のモジュールとの接続に使用される外部インタフェース(I/F)208と、ベースバンド信号を処理するベースバンド回路209とが設けられている。
Note that the
<機能構成>
図3は、実施の形態1における情報処理装置20の機能構成の一例を説明する図である。
図3に示す機能上の構成は、CPUコア202によるプログラムの実行を通じて実現される。
機能の観点からみた情報処理装置20は、カメラ215から画像データを取得する画像情報取得部221と、距離センサ216から距離センサと被写体との奥行き方向の距離を示す深度の情報を取得する深度情報取得部222と、深度別に出現する画素の個数(度数)を集計してヒストグラムを生成する深度ヒストグラム生成部223と、奥行き方向の深度が近似する画素の集合を塊(クラスタ)として抽出する深度クラスタリング実行部224と、クラスタに属する画素の座標を画面内の代表画素(シード)を与えるシード座標として設定するシード座標設定部225と、シード座標の画素を起点として画素値が類似する周囲の画素の統合を繰り返して画像を複数の領域に分割する領域分割部226と、分割後の領域のうち処理の対象とする領域を特定する対象領域特定部227と、特定された領域の画像に予め定めた処理を加える画像処理部228とを有している。
<Functional configuration>
FIG. 3 is a diagram illustrating an example of the functional configuration of the
The functional configuration shown in FIG. 3 is realized through program execution by the
From the viewpoint of functions, the
ここで、画像情報取得部221は、静止画像又は動画像に対応する画像データについて、1画面を構成する各画素の画素値(例えばRGB値)を取得する。なお、画像データは、カラー画像として与えられてもグレースケール画像として与えられても構わない。なお、ここでの画像データには、深度の情報が対応付けられている。
深度情報取得部222は、画像の撮像と同時に距離センサ216から深度の情報を取得する。
Here, the image
The depth
図4は、被写体と深度の情報の関係を説明する図である。(A)はワイングラス11の各部と深度の関係を示し、(B)はワイングラス11についてのヒストグラムを示す。
図4の場合、ワイングラス11の持ち手(ステム)の深度は105センチメートルであり、ワインが満たされる胴(ボウル)のうち手前側の深度は100センチメートルであり、飲み口(リップ又はリム)のうち奥側の深度は110センチメートルである。つまり、図4に示すワイングラス11の胴部は直径10センチメートルの放物面を有している。この例の場合、持ち手までの距離にあたる105センチメートルの付近に深度の集中が認められる。
現実の空間では、ワイングラス11の周囲に他の物体が存在する(図1参照)。このため、ワイングラス11を取り囲む画素には、他の物体までの深度が割り当てられる。
FIG. 4 is a diagram for explaining the relationship between subject and depth information. (A) shows the relationship between each part of the
In the case of FIG. 4, the depth of the handle (stem) of the
In real space, other objects exist around the wineglass 11 (see FIG. 1). Thus, the pixels surrounding the
1つの物体を構成する面は連続しているため、物体に対応する画素の深度は、特定の深度を中心に広がるように出現する。
もっとも、被写体となる物体の形状は任意であるので(ワイングラスのように回転対称とは限らず、表面に凹凸や不規則な形状を有する場合もあるので)、深度の分布は理想的な確率密度分布になるとは限らない。ただし、1つの物体に対応する深度の分布は、基本的には山形に現れ易い。
図3の説明に戻る。
Since the surfaces forming one object are continuous, the depth of the pixels corresponding to the object appears to spread around a specific depth.
However, since the shape of the object to be photographed is arbitrary (it may not be rotationally symmetrical like a wine glass, and may have uneven or irregular shapes on its surface), the depth distribution is an ideal probability. It is not necessarily the density distribution. However, the distribution of depths corresponding to one object basically tends to appear in a mountain shape.
Returning to the description of FIG.
深度ヒストグラム生成部223は、取得された深度の情報に基づいてヒストグラムを生成する。本実施の形態におけるヒストグラムは、1つの画像を構成する各画素について取得された深度の値の分布を表している。
図5は、1つの画像について生成されたヒストグラムの一例を説明する図である。図中、横軸は深度であり、縦軸は度数である。なお、横軸の単位はセンチメートルである。
図5の場合、山形の波形に対して出現する順番に数字を付して示している。
深度ヒストグラム生成部223が生成したヒストグラムには、雑音成分(ノイズ)も含まれている。図5の例では、6番目の波形が雑音成分に対応する。
なお、撮像する地点の近くから遠方まで広がる地面や道に対応する画素の深度は、山形の波形ではなく、平坦な形状になり易い。また、壁に対応する画素の深度は、前景を構成する他の物体に対応する画素の深度よりも奥側に出現される。
図3の説明に戻る。
The depth
FIG. 5 is a diagram explaining an example of a histogram generated for one image. In the figure, the horizontal axis is depth and the vertical axis is frequency. Note that the unit of the horizontal axis is centimeters.
In the case of FIG. 5, numbers are attached to the chevron waveforms in the order in which they appear.
The histogram generated by the depth
It should be noted that the depth of the pixels corresponding to the ground or road extending from near to the point to be imaged is likely to have a flat shape rather than a chevron waveform. In addition, the depth of the pixels corresponding to the wall appears on the back side of the depth of the pixels corresponding to other objects forming the foreground.
Returning to the description of FIG.
深度クラスタリング実行部224は、予め定めた条件を満たす深度をクラスタとして特定する。例えば深度クラスタリング実行部224は、予め定めた関数の形状に類似する分布が出現する深度の範囲をクラスタとして特定する。また例えば深度クラスタリング実行部224は、予め定めた閾値を超える度数が出現する深度の範囲をクラスタとして特定する。
クラスタリングに使用する関数を基底関数という。本実施の形態では、基底関数として確率密度関数を使用する。確率密度関数は、単峰性を有し、かつ、3σ(標準偏差)以上の度数がほぼ0(ゼロ)になる特徴を有している。
本実施の形態では、基底関数として確率密度関数を用いているが、他の関数を用いても構わない。また、複数の確率密度関数を用意し、撮像時の環境、場面、被写体等に応じて使用する既定関数を切り替えてもよい。
The depth
A function used for clustering is called a basis function. In this embodiment, probability density functions are used as basis functions. The probability density function has a unimodal characteristic, and the frequency of 3σ (standard deviation) or more is almost 0 (zero).
Although the probability density function is used as the basis function in this embodiment, other functions may be used. Alternatively, a plurality of probability density functions may be prepared, and the default function to be used may be switched according to the environment, scene, subject, etc. at the time of imaging.
図6は、確率密度関数の波形とクラスタリング後のヒストグラムを説明する図である。(A)は確率密度関数の波形を示し、(B)はクラスタリング後のヒストグラムを示す。なお、基底関数には離散型の関数には、例えば正規分布がある。
図6の場合、クラスタリングの処理により、図5においては6番目に出現していた波形が除かれている。結果として、クラスタリング後のヒストグラムには、6つの山形の波形が残されている。
なお、個々の山形の波形は、現実の空間に実在する1つの物体に対応するとは限らない。個々の物体に対応する深度の分布は前述したように山形の波形になり易いが(図4参照)、1つの画面内には深度の分布が重なる複数の物体が実在する可能性もある。このため、1つのクラスタに属する画素が1つの物体に対応するとは限らない。勿論、1つのクラスタに属する画素が1つの物体に対応する場合もある。
ここでの深度ヒストグラム生成部223と深度クラスタリング実行部224は、抽出手段の一例である。
図3の説明に戻る。
FIG. 6 is a diagram for explaining the waveform of the probability density function and the histogram after clustering. (A) shows the waveform of the probability density function, and (B) shows the histogram after clustering. It should be noted that the basis functions include, for example, a normal distribution as a discrete function.
In the case of FIG. 6, the waveform that appears sixth in FIG. 5 is removed by the clustering process. As a result, six chevron waveforms remain in the histogram after clustering.
Note that each chevron-shaped waveform does not necessarily correspond to one object that actually exists in the actual space. As described above, the depth distribution corresponding to each object tends to be a chevron waveform (see FIG. 4), but there is a possibility that multiple objects with overlapping depth distributions exist within one screen. Therefore, pixels belonging to one cluster do not necessarily correspond to one object. Of course, pixels belonging to one cluster may correspond to one object.
The depth
Returning to the description of FIG.
シード座標設定部225は、クラスタに属する画素の全部又は一部の座標をシード座標として設定する。本実施の形態では、クラスタに属する画素の一部を画面内の代表画素(シード)として使用する。ここでのシード座標設定部225は、設定手段の一例である。
図7は、代表画素(シード)として設定する画素を選択する方法の一例を示す図である。(A)はクラスタリング後のヒストグラムの例を示し、(B)は選択に用いる手法の例を示す。
図7では、ヒストグラムの5番目に出現するクラスタから代表画素(シード)を選択する方法の例を3つ表している。図7では、対応するクラスタを破線で囲んで示している。
The seed coordinate setting
FIG. 7 is a diagram showing an example of a method of selecting pixels to be set as representative pixels (seeds). (A) shows an example of a histogram after clustering, and (B) shows an example of a method used for selection.
FIG. 7 shows three examples of a method of selecting a representative pixel (seed) from the cluster appearing fifth in the histogram. In FIG. 7, the corresponding clusters are shown enclosed by dashed lines.
例1は、クラスタに属する画素の全てを代表画素(シード)に選択する場合である。この手法は、代表画素(シード)に用いる画素の数を最も多くできる。一方で、別の物体に属する画素の情報も含まれ易くなる。
例2は、頻度が極大となる深度に対応する画素を代表画素(シード)に選択する場合である。この手法は、現実の空間でも単一の物体に属する画素である可能性が高い。一方で、代表画素(シード)を構成する画素の数が少なくなるため、代表画素(シード)を構成する画素で規定される領域を拡張する演算の負担が大きくなる。
例3は、頻度が最大となる深度(クラスタに対応する深度の中央値)に対して分布が標準偏差σの範囲に含まれる画素を代表画素(シード)に選択する場合である。この手法は、代表画素(シード)を構成する画素の数が多いだけでなく、現実の空間において単一の物体に属する画素である可能性も高い。なお、代表画素(シード)として選択する範囲は、標準偏差σに乗ずる定数の大きさの変更により調整が可能である。
Example 1 is a case where all pixels belonging to a cluster are selected as representative pixels (seeds). This technique allows the largest number of pixels to be used as representative pixels (seeds). On the other hand, information about pixels belonging to other objects is also likely to be included.
Example 2 is a case where a pixel corresponding to the depth with the maximum frequency is selected as a representative pixel (seed). This approach is likely to result in pixels belonging to a single object even in real space. On the other hand, since the number of pixels forming the representative pixel (seed) is reduced, the computational load for expanding the area defined by the pixels forming the representative pixel (seed) increases.
Example 3 is a case of selecting, as representative pixels (seeds), pixels whose distribution is included in the range of standard deviation σ with respect to depths (median values of depths corresponding to clusters) with the highest frequency. In this method, not only is there a large number of pixels forming representative pixels (seeds), but there is also a high possibility that the pixels belong to a single object in real space. Note that the range selected as the representative pixel (seed) can be adjusted by changing the magnitude of the constant that is multiplied by the standard deviation σ.
図8は、代表画素(シード)として設定する画素を選択する方法の他の例を示す図である。
図8では、予め定めた閾値THを超える度数を有する深度の範囲を代表画素(シード)に選択している。
図8に示す例4では、出現する度数が少ない3番目のクラスタが代表画素(シード)から除かれている。なお、閾値THを複数用意し、選択的に適用できるようにしてもよい。また、クラスタ毎に閾値THを変更してもよい。例えば個々のクラスタの極大値の大きさに応じて閾値THを選択してもよい。
FIG. 8 is a diagram showing another example of a method of selecting pixels to be set as representative pixels (seeds).
In FIG. 8, a depth range having a frequency exceeding a predetermined threshold TH is selected as a representative pixel (seed).
In Example 4 shown in FIG. 8, the third cluster with a low appearance frequency is excluded from the representative pixels (seed). A plurality of thresholds TH may be prepared and selectively applied. Also, the threshold TH may be changed for each cluster. For example, the threshold TH may be selected according to the magnitude of the maximum value of each cluster.
なお、代表画素(シード)の選択に例2(図7参照)や例4(図8参照)を用いる場合には、ヒストグラムの生成やクラスタリングを実行しなくても、対象とする画素を選択することが可能である。すなわち、深度ヒストグラム生成部223(図3参照)や深度クラスタリング実行部224(図3参照)を用いなくても、代表画素(シード)を与える画素の選択が可能である。
ただし、この手法だけでは、ヒストグラムに対するクラスタリングとは異なり、雑音成分に対応する深度の集中に対応する画素が代表画素(シード)として選択される可能性がある。
Note that when example 2 (see FIG. 7) or example 4 (see FIG. 8) is used to select representative pixels (seeds), target pixels are selected without executing histogram generation or clustering. It is possible. That is, it is possible to select pixels to give representative pixels (seeds) without using the depth histogram generation unit 223 (see FIG. 3) or the depth clustering execution unit 224 (see FIG. 3).
However, with this method alone, there is a possibility that pixels corresponding to concentration of depths corresponding to noise components are selected as representative pixels (seeds), unlike clustering with respect to histograms.
図9は、クラスタと代表画素(シード)の関係を説明する図である。(A)はクラスタの分布を示し、(B)は代表画素(シード)の画像へのマッピング例を示す。
1つのクラスタに対応する代表画素(シード)は、多くの場合、実在する1つの物体の奥行きの方向の位置の違いを表している。このため、代表画素(シード)は、画像内に塊として出現する傾向が認められる。
図3の説明に戻る。
FIG. 9 is a diagram for explaining the relationship between clusters and representative pixels (seeds). (A) shows the distribution of clusters, and (B) shows an example of mapping representative pixels (seeds) to an image.
A representative pixel (seed) corresponding to one cluster often represents a difference in position in the depth direction of one existing object. Therefore, representative pixels (seeds) tend to appear as clusters in the image.
Returning to the description of FIG.
領域分割部226は、既知の手法を使用して個々の代表画素(シード)で規定される領域と関連が認められた周囲の画素を統合し、画像を複数の領域に分割する処理を実行する。領域分割部226では、例えばグラフカット(Graph-Cut)法、グローカット(Grow-Cut)法、セルラーカット(Cellular-Cut)法などが使用される。
グラフカット法は、代表画素(シード)の画素に類似する色を持つ隣接する画素を結合しながら領域を拡大し、隣接する画素の色の差が大きい部分に領域の境界を設定する手法である。
グローカット法は、隣接する画素の画素値の差に基づいて全ての画素をいずれかの領域に割り付ける手法である。
セルラーカット法は、画面の全画素を細胞(Cell)と見立て、起点となる画素と周辺の画素とを色特性の近さに応じた重みで関係付け、乗算された重みを周辺に伝搬させることで領域に属する画素を決定する手法である。
The
The graph cut method is a method in which adjacent pixels with colors similar to the representative pixel (seed) are combined to expand the area, and the boundary of the area is set at the portion where the color difference between the adjacent pixels is large. .
The grow cut method is a method of allocating all pixels to any region based on the difference in pixel value between adjacent pixels.
In the cellular cut method, all pixels on the screen are regarded as cells, the starting point pixel and surrounding pixels are related with weights according to the closeness of color characteristics, and the multiplied weights are propagated to the surroundings. is a method of determining pixels belonging to a region by
図10は、領域分割部226による処理の前後の関係を説明する図である。(A)は代表画素(シード)がマッピングされた直後の状態(図9参照)を示し、(B)は領域の分割が終了した時点の状態を示す。
図10では、画面が、壁や床面に対応する背景に対応する領域、卓10に対応する領域、ワイングラス11に対応する領域、ワイングラス12に対応する領域、皿13に対応する領域、ごみ箱14に対応する領域の6つに分割されている。
図3の説明に戻る。
10A and 10B are diagrams for explaining the relationship before and after the processing by the
In FIG. 10, the screen has an area corresponding to the background corresponding to the wall and floor, an area corresponding to the table 10, an area corresponding to the
Returning to the description of FIG.
対象領域特定部227は、処理の対象とする領域を、予め定めた規則に基づいて分割された領域の中から選択的に特定する。
選択的に特定する領域の数は1つに限る必要はない。規則に基づいて分割された領域間に順位が付けられる場合、上位の領域から予め指定した個数の領域を選択してもよい。
もっとも、全ての領域を処理の対象として特定してもよい。
なお、特定する個数の数は、処理の目的により異なってもよい。
The target
The number of selectively specified regions need not be limited to one. When the regions divided based on the rule are ranked, a predetermined number of regions may be selected from the higher regions.
However, all regions may be specified as targets for processing.
Note that the specified number may vary depending on the purpose of the processing.
ここで、領域の特定に使用する規則は、処理の内容に応じて選択されることが望ましい。なお、使用する規則は1つでも複数でもよい。
また、規則に基づいた選択は、複数の領域の深度の違いが予め定めた範囲内である場合(複数の領域の深度がほぼ等しい場合)に限りに実行してもよい。
Here, it is desirable that the rule used for identifying the area be selected according to the content of the processing. One or more rules may be used.
Also, rule-based selection may be performed only when the difference in depth between the multiple regions is within a predetermined range (when the depths of the multiple regions are approximately equal).
ここでの規則の1つには、例えば画面内の中央に近い領域の優先がある。情報処理装置20で像を撮像する場合には、ユーザが注目している領域が画面の中央に位置することが多いためである。
他の規則には、ユーザの視線が集中する領域の優先がある。この規則の利用には、ユーザの視線の方向を検知するセンサが情報処理装置20に内蔵されていることが前提となる。視線の方向は、ユーザが注目している領域とみなしてよいためである。
One of the rules here is, for example, priority for areas near the center in the screen. This is because when an image is captured by the
Other rules include prioritizing regions where the user's gaze is concentrated. The use of this rule is based on the assumption that the
他の規則には、例えば画面内における面積が大きい領域の優先がある。ただし、背景に対応する領域の面積が大きくなりやすいため、面積の大きさが2番目以降の領域を優先してもよいし、優先する面積の大きさに制限を加えてもよい。なお、面積が小さい領域を優先する規則があってもよい。
他の規則には、タッチパネル217(図2参照)で検知された座標を含む領域を優先してもよい。タッチパネル217で指定された部分はユーザが注目している領域であるためである。ここでのタッチ操作は、代表画素(シード)の特定とは異なる操作である。
Other rules include, for example, prioritizing large area areas within the screen. However, since the area of the area corresponding to the background tends to increase, priority may be given to areas with the second and subsequent areas, or the size of the area to be prioritized may be restricted. It should be noted that there may be a rule that prioritizes areas with small areas.
Other rules may prioritize areas containing coordinates sensed on touch panel 217 (see FIG. 2). This is because the portion designated on the
図11は、特定された領域の一例を説明する図である。
図11では、現実の空間に実在する物体に対応する像を、卓の像10A、ワイングラスの像11A、12A、皿の像13A、ごみ箱の像14Aとして表している。
また、図11では、特定された状態を表現するため、対象領域特定部227(図3参照)によって特定された領域を矩形の破線で囲んで示している。図11の例では、卓の像10Aに載せられているワイングラスの像11A、12Aと皿の像13Aが処理の対象である。
図3の説明に戻る。
FIG. 11 is a diagram illustrating an example of the specified area.
In FIG. 11, images corresponding to objects that actually exist in the actual space are represented as a
In addition, in FIG. 11, the area specified by the target area specifying unit 227 (see FIG. 3) is surrounded by a rectangular dashed line to express the specified state. In the example of FIG. 11, the
Returning to the description of FIG.
画像処理部228では、特定された領域の印象や質感を変更する処理等が実行される。ここでの処理は、例えば領域内の色分布、領域の境界、領域の表面の変更を組み合わせて実行される。本実施の形態では、これらの処理を画像処理という。もっとも、図3に示す他の機能部の処理も画像処理の一形態である。
図12は、画像処理によって画面の中央に近いワイングラス内のワインの色が変更される様子を説明する図である。(A)は変更前の画面の例を示し、(B)は変更後の画面の例を示す。
なお、画像処理部228は、画像処理の結果を、液晶ディスプレイ213(図2参照)に出力する。
The
FIG. 12 is a diagram for explaining how the color of wine in a wine glass near the center of the screen is changed by image processing. (A) shows an example of the screen before change, and (B) shows an example of the screen after change.
Note that the
<処理動作>
ここでは、情報処理装置20(図1参照)の処理動作について説明する。
図13は、情報処理装置20が実行する処理動作を説明するフローチャートである。
情報処理装置20は、撮像の開始が不図示の操作を通じてユーザから与えられることで、図13に示す処理を開始する。
まず、情報処理装置20は、画像の撮像と同時に、画素毎の深度の情報を取得する(ステップ101)。なお、図中のSは、ステップの略称である。
<Processing operation>
Here, the processing operation of the information processing device 20 (see FIG. 1) will be described.
FIG. 13 is a flow chart for explaining the processing operations performed by the
The
First, the
次に、情報処理装置20は、深度毎の度数を集計する(ステップ102)。本実施の形態では、集計後にヒストグラムが生成される。
続いて、情報処理装置20は、クラスタリングを実行し、雑音成分等を除外する(ステップ103)。本実施の形態では、度数の出現が確率密度分布に類似する深度が特定される。このクラスタリングにより、道などの奥行きをもつ平面が、抽出の対象から除外される。また、クラスタの数が分割後の領域の数を規定するため、3つ以上の領域への分割も可能になる。
情報処理装置20は、個々のクラスタに対応する画素の座標を、画像を複数の領域に分割する処理の起点(すなわち、シード座標)に設定する(ステップ104)。予め定めた規則に従ってクラスタ毎に起点を設定できるので、手動による起点の指定が不要になる。
Next, the
Subsequently, the
The
次に、情報処理装置20は、シードの画素値を用いて画像を複数の領域に分割する(ステップ105)。ここで、画素値(すなわち画像)の解像度は、距離センサ216(図2参照)により取得される深度の解像度よりも高い。このため、深度の情報だけを用いて領域を分割する場合に比して分割の精度を高めることが可能になる。また、画素値の情報を用いることで、未定義の物体に対応する領域にも対応することができる。なお、本実施の形態による領域の分割の結果は、手動によってシード座標を与えた場合(グラフカット法、グローカット法、セルラーカット法等)と同等である。
続いて、情報処理装置20は、規則に基づいて分割後の領域の一部を処理の対象として特定する(ステップ106)。
この後、情報処理装置20は、予め定めた画像処理を実行し、画面の表示に反映する(ステップ107)。
Next, the
Subsequently, the
After that, the
<実施の形態2>
本実施の形態では、いわゆるステレオカメラ方式を用いて深度の情報を取得する場合について説明する。
ステレオカメラ方式とは、現実の空間に実在する物体を2台のカメラで同時に撮像した2枚の画像(ステレオ画像)から画像中の各画素の深度を取得する方式をいう。
図14は、実施の形態2における情報処理装置20Aのハードウェア構成の一例を説明する図である。図14には、図2との対応部分に対応する符号を付して示している。
図14に示す情報処理装置20Aが情報処理装置20(図1参照)と異なる点は、2台のカメラ215R及び215Lを使用し、距離センサ216(図2参照)を使用しない点である。
<
In this embodiment, a case of acquiring depth information using a so-called stereo camera method will be described.
The stereo camera method is a method of acquiring the depth of each pixel in an image from two images (stereo images) of an object that actually exists in a real space taken simultaneously by two cameras.
FIG. 14 is a diagram illustrating an example of the hardware configuration of the
The
図15は、実施の形態2における情報処理装置20Aの機能構成の一例を説明する図である。図15には、図3との対応部分に対応する符号を付して示している。
本実施の形態における情報処理装置20Aの場合、2台のカメラ215R及び215Lのうちの一方から出力される画像データが画像情報取得部221に与えられる。図15の例では、カメラ215Rから出力される画像データを画像情報取得部221に与えられている。
また、深度情報取得部222Aには、2台のカメラ215R及び215Lの両方から画像データが与えられている。
FIG. 15 is a diagram illustrating an example of the functional configuration of the
In the case of the
Also, the depth
図16は、深度情報取得部222Aで実行される機能上の構成を説明する図である。
ここでの深度情報取得部222Aは、原画像を平均化して平均化画像を生成する処理(例えば3×3画素毎に画素値を平均化する処理)と、原画像と平均化画像との差分を原画像に上乗せすることにより変化分を強調する鮮鋭化処理とを実行する平滑化/鮮鋭化部250と、処理後の画像を比較して各領域の視差を深度として推定する深度推定部251とを有している。
本実施の形態では、深度推定部251で推定された深度の情報を深度ヒストグラム223に与えている。
他の構成及び動作は、実施の形態1における情報処理装置20(図1参照)と共通である。
FIG. 16 is a diagram illustrating a functional configuration executed by the depth
The depth
In this embodiment, depth information estimated by the
Other configurations and operations are common to the information processing apparatus 20 (see FIG. 1) in the first embodiment.
<実施の形態3>
本実施の形態では、いわゆる1台のカメラを用いて深度の情報を取得する場合について説明する。
図17は、実施の形態3における使用の形態の例を説明する図である。
図17には、図1との対応部分に対応する符号を付して示している。
本実施の形態で使用する情報処理装置20Bは、現実の空間と仮想の空間とを合成した情報(いわゆる拡張現実や複合現実)をユーザに知覚させることが可能な装置である。
図17に示す情報処理装置20Bは、いわゆるスマートグラスの場合である。スマートグラスは、メガネを装着する要領で頭部に装着して使用するウェアラブルデバイスの一種である。
図17に示すスマートグラスは、現実の空間に実在する物体を直接的に視認可能な透過型のディスプレイを表している。図17に示すスマートグラスは単眼型であるが、両眼型であってもよい。また、ユーザの視界を外部から遮断する非透過型のディスプレイでもよい。
<
In this embodiment, a case of acquiring depth information using a so-called single camera will be described.
17A and 17B are diagrams for explaining an example of the mode of use according to the third embodiment. FIG.
In FIG. 17, parts corresponding to those in FIG.
The
The
The smart glasses shown in FIG. 17 represent a transmissive display that allows direct visual recognition of objects that actually exist in real space. The smart glasses shown in FIG. 17 are of a monocular type, but may be of a binocular type. A non-transmissive display that blocks the user's view from the outside may also be used.
図18は、実施の形態3における情報処理装置20Bのハードウェア構成の一例を説明する図である。図18には、図2との対応部分に対応する符号を付して示している。
図18に示す情報処理装置20Bが情報処理装置20(図1参照)と異なる点は、網膜走査ディスプレイ213Bを使用し、液晶ディスプレイ213(図2参照)を使用しない点と、フィルタ付きカメラ215Bを使用し、距離センサ216(図2参照)を使用しない点である。
ここでの網膜走査ディスプレイ213Bは、人の網膜に直接光を当てて映像を映す方式のディスプレイである。
FIG. 18 is a diagram illustrating an example of the hardware configuration of the
The
The
フィルタ付きカメラ215Bは、単眼の可視光カメラで撮像した1枚の画像から、カラー画像と深度に関する情報とを同時に出力する方式の撮像手段である。この種の技術には、例えば東芝が開発した「カラー開口撮像技術」がある。
図19は、フィルタ付きカメラ215Bのレンズの開口部に装着されるフィルタ270の構造例を示す図である。フィルタ270の半分は水色のカラーフィルタ271であり、残りの半分は黄色のカラーフィルタ272である。この構造のフィルタ270を装着して画像を撮像すると、焦点の位置に対して手前側か奥側かでボケと色ズレの関係が反転する。具体的には、赤、青、緑の3色の光が合わさって発生する左右に非対称の色ズレ(色毎に異なるボケの形状)が、焦点の位置に対して手前側か奥側かで反転する。当然ながら、焦点の位置ではボケや色ズレは生じない。
The filter-equipped
FIG. 19 is a diagram showing a structural example of the
図20は、実施の形態3における情報処理装置20Bの機能構成の一例を説明する図である。図20には、図3との対応部分に対応する符号を付して示している。
本実施の形態における情報処理装置20Bの場合、フィルタ付きカメラ215Bから出力される画像データが画像情報取得部221と深度情報取得部222Bに与えられる。
深度情報取得部222Bは、色毎に非対称なボケの形状を解析することで深度の情報を取得する前述したボケと色ズレを画像処理にて補正し、画素毎に深度の情報を取得する。
他の構成及び動作は、実施の形態1における情報処理装置20(図1参照)と共通である。
FIG. 20 is a diagram illustrating an example of the functional configuration of an
In the case of the
The depth
Other configurations and operations are common to the information processing apparatus 20 (see FIG. 1) in the first embodiment.
<実施の形態4>
本実施の形態では、画像の撮像手段や画像データの蓄積手段と、画像を処理する情報処理装置とがネットワークを通じて接続されている場合について説明する。
図21は、実施の形態4における使用の形態の例を説明する図である。
図21に示す情報処理システム300は、ネットワーク301に対して、現実の空間を撮像するカメラ302と、撮像された画像データが蓄積されるファイルサーバ303及び304と、人手による操作無しに画像処理の対象とする領域を特定する情報処理装置305及び306を有している。
ネットワーク301は、LAN(Local Area Network)でも、インターネットでも、クラウドネットワークでもよい。また、ネットワーク301は、無線接続でも有線接続でもよい。
<
In the present embodiment, a case will be described in which an image capturing means, an image data storage means, and an information processing apparatus that processes an image are connected via a network.
21A and 21B are diagrams for explaining an example of a mode of use according to the fourth embodiment. FIG.
The
The
カメラ302は、前述したスマートフォンやスマートグラスに搭載されている撮像素子の場合もあれば、独立した撮像装置の場合もある。独立した撮像装置には、例えば業務用のカメラや家庭用のカメラがある。また、業務用のカメラには、セキュリティーカメラが含まれる。
本実施の形態の場合、ファイルサーバ303は、深度情報を有する画像データの蓄積用であり、ファイルサーバ304は、深度情報を有していない画像データの蓄積用である。
本実施の形態の場合、情報処理装置305は、据え置き型のコンピュータであり、情報処理装置306は、携帯型のコンピュータである。
The
In this embodiment, the
In this embodiment, the
図22は、情報処理装置305及び306の基本構成を説明する図である。ここでは、情報処理装置305について説明する。
情報処理装置305は、装置本体311に入力装置316と補助記憶装置317と出力装置318を接続した構成を有している。
装置本体311は、中央処理装置312と主記憶装置315とで構成され、中央処理装置312は、各部の動作を制御する制御装置313とデータを処理する演算装置314とを有している。
主記憶装置315は、ROM(Read Only Memory)やRAM(Random Access Memory)で構成され、データやプログラムが記憶されている。プログラムには、基本ソフトウェアやアプリケーションプログラムが含まれる。
入力装置316は、マウス、キーボード、タッチパネル等である。
補助記憶装置317は、ハードディスク、光学式記憶媒体、半導体記憶媒体等である。
出力装置318は、ディスプレイ、印刷装置等である。
FIG. 22 is a diagram for explaining the basic configuration of the
The
The apparatus
The
The
The
The
図23は、実施の形態4における情報処理装置305及び306の機能構成の一例を説明する図である。図23には、図3との対応部分に対応する符号を付して示している。
図23に示す機能構成は、深度情報を有する画像データが蓄積されているファイルサーバ303から画像データと対応する深度情報とがダウンロードされる場合に対応する。
図23の場合、画像情報取得部221が、ファイルサーバ303からダウンロードされるデータの中から画像データを取得し、深度情報取得部222Cが、ファイルサーバ303からダウンロードされるデータの中から深度の情報を取得する。
なお、カメラ302から深度の情報も出力される場合には、カメラ302の出力を、画像情報取得部221と深度情報取得部222Bに与えればよい。
FIG. 23 is a diagram illustrating an example of functional configurations of the
The functional configuration shown in FIG. 23 corresponds to a case where image data and corresponding depth information are downloaded from the
In the case of FIG. 23, the image
If depth information is also output from the
図24は、実施の形態4における情報処理装置305及び306の機能構成の他の例を説明する図である。図24には、図3との対応部分に対応する符号を付して示している。
図24に示す機能構成は、深度情報を有していない画像データが蓄積されているファイルサーバ304から画像データと対応する深度情報とがダウンロードされる場合に対応する。
図24の場合、画像情報取得部221と深度情報取得部222Dの両方が、ファイルサーバ304から同じ画像データをダウンロードする。
ここでの深度情報取得部222Dは、例えば人工知能(AI)を活用したデータ解析等を実行し、可視光カメラで撮像された画像内の各領域までの深度を取得する。
なお、画像データが、フィルタ付きカメラ215B(図18参照)で撮像された画像データである場合には、深度情報取得部222Dとして深度情報取得部222B(図20参照)を使用すればよい。
FIG. 24 is a diagram illustrating another example of the functional configuration of the
The functional configuration shown in FIG. 24 corresponds to a case where image data and corresponding depth information are downloaded from the
In the case of FIG. 24, both the image
The depth
If the image data is image data captured by the filter-equipped
<他の実施形態>
以上、本発明の実施の形態について説明したが、本発明の技術的範囲は上述の実施の形態に記載の範囲に限定されない。上述の実施の形態に、種々の変更又は改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
例えば前述の実施の形態では、深度別に集計した度数の分布に基づいてヒストグラムを生成しているが、ヒストグラムの生成は必須ではない。深度別に集計された度数の分布を処理して、出現数が多い(集中して出現する)深度の範囲をクラスタとして抽出してもよい。この処理を実行する機能部は、抽出手段の一例である。
前述の実施の形態においては、シード座標設定部225がクラスタに属する画素のうちシードとして使用する画素を抽出しているが、深度クラスタリング実行部224がクラスタを構成する画素の情報を出力する際に予め定めた規則に基づいて一部の画素を抽出する処理を実行してもよい。この場合、深度クラスタリング実行部224が抽出手段の一例となる。
<Other embodiments>
Although the embodiments of the present invention have been described above, the technical scope of the present invention is not limited to the scope described in the above-described embodiments. It is clear from the scope of claims that various modifications and improvements to the above embodiment are also included in the technical scope of the present invention.
For example, in the above-described embodiments, histograms are generated based on the frequency distribution aggregated by depth, but the generation of histograms is not essential. A distribution of frequencies tabulated by depth may be processed to extract depth ranges with a large number of occurrences (appearing intensively) as clusters. A functional unit that executes this process is an example of an extractor.
In the above-described embodiment, the seed coordinate setting
20、20A、20B…情報処理装置、221…画像情報取得部、222、222A、222B、222C、222D…深度情報取得部、223…深度ヒストグラム生成部、224…深度クラスタリング実行部、225…シード座標設定部、226…領域分割部、227…対象領域特定部、228…画像処理部、250…平滑化/鮮鋭化部、251…深度推定部
20, 20A, 20B...
Claims (18)
抽出された前記範囲に属する画素の少なくとも一部を、処理の対象とする領域を特定するための起点として設定する設定手段と
を有する情報処理装置。 an extracting means for extracting a range in which the depth distribution corresponding to each pixel constituting the captured image appears intensively;
and setting means for setting at least part of the extracted pixels belonging to the range as a starting point for specifying a region to be processed.
撮像された画像を構成する各画素に対応する深度の分布が集中して出現する範囲を抽出する抽出手段と、
抽出された前記範囲に属する画素の少なくとも一部を、処理の対象とする領域を特定するための起点として設定する設定手段
として機能させるプログラム。 the computer,
an extracting means for extracting a range in which the depth distribution corresponding to each pixel constituting the captured image appears intensively;
A program that functions as setting means for setting at least some of the extracted pixels belonging to the range as a starting point for specifying a region to be processed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018042418A JP7172066B2 (en) | 2018-03-08 | 2018-03-08 | Information processing device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018042418A JP7172066B2 (en) | 2018-03-08 | 2018-03-08 | Information processing device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019159503A JP2019159503A (en) | 2019-09-19 |
JP7172066B2 true JP7172066B2 (en) | 2022-11-16 |
Family
ID=67996929
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018042418A Active JP7172066B2 (en) | 2018-03-08 | 2018-03-08 | Information processing device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7172066B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2023013776A1 (en) | 2021-08-05 | 2023-02-09 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008077501A (en) | 2006-09-22 | 2008-04-03 | Olympus Corp | Image processing device and image processing control program |
US20140072212A1 (en) | 2012-09-11 | 2014-03-13 | Thomson Licensing | Method and apparatus for bilayer image segmentation |
US20160014392A1 (en) | 2014-07-11 | 2016-01-14 | Microsoft Technology Licensing, Llc. | Camera system and method for hair segmentation |
JP2017111815A (en) | 2015-12-15 | 2017-06-22 | 株式会社リコー | Recognition method and apparatus for deposit |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11215498A (en) * | 1998-01-27 | 1999-08-06 | Canon Inc | Image processor, image processing method and program storage medium thereof |
-
2018
- 2018-03-08 JP JP2018042418A patent/JP7172066B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008077501A (en) | 2006-09-22 | 2008-04-03 | Olympus Corp | Image processing device and image processing control program |
US20140072212A1 (en) | 2012-09-11 | 2014-03-13 | Thomson Licensing | Method and apparatus for bilayer image segmentation |
US20160014392A1 (en) | 2014-07-11 | 2016-01-14 | Microsoft Technology Licensing, Llc. | Camera system and method for hair segmentation |
JP2017111815A (en) | 2015-12-15 | 2017-06-22 | 株式会社リコー | Recognition method and apparatus for deposit |
Also Published As
Publication number | Publication date |
---|---|
JP2019159503A (en) | 2019-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11756223B2 (en) | Depth-aware photo editing | |
CN105659200B (en) | For showing the method, apparatus and system of graphic user interface | |
CN106705837B (en) | Object measuring method and device based on gestures | |
US9378583B2 (en) | Apparatus and method for bidirectionally inpainting occlusion area based on predicted volume | |
JP2017059235A (en) | Apparatus and method for adjusting brightness of image | |
US20200258309A1 (en) | Live in-camera overlays | |
EP2755187A2 (en) | 3d-animation effect generation method and system | |
KR20220051376A (en) | 3D Data Generation in Messaging Systems | |
CN105611267B (en) | Merging of real world and virtual world images based on depth and chrominance information | |
JP2015156607A (en) | Image processing method, image processing apparatus, and electronic device | |
JP6045378B2 (en) | Information processing apparatus, information processing method, and program | |
US10957063B2 (en) | Dynamically modifying virtual and augmented reality content to reduce depth conflict between user interface elements and video content | |
JP6221292B2 (en) | Concentration determination program, concentration determination device, and concentration determination method | |
CN107705278A (en) | The adding method and terminal device of dynamic effect | |
US9171357B2 (en) | Method, apparatus and computer-readable recording medium for refocusing photographed image | |
WO2022156451A1 (en) | Rendering method and apparatus | |
JP7172066B2 (en) | Information processing device and program | |
CN113052923B (en) | Tone mapping method, tone mapping apparatus, electronic device, and storage medium | |
US20160140748A1 (en) | Automated animation for presentation of images | |
TWI361093B (en) | Measuring object contour method and measuring object contour apparatus | |
US20170148177A1 (en) | Image processing apparatus, image processing method, and program | |
KR101849696B1 (en) | Method and apparatus for obtaining informaiton of lighting and material in image modeling system | |
GB2537142A (en) | An arrangement for image segmentation | |
JP2020513123A (en) | Method and apparatus for applying dynamic effects to images | |
JP2013232757A (en) | Imaging apparatus, image processing apparatus, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220412 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220523 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221004 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221017 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7172066 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |