JP6292867B2 - 合成イメージを撮影する撮影装置及びその方法 - Google Patents

合成イメージを撮影する撮影装置及びその方法 Download PDF

Info

Publication number
JP6292867B2
JP6292867B2 JP2013269718A JP2013269718A JP6292867B2 JP 6292867 B2 JP6292867 B2 JP 6292867B2 JP 2013269718 A JP2013269718 A JP 2013269718A JP 2013269718 A JP2013269718 A JP 2013269718A JP 6292867 B2 JP6292867 B2 JP 6292867B2
Authority
JP
Japan
Prior art keywords
image
live view
unit
shooting
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013269718A
Other languages
English (en)
Other versions
JP2014131281A (ja
Inventor
志 煥 禹
志 煥 禹
世 勳 金
世 勳 金
兌 奎 林
兌 奎 林
漢 卓 郭
漢 卓 郭
優 星 沈
優 星 沈
瑞 榮 李
瑞 榮 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2014131281A publication Critical patent/JP2014131281A/ja
Application granted granted Critical
Publication of JP6292867B2 publication Critical patent/JP6292867B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14618Containers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0264Details of the structure or mounting of specific components for a camera module assembly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio

Description

本発明は、撮影装置及びその合成イメージ撮影方法に関し、より詳細には、イメージから分離された客体をライブビューとともに表示し、合成イメージを撮影する撮影装置及びその合成イメージ撮影方法に関する。
電子技術の発達により、多様な携帯型機器が開発及び普及されている。最近、普及されている携帯型機器は、ほとんどがディスプレイ手段及び撮影手段を備えており、撮影機能をサポートしている。撮影機能をサポートする撮影装置は、レンズを通じて入射される光を用いて、ディスプレイ手段にライブビューをディスプレイする。ユーザは、ライブビューを見ながら撮影を行うことができる。
それにより、写真撮影が日常化したことで、多様な場所で撮影が行われ、撮影された写真は多様に活用されている。一例として、ユーザは自分が撮影した写真を、ブログや、ウェブカフェ、SNS(Social Network Service)等にアップロードさせ、他人と共有することができる。
一方、ユーザは、有名な場所や建物等を背景に自分の姿を撮影しようとすることが頻繁に発生する。この場合、他人からの助けがない限りは、セルフ撮影モードやタイマー機能等を利用するしかなかった。
しかし、タイマー機能を利用するためには、自分の撮影装置を床やその他の物の上に置いて、撮影角度や方向を調整した後、固定させなければならないという不都合があった。なお、セルフ撮影を行う場合には、腕の長さの制限等により、写真のかなりの部分がユーザの顔で埋るようになったり、背景をまともに写すことができないという問題点があった。
それにより、ユーザが自分の姿と背景とをいい具合に撮影できるようにする技術が必要になってきている。
韓国特開第2011−0060499号公報 韓国特開第2012−0118583号公報 日本特開第2005−204015号公報
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、撮影イメージから客体を分離し、分離された客体が重畳されたライブビューを提供し、合成イメージを撮影することができるようにする撮影装置及びその合成イメージ撮影方法を提供することにある。
以上のような目的を達成するための本発明の一実施形態に係る撮影装置は、撮影部と、前記撮影部を介して獲得された第1撮影イメージから客体を分離するイメージ処理部と、前記分離された客体が重畳された背景ライブビューをディスプレイするディスプレイ部と、背景撮影命令が入力されると、前記背景ライブビューに対応する第2撮影イメージを獲得し、前記第2撮影イメージに前記分離された客体を付加して合成イメージを生成する制御部とを含む。
ここで、前記制御部は、合成撮影モードが選択されると、前記撮影部のライブビューをディスプレイするように前記ディスプレイ部を制御し、前記ライブビューの各フレームをモニタリングしながら前記客体を探索して追跡し、客体撮影命令が入力されると、前記撮影部のライブビューに対応する前記第1撮影イメージを生成し、前記第1撮影イメージ内で、前記追跡された客体を分離するように前記イメージ処理部を制御してよい。
そして、前記撮影部は、第1撮影方向で撮影を行うための第1撮影部と、前記第1撮影方向の反対方向である第2撮影方向で撮影を行うための第2撮影部とを含んでよい。
なお、前記制御部は、前記合成撮影モードが開始されると、前記ライブビューを前記ディスプレイ部に提供するように前記第1撮影部を活性化させ、前記第1撮影部によって前記第1撮影イメージが獲得されると、前記背景ライブビューを前記ディスプレイ部に提供するように前記第2撮影部を活性化させてよい。
または、事前学習された客体モデルが保存された保存部を更に含んでよい。
この場合、前記制御部は、前記第1撮影イメージ内で前記客体モデルに合致する領域を前記客体と判断してよい。
なお、前記ディスプレイ部は、前記第1撮影イメージをディスプレイし、前記制御部は、前記第1撮影イメージに対するユーザ操作が行われると、前記ユーザ操作に応じて前記客体と判断された領域の大きさ及び形を変更してよい。
または、前記制御部は、前記第1撮影イメージから分離された前記客体の形状を復元するように前記イメージ処理部を制御し、復元された客体を前記背景ライブビューに重畳させて表示してよい。
そして、前記制御部は、前記背景ライブビュー内で、前記客体の表示位置、大きさ、カラー及び輝度のうち、少なくとも一つを、ユーザの選択に応じて調整するように前記イメージ処理部を制御してよい。
または、前記制御部は、前記背景ライブビューの特性に基づいて、前記分離された客体の表示位置、大きさ、カラー及び輝度のうち、少なくとも一つを調整してよい。
一方、本発明の一実施形態に係る合成イメージ撮影方法は、第1撮影イメージを獲得し、前記第1撮影イメージから客体を分離するステップと、前記客体が重畳された背景ライブビューをディスプレイするステップと、背景撮影命令が入力されると、前記背景ライブビューに対応する第2撮影イメージを獲得するステップと、前記第2撮影イメージに前記分離された客体を付加して合成イメージを生成するステップとを含む。
なお、前記客体を分離するステップは、合成撮影モードが選択されると、ライブビューをディスプレイするステップと、前記ライブビューの各フレームをモニタリングしながら前記客体を探索して追跡するステップと、客体撮影命令が入力されると、前記ライブビューに対応する前記第1撮影イメージを生成するステップと、前記第1撮影イメージ内で、前記追跡された客体を分離するステップとを含む。
そして、前記客体を探索して追跡するステップは、前記第1撮影イメージ内で、事前学習された客体モデルに合致する領域を前記客体と判断してよい。
そして、前記客体を分離するステップは、前記第1撮影イメージをディスプレイするステップと、前記第1撮影イメージに対するユーザ操作が行われると、前記ユーザ操作に応じて前記客体と判断された領域の大きさ及び形を変更するステップとを含んでよい。
または、前記第1撮影イメージから分離された前記客体の形状を復元するステップを更に含んでよい。
一方、前記背景ライブビュー内における前記分離された客体の表示位置、大きさ、カラー及び輝度のうち、少なくとも一つを、ユーザの選択に応じて調整するステップを更に含んでよい。
または、前記背景ライブビューの特性に基づいて、前記分離された客体の表示位置、大きさ、カラー及び輝度のうち、少なくとも一つを調整するステップを更に含んでよい。
以上説明したように、本発明によれば、客体が重畳されたライブビューを提供し、ユーザが特定客体を含む合成イメージを容易に撮影することができるようになる。
本発明の一実施形態に係る撮影装置の構成を示すブロック図である。 本発明の一実施形態に係る合成イメージ撮影方法を説明するための図である。 ライブビュー上で客体の表示状態を変更する多様な方法を説明するための図である。 ライブビュー上で客体の表示状態を変更する多様な方法を説明するための図である。 撮影イメージから客体を分離する方法を説明するための図である。 ユーザ操作に応じて客体分離領域を調整する方法を説明するための図である。 撮影イメージから客体を分離して形を復元する方法を説明するための図である。 複数の撮影部を用いる実施形態に係る撮影装置の構成を示すブロック図である。 複数の撮影部を用いて合成イメージを撮影する方法の一例を示す図である。 合成イメージ撮影過程を具体的に説明するための図である。 本発明の一実施形態に係る合成イメージ撮影方法を説明するためのフローチャートである。 本発明の一実施形態に係る客体分離方法を説明するためのフローチャートである。
以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。
図1は、本発明の一実施形態に係る撮影装置の構成を示すブロック図である。図1に係る撮影装置100は、デジタルカメラやカムコーダだけでなく、携帯電話、タブレットパソコン、ラップトップコンピュータ、PDA、MP3プレーヤ等のような多様な類型の装置で実現されてよい。
図1によると、撮影装置100は、撮影部110と、イメージ処理部120と、ディスプレイ部130及び制御部140を含む。
撮影部110は、撮影動作を行うための構成要素である。撮影部110は、レンズとイメージセンサとを含む。撮影部110に使用できるレンズの種類には、一般的な汎用レンズ、広角レンズ、ズームレンズ等がある。レンズの種類は、撮影装置100の種類および特性、使用環境によって決定されてよい。イメージセンサとしては、相補型金属酸化膜半導体(Complementary Metal Oxide Semiconductor:CMOS)と電荷結合素子(Charge Coupled Device:CCD)等が使用されてよい。
イメージ処理部120は、撮影部110を介してセンシングされるイメージを処理する。具体的には、イメージ処理部120は、撮影部110を介して獲得された撮影イメージから被写体の具体的な形状である客体を分離する。
客体分離は、多様なアルゴリズムによって行われてよい。
一例として、制御部140は、撮影イメージをピクセル単位で、または複数個のピクセルからなるピクセルブロック単位で区分する。制御部140は、各ピクセルのピクセル値または各ピクセルブロックの代表ピクセル値を比較し、その差が閾値を超過するピクセル領域を検出する。制御部140は、検出されたピクセル領域をエッジ(edge)と判断し、そのエッジを基準に客体領域を区分する。制御部140は、区分された客体領域のうち、予め設定された条件を満たす客体領域を合成対象と判断する。制御部140は、合成対象として判断された客体領域を撮影イメージから分離するようにイメージ処理部120を制御する。人の顔を合成しようとする場合には、人の顔色に該当するピクセル値を有する客体領域を合成対象と判断する。
別の例として、制御部140は、事前学習された客体モデルを用いて客体領域を判断することもできる。客体モデルとは、複数の撮影動作を行って獲得された複数の撮影イメージを分析し、客体が位置した領域の統計値に応じて客体領域を定義したモデルを意味する。客体モデルは、繰り返し学習によって持続的にアップデートすることができる。制御部140は、撮影イメージに客体モデルを適用し、その客体モデルに合致する領域を客体と判断することができる。具体的には、客体モデルに合致する領域の周辺のエッジを基準に客体を特定することができる。制御部140は、客体と判断された部分を分離するようにイメージ処理部120を制御する。
ディスプレイ部130は、撮影部110によって撮影されるライブビューをディスプレイする。ライブビューとは、被写体をビューファインダではないディスプレイ部130を介して確認することができるように提供するイメージを意味する。具体的には、撮影部110のレンズを通じて入射される光は、イメージセンサで入射され、イメージセンサは入射された光に対応する電気信号をディスプレイ部130に出力する。それにより、現在の撮影範囲内の被写体のイメージがライブビュー領域に表示される。ライブビューは、コントラストAF(Auto Focus)ライブビュー方式、位相差AFライブビュー方式、ライブビュー処理のための別途のイメージセンサを利用する方式等のように、多様な方式によって提供されてよい。イメージ処理部120で客体を分離した場合、分離された客体はライブビューに重畳されてディスプレイされる。
制御部140は、撮影装置100の動作全般を制御する。具体的には、制御部140は、撮影命令が入力されると、撮影部110を制御して撮影動作を行う。それにより、背景に該当する撮影イメージが獲得されると、その撮影イメージに客体を付加して合成イメージを生成する。制御部140は、客体に対して多様なイメージ処理を行うようにイメージ処理部120を制御し、客体11が撮影イメージに自然に合成できるようにすることができる。具体的には、イメージ処理部120は、客体11と背景イメージの輝度差を軽減させ、カラー分布を補正するトーンマッピング(tone mapping)を行うことができる。または、イメージ処理部120は、客体と背景イメージとの間の境界を除去するようにイメージマッティング(image matting)を行うこともできる。それにより、より自然な合成イメージを生成することができる。
このような合成イメージ生成動作は、撮影装置100が合成撮影モードで動作する際に行われてよい。すなわち、撮影装置100は、ユーザの選択に応じて、一般撮影モード、セルフ撮影モード、合成撮影モード、特殊撮影モード等のような多様なモードで動作することができる。
図2は、合成イメージを撮影する過程を説明するための図である。図2に示すように、制御部140は、合成撮影モードが選択されると、撮影部110を活性化させ、そのライブビューをディスプレイする。このような状態で、撮影命令が入力されると、客体11を含む撮影イメージ10が獲得される。イメージ処理部120は、撮影イメージ10から客体11を分離する。
制御部140は、撮影イメージ10が獲得されると、再び撮影部110を活性化させ、ライブビュー20をディスプレイ部130上にディスプレイする。ディスプレイ部130は、ライブビュー20と客体11とを一つの画面上に重畳させて表示する。ライブビュー20は、撮影装置100の撮影方向に応じてリアルタイムで変更されるが、客体11は毎ライブビュー20画面上に持続的に表示される。それにより、ユーザは、背景イメージと客体11とを一つの画面で確認することができるようになり、客体11と背景イメージの構図を考慮して適切な撮影角度及び時点で撮影命令を入力することができる。撮影命令が入力されると、制御部140は、撮影部110を制御して撮影イメージを獲得し、その撮影イメージと客体11とを一つのイメージに合成する。説明の便宜上、先に撮影されたイメージを第1撮影イメージまたは客体イメージとし、その後撮影されたイメージを第2撮影イメージまたは背景イメージとする。なお、客体11とともに表示されるライブビューは、背景ライブビューとする。
図3は、本発明の別の実施形態に係る合成方法を説明するための図である。図3によると、撮影装置100は、背景ライブビュー内における客体の表示位置、大きさ、カラー及び輝度等のような表示属性のうち、少なくとも一つを変更することができる。
例えば、第1撮影イメージから客体11が分離されると、図3の(a)に示すように、分離された客体11は背景ライブビュー20に重畳されて表示される。このような状態で、ユーザが、客体11の表示された地点をタッチして別の地点にドラッギングすると、制御部140は、ディスプレイ部130に内蔵されたタッチセンサのセンシング値を用いて、タッチ地点の座標値を分析してドラッギング軌跡及び方向を判断する。制御部140は、そのドラッギング軌跡及び方向に応じて、客体11の表示位置を変更するようにイメージ処理部120を制御する。それにより、図3の(b)に示すように、客体11がライブビュー20の画面内で別の位置に移動して表示される。
または、ユーザは、ピンチインやピンチアウト等のような操作を行うこともできる。制御部140は、客体11の表示された領域内で二つ以上の地点がタッチされ、タッチ地点の間の間隔が広がると、客体11の大きさを拡大させるためのピンチイン操作が行われたと判断する。一方、タッチ地点の間の間隔が狭まると、客体11の大きさを縮小させるためのピンチアウト操作が行われたと判断する。制御部140は、判断結果に応じて、客体11の大きさを拡大または縮小するように、イメージ処理部120を制御する。図3の(c)においては、客体11が縮小された状態を示す。
図3の(b)及び(c)においては、ユーザ操作に応じて、客体の表示位置または大きさを変更するものとして説明したが、客体の表示属性は背景ライブビューの特性に応じて自動的に調整されてよい。すなわち、制御部140は、背景ライブビュー20を分析し、背景ライブビュー20内の別の客体と重ならない位置に客体11の位置を移動させるか、別の客体と重ならない程度の大きさに客体11の大きさと調整するように、イメージ処理部120を制御する。
図3においては、客体の表示位置や大きさを変更する場合について説明したが、その他に、客体の輝度やカラー等のような属性を背景ライブビューの特性に基づいて調整することもできる。
図4では、分離された客体11の輝度を背景ライブビュー20に輝度やカラー等のような属性に合致するように調整する実施形態を示す。制御部140は、背景ライブビューの輝度やカラー等のような属性を分析する。そして、分析された属性に対応する値に、客体11の輝度やカラー等を調整するようにイメージ処理部120を制御する。図4では、背景ライブビュー20の輝度に応じて客体11の輝度が増加された状態を示す。
一方、本発明の更に別の実施形態によると、撮影装置100はライブビューに基づいて客体を追跡して分離することもできる。
図5は、このような実施形態に係る客体分離方法を説明するための図である。合成撮影モードが行われると、制御部140は、撮影部110を活性化させてライブビュー10をディスプレイする。ライブビュー30には、被写体に対応する客体11が表示されてよい。
制御部140は、ライブビュー30の各フレームをモニタリングしながら客体を探索する。具体的には、制御部140は、ライブビュー30のフレーム単位で抽出し、そのフレームを分析してエッジを検出する。エッジによって区分されるピクセル領域のうち、類似するピクセル値を有しつつ、連続して配置されるピクセルを含むピクセル領域を一つの客体と判断する。
この場合、ピクセル領域の大きさが閾値未満である場合には、客体判断が困難になる場合がある。例えば、図5の(a)に示すように、ユーザの後頭が写っているか、図5の(b)に示すように、横顔が写っている場合には、顔色に対応するピクセル領域が小さいため、顔領域判断が困難になる。制御部140は、顔領域が判断されるまで、ライブビューをモニタリングし続ける。
それにより、図5の(c)に示すように、ユーザが顔を向けた場合には、顔領域の大きさが閾値以上になり、顔領域及びそれに連結されたユーザ身体領域を含み、一つの客体と判断することができる。制御部140は、一旦客体11が探索されると、その探索された客体11の大きさが縮小されたり、移動するとしても持続的に追跡することができる。それにより、図5の(d)、(e)に示すように、ユーザが多様な形に動かして顔の形が変更されても、客体11を正確に判断することができる。このような状態で、撮影が行われると、図5の(f)のように、撮影イメージ10が獲得される。そして、最終的に撮影されたイメージ10から客体11を分離する。
以上のように、ユーザが自分の姿を先に撮影すると、その撮影イメージからユーザの姿を分離するセグメンテーション(auto segmentation)作業が行われる。図5では、自動的に客体が分離される過程について説明したが、精度を高めるために、ユーザが更に客体分離領域を調整する実施形態で実現されてよい。
図6は、本発明の更に別の実施形態に係る撮影装置における客体分離領域調整方法を説明するための図である。制御部140は、第1撮影イメージ10が獲得されると、それをディスプレイ部130画面上にディスプレイする。このとき、画面上には客体の境界部分を表示するためのガイドイメージ61を同時に表示することができる。制御部140は、客体領域を自動的に特定するオートセグメンテーション作業を行い、その客体境界部分を判断した後、判断された境界部分に点線や実線のガイドイメージ61をレンダリングすることができる。
このような状態で、ユーザは画面に対してタッチ、ドラッグ、フリック、スクリブル(scribble)、ラグ(rug)等のような多様なユーザ操作を行うことができる。この場合、画面上には、ユーザ操作が行われる軌跡に応じて、ラインイメージ62が表示されてよい。結果的に、ユーザ操作の方向や大きさ等に応じて、客体と判断された領域の大きさ及び形が容易に変更されてよい。よって、ユーザの姿と同様の客体が表示された領域を細部的に補正して正確な客体検出が可能となる。
なお、撮影イメージの構造は、被写体との距離や被写体の大きさ等によって多様であってよい。仮に、ユーザが自分の姿を撮影すると、腕の長さ制限のため、ユーザの全身が写らず、顔や上半身の一部だけが撮影イメージに表示される。このような状態で客体を分離すると、残りの上半身や下半身は写らなくなるため、背景イメージと合成すると不自然になるおそれがある。よって、合成の前に、分離された客体の形を復元することができる。
図7は、本発明の更に別の実施形態に係る撮影装置における客体復元方法を説明するための図である。図7によると、客体11の中で、顔領域の幅やボディ領域の幅を用いて、復元領域の幅を決定することができる。すなわち、図7の(a)に示すように、顔領域の幅の半分をWf、ボディ領域の幅の半分をWsとすると、ログ関数を適用して復元領域の大きさを決定することができる。
具体的には、制御部140は、以下の数式を用いて復元領域を決定することができる。
Figure 0006292867

数式(1)を通じて計算される値は、復元領域の幅であってよい。数式(1)において、xは横軸座標値を意味する。すなわち、図7の(a)で、左側最上段の座標を(0、0)とし、右方に進むにつれxが増加し、下方になるにつれyが増加するx−y座標系でモデリングすることができる。この場合、肩の形状を構成する部分を(x、y)と表示することができる。図7において、肩を復元するために、肩の形状を優先して見つけなければならない。右肩を復元しようとする場合、制御部140は、肩の形状を構成する部分のうち、右側最後のx座標値地点でy値が最大値になるまで、x値を順次に増加させつつ、数式(1)を用いてy値を算出する。y値の最大値は、結局、第1撮影イメージの縦方向最大解像度になってよい。左肩を復元する場合には、左側最後のx座標値地点で、y値が最大値になるまでx値を順次に現象させつつy値を算出することができる。それにより、肩に該当する領域が推定されると、イメージ処理部120は、ボディ領域のエッジラインに沿って肩部分12の境界ラインをドローイング(drawing)し、そのドローイングされた境界ラインの内部領域を決定されたピクセル値で埋め、肩領域を復元する。復元領域のピクセル値は、その周辺色相をそのまま借用するミラーリング技法によって決定されてよい。
上述の数式(1)は一例に過ぎず、制御部140は、その他に多様な数式化された関数グラフを用いて肩を復元することができる。例えば、ログ関数の代わりに、ログ関数に近い別の関数を使用することもできる。
結果として、図7の(b)及び(c)に示すように、イメージ処理部120は、第1撮影イメージ10から客体11を分離し、肩部分12を復元することができる。図7の(c)は、肩部分が復元された客体11の形状を示す。
以上のように、撮影装置100は、撮影部110を用いて複数の撮影イメージを撮影した後、合成イメージを生成する。撮影部の数は多様に実現されてよい。仮に、一つの撮影部をもって撮影動作を複数回行い、複数の撮影イメージを獲得することもでき、二つの撮影部をもって順次にまたは同時に撮影動作を行い、複数の撮影イメージを獲得することもできる。以下では、複数の撮影部を備える実施形態に係る撮影装置の構成及び動作について説明する。
図8は、複数の撮影部を備える実施形態に係る撮影装置の構成を示すブロック図である。図8によると、撮影装置100は、撮影部110と、イメージ処理部120と、ディスプレイ部130と、制御部140及び保存部150を含む。
保存部150は、撮影装置で使用される多様なプログラム及びデータ等が保存されてよい。なお、撮影部110で撮影された撮影イメージ、イメージ処理部120で生成される合成イメージ等も、保存部150に保存されてよい。その他に、上述の客体モデルも保存部150に保存されてよい。保存部150は、撮影装置に内蔵されるフラッシュメモリやHDD等であってよく、撮影装置に装着または接続可能なメモリカード、USBメモリスティック、外付けハード等であってよい。
撮影部110は、第1撮影部111と、第2撮影部112のように、複数の撮影部を含むことができる。第1撮影部111と第2撮影部112とは、撮影装置100の本体で対向方向に配置されてよい。例えば、第1撮影部111が第1撮影方向に撮影を行うことができるように撮影装置100の第1面に配置されているとしたら、第2撮影部112は第1撮影方向の反対方向である第2撮影方向で撮影を行うことができるように第2面に配置される。
制御部140は、合成撮影モードが開始されると、第1撮影部111を先に活性化させ、第1撮影部111のライブビューをディスプレイ部130の画面上にディスプレイする。このような状態で撮影命令が入力されると、制御部140は、第1撮影部111を制御して撮影を行い、第1撮影イメージを獲得する。イメージ処理部120は、第1撮影イメージから客体を分離することができる。
制御部140は、第1撮影部111によって第1撮影イメージが獲得されると、第2撮影部112を活性化させる。それにより、第2撮影部112によって撮影されるライブビュー、すなわち、背景ライブビューをディスプレイ部130に提供する。
イメージ処理部120は、第1バッファ部121と、客体処理部122と、第2バッファ部123と、加算部124を含む。第1バッファ部121には、第1撮影部111を介してセンシングされるイメージデータがバッファリングされ、第2バッファ部123には、第2撮影部112を介してセンシングされるイメージデータがバッファリングされる。
客体処理部122は、第1バッファ部121に保存されたイメージデータのうち、客体と判断された領域のデータを分離する。分離された客体は、加算部124に提供される。
加算部124は、第2バッファ部123にバッファリングされたイメージと客体処理部122で分離された客体とを重畳させてディスプレイ部130に出力する。
ディスプレイ部130は、第1バッファ部121と、第2バッファ部123及び加算部124から出力されるイメージデータを選択的にディスプレイすることができる。
制御部140は、客体及び背景ライブビューがディスプレイされている状態で、撮影命令が入力されると、第2撮影部112を制御して撮影を行う。そして、撮影イメージと客体とを合成させて保存部150に保存させる。
図9は、二つの撮影部を用いて合成イメージを生成する方法の一例を説明するための図である。図9によると、撮影装置100の一表面にディスプレイ部130が配置される。第1撮影部111は、ディスプレイ部130と同一面に配置され、第2撮影部112は、ディスプレイ139と反対面に配置される。
合成撮影を行うとする場合、第1撮影部111及び第2撮影部112は、上述のように、順次に活性化されてよいが、図9においては、第1撮影部111及び第2撮影部112が同時に活性化される実施形態を示す。この場合、ディスプレイ部130には、第1撮影部111のライブビュー910と第2撮影部112のライブビュー920とが同時にディスプレイされてよい。ユーザは、二つのライブビュー910、920を同時に見ながら撮影を行うことができる。
一例によると、ユーザが撮影命令を入力すると、制御部140は、第1撮影部111を制御して撮影動作を行う。イメージ処理部120は、その撮影イメージから客体911を分離する。画面は、第2撮影部112のライブビューに切り替えられ、分離された客体911がその画面上に同時に表示される。このような状態で、再び撮影命令が入力されると、客体911を含む合成イメージが生成される。
別の実施形態によると、ユーザは、背景イメージを先に選択し、撮影することもできる。すなわち、二つのライブビュー910、920が表示された状態で、ユーザが第2ライブビュー920をタッチすると背景イメージが撮影される。この場合、第2ライブビュー920が表示されていた領域に背景イメージが固定的に表示され、第1ライブビュー910は引き続きディスプレイされてよい。または、背景イメージが全画面に表示され、第1ライブビュー910はPIP(Picture in Picture)形態で表示されたり、背景イメージ上で透明に重畳して表示されてよい。
更に別の実施形態によると、二つのライブビュー910、920が表示された状態で、ユーザが撮影命令を入力すると、制御部140は、第1撮影部111及び第2撮影部112を同時に制御し、同時撮影を行うこともできる。それにより、背景イメージと客体とが同時に獲得されると、その客体を背景イメージに重畳させて表示し、ユーザ選択に応じて、客体の表示位置、大きさ、形、表示属性等を変更することができる。
以上のような多様な実施形態は、撮影機能を備えた多様な装置で行われてよい。撮影装置が携帯電話やタブレットパソコン等のように、多様なアプリケーションをサポートする装置である場合、 撮影前にユーザが撮影モードを選択することもできる。
図10は、合成撮影モードを選択して合成イメージを生成する全過程を説明するための図である。図10によると、撮影装置100がターンオンされたり、アンロック(un−lock)されると、予め設定されたアプリケーションやフォルダ等に対するアイコンを含むアイコン画面1000が表示されてよい。ユーザは、このようなアイコンのうち、カメラアプリケーションに該当するアイコンを選択することができる。
カメラアイコンが選択されると、ディスプレイ部130は、各種モードを選択することができる選択画面1010をディスプレイする。選択画面1010には、一般撮影、セルフ撮影、合成撮影、特殊撮影等のような多様なモードに関する情報がディスプレイされる。
このような状態で、合成撮影モードが選択されると、先に第1撮影部111が活性化され、第1撮影部111のライブビュー1020が表示される。ライブビュー1020画面には、撮影メニュー1022が表示されてよい。ユーザが、撮影メニュー1022を選択すると、ライブビュー1020に対応する第1撮影イメージが生成され、第1撮影イメージから客体1021が分離される。そして、第2撮影部112が活性化され、第2撮影部112のライブビュー1030と客体1021とが重畳されて表示される。このような背景ライブビュー1030にも撮影メニュー1022が表示されてよい。
ユーザは、撮影装置100をあっちこっちに回転させて所望の背景を選択することができる。それにより、背景ライブビュー1030内の適した位置に客体1021の位置した状態で、撮影メニュー1022を選択して撮影を行うことができる。
制御部140は、背景イメージまで撮影されると、客体1021が含まれた合成イメージ1040を画面上に表示し、その合成イメージ1040を保存するかを問い合わせる問い合わせメッセージ1050を表示する。制御部140は、問い合わせメッセージ1050に対するユーザの選択によって、保存部150に保存したり、保存取り消すことができる。保存取り消しされると、再び客体1021を含む背景ライブビュー1030を表示するステップに復帰する。
図11は、本発明の一実施形態に係る合成イメージ撮影方法を説明するためのフローチャートである。図11によると、撮影装置は、先に第1撮影イメージを獲得した後(S1110)、その第1撮影イメージから客体を分離させる(S1120)。
そして、分離された客体を重畳された背景ライブビューをディスプレイする(S1130)。客体と背景ライブビューとは、相互異なる撮影部を通じてそれぞれ獲得することもでき、一つの撮影部を用いて順次に獲得することもできる。客体の位置、大きさ、形、カラー、輝度等のような多様な表示属性は、ユーザの操作に応じて、または背景ライブビューの表示属性に応じて、背景ライブビュー上で多様に変更されてよい。なお、客体に対しては、形復元が行われてよく、トーンマッピング、イメージマッティング等のような後続処理が行われてよい。
撮影命令が入力された場合、背景ライブビューに対応する撮影イメージを生成し、その撮影イメージに客体を合成して合成イメージを生成する(S1150)。
図12は、本発明の一実施形態に係る客体分離方法を説明するためのフローチャートである。図12によると、合成撮影モードが開始されると(S1210)、ライブビューをディスプレイする(S1220)。撮影装置は、ライブビューの各フレームをモニタリングしながら客体を探索する(S1230)。客体探索は、事前学習された客体モデルを用いて行われてよい。例えば、撮影装置100は、撮影イメージ内で客体モデルに合致する領域を客体と判断することができる。客体が探索されて特定されると、撮影装置は探索された客体を持続的に追跡する(S1240)。
その後、客体を撮影するための客体撮影命令が入力されると、ライブビューに対応する第1撮影イメージを撮影し(S1260)、その第1撮影イメージ内で追跡された客体を分離する(S1270)。分離された客体は、背景ライブビューに重畳され、ユーザが合成イメージの構図を撮影前に予め予測することができる。
以上のように、本発明の多様な実施形態によると、ユーザのイメージは、背景イメージと適切に合成されてよい。特に、八系イメージを撮影するためのライブビュー上でユーザイメージの位置や、大きさ、形、表示属性等を便宜に調整し、セルフ撮影の限界を克服することができる。
ユーザは、合成イメージを自分の撮影装置100に保存したり、外部のクラウドサーバ、ウェブサーバ等にアップロードさせて他人と共有することができる。
一方、以上のような実施形態では、第1撮影イメージから客体を分離し、その客体をライブビューと重畳表示するものとして説明したが、客体は必ずしも静止映像のみから分離されるものではない。例えば、客体は、動画データの各フレームから分離されたり、ライブビューそのものから分離される動的客体であってよい。
具体的に、図8に示すような実施形態で、第1撮影部から提供されるライブビューは第1バッファ部121にバッファリングされる。客体処理部122は予め設定された周波数周期によって、第1バッファ部121にバッファリングされるライブビューに対して客体分離作業を行う。それにより、第1撮影部111から提供される第1ライブビューの変化によって、分離される客体の形及び位置も持続的に変化するようになる。変化された客体は、第2撮影部112から提供される第2ライブビューに重畳表示されてよい。ユーザは、動的客体が重畳された第2ライブビューを見ながら、適した時点で撮影命令を入力することができる。制御部140は、撮影命令が入力されると、第1及び第2撮影部111、112をそれぞれ制御して撮影動作を行い、第1撮影部111で撮影された第1イメージから分離された客体を、第2撮影部112で撮影されたイメージに付加し、合成イメージを生成することができる。
または、第1撮影部111で提供されるライブビュー以外に保存部150または外部保存媒体から提供される動画コンテンツから客体を分離し、撮影イメージに重畳させることもできる。それにより、ユーザは既存に撮影した動画データのうちからも所望の客体を分離し、新規撮影イメージに合成させることができる。客体分離方法及び合成方法は、上述の別の実施形態と同様に、繰り返し説明は省略する。
以上のように、本発明の多様な実施形態によると、周囲に人がなくてもユーザ本人が入っているイメージを容易に撮影することができるようになる。
上述の多様な実施形態に係る合成イメージ撮影方法、客体分離方法等は、ソフトウェアでコーディングされて、非一時的な読み取り可能な媒体に保存されてよい。このような非一時的な読み取り可能な媒体は、上述のような多様な撮影装置に搭載され、当該装置で上述の方法を実行するようにサポートすることができる。
非一時的な読み取り可能な媒体とは、レジスタやキャッシュ、メモリ等のように短い間だけデータを保存する媒体ではなく、半永久的にデータを保存し、機器によって読み取り(Reading)が可能な媒体を意味する。具体的には、上述の多様なアプリケーションまたはプログラムは、CDやDVD、ハードディスク、ブルーレイディスク、USB、メモリカード、ROM等のような非一時的な読み取り可能な媒体に保存されて提供されてよい。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明は以上の実施形態に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的趣旨の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
10 撮影イメージ
11、911、1021 客体
12 肩部分
20、30、910、920、1020、1030 ライブビュー
61 ガイドイメージ
62 ラインイメージ
100 撮影装置
110 撮影部
111 第1撮影部
112 第2撮影部
120 イメージ処理部
121 第1バッファ部
122 客体処理部
123 第2バッファ部
124 加算部
130 ディスプレイ部
140 制御部
150 保存部
1000 アイコン画面
1010 選択画面
1022 撮影メニュー
1040 合成イメージ
1050 問い合わせメッセージ

Claims (13)

  1. 撮影部と、
    前記撮影部を介して獲得された第1撮影イメージから客体を分離するイメージ処理部と、
    前記分離された客体が重畳された背景ライブビューをディスプレイするディスプレイ部と、
    背景撮影命令が入力されると、前記背景ライブビューに対応する第2撮影イメージを獲得し、前記第2撮影イメージに前記分離された客体を付加して合成イメージを生成する制御部と
    を含み、
    前記制御部は、
    前記第1撮影イメージに含まれず、前記分離された客体の領域と重畳していない復元領域を付加することによって、前記分離された客体の形状を復元するように前記イメージ処理部を制御し、前記復元された形状を含む前記分離された客体を前記背景ライブビューに重畳させる、
    ことを特徴とする、撮影装置。
  2. 前記制御部は、
    合成撮影モードが選択されると、前記撮影部のライブビューをディスプレイするように前記ディスプレイ部を制御し、前記ライブビューの各フレームをモニタリングしながら前記客体を探索して追跡し、
    客体撮影命令が入力されると、前記撮影部のライブビューに対応する前記第1撮影イメージを生成し、前記第1撮影イメージ内で、前記追跡された客体を分離するように前記イメージ処理部を制御することを特徴とする請求項1に記載の撮影装置。
  3. 前記撮影部は、
    第1撮影方向で撮影を行うための第1撮影部と、
    前記第1撮影方向の反対方向である第2撮影方向で撮影を行うための第2撮影部と
    を含み、
    前記制御部は、
    前記合成撮影モードが開始されると、前記ライブビューを前記ディスプレイ部に提供するように前記第1撮影部を活性化させ、前記第1撮影部によって前記第1撮影イメージが獲得されると、前記背景ライブビューを前記ディスプレイ部に提供するように前記第2撮影部を活性化させることを特徴とする請求項2に記載の撮影装置。
  4. 事前学習された客体モデルが保存された保存部を更に含み、
    前記制御部は、
    前記第1撮影イメージ内で前記客体モデルに合致する領域を前記客体と判断することを特徴とする請求項1に記載の撮影装置。
  5. 前記ディスプレイ部は、
    前記第1撮影イメージをディスプレイし、
    前記制御部は、
    前記第1撮影イメージに対するユーザ操作が行われると、前記ユーザ操作に応じて前記客体と判断された領域の大きさ及び形を変更することを特徴とする請求項4に記載の撮影装置。
  6. 前記制御部は、
    前記背景ライブビュー内で、前記客体の表示位置、大きさ、カラー及び輝度のうち、少なくとも一つを、ユーザの選択に応じて調整するように前記イメージ処理部を制御することを特徴とする請求項1ないしのいずれか一項に記載の撮影装置。
  7. 前記制御部は、
    前記背景ライブビューの特性に基づいて、前記分離された客体の表示位置、大きさ、カラー及び輝度のうち、少なくとも一つを調整することを特徴とする請求項1ないしのいずれか一項に記載の撮影装置。
  8. 合成イメージ撮影方法において、
    第1撮影イメージを獲得し、前記第1撮影イメージから客体を分離するステップと、
    前記客体が重畳された背景ライブビューをディスプレイするステップと、
    背景撮影命令が入力されると、前記背景ライブビューに対応する第2撮影イメージを獲得するステップと、
    前記第2撮影イメージに前記分離された客体を付加して合成イメージを生成するステップと
    を含み、さらに、
    前記第1撮影イメージに含まれず、前記分離された客体の領域と重畳していない復元領域を付加することによって、前記第1撮影イメージから分離された前記客体の形状を復元するステップ、
    を含む、ことを特徴とする合成イメージ撮影方法。
  9. 前記客体を分離するステップは、
    合成撮影モードが選択されると、ライブビューをディスプレイするステップと、
    前記ライブビューの各フレームをモニタリングしながら前記客体を探索して追跡するステップと、
    客体撮影命令が入力されると、前記ライブビューに対応する前記第1撮影イメージを生成するステップと、
    前記第1撮影イメージ内で、前記追跡された客体を分離するステップと
    を含むことを特徴とする請求項に記載の合成イメージ撮影方法。
  10. 前記客体を探索して追跡するステップは、
    前記第1撮影イメージ内で、事前学習された客体モデルに合致する領域を前記客体と判断することを特徴とする請求項に記載の合成イメージ撮影方法。
  11. 前記客体を分離するステップは、
    前記第1撮影イメージをディスプレイするステップと、
    前記第1撮影イメージに対するユーザ操作が行われると、前記ユーザ操作に応じて前記客体と判断された領域の大きさ及び形を変更するステップと
    を含むことを特徴とする請求項10に記載の合成イメージ撮影方法。
  12. 前記背景ライブビュー内における前記分離された客体の表示位置、大きさ、カラー及び輝度のうち、少なくとも一つを、ユーザの選択に応じて調整するステップを更に含むことを特徴とする請求項8ないし11のいずれか一項に記載の合成イメージ撮影方法。
  13. 前記背景ライブビューの特性に基づいて、前記分離された客体の表示位置、大きさ、カラー及び輝度のうち、少なくとも一つを調整するステップを更に含むことを特徴とする請求項8ないし11のいずれか一項に記載の合成イメージ撮影方法。
JP2013269718A 2012-12-28 2013-12-26 合成イメージを撮影する撮影装置及びその方法 Expired - Fee Related JP6292867B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020120157065A KR102000536B1 (ko) 2012-12-28 2012-12-28 합성 이미지를 촬영하는 촬영 장치 및 그 방법
KR10-2012-0157065 2012-12-28

Publications (2)

Publication Number Publication Date
JP2014131281A JP2014131281A (ja) 2014-07-10
JP6292867B2 true JP6292867B2 (ja) 2018-03-14

Family

ID=50028708

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013269718A Expired - Fee Related JP6292867B2 (ja) 2012-12-28 2013-12-26 合成イメージを撮影する撮影装置及びその方法

Country Status (5)

Country Link
US (1) US9357117B2 (ja)
EP (1) EP2750372B1 (ja)
JP (1) JP6292867B2 (ja)
KR (1) KR102000536B1 (ja)
CN (1) CN103916587B (ja)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9992409B2 (en) * 2013-02-14 2018-06-05 Panasonic Intellectual Property Management Co., Ltd. Digital mirror apparatus
US10430894B2 (en) 2013-03-21 2019-10-01 Khoros, Llc Gamification for online social communities
US9952756B2 (en) 2014-01-17 2018-04-24 Intel Corporation Dynamic adjustment of a user interface
CN104135612B (zh) * 2014-07-11 2018-05-01 努比亚技术有限公司 一种可调节拍摄主体位置的拍摄方法和拍摄装置
CN104657206B (zh) * 2015-02-09 2018-09-28 青岛海信移动通信技术股份有限公司 一种图像数据的处理方法和装置
CN106303286B (zh) * 2015-05-22 2020-02-07 中兴通讯股份有限公司 图片处理方法、发送方法、处理装置及发送装置
CN105187709B (zh) * 2015-07-28 2018-08-14 努比亚技术有限公司 一种实现异地拍摄的方法及终端
US9922452B2 (en) * 2015-09-17 2018-03-20 Samsung Electronics Co., Ltd. Apparatus and method for adjusting brightness of image
US11138207B2 (en) 2015-09-22 2021-10-05 Google Llc Integrated dynamic interface for expression-based retrieval of expressive media content
US10474877B2 (en) 2015-09-22 2019-11-12 Google Llc Automated effects generation for animated content
US20170083524A1 (en) * 2015-09-22 2017-03-23 Riffsy, Inc. Platform and dynamic interface for expression-based retrieval of expressive media content
US10303925B2 (en) 2016-06-24 2019-05-28 Google Llc Optimization processes for compressing media content
CN105338242A (zh) * 2015-10-29 2016-02-17 努比亚技术有限公司 一种图像合成方法和装置
JP2017130735A (ja) * 2016-01-19 2017-07-27 ソニー株式会社 表示制御装置、表示制御方法及びコンピュータプログラム
KR101794453B1 (ko) * 2016-07-14 2017-11-08 주식회사 프리미스 차량의 주변 정보를 포함하는 이미지를 생성하기 위한 방법 및 장치
CN106713783A (zh) * 2016-12-16 2017-05-24 天脉聚源(北京)传媒科技有限公司 一种视频中的图像合成的方法及装置
US10586111B2 (en) 2017-01-13 2020-03-10 Google Llc Using machine learning to detect which part of the screen includes embedded frames of an uploaded video
CN106803888A (zh) * 2017-03-06 2017-06-06 联想(北京)有限公司 合成图像的方法和电子设备
US10902462B2 (en) 2017-04-28 2021-01-26 Khoros, Llc System and method of providing a platform for managing data content campaign on social networks
JP6934059B2 (ja) * 2017-09-07 2021-09-08 富士フイルム株式会社 撮像装置
US11050704B2 (en) 2017-10-12 2021-06-29 Spredfast, Inc. Computerized tools to enhance speed and propagation of content in electronic messages among a system of networked computing devices
US10346449B2 (en) 2017-10-12 2019-07-09 Spredfast, Inc. Predicting performance of content and electronic messages among a system of networked computing devices
US11470161B2 (en) 2018-10-11 2022-10-11 Spredfast, Inc. Native activity tracking using credential and authentication management in scalable data networks
US11570128B2 (en) 2017-10-12 2023-01-31 Spredfast, Inc. Optimizing effectiveness of content in electronic messages among a system of networked computing device
US10785222B2 (en) 2018-10-11 2020-09-22 Spredfast, Inc. Credential and authentication management in scalable data networks
US10999278B2 (en) 2018-10-11 2021-05-04 Spredfast, Inc. Proxied multi-factor authentication using credential and authentication management in scalable data networks
US10601937B2 (en) 2017-11-22 2020-03-24 Spredfast, Inc. Responsive action prediction based on electronic messages among a system of networked computing devices
KR101932009B1 (ko) * 2017-12-29 2018-12-24 (주)제이엘케이인스펙션 다중 객체 검출을 위한 영상 처리 장치 및 방법
US10594773B2 (en) 2018-01-22 2020-03-17 Spredfast, Inc. Temporal optimization of data operations using distributed search and server management
US11061900B2 (en) 2018-01-22 2021-07-13 Spredfast, Inc. Temporal optimization of data operations using distributed search and server management
US11496661B2 (en) 2018-02-22 2022-11-08 Sony Corporation Image processing apparatus and image processing method
WO2020049914A1 (ja) * 2018-09-06 2020-03-12 富士フイルム株式会社 画像処理装置、方法およびプログラム
JP2020048025A (ja) * 2018-09-18 2020-03-26 富士フイルム株式会社 撮影装置、撮影装置の作動プログラム及び作動方法
US10855657B2 (en) 2018-10-11 2020-12-01 Spredfast, Inc. Multiplexed data exchange portal interface in scalable data networks
JP2020115607A (ja) * 2019-01-17 2020-07-30 日本電気株式会社 画像処理装置、画像処理方法、プログラム
US10931540B2 (en) 2019-05-15 2021-02-23 Khoros, Llc Continuous data sensing of functional states of networked computing devices to determine efficiency metrics for servicing electronic messages asynchronously
KR102057713B1 (ko) * 2019-05-21 2019-12-19 주식회사 코어닷투데이 인식 영역의 스타일을 트랜스퍼하는 시스템 및 방법
CN110365907B (zh) * 2019-07-26 2021-09-21 维沃移动通信有限公司 一种拍照方法、装置及电子设备
US20210144297A1 (en) * 2019-11-12 2021-05-13 Shawn Glidden Methods System and Device for Safe-Selfie
CN111586296B (zh) * 2020-04-27 2021-11-16 北京小米移动软件有限公司 图像拍摄方法、图像拍摄装置及存储介质
CN111669503A (zh) * 2020-06-29 2020-09-15 维沃移动通信有限公司 拍照方法、装置、电子设备及介质
US11438289B2 (en) 2020-09-18 2022-09-06 Khoros, Llc Gesture-based community moderation
US11128589B1 (en) 2020-09-18 2021-09-21 Khoros, Llc Gesture-based community moderation
US11438282B2 (en) 2020-11-06 2022-09-06 Khoros, Llc Synchronicity of electronic messages via a transferred secure messaging channel among a system of various networked computing devices
US11627100B1 (en) 2021-10-27 2023-04-11 Khoros, Llc Automated response engine implementing a universal data space based on communication interactions via an omnichannel electronic data channel
US11924375B2 (en) 2021-10-27 2024-03-05 Khoros, Llc Automated response engine and flow configured to exchange responsive communication data via an omnichannel electronic communication channel independent of data source
US11714629B2 (en) 2020-11-19 2023-08-01 Khoros, Llc Software dependency management
CN112492216B (zh) * 2020-12-14 2022-06-07 维沃移动通信有限公司 拍摄控制方法和拍摄控制装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1229977C (zh) * 1998-06-22 2005-11-30 富士写真胶片株式会社 摄影装置及其方法
US6854573B2 (en) * 2001-10-25 2005-02-15 Lord Corporation Brake with field responsive material
US20030105880A1 (en) 2001-12-04 2003-06-05 Koninklijke Philips Electronics N.V. Distributed processing, storage, and transmision of multimedia information
GB2398696B (en) 2001-12-21 2005-03-09 Nec Corp Portable communication terminal with camera device
JP2003189168A (ja) * 2001-12-21 2003-07-04 Nec Corp 携帯電話用カメラ
US8682097B2 (en) * 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
US8363951B2 (en) * 2007-03-05 2013-01-29 DigitalOptics Corporation Europe Limited Face recognition training method and apparatus
JP2005094741A (ja) * 2003-08-14 2005-04-07 Fuji Photo Film Co Ltd 撮像装置及び画像合成方法
JP2005204015A (ja) 2004-01-15 2005-07-28 Nec Corp 携帯機器および画像処理方法
KR100800804B1 (ko) * 2006-12-27 2008-02-04 삼성전자주식회사 파노라마 영상 촬영 방법
KR100840023B1 (ko) * 2007-11-13 2008-06-20 (주)올라웍스 셀프 촬영 시 얼굴의 구도를 잡도록 도와주는 방법 및시스템
US7855737B2 (en) 2008-03-26 2010-12-21 Fotonation Ireland Limited Method of making a digital camera image of a scene including the camera user
JP2009253925A (ja) * 2008-04-11 2009-10-29 Casio Comput Co Ltd 撮像装置及び撮像方法と、撮影制御プログラム
US8254760B2 (en) 2009-08-28 2012-08-28 Apple Inc. Pixel analysis and frame alignment for background frames
KR20110060499A (ko) 2009-11-30 2011-06-08 삼성전자주식회사 디지털 영상 처리 장치 및 그 제어방법
US8744420B2 (en) 2010-04-07 2014-06-03 Apple Inc. Establishing a video conference during a phone call
TW201212390A (en) 2010-09-03 2012-03-16 Walton Advanced Eng Inc USB device structure
KR101680684B1 (ko) * 2010-10-19 2016-11-29 삼성전자주식회사 영상 처리 방법 및 이를 적용한 영상 촬영 장치
JP5907660B2 (ja) 2011-02-28 2016-04-26 オリンパス株式会社 撮像装置
KR101764372B1 (ko) 2011-04-19 2017-08-03 삼성전자주식회사 휴대용 단말기에서 영상 합성 방법 및 장치
JP5963256B2 (ja) * 2012-08-17 2016-08-03 Kddi株式会社 画像生成装置

Also Published As

Publication number Publication date
EP2750372A1 (en) 2014-07-02
KR20140086491A (ko) 2014-07-08
CN103916587A (zh) 2014-07-09
US9357117B2 (en) 2016-05-31
EP2750372B1 (en) 2019-10-16
KR102000536B1 (ko) 2019-07-16
US20140184841A1 (en) 2014-07-03
CN103916587B (zh) 2019-03-29
JP2014131281A (ja) 2014-07-10

Similar Documents

Publication Publication Date Title
JP6292867B2 (ja) 合成イメージを撮影する撮影装置及びその方法
US10284789B2 (en) Dynamic generation of image of a scene based on removal of undesired object present in the scene
KR101612727B1 (ko) 리포커싱을 실행하는 방법 및 전자 기기
US10165199B2 (en) Image capturing apparatus for photographing object according to 3D virtual object
KR102114377B1 (ko) 전자 장치에 의해 촬영된 이미지들을 프리뷰하는 방법 및 이를 위한 전자 장치
KR101231469B1 (ko) 이미지 처리 지원 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체
US20110273369A1 (en) Adjustment of imaging property in view-dependent rendering
CN109040474B (zh) 照片显示方法、装置、终端及存储介质
JP2009278623A (ja) 撮像デバイス内でタッチ式調節を実行する方法及び装置
KR102407190B1 (ko) 영상 촬영 장치 및 그 동작 방법
WO2022001897A1 (zh) 图像拍摄方法及电子设备
KR101703013B1 (ko) 3차원 스캐너 및 스캐닝 방법
CN106791456A (zh) 一种拍照方法及电子设备
US9838615B2 (en) Image editing method and electronic device using the same
US20150022559A1 (en) Method and apparatus for displaying images in portable terminal
JP7293362B2 (ja) 撮影方法、装置、電子機器及び記憶媒体
US20220283698A1 (en) Method for operating an electronic device in order to browse through photos
JP6679430B2 (ja) 撮像装置、撮像装置の制御方法及びプログラム
CN114500852B (zh) 拍摄方法、拍摄装置、电子设备和可读存储介质
JP2015056825A (ja) 撮像装置、その制御方法及びプログラム
JP7261261B2 (ja) 情報処理装置、スイッチングシステム、プログラム及び方法
CN116980759A (zh) 拍摄方法、终端、电子设备及可读存储介质
CN115118884A (zh) 拍摄方法、装置及电子设备
CN116782022A (zh) 一种拍摄方法、装置、电子设备及可读存储介质
CN115118879A (zh) 图像拍摄、显示方法、装置、电子设备及可读存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180213

R150 Certificate of patent or registration of utility model

Ref document number: 6292867

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees