JP6134281B2 - イメージを処理する電子装置及びその動作方法 - Google Patents

イメージを処理する電子装置及びその動作方法 Download PDF

Info

Publication number
JP6134281B2
JP6134281B2 JP2014048348A JP2014048348A JP6134281B2 JP 6134281 B2 JP6134281 B2 JP 6134281B2 JP 2014048348 A JP2014048348 A JP 2014048348A JP 2014048348 A JP2014048348 A JP 2014048348A JP 6134281 B2 JP6134281 B2 JP 6134281B2
Authority
JP
Japan
Prior art keywords
image data
image
memory
processor
acquisition time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014048348A
Other languages
English (en)
Other versions
JP2014179083A (ja
Inventor
宇 鉉 白
宇 鉉 白
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020130139907A external-priority patent/KR102186383B1/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2014179083A publication Critical patent/JP2014179083A/ja
Application granted granted Critical
Publication of JP6134281B2 publication Critical patent/JP6134281B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、電子装置に関し、より詳しくは、イメージを処理するための電子装置及びその動作方法に関するものである。
情報通信技術及び半導体技術の発展によって、各種電子装置は多様なマルチメディアサービスを提供するマルチメディア装置として発展しつつある。例えば、携帯用電子装置は放送サービス、無線インターネットサービス、及び音楽再生サービスなどの多様なマルチメディアサービスを提供する。
電子装置は、イメージセンサを介して獲得した一つ以上のイメージを利用して多様なサービスを提供する。
多数個のイメージセンサを備える場合、電子装置はそれぞれのイメージセンサを介して獲得したイメージの処理速度が異なると、同一時点でイメージセンサを介して獲得したイメージを同一時点に表示部に表示することができない問題が発生する。
韓国公開特許第10−2012−0048396号公報
本発明は、上記従来の問題点に鑑みてなされたものであって、本発明の目的は、多数個のイメージセンサを介して獲得したイメージを効率的に処理するための電子装置及びその動作方法を提供することにある。
また、本発明の目的は、イメージセンサを介して獲得したイメージの処理遅延を減らすための電子装置及びその動作方法を提供することにある。
上記目的を達成するためになされた本発明の一態様による電子装置は、低画素の第1イメージデータを生成する第1イメージセンサと、高画素の第2イメージデータを生成する第2イメージセンサと、前記第1イメージセンサから受信した第1イメージデータを処理する第1プロセッサと、前記第2イメージセンサから受信した第2イメージデータを処理する第2プロセッサと、前記第1プロセッサによって処理された第1イメージデータ及び前記第2プロセッサによって処理された第2イメージデータのうちの一つ以上のイメージデータを表示する表示部を備え、前記第1のプロセッサは、前記第1イメージデータにイメージ獲得時点(time stamp)を設定し、前記第2プロセッサは、前記第2イメージデータにイメージ獲得時点を設定し、前記表示部は、前記イメージ獲得時点に基づいて一つ以上のイメージデータを表示し、前記第1プロセッサは、キャプチャイベントの発生に対する応答で、処理遅延の差に基づいて、前記第1イメージセンサを介して受信した多数個の第1イメージデータのうち、前記キャブチャイベントの発生時点より前のイメージ獲得時点を含む第1イメージデータを選択し、前記第2イメージセンサを介して受信した多数個の第2イメージデータのうち、前記キャブチャイベントの発生時点に最も近接したイメージ獲得時点を含む第2イメージデータを選択し、前記選択した第1イメージデータと前記選択した第2イメージデータを利用して合成イメージを生成することを特徴とする。
上記目的を達成するためになされた本発明の一態様による電子装置の動作方法は、多数個のイメージセンサを利用して多数個のイメージデータを生成するステップと、前記多数個のイメージセンサのそれぞれに接続される多数個のプロセッサを介して、前記多数個のイメージデータのそれぞれに対するイメージ獲得時点を設定するステップと、前記イメージ獲得時点に基づいて多数個のプロセッサで処理された一つ以上のイメージデータを表示部に表示するステップを有し、前記表示部に表示するステップは、第1メモリに保存された一つ以上の低画素の第1イメージデータのうち、処理遅延の差に基づいてイメージ獲得時点がキャプチャイベント発生時点より前であるいずれか一つの第1イメージデータを選択するステップと、第2メモリに保存された一つ以上の高画素の第2イメージデータのうち、前記キャプチャイベント発生時点に最も近接したイメージ獲得時点を含む第2イメージデータを選択するステップと、前記選択した第1イメージデータ及び前記選択した第2イメージデータを合成した合成イメージデータを前記表示部に表示するステップを含むことを特徴とする。
上記目的を達成するためになされた本発明の更に他の態様による電子装置の動作方法は、応用プロセッサによって第1イメージ獲得時点が追加された第1イメージデータ及び前記応用プロセッサの外部に位置するイメージ処理プロセッサによって第2イメージ獲得時点が追加された第2イメージデータを保存するステップと、前記イメージ獲得時点に基づいて前記応用プロセッサによって処理された前記第1イメージデータ及び前記イメージ処理プロセッサによって処理された前記第2イメージデータのうちの一つ以上のイメージデータを表示部に表示するステップを有し、前記表示部に表示するステップは、第1メモリに保存された一つ以上の低画素の第1イメージデータのうち、処理遅延の差に基づいてイメージ獲得時点がキャプチャイベント発生時点より前であるいずれか一つの第1イメージデータを選択するステップと、第2メモリに保存された一つ以上の高画素の第2イメージデータのうち、前記キャプチャイベント発生時点に最も近接したイメージ獲得時点を含む第2イメージデータを選択するステップと、前記選択した第1イメージデータ及び前記選択した第2イメージデータを合成した合成イメージデータを前記表示部に表示するステップを含むことを特徴とする。
また、上記目的を達成するためになされた本発明の更に他の態様による電子装置の動作方法は、第1イメージセンサ及び第2イメージセンサを利用して低画素の第1イメージデータ及び高画素の第2イメージデータを生成するステップと、応用プロセッサによって第1イメージ獲得時点が追加された前記第1イメージデータ及び前記応用プロセッサの外部に位置するイメージ処理プロセッサによって第2イメージ獲得時点が追加された前記第2イメージデータを保存するステップと、前記イメージ獲得時点に基づいて前記応用プロセッサによって処理された前記第1イメージデータ及び前記イメージ処理プロセッサによって処理された前記第2イメージデータのうちの一つ以上のイメージデータを表示部に表示するステップを有し、前記表示部に表示するステップは、第1メモリに保存された一つ以上の第1イメージデータのうち、処理遅延の差に基づいてイメージ獲得時点がキャプチャイベント発生時点より前であるいずれか一つの第1イメージデータを選択するステップと、第2メモリに保存された一つ以上の第2イメージデータのうち、前記キャプチャイベント発生時点に最も近接したイメージ獲得時点を含む第2イメージデータを選択するステップと、前記選択した第1イメージデータ及び前記選択した第2イメージデータを合成した合成イメージデータを前記表示部に表示するステップを含むことを特徴とする。
本発明によれば、電子装置でプロセッサの内部又は外部に位置するイメージ処理部で一つ以上のイメージセンサを介して獲得した一つ以上のイメージデータを表示部に表示可能な形式に変換してプロセッサに提供することで、イメージ処理時間による時間遅延を減らすことができる。また、電子装置でイメージセンサを介して獲得したイメージデータに設定したイメージ獲得時点を利用して合成のための多数個のイメージデータを選択することで、合成するイメージデータの獲得時点を同期化することができる。
本発明の一実施形態による電子装置のブロック構成を示す図である。 本発明の一実施形態によるプロセッサの詳細なブロック構成を示す図である。 本発明の他の実施形態による電子装置のブロック構成を示す図である。 本発明の他の実施形態によるプロセッサの詳細なブロック構成を示す図である。 本発明の更に他の実施形態による電子装置のブロック構成を示す図である。 本発明の更に他の実施形態によるプロセッサの詳細なブロック構成を示す図である。 本発明の更に他の実施形態による外部イメージ処理部の詳細なブロック構成を示す図である。 本発明の更に他の実施形態によるメモリの詳細なブロック構成を示す図である。 本発明の更に他の実施形態による電子装置で合成のためのイメージデータを選択するためのフローチャートである。 本発明の更に他の実施形態による電子装置で合成のためのイメージデータを選択するためのフローチャートの他の例である。 本発明の更に他の実施形態によるメモリのデータ構成を示す図である。 本発明の更に他の実施形態による電子装置で合成のためのイメージを選択するためのフローチャートの更に他の例である。 本発明の更に他の実施形態によるメモリのデータ構成を示す図である。
以下、本発明を実施するための形態の具体例を、図面を参照しながら詳細に説明する。
本発明を説明するに当たって、関連する公知の機能或いは構成に関する具体的な説明が本発明の要旨を不明確にすると判断される場合、その詳細な説明を省略する。後述する用語は本発明における機能に基づいて定義した用語であり、ユーザ、運用者の意図又は慣例などによって異なり得る。よって、その定義は本明細書全般に亘る内容に基づく。
以下、本発明の一実施形態による電子装置において多数個のイメージセンサを介して獲得したイメージを処理するための技術について説明する。
本実施形態による電子装置は、多数個のイメージセンサを含むスマートフォン、タブレットPC、携帯電話、画像電話、電子書籍リーダー、デスクトップPC、ラップトップPC、ネットブックコンピュータ、PDA、PMP、MP3プレーヤー、モバイル医療機器、アクセサリ、電子アクセサリ、カメラ、ウェアラブル装置、電子時計、腕時計、冷蔵庫、エアコン、掃除機、人工知能ロボット、TV、DVDプレーヤー、オーディオ、オーブン、電子レンジ、洗濯機、電子ブレスレット、電子ネックレス、空気清浄機、電子額縁、医療機器(例えば、MRA、MRI、CT撮影装置、超音波機)、ナビゲーション装置、GPS受信機、EDR、FDR、セットップボックス、テレビボックス(例えば、サムスンHomeSync(登録商標)、アップルTV(登録商標)又はグーグルTV(登録商標))、電子辞書、自動車インフォテインメント装置、船舶用電子装備(例えば、船舶用航法装置、ジャイロコンパス)、航空電子機器、保安機器、電子衣服、電子キー、カムコーダ、ゲームコンソール、HMD、平板表示装置、電子アルバム、電子装置を含む家具又は建物/構造物の一部、電子ボード、電子サイン入力装置又はプロジェクタなどのような多様な装置のうちの一つ又はそれ以上の組み合わせであってもよい。本発明による電子装置が上述した機器に限られないことは当業者にとって自明である。
図1は、本発明の一実施形態による電子装置のブロック構成を示す図である。
図1を参照すると、電子装置100は、プロセッサ110、メモリ120、第1乃至第Nイメージセンサ(130−1〜130−N)、表示部140、及びユーザ入力部150を備える。ここで、プロセッサ110は応用プロセッサ(AP)を含む。
プロセッサ110は、電子装置100が多様なサービスを提供するように制御する。
プロセッサ110は、電子装置100に含まれる一つ以上の他の構成要素(例えば、メモリ120、イメージセンサ(130−1〜130−N)、表示部140、及びユーザ入力部150)から受信した命令を解読し、解読した命令による演算やデータ処理を行う。プロセッサ110は、イメージセンサ(130−1〜130−N)から提供されたイメージデータに対するレベル調整、雑音除去、ガンマ補正、及び表示部140に表示可能なフォーマットへの変換のうちの一つ又はそれ以上のイメージ処理を行う。
プロセッサ110は、イメージ処理したイメージデータをメモリ120に保存するか又は表示部140に表示するように制御する。この際、プロセッサ110は、表示部140に表示されるイメージデータをメモリ120に一時保存するようにイメージ処理したイメージデータを、メモリ120に伝送する。ここで、表示部140に表示可能なフォーマットに変換するイメージ処理は色相空間変換を含む。
プロセッサ110は、メモリ120に保存された一つ以上のプログラムを実行し、電子装置100が多様なマルチメディアサービスを提供するように制御する。
プロセッサ110は、メモリ120に保存されたプログラムを実行し、第1乃至第Nイメージセンサ(130−1〜130−N)を介して獲得したイメージデータのうちの少なくとも2つのイメージデータを選択して合成する。また、プロセッサ110は、第1乃至第Nイメージセンサ(130−1〜130−N)のうちの少なくとも一つのイメージセンサを介して獲得したイメージデータに対応するイメージ獲得時点(time stamp)を設定する。
キャプチャイベントが発生した場合、プロセッサ110は、それぞれのイメージセンサ(130−1〜130−N)を介して獲得したイメージデータのイメージ獲得時点に基づいて、合成するための少なくとも2つのイメージデータを選択して合成する。他の例として、キャプチャイベントが発生した場合、プロセッサ110は、それぞれのイメージセンサ(130−1〜130−N)を介して獲得したイメージデータに対する処理遅延時間及びイメージ獲得時点に基づいて、合成するための少なくとも2つのイメージデータを選択して合成する。
メモリ120は、電子装置100に含まれる一つ以上の構成要素から受信されるか又は一つ以上の構成要素によって生成された命令若しくはデータを保存する。メモリ120は、カーネル、ミドルウェア、アプリケーションプログラミングインタフェース(API)、又はアプリケーションのようなプログラミングモジュールを含む。
プログラミングモジュールは、電子装置100に関する資源を制御するオペレーティングシステム(OS)又はOSで駆動される多様なアプリケーションを含む。この際、それぞれのプログラミングモジュールは、ソフトウェア、ファームウェア、ハードウェア、又はそれらのうちの少なくとも2つ以上の組み合わせで構成される。OSとしては、アンドロイド(登録商標)、IOS(登録商標)、ウィンドウズ(登録商標)、シンビアン(登録商標)、タイジェン(登録商標)又はバダを含む。
イメージセンサ(130−1〜130−N)は、被写体を撮影して獲得したイメージデータをプロセッサ110に提供する。イメージセンサ(130−1〜130−N)は、MIPI、MPDIのような直列インタフェース及び並列バス(parallel bus)のような並列インタフェースを介してプロセッサ110にイメージデータを伝送する。ここで、第1イメージセンサ(130−1)は電子装置100の前面に位置し、第Nイメージセンサ(130−N)は電子装置100の後面に位置する。
表示部140は、電子装置100の状態情報、ユーザが入力する文字、動画像、及び静止画像のようなグラフィックによりユーザインタフェースを提供する。表示部140は、プロセッサ100から提供された一つ以上のイメージデータを表示する。他の例として、表示部140は、プロセッサ100がイメージ獲得時点、又はイメージ獲得時点及びイメージ処理遅延時間に基づいて選択した少なくとも2つのイメージデータを表示する。
ユーザ入力部150は、ユーザの選択によって発生する命令又はデータをプロセッサ110又はメモリ120に伝送する。ユーザ入力部150は、タッチ入力部、ペンセンサ、キー(key)、又は超音波入力装置を含む。
図示していないが、電子装置100は、音声通信又はデータ通信を介して他の電子装置又はサーバーとの通信を連結する通信部を更に備える。通信部は、それぞれ異なる通信ネットワークを支援する多数個の通信サブモジュールで区分される。通信ネットワークは、近距離通信プロトコル(例えば、Wi−Fi(登録商標)、BT、NFC)又はネットワーク通信(例えば、Internet、LAN、WAN、telecommunication network、celluar network、satellite network、又はPOTS)を支援する。
上述した一実施形態において、電子装置100は多数個のイメージセンサ(130−1〜130−N)を含む。この際、多数個のイメージセンサ(130−1〜130−N)のうちの一つ又はそれ以上のイメージセンサは電子装置100に選択的に装着される。
多数個のイメージセンサ(130−1〜130−N)のうちの一つ又はそれ以上のイメージセンサは、有線インタフェースを介して電子装置100に選択的に装着される。他の例として、多数個のイメージセンサ(130−1〜130−N)のうちの一つ又はそれ以上のイメージセンサは、ブルートゥース(登録商標)、無線LANのような無線インタフェースを介して電子装置100に選択的に装着される。
図2は、本発明の一実施形態によるプロセッサの詳細なブロック構成を示す図である。
図2を参照すると、プロセッサ110は、イメージ処理部200、表示制御部210、及びイメージ生成制御部220を備える。
イメージ処理部200は、それぞれのイメージセンサ(130−1〜130−N)から提供されたイメージデータに対するレベル調整、雑音除去、ガンマ補正、及び色相空間変換のうちの一つ又はそれ以上のイメージ処理を行う。イメージ処理部200は、イメージ処理したイメージデータをメモリ120又は表示制御部210のうちの一つ以上に伝送する。この際、イメージ処理部200は表示部140に表示されるイメージデータをメモリ120に一時保存するようにメモリ120に伝送する。
表示制御部210は、表示部140を介してグラフィックによりユーザインタフェースを提供するように制御する。表示制御部210は、イメージ処理部200又はメモリ120から提供されたイメージデータを表示部140に表示するように制御する。この際、表示制御部210は、イメージ処理部200を介してイメージセンサ(130−1〜130−N)から提供されたイメージデータを表示部140に一緒に表示するように制御する。
イメージ生成制御部220は、それぞれのイメージセンサ(130−1〜130−N)を介して獲得したイメージデータのうちの少なくとも2つのイメージデータを選択して合成する。
キャプチャイベントが発生した場合、イメージ生成制御部220は、メモリ120に保存されているイメージデータのイメージ獲得時点に基づいて、合成するための少なくとも2つのイメージデータを選択して合成する。低画素の第1イメージセンサ(130−1)及び高画素の第Nイメージセンサ(130−N)を介して獲得した互いに異なるデータサイズのイメージデータを合成する場合、イメージ生成制御部220は、第1イメージセンサ(130−1)を介して獲得したイメージデータのうちのキャプチャイベント発生時点より前のイメージ獲得時点を含むいずれか一つの第1イメージデータを選択する。この際、イメージ生成制御部220は、第1イメージセンサ(130−1)のイメージデータ及び第Nイメージセンサ(130−N)のイメージデータに対する処理遅延の差を利用して、キャプチャイベント発生時点より前のイメージ獲得時点を含むイメージデータのうちのいずれか一つの第1イメージデータを選択する。イメージ生成制御部220は、第Nイメージセンサ(130−N)を介して獲得したイメージデータのイメージ獲得時点に基づいて、キャプチャイベント発生時点に最も近接した時点で獲得した第2イメージデータを選択して第1イメージデータと合成する。この際、イメージ生成制御部220は、合成イメージデータを表示部140に表示するようにメモリ120に保存された第1イメージデータと第2イメージデータを表示制御部210に伝送するように制御する。
図示していないが、プロセッサ110は、それぞれのイメージセンサ(130−1〜130−N)から提供された一つ又はそれ以上のイメージデータにイメージ獲得時点を設定する時間設定部を更に備える。時間設定部はそれぞれのイメージセンサ(130−1〜130−N)から提供されたそれぞれのイメージデータに対応する時刻をフレーム単位ごとに記録する。他の例として、イメージセンサ(130−1〜130−N)のうちで電子装置100に選択的に装着される一つ又はそれ以上のイメージセンサが存在する場合、時間設定部は、電子装置100に実装された一つ又はそれ以上のイメージセンサから提供された一つ又はそれ以上のイメージデータにイメージ獲得時点を設定する。この際、電子装置100に選択的に実装される一つ又はそれ以上のイメージセンサを介して獲得したイメージデータには、それぞれのイメージセンサに含まれた別途のモジュールによってイメージ獲得時点が設定される。
上述した一実施形態において、プロセッサ110は、1つのイメージ処理部200を介してそれぞれのイメージセンサ(130−1〜130−N)から提供されたイメージデータを処理する。他の例として、プロセッサ110は、多数個のイメージ処理部を含んでそれぞれのイメージセンサ(130−1又は130−N)から提供されたイメージデータを処理する。
図3は、本発明の他の実施形態による電子装置のブロック構成を示す図である。
図3を参照すると、電子装置300は、プロセッサ310、メモリ320、第1乃至第Nイメージセンサ(330−1〜330−N)、第1乃至第(N−1)外部イメージ処理部(340−1〜340−(N−1))、ユーザ入力部350、及び表示部360を備える。ここで、プロセッサ310は応用プロセッサを含む。
プロセッサ310は、電子装置300が多様なサービスを提供するように制御する。
プロセッサ310は、電子装置300に含まれる一つ以上の他の構成要素(例えば、メモリ320、第1イメージセンサ(330−1)、外部イメージ処理部(340−1〜340−(N−1))、ユーザ入力部350、及び表示部360)から受信した命令を解読し、解読した命令による演算やデータ処理を行う。プロセッサ310は内部イメージ処理プロセッサを含み、第1イメージセンサ(330−1)から提供されたイメージに対するレベル調整、雑音除去、ガンマ補正、及び表示部360に表示可能なフォーマットへの変換のうちの一つ又はそれ以上のイメージ処理を行う。
プロセッサ310は、イメージ処理したイメージデータをメモリ320に保存するか又は表示部360に表示するように制御する。この際、プロセッサ310は、表示部360に表示されるイメージデータをメモリ320に一時保存するようにイメージ処理したイメージデータをメモリ320に伝送する。他の例として、プロセッサ310は、外部イメージ処理部(340−1〜340−(N−1))を介してメモリ320に保存されているイメージデータを表示部360に表示可能なフォーマットに変換して表示部360に表示するように制御する。ここで、表示部360に表示可能なフォーマットに変換するイメージ処理は色相空間変換を含む。
プロセッサ310は、メモリ320に保存された一つ以上のプログラムを実行し、電子装置300が多様なマルチメディアサービスを提供するように制御する。プロセッサ310は、メモリ320に保存されたプログラムを実行し、それぞれのイメージセンサ(330−1〜330−N)を介して獲得したイメージデータのうちの少なくとも2つのイメージデータを選択して合成する。プロセッサ310は、第1イメージセンサ(330−1)、又は第1イメージセンサ(330−1)及び外部イメージ処理部(340−1〜340−(N−1))から提供されたイメージデータにイメージ獲得時点を設定する。
キャプチャイベントが発生した場合、プロセッサ310は、それぞれのイメージセンサ(330−1〜330−N)を介して獲得したイメージデータのイメージ獲得時点に基づいて、合成するための少なくとも2つのイメージデータを選択して合成する。他の例として、キャプチャイベントが発生した場合、プロセッサ310は、それぞれのイメージセンサ(330−1〜330−N)を介して獲得したイメージデータに対する処理遅延時間及びイメージ獲得時点に基づいて、合成するための少なくとも2つのイメージデータを選択して合成する。
メモリ320は、電子装置300に含まれる一つ以上の構成要素から受信したか又は一つ以上の構成要素によって生成された命令若しくはデータを保存する。
イメージセンサ(330−1〜330−N)は、被写体を撮影して獲得したイメージデータをプロセッサ310に提供する。イメージセンサ(330−1〜330−N)は、MIPI、MPDIのような直列インタフェース及び並列バスのような並列インタフェースを介してプロセッサ310又は外部イメージ処理部(340−1〜340−(N−1))にイメージデータを伝送する。ここで、第1イメージセンサ(330−1)は電子装置300の前面に位置し、第Nイメージセンサ(330−N)は電子装置300の後面に位置する。
外部イメージ処理部(340−1〜340−(N−1))はイメージ処理プロセッサ(ISP)を含み、第2乃至第Nイメージセンサ(330−2〜330−N)から提供されたイメージデータに対するレベル調整、雑音除去、及びガンマ補正のようなイメージ処理を行ってプロセッサ310を介してメモリ320に保存するように制御する。
ユーザ入力部350は、ユーザの選択によって発生する命令若しくはデータをプロセッサ310又はメモリ320に伝送する。ユーザ入力部350は、タッチ入力部、ペンセンサ、キー、又は超音波入力装置を含む。
表示部360は、電子装置300の状態情報、ユーザが入力する文字、動画像、及び静止画像のようなグラフィックによりユーザインタフェースを提供する。表示部360は、プロセッサ310から提供された一つ以上のイメージデータを表示する。他の例として、表示部360は、プロセッサ310でイメージ獲得時点、又はイメージ獲得時点及びイメージ処理遅延時間に基づいて選択した少なくとも2つのイメージデータを表示する。
図示していないが、電子装置300は、音声通信又はデータ通信を介して他の電子装置又はサーバーとの通信を連結する通信部を更に備える。通信部はそれぞれ異なる通信ネットワークを支援する多数個の通信サブモジュールで区分される。
上述した他の実施形態において、電子装置300は多数個のイメージセンサ(330−1〜330−N)を備える。この際、多数個のイメージセンサ(330−1〜330−N)のうちの一つ又はそれ以上のイメージセンサは電子装置300に選択的に装着される。例えば、多数個のイメージセンサ(330−1〜330−N)のうちの一つ又はそれ以上のイメージセンサは有線インタフェースを介して電子装置300に選択的に装着される。この際、電子装置300に選択的に装着される一つ又はそれ以上のイメージセンサに連結される外部イメージ処理部は、電子装置300に実装されるか、イメージセンサと共に電子装置300に選択的に装着される。
他の例として、多数個のイメージセンサ(330−1〜330−N)のうちの一つ又はそれ以上のイメージセンサは、ブルートゥース(登録商標)、無線LANのような無線インタフェースを介して電子装置300に選択的に装着される。この場合、電子装置300に選択的に連結される一つ又はそれ以上のイメージセンサに連結される外部イメージ処理部は、電子装置300に実装されるか又はイメージセンサと共に電子装置300に選択的に連結される。
図4は、本発明の他の実施形態によるプロセッサの詳細なブロック構成を示す図である。
図4を参照すると、プロセッサ310は、イメージ処理部400、内部インタフェース430、表示制御部410、フォーマット変更部420、及びイメージ生成制御部440を備える。
イメージ処理部400は、第1イメージセンサ(330−1)から提供されたイメージデータに対するレベル調整、雑音除去、ガンマ補正、及び色相空間変換のうちの一つ又はそれ以上のイメージ処理を行う。イメージ処理部400は、イメージ処理したイメージデータをメモリ320又は表示制御部410のうちの一つ以上に伝送する。この際、イメージ処理部400は表示部360に表示されるイメージデータをメモリ320に一時保存するようにイメージ処理したイメージデータをメモリ320に伝送する。
内部インタフェース430は、それぞれの外部イメージ処理部(340−1〜340−(N−1))から提供されたイメージデータをメモリ320に伝送する。内部インタフェース430は、MIFI、CAMIFのうちの一つ以上を含む。
表示制御部410は、表示部360を介してグラフィックによりユーザインタフェースを提供するように制御する。
表示制御部410は、イメージ処理部400又はメモリ320のうちの一つ以上から提供されたイメージデータを表示部360に表示するように制御する。この際、表示制御部410は、イメージ処理部400を介して第1イメージセンサ(330−1)から提供されたイメージデータとメモリ320を介して第Nイメージセンサ(330−N)から提供されたイメージデータとを表示部360に一緒に表示するように制御する。また、表示制御部410は、フォーマット変更部420を介して表示部360に表示可能なデータフォーマットに変更されたイメージデータを、イメージ処理部400を介して第1イメージセンサ(330−1)から提供されたイメージデータと一緒に表示するように制御する。
フォーマット変更部420は、メモリ320から提供されたイメージデータを表示部360に表示可能なデータフォーマットに変更する。また、フォーマット変更部420はメモリ320から提供されたイメージデータを色相空間変換して表示制御部410に伝送する。
イメージ生成制御部440は、それぞれのイメージセンサ(330−1〜330−N)を介して獲得したイメージデータのうちの少なくとも2つのイメージデータを選択して合成する。
キャプチャイベントが発生した場合、イメージ生成制御部440は、メモリ320に保存されているイメージデータのイメージ獲得時点に基づいて、合成するための少なくとも2つのイメージデータを選択して合成する。低画素の第1イメージセンサ(330−1)及び高画素の第Nイメージセンサ(330−N)を介して獲得した互いに異なるデータサイズのイメージデータを合成する場合、イメージ生成制御部440は、第1イメージセンサ(330−1)を介して獲得したイメージデータのうちのキャプチャイベント発生時点より前のイメージ獲得時点を含むいずれか一つの第1イメージデータを選択する。この際、イメージ生成制御部440は、第1イメージセンサ(330−1)のイメージデータ及び第Nイメージセンサ(330−N)のイメージデータに対する処理遅延の差を利用して、キャプチャイベント発生時点より前のイメージ獲得時点を含むイメージデータのうちのいずれか一つの第1イメージデータを選択する。イメージ生成制御部440は、第Nイメージセンサ(330−N)を介して獲得したイメージデータのイメージ獲得時点に基づいて、キャプチャイベント発生時点に最も近接した時点で獲得した第2イメージデータを選択して第1イメージデータと合成する。この際、イメージ生成制御部440は合成イメージデータを表示部360に表示するようにメモリ320に保存された第1イメージデータと第2イメージデータを表示制御部410に伝送するように制御する。
図示していないが、プロセッサ310は、第1イメージセンサ(330−1)、又は第1イメージセンサ(330−1)及び外部イメージ処理部(340−1〜340−(N−1))から提供されたイメージデータにイメージ獲得時点を設定する時間設定部を更に備える。時間設定部は、第1イメージセンサ(330−1)から提供されたイメージデータと対応する時刻をフレーム単位ごとに記録する。この際、第2イメージセンサ(330−2)〜第Nイメージセンサ(330−N)を介して獲得したイメージデータは、それぞれのイメージセンサに連結された外部イメージ処理部によってイメージ獲得時点が設定される。
図5は、本発明の更に他の実施形態による電子装置のブロック構成を示す図である。
図5を参照すると、電子装置500は、プロセッサ510、第1メモリ520、第2メモリ550、第1乃至第Nイメージセンサ(530−1〜530−N)、第1乃至第(N−1)外部イメージ処理部(540−1〜540−(N−1))、表示部560、及びユーザ入力部570を備える。ここで、プロセッサ510は応用プロセッサを含む。
プロセッサ510は、電子装置500が多様なサービスを提供するように制御する。
プロセッサ510は、電子装置500に含まれる一つ以上の他の構成要素から受信した命令を解読し、解読した命令による演算やデータ処理を行う。プロセッサ510は内部イメージ処理プロセッサを含み、第1イメージセンサ(530−1)から提供されたイメージデータに対するレベル調整、雑音除去、ガンマ補正、及び表示部560に表示可能なフォーマットへの変換のうちの一つ又はそれ以上のイメージ処理を行う。プロセッサ510は、イメージ処理したイメージデータを第1メモリ520に保存するか又は表示部560に表示するように制御する。この際、プロセッサ510は表示部560に表示されるイメージデータを第1メモリ520に一時保存するようにイメージ処理したイメージデータを第1メモリ520に伝送する。他の例として、プロセッサ510は外部イメージ処理部(540−1〜540−(N−1))を介して第1メモリ520に保存されているイメージデータを表示部560に表示可能なフォーマットに変換して表示部560に表示するように制御する。ここで、表示部560に表示可能なフォーマットに変換するイメージ処理は色相空間変換を含む。
プロセッサ510は、第1メモリ520に保存された一つ以上のプログラムを実行し、電子装置500が多様なマルチメディアサービスを提供するように制御する。プロセッサ510は、メモリ520に保存されたプログラムを実行し、それぞれのイメージセンサ(530−1〜530−Nを)介して獲得したイメージデータのうちの少なくとも2つのイメージデータを選択して合成する。プロセッサ510は、第1イメージセンサ(530−1)、又は第1イメージセンサ(530−1)及び外部イメージ処理部(540−1〜540−(N−1))から提供されたイメージデータにイメージ獲得時点を設定する。
キャプチャイベントが発生した場合、プロセッサ510は、それぞれのイメージセンサ(530−1〜530−N)を介して獲得したイメージデータのイメージ獲得時点に基づいて、合成するための少なくとも2つのイメージデータを選択して合成する。他の例として、キャプチャイベントが発生した場合、プロセッサ510は、それぞれのイメージセンサ(530−1〜530−N)を介して獲得したイメージに対する処理遅延時間及びイメージ獲得時点に基づいて、合成するための少なくとも2つのイメージデータを選択して合成する。
第1メモリ520は、電子装置500に含まれる一つ以上の構成要素から受信したか又は一つ以上の構成要素によって生成された命令又はデータを保存する。
イメージセンサ(530−1〜530−N)は、被写体を撮影して獲得したイメージデータをプロセッサ510に提供する。この際、イメージセンサ(530−1〜530−N)は、MIPI、MPDIのような直列インタフェース及び並列バスのような並列インタフェースを介してプロセッサ510又は外部イメージ処理部(540−1〜540−(N−1))にイメージデータを伝送する。ここで、第1イメージセンサ(530−1)は電子装置500の前面に位置し、第Nイメージセンサ(530−N)は電子装置500の後面に位置する。
外部イメージ処理部(540−1〜540−(N−1))はイメージ処理プロセッサ(ISP)を含み、第2乃至第Nイメージセンサ(530−2〜530−N)から提供されたイメージデータに対するレベル調整、雑音除去、ガンマ補正、及び色相空間変換のようなイメージ処理を行い、第1メモリ520に保存するように制御する。また、外部イメージ処理部(540−1〜540−(N−1))は第2乃至第Nイメージセンサ(530−2〜530−N)から提供されたイメージデータにイメージ獲得時点を設定し、第2メモリ550に保存するように制御する。
第2メモリ550は、外部イメージ処理部(540−1〜540−(N−1))から提供されたイメージ処理されていないイメージデータを保存する。第2メモリ550は、外部イメージ処理部(540−1〜540−(N−1))から提供されたローイメージデータ(raw image data)を保存する。この際、第2メモリ550は、それぞれの外部イメージ処理部(540−1〜540−(N−1))別に存在する。
表示部560は、電子装置500の状態情報、ユーザが入力する文字、動画像、及び静止画像のようなグラフィックによりユーザインタフェースを提供する。表示部560は、プロセッサ510から提供された一つ以上のイメージデータを表示する。他の例として、表示部560は、プロセッサ510でイメージ獲得時点、又はイメージ獲得時点及びイメージ処理遅延時間に基づいて選択した少なくとも2つのイメージデータを表示する。
ユーザ入力部570は、ユーザの選択によって発生する命令又はデータをプロセッサ510又は第1メモリ520に伝送する。ユーザ入力部570は、タッチ入力部、ペンセンサ、キー、又は超音波入力装置を含む。
図示していないが、電子装置500は、音声通信又はデータ通信を介して他の電子装置又はサーバーとの通信を連結する通信部を更に備える。通信部はそれぞれに異なる通信ネットワークを支援する多数個の通信サブモジュールで区分される。
上述した更に他の実施形態において、電子装置500は、多数個のイメージセンサ(530−1〜530−N)を備える。この際、多数個のイメージセンサ(530−1〜530−N)のうちの一つ又はそれ以上のイメージセンサは電子装置500に選択的に装着される。多数個のイメージセンサ(530−1〜530−N)のうちの一つ又はそれ以上のイメージセンサは有線インタフェースを介して電子装置500に選択的に装着される。この際、電子装置500に選択的に装着される一つ又はそれ以上のイメージセンサに連結される外部イメージ処理部は、電子装置500に実装されるか、イメージセンサと共に電子装置500に選択的に装着される。
他の例として、多数個のイメージセンサ(530−1〜530−N)のうちの一つ又はそれ以上のイメージセンサは、ブルートゥース(登録商標)、無線LANのような無線インタフェースを介して電子装置500に選択的に装着される。この場合、電子装置500に選択的に連結される一つ又はそれ以上のイメージセンサに連結される外部イメージ処理部は、電子装置500に実装されるか、イメージセンサと共に電子装置500に選択的に連結される。
図6は、本発明の更に他の実施形態によるプロセッサの詳細なブロック構成を示す図である。
図6を参照すると、プロセッサ510は、イメージ処理部600、内部インタフェース620、表示制御部610、及びイメージ生成制御部630を備える。
イメージ処理部600は、第1イメージセンサ(530−1)から提供されたイメージデータに対するレベル調整、雑音除去、ガンマ補正、及び色相空間変換のうちの一つ又はそれ以上のイメージ処理を行う。イメージ処理部600は、イメージ処理したイメージデータを第1メモリ520又は表示制御部610のうちの一つ以上に伝送する。この際、イメージ処理部600は、表示部560に表示されるイメージデータを第1メモリ520に一時保存するようにイメージ処理したイメージデータを第1メモリ520に伝送する。
内部インタフェース620は、それぞれのイメージ処理部(540−1〜540−(N−1))から提供されたイメージデータを第1メモリ520に伝送する。内部インタフェース620は、MIFI、CAMIFのうちの一つ以上及び外部イメージ処理部(540−1〜540−(N−1))で表示部560に表示可能なフォーマットに変換したイメージデータを伝送するためのRDI(Raw Data dumping Interface)を含む。
表示制御部610は、表示部560を介してグラフィックによりユーザインタフェースを提供するように制御する。表示制御部610は、イメージ処理部600又は第1メモリ520のうちの一つ以上から提供されたイメージデータを表示部560に表示するように制御する。この際、表示制御部610は、イメージ処理部600を介して第1イメージセンサ(530−1)から提供されたイメージデータ及び第1メモリ520を介して第Nイメージセンサ(530−N)から提供されたイメージデータを表示部560に一緒に表示するように制御する。
イメージ生成制御部630は、それぞれのイメージセンサ(530−1〜530−N)を介して獲得したイメージデータのうちの少なくとも2つのイメージデータを選択して合成する。
キャプチャイベントが発生した場合、イメージ生成制御部630は、第1メモリ520及び第2メモリ550に保存されているイメージデータのイメージ獲得時点に基づいて、合成するための少なくとも2つのイメージデータを選択して合成する。低画素の第1イメージセンサ(530−1)及び高画素の第Nイメージセンサ(530−N)を介して獲得したイメージを合成する場合、イメージ生成制御部630は、第1メモリ520に保存された第1イメージセンサ(530−1)を介して獲得したイメージデータのうちのキャプチャイベント発生時点より前のイメージ獲得時点を含むいずれか一つの第1イメージデータを選択する。この際、イメージ生成制御部630は、キャプチャイベント発生時点より前のイメージ獲得時点を含むイメージデータのうちのいずれか一つの第1イメージセンサ(530−1)のイメージデータ及び第Nイメージセンサ(530−N)のイメージデータに対する処理遅延の差を利用して、いずれか一つの第1イメージデータを選択する。
イメージ生成制御部630は、第2メモリ550に保存された第Nイメージセンサ(530−N)を介して獲得したイメージデータのイメージ獲得時点に基づいて、キャプチャイベント発生時点に最も近接した時点で獲得した第2イメージデータを選択して第1イメージデータと合成する。他の例として、低画素の第1イメージセンサ(530−1)及び高画素の第Nイメージセンサ(530−N)を介して獲得したイメージデータを合成する場合、イメージ生成制御部630は、第2メモリ550に保存された第Nイメージセンサ(530−N)を介して獲得したイメージデータのイメージ獲得時点に基づいて、キャプチャイベント発生時点に最も近接した時点で獲得した第2イメージデータを選択する。イメージ生成制御部630から選択された第2メモリ550に保存された第2イメージデータは、プロセッサ510を介して第1メモリ520に保存される。
イメージ生成制御部630は、第1メモリ520に保存された第1イメージセンサ(530−1)を介して獲得したイメージデータのイメージ獲得時点に基づいて、第2イメージデータがプロセッサ510に伝送され始めた時点又は第1メモリ520に保存された時点に最も近接した時点で獲得した第1イメージデータを選択して第2イメージデータと合成する。この際、イメージ生成制御部630は、合成イメージデータを表示部560に表示するように第1メモリ520に保存された第1イメージデータ及び第2イメージデータを表示制御部610に伝送するように制御する。
図示していないが、プロセッサ510は、第1イメージセンサ(530−1)、又は第1イメージセンサ(530−1)及び外部イメージ処理部(540−1〜540−(N−1))から提供されたイメージデータにイメージ獲得時点を設定する時間設定部を更に備える。
時間設定部は、第1イメージセンサ(530−1)から提供されたイメージデータと対応する時刻をフレーム単位ごとに記録する。この際、第2イメージセンサ(530−2)〜第Nイメージセンサ(530−N)を介して獲得したイメージデータは、それぞれのイメージセンサに連結された外部イメージ処理部によってイメージ獲得時点が設定される。他の例として、時間設定部は、外部イメージ処理部(540−(N−1))から提供されたイメージデータと対応する時刻をフレーム単位ごとに記録する。この場合、イメージ生成制御部630は、第1メモリ520に保存されているイメージデータのイメージ獲得時点に基づいて、合成するための少なくとも2つのイメージデータを選択して合成する。
図7は、本発明の更に他の実施形態による外部イメージ処理部の詳細なブロック構成を示す図である。
図7を参照すると、外部イメージ処理部540は、イメージ処理制御部700、時間設定部710を含む。
イメージ処理制御部700は、イメージセンサ(530−2〜530−N)から提供されたイメージデータをレベル調整、雑音除去、ガンマ補正、又は表示部560に表示可能なフォーマットへの変換のうちの一つ又はそれ以上のイメージ処理を行う。例えば、イメージ処理制御部700は、表示部560に表示可能なフォーマットに変換するためにイメージセンサ(530−2〜530−N)から提供されたYUV422のイメージデータをYUV420のイメージデータに色相空間変換する。
イメージ処理制御部700は、第2メモリ550に保存された一つ以上のイメージデータを表示部560に表示可能なフォーマットに変換し、イメージ生成制御部630に伝送する。イメージ処理制御部700は、図6のイメージ生成制御部630の制御に応じて第2メモリ550からイメージ合成のために選択されたイメージデータが提供され、表示部560に表示可能なフォーマットに変換してイメージ生成制御部630に伝送する。また、キャプチャイベントが発生した場合、第2メモリ550に保存されたイメージデータのうちの一つ以上のイメージデータを表示部560に表示可能なフォーマットに変換し、イメージ生成制御部630に伝送する。
時間設定部710は、イメージセンサ(530−2〜530−N)から提供されたイメージデータにイメージ獲得時点を設定する。
図示していないが、時間設定部710は、時間挿入部及びフレーム設定部を含んでそれぞれのイメージセンサ(530−2〜530−N)から提供されたイメージデータに対応する時刻をフレーム単位ごとに記録する。
他の例として、時間設定部710は外部イメージ処理部の外部に配置してもよい。
図8は、本発明の更に他の実施形態によるメモリの詳細なブロック構成を示す図である。
図8を参照すると、第1メモリ520は、論理的又は物理的に多数個のメモリブロック(800〜820)及びその内部メモリブロック(802、804、806)に分けられてデータを保存する。例えば、プロセッサ510のイメージ処理部600から提供されたイメージデータは、第1メモリ520の第3ブロック820に保存される。
外部イメージ処理部(540−1〜540−(N−1))から提供されたイメージデータは、第1メモリ520の第1ブロック800に保存される。この際、イメージデータはYデータ、UVデータ、メタデータで区分され、第1ブロック800の内部メモリブロック(802、804、806)に保存される。ここで、メタデータは、イメージデータのフレーム識別子、イメージ獲得時点、焦点情報、イメージ設定情報(EXIF)のうちの一つ以上を含む。
キャプチャイベントが発生した場合、第2メモリ550に保存されていたイメージデータは、外部イメージ処理部(540−1〜540−(N−1))を介して第1メモリ520の第3ブロック820に保存される。
図5に示すように、電子装置500は、イメージセンサ(530−N)を介して獲得したイメージデータを外部イメージ処理部(540−(N−1))で表示部560に表示可能なフォーマットに変換して第1メモリ520に保存するため、追加的なフォーマット変換による遅延を減らすことができる。
図9は、本発明の更に他の実施形態による電子装置で合成のためのイメージを選択するためのフローチャートである。
図9を参照すると、電子装置は、ステップS901で多数個のイメージセンサを介して獲得したイメージデータを表示部に表示する。この際、電子装置は、表示部に表示される一つ以上のイメージデータを一つ以上のメモリに保存する。例えば、図5を参照すると、電子装置500は、第1イメージセンサ(530−1)を介して獲得したイメージデータをプロセッサ510のイメージ処理部600を介してイメージ処理して第1メモリ520の第3ブロック820にフレーム単位で保存する。
電子装置500は、第Nイメージセンサ(530−N)を介して獲得したイメージデータを外部イメージ処理部(540−(N−1))を介してイメージ処理して第1メモリ520の第1ブロック800にフレーム単位で保存する。この際、プロセッサ510はイメージ処理部600に入力されるイメージデータ又はイメージ処理部600から出力されるイメージデータにイメージ獲得時点を設定し、外部イメージ処理部(540−(N−1))から提供されたイメージにイメージ獲得時点を設定する。
他の例として、図5を参照すると、電子装置500は、第1イメージセンサ(530−1)を介して獲得したイメージデータをプロセッサ510のイメージ処理部600を介してイメージ処理し、第1メモリ520にフレーム単位で保存する。この際、プロセッサ510はイメージ処理部600に入力されるイメージデータ又はイメージ処理部600から出力されるイメージデータにイメージ獲得時点を設定する。
電子装置500は、第Nイメージセンサ(530−N)を介して獲得したイメージデータを外部イメージ処理部(540−(N−1))のイメージ処理制御部700を介してイメージ処理する前に、第2メモリ550にフレーム単位で保存する。この際、外部イメージ処理部(540−(N−1))は時間設定部710を利用して第2メモリ550に保存するイメージデータにイメージ獲得時点を設定する。ここで、第1メモリ520又は第2メモリ550に保存されるイメージデータは、フレーム識別子、イメージ獲得時点、焦点情報、及びイメージ設定情報のうちの一つ又はそれ以上を含むメタデータを含む。
電子装置は、ステップS903で、メモリに保存されたイメージデータのイメージ獲得時点に基づいて、合成するための多数個のイメージデータを選択する。
キャプチャイベントが発生した場合、電子装置500は、第1メモリ520の第1ブロック800に保存されているイメージデータのうちのイメージ獲得時点がキャプチャイベント発生時点に最も近接する第1イメージを選択する。
また、電子装置500は、第1メモリ520の第3ブロック820に保存されているイメージデータのうちのイメージ獲得時点がキャプチャイベント発生時点に最も近接する第2イメージデータを選択する。
そして、電子装置500は、第1メモリ520で選択した第1イメージデータと第2イメージデータを一つのイメージデータとして合成する。
他の例として、キャプチャイベントが発生した場合、電子装置500は第1メモリ520に保存されているイメージデータのうちのイメージ獲得時点がキャプチャイベント発生時点に最も近接する第1イメージデータを選択する。
また、電子装置500は、第2メモリ550に保存されているイメージデータのうちのイメージ獲得時点がキャプチャイベント発生時点に最も近接する第2イメージデータを選択する。
そして、電子装置500は、第1メモリ520で選択した第1イメージデータと第2メモリ550で選択した第2イメージデータを一つのイメージデータとして合成する。
多数個のイメージセンサを含む電子装置は、それぞれのイメージセンサの画素数、イメージセンサの感度、イメージセンサを介して獲得したイメージデータのデータサイズ、又はイメージ処理速度のうちの一つ又はそれ以上の差によって、それぞれのイメージセンサを介して獲得したイメージデータに対する処理遅延がそれぞれ異なり得る。それによって、電子装置は以下に示す図10又は図12のように、合成するためのイメージデータを同期化する。
図10は、本発明の更に他の実施形態による電子装置で合成のためのイメージデータを選択するためのフローチャートの他の例である。以下の説明は、図11に示すメモリのデータ構成を参照して、合成するためのイメージデータを選択するためのフローチャートを説明する。以下の説明において、電子装置は図5に示す低画素の第1イメージセンサ(530−1)及び高画素の第Nイメージセンサ(530−N)を含むと仮定して説明する。
図10を参照すると、電子装置は、ステップS1001で多数個のイメージセンサを介して獲得したイメージデータにイメージ獲得時点を設定する。図5を参照すると、電子装置500のプロセッサ510は、イメージ処理部600に入力されるイメージデータ又はイメージ処理部600から出力されるイメージデータにイメージ獲得時点を設定し、外部イメージ処理部(540−(N−1))から提供されたイメージデータにイメージ獲得時点を設定する。
他の例として、図5を参照すると、電子装置500のプロセッサ510は、イメージ処理部600に入力されるイメージデータ又はイメージ処理部600から出力されるイメージデータにイメージ獲得時点を設定する。また、電子装置500の外部イメージ処理部(540−(N−1))は、時間設定部710を利用して第Nイメージセンサ(530−N)から提供されたイメージデータにイメージ獲得時点を設定する。
電子装置は、ステップS1003でイメージセンサを介して獲得したイメージデータを表示部に表示する。この際、電子装置は表示部に表示される一つ以上のイメージデータを一つ以上のメモリに保存する。例えば、プロセッサ510を介してイメージ処理部600に入力されるイメージデータにイメージ獲得時点を設定した場合、電子装置500はイメージ獲得時点が設定されたイメージデータをプロセッサ510のイメージ処理部600を介してイメージ処理し、第1メモリ520の第3ブロック820に保存する。
また、プロセッサ510を介してイメージ処理部600から出力されるイメージデータにイメージ獲得時点を設定した場合、電子装置500はイメージ獲得時点が設定されたイメージデータを第1メモリ520の第3ブロック820に保存する。
他の例として、プロセッサ510を介して外部イメージ処理部(540−(N−1))から提供されたイメージにイメージ獲得時点を設定した場合、電子装置500はイメージ獲得時点が設定されたイメージデータを第1メモリ520の第1ブロック800に保存する。
更に他の例として、時間設定部710を利用して第Nイメージセンサ(530−N)から提供されたイメージデータにイメージ獲得時点を設定した場合、電子装置500はイメージ獲得時点が設定されたイメージデータを第2メモリ550に保存する。この際、電子装置は、図11を参照すると、第1メモリ520又は第2メモリ550にフレーム単位(1100、1110)でイメージデータを保存する。ここで、第1メモリ520又は第2メモリ550に保存されるイメージデータは、フレーム識別子、イメージ獲得時点、焦点情報、及びイメージ設定情報のうちの一つ以上を含むメタデータを含む。
電子装置は、ステップS1005でキャプチャイベントが発生したか否かを確認する。電子装置は、キャプチャイベントに対応するハードウェアボタンの入力が感知されたか否かを確認する。他の例として、電子装置はキャプチャイベントに対応するアイコンの選択が感知されたか否かを確認する。更に他の例として、電子装置はキャプチャイベントに対応するユーザのジェスチャが感知されたか否かを確認する。
キャプチャイベントが発生しない場合、電子装置はステップS1001で多数個のイメージセンサを介して獲得されるイメージデータにイメージ獲得時点を設定する。
キャプチャイベントが発生した場合、電子装置は、ステップS1007でメモリに保存された第1イメージセンサを介して獲得したイメージデータのうちのキャプチャイベント発生時点より前のイメージ獲得時点を含むいずれか一つのイメージデータを合成するために選択する。
図5を参照すると、電子装置500は、第1メモリ520に順次に保存された第1イメージセンサ(530−1)を介して獲得したイメージデータ1100のうちのキャプチャイベント発生時点1120より前のイメージ獲得時点を含むいずれか一つの第1イメージデータ1130を、合成するためのイメージデータとして選択する。この際、電子装置500は第1イメージセンサ(530−1)を介して獲得したイメージデータに対する処理遅延と第Nイメージセンサ(530−N)を介して獲得したイメージデータに対する処理遅延の差を考慮し、キャプチャイベント発生時点1120より前のイメージ獲得時点を含むイメージデータのうちのいずれか一つの第1イメージデータ1130を選択する。
また、キャプチャイベントが発生した場合、電子装置は、ステップS1009でメモリに保存された第Nイメージセンサを介して獲得したイメージデータのうちのキャプチャイベント発生時点に最も近接するイメージ獲得時点を含むイメージデータを、合成するために選択する。
図5を参照すると、電子装置500は第1メモリ520又は第2メモリ550に順次に保存された第Nイメージセンサ(530−N)を介して獲得したイメージデータ1110のうちのキャプチャイベント発生時点1120に最も近接するイメージ獲得時点を含む第2イメージデータ1140を、合成するためのイメージデータとして選択する。
合成するためのイメージデータを選択した場合(ステップS1007及びステップS1009)、電子装置はステップS1011で第1イメージセンサから提供されたイメージデータで選択した第1イメージデータと第Nイメージセンサから提供されたイメージデータから選択した第2イメージデータとを一つのイメージデータとして合成する。
図12は、本発明の更に他の実施形態による電子装置で合成のためのイメージデータを選択するためのフローチャートの更に他の例である。
以下、図13に示したメモリのデータ構成の他の例を参照して、合成するためのイメージデータを選択するためのフローチャートを説明する。
以下の説明において、電子装置は、図5に示す低画素の第1イメージセンサ(530−1)及び高画素の第Nイメージセンサ(530−N)を含むと仮定して説明する。
図12を参照すると、電子装置はステップS1201で多数個のイメージセンサを介して獲得されるイメージデータにイメージ獲得時点を設定する。
図5を参照すると、電子装置500のプロセッサ510は、イメージ処理部600に入力されるイメージデータ又はイメージ処理部600から出力されるイメージデータにイメージ獲得時点を設定する。また、電子装置500の外部イメージ処理部(540−(N−1))は時間設定部710を利用して第Nイメージセンサ(503−N)から提供されたイメージデータにイメージ獲得時点を設定する。
電子装置は、ステップS1203でイメージセンサを介して獲得したイメージデータを表示部に表示する。この際、電子装置は表示部に表示される一つ以上のイメージデータを一つ以上のメモリに保存する。
例えば、図5を参照すると、プロセッサ510を介してイメージ処理部600に入力されるイメージデータにイメージ獲得時点を設定した場合、電子装置500はイメージ獲得時点が設定されたイメージデータをプロセッサ510のイメージ処理部600を介してイメージ処理して第1メモリ520の第3ブロック820に保存する。
また、図5を参照すると、プロセッサ510を介してイメージ処理部600から出力されるイメージデータにイメージ獲得時点を設定した場合、電子装置500はイメージ獲得時点が設定されたイメージデータを第1メモリ520の第3ブロック820に保存する。
他の例として、図7を参照すると、時間設定部710を利用して第Nイメージセンサ(530−N)から提供されたイメージデータにイメージ獲得時点を設定した場合、電子装置500はイメージ獲得時点が設定されたイメージデータを第2メモリ550に保存する。この際、電子装置は図13に示したように第1メモリ520又は第2メモリ550にフレーム単位(1300、1310)でイメージデータを保存する。ここで、第1メモリ520又は第2メモリ550に保存されるイメージデータは、フレーム識別子、イメージ獲得時点、焦点情報、及びイメージ設定情報のうちの一つ以上を含むメタデータを含む。
電子装置は、ステップS1205でキャプチャイベントが発生したか否かを確認する。電子装置はキャプチャイベントに対応するハードウェアボタンの入力が感知されたか否かを確認する。
他の例として、電子装置はキャプチャイベントに対応するアイコンの選択が感知されたか否かを確認する。更に他の例として、電子装置はキャプチャイベントに対応するユーザのジェスチャが感知されたか否かを確認する。
キャプチャイベントが発生しない場合、電子装置はステップS1201で多数個のイメージセンサを介して獲得されるイメージデータにイメージ獲得時点を設定する。
キャプチャイベントが発生した場合、電子装置はステップS1207でメモリに保存された第Nイメージセンサを介して獲得したイメージデータのうちのキャプチャイベント発生時点に最も近接するイメージ獲得時点を含むいずれか一つのイメージデータを、合成するために選択する。
図5を参照すると、電子装置500は第2メモリ550に順次に保存された第Nイメージセンサ(530−N)を介して獲得したイメージデータ1310のうちのキャプチャイベント発生時点1320に最も近接するイメージ獲得時点を含む第2イメージデータ1330を、合成するためのイメージデータとして選択する。
電子装置は、ステップS1209でメモリに保存された第Nイメージセンサを介して獲得したイメージデータのうちの合成のために選択された第2イメージデータがプロセッサで処理される時点に最も近接するイメージ獲得時点を含むイメージデータを、合成するために選択する。
電子装置500は、ステップ1207で合成のために外部イメージ処理部(540−(N−1))から選択された第2イメージデータがプロセッサ510に伝送され始めた時点に最も近接するイメージ獲得時点を含む第1イメージデータ1340を選択する。
電子装置500は、ステップS1207で合成のために外部イメージ処理部(540−(N−1))から選択された第2イメージデータがプロセッサ510を介して第1メモリ520に保存される時点に最も近接したイメージ獲得時点を含む第1イメージデータ1340を選択する。
合成するためのイメージデータを選択した場合、電子装置は、ステップS1211で第1イメージセンサから提供されたイメージデータから選択した第1イメージと、第Nイメージセンサから提供されたイメージデータから選択した第2イメージデータとを一つのイメージデータとして合成する。
以上、本発明の実施形態について図面を参照しながら詳細に説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の技術的範囲から逸脱しない範囲内で多様に変更実施することが可能である。
100、300、500 電子装置
110、310、510 プロセッサ
120、320 メモリ
130 イメージセンサ
130−1〜130−N (第1〜第N)イメージセンサ
140、360、560 表示部
150、350、570 ユーザ入力部
200、400、600 イメージ処理部
210、410、610 表示制御部
220、440、630 イメージ生成制御部
330 イメージセンサ
330−1〜330−N (第1〜第N)イメージセンサ
340 外部イメージ処理部
340−1〜340−(N−1) (第1〜第(N−1))外部イメージ処理部
420 フォーマット変更部
430、620 内部インタフェース
520、550 (第1、第2)メモリ
530 イメージセンサ
530−1〜530−N (第1〜第N)イメージセンサ
540 外部イメージ処理部
540−1〜540−(N−1) (第1〜第(N−1))外部イメージ処理部
700 イメージ処理制御部
710 時間設定部
800、810、820 (第1、第2、第3)メモリブロック
802、804、806 内部メモリブロック
1100、1110、1130、1140 イメージデータ
1120 キャプチャイベント
1300、1310、1330、1340 イメージデータ
1320 キャプチャイベント

Claims (14)

  1. 電子装置であって、
    低画素の第1イメージデータを生成する第1イメージセンサと、
    高画素の第2イメージデータを生成する第2イメージセンサと、
    前記第1イメージセンサから受信した第1イメージデータを処理する第1プロセッサと、
    前記第2イメージセンサから受信した第2イメージデータを処理する第2プロセッサと、
    前記第1プロセッサによって処理された第1イメージデータ及び前記第2プロセッサによって処理された第2イメージデータのうちの一つ以上のイメージデータを表示する表示部を備え、
    前記第1プロセッサは、前記第1イメージデータにイメージ獲得時点(time stamp)を設定し、
    前記第2プロセッサは、前記第2イメージデータにイメージ獲得時点を設定し、
    前記表示部は、前記イメージ獲得時点に基づいて一つ以上のイメージデータを表示し、
    前記第1プロセッサは、キャプチャイベントの発生に対する応答で、処理遅延の差に基づいて、前記第1イメージセンサを介して受信した多数個の第1イメージデータのうち、前記キャブチャイベントの発生時点より前のイメージ獲得時点を含む第1イメージデータを選択し、前記第2イメージセンサを介して受信した多数個の第2イメージデータのうち、前記キャブチャイベントの発生時点に最も近接したイメージ獲得時点を含む第2イメージデータを選択し、前記選択した第1イメージデータと前記選択した第2イメージデータを利用して合成イメージを生成することを特徴とする電子装置。
  2. 前記第1プロセッサは、応用プロセッサ(AP)を含み、
    前記第2プロセッサは、前記応用プロセッサの外部に位置するイメージ処理プロセッサ(ISP)を含むことを特徴とする請求項1に記載の電子装置。
  3. 第1メモリと、
    前記第1メモリと論理的又は物理的に分離された第2メモリを更に備え、
    前記第1プロセッサは、前記第1イメージデータを前記第1メモリに提供し、
    前記第2プロセッサは、前記第2イメージデータを前記第2メモリに提供することを特徴とする請求項2に記載の電子装置。
  4. 前記第2プロセッサは、前記第2イメージデータを前記第1メモリに提供することを特徴とする請求項3に記載の電子装置。
  5. 前記第1プロセッサは、前記第1メモリに保存された前記第1イメージデータのイメージ獲得時点及び前記第2イメージデータのイメージ獲得時点に基づき合成イメージを生成することを特徴とする請求項4に記載の電子装置。
  6. 前記第2イメージデータは、前記第1イメージデータのデータサイズより大きいデータサイズを有することを特徴とする請求項1に記載の電子装置。
  7. 前記第2プロセッサは、前記第2イメージセンサから受信した第2イメージデータを前記表示部に表示可能なフォーマットに変換することを特徴とする請求項6に記載の電子装置。
  8. 電子装置の動作方法であって、
    多数個のイメージセンサを利用して多数個のイメージデータを生成するステップと、
    前記多数個のイメージセンサのそれぞれに接続される多数個のプロセッサを介して、前記多数個のイメージデータのそれぞれに対応するイメージ獲得時点を設定するステップと、
    前記イメージ獲得時点に基づいて多数個のプロセッサで処理された一つ以上のイメージデータを表示部に表示するステップを有し、
    前記表示部に表示するステップは、
    1メモリに保存された一つ以上の低画素の第1イメージデータのうち、処理遅延の差に基づいてイメージ獲得時点がキャプチャイベント発生時点より前であるいずれか一つの第1イメージデータを選択するステップと、
    第2メモリに保存された一つ以上の高画素の第2イメージデータのうち、前記キャプチャイベント発生時点に最も近接したイメージ獲得時点を含む第2イメージデータを選択するステップと、
    前記選択した第1イメージデータ及び前記選択した第2イメージデータを合成した合成イメージデータを前記表示部に表示するステップを含むことを特徴とする電子装置の動作方法。
  9. 前記イメージデータを生成するステップは、
    前記電子装置に実装されるか又は有線インタフェース若しくは無線インタフェースを介して前記電子装置に連結される多数個のイメージセンサを利用して多数個のイメージデータを生成するステップを含むことを特徴とする請求項8に記載の電子装置の動作方法。
  10. 前記イメージ獲得時点を設定した多数個のイメージデータを一つ以上のメモリに保存するステップを更に含むことを特徴とする請求項8に記載の電子装置の動作方法。
  11. 前記多数個のイメージデータを一つ以上のメモリに保存するステップは、
    第1イメージセンサを利用して生成した一つ以上の第1イメージデータを第1メモリに保存するステップと、
    第2イメージセンサを利用して生成した一つ以上の第2イメージデータを第2メモリに保存するステップを含み、
    前記第2メモリは、前記第1メモリと論理的又は物理的に分離されたメモリを含むことを特徴とする請求項10に記載の電子装置の動作方法。
  12. 電子装置の動作方法であって、
    応用プロセッサによって第1イメージ獲得時点が追加された第1イメージデータ及び前記応用プロセッサの外部に位置するイメージ処理プロセッサによって第2イメージ獲得時点が追加された第2イメージデータを保存するステップと、
    前記イメージ獲得時点に基づいて前記応用プロセッサによって処理された前記第1イメージデータ及び前記イメージ処理プロセッサによって処理された前記第2イメージデータのうちの一つ以上のイメージデータを表示部に表示するステップを有し、
    前記表示部に表示するステップは、
    1メモリに保存された一つ以上の低画素の第1イメージデータのうち、処理遅延の差に基づいてイメージ獲得時点がキャプチャイベント発生時点より前であるいずれか一つの第1イメージデータを選択するステップと、
    第2メモリに保存された一つ以上の高画素の第2イメージデータのうち、前記キャプチャイベント発生時点に最も近接したイメージ獲得時点を含む第2イメージデータを選択するステップと、
    前記選択した第1イメージデータ及び前記選択した第2イメージデータを合成した合成イメージデータを前記表示部に表示するステップを含むことを特徴とする電子装置の動作方法。
  13. 電子装置の動作方法であって、
    第1イメージセンサ及び第2イメージセンサを利用して低画素の第1イメージデータ及び高画素の第2イメージデータを生成するステップと、
    応用プロセッサによって第1イメージ獲得時点が追加された第1イメージデータ及び前記応用プロセッサの外部に位置するイメージ処理プロセッサによって第2イメージ獲得時点が追加された前記第2イメージデータを保存するステップと、
    前記イメージ獲得時点に基づいて前記応用プロセッサによって処理された前記第1イメージデータ及び前記イメージ処理プロセッサによって処理された前記第2イメージデータのうちの一つ以上のイメージデータを表示部に表示するステップを有し、
    前記表示部に表示するステップは、
    1メモリに保存された一つ以上の第1イメージデータのうち、処理遅延の差に基づいてイメージ獲得時点がキャプチャイベント発生時点より前であるいずれか一つの第1イメージデータを選択するステップと、
    第2メモリに保存された一つ以上の第2イメージデータのうち、前記キャプチャイベント発生時点に最も近接したイメージ獲得時点を含む第2イメージデータを選択するステップと、
    前記選択した第1イメージデータ及び前記選択した第2イメージデータを合成した合成イメージデータを前記表示部に表示するステップを含むことを特徴とする電子装置の動作方法。
  14. 前記第1イメージデータ及び前記第2イメージデータを保存するステップは、
    前記第1イメージデータを第1メモリに保存するステップと、
    前記第2イメージデータを第2メモリに保存するステップと、を含み、
    前記第2メモリは、前記第1メモリと論理的又は物理的に分離されたメモリを含むことを特徴とする請求項12又は13に記載の電子装置の動作方法
JP2014048348A 2013-03-13 2014-03-12 イメージを処理する電子装置及びその動作方法 Expired - Fee Related JP6134281B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201361780619P 2013-03-13 2013-03-13
US61/780,619 2013-03-13
KR10-2013-0139907 2013-11-18
KR1020130139907A KR102186383B1 (ko) 2013-03-13 2013-11-18 이미지를 처리하는 전자장치 및 방법

Publications (2)

Publication Number Publication Date
JP2014179083A JP2014179083A (ja) 2014-09-25
JP6134281B2 true JP6134281B2 (ja) 2017-05-24

Family

ID=50287895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014048348A Expired - Fee Related JP6134281B2 (ja) 2013-03-13 2014-03-12 イメージを処理する電子装置及びその動作方法

Country Status (6)

Country Link
US (1) US9363433B2 (ja)
EP (1) EP2779622A1 (ja)
JP (1) JP6134281B2 (ja)
CN (1) CN104052934B (ja)
AU (1) AU2014201517A1 (ja)
WO (1) WO2014142557A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014160982A (ja) 2013-02-20 2014-09-04 Sony Corp 画像処理装置および撮影制御方法、並びにプログラム
GB2520319A (en) * 2013-11-18 2015-05-20 Nokia Corp Method, apparatus and computer program product for capturing images
US10277913B2 (en) * 2014-10-22 2019-04-30 Samsung Electronics Co., Ltd. Application processor for performing real time in-loop filtering, method thereof and system including the same
KR102433293B1 (ko) * 2015-12-24 2022-08-18 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
EP3422696A4 (en) * 2016-02-24 2019-03-13 Ricoh Company, Ltd. IMAGE PROCESSING DEVICE, IMAGE PROCESSING SYSTEM AND PROGRAM
JP2018147290A (ja) * 2017-03-07 2018-09-20 オムロン株式会社 センサのメタデータ生成装置、センサのメタデータ生成システム、センサのメタデータ生成方法及びセンサのメタデータ生成プログラム
CN109672876A (zh) * 2017-10-17 2019-04-23 福州瑞芯微电子股份有限公司 深度图处理装置及深度图处理单元
US11945382B2 (en) * 2018-03-30 2024-04-02 Sumitomo Electric Industries, Ltd. System, server computer thereof, control method, and computer program
CN110113532A (zh) * 2019-05-08 2019-08-09 努比亚技术有限公司 一种拍摄控制方法、终端及计算机可读存储介质
CN111221762B (zh) * 2020-02-25 2021-05-25 深圳市春盛海科技有限公司 图像控制器及图像系统
CN112261296B (zh) * 2020-10-22 2022-12-06 Oppo广东移动通信有限公司 一种图像增强方法、图像增强装置及移动终端

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7782363B2 (en) * 2000-06-27 2010-08-24 Front Row Technologies, Llc Providing multiple video perspectives of activities through a data network to a remote multimedia server for selective display by remote viewing audiences
US7511764B2 (en) * 2002-07-24 2009-03-31 Alan Neal Cooper Digital camera synchronization
US7337344B2 (en) 2003-01-31 2008-02-26 Point Grey Research Inc. Methods and apparatus for synchronizing devices on different serial data buses
US20080061191A1 (en) 2003-05-06 2008-03-13 Gochnour Gary R Multi-functional high energy plasma aircraft and nuclear fusion system to produce energy from a controlled nuclear fusion reaction
US20130010138A1 (en) * 2003-06-26 2013-01-10 Petronel Bigioi Digital Camera with an Image Processor
US7511737B2 (en) * 2004-06-30 2009-03-31 Scenera Technologies, Llc Synchronized multi-perspective pictures
US20060187227A1 (en) 2005-01-31 2006-08-24 Jung Edward K Storage aspects for imaging device
US7725837B2 (en) 2005-03-31 2010-05-25 Microsoft Corporation Digital image browser
US20070109411A1 (en) * 2005-06-02 2007-05-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Composite image selectivity
KR100824016B1 (ko) 2006-07-14 2008-04-21 엠텍비젼 주식회사 비동기 양안 카메라에서 생성되는 출력 데이터의 동기화를수행하는 시스템, 방법 및 기록 매체
JP4120690B2 (ja) * 2006-11-06 2008-07-16 ソニー株式会社 静止画撮像装置及び静止が撮像装置における静止画像撮像方法
JP2008152692A (ja) * 2006-12-20 2008-07-03 Fuji Xerox Co Ltd 画像データ処理システム、および画像データ処理方法、並びにコンピュータ・プログラム
US8009200B2 (en) * 2007-06-15 2011-08-30 Microsoft Corporation Multiple sensor input data synthesis
KR20090010803A (ko) * 2007-07-24 2009-01-30 삼성전자주식회사 카메라에서 획득된 영상데이터를 표시하는 방법 및휴대단말기
JP4914378B2 (ja) * 2008-01-22 2012-04-11 キヤノン株式会社 情報処理装置及び方法、プログラム、記憶媒体
KR100928660B1 (ko) * 2008-01-29 2009-11-27 엠텍비젼 주식회사 이미지 평가 정보를 제공하는 이미지 처리 장치 및 방법
JP2010021935A (ja) * 2008-07-14 2010-01-28 Sharp Corp 携帯端末装置
JP5385028B2 (ja) 2009-07-06 2014-01-08 オリンパス株式会社 顕微鏡装置
EP2343845A3 (en) 2009-12-31 2011-10-19 Thomson Licensing Precise compensation of video propagation duration
JP2011217121A (ja) 2010-03-31 2011-10-27 Ntt Docomo Inc 携帯端末
KR20110133699A (ko) * 2010-06-07 2011-12-14 삼성전자주식회사 휴대용 단말기의 이미지 획득 장치 및 방법
CN102469243B (zh) 2010-11-04 2014-12-17 卡西欧计算机株式会社 能白平衡调整的摄像装置
US9584735B2 (en) 2010-11-12 2017-02-28 Arcsoft, Inc. Front and back facing cameras
US8736695B2 (en) * 2010-11-12 2014-05-27 Qualcomm Incorporated Parallel image processing using multiple processors
CN102271223B (zh) * 2011-01-17 2012-07-04 深圳市保千里电子有限公司 大屏幕显示器及其实现方法
KR101405276B1 (ko) * 2011-08-10 2014-07-15 한국전자통신연구원 고정 및 이동 융합형 3dtv에서 좌/우 스트림을 동기화하는 컨텐츠 제공 장치 및 방법, 그리고, 컨텐츠 재생 장치 및 방법
US9277101B2 (en) * 2011-12-22 2016-03-01 Verizon Patent And Licensing Inc. Method and system for generating interpolations of captured video content

Also Published As

Publication number Publication date
US20140267816A1 (en) 2014-09-18
US9363433B2 (en) 2016-06-07
EP2779622A1 (en) 2014-09-17
CN104052934B (zh) 2017-07-28
WO2014142557A1 (en) 2014-09-18
JP2014179083A (ja) 2014-09-25
CN104052934A (zh) 2014-09-17
AU2014201517A1 (en) 2014-10-02

Similar Documents

Publication Publication Date Title
JP6134281B2 (ja) イメージを処理する電子装置及びその動作方法
KR102221023B1 (ko) 이미지를 처리하는 전자장치 및 방법
JP6297682B2 (ja) ユーザ選択関心領域を超解像するためのシステムおよび方法
US10348971B2 (en) Electronic device and method for generating thumbnails based on captured images
JP5757592B2 (ja) 超解像画像を生成する方法,装置,コンピュータプログラム製品
EP2978212A1 (en) Information-processing device, information-processing method and program
US10110806B2 (en) Electronic device and method for operating the same
KR102186383B1 (ko) 이미지를 처리하는 전자장치 및 방법
US20140313366A1 (en) Method of processing image and electronic device and system supporting the same
WO2021031847A1 (zh) 图像处理方法、装置、电子设备和计算机可读存储介质
WO2023125273A1 (zh) 电子设备的图像显示方法、图像处理电路和电子设备
CN114285958A (zh) 图像处理电路、图像处理方法和电子设备
KR102082365B1 (ko) 이미지 처리 방법 및 그 전자 장치
JP5675902B2 (ja) 動画生成方法及び装置
JP2023538825A (ja) ピクチャのビデオへの変換の方法、装置、機器および記憶媒体
KR102310106B1 (ko) 서비스 화면을 표시하기 위한 전자 장치 및 방법
CN112905132B (zh) 投屏方法及设备
CN113196791A (zh) 用于显示各种类型的内容的显示设备
EP3494541B1 (en) Image processing apparatus and control method thereof
CN114339071A (zh) 图像处理电路、图像处理方法及电子设备
AU2015255216B2 (en) Electronic device and method for processing image
GB2600341A (en) Image special effect processing method and apparatus, electronic device and computer-readable storage medium
TWI826213B (zh) 基於裝置媒體基礎轉換的幀解析度設定方法與計算機系統
CN113901009A (zh) 多媒体文件的处理方法、装置、电子设备及介质
CN115665538A (zh) 图像处理方法、电路及电子设备

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150127

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150513

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151130

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20151208

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20151218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170421

R150 Certificate of patent or registration of utility model

Ref document number: 6134281

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees