JP6868659B2 - イメージ表示方法、及び、電子装置 - Google Patents

イメージ表示方法、及び、電子装置 Download PDF

Info

Publication number
JP6868659B2
JP6868659B2 JP2019064211A JP2019064211A JP6868659B2 JP 6868659 B2 JP6868659 B2 JP 6868659B2 JP 2019064211 A JP2019064211 A JP 2019064211A JP 2019064211 A JP2019064211 A JP 2019064211A JP 6868659 B2 JP6868659 B2 JP 6868659B2
Authority
JP
Japan
Prior art keywords
image
live
live image
effect
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019064211A
Other languages
English (en)
Other versions
JP2019109944A (ja
Inventor
宇 ▲ヨン▼ 李
宇 ▲ヨン▼ 李
在 允 宋
在 允 宋
康 煥 ▲オウ▼
康 煥 ▲オウ▼
▲ヒュン▼ 廷 金
▲ヒュン▼ 廷 金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2019109944A publication Critical patent/JP2019109944A/ja
Application granted granted Critical
Publication of JP6868659B2 publication Critical patent/JP6868659B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/74Circuits for processing colour signals for obtaining special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Control Or Security For Electrophotography (AREA)

Description

本発明は、撮影機能を有するユーザ機器及びその動作方法に関する。
現在、電気通信産業の発達により、セルラーフォン、電子手帳、個人複合端末、ラップトップコンピュータなどのユーザ機器は現代社会の必需品になるとともに、急速に変化する情報を伝達するための重要な手段になっている。このようなユーザ機器は、タッチスクリーンを利用したGUI(Graphical User Interface)環境を介してユーザの作業を便利にし、ウェブ環境をベースにした様々なマルチメディアを提供するに至った。
最近、撮影機能のないユーザ機器を見つけることが難しいほど、ユーザ機器は撮影機能を基本仕様として備えており、その上、撮影に関連する様々な撮影エフェクトを提供している。携帯しやすいユーザ機器の特性上、ユーザは必要な瞬間を即座に撮影することができ、様々な撮影エフェクトが適用された自分だけの独特な写真を得ることができる。
韓国公開特許第10−2007−0106324号
本発明の目的は、電子装置の効率的な動作方法を提供することにある。
本発明の様々な実施形態によれば、イメージセンサから得られたイメージデータに様々なエフェクトを適用した後、これをアイコン(例えば、サムネイル(thumbnail)イメージ)で表示することができる。
本発明の様々な実施形態によれば、上記のアイコンのうち1つを選択するジェスチャ(例えば、タッチ、ホバリング、シングルタッチ、ダブルタップ、ドラッグアンドドロップ、フリッキング等)が発生した場合、選択されたアイコンに指定されたフィルタのエフェクトを前記イメージデータに適用した後、これを画面に表示(例えば、ライブフィルタリング(live filtering))することができる。
本発明の様々な実施形態によれば、上記のアイコンのうち複数のアイコンが選択された場合、選択されたアイコンに指定されたフィルタのエフェクトを前記イメージデータに共に適用した後、これを画面に表示することができる。
本発明の様々な実施形態によれば、上記のアイコンのうち特定のアイコンが複数回選択された場合、アイコンが選択された回数分のフィルタのエフェクトを前記イメージデータに重複適用した後、これを画面に表示することができる。
本発明の様々な実施形態によれば、前記アイコンが選択された回数又はフィルタのエフェクトを前記イメージデータに適用したエフェクトの強度を前記アイコンに表示することができる。
本発明の様々な実施形態によれば、前記イメージデータにエフェクトを適用させた複数のフィルタをグループ化することができる。
本発明の様々な実施形態によれば、上記のグループ化した複数のフィルタのエフェクトをイメージに適用した後、これをアイコンで表示することができる。
本発明の様々な実施形態によれば、フィルタを外部(例えば、ネットワーク、電子メール、メッセンジャー又は着脱可能な外部メモリ等)から取得し、取得したフィルタのエフェクトを前記イメージデータに適用した後、これをアイコンで表示することができる。
本発明の様々な実施形態によれば、少なくとも1つの基準(例えば、選択頻度、エフェクトの類似性、エフェクト同士の合成可否等)に応じて上記のアイコンを配置することができる。
本発明の様々な実施形態によれば、上記のアイコンのうち特定のアイコンが選択された場合、選択されたアイコンに指定されたフィルタのエフェクトと合成可能なエフェクトを有するフィルタが指定されたアイコンは、アクティブにし、合成できないエフェクトが指定されたフィルタのアイコンは非アクティブにすることができる。
本発明の様々な実施形態によれば、イメージデータをフィルタを用いて前処理した後、キャプチャしたイメージに適用されたエフェクトと、イメージデータにフィルタを適用することなくキャプチャした後、同じフィルタを用いて後処理したイメージに適用されたエフェクトと、が同一であってもよい。
本発明の様々な実施形態によれば、フィルタを一括的に管理し、イメージセンサからのイメージをライブフィルタリングするためのデータ経路であっても、レンダリングが完了したイメージ(例えば、スナップイメージ等)を後処理するためのデータ経路であっても、フィルタをサポートさせることができる。
本発明の様々な実施形態によれば、ネットワークからフィルタエフェクトパッケージファイルをダウンロードしてインストールする場合、フィルタパッケージファイルに含まれたフィルタをフィルタエフェクトリストに追加し、イメージにフィルタパッケージファイルに含まれたフィルタのエフェクトを適用した後、これをアイコン(例えば、サムネイル(thumbnail)イメージ)で表示するか、又はフィルタパッケージファイルに含まれた既設定されたアイコンを表示することができる。
本発明の様々な実施形態によれば、ネットワークからフィルタパッケージファイルをダウンロードしてインストールする場合、フィルタパッケージファイルに含まれたフィルタ名をユーザ言語に適合した言語に翻訳し、フィルタを示すアイコンに表示することができる。
本発明の様々な実施形態によれば、特定のフィルタをフィルタエフェクトリストから削除する場合、フィルタが属するフィルタパッケージファイルを共に除去してストレージ浪費を低減することができる。
本発明の様々な実施形態によれば、イメージ処理方法は、イメージセンサを介して第1イメージ(image)を取得する動作、前記第1イメージに対するエフェクト(effect)に対応する少なくとも1つの第2イメージを前記第1イメージとともに表示する動作及び前記少なくとも1つの第2イメージの選択に対する応答として前記第1イメージの少なくとも一部を前記エフェクトを用いて表示する動作を含むことができる。
本発明の様々な実施形態によれば、電子装置は、イメージセンサを介して第1イメージ(image)を取得するための取得モジュール、前記第1イメージに対するエフェクト(effect)に対応する少なくとも1つの第2イメージを前記第1イメージとともに表示するための表示モジュール及び前記少なくとも1つの第2イメージの選択に対する応答として前記第1イメージの少なくとも一部を前記エフェクトを用いて表示するためのエフェクト適用モジュールを含むことができる。
本発明の様々な実施形態によれば、フィルタ管理モジュールは、少なくとも1つのフィルタを格納するフィルタディレクトリと、イメージ前処理及びイメージ後処理に前記少なくとも1つのフィルタを共用するための統合フィルタ管理部と、を含むことができる。
本発明の様々な実施形態によれば、電子装置は、イメージセンサと、少なくとも1つ以上のプロセッサと、メモリ及び前記メモリに格納され、前記少なくとも1つのプロセッサによって実行可能に構成される少なくとも1つ以上のプログラムを含み、前記プログラムは、前記イメージセンサを介して第1イメージデータを取得して、前記第1イメージデータにエフェクトを適用した第2イメージデータを表示する少なくとも1つのアイコンを画面に表示し、前記少なくとも1つのアイコンの選択に反応し、前記第1イメージデータに前記エフェクトを用いて前記画面に表示することができる。
本発明の様々な実施形態によれば、イメージセンサから取得されたイメージデータに様々なエフェクトを適用した後、これをアイコン(例えば、サムネイルイメージ)で表示できる。ユーザはアイコンを介してエフェクトが適用されたイメージをあらかじめ見ることができるので、写真撮影に反映しようとするエフェクトを容易に選択できる。
本発明の実施形態によるユーザ機器のブロック構成図である。 本発明の実施形態によるフィルタ管理モジュールのブロック構成図である。 本発明の様々な実施形態によるイメージ処理モジュールのブロック構成図である。 本発明の実施形態によるイメージ処理手順を示すフローチャートである。 本発明の実施形態による第2イメージの表示手順を示すフローチャートである。 本発明の実施形態による第2イメージの表示手順を示すフローチャートである。 本発明の実施形態による第2イメージの表示手順を示すフローチャートである。 本発明の実施形態による第1イメージの表示手順を示すフローチャートである。 本発明の実施形態による第1イメージの表示手順を示すフローチャートである。 本発明の実施形態による第2イメージを配置する動作手順を示すフローチャートである。 本発明の実施形態による第2イメージを配置する動作手順を示すフローチャートである。 本発明の実施形態による第2イメージを表示する動作手順を示すフローチャートである。 本発明の様々な実施形態によるカメラアプリケーションの画面である。 本発明の様々な実施形態によるカメラアプリケーションの画面である。 本発明の様々な実施形態によるカメラアプリケーションの画面である。 本発明の様々な実施形態によるカメラアプリケーションの画面である。 本発明の様々な実施形態によるカメラアプリケーションの画面である。 本発明の様々な実施形態によるカメラアプリケーションの画面である。 本発明の様々な実施形態によるカメラアプリケーションの画面である。 本発明の様々な実施形態によるカメラアプリケーションの画面である。 本発明の様々な実施形態によるカメラアプリケーションの画面である。
以下、本発明の好ましい実施形態を添付された図面を参照して詳しく説明する。なお、本発明を説明するに当たって、関連する公知の機能または構成に対する具体的な説明が本発明の要旨を不要に不明確にする可能性があると判断された場合、その詳細な説明は省略する。また、以下で記載される用語は、本発明における機能を考慮して定義された用語であって、これはユーザ、オペレータの意図または慣例などによって異なることがある。したがって、その定義は本明細書全般にわたる内容に基づいて行われるべきである。
図1は、本発明の実施形態によるユーザ機器のブロック構成図である。
このようなユーザ機器100は、携帯電話(mobile phone)、モバイルパッド(mobile pad)、メディアプレーヤ(media player)、タブレットコンピュータ(tablet computer)、ハンドヘルドコンピュータ(handheld computer)又はPDA(Personal Digital Assistant)のような装置である。また、このような装置のうち2種以上の機能を結合した装置を含む任意の移動端末であってもよい。
ユーザ機器100は、ホスト装置110、外部メモリ装置121、イメージセンサ122、センサ装置123、GPS(Global Positioning System)受信装置124、無線通信装置125、オーディオ装置126、外部ポート装置127、タッチスクリーン装置128、その他の入力/制御装置129及び電源供給装置130を含むことができる。外部メモリ装置121及び外部ポート装置127は複数個で構成されてもよい。
ホスト装置110は、内部メモリ111、1つ以上のプロセッサ112及びインタフェース113を含むことができる。内部メモリ111、1つ以上のプロセッサ112及びインタフェース113は、個別の構成要素であってもよく、または1つ以上の集積化した回路に構成されてもよい。
プロセッサ112は、様々なソフトウェアプログラムを実行してユーザ機器100のための様々な機能を行い、音声通信、ビデオ通信及びデータ通信のための処理及び制御を行うことができる。また、プロセッサ112は、このような通常の機能に加えて、内部メモリ111及び/又は外部メモリ装置121に格納された特定のソフトウェアプログラム(命令セット)を実行してそのプログラムに対応する特定の様々な機能を行う役割を果たすこともできる。例えば、プロセッサ112は、内部メモリ111及び/又は外部メモリ装置121に格納されたソフトウェアプログラムと連動して実施形態の方法を行うことができる。また、プロセッサ112は、1つ以上のアプリケーションプロセッサユニット(APU:Application Processor Unit)、グラフィックプロセッサユニット(GPU:Graphic Processor Unit)、オーディオプロセッサユニット(Audio Processor Unit)、通信プロセッサユニット(Communication Processor Unit)などを含んでもよい。
アプリケーションプロセッサユニットは、ユーザ機器に適用されるOS(Operating System)及び各種機能などを駆動させることができ、コア(core)、メモリ(memory)、ディスプレイシステム/コントローラ(display system/controller)、マルチメディアエンコード/デコードコーデック(mutimedia encoding/decoding codec)、2D/3Dアクセラレータエンジン(accelerator engine)、ISP(Image Signal Processor)、カメラ、オーディオ、モデム、各種ハイアンドロースピードシリアル/パラレル接続インタフェース(High&low speed Serial/Parallel connectivity interface)などの数多くの機能をすべて1つのチップに集めたものである。例えば、アプリケーションプロセッサユニットは、OS、アプリケーションを駆動させ、様々なシステム装置/インタフェースを制御する機能を1つのチップに集めたSOC(System−On−Chip)といえる。
グラフィックプロセッサユニットは、グラフィックに関連した演算を処理し、映像情報処理、加速化、信号転換、画面出力などを司ることができる。このようなグラフィックプロセッサユニットは、アプリケーションプロセッサユニットのグラフィック作業によって生じるボトルネック現象を解決でき、アプリケーションプロセッサユニットより2D又は3Dグラフィックを迅速に処理できる。
オーディオプロセッサユニットは、オーディオに関連した演算を処理するが、デジタル又はアナログ形式のオーディオ信号をオーディオエフェクト又はエフェクトユニットを介して変更できる。
通信プロセッサユニットは、ユーザ機器100と他の機器との通信処理を司り、ユーザ機器100がネットワークの通信機能を利用しようとする時、その接続を設定する等の機能を実行することができる。
インタフェース113は、ユーザ機器100の様々な装置とホスト装置110とを接続させることができる。
外部メモリ装置121は、1つ以上の磁気ディスク格納装置のような高速ランダムアクセスメモリ及び/又は不揮発性メモリ、1つ以上の光格納装置及び/又はフラッシュメモリ(例えば、NAND、NOR)を含むことができる。外部メモリ装置121は、ソフトウェアを格納し、ソフトウェアは、オペレーティングシステムプログラム、通信プログラム、カメラプログラム、グラフィックプログラム、1つ以上のアプリケーションプログラム、ユーザインタフェースプログラム、コーデックプログラムなどを含むことができる。プログラムという用語は、命令の集合又は命令セット(instruction set)又はプログラムと表現する場合もある。通信プログラム、カメラプログラム、グラフィックプログラム、1つ以上のアプリケーションプログラム、ユーザインタフェースプログラム及びコーデックプログラムは、オペレーティングシステムプログラムが様々な機能を様々なAPI(Application Programming Interface)を介して利用できる。
オペレーティングシステムプログラムは、WINDOWS(登録商標)、LINUX(登録商標)、ダーウィン(Darwin)、RTXC、UNIX(登録商標)、OS X、又はVxWorksのような内蔵オペレーションシステムを表し、通常のシステム動作(system operation)を制御する様々なソフトウェア構成要素を含んでもよい。このような一般的なシステム動作の制御は、メモリ管理及び制御、格納ハードウェア(装置)制御及び管理、電力制御及び管理などを含んでもよい。また、オペレーティングシステムプログラムは、様々なハードウェア(装置)とソフトウェア構成要素(プログラム)との間の通信を円滑にする機能も実行することができる。
通信プログラムは、無線通信装置125又は外部ポート装置127を介してコンピュータ、サーバ及びユーザ機器などとの通信を可能にすることができる。
カメラプログラムは、カメラ関連プロセス及び機能を可能にするカメラ関連ソフトウェア構成要素を含むことができる。カメラプログラムは、オープンジーエル(OpenGL:Open Graphics Library)、DirectXなどのAPIのサポートの元にイメージセンサ122からのイメージに様々なエフェクトを適用する前処理と、キャプチャしたスナップイメージに様々なエフェクトを適用する後処理と、を実行することができる。このようなエフェクトのためのフィルタは、前処理及び後処理の両方に共用で使用できるように一括的に管理され、他のプログラムでも共用で使用されるとよい。
グラフィックプログラムは、タッチスクリーン装置128にグラフィックを提供して表示するための様々なソフトウェア構成要素を含んでもよい。グラフィックプログラムは、オープンジーエル(OpenGL:Open Graphics Library)、DirectXなどのようなAPI(Application Programming Interface)に基づいてグラフィックを生成でき、映像に様々なエフェクトを与えられる様々なフィルタを提供できる。グラフィック(graphics)という用語は、テキスト(text)、ウェブページ(web page)、アイコン(icon)、デジタルイメージ(digital image)、ビデオ(video)、アニメーション(animation)などを表す。このようなグラフィックプログラムは、イメージを後処理する際のユーザビリティを重視したイメージビューワ(image viewer)、イメージ編集プログラムなどと、イメージの前処理を最適化したカメラ関連プログラム、ビデオ電話関連プログラムなどである。グラフィックプログラムは、レンダリングが完了したイメージに様々なエフェクトを適用する後処理を行うか、又はイメージに対する様々なエフェクトを適用する前処理を行うことができる。このようなエフェクトのためのフィルタは、上記のように、他のプログラムと共用で使用できるように一括的に管理されてもよい。
上記のカメラプログラム及び/又はグラフィックプログラムは、外部(ネットワーク、電子メール、メッセンジャー、又は着脱可能な外部メモリ等)からフィルタパッケージファイルをダウンロードしてインストールする機能を行うことができる。ネットワークからフィルタパッケージファイルをダウンロードしてインストールする場合、フィルタパッケージファイルに含まれたフィルタ及びフィルタに関するデータ(アイコンイメージ、フィルタ名、フィルタバージョンなど)は一括的にデータベースで管理されてもよい。また、このようなフィルタがデータベースから削除された場合、このフィルタだけが削除されるのではなくフィルタパッケージファイルがすべて削除されてもよい。カメラプログラム及び/又はグラフィックプログラムは、追加されたフィルタを示すアイコンイメージ及びフィルタ名を共に表示できる。フィルタ名はユーザ言語に適合するように翻訳されて表示されてもよい。特に、カメラプログラムは、イメージセンサ122から得られたイメージに追加されたフィルタのエフェクトを適用した後、これをアイコン(例えば、サムネイルイメージ)で提供することができる。
アプリケーションプログラムは、ブラウザ(browser)、電子メール(email)、インスタントメッセージ(instant message)、ワードプロセッシング(word processing)、キーボードエミュレーション(keyboard emulation)、アドレスブック(address book)、タッチリスト(touch list)、ウィジェット(widget)、デジタル著作権管理(DRM、Digital Right Management)、音声認識(voice recognition)、音声複製、位置決定機能(position determining function)、ロケーションベースサービス(location based service)などを含むことができる。
ユーザインタフェースプログラムは、ユーザインタフェースに関連した様々なソフトウェア構成要素を含んでもよい。また、ユーザインタフェースプログラムは、ユーザインタフェースの状態がどのように変更されるか、そしてユーザインタフェースの状態の変更がどのような条件で行われるか等に対する内容を含んでもよい。
コーデックプログラムは、ビデオファイルのエンコード及びデコードに関連したソフトウェア構成要素を含んでもよい。
外部メモリ装置121は、上記のプログラムの他にも、追加的なプログラム(命令)をさらに含んでもよい。また、ユーザ機器100の様々な機能は、1つ以上のストリームプロセッシング(processing)及び/又は特定用途向け集積回路(ASIC、Application Specific Integrated circuit)を含むハードウェア及び/又はソフトウェア及び/又はこれらの組み合わせによって実行されてもよい。
イメージセンサ122は、撮影対象から反射されてきた光を電気信号に変換できる。イメージセンサ122は、CCD(charged coupled device)又はCMOS(complementary metal−oxide semiconductor)などである。
ユーザ機器100の様々な構成要素は、1つ以上の通信バス(符号記載せず)又はストリームライン(符号記載せず)を介して接続されてもよい。
センサ装置123は、モーションセンサ、光センサ、温度センサなどを含み様々な機能を実行することができる。例えば、モーションセンサは、ユーザ機器100の動きを感知し、光センサは周辺光を感知できる。
GPS受信装置124は、GPS衛星から送られる信号を受信して現在の位置を計算できる。
無線通信装置125は、無線通信を行うことができるが、無線周波数送受信機、光(例えば、赤外線)送受信機を含んでもよい。このような無線通信装置125は、少なくとも1つのアンテナ、RF(Radio Frequency)コネクタなどを含むモジュールを含んでもよい。無線通信装置125は、通信ネットワークに応じてGSM(登録商標)(Global System for Mobile Communication)ネットワーク、EDGE(Enhanced Data GSM Environment)ネットワーク、CDMA(Code Division Multiple Access)ネットワーク、W−CDMA(W−Code Division Multiple Access)ネットワーク、LTE(Long Term Evolution)ネットワーク、OFDMA(Orthogonal Frequency Division Multiple Access)ネットワーク、Wi−Fi(Wireless Fidelity)ネットワーク、WiMaxネットワーク又は/及びBluetooth(登録商標)ネットワークのうち1つを介して動作するように設計されるとよい。
オーディオ装置126は、スピーカ1261及びマイクロホン1262に接続され、音声認識、音声複製、デジタルレコーディング及び通話機能などのオーディオ入力及び出力を司り、オーディオアンプを含んでもよい。オーディオ装置126は、スピーカ1261及びマイクロホン1262を介してユーザとコミュニケーションをとることができる。また、オーディオ装置126は、ホスト装置110からデータ信号を受信し、受信したデータ信号を電気信号に変換し、変換した電気信号をスピーカ1261を介して出力させることができる。スピーカ1261は、電気信号を可聴周波数帯域に変換して出力し、マイクロホン1262は、人やその他の音源から伝達された音波を電気信号に変換できる。また、オーディオ装置126は、マイクロホン1262から電気信号を受信し、受信した電気信号をオーディオデータ信号に変換し、変換したオーディオデータ信号をホスト装置110に送信できる。オーディオ装置126は、ユーザ機器100に脱着可能なイヤホン、ヘッドホン又はヘッドセットを含んでもよい。
外部ポート装置127は、ユーザ機器100を他のユーザ機器と直接接続するか、ネットワーク(例えば、インターネット、イントラネット、無線LAN等)を介して他のユーザ機器に間接的に接続できる。
タッチスクリーン装置128は、ユーザ機器100とユーザとの間の入力及び出力インタフェースを提供することができる。タッチスクリーン装置128は、タッチ感知技術を適用してユーザのタッチ入力をホスト装置110に伝達し、ホスト装置110から提供される視覚情報、例えば、テキスト、グラフィック、ビデオなどをユーザに表示することができる。タッチスクリーン装置128は、映像を表示するディスプレイを含み、このようなディスプレイは、EWD(Electro Wetting Display)、E−Paper、PDP(Plasma Display Panel)、LCD(Liquid Crystal Display)、OLED(Organic Light Emitting Diode)及びAMOLED(Active Matrix Organic Light Emitting Diodes)のうち1つである。また、タッチスクリーン装置は、タッチを受信する装置を含み、このような装置は、スタイラスペン用デジタイザ(digitizer)、静電容量方式(capacitive overlay)タッチパネル、抵抗膜方式(resistance overlay)タッチパネル、表面超音波方式(surface acoustic wave)タッチパネル、赤外線方式(infrared beam)タッチパネルのうち1つである。
その他の入力/制御装置129は、ボリューム制御のためのアップ/ダウンボタンを含んでもよい。その他にも、その他の入力/制御装置129は、特定の機能が与えられたプッシュボタン(push button)、ロッカーボタン(locker button)、ロッカー(locker)スイッチ、サムホイール(thumb−wheel)、ダイヤル(dial)、スティック(stick)、及びスタイラスなどのポインタ装置のうち少なくとも1つを含んでもよい。
電源供給装置130は、少なくとも1つの電源管理用集積回路(PMIC:Power Management Integrated Circuit)を含むことができる。PMICはバッテリ電源(パワー)を調整することができる。例えば、プロセッサ112は、処理すべき負荷(load)に合わせてそれによるインタフェース信号を電源供給装置130に送信できる。電源供給装置130は、プロセッサ112に供給するコア電圧をそれに合わせて調整することができ、プロセッサ112は、常時最小限の電力で駆動できる。ホスト装置110用PMICだけでなく、外部メモリ装置121、イメージセンサ122、センサ装置123、GPS受信装置124、無線通信装置125、オーディオ装置126、外部ポート装置127、タッチスクリーン装置128及びその他の入力/制御装置129のうち少なくとも1つに関連する少なくとも1つのPMICが構成されてもよい。また、1つの統合PMICが構成され、統合PMICはホスト装置110だけでなく、外部メモリ装置121、イメージセンサ122、センサ装置123、GPS受信装置124、無線通信装置125、オーディオ装置126、外部ポート装置127、タッチスクリーン装置128及びその他の入力/制御装置129のうち少なくとも1つに関するバッテリ電源を調整することもできる。
図2は、本発明の実施形態によるフィルタ管理モジュールのブロック構成図である。
図2を参照すると、アプリケーション部220は、イメージ前処理をサポートするアプリケーション221、イメージ後処理をサポートするアプリケーション223及びイメージ前処理及びイメージ後処理の両方をサポートするアプリケーション225のうち少なくとも1つを含むことができる。このようなアプリケーション部220は、イメージビューワ(image viewer)、イメージ編集アプリケーション、カメラアプリケーション、画像電話アプリケーションなどを含んでもよい。
統合フィルタ管理部210は、各フィルタに関するAPI関数を設定し、それぞれのフィルタをAPI化して処理できる。アプリケーション部220から特定のエフェクトに対する要求があった場合、フィルタディレクトリ230から特定のフィルタをロードし、ロードしたフィルタに関するAPI関数を呼び出すことができる。統合フィルタ管理部210は、ビデオ通話アプリケーションなどに関するイメージ前処理に特化したAPI及びイメージビューワアプリケーションなどに関するイメージ後処理に特化したAPIを提供することができる。統合フィルタ管理部210は、アプリケーション部220から要求されたエフェクトに該当するフィルタの作業を処理することに適したオブジェクト(CPU又はGPU)を指定することができる。
統合フィルタ管理部210は、フィルタ編集機能を提供することができる。ユーザはフィルタ編集機能を介してお気に入りのフィルタエフェクトリスト(favorite effect list)を設定することができ、統合フィルタ管理部210は、お気に入りのフィルタエフェクトリストをフィルタディレクトリ230に格納することができる。また、ユーザはフィルタ編集機能を介して削除しようとするフィルタを選択でき、統合フィルタ管理部210は、特定のフィルタをフィルタディレクトリ230から削除するとができる。特に、削除しようとするフィルタがフィルタパッケージファイル(フィルタインストールファイル)を介してインストールされたものである場合、統合フィルタ管理部210は、このフィルタパッケージファイルを削除してストレージ空間を確保することができる。このようなフィルタパッケージファイルは、フィルタ、フィルタ名(filter name)、アイコンイメージ(icon image)、ベンダー(vendor)、フィルタタイプ(前処理/後処理)、又はバージョンなどを含むことができる。また、ユーザはフィルタ編集機能を介して合成可能な複数のエフェクトを選択することができ、統合フィルタ管理部210は、合成可能な複数のエフェクトに関するフィルタをグループ化してフィルタディレクトリ230に格納することができる。また、統合フィルタ管理部210は、ユーザ機器100で運用されるずべてのイメージ処理関連フィルタをフィルタディレクトリ230に一括的に格納して管理するので、統合フィルタ管理部210は特定のフィルタをイメージ前処理及びイメージ後処理に共用で使用することができる。
フィルタディレクトリ230は、複数のフィルタを格納し、上記の統合フィルタ管理部210によって管理されてもよい。
フィルタダウンロード部240は、ダウンロード機能を提供することができる。ユーザはダウンロード機能を介して外部(例えば、ネットワーク、電子メール、メッセンジャー、又は着脱可能な外部メモリ等)からフィルタをダウンロードし、統合フィルタ管理部210は、獲得したフィルタをフィルタディレクトリ230に格納できる。また、フィルタダウンロード部240は、フィルタインストール機能をさらに提供できる。ユーザはネットワークからフィルタパッケージファイルをダウンロードし、フィルタインストール機能を介してフィルタパッケージファイルをインストールすることができる。フィルタパッケージファイルがインストールされた場合、統合フィルタ管理部210は、フィルタパッケージファイルに含まれたフィルタ及びフィルタ関連データ(例えば、フィルタ名、アイコンイメージ、ベンダー、又はフィルタタイプ等)をフィルタディレクトリ230に格納することができる。
図3は、本発明の様々な実施形態によるイメージ処理モジュールのブロック構成図である。
図3を参照すると、イメージ処理モジュール250は、獲得モジュール260、表示モジュール270及びエフェクト適用モジュール280を含むことができる。
取得モジュール260は、イメージセンサ122を介して第1イメージを取得することができる。
表示モジュール270は、第1イメージに対するエフェクトに対応する少なくとも1つの第2イメージを第1イメージとともに表示することができる。
エフェクト適用モジュール280は、少なくとも1つの第2イメージの選択に反応して第1イメージの少なくとも一部をエフェクトを用いて表示することができる。
図4は、本発明の実施形態によるイメージ処理手順を示すフローチャートである。
図4を参照すると、ステップ401で、プロセッサ112(例えば、取得モジュール260)は、イメージセンサ122から第1イメージを取得することができる。ステップ403で、プロセッサ112(例えば、表示モジュール270)は第1イメージに対するエフェクト(effect)に対応する少なくとも1つの第2イメージを第1イメージとともに表示することができる。第1イメージはイメージセンサ122から画面にライブ出力されてもよい。第2イメージは第1イメージに特定エフェクトを適用させて生成することができる。第2イメージはアイコン(例えば、サムネイルイメージ)で表示されてもよい。ステップ405で、プロセッサ112(例えば、エフェクト適用モジュール280)は、少なくとも1つの第2イメージの選択に対する応答として第1イメージの少なくとも一部をエフェクトを用いて表示することができる。例えば、ユーザはジェスチャ(例えば、タッチ、ホバリング、シングルタッチ、ダブルタップ、ドラッグアンドドロップ、又はフリッキング等)を介して画面に表示された第2イメージを選択することができる。第2イメージの選択があった場合、第1イメージは第2イメージのエフェクトを用いて表示される。1つの第2イメージが複数回選択された場合、第1イメージは第2イメージのエフェクトを選択回数分用いて表示される。複数の第2イメージが選択された場合、第1イメージは複数の第2イメージのエフェクトを用いて表示される。
図5は、本発明の実施形態による第2イメージの表示手順を示すフローチャートである。
図5を参照すると、ステップ501で、プロセッサ112(例えば、取得モジュール260)は、少なくとも1つのエフェクトをロードできる。ステップ503で、プロセッサ112(例えば、表示モジュール270)は第1イメージに少なくとも1つのエフェクトを適用した少なくとも1つの第2イメージを表示できる。プロセッサ112(例えば、エフェクト適用モジュール280)は、エフェクトに対応するフィルタを用いて第1イメージのイメージデータを処理して、第2イメージを生成できる。
図6は、本発明の実施形態による第2イメージの表示手順を示すフローチャートである。
図6を参照すると、ステップ601で、プロセッサ112は、エフェクトフィルタを外部(例えば、ネットワーク、電子メール、メッセンジャー又は着脱可能な外部メモリ等)から取得できる。外部から得られたエフェクトフィルタはアプリケーションが共用で使用できるディレクトリに格納されてもよい。ステップ603で、プロセッサ112(例えば、表示モジュール270)は、第1イメージにエフェクトフィルタのエフェクトを適用した第2イメージを表示できる。
図7は、本発明の実施形態による第2イメージの表示手順を示すフローチャートである。
図7を参照すると、ステップ701で、プロセッサ112(例えば、表示モジュール270)はエフェクトをグループ化することができる。プロセッサ112は、同じ複数のエフェクトをグループ化することができる。プロセッサ112は、互いに異なるエフェクトをグループ化することができる。複数の第2イメージの選択があった後、撮影ボタンが押された場合、プロセッサ112は、複数のエフェクトをグループ化することができる。ステップ703で、プロセッサ112(例えば、表示モジュール270)は、第1イメージにグループ化したエフェクトを適用した第2イメージを表示することができる。
図8は、本発明の実施形態による第1イメージの表示手順を示すフローチャートである。
図8を参照すると、ステップ801で、プロセッサ112(例えば、エフェクト適用モジュール280)は、第2イメージの複数選択があったかを判定することができる。第2イメージの複数選択があった場合、プロセッサ112は、ステップ803を実行し、選択がなかった場合は、ステップ807を実行できる。ステップ803で、プロセッサ112は選択回数を表示することができる。ステップ805で、プロセッサ112は、第1イメージを第2イメージのエフェクトを選択された回数分用いて表示することができる。ステップ807で、プロセッサ112は、第1イメージを第2イメージのエフェクトを一回用いて表示することができる。
図9は、本発明の実施形態による第1イメージの表示手順を示すフローチャートである。
図9を参照すると、ステップ901で、プロセッサ112(例えば、エフェクト適用モジュール280)は互いに異なる第2イメージの選択があったかを判定することができる。互いに異なる第2イメージの選択があった場合、プロセッサ112は、ステップ903を実行し、選択がなかった場合は、図8の上記のステップ801以下の動作を実行することができる。ステップ903で、プロセッサ112は、第1イメージを第2イメージのエフェクトを用いて表示することができる。
図10は、本発明の実施形態による第2イメージを配置する動作手順を示すフローチャートである。
図10を参照すると、ステップ1001で、プロセッサ112(例えば、表示モジュール270)は、第2イメージの選択頻度を確認することができる。ステップ1003で、プロセッサ112は選択頻度に応じて配置順序を決定できる。ステップ1005で、プロセッサ112は、配置順序に従って第2イメージを配置することができる。
図11は、本発明の実施形態による第2イメージを配置する動作手順を示すフローチャートである。
図11を参照すると、ステップ1101で、プロセッサ112(例えば、表示モジュール270)は、類似したエフェクトの複数の第2イメージを検索できる。ステップ1103で、プロセッサ112は、検索した第2イメージをグループで配置できる。
図12は、本発明の実施形態による第2イメージを表示する動作手順を示すフローチャートである。
図12を参照すると、ステップ1201で、プロセッサ112(例えば、表示モジュール270)は、選択した第2イメージのエフェクトと合成可能なエフェクトに対応する少なくとも1つの選択されていない第2イメージをアクティブにすることができる。ステップ1203で、プロセッサ112は、選択した第2イメージのエフェクトと合成できないエフェクトに対応する少なくとも1つの選択されていない第2イメージを非アクティブにすることができる。
図13乃至21は、本発明の様々な実施形態によるカメラアプリケーションの画面である。カメラアプリケーションは、オペレーティングシステム(OS)が提供するカメラ関連機能をカメラAPIを介して利用することができる。カメラAPIは、オペレーティングシステムが提供するカメラ関連機能を利用する方法を定義し、プログラムが呼び出したそれぞれのカメラ関連機能を関数で提供することができる。カメラアプリケーションは、必要に応じてカメラAPIを呼び出して、様々な処理を実行することができる。
イメージセンサ122からライブ出力されるイメージデータは、画面1300にそのまま表示されるか、または又はライブフィルタリング(live filtering)によるエフェクト(effect)を適用された後、表示されてもよい。イメージデータは、イメージセンサ122によって被写体をリアルタイムで撮像されたもので、プレビューがサポートされ、そのフォーマットはYUVであってもよい。
図13は、カメラアプリケーションの初期画面である。
図13を参照すると、画面1300にはイメージセンサ122から出力されるイメージデータが表示されている。画面1300にはエフェクトメニューボタン1302が表示されてもよい。エフェクトメニューボタン1302が押された場合、イメージデータに適用できるエフェクトに対応するアイコンが出現されてもよい。画面1300には撮影ボタン1303が表示されてもよい。撮影ボタン1303が押された場合、スナップイメージを得ることができる。スナップイメージは、撮影ボタン1303が押された際に取得される高解像度のイメージを意味する。スナップイメージはプレビューをサポートしないため、ユーザはイメージデータを表示する画面1300を見ながら撮影ボタン1303を押して所望のスナップイメージを得ることができる。ユーザがエフェクトメニューボタン1302を押した場合、図14の画面1400になる。
図14を参照すると、ユーザがエフェクトメニューボタン1302を押すと、エフェクトメニューボタン1302は上側へ移動し、画面1400の下側には水平に配列された複数のアイコン1401,1402,1403,1404,1405及び1406が出現されるとよい。アイコン1401,1402,1403,1404,1405及び1406は上側に水平に配列されるか又は左側又は右側に垂直に配列されてもよい。ユーザがもう一度エフェクトメニューボタン1302を押すと、図13の画面1300のようにエフェクトメニューボタン1302は本来の位置に戻り、アイコン1401,1402,1403,1404,1405及び1406は消去されるとよい。ユーザがイメージセンサ122から取得されたイメージデータを表示する領域をタッチした場合、図13の画面1300に戻ることができる。アイコン1401,1402,1403,1404,1405及び1406に対する選択が所定時間の間なかった場合、図13の画面1300に戻ってもよい。1番目のアイコン1401は、イメージセンサ122から取得されたイメージデータにエフェクトを何も適用していないイメージデータを表示することができる。その他のアイコン1402,1403,1404,1405及び1406は、イメージセンサ122から取得されたイメージデータに適用できるエフェクト(effect)に対応する。アイコン1402,1403,1404,1405及び1046は、イメージセンサ122から取得されたイメージデータに各エフェクトを適用したイメージデータを表示することができる。例えば、2番目のアイコン1402は、イメージセンサ122から取得されたイメージデータにレッド(RED)エフェクトを適用したイメージデータを表示することができる。3番目のアイコン1403は、イメージセンサ122から取得されたイメージデータにグリーン(GREEN)エフェクトを適用したイメージデータを表示できる。
その他のアイコン1404,1405及び1406もイメージセンサ122から取得されたイメージデータに各エフェクトを適用したイメージデータを表示することができる。1番目のアイコン1401にはエフェクト未適用を示す文字「ORIGINAL」1411が表示されてもよい。その他の残りのアイコン1402,1403,1404,1405及び1406には各エフェクトを示す文字1412,1413,1414,1415及び1416が表示されてもよい。アイコン1401,1402,1403,1404,1405及び1406が配置された下側領域で、ユーザが右側から左側へフリッキング(flicking)タッチ1420を行った場合、アイコン1401,1402,1403,1404,1405及び1406は、画面1400の左にスクロールされ、上記の方式の新しいアイコン1501,1502,1503,1504,1505及び1506が図15の画面1500から見えるように表示されてもよい。図15の画面1500でユーザが2番目のアイコン1502を選択した場合、図16の画面1600から見えるように、イメージセンサ122から取得されたイメージデータは選択されたアイコン1502のエフェクト(SKETCH)を適用された後、図16の画面1600のように表示されるとよい。アイコンを選択するユーザのジェスチャは、タッチ、ホバリング、シングルタッチ、ダブルタップ、ドラッグアンドドロップ、フリッキング1523などであってもよい。例えば、ユーザが2番目のアイコン1502をタッチした後、イメージセンサ122から得られたイメージデータを表示する領域にフリッキング1523した場合、2番目のアイコン1502は選択されるとよい。アイコンが選択された場合、イメージセンサ122から取得されたイメージデータを表示する領域に、選択されたアイコンが広がるようなアクションが表示されてもよい。
図16を参照すると、選択されたアイコン1602には選択を示すチェックボックス1622が表示されてもよい。ユーザがチェックボックス1622をタッチした場合、アイコン1602の選択は解除されてもよい。ユーザがイメージセンサ122から取得されたイメージデータを表示する領域をタッチした後、選択されたアイコン1602にフリッキング1623した場合、アイコン1602の選択は解除されてもよい。アイコン1602の選択が解除された場合、チェックボックス1622は消去されてもよい。アイコン1602の選択が解除された場合、イメージセンサ122から取得されたイメージデータに適用されたスケッチエフェクトは解除されてもよい。アイコン1602の選択が解除された場合、イメージセンサ122から取得されたイメージデータを表示する領域が小さくなりながらアイコン1602に吸収されるようなアクションが表示されてもよい。ユーザが上記1番目のアイコン1401を押した場合、アイコン1602の選択が解除されてもよい。
図17を参照すると、互いに異なる複数のアイコンが選択された場合、イメージセンサ122から取得されたイメージデータに複数のエフェクトを適用したイメージデータが表示されてもよい。例えば、2番目のアイコン1702及び5番目のアイコン1705が選択された場合、イメージセンサ122から取得されたイメージデータにスケッチエフェクト及びモノクロエフェクトを適用したイメージデータが表示されてもよい。
図18を参照すると、1つのアイコンが複数回選択された場合、イメージセンサ122から取得されたイメージデータにエフェクトを複数回適用したイメージデータが表示されている。例えば、2番目のアイコン1802が一回選択され、5番目のアイコン1805が3回選択された場合、イメージセンサ122から得られたイメージデータにスケッチエフェクトを一回適用し、モノクロエフェクトを3回適用したイメージデータが表示されてもよい。アイコンの選択回数が多いほどイメージセンサ122から取得されたイメージデータに適用するエフェクトの強度が高くなってもよい。選択された2番目のアイコン1802及び5番目のアイコン1805には選択回数を示す数字「1」1832及び「3」1835が表示されてもよい。一回選択された2番目のアイコン1802にはチェックボックス1822のみが表示されてもよい。ユーザが5番目のアイコン1805のチェックボックス1825を1回タッチした場合、5番目のアイコン1805に表示される数字は「2」に変更されてもよく、イメージセンサ122から取得されたイメージデータに前より一段階低くなったモノクロエフェクトを適用したイメージデータが表示されてもよい。例えば、アイコンの選択回数の調節によって、イメージセンサ122から取得されたイメージデータに適用するエフェクトの強度を調節することができる。
図19を参照すると、アイコンの選択回数に応じてエフェクトの強度を示す符号1932,1935が表示されてもよい。
図20を参照すると、選択されたアイコンのエフェクトと合成可能なエフェクトのアイコンはアクティブにされてもよい。選択されたアイコンのエフェクトと合成できないエフェクトのアイコンは非アクティブにされてもよい。例えば、2番目のアイコン2002が選択された場合、2番目のアイコン2002のレッドエフェクトとともに適用可能なエフェクトのアイコン2001,2003,2005はアクティブにされてもよく、ともに適用できないエフェクトのアイコン2004,2006は非アクティブにされてもよい。
図21を参照すると、エフェクトが適用されたスナップイメージを撮影によって取得した場合、エフェクトに対応するアイコンが追加的に表示されてもよい。このアイコンはイメージセンサ122から取得されたイメージデータに複数のエフェクトを適用したイメージデータを表示することができる。例えば、図18の画面1800で撮影ボタン1303が押された場合、スナップイメージを取得することができ、スナップイメージに適用されたエフェクト(スケッチエフェクト1段階、モノクロエフェクト3段階)はグループ化されてもよい。グループ化されたエフェクトに対応するアイコン2102が追加的に表示されてもよい。アイコン2102にはイメージセンサ122から取得されたイメージデータにグループ化されたエフェクトを適用したイメージデータを表示されている。アイコン2102にはグループ化されたエフェクトに関する内容(例えば、エフェクト名、強度)2132が表示されてもよい。ユーザはアイコンの位置を変更することができる。例えば、ユーザは2番目のアイコン2102をタッチした後、4番目のアイコン2104と5番目のアイコン2105との間にドラッグした後、指を離した場合、2番目のアイコン2102は4番目のアイコン2104と5番目のアイコン2105との間に移動することができる。ユーザはイメージセンサ122から得られたイメージデータを表示する領域にアイコンを移動させることができ、このアイコンは上記のスクロールの影響を受けず常時見ることができる。アイコンは自動的に配置されてもよい。例えば、選択頻度の高いアイコンはユーザのアクセスに有利な場所に配置されてもよい。選択頻度の高いアイコンは上記のスクロールの影響を受けない画面の上側、中央などに配置されてもよい。エフェクトメニューボタン1302が押された場合、選択頻度の高いアイコンは即座に視認可能となる。類似したエフェクトのアイコンはグループで配置されてもよい。例えば、図14を参照すると、レッド(RED)エフェクトのアイコン1402、グリーン(GREEN)エフェクトのアイコン1403及びブルー(BLUE)エフェクトのアイコン1404はいずれも色感を調節するものであるから、グループで配置されてもよい。エフェクトの類似度の判断基準は明度、彩度などであってもよい。
カメラアプリケーションは、フィルタ追加機能を提供するが、ユーザはこのようなフィルタ追加機能によって外部(例えば、ネットワーク、電子メール、メッセンジャー、着脱可能な外部メモリ等)からフィルタを取得することができる。外部から取得したフィルタは指定されたディレクトリに格納され、アプリケーションはこれを共用で使用することができる。カメラアプリケーションは外部から取得したフィルタに対応するアイコンを追加することができる。このアイコンにはイメージセンサ122から取得されたイメージデータにフィルタのエフェクトを適用したイメージデータが表示されてもよい。
ユーザはネットワークからアプリケーションタイプのフィルタパッケージファイルをダウンロードし、これをインストールすることができる。フィルタパッケージファイルがインストールされた場合、フィルタパッケージファイルに含まれたフィルタは、アプリケーションが共用で使用できるように指定されたディレクトリに格納されてもよい。このフィルタはカメラアプリケーションのフィルタリストに自動的に追加されてもよく、上記の方式によってこのフィルタに対応するアイコンが追加的に表示されてもよい。
本発明の様々な実施形態によれば、それぞれのモジュールはソフトウェア、ファームウエア、ハードウェア又はその組み合わせで構成されてもよい。また、一部又は全体モジュールは、1つの個体(entity)で構成され、各モジュールの機能を同一に実行することができる。本発明の様々な実施形態によれば、それぞれの動作は順に、繰り返して、又は並列的に実行されてもよい。また、一部の動作は省略されてもよく、または他の動作が追加されて実行されてもよい。一例によれば、それぞれの動作は、本発明で記述した対応するモジュールによって実行されてもよい。
本発明の請求項及び/又は明細書に記載された実施形態による方法は、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアの組み合わせの形態に具現化(implemented)されてもよい。
ソフトウェアとして具現化される場合、1つ以上のプログラム(ソフトウェアモジュール)を格納するコンピュータ読み取り可能な格納媒体が提供されてもよい。コンピュータ読み取り可能な格納媒体に格納される1つ以上のプログラムは、電子装置(device)内の1つ以上のプロセッサによって実行されてもよい。1つ以上のプログラムは、電子装置に、本発明の請求項及び/又は明細書に記載された実施形態による方法を実行させる命令(instructions)を含んでもよい。
このようなプログラム(ソフトウェアモジュール、ソフトウェア)はランダムアクセスメモリ(random access memory)、フラッシュ(flash)メモリを含む不揮発性(non−volatile)メモリ、ロム(ROM、Read Only Memory)、電気的に消去可能なPROM(EEPROM、Electrically Erasable Programmable Read Only Memory)、磁気ディスク格納装置(magnetic disc storage device)、シーディーロム(CD−ROM、Compact Disc−ROM)、デジタル多目的ディスク(DVDs、Digital Versatile Discs)又は他の形態の光学格納装置、マグネティックカセット(magnetic cassette)に格納されてもよい。又は、これらの一部又は全部の組み合わせで構成されたメモリに格納されてもよい。また、それぞれの構成メモリは複数個含まれてもよい。
また、電子装置にインターネット(Internet)、イントラネット(Intranet)、LAN(Local Area Network)、WLAN(Wide LAN)、又はSAN(Storage Area Network)のような通信ネットワーク、又はこれらの組み合わせで構成された通信ネットワークを介してアクセス(access)できる取付可能な(attachable)格納装置(storage device)に格納されてもよい。このような格納装置は外部ポートを介して電子装置に接続することができる。
また、通信ネットワーク上の別途の格納装置が携帯用電子装置に接続することができる。
一方、本発明の詳細な説明では具体的な実施形態について説明したが、本発明の範囲から逸脱しない限度内で様々な変形が可能である。したがって、本発明の範囲は説明された実施形態に限定されて定められてはならず、後述する特許請求の範囲のみでなくこの特許請求の範囲と均等なものによって定められるべきである。

Claims (28)

  1. イメージ表示方法において、
    イメージセンサからリアルタイムでキャプチャされるリアルタイムデータを表示するとともにリアルタイムでリフレッシュされる第1ライブイメージ、及び効果メニューボタンを電子装置によってタッチスクリーン上に表示する動作と、
    前記タッチスクリーン上に前記効果メニューボタンを選択するためのタッチ入力を検出する動作と、
    前記効果メニューボタンを選択するための前記タッチ入力を検出したことに応じて、前記リアルタイムリフレッシュされた第1ライブイメージに各々のイメージ効果を適用することに基づいてリアルタイムで生成される複数の第2ライブイメージを前記第1ライブイメージとともに表示する動作と、
    前記タッチスクリーン上の前記第2ライブイメージの内の少なくとも1つを選択するためのタッチ入力を検出する動作と、
    前記第2ライブイメージの内の前記少なくとも1つを選択するための前記タッチ入力を検出したことに応じて、前記少なくとも1つの選択された第2ライブイメージに対応するイメージ効果に基づいて、前記イメージセンサによりリアルタイムに取得されたイメージデータを処理して第3ライブイメージを生成する動作と、
    前記第1ライブイメージの代わりに前記第3ライブイメージを、前記第2ライブイメージと共に表示する動作と、
    前記第3ライブイメージに対するタッチ入力を受信する動作と、
    前記第3ライブイメージに対する前記タッチ入力に応じて、前記少なくとも1つの選択された第2ライブイメージの前記対応するイメージ効果に基づいてスチールイメージを生成する動作と、を含み、
    前記第2ライブイメージは前記第1ライブイメージに重ねてサムネイルとして表示される方法。
  2. 前記スチールイメージの生成動作は前記第3ライブイメージの解像度に比べて高い解像度を有する前記スチールイメージを生成する請求項1に記載の方法。
  3. 前記少なくとも1つの第2ライブイメージを選択する前記タッチ入力が特定時間内に受信されたかを判断する動作、及び
    前記タッチ入力が前記特定時間内に受信されなかったと判断することに基づいて前記複数の第2ライブイメージの表示を終了する動作をさらに含む請求項1に記載の方法。
  4. 前記複数の第2ライブイメージが表示される間、前記効果メニューボタンに対するタッチ入力を検出する動作、及び、
    前記タッチ入力に応じて、前記複数の第2ライブイメージの前記表示を終了する動作をさらに含む請求項1に記載の方法。
  5. フィルタ効果が適用されていない第2ライブイメージを前記複数の第2ライブイメージの間の特定位置に表示する動作をさらに含む請求項1に記載の方法。
  6. 前記第2ライブイメージに適用されたフィルタ効果がないことを示す表示を表示する動作をさらに含む請求項5に記載の方法。
  7. 前記複数の第2ライブイメージの各々と関連して、前記対応するイメージ効果を特定の言語で示す表示をそれぞれ表示する動作をさらに含む請求項1に記載の方法。
  8. 同じ第2ライブイメージが複数回選択されたかを判断する動作、
    前記第2ライブイメージが複数回選択された場合、前記選択された第2ライブイメージが 選択された回数を示す標識を表示し、前記第2ライブイメージに対応する前記イメージ効果を選択された回数分前記第1ライブイメージに適用して前記第3ライブイメージを生成する動作、及び、
    前記第2ライブイメージが一回選択された場合、前記選択された第2ライブイメージに対応する前記イメージ効果を前記第1ライブイメージに一回適用して前記第3ライブイメージを生成する動作を含む請求項1に記載の方法。
  9. 複数の互いに異なる第2ライブイメージが選択されたかを判断する動作、及び、
    複数の互いに異なる第2ライブイメージが選択された場合、前記複数の互いに異なる第2ライブイメージに対応する前記イメージ効果を前記第1ライブイメージに適用して前記第3ライブイメージを生成する動作をさらに含む請求項1に記載の方法。
  10. 前記第2ライブイメージの内の選択されていない少なくとも1つのイメージに対応する効果が前記第2ライブイメージの内の選択された他の1つに対応するイメージ効果と共存できないことに基づいて前記第2ライブイメージの内の前記少なくとも1つのイメージに対する選択を非アクティブにする動作をさらに含む請求項1に記載の方法。
  11. 第2ライブイメージの内の選択解除された他の第2ライブイメージに対応するイメージ効果と共存できない効果と関連づけられた少なくとも1つの第2ライブイメージに対する選択をアクティブにする動作をさらに含む請求項1に記載の方法。
  12. 前記第2ライブイメージの各々のイメージ効果の属性に基づいて決定された順番に従って前記第2ライブイメージを表示し、前記属性はカラー、明度、及び彩度を含む請求項1に記載の方法。
  13. 前記第2ライブイメージは以前の時間の間前記第2ライブイメージの対応するイメージ効果が選択された頻度に基づいて決定される位置に表示される請求項1に記載の方法。
  14. 前記第2ライブイメージの内の1つの選択に基づいて前記第2ライブイメージの内の他の1つを非アクティブにする動作をさらに含み、前記非アクティブは前記非アクティブにされた第2ライブイメージが選択されないようにする請求項1に記載の方法。
  15. 電子装置において、
    命令を保存するメモリーと、
    タッチスクリーンと、
    イメージセンサと、
    1つ以上のプロセッサーと、を含み、
    前記プロセッサーは、前記保存された命令を実行して、
    イメージセンサからリアルタイムでキャプチャされるリアルタイムデータを表示するとともにリアルタイムでリフレッシュされる第1ライブイメージ、及び効果メニューボタンを電子装置によってタッチスクリーン上に表示し、
    前記タッチスクリーン上に前記効果メニューボタンを選択するためのタッチ入力を検出し、
    前記効果メニューボタンを選択するための前記タッチ入力を検出したことに応じて、前記リアルタイムリフレッシュされた第1ライブイメージに各々のイメージ効果を適用することに基づいてリアルタイムで生成される複数の第2ライブイメージを前記第1ライブイメージとともに表示し
    前記タッチスクリーン上の前記第2ライブイメージの内の少なくとも1つを選択するためのタッチ入力を検出し、
    前記第2ライブイメージの内の前記少なくとも1つを選択するための前記タッチ入力を検出したことに応じて、前記少なくとも1つの選択された第2ライブイメージに対応するイメージ効果に基づいて、前記イメージセンサによりリアルタイムに取得されたイメージデータを処理して第3ライブイメージを生成し、
    前記第1ライブイメージの代わりに前記第3ライブイメージを、前記第2ライブイメージと共に表示し、
    前記第3ライブイメージに対するタッチ入力を受信し、
    前記第3ライブイメージに対する前記タッチ入力に応じて、前記少なくとも1つの選択された第2ライブイメージの前記対応するイメージ効果に基づいてスチールイメージを生成する動作を行い、
    前記第2ライブイメージは前記第1ライブイメージに重ねてサムネイルとして表示される装置。
  16. 前記プロセッサーは前記スチールイメージの生成動作は前記第3ライブイメージの解像度に比べて高い解像度を有する前記スチールイメージを生成する動作をさらに行う請求項15に記載の装置。
  17. 前記プロセッサーは、
    前記少なくとも1つの第2ライブイメージを選択する前記タッチ入力が特定時間内に受信されたかを判断する動作、及び、
    前記タッチ入力が前記特定時間内に受信されなかったと判断することに基づいて前記複数の第2ライブイメージの表示を終了する動作をさらに行う請求項15に記載の装置。
  18. 前記プロセッサーは、
    前記複数の第2ライブイメージが表示される間、前記効果メニューボタンに対するタッチ入力を検出する動作、及び、
    前記タッチ入力に応じて、前記複数の第2ライブイメージの前記表示を終了する動作をさらに行う請求項15に記載の装置。
  19. 前記プロセッサーは、
    フィルタ効果が適用されていない第2ライブイメージを前記複数の第2ライブイメージの間の特定位置に表示する動作をさらに行う請求項15に記載の装置。
  20. 前記プロセッサーは、
    前記第2ライブイメージに適用されたフィルタ効果がないことを示す表示を表示する動作をさらに行う請求項19に記載の装置。
  21. 前記プロセッサーは、
    前記複数の第2ライブイメージの各々と関連して、前記対応するイメージ効果を特定の言語で示す表示をそれぞれ表示する動作をさらに行う請求項15に記載の装置。
  22. 前記プロセッサーは、
    同じ第2ライブイメージが複数回選択されたかを判断する動作、
    前記第2ライブイメージが複数回選択された場合、前記選択された第2ライブイメージが選択された回数を示す標識を表示し、前記第2ライブイメージに対応する前記イメージ効果を選択された回数分前記第1ライブイメージに適用して前記第3ライブイメージを生成する動作、及び、
    前記第2ライブイメージが一回選択された場合、前記選択された第2ライブイメージに対応する前記イメージ効果を前記第1ライブイメージに一回適用して前記第3ライブイメージを生成する動作をさらに行う請求項15に記載の装置。
  23. 前記プロセッサーは、
    複数の互いに異なる第2ライブイメージが選択されたかを判断する動作、及び、
    複数の互いに異なる第2ライブイメージが選択された場合、前記複数の互いに異なる第2ライブイメージに対応する前記イメージ効果を前記第1ライブイメージに適用して前記第3ライブイメージを生成する動作をさらに行う請求項15に記載の装置。
  24. 前記プロセッサーは、
    前記第2ライブイメージの内の選択されていない少なくとも1つのイメージに対応する効果が前記第2ライブイメージの内の選択された他の1つに対応するイメージ効果と共存できないことに基づいて前記第2ライブイメージの内の前記少なくとも1つのイメージに対する選択を非アクティブにする動作をさらに行う請求項15に記載の装置。
  25. 前記プロセッサーは、
    第2ライブイメージの内の選択解除された他の第2ライブイメージに対応するイメージ効果と共存できない効果と関連づけられた少なくとも1つの第2ライブイメージに対する選択をアクティブにする動作をさらに行う請求項15に記載の装置。
  26. 前記プロセッサーは、
    前記第2ライブイメージの各々のイメージ効果の属性に基づいて決定された順番に従って前記第2ライブイメージを表示する動作をさらに行い、前記属性はカラー、明度、及び彩度を含む請求項15に記載の装置。
  27. 前記第2ライブイメージは以前の時間の間前記第2ライブイメージの対応イメージ効果が選択された頻度に基づいて決定される位置に表示される請求項15に記載の装置。
  28. 前記プロセッサーは、
    前記第2ライブイメージの内の1つの選択に基づいて前記第2ライブイメージの内の他の1つを非アクティブにする動作をさらに行い、前記非アクティブは前記非アクティブにされた第2ライブイメージが選択されないようにする請求項15に記載の装置。
JP2019064211A 2013-03-14 2019-03-28 イメージ表示方法、及び、電子装置 Active JP6868659B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2013-0027590 2013-03-14
KR1020130027590A KR102063915B1 (ko) 2013-03-14 2013-03-14 사용자 기기 및 그 동작 방법

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013236895A Division JP6505967B2 (ja) 2013-03-14 2013-11-15 ユーザ機器及びその動作方法

Publications (2)

Publication Number Publication Date
JP2019109944A JP2019109944A (ja) 2019-07-04
JP6868659B2 true JP6868659B2 (ja) 2021-05-12

Family

ID=50287906

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2013236895A Active JP6505967B2 (ja) 2013-03-14 2013-11-15 ユーザ機器及びその動作方法
JP2019064211A Active JP6868659B2 (ja) 2013-03-14 2019-03-28 イメージ表示方法、及び、電子装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2013236895A Active JP6505967B2 (ja) 2013-03-14 2013-11-15 ユーザ機器及びその動作方法

Country Status (9)

Country Link
US (6) US9571736B2 (ja)
EP (3) EP3512192B1 (ja)
JP (2) JP6505967B2 (ja)
KR (1) KR102063915B1 (ja)
CN (2) CN104050621B (ja)
AU (1) AU2014201586B2 (ja)
ES (2) ES2925457T3 (ja)
RU (1) RU2666130C2 (ja)
WO (1) WO2014142604A1 (ja)

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10015308B2 (en) * 2013-07-26 2018-07-03 Lg Electronics Inc. Mobile terminal and method of controlling the same
KR20150026393A (ko) * 2013-09-02 2015-03-11 삼성전자주식회사 이미지 처리 및 그 방법을 처리하는 전자장치
CN105847670B (zh) * 2015-02-04 2019-06-21 佳能株式会社 电子设备、摄像控制装置及其控制方法
US9781393B2 (en) * 2015-03-27 2017-10-03 Olympus Corporation Imaging apparatus, control method of imaging apparatus, and non-transitory storage medium storing control program of imaging apparatus
JP2017059888A (ja) * 2015-09-14 2017-03-23 オリンパス株式会社 情報記録装置、情報記録方法及び情報記録プログラム
JP6532361B2 (ja) * 2015-09-16 2019-06-19 キヤノン株式会社 情報処理装置、制御方法及びプログラム
US10225471B2 (en) * 2016-03-18 2019-03-05 Kenneth L. Poindexter, JR. System and method for autonomously recording a visual media
US20190174069A1 (en) * 2016-03-18 2019-06-06 Kenneth L. Poindexter, JR. System and Method for Autonomously Recording a Visual Media
US9716825B1 (en) 2016-06-12 2017-07-25 Apple Inc. User interface for camera effects
US9954706B1 (en) * 2016-10-28 2018-04-24 L3 Technologies Inc. Outphased spatial combiner
WO2018088794A2 (ko) * 2016-11-08 2018-05-17 삼성전자 주식회사 디바이스가 이미지를 보정하는 방법 및 그 디바이스
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
WO2018226264A1 (en) * 2017-06-04 2018-12-13 Apple Inc. User interface camera effects
US10742899B1 (en) 2017-08-30 2020-08-11 Snap Inc. Systems, devices, and methods for image enhancement
JP2019102889A (ja) * 2017-11-29 2019-06-24 株式会社デンソー カメラシステム
US10535191B2 (en) * 2017-12-21 2020-01-14 Luminar Technologies, Inc. Object identification and labeling tool for training autonomous vehicle controllers
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
EP3754958A4 (en) * 2018-02-14 2022-03-09 LG Electronics Inc. MOBILE TERMINAL AND ITS CONTROL METHOD
KR102499399B1 (ko) * 2018-03-20 2023-02-14 삼성전자주식회사 Isp 업데이트를 알리는 전자 장치 및 그 동작 방법
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
KR102597680B1 (ko) * 2018-06-07 2023-11-03 삼성전자주식회사 맞춤형 화질 이미지를 제공하는 전자 장치 및 그 제어 방법
US10984399B2 (en) * 2018-07-31 2021-04-20 Snap Inc. Dynamically configurable social media platform
KR102558166B1 (ko) * 2018-08-08 2023-07-24 삼성전자주식회사 복수의 객체들을 포함하는 이미지를 보정하는 전자 장치 및 그 제어 방법
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US10674072B1 (en) 2019-05-06 2020-06-02 Apple Inc. User interfaces for capturing and managing visual media
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
KR102138193B1 (ko) 2018-10-19 2020-07-27 스노우 주식회사 복수의 카메라 패키지로 이루어진 카메라 어플리케이션을 포함하는 시스템 및 그 제어 방법
KR20200100918A (ko) * 2019-02-19 2020-08-27 삼성전자주식회사 카메라를 이용하는 어플리케이션을 통해 다양한 기능을 제공하는 전자 장치 및 그의 동작 방법
KR102664688B1 (ko) * 2019-02-19 2024-05-10 삼성전자 주식회사 가상 캐릭터 기반 촬영 모드를 제공하는 전자 장치 및 이의 동작 방법
US11070717B2 (en) * 2019-04-23 2021-07-20 Adobe Inc. Context-aware image filtering
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US11169675B1 (en) * 2019-06-28 2021-11-09 Snap Inc. Creator profile user interface
CN111064886B (zh) * 2019-12-19 2022-03-01 惠州Tcl移动通信有限公司 终端设备的拍摄方法、终端设备及存储介质
CN111093035B (zh) * 2019-12-31 2022-12-27 维沃移动通信有限公司 图像处理方法、电子设备及存储介质
US11451703B2 (en) * 2020-03-23 2022-09-20 Samsung Electronics Co.. Ltd. Method and system for customizing camera parameters
US11039074B1 (en) 2020-06-01 2021-06-15 Apple Inc. User interfaces for managing media
JP2022026848A (ja) * 2020-07-31 2022-02-10 キヤノン株式会社 情報処理装置、制御方法、及びプログラム
US11212449B1 (en) * 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
WO2023021759A1 (ja) * 2021-08-17 2023-02-23 ソニーグループ株式会社 情報処理装置、情報処理方法
CN113747240B (zh) * 2021-09-10 2023-04-07 荣耀终端有限公司 视频处理方法、设备和存储介质
JP2023111610A (ja) * 2022-01-31 2023-08-10 キヤノンメディカルシステムズ株式会社 医用画像診断装置

Family Cites Families (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3786242B2 (ja) * 1997-07-14 2006-06-14 富士写真フイルム株式会社 画像処理方法および装置、画像再生方法および装置並びにその方法に使用する画像確認装置
JP2000331181A (ja) * 1999-05-17 2000-11-30 Fuji Photo Film Co Ltd 画像処理方法
US20010043279A1 (en) * 2000-03-07 2001-11-22 Masahito Niikawa Digital camera
JP4511066B2 (ja) * 2001-03-12 2010-07-28 オリンパス株式会社 撮像装置
JP2003134520A (ja) * 2001-10-19 2003-05-09 Minolta Co Ltd デジタルカメラ
CA2469163C (en) * 2003-05-16 2012-04-24 Microsoft Corporation File system shell
JP4396332B2 (ja) * 2004-03-10 2010-01-13 セイコーエプソン株式会社 ディジタルカメラ
KR101063405B1 (ko) * 2004-06-29 2011-09-07 삼성전자주식회사 특수효과 처리 화면 분할 디스플레이 기능을 갖는 휴대용영상 기록/재생 장치 및 그 분할 디스플레이 방법
JP2006048537A (ja) 2004-08-06 2006-02-16 Canon Inc 印刷システム及び印刷処理方法
JP4895020B2 (ja) * 2004-09-07 2012-03-14 日本電気株式会社 画像処理システム及びその方法と、それに用いられる端末及びサーバ
KR101058011B1 (ko) * 2004-10-01 2011-08-19 삼성전자주식회사 터치 스크린을 이용한 디지털 카메라 조작 방법
JP2006238076A (ja) * 2005-02-25 2006-09-07 Fuji Photo Film Co Ltd 撮影装置
US8085318B2 (en) * 2005-10-11 2011-12-27 Apple Inc. Real-time image capture and manipulation based on streaming data
KR101156676B1 (ko) 2005-08-04 2012-06-14 삼성전자주식회사 디지털 영상 처리 방법
JP4288612B2 (ja) * 2005-09-14 2009-07-01 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP4840848B2 (ja) * 2005-09-21 2011-12-21 ソニー株式会社 撮影装置、情報処理方法、並びにプログラム
JP4926494B2 (ja) 2006-02-20 2012-05-09 キヤノン株式会社 画像処理装置及び制御方法
JP2007316452A (ja) * 2006-05-26 2007-12-06 Omron Corp 観察装置および観察装置の画面表示方法
DE102006027025A1 (de) 2006-06-08 2007-12-13 Merck Patent Gmbh Silberweiße-Effektpigmente
JP4725452B2 (ja) * 2006-08-04 2011-07-13 株式会社ニコン デジタルカメラ及び画像処理プログラム
KR100816442B1 (ko) 2006-08-17 2008-03-27 에스케이 텔레콤주식회사 화상통화에 영상 효과 서비스를 제공하는 방법 및 시스템
KR100896711B1 (ko) * 2007-02-08 2009-05-11 삼성전자주식회사 터치 스크린을 갖는 휴대 단말기의 탭을 통한 기능 실행방법
JP4930302B2 (ja) * 2007-09-14 2012-05-16 ソニー株式会社 撮像装置、その制御方法およびプログラム
JP5083090B2 (ja) 2007-09-18 2012-11-28 ソニー株式会社 表示制御装置、撮像装置、表示制御方法およびプログラム
KR100924689B1 (ko) 2007-12-17 2009-11-03 한국전자통신연구원 모바일 기기의 이미지 변환 장치 및 방법
JP2009181501A (ja) * 2008-01-31 2009-08-13 Toshiba Corp 移動通信機器
US20090319897A1 (en) * 2008-06-20 2009-12-24 Microsoft Corporation Enhanced user interface for editing images
US8214766B1 (en) * 2008-07-09 2012-07-03 Adobe Systems Incorporated Method and system for preview control for image adjustment
US8310594B2 (en) * 2008-07-22 2012-11-13 Samsung Electronics Co., Ltd. Method and system for picture-based user interface for adjusting picture display parameter settings of a display device
JP4534176B2 (ja) * 2008-07-22 2010-09-01 富士フイルム株式会社 電子カメラ
US8072505B2 (en) * 2008-07-23 2011-12-06 Victor Company Of Japan, Ltd. Imaging apparatus
JP4752900B2 (ja) * 2008-11-19 2011-08-17 ソニー株式会社 画像処理装置、画像表示方法および画像表示プログラム
KR101595254B1 (ko) * 2009-02-20 2016-02-18 삼성전자주식회사 화이트 밸런스 조정 방법, 상기 방법을 기록한 기록 매체, 화이트 밸런스 조정 장치
JP5412133B2 (ja) * 2009-02-20 2014-02-12 オリンパスイメージング株式会社 再生装置および再生方法
EP2420921A4 (en) * 2009-04-13 2014-04-23 Nec Corp DATA PROCESSING DEVICE AND COMPUTER PROGRAM AND METHOD OF PROCESSING DATA
US8806331B2 (en) 2009-07-20 2014-08-12 Interactive Memories, Inc. System and methods for creating and editing photo-based projects on a digital network
US8379130B2 (en) * 2009-08-07 2013-02-19 Qualcomm Incorporated Apparatus and method of processing images based on an adjusted value of an image processing parameter
JP5127792B2 (ja) * 2009-08-18 2013-01-23 キヤノン株式会社 情報処理装置、その制御方法、プログラム及び記録媒体
JP5402409B2 (ja) * 2009-08-31 2014-01-29 ソニー株式会社 撮影条件設定装置、撮影条件設定方法及び撮影条件設定プログラム
JP5218353B2 (ja) * 2009-09-14 2013-06-26 ソニー株式会社 情報処理装置、表示方法及びプログラム
JP5457217B2 (ja) * 2010-02-02 2014-04-02 オリンパスイメージング株式会社 カメラ
JP5051258B2 (ja) * 2010-03-16 2012-10-17 コニカミノルタビジネステクノロジーズ株式会社 画像処理装置及び同装置の表示制御方法並びに表示制御プログラム
US8810691B2 (en) 2010-09-03 2014-08-19 Olympus Imaging Corp. Imaging apparatus, imaging method and computer-readable recording medium
JP2012059061A (ja) * 2010-09-09 2012-03-22 Hitachi Solutions Ltd データ処理装置、データ処理方法及びプログラム
JP5748436B2 (ja) * 2010-09-10 2015-07-15 キヤノン株式会社 撮像装置及びその制御方法
JP5160604B2 (ja) 2010-09-14 2013-03-13 任天堂株式会社 表示制御プログラム、表示制御システム、表示制御装置、表示制御方法
KR101657122B1 (ko) * 2010-09-15 2016-09-30 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR101700366B1 (ko) * 2010-10-01 2017-02-13 삼성전자주식회사 디지털 촬영 장치 및 이의 제어 방법
US8687091B2 (en) * 2010-11-03 2014-04-01 Canon Kabushiki Kaisha Image capturing systems and methods utilizing customizable look management
JP2012124608A (ja) * 2010-12-06 2012-06-28 Olympus Imaging Corp カメラ
JP5678631B2 (ja) * 2010-12-10 2015-03-04 ソニー株式会社 電子機器、電子機器の制御方法およびプログラム
JP5652652B2 (ja) * 2010-12-27 2015-01-14 ソニー株式会社 表示制御装置および方法
US8717381B2 (en) * 2011-01-11 2014-05-06 Apple Inc. Gesture mapping for image filter input parameters
JP5136669B2 (ja) * 2011-03-18 2013-02-06 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
KR20120119794A (ko) * 2011-04-22 2012-10-31 삼성전자주식회사 특수 효과들을 사용한 촬영 방법 및 장치
JP2012249175A (ja) 2011-05-30 2012-12-13 Olympus Imaging Corp 撮像装置、表示方法およびプログラム
JP5806512B2 (ja) * 2011-05-31 2015-11-10 オリンパス株式会社 撮像装置、撮像方法および撮像プログラム
US9019400B2 (en) * 2011-05-31 2015-04-28 Olympus Imaging Corp. Imaging apparatus, imaging method and computer-readable storage medium
JP5806513B2 (ja) * 2011-05-31 2015-11-10 オリンパス株式会社 撮像装置、撮像方法および撮像プログラム
JP5855862B2 (ja) * 2011-07-07 2016-02-09 オリンパス株式会社 撮像装置、撮像方法およびプログラム
JP2013021548A (ja) * 2011-07-12 2013-01-31 Olympus Imaging Corp 撮像装置、画像再生装置及びプログラム
WO2013039025A1 (ja) 2011-09-16 2013-03-21 Necカシオモバイルコミュニケーションズ株式会社 情報管理編集機能を備えた情報処理装置
KR101817653B1 (ko) * 2011-09-30 2018-01-12 삼성전자주식회사 디지털 촬영 장치, 그 제어 방법, 및 컴퓨터 판독가능 저장매체
US8957982B2 (en) * 2011-10-04 2015-02-17 Olympus Imaging Corp. Imaging device and imaging method
JP5872834B2 (ja) * 2011-10-06 2016-03-01 オリンパス株式会社 撮像装置、撮像方法および撮像プログラム
JP5451944B2 (ja) 2011-10-07 2014-03-26 パナソニック株式会社 撮影装置及び撮影方法
JP5936183B2 (ja) * 2012-02-07 2016-06-15 オリンパス株式会社 撮影機器
GB2513763A (en) * 2012-03-06 2014-11-05 Apple Inc Fanning user interface controls for a media editing application
JP5970937B2 (ja) * 2012-04-25 2016-08-17 ソニー株式会社 表示制御装置および表示制御方法
CN104322050B (zh) * 2012-05-22 2020-04-28 株式会社尼康 电子相机、图像显示装置和记录介质
JP6004756B2 (ja) * 2012-06-07 2016-10-12 キヤノン株式会社 表示制御装置及びその制御方法
JP5956836B2 (ja) * 2012-06-08 2016-07-27 キヤノン株式会社 撮像装置および表示制御方法、プログラム
JP2013254432A (ja) * 2012-06-08 2013-12-19 Canon Inc 画像処理装置及び画像処理方法
JP5977132B2 (ja) 2012-09-28 2016-08-24 富士ゼロックス株式会社 表示制御装置、画像表示装置、およびプログラム
CN103777852B (zh) * 2012-10-18 2018-10-02 腾讯科技(深圳)有限公司 一种获取图像的方法、装置
KR101890137B1 (ko) * 2012-10-25 2018-08-21 삼성전자주식회사 촬영 장치 및 제어 방법
JP6270325B2 (ja) 2013-03-15 2018-01-31 キヤノン株式会社 情報処理装置およびその制御方法
KR102092330B1 (ko) * 2013-06-20 2020-03-23 삼성전자주식회사 촬영 제어 방법 및 그 전자 장치
US20150227166A1 (en) * 2014-02-13 2015-08-13 Samsung Electronics Co., Ltd. User terminal device and displaying method thereof

Also Published As

Publication number Publication date
CN104050621B (zh) 2018-10-12
EP3512192A1 (en) 2019-07-17
US10284788B2 (en) 2019-05-07
CN109089044A (zh) 2018-12-25
AU2014201586A1 (en) 2014-10-02
US10841510B2 (en) 2020-11-17
US20190260946A1 (en) 2019-08-22
ES2925457T3 (es) 2022-10-18
US10506176B2 (en) 2019-12-10
RU2015138989A (ru) 2017-03-16
US20140267867A1 (en) 2014-09-18
EP3771200A1 (en) 2021-01-27
RU2666130C2 (ru) 2018-09-06
JP2019109944A (ja) 2019-07-04
US10841511B1 (en) 2020-11-17
EP2779630A2 (en) 2014-09-17
WO2014142604A1 (en) 2014-09-18
CN104050621A (zh) 2014-09-17
US20200344424A1 (en) 2020-10-29
KR102063915B1 (ko) 2020-01-08
EP3771200B1 (en) 2022-04-27
AU2014201586B2 (en) 2019-07-11
JP2014179969A (ja) 2014-09-25
US20170244907A1 (en) 2017-08-24
EP2779630A3 (en) 2014-10-22
US9674462B2 (en) 2017-06-06
US20170085809A1 (en) 2017-03-23
CN109089044B (zh) 2022-03-11
EP3512192B1 (en) 2020-09-16
ES2833542T3 (es) 2021-06-15
JP6505967B2 (ja) 2019-04-24
US20200112689A1 (en) 2020-04-09
KR20140112915A (ko) 2014-09-24
US9571736B2 (en) 2017-02-14

Similar Documents

Publication Publication Date Title
JP6868659B2 (ja) イメージ表示方法、及び、電子装置
CN107885533B (zh) 管理组件代码的方法及装置
TWI592021B (zh) 生成視頻的方法、裝置及終端
KR102113272B1 (ko) 전자장치에서 복사/붙여넣기 방법 및 장치
JP7217357B2 (ja) ミニプログラムのデータバインディング方法、装置、デバイス及びコンピュータプログラム
US20220206645A1 (en) Management of screen content capture
CN112230914B (zh) 小程序的制作方法、装置、终端及存储介质
US9430806B2 (en) Electronic device and method of operating the same
CN112230910B (zh) 嵌入型程序的页面生成方法、装置、设备及存储介质
KR102102959B1 (ko) 사용자 기기 및 그 동작 방법
KR102109915B1 (ko) 사용자 기기 및 그 동작 방법
CN111125571B (zh) 图片显示方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210316

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210412

R150 Certificate of patent or registration of utility model

Ref document number: 6868659

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250