JP2017515186A - メタデータに基づく写真及び/又は映像アニメーション - Google Patents

メタデータに基づく写真及び/又は映像アニメーション Download PDF

Info

Publication number
JP2017515186A
JP2017515186A JP2016554271A JP2016554271A JP2017515186A JP 2017515186 A JP2017515186 A JP 2017515186A JP 2016554271 A JP2016554271 A JP 2016554271A JP 2016554271 A JP2016554271 A JP 2016554271A JP 2017515186 A JP2017515186 A JP 2017515186A
Authority
JP
Japan
Prior art keywords
logic
image sequence
image
metadata
virtual element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016554271A
Other languages
English (en)
Other versions
JP6576940B2 (ja
JP2017515186A5 (ja
Inventor
ジョゼフ ソーヴ,アーロン
ジョゼフ ソーヴ,アーロン
ジー. アーノルド,ジェフェリー
ジー. アーノルド,ジェフェリー
シー. レムソン,キャスリン
シー. レムソン,キャスリン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2017515186A publication Critical patent/JP2017515186A/ja
Publication of JP2017515186A5 publication Critical patent/JP2017515186A5/ja
Application granted granted Critical
Publication of JP6576940B2 publication Critical patent/JP6576940B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/21Intermediate information storage
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/21Intermediate information storage
    • H04N1/2104Intermediate information storage for one or a few pictures
    • H04N1/2112Intermediate information storage for one or a few pictures using still video cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/21Intermediate information storage
    • H04N1/2104Intermediate information storage for one or a few pictures
    • H04N1/2112Intermediate information storage for one or a few pictures using still video cameras
    • H04N1/212Motion video recording combined with still video recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/21Intermediate information storage
    • H04N1/2104Intermediate information storage for one or a few pictures
    • H04N1/2112Intermediate information storage for one or a few pictures using still video cameras
    • H04N1/215Recording a sequence of still pictures, e.g. burst mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32106Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title separate from the image data, e.g. in a different computer file
    • H04N1/32112Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title separate from the image data, e.g. in a different computer file in a separate computer file, document page or paper sheet, e.g. a fax cover sheet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • H04N21/8153Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics comprising still images, e.g. texture, background image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3247Data linking a set of images to one another, e.g. sequence, burst or continuous capture mode

Abstract

本願では、メタデータに基づく写真及び/又は映像アニメーションを提供することが可能な技術が記載されている。例えば、シーンの複数の画像(例えば、静止画像)は画像シーケンスにまとめられてよい。画像は、シーンを表すよう複数の画像から選択されてよい。そのような画像はプライマリ画像と呼ばれてよい。メタデータはプライマリ画像と関連付けられてよい。メタデータは、画像シーケンスへの参照を含んでよい。

Description

フォトグラフィの分野では、アニメーション化された写真及び映像に関して、新しいトレンドが出現している。写真は、ただ1つのシングルショットよりも多くなりつつあり、多くの場合で、複数のフレームから作られる。そのようなものとして、捕捉中にシングルインスタントよりも多くを捕捉する動きがある。これは、Cinemagraph及びCinemagram(登録商標)のようなアプリケーションの復興において見られ得る。それは、写真と映像の間のハイブリッドと時々呼ばれる、アニメーション化された画像交換フォーマット(GIF;Graphics Interchange Format)ファイルをユーザが作るのを助ける。アニメーション化されたGIFファイルは、ループ映像としてしばしば構成される。ループ映像は、映像が終了すると自動的に再生されるように、ループにおいて構成される複数の静止画像又は映像の複数のセクションから作られた映像である。Vine Labs,Inc.は、ユーザがそのようなループ映像を作成することを可能にするモバイルアプリケーションをリリースした企業である。Echographは、ユーザがスチル写真に動きを挿入することを可能にするためにアニメーション化GIF技術を使用するアプリケーションである。マイクロソフト社によって開発されたBlinkも、ユーザがスチル写真に動きを挿入することを可能にする。
とりわけ、メタデータに基づく写真及び/又は映像アニメーションを提供するために、様々なアプローチが本願で記載される。例えば、シーンの複数の画像(例えば、静止画像)は画像シーケンスにまとめられてよい。画像は、シーンを表すよう複数の画像から選択されてよい。そのような画像はプライマリ画像と呼ばれてよい。メタデータはプライマリ画像と関連付けられてよい。メタデータは、画像シーケンスへの参照を含んでよい。デバイスが写真及び/又は映像アニメーションをサポートする場合には、そのデバイスは、画像シーケンスにアクセスするためにメタデータにおける参照を使用し、そして、シーンを表すために画像シーケンスを使用してよい。デバイスが写真及び/又は映像アニメーションをサポートしない場合には、そのデバイスは、シーンを表すためにプライマリ画像(又は他の画像)を使用してよい。
システム及びデバイスの例が記載される。第1の例となるデバイスは、カメラ、制御ロジック、画像シーケンスロジック、及びメタデータロジックを含む。カメラは、選択された場合に1つ以上の画像の捕捉を開始するユーザエレメントを含む。制御ロジックは、ユーザエレメントの夫々の選択に応答して複数の画像を捕捉するようにカメラを制御するよう構成される。画像シーケンスロジックは、夫々の複数の画像から画像シーケンスを生成するよう構成される。メタデータロジックは、夫々の複数の画像について、メタデータを、当該複数の画像から選択されたプライマリ画像と関連付けるよう構成される。夫々の複数の画像について、メタデータは、当該複数の画像から生成される画像シーケンスに対する参照を含む。
第2の例となるデバイスは、表示ロジック、インターフェイスロジック、及びジェスチャロジックを含む。表示ロジックは、プライマリ画像を受け取るよう構成される。各プライマリ画像は、当該プライマリ画像を含む各々の複数の画像に基づく各々の画像シーケンスへの参照を含むメタデータを有する。インターフェイスロジックは、仮想要素を含むユーザインターフェイスを提供するよう構成される。各仮想要素は、各々のプライマリ画像に対応するとともに、該各々のプライマリ画像のメタデータにおいて参照される各々の画像シーケンスに対応する。表示ロジックは、各仮想要素について、当該仮想要素において該仮想要素に対応するプライマリ画像を表示するよう構成される。ジェスチャロジックは、指定された仮想要素に対するジェスチャを検出するよう構成される。表示ロジックは、指定された仮想要素に対してジェスチャが検出されたことに応答して、指定された仮想要素において該指定された仮想要素に対応するプライマリ画像を表示するのではなく、指定された仮想要素において該指定された仮想要素に対応する画像シーケンスを表示するよう構成される。
例となるシステムは、ストア、識別ロジック、機能ロジック、及び供給ロジックを含む。ストアは、第1デバイスからネットワークを介してプライマリ画像を受け取るよう構成される。プライマリ画像は、プライマリ画像を含む複数の画像に基づく指定された画像シーケンスへの参照を含むメタデータを有する。プライマリ画像は、第1ユーザのプロファイルを表す。ストアは、第1デバイスとは異なる第2デバイスからネットワークを介してブートアップインジケータを受け取るよう更に構成される。ブートアップインジケータは、第2デバイスがブートアッププロセスを実行中であることを示す。識別ロジックは、第2デバイスに関連するコンタクトのリストにおいて第1ユーザが識別されることを決定するよう構成される。機能ロジックは、第2デバイスが画像シーケンスによりコンタクトを表すことが可能であるかどうかを判定するよう構成される。第2デバイスが画像シーケンスによりコンタクトを表すことが可能である場合には、供給ロジックは、指定された画像シーケンスを参照に基づき取り出し、第1ユーザのプロファイルを表すよう前記指定された画像シーケンスを第2デバイスへ与える。第2デバイスが画像シーケンスによりコンタクトを表すことが可能でない場合には、供給ロジックは、第1ユーザのプロファイルを表すよう、指定された画像シーケンスに代えてプライマリ画像を第2デバイスへ与える。
方法の例も記載される。第1の例となる方法において、ユーザエレメントを備えたカメラは、ユーザエレメントの夫々の選択に応答して複数の画像を捕捉するよう制御される。画像シーケンスは、夫々の複数の画像から生成される。夫々の複数の画像について、メタデータは、当該複数の画像から選択されたプライマリ画像と関連付けられる。各メタデータは、各々の複数の画像から生成される画像シーケンスへの参照を含む。
第2の例となる方法において、プライマリ画像が受け取られる。各プライマリ画像は、当該プライマリ画像を含む各々の複数の画像に基づく各々の画像シーケンスへの参照を含むメタデータを有する。仮想要素を含むユーザインターフェイスが提供される。各仮想要素は、各々のプライマリ画像に対応するとともに、該各々のプライマリ画像のメタデータにおいて参照される複数の画像シーケンスの中の各々の画像シーケンスに対応する。各仮想要素について、当該仮想要素に対応するプライマリ画像は、当該仮想要素において表示される。指定された仮想要素に対してジェスチャが検出される。指定された仮想要素に対するジェスチャの検出に応答して、指定された仮想要素に対応するプライマリ画像ではなく、指定された仮想要素に対応する画像シーケンスが、指定された仮想要素において表示される。
第3の例となる方法において、プライマリ画像は、第1デバイスからネットワークを介してストアで受け取られる。プライマリ画像は、プライマリ画像を含む複数の画像に基づく指定された画像シーケンスへの参照を含むメタデータを有する。プライマリ画像は第1ユーザのプロファイルを表す。ブートアップインジケータは、第1デバイスとは異なる第2デバイスからネットワークを介してストアで受け取られる。ブートアップインジケータは、第2デバイスがブートアッププロセスを実行中であることを示す。第2デバイスに関連するコンタクトのリストにおいて第1ユーザが識別されるとの決定がなされる。第2デバイスが画像シーケンスによりコンタクトを表すことが可能であるかどうかの判定がなされる。第2デバイスが画像シーケンスによりコンタクトを表すことが可能である場合には、指定された画像シーケンスが参照に基づき取り出され、指定された画像シーケンスは、第1ユーザのプロファイルを表すよう第2デバイスへ与えられる。第2デバイスが画像シーケンスによりコンタクトを表すことが可能でない場合には、プライマリ画像が、指定された画像シーケンスに代えて、第1ユーザのプロファイルを表すよう第2デバイスへ与えられる。
コンピュータプログラム製品の例も記載される。第1の例となるコンピュータプログラム製品は、プロセッサベースのシステムがメタデータに基づく写真及び/又は映像アニメーションを提供することを可能にするコンピュータプログラムロジックを記録しているコンピュータ可読媒体を含む。コンピュータプログラムロジックは、第1プログラムロジックモジュール、第2プログラムロジックモジュール、及び第3プログラムロジックモジュールを含む。第1プログラムロジックモジュールは、プロセッサベースのシステムが、ユーザエレメントを備えたカメラを制御して、該ユーザエレメントの夫々の選択に応答して複数の画像を捕捉することを可能にするものである。第2プログラムロジックモジュールは、プロセッサベースのシステムが夫々の複数の画像から画像シーケンスを生成することを可能にするものである。第3プログラムロジックモジュールは、プロセッサベースのシステムが、夫々の複数の画像について、当該複数の画像から選択されたプライマリ画像とメタデータとを関連付けることを可能にするものである。各メタデータは、各々の複数の画像から生成される画像シーケンスへの参照を含む。
第2の例となるコンピュータプログラム製品は、プロセッサベースのシステムがメタデータに基づく写真及び/又は映像アニメーションを提供することを可能にするコンピュータプログラムロジックを記録しているコンピュータ可読媒体を含む。コンピュータプログラムロジックは、第1プログラムロジックモジュール、第2プログラムロジックモジュール、第3プログラムロジックモジュール、第4プログラムロジックモジュール、及び第5プログラムロジックモジュールを含む。第1プログラムロジックモジュールは、プロセッサベースのシステムがプライマリ画像を受け取ることを可能にするものである。各プライマリ画像は、プライマリ画像を含む各々の複数の画像に基づく各々の画像シーケンスへの参照を含むメタデータを有する。第2プログラムロジックモジュールは、プロセッサベースのシステムが、仮想要素を含むユーザインターフェイスを提供することを可能にするものである。各仮想要素は、各々のプライマリ画像に対応するとともに、各々のプライマリ画像のメタデータにおいて参照される複数の画像シーケンス中の各々の画像シーケンスに対応する。第3プログラムロジックモジュールは、プロセッサベースのシステムが、各仮想要素について、当該仮想要素において該仮想要素に対応するプライマリ画像を表示することを可能にするものである。第4プログラムロジックモジュールは、プロセッサベースのシステムが、指定された仮想要素に対するジェスチャを検出することを可能にするものである。第5プログラムロジックモジュールは、プロセッサベースのシステムが、指定された仮想要素に対するジェスチャの検出に応答して、指定された仮想要素において、該指定された仮想要素に対応するプライマリ画像に代えて、前記指定された仮想要素に対応する画像シーケンスを表示することを可能にするものである。
第3の例となるコンピュータプログラム製品は、プロセッサベースのシステムがメタデータに基づく写真及び/又は映像アニメーションを選択的に提供することを可能にするコンピュータプログラムロジックを記録しているコンピュータ可読媒体を含む。コンピュータプログラムロジックは、第1プログラムロジックモジュール、第2プログラムロジックモジュール、第3プログラムロジックモジュール、第4プログラムロジックモジュール、及び第5プログラムロジックモジュールを含む。第1プログラムロジックモジュールは、プロセッサベースのシステムが、第1デバイスからネットワークを介してプライマリ画像を受け取ることを可能にするものである。プライマリ画像は、プライマリ画像を含む複数の画像に基づく指定された画像シーケンスへの参照を含むメタデータを有する。プライマリ画像は第1ユーザのプロファイルを表す。第2プログラムロジックモジュールは、プロセッサベースのシステムが、第1デバイスとは異なる第2デバイスからネットワークを介してブートアップインジケータを受け取ることを可能にするものである。ブートアップインジケータは、第2デバイスがブートアッププロセスを実行中であることを示す。第3プログラムロジックモジュールは、プロセッサベースのシステムが、第2デバイスに関連するコンタクトのリストにおいて第1ユーザが識別されることを決定することを可能にするものである。第4プログラムロジックモジュールは、プロセッサベースのシステムが、第2デバイスが画像シーケンスによりコンタクトを表すことが可能であるかどうかを判定することを可能にするものである。第5プログラムロジックモジュールは、プロセッサベースのシステムが、第2デバイスが画像シーケンスによりコンタクトを表すことが可能である場合には、指定された画像シーケンスを参照に基づき取り出し、該指定された画像シーケンスを、第1ユーザのプロファイルを表すよう第2デバイスへ与えることを可能にするものである。第5プログラムロジックモジュールは、更には、プロセッサベースのシステムが、第2デバイスが画像シーケンスによりコンタクトを表すことが可能でない場合には、指定された画像シーケンスに代えてプライマリ画像を、第1ユーザのプロファイルを表すよう第2デバイスへ与えることを可能にするものである。
この概要は、以下詳細な説明において更に記載される概念の一部を簡略して紹介するために設けられている。この概要は、請求される態様の重要な特徴又は必須の特徴を特定することを目的としたものでも、請求される対象の適用範囲を制限するために使用されることを目的としたものでもない。更には、本発明は、詳細な説明及び/又は本願の他の項目において記載される具体的な実施形態に制限されないことが知られる。そのような実施形態は、単に例示を目的として本願で与えられている。更なる実施形態は、本願に含まれる教示に基づき当業者に明らかであろう。
本願に組み込まれており且つ明細書の部分を構成する添付の図面は、本発明の実施形態を表しており、明細書とともに、関連する原理を説明し、当業者が開示されている技術を構成及び使用することを可能にする役割を更に果たす。
実施形態に従って、メタデータに基づくアニメーションシステムの例のブロック図である
実施形態に従って、図1に示されるデバイスの実施例のブロック図である。
実施形態に従って、図1に示されるデバイスの視点から、メタデータに基づく写真及び/又は映像アニメーションを提供する方法の例のフローチャートを表す。 実施形態に従って、図1に示されるデバイスの視点から、メタデータに基づく写真及び/又は映像アニメーションを提供する方法の例のフローチャートを表す。 実施形態に従って、図1に示されるデバイスの視点から、メタデータに基づく写真及び/又は映像アニメーションを提供する方法の例のフローチャートを表す。 実施形態に従って、図1に示されるデバイスの視点から、メタデータに基づく写真及び/又は映像アニメーションを提供する方法の例のフローチャートを表す。 実施形態に従って、図1に示されるデバイスの視点から、メタデータに基づく写真及び/又は映像アニメーションを提供する方法の例のフローチャートを表す。 実施形態に従って、図1に示されるデバイスの視点から、メタデータに基づく写真及び/又は映像アニメーションを提供する方法の例のフローチャートを表す。 実施形態に従って、図1に示されるデバイスの視点から、メタデータに基づく写真及び/又は映像アニメーションを提供する方法の例のフローチャートを表す。 実施形態に従って、図1に示されるデバイスの視点から、メタデータに基づく写真及び/又は映像アニメーションを提供する方法の例のフローチャートを表す。
実施形態に従って、図1に示されるサーバの視点から、メタデータに基づく写真及び/又は映像アニメーションを提供する方法の例のフローチャートを表す。 実施形態に従って、図1に示されるサーバの視点から、メタデータに基づく写真及び/又は映像アニメーションを提供する方法の例のフローチャートを表す。 実施形態に従って、図1に示されるサーバの視点から、メタデータに基づく写真及び/又は映像アニメーションを提供する方法の例のフローチャートを表す。
実施形態に従って、図1に示されるサーバの実施例のブロック図である。
実施形態に従って、タッチ・アンド・ホバーコマンドを検知するタッチスクリーンを備えたモバイルデバイスの例のシステム図である。
実施形態が実施され得るコンピュータの例を表す。
開示されている技術の特徴及び利点は、示されている詳細な説明から、図面と関連して理解される場合に、より明らかになるであろう。図面において、同じ参照文字は全体を通して対応する要素を特定する。図面において、同じ参照番号は、同じ、機能的に類似した、及び/又は構造的に類似した要素を概して示す。要素が最初に現れる図は、対応する参照番号において最左の数字によって示される。
I.イントロダクション
以下の詳細な説明は、本発明の例となる実施形態を表す添付の図面を参照する。なお、本発明の適用範囲は、それらの実施形態に制限されず、代わりに、添付の特許請求の範囲によって定義される。よって、表されている実施形態の変形形態のような、添付の図面に示されているものを超える実施形態は、それでもなお本発明によって包含され得る。
「一実施形態」、「実施形態」、「例となる実施形態」、又は同様のものへの明細書中の言及は、記載される実施形態が特定の機能、構造、又は特性を含んでよいが、あらゆる実施形態が必ずしもその特定の機能、構造、又は構成を含まなくてよいことを示す。更に、そのようなフレーズは、必ずしも同じ実施形態に言及しているわけではない。更には、特定の機能、構造、又は特性が実施形態に関連して記載される場合に、明示的に記載されていようとなかろうと他の実施形態に関連してそのような機能、構造、又は特性を実装することは、当業者の通常の知識内にあると考えられる。
II.例となる実施形態
本願で記載される例となる実施形態は、メタデータに基づく写真及び/又は映像アニメーションを提供することができる。例えば、シーンの複数の画像(例えば、静止画像)は画像シーケンスにまとめられてよい。画像は、シーンを表すよう複数の画像から選択されてよい。そのような画像はプライマリ画像と呼ばれてよい。メタデータはプライマリ画像と関連付けられてよい。メタデータは画像シーケンスへの参照を含んでよい。デバイスが写真及び/又は映像アニメーションをサポートする場合には、そのデバイスは、画像シーケンスにアクセスするようメタデータにおける参照を使用し、シーンを表すよう画像シーケンスを使用してよい。デバイスが写真及び/又は映像アニメーションをサポートしない場合には、そのデバイスは、シーンを表すようプライマリ画像(又は他の画像)を使用してよい。
本願で記載される例となる技術は、写真及び映像を表示するための従来技術と比較して、様々な利点を有する。例えば、例となる技術は、アニメーションをサポートする機能を備えるデバイスについて写真及び/又は映像アニメーションを提供し、一方、アニメーションをサポートする機能を備えていないデバイスについてはアニメーションに代えて静止画像を提供することが可能であってよい。例となる技術は、従来技術を比較して、より個人的な及び/又は主観的なユーザ体験を提供し得る。例となる技術は、(例えば、デフォルトで)カメラによって実施される夫々の捕捉により複数のショットが撮影されるようにすることが可能であってよい。複数のショットを含む、結果として得られる情報は、特定の期間の間存続してよい。これは、捕捉された瞬間を表すために複数のショットの中からどの画像が選択されるべきかをユーザが後に決定することを可能にすることができる。例となる技術は、指定された期間の経過に応答して(例えば、消費される記憶容量を制限又は削減するため。)、アニメーションを(例えば、特定の条件下で)削除してよい。例となる技術は、複数の静止画像、映像(例えば、映像のキーフレーム)、などにアクセス可能であってよい。例となる技術は、ロック画面、スタートメニュー、呼び出し画面、コンタクトタイル、フォトハブ、フォトギャラリービューアー、シングルフォトビューアー、などのような、デバイスの様々なコンテキストのいずれかにおいて写真及び/又は映像アニメーションが提供されるようにすることが可能であってよい。そのようなアニメーションは自動的に(例えば、アニメーションが現れるようにするための操作をユーザが実施することなしに)及び/又は実時間で提供されてよい。例となる技術又はその態様は、ユーザによって手動で、バックエンドサービスによって自動的に、又はサードパーティアプリケーションによって、実施されてよい。
図1は、実施形態に従う、メタデータに基づくアニメーションシステム100(以降、「システム100」)の例のブロック図である。一般的に言えば、システム100は、ユーザから受け取られるリクエスト(例えば、ハイパーテキスト伝送プロトコル(HTTP;hypertext transfer protocol)リクエスト)に応答してユーザに情報を提供するよう動作する。情報は、ドキュメント(例えば、ウェブページ、画像、映像ファイル、など)、実行ファイルの出力、及び/又はあらゆる他の適切なタイプの情報を含んでよい。本願で記載される例となる実施形態に従って、システム100は、メタデータに基づく写真及び/又は映像アニメーションを提供する。例えば、そのようなアニメーションは、デバイスの様々なコンテキストのいずれかにおいて静止画像に代えて使用されてよい。メタデータに基づく写真及び/又は映像アニメーションを提供する技術に関する詳細は、以下の議論において与えられる。
図1に示されるように、システム100は、サーバ102、ネットワーク104、及び複数のデバイス106A〜106Nを含む。サーバ102及びデバイス106A〜106Nの間の通信は、よく知られているネットワーク通信プロトコルを用いてネットワーク104上で実施される。ネットワーク104は、ワイドエリアネットワーク(例えば、インターネット)、ローカルエリアネットワーク(LAN;local area network)、他のタイプのネットワーク、又はそれらの組み合わせであってよい。
デバイス106A〜106Nは、サーバ102と通信することができるプロセッシングシステムである。プロセッシングシステムの例は、命令の組に従ってデータを処理することができる少なくとも1つのプロセッサを含むシステムである。例えば、プロセッシングシステムは、コンピュータ、パーソナルデジタルアシスタント、などであってよい。デバイス106A〜106Nは、サーバ102に記憶されている(あるいは、それを介して別なふうにアクセス可能である)情報を要求するためにサーバにリクエストを供給するよう構成される。例えば、ユーザは、ユーザによって所有されるか又は別なふうにユーザがアクセスすることができるデバイス106に配置されたクライアント(例えば、ウェブブラウザ、ウェブクローラ、又は他のタイプのクライアント)を用いてコンピュータプログラム(例えば、アプリケーション)を実行するためのリクエストを起動してよい。いくつかの例となる実施形態に従って、デバイス106A〜106Nは、サーバ102によってホスティングされているドメイン(例えば、ウェブサイト)にアクセスすることができ、それにより、デバイス106A〜106Nは、ドメインを介して利用可能である情報にアクセスしてよい。そのようなドメインはウェブページを含んでよく、例えば、その中でリンクされているハイパーテキストマークアップ言語(HTML;hypertext markup language)ドキュメント及びオブジェクト(例えば、ファイル)として提供されてよい。
デバイス106A〜106Nの夫々は、制限なしに、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、スマートウォッチ又は頭部装着型コンピュータのようなウェアラブルコンピュータ、パーソナルデジタルアシスタント、携帯電話機、などを含む、如何なるクライアント対応システム又はデバイスも含んでよい。
デバイス106A〜106Nは、各々のクライアント側のメタデータに基づくアニメーションロジック112A〜112Nを含むものとして示されている。デバイス106A〜106Nの夫々及びアニメーションロジック112A〜112Nの夫々は、議論の簡単のために、これより、一様にデバイス106及びアニメーションロジック112と夫々呼ばれる。夫々のアニメーションロジック112は、各々のアニメーションロジック112を含むデバイス106に対して写真及び/又は映像アニメーションを提供するよう構成される。例えば、アニメーションロジック112は、複数の画像から画像シーケンスを生成するか、あるいは、サーバ102からネットワーク104を介して画像シーケンスを受け取ってよい。アニメーションロジック112は、デバイス106の様々なコンテキストのいずれかにおいて静止画像に代えて画像シーケンスを表示(自動的に表示、デフォルトで表示、など)してよい。例えば、静止画像は、画像シーケンスを参照する(例えば、それにリンクする)メタデータ(例えば、XFメタデータ)を有してよい。アニメーションロジック112は、参照に基づき画像シーケンスを取り出し、静止画像が別なふうに表示される1つ以上のコンテキストにおいて、画像シーケンスを表示してよい。例えば、画像シーケンスは、静止画像が記憶されているフォルダとは異なるフォルダに記憶されてよい。
コンテキストの例は、制限なしに、ロック画面コンテキスト、スタートメニューコンテキスト、呼び出し画面コンテキスト、コンタクトコンテキスト、フォトハブコンテキスト、フォトギャラリービューアーコンテキスト、シングルフォトビューアーコンテキスト、ピン留めフォトアルバムコンテキスト、カメラロールコンテキスト、オンラインアルバムコンテキスト、お気に入り写真コンテキスト、などを含む。デバイスのロック画面コンテキストにおいて画像シーケンスを表示することは、デバイスのロック画面上で画像シーケンスを表示することを含む。ロック画面は、デバイスの少なくとも何らかの機能へのアクセスが許可されるためにアクションが必要とされることを示すよう表示されるインターフェイス要素である。
デバイスのスタートメニューコンテキストにおいて画像シーケンスを表示することは、デバイスのスタートメニュー(別名、スタート画面)において画像シーケンスを表示することを含む。スタートメニューは、アプリケーション及び/又はタスクを起動すべき中央仮想位置を提供するよう表示されるインターフェイス要素である。例えば、スタートメニューは、ユーザがデバイスにログインするときにユーザに表示される最初のインターフェイス要素であってよい。
デバイスの呼び出し画面コンテキストにおいて画像シーケンスを表示することは、呼び出し(例えば、電話呼び出し、ボイス・オーバー・インターネット・プロトコル(VOIP;voice over internet protocol)呼び出し、など)がデバイスで受け取られるときにデバイスによって表示されるインターフェイス要素において画像シーケンスを表示することを含む。
デバイスのコンタクトコンテキストにおいて画像シーケンスを表示することは、ユーザの連絡先リスト(contact list)に含まれている連絡先(contact)を表すインターフェイス要素において画像シーケンスを表示することを含む。
デバイスのフォトハブコンテキストにおいて画像シーケンスを表示することは、デバイスに記憶されている写真にアクセスするためのフォルダを表すインターフェイス要素において画像シーケンスを表示することを含む。
デバイスのフォトギャラリービューアーコンテキストにおいて画像シーケンスを表示することは、複数の各々の視覚コンテンツの複数の表現を含むインターフェイス要素において画像シーケンスを表示することを含む。各視覚コンテンツは静止画像又は動態画像であってよい。例えば、各視覚コンテンツは、写真、映像、あるいは、画像を生成するのに有用であるデータを含む他のタイプのファイルであってよい。
デバイスのシングルフォトビューアーコンテキストにおいて画像シーケンスを表示することは、単一の視覚コンテンツの単一の表現を含むインターフェイス要素において画像シーケンスを表示することを含む。
デバイスのピン留めフォトアルバムコンテキストにおいて画像シーケンスを表示することは、仮想位置に付属している仮想フォトアルバムにおいて(例えば、デバイスのユーザインターフェイスにおいて、ソーシャルアップデートにおいて、など)画像シーケンスを表示することを含む。
デバイスのカメラロールコンテキストにおいて画像シーケンスを表示することは、デバイスによって撮影される写真のリストにおいて画像シーケンスを表示することを含む。
デバイスのオンラインアルバムコンテキストにおいて画像シーケンスを表示することは、デバイスがインターネットを介してアクセスする仮想フォトアルバムにおいて画像シーケンスを表示することを含む。
デバイスのお気に入り写真コンテキストにおいて画像シーケンスを表示することは、他の写真よりも高い優先度を有することが示されている写真の表現を含むインターフェイス要素において画像シーケンスを表示することを含む。
サーバ102は、デバイス106A〜106Nと通信することができる1つ以上のプロセッシングシステムである。サーバ102は、ユーザからリクエストを受けることに応答して情報をユーザに提供するコンピュータプログラムを実行するよう構成される。例えば、情報は、ドキュメント(例えば、ウェブページ、画像、映像ファイル、など)、実行ファイルの出力、及び/又はあらゆる他の適切なタイプの情報を含んでよい。いくつかの例となる実施形態に従って、サーバ102は、1つ以上のウェブサイトをホスティングするよう構成されるので、ウェブサイトは、システム100のユーザがアクセス可能である。
サーバ102は、ストア108と、サーバ側のメタデータに基づくアニメーションロジック110(以降「アニメーションロジック110」)とを含むものとして示されている。アニメーションロジック110は、静止画像に関連する画像シーケンス及び/又は画像シーケンスに対する参照をデバイスにダウンロードするよう構成される。例えば、アニメーションロジック110は、デバイス106がオンされるときに各デバイス106から通知を受けてよい。そのような通知は、コンタクト(連絡先)、電子メール、カレンダー項目、などのような情報がデバイス106にダウンロードされるべきことを示してよい。アニメーションロジック110は、静止画像に対応する画像シーケンスへの参照を含むメタデータとともに、そのような情報に含まれる静止画像をダウンロードしてよい。
アニメーションロジック110は、画像シーケンスがデバイス106にダウンロードされるべきかどうかを判定するよう、デバイス106が静止画像に代えて画像シーケンスを表示することができるかどうかを判定してよい。デバイス106が静止画像に代えて画像シーケンスを表示することができる場合には、アニメーションロジック110は、静止画像に関連する画像シーケンスをデバイス106にダウンロードしてよい。デバイス106が静止画像に代えて画像シーケンスを表示することができない場合には、アニメーションロジック110は、静止画像に関連する画像シーケンスではなく静止画像をデバイス106にダウンロードしてよい。
アニメーションロジック110は、第1ユーザから画像シーケンスを受け、1人以上の第2のユーザの夫々にダウンロードされるべき情報が画像シーケンスに関連する少なくとも1つの静止画像を含むことに基づき画像シーケンスを1人以上の第2のユーザへ供給してよい。例えば、第1ユーザは、第1ユーザのプロファイルを表すよう画像シーケンスを提供してよい。この例に従って、アニメーションロジック110は、各々の第2ユーザのコンタクトとして第1ユーザがリストアップされていることに基づき、1人以上の第2ユーザの夫々へ画像シーケンスを供給してよい。この例に更に従って、アニメーションロジック110は、各第2ユーザのデバイス106が静止画像に代えて画像シーケンスを表示可能であることに更に基づき、1人以上の第2ユーザの夫々へ画像シーケンスを供給してよい。
ストア108は、デバイス106A〜106の間でダウンロードされるべき情報を記憶する。そのような情報は、コンタクト、制限なしに、デバイス106A〜106Nのユーザと関連する電子メール、カレンダー項目、などを含んでよい。情報は視覚コンテンツを含んでよい。例えば、視覚コンテンツは静止画像又は動態画像であってよい。視覚コンテンツは、写真、映像、あるいは、画像を生成するのに有用であるデータを含む他のタイプのファイルであってよい。ストア108は、如何なる適切なタイプのストアであってもよく、制限なしにデータベース(例えば、関係データベース、エンティティ関係データベース、オブジェクトデータベース、オブジェクト関係データベース、XMLデータベース、など)を含む。
アニメーションロジック110及びアニメーションロジック112A〜112Nの夫々は、ハードウェア、ソフトウェア、ファームウェア、又はそれらのあらゆる組み合わせにおいて実装されることを含め、メタデータに基づく写真及び/又は映像アニメーションを提供するよう様々な方法で実装されてよい。例えば、アニメーションロジック110及びアニメーションロジック112A〜112Nの夫々は、1つ以上のプロセッサにおいて実行されるよう構成されるコンピュータプログラムコードとして実装されてよい。他の例では、アニメーションロジック110及びアニメーションロジック112A〜112Nの夫々は、ハードウェアロジック/電気回路構成として実装されてよい。実施形態において、アニメーションロジック110及びアニメーションロジック112A〜112Nの夫々は、システム・オン・チップ(SoC;system-on-chip)において実装されてよい。各SoCは、その機能を実行するよう、プロセッサ(例えば、マイクロコントローラ、マイクロプロセッサ、デジタル信号プロセッサ(DSP;digital signal processor)、など)、メモリ、1つ以上の通信インターフェイス、かつ/あるいは、更なる回路及び/又は埋め込みファームウェアの1つ以上を含む集積回路を含んでよい。
メタデータに基づく写真及び/又は映像アニメーションを提供する技術の例は、図2乃至14を参照して以下で更に詳細に論じられる。
図2は、実施形態に従って、図1に示されるデバイス106の実施例であるデバイス200のブロック図である。例えば、デバイス200は、モバイルデバイス(例えば、パーソナルデジタルアシスタント、携帯電話機、タブレットコンピュータ、ラップトップコンピュータ、あるいは、スマートウォッチ又は頭部装着型コンピュータのようなウェアラブルコンピュータ)であってよい。なお、例となる実施形態の適用範囲はこれに関して制限されない。
図2に示されるように、デバイス200は、カメラ202、ディスプレイ204、及びクライアント側のメタデータに基づくアニメーションロジック270(以降「アニメーションロジック270」)を含む。カメラ202はユーザエレメント230を含み、ユーザエレメント230は、選択される場合に、カメラ202に画像258の1つ以上を捕捉させる。ユーザエレメント230は、ユーザエレメント230が選択されていることを示すよう、ユーザエレメント230の夫々の選択に応答して選択インジケータ256を生成する。
ディスプレイ204は、デバイス200のユーザがディスプレイ204を介して表示される画像を見ることを可能にする。ディスプレイ204は、ディスプレイ204のユーザに情報を伝え及び/又はユーザからの入力を受けるよう構成されるユーザインターフェイス232を含む。ユーザインターフェイス232は、例示を目的として問い合わせ要素234を含むものとして示されており、制限されるよう意図されない。問い合わせ要素234は、デバイス200のユーザからの応答を求めるよう構成される。
例となる実施形態では、デバイス200はタッチ操作対応デバイスである。例えば、ディスプレイ204はタッチスクリーンであってよい。この実施形態に従って、ディスプレイ204は、ホバージェスチャを検出することが可能であってよい。ジェスチャは、デバイス(例えば、デバイス200)のユーザによって実施されるコミュニケーションであり、ユーザの身体の少なくとも一部分の配置及び/又は動作、且つ/あるいは、デバイスの環境内のデバイスの動きが、情報をデバイスへ伝える。ホバージェスチャは、ユーザの少なくとも片手又はその部分(例えば、1本以上の指)がタッチスクリーン上の空間に位置付けられるジェスチャである。タッチスクリーンは、例えば、容量性検知を通じて、ユーザの手(又はその部分)がタッチスクリーンに近いことを検出することができる。加えて、手の動き及び/又は指の動きは、手及び/又は指が空中停止(ホバリング)している間に検出され得る。ホバージェスチャは、ユーザがタッチ操作対応デバイスのタッチスクリーンに物理的にタッチすることなしに起こることが可能である。
アニメーションロジック270は、デバイス200に対してメタデータに基づく写真及び/又は映像アニメーションを提供するよう構成される。アニメーションロジック270は、例示を目的として図2ではカメラ202の外にあるものとして示されており、制限されるよう意図されない。アニメーションロジック270(又はそのいずれかの部分)はカメラ202に含まれてよいことが認識される。アニメーションロジック270は、制御ロジック206、画像シーケンスロジック208、メタデータロジック210、削除ロジック212、インターフェイスロジック214、関連付けロジック216、表示ロジック218、ジェスチャロジック220、アクションロジック222、入力決定ロジック224、起動ロジック226、及びインジケーションロジック228を含む。制御ロジック206は、カメラ202を制御するよう構成される。制御ロジック206は、カメラ202が動作する様態を制御する制御信号236を生成する。例えば、制御ロジック206は、選択インジケータ256の受信に応答して制御信号236を供給してよい。例えば、制御ロジック206は、ユーザエレメント230の選択に応答して、カメラ202に単一の画像を捕捉させるよう制御信号236を設定してよい。他の例では、制御ロジック206は、ユーザエレメント230の選択に応答して、カメラ202に複数の画像を捕捉させるよう制御信号236を設定してよい。例えば、制御ロジック206は、ユーザエレメント230の夫々の選択に応答して、(例えば、デフォルトで)複数の画像を捕捉するようにカメラ202を制御してよい。
例となる実施形態において、制御ロジック206は、デバイス200のバースト写真撮影モードに従って、複数の画像を捕捉するようにカメラ202を制御する。バースト写真撮影モードは、ユーザエレメント230の選択に応答して複数の写真が立て続けに捕捉されることを可能にする。他の例となる実施形態では、制御ロジック206は、デバイス200の映像モードに従って、複数の画像を捕捉するようにカメラ202を制御する。
更なる他の例となる実施形態では、制御ロジック206は、ユーザインターフェイス232に含まれている表現に対して、どの画像、画像シーケンス、映像、などが表示されるべきかを制御するよう構成される。ある態様において、表示されるよう選択される表現は、捕捉された複数の画像からプライマリ画像であるよう設定されてよい。この態様に従って、制御ロジック206は、トリガ事象に応答して、プライマリ画像を、捕捉された複数の画像から生成される画像シーケンスに変えるよう構成されてよい。トリガ事象は、例えば、デバイス200のユーザからの入力の受信であってよい。例えば、入力は、デバイス200に対するホバージェスチャ、デバイス200を振ること、などのようなジェスチャであってよい。
他の態様では、制御ロジック206は、様々な基準のいずれかに基づき、ユーザインターフェイス232に含まれている表現に対して、画像シーケンスが表示されるかどうかを制御してよい。例えば、制御ロジック206は、閾数の他の画像シーケンスがユーザインターフェイス232において表示されていることに基づき、画像シーケンスが表示されるべきでない(例えば、対応するプライマリ画像が画像シーケンスに代えて表示されるべきである)と決定してよい。閾数は、1、2、3、などのような如何なる適切な数であってもよい。
他の例では、制御ロジック206は、指定された数の画像シーケンスが、ユーザインターフェイス232におけるそれらの対応する表現に対して、ある時点で表示されるようにしてよい。この例に従って、制御ロジック206は、第1のサブセットの画像シーケンスが、第1の期間の間に、それらの対応する表現に対して表示されるようにしてよく、制御ロジック206は、第2のサブセットの画像シーケンスが、第1の期間に続く第2の期間の間に、それらの対応する表現に対して表示されるようにしてよく、制御ロジック206は、第3のサブセットの画像シーケンスが、第2の期間に続く第3の期間の間に、それらの対応する表現に対して表示されるようにしてよい、など。指定された数の画像シーケンスは、1、2、3などのような如何なる適切な数であってもよい。制御ロジック206は、ランダムに、準ランダムに(例えば、1つ以上の指定された基準に基づく画像シーケンスのサブセット内でランダムに)、あるいは、非ランダムに(例えば、系統的に又は順序正しく)表示されるように画像シーケンスを選択してよい。
画像シーケンスロジック208は、画像258の各々のサブセットから画像シーケンス238を生成するよう構成される。各サブセットは、画像258に含まれている各々の複数の画像を含む。画像シーケンス238の夫々は、シーンを表すよう各々のサブセットから単一の画像に代えて使用されてよい。シーンは、如何なる1つ以上のオブジェクトも含んでよい。各オブジェクトはアニメーション又は非アニメーションであってよい。
画像シーケンスロジック208は、各々の画像シーケンスが開始されるべき夫々の複数の画像内の画像を特定するよう構成されてよい。例えば、画像シーケンスロジック208は、画像が動き、1つ以上の顔(例えば、人間の顔)などを含むことに基づき、画像を識別してよい。画像シーケンスロジック208は、各々の画像シーケンスが開始すべき夫々の複数の画像内の画像を特定するためにベクトル解析(又は他の種類の解析)を使用してよい。ベクトル解析により画像を特定するための技術のいくつかの例は、アクションロジック222に関して以下で論じられる。
各画像シーケンスは如何なる適切なフォーマットも有してよい。例えば、画像シーケンスロジック208は、複数の画像を、指定されたビットマップ画像フォーマットを有する画像シーケンスへと変換してよい。この例に従って、画像シーケンスは、アニメーション化された画像交換フォーマット(GIF)ファイル、MP4ファイル、カスタム(例えば、独自仕様)フォーマットを有するファイル、などとして構成されてよい。他の例では、画像シーケンスロジック208は、複数の画像から画像シーケンスを生成する制御を構成してよい。更なる他の例では、画像シーケンスは映像であってよい。
画像シーケンスは、サードパーティアプリケーションのために、例えばソフトウェア開発キット(SDK;software development kit)を用いて、フォーマット化されてよいことが認識される。例えば、サードパーティアプリケーションは、画像シーケンスをデバイス200にプッシュするよう構成されてよい。画像シーケンスロジック208は、画像シーケンス238の夫々を必ずしも生成する必要がないことも認識される。例えば、画像シーケンス238の1つ以上は、図1のストア108のような、デバイス200から遠隔にあるストアから、あるいは、デバイス200の内部にあるストアから、受信されてよい。
デバイス200のユーザは、画像シーケンスのアニメーション挙動を設定又は変更することが可能であってよいことが留意されるべきである。例えば、ユーザインターフェイス232は、ワンタイム・ループや不定回数ループとして構成される、開始から終了までから開始から終了までへループする、開始から終了まで、そして終了から開始までループする、画像シーケンスにおける各フレームの部分(すなわち、全部ではない。)をアニメーション化する、などの、画像シーケンスのためのオプションを提示してよい。画像シーケンスロジック208は、ユーザによって選択されるオプションに関するユーザ入力に従って画像シーケンスを生成するよう構成されてよい。
メタデータロジック210は、各サブセットにおけるプライマリ画像と呼ばれる各々の画像と各々のメタデータとを関連付けるよう構成される。各プライマリ画像に関連するメタデータは、プライマリ画像を含むサブセットから生成される画像シーケンスへの参照を含む。夫々の参照は、各々の画像シーケンスへのリンク(例えば、ハイパーリンク)であってよい。なお、例となる実施形態の適用範囲はこれに関して制限されない。プライマリ画像は、プライマリ画像240と集合的に呼ばれる。プライマリ画像に関連するメタデータは、メタデータ260と集合的に呼ばれる。
削除ロジック212は、特定の条件下で、各々のプライマリ画像と関連するメタデータを削除するよう構成される。例えば、削除ロジック212は、(例えば、デバイス200のデフォルト設定に従って)特定の期間の経過に応答して各メタデータを削除するよう構成されてよい。この例に従って、各メタデータのための特定の期間は、そのメタデータが各々のプライマリ画像と関連付けられる時間インスタンスに開始してよい。特定の期間は、4時間、8時間、1日、5日、7日、2週間、30日、1月、などのような、如何なる適切な期間であってもよい。
削除ロジック212は、特定の条件下で各画像シーケンスを削除するよう更に構成されてよい。削除ロジック212は、特定の条件下で夫々の複数の画像内のプライマリ画像以外の、夫々の複数の画像の各画像を削除するよう更に構成されてよい。削除ロジック212は、何が削除されるべきかを示す削除命令262の受信に応答して、メタデータ、画像シーケンス、及び/又は複数の画像内のプライマリ画像以外の複数の画像内の各画像を削除してよい。
例となる実施形態において、削除ロジック212は、指定されたメタデータによって参照される画像シーケンスが静止画像に代えて(例えば、指定されたメタデータを有するプライマリ画像に代えて)表示されるよう選択されることに応答して、指定されたメタデータを削除しないことによってデバイス200のデフォルト設定をオーバーライドするよう構成される。表示インジケータ242は、指定されたメタデータによって参照される画像シーケンスが表示されるよう選択されることを示してよい。然るに、削除ロジック212は、表示インジケータ242の受信に応答してデフォルト設定をオーバーライドしてよい。
他の例となる実施形態では、削除ロジック212は、指定されたメタデータに対応する複数の画像の中の単一の画像が特定の期間の経過の前に表示されるよう選択されることに応答して、指定されたメタデータを特定の期間の経過の前に削除することによってデバイス200のデフォルト設定をオーバーライドするよう構成される。表示インジケータ242は、指定されたメタデータに対応する複数の画像の中の単一の画像が表示されるよう選択されることを示してよい。然るに、削除ロジック212は、表示インジケータ242の受信に応答してデフォルト設定をオーバーライドしてよい。
インターフェイスロジック214は、ユーザインターフェイス232を提供(例えば、生成)するよう構成される。例となる実施形態において、インターフェイスロジック214は、特定の期間に関してデバイス200のユーザからの応答を求める問い合わせ要素234を含むユーザインターフェイス232を提供するよう構成される。特定の期間後にメタデータは削除されるべきである。この実施形態に従って、インターフェイスロジック214は、ユーザから受け取られる応答に基づき特定の期間を定めるよう更に構成される。例えば、応答は、ボイスコマンド、ユーザインターフェイス232を介して表示される複数の期間の中からの特定の期間の選択、テキスト入力、などであってよい。
他の例となる実施形態では、インターフェイスロジック214は、デバイス200のユーザが、画像シーケンスを関連付けるべき指定プロファイルを選択することを可能にするユーザインターフェイス232を提供するよう構成される。例えば、指定プロファイルはユーザのプロファイルであってよい。他の例では、指定プロファイルは、ユーザのコンタクトのプロファイルであってよい。この例に従って、コンタクトは、デバイス200に記憶されている及び/又は図1のストア108のようなストアでデバイス200から離れて記憶されているコンタクト(連絡先)のリストにおいて識別されてよい。
関連付けロジック216は、画像シーケンスをプロファイル244と関連付けるよう構成される。例えば、各プロファイルは、デバイス200のユーザのコンタクトを表してよい。なお、例となる実施形態の適用範囲はこれに関して制限されない。この例に従って、各プロファイルは、ユーザインターフェイス232を介してユーザの複数のコンタクトから選択可能であってよい。この例に更に従って、関連付けロジック216は、複数のコンタクトの中からのプロファイルの選択に応答して、特定の画像シーケンスをプロファイルと関連付けるよう構成されてよい。
表示ロジック218は、ディスプレイ204を介してコンタクト246を表示するよう構成される。コンタクト246は、静止画像、画像シーケンス、などであってよい。例えば、表示ロジック218は、画像シーケンスに関連するプロファイルの表現が表示されるべきデバイス200の複数のコンテキストの夫々において、画像シーケンスを表示するよう構成されてよい。この例に従って、複数のコンテキストは、呼び出し画面コンテキスト及び/又はコンタクトコンテキストを含んでよい。
ジェスチャロジック220は、デバイス200に対するジェスチャを検出するよう構成される。ジェスチャは、デバイス(例えば、デバイス200)のユーザによって実施されるコミュニケーションであり、ユーザの身体の少なくとも一部分の配置及び/又は動作、且つ/あるいは、デバイスの環境内のデバイスの動きが、情報をデバイスへ伝える。ジェスチャの例には、制限なしに、ホバージェスチャ(例えば、タッチスクリーンにタッチすることなしに、手を振ること、指さし、少なくとも閾期間の間の空中静止、指をならすこと、手のひら又は指を振ること、指でつまむ動作、つまんだ指を離す動作、など)、凝視ジェスチャ(例えば、少なくとも閾期間の間の凝視)、ルック・アンド・ブリンク(まばたき)ジェスチャ(例えば、見ながらまばたきすること)、ボイスジェスチャ(例えば、コマンドの発話)、タッチジェスチャ(例えば、タッチスクリーンに対して、指でタップすること、指をすべらすこと、指でつまむ動作、つまんだ指を離す動作、など)、など、又はそれらのあらゆる組み合わせが含まれる。
ジェスチャロジック220は、ユーザの身体の部分の配置及び/又は動作、且つ/あるいは、デバイス200の環境におけるデバイス200の動き、を検知してよい。ジェスチャロジック220は、配置、動作、及び/又は動きの検出に応答して取るべきアクションを決定してよい。ジェスチャロジック220は、ディスプレイ204に対するホバージェスチャを検出するよう、ディスプレイへ結合されるか、あるいは、ディスプレイ204に組み込まれてよい。この例に従って、ジェスチャロジック220は、ディスプレイ204の上で及び/又はそれに隣接して(例えば、その横で)実施されるホバージェスチャを検出することが可能であってよい。
アクションロジック222は、画像シーケンスのフレームにおいてオブジェクトが動いているかどうかを判定するよう構成される。例えば、アクションロジック222は、アクションの開始を表す画像シーケンス内のフレームを特定してよい。例えば、アクションロジック222は、第1フレームから第2フレームへのオブジェクトの位置の変化を判定するようベクトル解析(又は他の種類の解析)を使用してよい。例えば、アクションロジック222は、オブジェクトが第1フレームにおける第1の位置から第2フレームにおける第2の位置へ変化することを特定してよい。アクションロジック222は、第1の位置と第2の位置との間の距離、及び第1フレームに関連する第1の時間インスタンスと第2フレームに関連する第2の時間インスタンスとの間の差に基づき、オブジェクトが動く割合を特定してよい。例えば、第1の時間インスタンスと第2の時間インスタンスとの間の差は、画像シーケンスのフレームレートに基づいてよい。関連技術において知られている他の技術は、オブジェクトが画像シーケンスのフレームにおいて動いているかどうかを判定するよう、ここで記載されている技術に加えて、あるいは、それに代えて、使用されてよい。
入力決定ロジック224は、ユーザからの入力が受け取られているかどうかを判定するよう構成される。例えば、入力決定ロジック224は、ユーザから受け取られる入力のタイプを決定することが可能であってよい。入力のタイプの例には、制限なしに、発話入力、タッチ入力、ホバー入力、スタイラス入力(すなわち、スタイラスによる入力)、キーボード入力(すなわち、キーボードによる入力)、ジェスチャ入力、などが含まれる。入力決定ロジック224は、1つ以上の仮想要素がそのような入力によって選択されることを決定してよい。
起動ロジック226は、画像258のサブセットに基づく画像シーケンスに対応する仮想要素の選択に応答して、そのサブセットへのリンクをアクティブにするよう構成される。例えば、リンクをアクティブにすることは、画像シーケンス、画像シーケンスが表示され得るデバイス200のコンテキスト、画像258のサブセット、サブセット内のプライマリ画像、などに関する追加情報を提供してよい。
画像シーケンス238は、指定された期間の経過に応答して削除されてよい。インジケーションロジック228は、画像シーケンス238の1つ以上の削除されるべき時間インスタンスを示すインジケータを提供するよう構成される。
アニメーションロジック270における様々な要素を含むデバイス200の様々な要素は、これより、図3乃至9を参照して更に詳細に記載される。
図3乃至10は、実施形態に従ってメタデータに基づく写真及び/又は映像アニメーションを提供するための例となる方法のフローチャート300、400、500、600、700、800、900、及び1000を表す。例示のために、フローチャート300、400、500、600、700、800、900、及び1000は、図2に示されるデバイス200に関して記載される。更なる構造上及び動作上の実施形態は、フローチャート300、400、500、600、700、800、900、及び1000に関する議論に基づき当業者に明らかである。
図3に示されるように、フローチャート300の方法はステップ302から開始する。ステップ302で、カメラは、ユーザエレメントの夫々の選択に応答して、複数の画像を捕捉するよう制御される。例となる実施において、制御ロジック206は、ユーザエレメント230の夫々の選択に応答して、複数の画像を捕捉するようにカメラ202を制御する。
例えば、制御ロジック206は、デバイス200のバースト写真撮影モードに従って、ユーザエレメント230の夫々の選択に応答して、複数の画像を捕捉するようにカメラ202を制御してよい。他の例では、制御ロジック206は、デバイス200の映像モードに従って、ユーザエレメント230の夫々の選択に応答して、複数の画像を捕捉するようにカメラ202を制御してよい。
夫々の複数の画像は、必ずしもカメラ202によって捕捉される必要はないと認識される。例えば、いずれかの複数の画像は、デバイス200上の又はデバイス200から遠隔にあるサーバ上のストアから取り出されてよい。いずれかの複数の画像は、デバイス200において又はデバイス200から遠隔にあるサーバにおいて記憶されている1つ以上の画像から取得されてよい。いずれかの複数の画像は、例えば、映像として構成されてよい。
ステップ304で、画像シーケンスは、夫々の複数の画像から生成される。例となる実施では、画像シーケンスロジック208は、夫々の複数の画像から画像シーケンスを生成する。例えば、画像シーケンスロジック208は、夫々の複数の画像を、画像交換フォーマット(GIF)のような指定されたビットマップ画像フォーマットを有する各々の画像シーケンスへと変換してよい。他の例では、画像シーケンスロジック208は、夫々の複数の画像から各々の画像シーケンスを生成する制御を構成してよい。
ステップ306で、夫々の複数の画像について、メタデータは、複数の画像から選択されたプライマリ画像と関連付けられる。プライマリ画像に関連するメタデータは、プライマリ画像が選択される複数の画像から生成される画像シーケンスに対する参照を含む。プライマリ画像は、JPEGフォーマットのような、指定されたフォーマットを有するよう構成されてよい。なお、実施形態の適用範囲はこれに関して制限されない。例となる実施において、夫々の複数の画像について、メタデータロジック210は、複数の画像から選択されたプライマリ画像とメタデータとを関連付ける。
いくつかの例となる実施形態では、フローチャート300の1つ以上のステップ302、304及び/又は306は実施されなくてよい。更に、ステップ302、304及び/又は306に加えて、あるいは、それに代えて、ステップが実施されてよい。例えば、例となる実施形態において、フローチャート300の方法は、1つ以上の特定の基準のうちの少なくとも1つが満足されない限りは、カメラを含むデバイスのデフォルト設定に従って、特定の期間の経過に応答して夫々のメタデータを削除することを含む。例えば、削除ロジック212は、1つ以上の特定の基準のうちの少なくとも1つが満足されない限りは、特定の期間の経過に応答して夫々のメタデータを削除してよい。
ある態様において、1つ以上の特定の基準は、各々のメタデータによって参照される画像シーケンスが静止画像に代えて表示されるよう選択される基準を含む。例えば、静止画像は、各々のメタデータを有するプライマリ画像であってよい。この態様に従って、表示インジケータ242は、各々のメタデータによって参照される画像シーケンスが静止画像に代えて表示されるよう選択されることを示してよい。然るに、削除ロジック212は、表示インジケータ242の受信に基づき、各々のメタデータを削除しなくてよい。
他の態様では、各々のメタデータは、特定の期間の経過が起きたかどうかにかかわらず、各々のメタデータに対応する複数の画像の中の単一の画像が表示されるよう選択されることに応答して削除されてよい。この態様に従って、表示インジケータ242は、各々のメタデータに対応する複数の画像の中の単一の画像が表示されるよう選択されることを示してよい。然るに、削除ロジック212は、表示インジケータ242の受信に基づき、各々のメタデータを削除してよい。
他の例となる実施形態では、フローチャート300の方法は、図4のフローチャート400に示されるステップの1つ以上を含んでよい。図4に示されるように、フローチャート400の方法はステップ402から開始する。ステップ402で、ユーザインターフェイスは、特定の期間に関してカメラを含むデバイスのユーザからの応答を求める問い合わせ要素を含むものとして提供される。例となる実施では、インターフェイスロジック214は、問い合わせ要素234を含むユーザインターフェイス232を提供する。
ステップ404で、特定の期間は、応答に基づき定められる。例となる実施では、インターフェイスロジック214が特定の期間を定める。
更なる他の例となる実施形態では、フローチャート300の方法は、図5のフローチャート500に示されるステップの1つ以上を含んでよい。図5に示されるように、フローチャート500の方法はステップ502から開始する。ステップ502で、ユーザインターフェイスは、カメラを含むデバイスのユーザが、画像シーケンスを関連付けるべき指定されたプロファイルを選択することを可能にするものとして、提供される。例となる実施では、インターフェイスロジック214は、デバイス200のユーザが指定されたプロファイルを選択することを可能にするユーザインターフェイス232を提供する。
ステップ504で、画像シーケンスは、指定されたプロファイルの選択に応答して、指定されたプロファイルと関連付けられる。例となる実施では、関連付けロジック216は、画像シーケンスを指定されたプロファイルと関連付ける。例えば、関連付けロジック216は、プロファイル244において指定されたプロファイルを見つけてよい。関連付けロジック216は、画像シーケンスが指定されたプロファイルと関連することを示すよう、関連付けインジケータ264を生成してよい。
ステップ506で、画像シーケンスは、画像シーケンスを指定されたプロファイルと関連付けることに応答して、指定されたプロファイルの表現がカメラを含むデバイスによって表示されるべき複数のコンテキストの夫々において表示される。例となる実施では、表示ロジック218は、デバイス200の複数のコンテキストの夫々において画像シーケンスを表示する。例えば、表示ロジック218は、関連付けインジケータ264の受信に基づき、複数のコンテキストの夫々において画像シーケンスを表示してよい。
更なる他の例となる実施形態では、フローチャート300の方法は、図6のフローチャート600に示されるステップの1つ以上を含んでよい。図6に示されるように、フローチャート600の方法はステップ602から開始する。ステップ602で、表示されるよう選択される表現は、捕捉された複数の画像の中からプライマリ画像に設定される。例となる実施では、制御ロジック206が、プライマリ画像であるべき表現を設定する。
ステップ604で、ジェスチャが、カメラを含むデバイスに対して検出される。例となる実施では、ジェスチャロジック220がデバイス200に対するジェスチャ248を検出する。例えば、ジェスチャロジック220は、ジェスチャ248が検出されていることを示すジェスチャインジケータ266を生成してよい。
ステップ606で、表現は、ジェスチャを検出することに応答して、捕捉された複数の画像の中のプライマリ画像から、捕捉された複数の画像から生成される画像シーケンスへと変更される。例となる実施では、制御ロジック206が表現をプライマリ画像から画像シーケンスへ変える。例えば、制御ロジック206は、ジェスチャインジケータ266の受信に基づき表現を変更してよい。
図7に示されるように、フローチャート700の方法はステップ702から開始する。ステップ702で、プライマリ画像が受け取られる。各プライマリ画像は、そのプライマリ画像を含む各々の複数の画像に基づく各々の画像シーケンスへの参照を含むメタデータを有する。例となる実施では、表示ロジック218がプライマリ画像240を受け取る。
ステップ704で、仮想要素を含むユーザインターフェイスが提供される。各仮想要素は各々のプライマリ画像に対応する。各仮想要素は、各々のプライマリ画像のメタデータにおいて参照される複数の画像シーケンスの各々の画像シーケンスに更に対応する。例となる実施では、インターフェイスロジック214はユーザインターフェイス232を提供する。
ステップ706で、各仮想要素について、その仮想要素に対応するプライマリ画像は、その仮想要素において表示される。例となる実施では、各仮想要素について、表示ロジック218は、その仮想要素に対応するプライマリ画像をその仮想要素において表示する。
ステップ708で、ジェスチャが、指定された仮想要素に対して検出される。例となる実施では、ジェスチャロジック220がジェスチャ248を検出する。
ステップ710で、指定された仮想要素に対応する画像シーケンスは、指定された仮想要素に対応するプライマリ画像の代わりに、指定された仮想要素に対するジェスチャを検出することに応答して、指定された仮想要素において表示される。例となる実施では、表示ロジック218は、指定された仮想要素において、指定された仮想要素に対応する画像シーケンスを表示する。
いくつかの例となる実施形態では、フローチャート700の1つ以上のステップ702、704、706、708及び/又は710は実施されなくてよい。更に、ステップ702、704、706、708及び/又は710に加えて、あるいは、それに代えて、ステップが実施されてよい。例えば、例となる実施形態において、フローチャート700の方法は、アクションの開始を表す、指定された仮想要素に対応する画像シーケンス内のフレームを特定することを含む。例えば、アクションロジック222は、アクションの開始を表す、指定された仮想要素に対応する画像シーケンス内のフレームを特定する。アクションロジック222は、フレームを示すフレームインジケータ268を生成してよい。この実施形態に従って、ステップ710は、指定された仮想要素に対応する画像シーケンスの表示をそのフレームで開始することを含む。例えば、表示ロジック218は、そのフレームで表示を開始してよい。この例に従って、表示ロジック218は、フレームインジケータ268に基づき、そのフレームで表示を開始してよい。
他の例となる実施形態では、フローチャート700の方法は、図8のフローチャート800に示されるステップの1つ以上を含んでよい。図8に示されるように、フローチャート800の方法はステップ802から開始する。ステップ802で、第2のジェスチャは、指定された仮想要素に対応する画像シーケンスをその指定された仮想要素において表示することに続いて、指定された仮想要素に対して検出される。例となる実施では、ジェスチャロジック220が第2のジェスチャを検出する。
ステップ804で、指定された仮想要素に対応するプライマリ画像は、指定された仮想要素に対応する画像シーケンスの代わりに、指定された仮想要素に対して第2のジェスチャを検出することに応答して、指定された仮想要素において表示される。例となる実施では、表示ロジック218は、指定された仮想要素に対応するプライマリ画像をその指定された仮想要素において表示する。
ステップ806で、指定された仮想要素に対応する画像シーケンスは、指定された仮想要素に対応するプライマリ画像の代わりに、指定された仮想要素に対して第2のジェスチャを検出することに応答して、指定された仮想要素において表示される。例となる実施では、表示ロジック218は、指定された仮想要素に対応する画像シーケンスをその指定された仮想要素において表示する。
更なる他の例となる実施形態では、フローチャート700の方法は、図9のフローチャート900に示されるステップの1つ以上を含んでよい。図9に示されるように、フローチャート900の方法はステップ902から開始する。ステップ902で、指定された仮想要素はジェスチャ以外の入力によって選択されているとの決定がなされる。例となる実施では、入力決定ロジック224は、指定された仮想要素が入力250によって選択されていることを決定する。入力決定ロジック224は、指定された仮想要素が入力250によって選択されていると決定することに応答して、起動命令252を生成してよい。起動命令252は、指定された仮想要素に対応する画像シーケンスが基づく複数の画像へのリンクをアクティブにするよう起動ロジック226に命令する。
ステップ904で、指定された仮想要素に対応する画像シーケンスが基づく複数の画像へのリンクは、指定された仮想要素が入力によって選択されているとの決定に応答してアクティブにされる。例となる実施では、起動ロジック226がリンクをアクティブにする。例えば、起動ロジック226は、起動命令252の受信に基づきリンクをアクティブにしてよい。起動ロジック226は、リンクをアクティブにすることに応答して、リンクがアクティブにされていることを示す起動通知254を生成してよい。
この実施形態の態様において、フローチャート700の方法は、指定された仮想要素に対応する画像シーケンスが基づく複数の画像へのリンクをアクティブにすることに応答して、指定された仮想要素に対応する画像シーケンスが削除されるべき時間インスタンスを示すインジケータを提供することを含んでよい。例となる実施では、インジケーションロジック228は、指定された仮想要素に対応する画像シーケンスが削除されるべき時間インスタンスを示す時間インジケータ272を提供する。例えば、インジケーションロジック228は、起動通知254の受信に基づき時間インジケータ272を提供してよい。
この実施形態の他の態様では、フローチャート700の方法は、指定された仮想要素に対応する画像シーケンスが表示されるべきデバイスの複数のコンテキストからの1つ以上のコンテキストの選択を可能にするユーザインターフェイスを提供することを含んでよい。例えば、複数のコンテキストは、ロック画面コンテキスト、スタートメニューコンテキスト、呼び出し画面コンテキスト、コンタクトコンテキスト、フォトハブコンテキスト、フォトギャラリービューアーコンテキスト、シングルフォトビューアーコンテキスト、ピン留めフォトアルバムコンテキスト、カメラロールコンテキスト、オンラインアルバムコンテキスト、お気に入り写真コンテキスト、などを含んでよい。例となる実施では、インターフェイスロジック214は、1つ以上のコンテキストの選択を可能にするユーザインターフェイス232を提供してよい。
更なる他の例となる実施形態では、フローチャート700の方法は、図10のフローチャート1000に示されるステップの1つ以上を含んでよい。図10に示されるように、フローチャート1000の方法はステップ1002から開始する。ステップ1002で、1つ以上のプライマリ画像は、動いている少なくとも1つのオブジェクトも表していないとの決定がなされる。例となる実施では、アクションロジック222は、動いている少なくとも1つのオブジェクトも1つ以上のプライマリ画像が表していないことを決定する。
ステップ1004で、1つ以上のプライマリ画像の夫々についてのメタデータは、動いている少なくとも1つのオブジェクトも1つ以上のプライマリ画像が表していないと決定することに応答して、削除される。例となる実施では、削除ロジック212は、1つ以上のプライマリ画像の夫々についてのメタデータを削除する。例えば、アクションロジック222は、1つ以上のプライマリ画像の夫々についてのメタデータを削除するように削除ロジック212に命令する削除命令262を生成してよい。削除ロジック212は、削除命令262の受信に基づき、1つ以上のプライマリ画像の夫々についてのメタデータを削除してよい。
デバイス200は、図2に示されるコンポーネントの全てを含んでいなくともよいことが認識されるであろう。例えば、デバイス200は、カメラ202、ディスプレイ204、アニメーションロジック270、ユーザエレメント230、ユーザインターフェイス232、問い合わせ要素234、制御ロジック206、画像シーケンスロジック208、メタデータロジック210、削除ロジック212、インターフェイスロジック214、関連付けロジック216、表示ロジック218、ジェスチャロジック220、アクションロジック222、入力決定ロジック224、起動ロジック226、及び/又はインジケーションロジック228のうちの1つ以上を含まなくてよい。更に、デバイス200は、カメラ202、ディスプレイ204、アニメーションロジック270、ユーザエレメント230、ユーザインターフェイス232、問い合わせ要素234、制御ロジック206、画像シーケンスロジック208、メタデータロジック210、削除ロジック212、インターフェイスロジック214、関連付けロジック216、表示ロジック218、ジェスチャロジック220、アクションロジック222、入力決定ロジック224、起動ロジック226、及び/又はインジケーションロジック228に加えて、又はそれらに代えて、コンポーネントを含んでよい。
図11乃至13は、実施形態に従って、メタデータに基づく写真及び/又は映像アニメーションを提供するための例となる方法のフローチャート1100、1200及び1300を表す。例示を目的として、フローチャート1100、1200及び1300は、実施形態に従って、図1のサーバ102の例である、図14に示されるサーバ1400に関して記載される。図14に示されるように、サーバ1400は、ストア1402と、サーバ側のメタデータに基づくアニメーションロジック1430(以降、「アニメーションロジック1430」)とを含む。アニメーションロジック1430は、識別ロジック1404、機能ロジック1406、提供ロジック1408、画像決定ロジック1410、及びバージョンロジック1412を含む。更なる構造上及び動作上の実施形態は、フローチャート1100、1200及び1300に関する議論に基づき、当業者に明らかであろう。
図11に示されるように、フローチャート1100の方法はステップ1102から開始する。ステップ1102で、プライマリ画像は、第1デバイスからネットワークを介してストアで受信される。プライマリ画像は、そのプライマリ画像を含む複数の画像に基づく指定された画像シーケンスへの参照(例えば、指定された画像シーケンスの場所を示す参照)を含むメタデータを有する。プライマリ画像は、第1ユーザのプロファイルを表す。例となる実施では、ストア1402が第1デバイスからプライマリ画像1414を受け取る。指定された画像シーケンスは、様々な方法のいずれかにおいて生成されてよい。例えば、複数の画像は第1のデバイスで捕捉されてよく、指定された画像シーケンスは第1デバイスで又はサーバ1400で生成されてよい。他の例では、指定された画像シーケンスは、第1ユーザからの命令に従ってサーバ1400で生成されてよい。更なる他の例では、指定された画像シーケンスはサードパーティアプリケーションによって生成されてよい。この例に従って、サードパーティアプリケーションは、指定された画像シーケンスをサーバ1400へ提供してよい。
ステップ1104で、ブートアップインジケータは、第1デバイスとは異なる第2デバイスからネットワークを介してストアで受信される。ブートアップインジケータは、第2デバイスがブートアッププロセスを実行していることを示す。例となる実施では、ストア1402が第2デバイスからブートアップインジケータを受け取る。
ステップ1106で、第2デバイスに関連するコンタクト(連絡先)のリストにおいて第1ユーザが識別されるとの決定がなされる。例となる実施では、識別ロジック1404は、第2デバイスに関連するコンタクト1430において第1ユーザが識別されることを決定する。
ステップ1108で、第2デバイスが画像シーケンスによりコンタクトを表すことが可能であるかどうかの判定がなされる。第2デバイスが画像シーケンスによりコンタクトを表すことが可能である場合には、フローはステップ1110へ続く。そうでない場合には、フローはステップ1114へ続く。例となる実施では、機能ロジック1406は、第2デバイスが画像シーケンスによりコンタクトを表すことが可能であるかどうかを判定する。例えば、機能ロジック1406は通知1432を受け取ってよい。通知1432は、第2デバイスが画像シーケンスによりコンタクトを表すことが可能であるかどうかを示してよい。この例に従って、機能ロジック1406は第2デバイスから通知1432を受け取ってよい。機能ロジック1406は、通知1432の受信に基づき、第2デバイスが画像シーケンスによりコンタクトを表すことが可能であるかどうかを判定してよい。機能ロジック1406は、第2デバイスが画像シーケンスによりコンタクトを表すことが可能であるかどうかを示す機能インジケータ1428を提供してよい。
ステップ1110で、指定された画像シーケンスは参照に基づき取り出される。例となる実施では、提供ロジック1408が指定された画像シーケンス1434を取り出す。例えば、提供ロジック1408は、指定された画像シーケンス1434を提供するようにストア1402に命令する取り出し命令1426をストア1402へ与えてよい。提供ロジック1408は、取り出し命令1426を与えることに応答して、指定された画像シーケンス1434を受け取ってよい。例えば、指定された画像シーケンス1434はコンテンツ1420に含まれてよい。
ステップ1112で、指定された画像シーケンスは、第1ユーザのプロファイルを表すよう第2デバイスへ提供される。例となる実施では、提供ロジック1408が、指定された画像シーケンス1434を第2デバイスへ提供する。
ステップ1114で、プライマリ画像は、第1ユーザのプロファイルを表すよう、指定された画像シーケンスに代えて、第2デバイスへ提供される。例となる実施では、提供ロジック1408は、指定された画像シーケンス1434に代えてプライマリ画像1414を第2デバイスへ提供する。
例となる実施形態において、第2デバイスは、画像シーケンスによりコンタクトを表す能力を有する。この実施形態に従って、第2デバイスに対してローカルで記憶されており且つストアと同期していない静止画像又は他の画像シーケンスは、第1ユーザのプロファイルを表すよう第2デバイスで、指定された画像シーケンスに代えて使用される。
ステップ1104、1106、1108、1110、1112及び/又は1114は、複数のデバイスの夫々について、当該デバイスがブートアッププロセスを実行していることに応答して実施されてよいことが認識されるであろう。なお、例となる実施形態の適用範囲はこれに関して制限されない。
ステップ1104、1106、1108、1110、1112及び/又は1114のうちの1つ以上は、第2デバイス(例えば、デバイス106A〜106Nのいずれか)又はそこにあるクライアント側のメタデータに基づくアニメーションロジック(例えば、サーバ102のようなサーバ又はそこにあるサーバ側のメタデータに基づくアニメーションロジックよりむしろ)によって実施されてよいことが更に認識されるであろう。例えば、第2デバイスにあるストアは、ステップ1102でプライマリ画像シーケンスを受け取ってよい。第2デバイスにあるクライアント側のメタデータに基づくアニメーションロジックは、ステップ1106でコンタクトのリストにおいて第1のユーザが識別されることを決定し、ステップ1108で第2デバイスが画像シーケンスによりコンタクトを表すことが可能であるかどうかを判定し、且つ/あるいは、ステップ1110で(例えば、第2デバイスが画像シーケンスによりコンタクトを表すことが可能であるとの決定に基づき)指定された画像シーケンスを取り出してよい。第2デバイスは、後の使用のために、画像シーケンスをキャッシュしてよい。なお、例となる実施形態の適用範囲はこれに関して制限されない。第2デバイスは、プライマリ画像を提供することよりむしろ、ステップ1114でプライマリ画像を受け取ってよい。
第2デバイスはコンタクトのリストを記憶してよい。然るに、サーバは、必ずしもコンタクトについて知っている必要はない。デバイスは、Google(登録商標)又はFacebook(登録商標)のようなサードパーティアプリケーション(例えば、レガシーサービス)からステップ1110で画像シーケンスを取り出すことができる。
いくつかの例となる実施形態では、フローチャート1100の1つ以上のステップ1104、1106、1108、1110、1112及び/又は1114は実施されなくてもよい。更に、ステップ1104、1106、1108、1110、1112及び/又は1114に加えて、あるいは、それに代えて、ステップが実施されてよい。例えば、例となる実施形態において、フローチャート1100の方法は、第1ユーザの各々のプロファイルを表す静止画像を記憶することを含む。プロファイルは各々のサービスに対応する。サービスの例には、制限なしに、マイクロソフトのExchange Server、Facebook(登録商標)、などがある。例となる実施では、ストア1402が静止画像1418を記憶する。静止画像1418はプライマリ画像を含んでよいことが認識されるであろう。
この実施形態に従って、ステップ1112は、プロファイルに対して使用されるよう第2デバイスへ指定された画像シーケンスを提供することによって、静止画像を指定された画像シーケンスによりオーバーライドすることを含む。例えば、提供ロジック1408は、(例えば、サーバ1400のデフォルト設定に従って)静止画像1418を指定された画像シーケンス1434によりオーバーライドしてよい。
他の例となる実施形態では、フローチャート1100の方法は、図12のフローチャート1200に示されるステップの1つ以上を含んでよい。図12に示されるように、フローチャート1200の方法はステップ1202から開始する。ステップ1202で、プライマリ画像は静止画像であるとの決定がなされる。例えば、画像決定ロジック1410は、プライマリ画像が静止画像であることを決定してよい。
ステップ1204で、プライマリ画像が静止画像であると決定することに応答して、プライマリ画像は、そのプライマリ画像がメタデータを含むかどうかを判定するようレビューされる。例えば、画像決定ロジック1410は、プライマリ画像1414がメタデータを含むかどうかを判定するようプライマリ画像1414をレビューしてよい。
ステップ1202及び/又は1204は、第2デバイス又はそこにあるクライアント側のメタデータに基づくアニメーションロジック(例えば、サーバ102のようなサーバ又はそこにあるサーバ側のメタデータに基づくアニメーションロジックよりむしろ)によって実施されてよいことが認識されるであろう。例えば、第2デバイスにあるクライアント側のメタデータに基づくアニメーションロジックは、ステップ1202で、プライマリ画像が静止画像であることを決定してよい。第2デバイスにあるクライアント側のメタデータに基づくアニメーションロジックは、ステップ1204でプライマリ画像をレビューしてよい。
他の例となる実施形態では、フローチャート1100の方法は、図13のフローチャート1300に示されるステップの1つ以上を含んでよい。図13に示されるように、フローチャート1300の方法はステップ1302から開始してよい。ステップ1302で、指定された画像シーケンスのバージョンを示すバージョンインジケータは、指定された画像シーケンスの更新されたバージョンが存在することを示すよう変化しているとの決定がなされる。例えば、バージョンインジケータ1424は、指定された画像シーケンス1434のバージョンを示してよい。この例に従って、バージョンロジック1412は、指定された画像シーケンスの更新されたバージョンが存在することを示すようバージョンインジケータ1424が変化していることを決定してよい。
ステップ1304で、指定された画像シーケンスの更新されたバージョンは第2デバイスへ提供される。例えば、提供ロジック1408が、指定された画像シーケンス1434の更新されたバージョンを第2デバイスへ提供してよい。この例に従って、バージョンロジック1412は、指定された画像シーケンス1434の更新されたバージョンを提供するようにストア1402に命令する取り出し命令1426をストア1402へ与えてよい。例えば、バージョンロジック1412は、バージョンインジケータ1424の受信に基づき、取り出し命令1426を与えてよい。提供ロジック1408は、取り出し命令1426を与えることに応答して、指定された画像シーケンス1434の更新されたバージョンをストア1402から受け取ってよい。指定された画像シーケンスの更新されたバージョンは、例えば、コンテンツ1420に含まれてよい。提供ロジック1408は、ストア1402から受け取ると、指定された画像シーケンスの更新されたバージョンを提供してよい。
ステップ302は、第2デバイス又はそこにあるクライアント側のメタデータに基づくアニメーションロジック(例えば、サーバ102のようなサーバ又はそこにあるサーバ側のメタデータに基づくアニメーションロジックよりむしろ)によって実施されてよいことが認識されるであろう。例えば、第2デバイスにあるクライアント側のメタデータに基づくアニメーションロジックは、ステップ1302で、バージョンインジケータが変化していることを決定してよい。第2デバイスにあるクライアント側のメタデータに基づくアニメーションロジックは、更新されたバージョンを提供することよりむしろ、ステップ1304で、指定された画像シーケンスの更新されたバージョンを受け取って(例えば、取り出して)よい。
サーバ1400は、図14に示されるコンポーネントの全てを含んでいなくともよいことが認識されるであろう。例えば、サーバ1400は、ストア1402、アニメーションロジック1403、識別ロジック1404、機能ロジック1406、提供ロジック1408、画像決定ロジック1410、及び/又はバージョンロジック1412のうちの1つ以上を含まなくてよい。更に、サーバ1400は、ストア1402、アニメーションロジック1403、識別ロジック1404、機能ロジック1406、提供ロジック1408、画像決定ロジック1410、及び/又はバージョンロジック1412に加えて、又はそれらに代えて、コンポーネントを含んでよい。
図15は、概して1502として示されている、様々な任意のハードウェア及びソフトウェアコンポーネントを含むモバイルデバイス1500を例示するシステム図である。モバイルデバイスにおける如何なるコンポーネント1502も、如何なる他のコンポーネントとも通信することができる。なお、説明の簡単のために、全ての接続が示されているわけではない。モバイルデバイス1500は、様々なコンピュータデバイス(例えば、携帯電話機、スマートフォン、携帯型コンピュータ、パーソナルデジタルアシスタント(PDA;Personal Digital Assistant)、など)のいずれであることもでき、セルラー又は衛星ネットワークのような1つ以上のモバイル通信ネットワーク1504との、あるいは、ローカルエリア又はワイドエリアネットワークとの無線による双方向通信を可能にすることができる。
表されているモバイルデバイス1500は、信号符号化、データ処理、入力/出力処理、電力制御、及び/又は他の機能のようなタスクを実施するためのコントローラ又はプロセッサ1510(例えば、信号プロセッサ、マイクロプロセッサ、ASIC、又は他の制御及び処理ロジック回路)を含むことができる。オペレーティングシステム1512は、コンポーネント1502の割り当て及び利用並びに1つ以上のアプリケーションプログラム1514(別名、アプリケーション)のためのサポートを制御することができる。アプリケーションプログラム1514は、共通のモバイルコンピューティングアプリケーション(例えば、電子メールアプリケーション、カレンダー、コンタクトマネージャ、ウェブブラウザ、メッセージングアプリケーション)及びあらゆる他のコンピューティングアプリケーション(例えば、ワードプロセッシングアプリケーション、マッピングアプリケーション、メディアプレイヤーアプリケーション)を含むことができる。
表されているモバイルデバイス1500はメモリ1520を含むことができる。メモリ1520は非リムーバブルメモリ1522及び/又はリムーバブルメモリ1524を含むことができる。非リムーバブルメモリ1522はRAM、ROM、フラッシュメモリ、ハードディスク、又は他のよく知られているメモリ記憶技術を含むことができる。リムーバブルメモリ1524はフラッシュメモリ、若しくはGSM(登録商標)通信システムでよく知られている加入者識別モジュール(SIM;Subscriber Identity Module)、又は他のよく知られているメモリ記憶技術(例えば、“スマートカード”)を含むことができる。メモリ1520は、オペレーティングシステム1512及びアプリケーション1514を実行するためのデータ及び/又はコードを記憶するために使用され得る。データの例には、1つ以上の有線又は無線ネットワークを介して1つ以上のネットワークサーバ又は他のデバイスへ送信される及び/又はそれらから受信されるウェブページ、テキスト、画像、音響ファイル、映像データ、又は他のデータが含まれ得る。メモリ1520は、国際移動電話加入者識別番号(IMSI;International Mobile Subscriber Identity)のような加入者識別子、及び国際移動電話機体識別番号(IMEI;International Mobile Equipment Identifier)のような機器識別子を記憶するために使用され得る。そのような識別子は、ユーザ及び機器を識別するようネットワークサーバへ送信され得る。
モバイルデバイス1500は、タッチスクリーン1532、マイクロホン1543、カメラ1536、物理キーボード1538及び/又はトラックボール1540のような1つ以上の入力デバイス1530と、スピーカ1552及びディスプレイ1554のような1つ以上の出力デバイス1550とをサポートすることができる。タッチスクリーン1532のようなタッチスクリーンは種々の方法において入力を検出することができる。例えば、容量性タッチスクリーンは、表面にわたって流れている電流をオブジェクト(例えば、指先)が歪曲又は中断する場合に、タッチ入力を検出する。他の例として、タッチスクリーンは、光学センサを使用して、光学センサからのビームが中断される場合にタッチ入力を検出することができる。スクリーンの表面との物理接触は、入力が何らかのタッチスクリーンによって検出されるためには不要である。例えば、タッチスクリーン1532は、当該技術でよく理解されているように、容量性検知により指の空中静止の検出をサポートすることができる。カメラに基づく検出及び超音波に基づく検出を含む他の検出技術が使用され得る。指の空中静止を実施するよう、ユーザの指は、0.1から0.25インチの間、又は0.25インチから0.5インチの間、又は0.5インチから0.75インチの間、又は0.75インチから1インチの間、1インチから1.5インチの間などといった、タッチスクリーンの上から所定の間隔距離内に通常はある。
モバイルデバイス1500は、クライアント側のメタデータに基づくアニメーションロジック1592(以降、「アニメーションロジック1592」)を含むことができる。アニメーションロジック1592は、本願で記載される技術のいずれか1つ以上に従ってモバイルデバイス1500において写真及び/又は映像アニメーションを提供するよう構成される。
他の可能な出力デバイス(図示せず。)は、圧電又は他の触覚出力デバイスを含むことができる。いくつかのデバイスは、1よりも多い入力/出力機能を果たすことができる。例えば、タッチスクリーン1532及びディスプレイ1554は、単一の入力/出力デバイスにまとめられ得る。入力デバイス1530はナチュラルユーザインターフェイス(NUI;Natural User Interface)を含むことができる。NUIは、ユーザがマウス、キーボード、リモートコントロール、及び同様のもののような入力デバイスによって課される人為的な制約に縛られずに“自然”な様式においてデバイスと対話することを可能にするあらゆるインターフェイス技術である。NUIメソッドの例には、発話認識、タッチ及びスタイラス認識、スクリーン上の及びスクリーンの隣接したジェスチャ認識、空中ジェスチャ、頭部及び眼球の追跡、ボイス及びスピーチ、ビジョン、タッチ、ジェスチャ、並びにマシンインテリジェンスに依存するものが含まれる。NUIの他の例には、加速度計/ジャイロスコープによるモーションジェスチャ検出、顔認識、3D表示、頭部、眼球及び凝視(gaze)の追跡、没入型拡張リアリティ及び仮想リアリティシステムが含まれ、それらの全てが、より自然なインターフェイスとともに、電界検知電極(EEG及び関連する方法)により脳の活動を検知する技術を提供する。よって、1つの具体的な例において、オペレーティングシステム1512又はアプリケーション1514は、ユーザが音声コマンドを介してデバイス1500を操作することを可能にする音声制御インターフェイスの部分として発話認識ソフトウェアを有することができる。更に、デバイス1500は、ゲームアプリケーションに入力を与えるようジェスチャを検出し解釈することといった、ユーザの空間ジェスチャを介したユーザインタラクションを可能にする入力デバイス及びソフトウェアを有することができる。
無線モデム1560はアンテナ(図示せず。)へ結合され得、当該技術でよく理解されているように、プロセッサ1510と外部デバイスとの間の双方向の通信をサポートすることができる。モデム1560は一般的に示されており、モバイル通信ネットワーク1504及び/又は他の無線に基づくモデム(例えば、Bluetooth(登録商標)1564及び/又はWi−Fi(登録商標)1562)と通信するセルラーモデム1566を含むことができる。無線モデム1560の少なくとも1つは、単一のセルラーネットワーク、セルラーネットワーク間、又はモバイルデバイスと公衆交換電話網(PSTN;public switched telephone network)との間のデータ及び音声通信のためのGSM(登録商標)ネットワークのような1つ以上のセルラーネットワークとの通信のために通常は構成される。
モバイルデバイス1500は、少なくとも1つの入力/出力ポート1580、電源1582、グローバルポジショニングシステム(GPS;Global Positioning System)受信機のような衛星ナビゲーションシステム受信機1584、加速度計1586、及び/又はUSBポート、IEEE1394(FireWire(登録商標))ポート及び/又はRS−232ポートであることができる物理コネクタ1590を更に含むことができる。当業者によって認識されるように、如何なるコンポーネントも削除されてよく、他のコンポーネントが加えられ得るので、表されているコンポーネント1502は必要とされないことがあり、あるいは、全てを含むわけではない。
開示されている方法のいくつかの動作が提示の便宜上特定の順序で記載されているが、このような記載は、特定の順序が本願で示されている具体的な言葉によって必要とされない限りは、並べ替えを包含するものと理解されるべきである。例えば、順次に記載される動作は、いくつかの場合に、並べ替えられるか、又は同時に実施されてよい。更に、簡単のために、添付の図は、開示されている方法が他の方法に関連して使用され得る様々な方法を示さないことがある。
アニメーションロジック112A〜112N、アニメーションロジック110、アニメーションロジック270、制御ロジック206、画像シーケンスロジック208、メタデータロジック210、削除ロジック212、インターフェイスロジック214、関連付けロジック216、表示ロジック218、ジェスチャロジック220、アクションロジック222、入力決定ロジック224、起動ロジック226、インジケーションロジック228、アニメーションロジック1430、識別ロジック1404、機能ロジック1406、提供ロジック1408、画像決定ロジック1410、及び/又はバージョンロジック1412、フローチャート300、フローチャート400、フローチャート500、フローチャート600、フローチャート700、フローチャート800、フローチャート900、フローチャート1000、フローチャート1100、フローチャート1200、及び/又はフローチャート1300のいずれか1つ以上は、ハードウェア、ソフトウェア、又はそれらのあらゆる組み合わせにおいて実装されてよい。
例えば、アニメーションロジック112A〜112N、アニメーションロジック110、アニメーションロジック270、制御ロジック206、画像シーケンスロジック208、メタデータロジック210、削除ロジック212、インターフェイスロジック214、関連付けロジック216、表示ロジック218、ジェスチャロジック220、アクションロジック222、入力決定ロジック224、起動ロジック226、インジケーションロジック228、アニメーションロジック1430、識別ロジック1404、機能ロジック1406、提供ロジック1408、画像決定ロジック1410、及び/又はバージョンロジック1412、フローチャート300、フローチャート400、フローチャート500、フローチャート600、フローチャート700、フローチャート800、フローチャート900、フローチャート1000、フローチャート1100、フローチャート1200、及び/又はフローチャート1300のいずれか1つ以上は、1つ以上のプロセッサにおいて実行されるよう構成されたコンピュータプログラムコードとして実装されてよい。
他の例では、アニメーションロジック112A〜112N、アニメーションロジック110、アニメーションロジック270、制御ロジック206、画像シーケンスロジック208、メタデータロジック210、削除ロジック212、インターフェイスロジック214、関連付けロジック216、表示ロジック218、ジェスチャロジック220、アクションロジック222、入力決定ロジック224、起動ロジック226、インジケーションロジック228、アニメーションロジック1430、識別ロジック1404、機能ロジック1406、提供ロジック1408、画像決定ロジック1410、及び/又はバージョンロジック1412、フローチャート300、フローチャート400、フローチャート500、フローチャート600、フローチャート700、フローチャート800、フローチャート900、フローチャート1000、フローチャート1100、フローチャート1200、及び/又はフローチャート1300のいずれか1つ以上は、ハードウェアロジック/電気回路として実装されてよい。
例えば、実施形態において、アニメーションロジック112A〜112N、アニメーションロジック110、アニメーションロジック270、制御ロジック206、画像シーケンスロジック208、メタデータロジック210、削除ロジック212、インターフェイスロジック214、関連付けロジック216、表示ロジック218、ジェスチャロジック220、アクションロジック222、入力決定ロジック224、起動ロジック226、インジケーションロジック228、アニメーションロジック1430、識別ロジック1404、機能ロジック1406、提供ロジック1408、画像決定ロジック1410、及び/又はバージョンロジック1412、フローチャート300、フローチャート400、フローチャート500、フローチャート600、フローチャート700、フローチャート800、フローチャート900、フローチャート1000、フローチャート1100、フローチャート1200、及び/又はフローチャート1300のいずれか1つ以上は、システムオンチップ(SoC;system-on-chip)において実装されてよい。SoCは、その機能を実施するよう、プロセッサ(例えば、マイクロコントローラ、マイクロプロセッサ、デジタル信号プロセッサ(DSP;digital signal processor)、など)、メモリ、1つ以上の通信インターフェイス、及び/又は更なる回路及び/又は埋め込みファームウェアを含む集積回路チップを含んでよい。
III.例となるコンピュータシステム
図16は、実施形態が実施され得るコンピュータ1600を例示する。例えば、図1に示されるデバイス106A〜106N及び/又はサーバ102のいずれもが、コンピュータ1600の1つ以上の機能及び/又は代替の機能を含め、コンピュータ1600により実装されてよい。コンピュータ1600は、例えば、従来のパーソナルコンピュータ、モバイルコンピュータ、又はワークステーションの形をした汎用コンピュータデバイスであってよく、あるいは、コンピュータ1600は、特別目的のコンピュータデバイスであってよい。ここで与えられるコンピュータ1600の記載は、例示を目的として与えられており、制限であるよう意図されない。実施形態は、当業者に知られるような更なるタイプのコンピュータシステムにおいて実装されてよい。
図16に示されるように、コンピュータ1600は、プロセッシングユニット1602と、システムメモリ1604と、システムメモリ1604を含む様々なシステムコンポーネントをプロセッシングユニット1602へ結合するバス1606とを含む。バス1606は、メモリバス若しくはメモリコントローラ、ペリフェラルバス、アセラレイティッド・グラフィクス・ポート、及び様々なバスアーキテクチャのいずれかによるプロセッサ若しくはローカルバスを含む、いくつかのタイプのバス構造のいずれかの1つ以上を表す。システムメモリ1604は、リードオンリーメモリ(ROM;read only memory)1608及びランダムアクセスメモリ(RAM;random access memory)1610を含む。基本入力/出力システム(BIOS;basic input/output system)1612はROM1608に記憶されている。
コンピュータ1600は、次のドライブ:ハードディスクから読み出し且つハードディスクへ書き込むハードディスクドライブ1614、リムーバブル磁気ディスク1618から読み出し且つ該ディスク1618へ書き込む磁気ディスクドライブ1616、及びCD ROM、DVD ROM又は他の光学媒体のようなリムーバブル光ディスク1622から読み出し且つ該ディスク1622へ書き込む光ディスクドライブ1620の1つ以上を更に備える。ハードディスクドライブ1614、磁気ディスクドライブ1616及び光ディスクドライブ1620は、ハードディスクドライブインターフェイス1624、磁気ディスクドライブインターフェイス1626、及び光学ドライブインターフェイス1628によって夫々バス1606へ接続されている。ドライブ及びそれらの関連するコンピュータ可読記憶媒体は、コンピュータ読み出し可能な命令、データ構造、プログラムモジュール、及びコンピュータのための他のデータの不揮発記憶を提供する。ハードディスク、リムーバブル磁気ディスク及びリムーバブル光ディスクが記載されているが、フラッシュメモリカード、デジタルビデオディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、及び同様のもののような他のタイプのコンピュータ可読記憶媒体がデータを記憶するために使用されてよい。
多数のプログラムモジュールが、ハードディスク、磁気ディスク、光ディスク、ROM又はRAMに記憶されてよい。それらのプログラムは、オペレーティングシステム1630、1つ以上のアプリケーションプログラム1632、他のプログラムモジュール1634、及びプログラムデータ1636を含む。アプリケーションプログラム1632又はプログラムモジュール1634は、例えば、本願で記載されるアニメーションロジック112A〜112N、アニメーションロジック110、アニメーションロジック270、制御ロジック206、画像シーケンスロジック208、メタデータロジック210、削除ロジック212、インターフェイスロジック214、関連付けロジック216、表示ロジック218、ジェスチャロジック220、アクションロジック222、入力決定ロジック224、起動ロジック226、インジケーションロジック228、アニメーションロジック1430、識別ロジック1404、機能ロジック1406、提供ロジック1408、画像決定ロジック1410及び/又はバージョンロジック1412、フローチャート300(フローチャート300のいずれかのステップを含む。)、フローチャート400(フローチャート400のいずれかのステップを含む。)、フローチャート500(フローチャート500のいずれかのステップを含む。)、フローチャート600(フローチャート600のいずれかのステップを含む。)、フローチャート700(フローチャート700のいずれかのステップを含む。)、フローチャート800(フローチャート800のいずれかのステップを含む。)、フローチャート900(フローチャート900のいずれかのステップを含む。)、フローチャート1000(フローチャート1000のいずれかのステップを含む。)、フローチャート1100(フローチャート1100のいずれかのステップを含む。)、フローチャート1200(フローチャート1200のいずれかのステップを含む。)、及び/又はフローチャート1300(フローチャート1300のいずれかのステップを含む。)のいずれか1つ以上を実装するコンピュータプログラムロジックを含んでよい。
ユーザは、キーボード1638及びポインティングデバイス1640のような入力デバイスを通じてコンピュータ1600にコマンド及び情報を入力してよい。他の入力デバイス(図示せず。)は、マイクロホン、ジョイスティック、ゲームパッド、サテライトディッシュ、スキャナ、タッチスクリーン、カメラ、加速度計、ジャイロスコープ、又は同様のものを含んでよい。それら及び他の入力デバイスは、バス1606へ結合されているシリアルポートインターフェイス1642を通じてプロセッシングユニット1602へしばしば接続されるが、パラレルポート、ゲームポート、又はユニバーサルシリアルポート(USB)のような他のインターフェイスによって接続されてよい。
表示デバイス1644(例えば、モニタ)も、ビデオアダプタ1646のようなインターフェイスを介してバス1606へ接続されている。表示デバイス1644に加えて、コンピュータ1600は、スピーカ及びプリンタのような他の周辺出力機器(図示せず。)を含んでよい。
コンピュータ1600は、ネットワーク上で通信を確立するために、ネットワークインターフェイス若しくはアダプタ1650、モデム1652、又は他の手段を通じてネットワーク1648(例えば、インターネット)へ接続されている。モデム1652は内部又は外部にあってよく、シリアルポートインターフェイス1642を介してバス1606へ接続されている。
本願で使用されるように、語「コンピュータプログラム媒体」及び「コンピュータ可読記憶媒体」は、ハードディスクドライブ1614も付随するハードディスク、リムーバブル磁気ディスク1618、リムーバブル光ディスク1622のような媒体、並びにフラッシュメモリカード、デジタルビデオディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、及び同様のもののような他の媒体を一般に指すために使用される。そのようなコンピュータ可読記憶媒体は、通信媒体と区別され、それと重なり合わない(通信媒体を含まない。)。通信媒体は、コンピュータ読出可能な命令、データ構造、プログラムモジュール又は他のデータを、搬送波のような変調データ信号において具現する。語「変調データ信号」は、信号において情報を符号化するようにその特性の1つ以上が設定又は変更されている信号を意味する。一例として、制限なしに、通信媒体は、音響、RF、赤外線及び他の無線媒体のような無線媒体並びに有線媒体を含む。例となる実施形態は、そのような通信媒体にも向けられている。
上述されたように、コンピュータプログラム及びモジュール(アプリケーションプログラム1632及び他のプログラムモジュール1634を含む。)は、ハードディスク、磁気ディスク、光ディスク、ROM又はRAMに記憶されてよい。そのようなコンピュータプログラムは、ネットワークインターフェイス1650又はシリアルポートインターフェイス1642を介して受信されてもよい。そのようなコンピュータプログラムは、アプリケーションによって実行又はロードされる場合に、コンピュータ1600が、本願で論じられている実施形態の特徴を実装することを可能にする。然るに、そのようなコンピュータプログラムは、コンピュータ1600のコントローラに相当する。
例となる実施形態は、コンピュータが使えるあらゆる媒体でも記憶されるソフトウェア(例えば、コンピュータ読出可能な命令)を有するコンピュータプログラム製品にも向けられている。そのようなソフトウェアは、1つ以上のデータ処理デバイスで実行される場合に、本願で記載されるようにデータ処理デバイスを動作させる。実施形態は、現在又は将来知られている、コンピュータが使える又はコンピュータ読出可能な如何なる媒体も用いてよい。コンピュータ読出可能な媒体の例は、制限なしに、RAM、ハードドライブ、フロッピー(登録商標)ディスク、CD ROM、DVD ROM、zipディスク、テープ、磁気記憶デバイス、光学記憶デバイス、MEMSに基づく記憶デバイス、ナノテクノロジに基づく記憶デバイス、及び同様のもののような記憶デバイスを含む。
開示されている技術は、如何なる特定のコンピュータ又はハードウェアのタイプにも制限されないことが認識されるであろう。適切なコンピュータ及びハードウェアの特定の詳細は、よく知られており、本開示で詳細に示される必要はない。
IV.結論
様々な実施形態が上述されてきたが、それらは限定ではなく単に一例として提示されていることが理解されるべきである。当業者に明らかなように、形態及び詳細の様々な変更は、本発明の主旨及び適用範囲から外れることなしにそれらにおいて行われてよい。よって、本発明の広さ及び適用範囲は、上記の例となる実施形態のいずれによっても制限されるべきではなく、特許請求の範囲及びそれらの均等に従ってのみ定義されるべきである。

Claims (10)

  1. 選択された場合に1つ以上の画像の捕捉を開始するユーザエレメントを含むカメラと、
    1つ以上のプロセッサと、
    前記1つ以上のプロセッサのうちの少なくとも1つにより実装され、前記ユーザエレメントの夫々の選択に応答して複数の画像を捕捉するように前記カメラを制御するよう構成される制御ロジックと、
    前記1つ以上のプロセッサのうちの少なくとも1つにより実装され、夫々の複数の画像から画像シーケンスを生成するよう構成される画像シーケンスロジックと、
    前記1つ以上のプロセッサのうちの少なくとも1つにより実装され、夫々の複数の画像について、当該複数の画像から生成される前記画像シーケンスに対する参照を含むメタデータを、当該複数の画像から選択されたプライマリ画像と関連付けるよう構成されるメタデータロジックと
    を有するデバイス。
  2. 当該デバイスのデフォルト設定に従って、特定の期間の経過に応答して夫々のメタデータを削除するよう構成される削除ロジック
    を更に有する請求項1に記載のデバイス。
  3. 前記削除ロジックは、指定されたメタデータによって参照される前記画像シーケンスが静止画像の代わりに表示されるよう選択されることに応答して、前記指定されたメタデータを削除しないことで前記デフォルト設定をオーバーライドするよう構成される、
    請求項2に記載のデバイス。
  4. 当該デバイスに対するジェスチャを検出するよう構成されるジェスチャロジックを更に有し、
    表示されるよう選択される表現は、捕捉された複数の画像の中の前記プライマリ画像であるよう設定され、
    前記制御ロジックは、前記ジェスチャの検出に応答して、前記捕捉された複数の画像の中の前記プライマリ画像から、前記捕捉された複数の画像から生成される前記画像シーケンスへ変えるよう更に構成される、
    請求項1に記載のデバイス。
  5. メタデータに基づくアニメーションシステムにおける第1デバイス及び第2のデバイスへネットワークを介して通信上結合されるプロセッサベースのシステムの1つ以上のプロセッサによりユーザのプロファイルを表す方法であって、
    前記第1デバイスから前記ネットワークを介して前記メタデータに基づくアニメーションシステムにおけるストアでプライマリ画像を受け取るステップであって、前記プライマリ画像は、第1ユーザのプロファイルを表す前記プライマリ画像を含む複数の画像に基づく指定された画像シーケンスへの参照を含むメタデータを有する、ステップと、
    前記第1デバイスとは異なる第2デバイスから前記ネットワークを介して前記ストアで、前記第2デバイスがブートアッププロセスを実行中であることを示すブートアップインジケータを受け取るステップと、
    少なくとも1つのプロセッサにより、前記第2デバイスに関連するコンタクトのリストにおいて前記第1ユーザが識別されることを決定するステップと、
    前記第2デバイスが画像シーケンスによりコンタクトを表すことが可能であるかどうかを判定するステップと、
    前記第2デバイスが画像シーケンスによりコンタクトを表すことが可能である場合には、前記参照に基づき前記指定された画像シーケンスを取り出し、前記プロセッサベースのシステムの前記1つ以上のプロセッサのうちの少なくとも1つにより、前記第1ユーザのプロファイルを表すよう前記指定された画像シーケンスを前記第2デバイスへ与えるステップと、
    前記第2デバイスが画像シーケンスによりコンタクトを表すことが可能でない場合には、前記プロセッサベースのシステムの前記1つ以上のプロセッサのうちの少なくとも1つにより、前記第1ユーザのプロファイルを表すよう前記指定された画像シーケンスの代わりに前記プライマリ画像を前記第2デバイスへ与えるステップと
    を有する方法。
  6. 複数の各々のサービスに対応する前記第1ユーザの複数の各々のプロファイルを表す複数の静止画像を記憶するステップを更に有し、
    前記指定された画像シーケンスを取り出し、該指定された画像シーケンスを前記第2デバイスへ与えるステップは、
    前記複数のプロファイルに対して使用されるよう前記指定された画像シーケンスを前記第2デバイスへ与えることによって、前記複数の静止画像を前記画像シーケンスによりオーバーライドすることを含む、
    請求項5に記載の方法。
  7. 前記指定された画像シーケンスは、該指定された画像シーケンスのバージョンを指定するバージョンインジケータに関連付けられ、
    当該方法は、
    前記指定された画像シーケンスの更新されたバージョンが存在することを示すよう前記バージョンインジケータが変化することを決定するステップと、
    前記バージョンインジケータが変化しているとの決定に応答して、更には、前記第2デバイスが画像シーケンスによりコンタクトを表すことが可能であることに応答して、前記指定された画像シーケンスの前記更新されたバージョンを前記第2デバイスへ与えるステップと
    を更に有する、請求項5に記載の方法。
  8. プロセッサベースのシステムが1つ以上の画像シーケンスを選択的に表示することを可能にするコンピュータプログラムロジックを記憶しているコンピュータ可読記憶媒体を含むコンピュータプログラム製品であって、
    前記コンピュータプログラムロジックは、
    前記プロセッサベースのシステムが該プロセッサベースのシステムのディスプレイによる表示のために複数の仮想要素を含むユーザインターフェイスを提供することを可能にする第1プログラムロジックモジュールであって、前記複数の仮想要素の各仮想要素は、複数のプライマリ画像の各々のプライマリ画像に対応し、該プライマリ画像は、当該プライマリ画像を含む各々の複数の画像に基づく各々の画像シーケンスへの参照を含むメタデータを有し、前記複数の仮想要素の各仮想要素は、前記各々のプライマリ画像のメタデータにおいて参照される複数の画像シーケンスのうちの各々の画像シーケンスに更に対応する、前記第1プログラムロジックモジュールと、
    前記プロセッサベースのシステムが、前記複数の仮想要素の各仮想要素について、前記プロセッサベースのシステムの前記ディスプレイを介して各々の仮想要素において該各々の仮想要素に対応するプライマリ画像を表示することを可能にする第2プログラムロジックモジュールと、
    前記プロセッサベースのシステムが前記複数の仮想要素の中の指定された仮想要素に対するジェスチャを検出することを可能にする第3プログラムロジックモジュールと
    を有し、
    前記第2プログラムロジックモジュールは、前記プロセッサベースのシステムが、前記指定された仮想要素に対する前記ジェスチャの検出に応答して、前記プロセッサベースのシステムの前記ディスプレイを介して前記指定された仮想要素において該指定された仮想要素に対応するプライマリ画像を表示するのではなく、前記プロセッサベースのシステムの前記ディスプレイを介して前記指定された仮想要素において該指定された仮想要素に対応する画像シーケンスを表示することを可能にするロジックを含む、
    コンピュータプログラム製品。
  9. 前記第3プログラムロジックモジュールは、前記プロセッサベースのシステムが、前記指定された仮想要素に対応する画像シーケンスが前記指定された仮想要素において表示された後に、前記複数の仮想要素の中の特定の仮想要素に対する第2のジェスチャを検出することを可能にするロジックを含み、
    前記第2プログラムロジックモジュールは、前記プロセッサベースのシステムが、前記特定の仮想要素に対する前記第2のジェスチャの検出に応答して、前記指定された仮想要素において該指定された仮想要素に対応する画像シーケンスを表示するのではなく、前記指定された仮想要素において該指定された仮想要素に対応するプライマリ画像を表示することを可能にするロジックを含み、
    前記第2プログラムロジックモジュールは、前記プロセッサベースのシステムが、前記特定の仮想要素に対する前記第2のジェスチャの検出に応答して、前記特定の仮想要素において該特定の仮想要素に対応するプライマリ画像を表示するのではなく、前記特定の仮想要素において該特定の仮想要素に対応する画像シーケンスを表示することを可能にするロジックを含む、
    請求項8に記載のコンピュータプログラム製品。
  10. 前記プロセッサベースのシステムが、アクションの開始を示す前記指定された仮想要素に対応する画像シーケンス内のフレームを決定することを可能にする第4プログラムロジックモジュールを更に有し、
    前記第2プログラムロジックモジュールは、前記プロセッサベースのシステムが、前記フレームで前記指定された仮想要素に対応する画像シーケンスを表示し始めることを可能にするロジックを含む、
    請求項8に記載のコンピュータプログラム製品。
JP2016554271A 2014-03-10 2015-02-27 メタデータに基づく写真及び/又は映像アニメーション Active JP6576940B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/203,469 US9934252B2 (en) 2014-03-10 2014-03-10 Metadata-based photo and/or video animation
US14/203,469 2014-03-10
PCT/US2015/017885 WO2015138146A1 (en) 2014-03-10 2015-02-27 Metadata-based photo and/or video animation

Publications (3)

Publication Number Publication Date
JP2017515186A true JP2017515186A (ja) 2017-06-08
JP2017515186A5 JP2017515186A5 (ja) 2018-03-15
JP6576940B2 JP6576940B2 (ja) 2019-09-18

Family

ID=52669676

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016554271A Active JP6576940B2 (ja) 2014-03-10 2015-02-27 メタデータに基づく写真及び/又は映像アニメーション

Country Status (10)

Country Link
US (2) US9934252B2 (ja)
EP (2) EP3565241B1 (ja)
JP (1) JP6576940B2 (ja)
KR (1) KR102281172B1 (ja)
CN (1) CN106105185B (ja)
AU (2) AU2015229879B2 (ja)
CA (1) CA2939805C (ja)
MX (1) MX2016011542A (ja)
RU (1) RU2674434C2 (ja)
WO (1) WO2015138146A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022080291A1 (ja) * 2020-10-12 2022-04-21 株式会社ポケモン プログラム、方法、情報処理装置、システム

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8594740B2 (en) 2008-06-11 2013-11-26 Pantech Co., Ltd. Mobile communication terminal and data input method
DE202015006142U1 (de) * 2014-09-02 2015-12-09 Apple Inc. Elektronische Touch-Kommunikation
US20160202882A1 (en) * 2015-01-14 2016-07-14 Lumyer Inc. Method and apparatus for animating digital pictures
US10152825B2 (en) 2015-10-16 2018-12-11 Fyusion, Inc. Augmenting multi-view image data with synthetic objects using IMU and image data
US9717830B2 (en) 2015-10-28 2017-08-01 Circulite, Inc. Inflow cannula and blood flow assist system
US9532004B1 (en) * 2016-05-12 2016-12-27 Google Inc. Animated user identifiers
CN106095465B (zh) * 2016-06-23 2019-12-27 北京小米移动软件有限公司 设置身份图像的方法及装置
US10586367B2 (en) * 2017-01-04 2020-03-10 Samsung Electronics Co., Ltd. Interactive cinemagrams
JP6464278B1 (ja) * 2017-08-24 2019-02-06 ガンホー・オンライン・エンターテイメント株式会社 端末装置、プログラム及び方法
US10334222B2 (en) * 2017-11-20 2019-06-25 Adobe Inc. Focus-based video loop switching
US20190213269A1 (en) * 2018-01-10 2019-07-11 Amojee, Inc. Interactive animated gifs and other interactive images
US10572121B2 (en) * 2018-02-09 2020-02-25 International Business Machines Corporation Contextual user profile photo selection
CN112868224B (zh) 2019-04-01 2023-08-29 谷歌有限责任公司 捕获和编辑动态深度图像的方法、装置和存储介质
US11200205B2 (en) * 2020-01-31 2021-12-14 EMC IP Holding Company LLC Displaying an alert and options when deleting a file that is associated with a sequence of files
US11199948B2 (en) 2020-01-31 2021-12-14 EMC IP Holding Company LLC Displaying a sequence and files associated with the sequence having a missing file
CN112672185B (zh) * 2020-12-18 2023-07-07 脸萌有限公司 基于增强现实的显示方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060064716A1 (en) * 2000-07-24 2006-03-23 Vivcom, Inc. Techniques for navigating multiple video streams
JP2006085452A (ja) * 2004-09-16 2006-03-30 Fuji Xerox Co Ltd 画像管理システム、画像管理装置、及び画像管理方法
JP2008533948A (ja) * 2005-03-21 2008-08-21 マーベル ワールド トレード リミテッド 保護コンテンツを配信するためのネットワークシステム
JP2013165462A (ja) * 2012-02-13 2013-08-22 Canon Inc 動画記録装置及びその制御方法、コンピュータプログラム、記憶媒体

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6937273B1 (en) * 1997-05-28 2005-08-30 Eastman Kodak Company Integrated motion-still capture system with indexing capability
EP2175644B1 (en) 1999-04-15 2016-02-24 Sony Corporation Photographing apparatus and method
US6925602B1 (en) 2000-03-20 2005-08-02 Intel Corporation Facilitating access to digital video
US20030189647A1 (en) * 2002-04-05 2003-10-09 Kang Beng Hong Alex Method of taking pictures
US7319480B2 (en) 2003-06-26 2008-01-15 Eastman Kodak Company Method and apparatus for compressing motion image files to provide an improved image navigation display
US7480382B2 (en) * 2003-09-30 2009-01-20 Microsoft Corporation Image file container
US7791141B2 (en) * 2004-07-09 2010-09-07 International Business Machines Corporation Field-enhanced programmable resistance memory cell
US20060282386A1 (en) * 2005-03-14 2006-12-14 Szeto Christopher T Method and system for premium access
US7599710B2 (en) 2005-04-15 2009-10-06 Magix Ag System and method of utilizing a remote server to create movies and slide shows for viewing on a cellular telephone
US8549442B2 (en) 2005-12-12 2013-10-01 Sony Computer Entertainment Inc. Voice and video control of interactive electronically simulated environment
JP5127459B2 (ja) * 2006-03-27 2013-01-23 株式会社Ptp 記録再生装置、システム及びサーバ
US8566855B2 (en) * 2008-12-02 2013-10-22 Sony Corporation Audiovisual user interface based on learned user preferences
US8943409B2 (en) * 2008-12-26 2015-01-27 Sandisk Il Ltd. Storage device managing playable content
US9111287B2 (en) * 2009-09-30 2015-08-18 Microsoft Technology Licensing, Llc Video content-aware advertisement placement
US10102208B2 (en) * 2010-10-29 2018-10-16 Microsoft Technology Licensing, Llc Automatic multimedia slideshows for social media-enabled mobile devices
US20130006996A1 (en) * 2011-06-22 2013-01-03 Google Inc. Clustering E-Mails Using Collaborative Information
US20130069962A1 (en) * 2011-09-15 2013-03-21 Microsoft Corporation Active Lock Wallpapers

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060064716A1 (en) * 2000-07-24 2006-03-23 Vivcom, Inc. Techniques for navigating multiple video streams
JP2006085452A (ja) * 2004-09-16 2006-03-30 Fuji Xerox Co Ltd 画像管理システム、画像管理装置、及び画像管理方法
JP2008533948A (ja) * 2005-03-21 2008-08-21 マーベル ワールド トレード リミテッド 保護コンテンツを配信するためのネットワークシステム
JP2013165462A (ja) * 2012-02-13 2013-08-22 Canon Inc 動画記録装置及びその制御方法、コンピュータプログラム、記憶媒体

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022080291A1 (ja) * 2020-10-12 2022-04-21 株式会社ポケモン プログラム、方法、情報処理装置、システム
JP2022063559A (ja) * 2020-10-12 2022-04-22 株式会社ポケモン プログラム、方法、情報処理装置、システム

Also Published As

Publication number Publication date
EP3565241A3 (en) 2019-12-04
AU2015229879B2 (en) 2019-01-03
EP3565241B1 (en) 2020-12-23
AU2019202184B2 (en) 2020-07-16
EP3565241A2 (en) 2019-11-06
KR102281172B1 (ko) 2021-07-22
EP3117602B1 (en) 2019-06-19
US9934252B2 (en) 2018-04-03
CA2939805C (en) 2023-08-01
EP3117602A1 (en) 2017-01-18
JP6576940B2 (ja) 2019-09-18
AU2019202184A1 (en) 2019-04-18
US10430460B2 (en) 2019-10-01
MX2016011542A (es) 2016-11-29
RU2016136339A3 (ja) 2018-10-08
CA2939805A1 (en) 2015-09-17
US20180225309A1 (en) 2018-08-09
CN106105185B (zh) 2019-11-29
CN106105185A (zh) 2016-11-09
RU2674434C2 (ru) 2018-12-10
US20150254281A1 (en) 2015-09-10
KR20160131103A (ko) 2016-11-15
WO2015138146A1 (en) 2015-09-17
AU2015229879A1 (en) 2016-09-08
RU2016136339A (ru) 2018-03-14

Similar Documents

Publication Publication Date Title
JP6576940B2 (ja) メタデータに基づく写真及び/又は映像アニメーション
US11887237B2 (en) Dynamic composite user identifier
KR20160146281A (ko) 전자 장치 및 전자 장치에서 이미지 표시 방법
KR20180026983A (ko) 전자 장치 및 그 제어 방법
KR20170017289A (ko) 콘텐츠를 송수신하는 전자 장치 및 방법
EP3405869B1 (en) Method and an apparatus for providing a multitasking view
KR20180013169A (ko) 콘텐츠 표시 방법 및 이를 사용하는 전자 장치
US11886673B2 (en) Trackpad on back portion of a device
WO2020264013A1 (en) Real-time augmented-reality costuming
KR20180086078A (ko) 전자 장치 및 전자 장치의 화면 표시 방법
KR102654807B1 (ko) 전자 장치 및 전자 장치 제어 방법
KR20170044469A (ko) 실행 화면 레코딩 방법 및 그 방법을 처리하는 전자 장치
KR20160085044A (ko) 전자문서 표시 방법 및 전자 장치
KR102584981B1 (ko) 포스 입력에 따른 화면 출력 방법 및 이를 지원하는 전자 장치
KR102630191B1 (ko) 전자 장치 및 전자 장치 제어 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180131

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180131

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190821

R150 Certificate of patent or registration of utility model

Ref document number: 6576940

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250