JP2021005390A - コンテンツ管理機器、および、制御方法 - Google Patents
コンテンツ管理機器、および、制御方法 Download PDFInfo
- Publication number
- JP2021005390A JP2021005390A JP2020148179A JP2020148179A JP2021005390A JP 2021005390 A JP2021005390 A JP 2021005390A JP 2020148179 A JP2020148179 A JP 2020148179A JP 2020148179 A JP2020148179 A JP 2020148179A JP 2021005390 A JP2021005390 A JP 2021005390A
- Authority
- JP
- Japan
- Prior art keywords
- contents
- content
- management device
- unit
- content management
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/55—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/51—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/535—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/54—Browsing; Visualisation therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/587—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/75—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/787—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6209—Protecting access to data via a platform, e.g. using keys or access control rules to a single file or object, e.g. in a secure envelope, encrypted and accessed using a key, or with access control rules appended to the object itself
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/432—Content retrieval operation from a local storage medium, e.g. hard-disk
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/436—Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
- H04N21/4363—Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8549—Creating video summaries, e.g. movie trailer
Abstract
【課題】プライバシー性又は機密性、コンテンツの閲覧操作性の問題を有効に解決する。【解決手段】コンテンツ管理機器100は、(a)複数の端末のうちの少なくとも1つである第一端末による撮影により生成されたコンテンツと、(b)コンテンツが撮影された時刻と、(c)撮影がなされた時刻を含む期間内に、複数の端末のうちの少なくとも1つである第二端末が電波で送信したビーコン信号を、複数の端末のうちの第二端末を除く1以上の端末それぞれが受信したか否かを示す履歴と、を記憶している記憶部103と、記憶部103を参照して、上記期間内にビーコン信号を1以上の端末それぞれが受信したと判定した場合に、上記コンテンツを、複数の端末による提示が許容される許容コンテンツとして管理する管理部101Aとを備える。【選択図】図7B
Description
本開示は、個人が撮影した写真又は動画といったコンテンツを蓄積し、分かり易く分類して表示する機器、およびその機器のコンテンツ表示方法に関するものである。
従来のコンテンツ管理機器として、記録用カード、USBメモリ、または、Wi−Fi(登録商標)などを用いて、デジタルスチルカメラ、ビデオカメラ、またはスマートフォンなどで撮影した映像を、複数の機器からHDD(Hard Disk Drive)等にコピーして保存し、またそれらの映像を分類して閲覧させるコンテンツ管理機器がある。映像の分類には、例えば、撮影日付順、又は、画像認識による被写体ごとへの分類がある。コンテンツ管理機器は、装置として、または、アプリケーションとして商品化されている。
このような機器では、集めて保存した映像を、画面表示部に表示するカレンダー、又は地図の上に配置することで、撮影した日付又は場所に応じて関連する映像に簡単にアクセスするような機能を提供している。
また、画像認識技術の進化により、スマートフォン又はパソコン、クラウドサーバーで家族の顔を元にした整理、つまり日付又は場所ではなく、撮影された被写体の人物、さらには映像の被写体を高度抽象化して特定して、映像を管理することが可能となってきている。
さらに、画像の撮影場所の住所表示に関連する先行技術として、カーナビゲーションシステムにおいて、普段から利用する慣れた道と、よく知らない道とで表示する住所などの粒度を変えることで、分かり易いナビゲーションを行うような技術が知られている(特許文献1参照)。
このような構成のシステムにおいて、家族間でコンテンツの送受信を行う場合、プライバシー性又は機密性、また膨大な量のコンテンツを閲覧する操作性といった問題がある。
そこで、本開示は、プライバシー性又は機密性、コンテンツの閲覧操作性の問題を有効に解決し得るコンテンツ管理機器を提供する。
本開示におけるコンテンツ管理機器は、(a)複数の端末のうちの少なくとも1つである第一端末による撮影により生成されたコンテンツと、(b)前記コンテンツが撮影された時刻と、(c)前記撮影がなされた時刻を含む期間内に、前記複数の端末のうちの少なくとも1つである第二端末が電波で送信したビーコン信号を、前記複数の端末のうちの前記第二端末を除く1以上の端末それぞれが受信したか否かを示す履歴と、を記憶している記憶部と、前記記憶部を参照して、前記期間内に前記ビーコン信号を前記1以上の端末それぞれが受信したと判定した場合に、前記コンテンツを、前記複数の端末による提示が許容される許容コンテンツとして管理する管理部とを備える。
これによれば、コンテンツ管理機器は、電波のビーコン信号を送受信できる程度の距離の範囲内に複数の端末が位置しているときに撮影されたコンテンツを、当該複数の端末が提示できる許容コンテンツとして管理する。複数の端末が上記範囲内に位置しているときには、複数の端末それぞれの所有者が同一のイベントに参加しているので、当該複数の端末によって撮影されたコンテンツは、複数の端末それぞれの所有者の間で既に共有されており、複数の端末それぞれの所有者に提示されてもプライバシー性又は機密性が損なわれないと考えられるからである。
このように、上記コンテンツ管理機器は、複数の端末である撮像機器から集められた映像などのコンテンツを、当該コンテンツ保有者又は撮影者等のプライバシーにおいて問題とならないように管理することが可能である。なお、管理とは、映像を、映像の保有者又は撮影者と、それ以外のユーザを含むグループの内部又は外部に出力し、または表示し、または記録するために制御することを含む。また、映像とは、写真などの静止画または動画を含む。
また、前記第二端末は、繰り返し設定される所定時刻に前記ビーコン信号を送信し、前記1以上の端末それぞれは、前記所定時刻を含む受信待ち期間内に前記ビーコン信号の受信のための待ち状態をとり、前記受信待ち期間内に前記ビーコン信号を受信したか否かを示す前記履歴を前記記憶部に記憶させてもよい。
これによれば、端末は、他の端末からビーコン信号が送信されるときだけビーコンの受信待ちを行い、言い換えれば、その他の時間にビーコンの受信待ちを行う必要がない。よって、端末は、他の端末からビーコン信号が送信されないときに受信回路に供給する、受信待ちのための電流を遮断することで、電力消費を抑制することができる。
また、前記管理部は、前記複数の端末により複数の前記コンテンツが生成された場合に、複数の前記コンテンツの撮影時刻の間の期間のうち、所定の時間長を超える期間である無撮影期間によって、複数の前記コンテンツを、それぞれに所定数以上のコンテンツが属する複数のグループにグループ化し、前記複数のグループのそれぞれについて、当該グループに属する前記所定数以上のコンテンツが撮影された期間内に前記ビーコン信号を前記1以上の端末それぞれが受信したと判定した場合に、当該グループに属する前記所定数以上のコンテンツを、前記複数の端末による提示が許容される許容コンテンツとして管理し、前記所定の時間長は、前記複数のコンテンツのうち、当該期間の直前又は直後に撮影されたコンテンツの撮影場所と前記複数の端末のユーザの自宅との距離が大きいほど大きくてもよい。
これによれば、コンテンツ管理機器は、撮影時刻に基づいて複数のコンテンツをグループ化するに際して、そのコンテンツの撮影場所とユーザの自宅の位置との距離に応じてグループ化に用いる無撮影期間の時間長を設定し、コンテンツを適切にグループ化することができる。これにより、コンテンツ管理機器は、ユーザが明示的に無撮影期間の時間長を設定しなくても、コンテンツを適切にグループ化し、コンテンツのプライバシー性又は機密性を維持しながらコンテンツを管理できる。
また、本開示におけるコンテンツ管理機器は、複数のコンテンツと、前記複数のコンテンツそれぞれの撮影場所とを記憶している記憶部と、前記複数のコンテンツに関連する地域区分を示す文字列を決定する管理部とを備え、前記管理部は、前記複数のコンテンツを代表する代表コンテンツの撮影場所と、ユーザの自宅との距離が大きいほど、当該撮影場所を含む地域区分を大きくして、前記文字列を決定する。
これによれば、コンテンツ管理機器は、複数のコンテンツを、ユーザーが想起しやすい過去のイベントとして1つに纏めたダイジェスト動画を自動で作成する場合に、作成するダイジェスト動画を代表する適切な文字列を、コンテンツの撮影場所に応じて適切に決定する。決定された文字列は、例えばダイジェスト動画のオープニングテロップやそのダイジェスト動画ファイルの名前の一部として用いられ得る。これにより、ユーザが明示的に適切な文字列を設定しなくても、コンテンツ管理機器は、コンテンツの撮影場所に基づいてダイジェスト動画に適切な文字列を設定することができる。
また、前記管理部は、さらに、前記複数のコンテンツを代表する代表コンテンツの撮影場所の知名度が高いほど、当該撮影場所を含む地域区分を小さくして、前記文字列を決定し、又は、前記複数のコンテンツを代表する代表コンテンツの撮影場所へのユーザの訪問頻度が高いほど、当該撮影場所を含む地域区分を小さくして、前記文字列を決定してもよい。
これによれば、コンテンツ管理機器は、コンテンツの撮影場所の知名度、又は、コンテンツの撮影場所へのユーザの訪問頻度に基づいて、ダイジェスト動画に関連する適切な文字列を容易に決定し得る。これにより、ユーザが明示的に適切な文字列を設定しなくても、コンテンツ管理機器は、コンテンツの撮影場所の知名度又は訪問頻度に基づいてダイジェスト動画を表す適切な文字列を設定することができる。
また、本開示におけるコンテンツ管理機器は、複数のコンテンツと、前記複数のコンテンツそれぞれに紐付けられている1以上のタグとを記憶している記憶部と、前記複数のコンテンツのうち検索の対象となるコンテンツに紐付けられている1以上のタグを提示部に提示させる提示制御部と、前記提示制御部が提示させた前記1以上のタグに対するユーザによる操作を受け付ける受付部と、前記操作を前記受付部が受け付けた場合に、前記操作の対象であるタグの内容を検索条件として前記複数のコンテンツを検索することで得られる1以上のコンテンツを新たな検索の対象とし、前記新たな検索の対象である前記1以上のコンテンツに紐付けられている1以上のタグを前記提示部に提示させる管理部とを備える。
これによれば、コンテンツ管理機器は、複数のコンテンツのうちからユーザが所望のコンテンツを抽出したい場合に、検索条件として使用可能なタグをユーザに提示することで、ユーザによるタグの選定をしやすくすることができる。
また、前記管理部は、さらに、前記提示部に提示させる前記1以上のコンテンツの個数が所定数以下である場合に、コンテンツを再生させる操作を受け付けるための情報を前記提示部に提示させてもよい。
これによれば、コンテンツ管理機器は、検索の条件に適合するコンテンツの個数が、ユーザが現実的な時間内にコンテンツを閲覧できる程度に絞られた時点で、コンテンツの再生の操作を受け付けるための情報を提示する。ユーザは、上記情報が提示されたことに応じて、コンテンツ管理機器が再生の操作が受け付けられる状態であることをより良く認識し、必要に応じて再生の操作をすることができる。よって、コンテンツ管理機器は、検索の条件に適合するコンテンツを提示するとすれば非現実的な長い時間を要する場合にコンテンツの閲覧の操作を受けることをより良く回避することによって、適切な量のコンテンツをユーザに提示することでコンテンツの閲覧操作性を高めることができる。
また、前記管理部は、さらに、前記提示部に提示させる前記1以上のコンテンツに係る検索条件が所定数以上である場合に、検索条件を減らす操作を受け付けるための情報を前記提示部に提示させてもよい。
これによれば、コンテンツ管理機器は、検索の条件が比較的多くなった時点で、検索条件を減らす操作を受け付けるための情報を提示する。ユーザは、上記情報が提示されたことに応じて、検索条件を減らす操作が受け付けられる状態であることを認識し、必要に応じて検索条件を減らす操作をすることができる。よって、コンテンツ管理機器は、ユーザによる操作に基づいて検索条件を減らすことで、ユーザにより素早くコンテンツの検索をさせることで膨大な量となってもコンテンツの閲覧操作性を高めることができる。
また、本開示におけるコンテンツ管理システムは、複数の端末と、前記複数の端末に接続し、前記複数の端末により生成されたコンテンツを管理するコンテンツ管理機器とを備えるコンテンツ管理システムであって、前記複数の端末は、生成するコンテンツと、電波を用いたビーコン信号とを送受信し、前記コンテンツ管理機器は、(a)前記複数の端末の1つである第一端末により生成されたコンテンツと、(b)前記コンテンツが生成された時刻と、(c)前記時刻を含む期間内に、前記複数の端末のうちの第一端末が送信した前記ビーコン信号を、前記複数の端末のうちの前記第一端末以外の端末が受信成功もしくは失敗しているのかを示す情報と、を記憶している記憶部と、前記コンテンツが生成された時刻を含む時間帯において、前記複数の端末のうちの前記第一端末とは異なる端末であって、前記第一端末が送信したビーコン信号を受信成功している端末に、前記第一端末が生成したコンテンツの閲覧を許諾する管理部とを備える。
これによれば、上記コンテンツ管理機器と同様の効果を奏する。
また、前記管理部は、さらに、前記時間帯において、第一端末が受信に成功したビーコンを送信した第二端末に、前記第一端末が生成したコンテンツの閲覧を許諾してもよい。
これによれば、コンテンツ管理システムは、ビーコンの受信の成否を用いて、より容易にコンテンツの閲覧を許諾する端末を決定することができる。
また、前記管理部は、さらに、前記時間帯において、前記第二端末とのビーコンの送信及び受信の何れかが成功した第三端末に、前記第一端末が生成したコンテンツの閲覧を許諾してもよい。
これによれば、コンテンツ管理システムは、ビーコンの送信または受信の成否を用いて、より容易に、コンテンツの閲覧を許諾する端末を決定することができる。
また、本開示におけるコンテンツ管理機器の制御方法は、コンテンツ管理機器の制御方法であって、(a)複数の端末のうちの少なくとも1つである第一端末による撮影により生成されたコンテンツと、(b)前記コンテンツが撮影された時刻と、(c)前記撮影がなされた時刻を含む期間内に、前記複数の端末のうちの少なくとも1つである第二端末が電波で送信したビーコン信号を、前記複数の端末のうちの前記第二端末を除く1以上の端末それぞれが受信したか否かを示す履歴と、を記憶している記憶部を参照して、前記期間内に前記ビーコン信号を前記1以上の端末それぞれが受信したか否かを判定し、前記期間内に前記ビーコン信号を前記1以上の端末それぞれが受信したと判定した場合に、前記コンテンツを、前記複数の端末による提示が許容される許容コンテンツとして管理する。
これによれば、上記コンテンツ管理機器と同様の効果を奏する。
また、本開示におけるコンテンツ管理機器の制御方法は、コンテンツ管理機器の制御方法であって、複数のコンテンツと、前記複数のコンテンツそれぞれの撮影場所とを記憶している記憶部から、前記複数のコンテンツと前記複数のコンテンツそれぞれの撮影場所とを取得し、取得した前記複数のコンテンツと前記複数のコンテンツそれぞれの撮影場所とを参照して、前記複数のコンテンツに関連する地域区分を示す文字列を決定し、前記決定の際には、前記複数のコンテンツを代表する代表コンテンツの撮影場所と、ユーザの自宅との距離が大きいほど、当該撮影場所を含む地域区分を大きくして、前記文字列を決定する。
これによれば、上記コンテンツ管理機器と同様の効果を奏する。
また、本開示におけるコンテンツ管理機器の制御方法は、コンテンツ管理機器の制御方法であって、複数のコンテンツと、前記複数のコンテンツそれぞれに紐付けられている1以上のタグとを記憶している記憶部を参照して、前記複数のコンテンツのうち検索の対象となるコンテンツに紐付けられている1以上のタグを提示部に提示させ、提示させた前記1以上のタグに対するユーザによる操作を受け付け、前記操作を受け付けた場合に、前記操作の対象であるタグの内容を検索条件として前記複数のコンテンツを検索することで得られる1以上のコンテンツを新たな検索の対象とし、前記新たな検索の対象である前記1以上のコンテンツに紐付けられている1以上のタグを前記提示部に提示させる。
これによれば、上記コンテンツ管理機器と同様の効果を奏する。
本開示のコンテンツ管理機器によれば、プライバシー性又は機密性、コンテンツの閲覧操作性の問題を有効することができる。
従来のコンテンツ管理機器において生じ得る、家族間でコンテンツの送受信を行う場合における課題について説明する。
課題の1つは、コンテンツ管理機器に集められて保存される映像などは、個人が日常的に携帯するスマートフォンなどの撮影機器で撮影されたものが多く、プライバシー性又は機密性が高い映像が比較的多いことである。これらのスマートフォンなどが保有する映像を、自動的にコンテンツ管理機器にアップロードして家族間で共有するような場合は、個人で保有するコンテンツが家族内に公開されることとなりプライバシー上で問題が起こることが考えられる。つまり、個人が管理するコンテンツ(個人コンテンツともいう)をコンテンツ管理機器で家族内で一括管理する場合、すなわち家族間で共有して管理する場合には、プライバシー性又は機密性といった問題が発生することになってしまい、これを解消しなければならないという課題がある。
次の課題は、コンテンツ管理機器に集められて保存される映像を表示する場合、特定の1日、もしくは特定の場所に着目し、1つのイベント(又は出来事)としてダイジェスト動画を作成するサービスがある。しかし、複数の日に跨る旅行のような1つのイベントを1つのダイジェスト動画に纏めるようなことは、手動であっても上手くできていなかった。例えば、旅行や子供の運動会といったイベントに対して、それぞれのイベントが旅行なのか、もしくは運動会なのかを認識して、同一のコンテキストにあるイベントだけを抽出して見せるような表示機能はなく、過去の映像を閲覧する際に不便と感じられることがあった。また、例えば、沖縄旅行において撮影した映像を地図で表示すると、閲覧したい沖縄旅行だけでなく過去の沖縄旅行、又は、沖縄出張で撮影した映像等のコンテンツが画面上の沖縄の地図の上に表示され、特定の沖縄旅行だけを見ることができないという問題があり、これを解消しなければならないという課題がある。
本開示はこれらの課題を解決するコンテンツ管理機器及びその制御方法を提供することを目的とする。具体的には、コンテンツ管理機器は、複数の機器から集められたコンテンツを、コンテンツ保有者又は撮影者等のプライバシーにおいて問題とならないように表示することを可能とする。また、複数のコンテンツを、ユーザーが想起しやすい過去のイベントとして1つに纏めたダイジェスト動画を自動で作成し、提供することを可能にする。また、コンテンツ管理機器による個人コンテンツの扱いにおいて、誰が操作しても分かり易い表示、又は、音声対話による操作を実現する方法、及び装置を提供することを目的とする。
以下、本発明の実施の形態について、図面を参照しながら説明する。
なお、以下の実施の形態は、本開示に係る表示装置の一例を示したものに過ぎない。従って本開示は、以下の実施の形態を参考に請求の範囲の文言によって範囲が画定されるものであり、以下の実施の形態のみに限定されるものではない。よって、以下の実施の形態における構成要素のうち、本発明の最上位概念を示す独立請求項に記載されていない構成要素については、本発明の課題を達成するのに必ずしも必要ではないが、より好ましい形態を構成するものとして説明される。
また、図面は、本開示を示すために適宜強調や省略、比率の調整を行った模式的な図となっており、実際の形状や位置関係、比率とは異なる場合がある。
(実施の形態1)
[1−1.構成]
図1は、本実施の形態における、コンテンツ管理機器及びその制御方法の実行のための全体システムの構成の一例を示す図である。
[1−1.構成]
図1は、本実施の形態における、コンテンツ管理機器及びその制御方法の実行のための全体システムの構成の一例を示す図である。
図1のコンテンツ管理システム1では、スマートフォン又はカメラ等の1つまたは複数の端末装置と、コンテンツ管理機器100とを備える。端末装置とコンテンツ管理機器100とは、インターネット等のネットワーク、ルーターを介して、または直接に接続されている。図1は、コンテンツ管理システム1が端末装置として、父のスマートフォン110、母のスマートフォン120および家族共有のカメラ130を備え、これらの端末装置がコンテンツ管理機器100と無線で接続されている例を示している。
父が利用している父のスマートフォン110、母が利用している母のスマートフォン120、家族全員が利用しているデジタルスチルカメラである家族共有のカメラ130は、それぞれ写真又は動画などの個人コンテンツ(単にコンテンツともいう)を撮影する。また、スマートフォン110等及びカメラ130は、撮影により生成したコンテンツを保持していて、いずれもコンテンツ管理機器100と、無線または有線で、インターネット160又はルーター150を介して、またはUSBケーブルなどで直接的に接続されて、映像信号、音声信号または制御信号の送信又は受信を行う。なお、ルーター150は、例えば、Wi−Fiルーターである。インターネット160はいろいろなサーバー(図示せず)に接続され、コンテンツ管理機器100と制御信号、映像音声信号、またはアプリケーションソフト等が送受信される。
また、本実施の形態では、父のスマートフォン110により撮影もしくは管理されているコンテンツ111をコンテンツA〜コンテンツF、母のスマートフォン120により撮影もしくは管理されているコンテンツ121をコンテンツM〜コンテンツR、家族共有のデジタルスチルカメラ130により撮影もしくは管理されているコンテンツ141をコンテンツG〜コンテンツLと記す。デジタルスチルカメラ130は記憶媒体として記録用カード140を装着することが可能であり、記録用カード140にコンテンツ141(コンテンツG〜コンテンツL)を記録している。記録用カード140は、例えばSDカードである。
これらのコンテンツは、端末装置の所有者(または使用者)により個々に管理されているが、自身が所有者でないコンテンツを家族間で共有し、全てのコンテンツを一括管理していくためには、家族で共同で使用できるパソコン又はネットワーク(例えばインターネット160)上の巨大ストレージであるNAS(Network―Attached Storage)などへ取り込んで管理する方法がある。本実施の形態のコンテンツ管理システム1では、これらの家族内で個人毎に管理されているコンテンツを一か所に集め、集中的に管理するためにコンテンツ管理機器100を使用する。
コンテンツ管理機器100は、各種プログラム処理を行う演算部101、ユーザー操作を受け付けるためのマイク(音声操作用)170、リモコン(図示なし)又は端末装置からの制御信号、コンテンツ等の映像信号又は音声信号の入出力機能を備えるI/F(インターフェース)部102、コンテンツを保存しておく記憶部103、テレビジョン受像機(TV)180等の表示装置へ画像出力を行う入出力部104などを備える。入出力部104による画像出力は、例えば、HDMI(登録商標)(High−Definition Multimedia Interface)のような有線による伝送、又は、ミラキャスト又はChromecastのような無線による伝送によってなされ得る。これらの構成は一般的なNAS又は家電製品と同等であるため、その詳細説明は省略する。なお、演算部101を、管理部ともいう。また、コンテンツ管理機器100が、TV180を備えていてもよい。
コンテンツ管理機器100は、ユーザーからの音声操作による指示(発話)をマイク170により拾い、その音声操作に係る言葉を制御コマンドに変換し、その制御コマンドに応じた処理を行う。音声操作時に補助情報をTV180に映像として表示するために、音声操作と合わせて画面イメージが演算部101により更新される。これらの画面イメージは、コンテンツ管理機器100の入出力部104からHDMI(登録商標)などを介してTV180へと出力され、ユーザーに提示される。
端末装置とコンテンツ管理機器100などとがデータを通信するために、本実施の形態のコンテンツ管理システム1は、Wi−Fi無線通信用のルーター150を備えており、端末装置のそれぞれはこのルーター150を介して、インターネット160と家庭内の各端末装置と無線(Wi−Fi)で通信できるように構成されている。
[1−2.動作]
次に、コンテンツ管理システム1におけるコンテンツ表示方法についての動作を説明する。
次に、コンテンツ管理システム1におけるコンテンツ表示方法についての動作を説明する。
図1において、それぞれの端末装置である父のスマートフォン110、母のスマートフォン120、カメラ130が保有する映像を自動的にコンテンツ管理機器100にアップロードして家族間で共有する場合について説明する。
この場合、母が主として母のスマートフォン120で撮影したコンテンツM〜Rの映像については、母が知っているものである。また、家族共用のデジタルスチルカメラ130で撮影されたコンテンツG〜Lについては、家族で参加していたイベントに関わるコンテンツであり、母も知っている可能性があると考えられる。
一方、父が利用する父のスマートフォン110が保有する映像であるコンテンツA〜Fについては、母が知っているものとは考えられず、たとえ家族間であっても父にとって機密性の高い情報が含まれることも考えられる。
本実施の形態のコンテンツ管理機器100は、個人のプライバシー性又は機密性を守りながら家族間で共有するコンテンツの保存または表示を可能とし、複数の端末装置から取得したコンテンツを一括に管理することを実現する。
本実施の形態のコンテンツ管理機器100は、以下の動作を行う。
図2は、コンテンツ管理システム1の動作を説明するための図である。図2は、コンテンツ管理機器100の記憶部103に記録されているコンテンツを、撮影された時系列順に並べて表示したものである。ある同一時間帯において、父のスマートフォン110で撮影されたコンテンツをD1〜D5と記し、同じく同一時間帯に母のスマートフォン120で撮影されたコンテンツをM1〜M6と記し、さらに家族共有のデジタルスチルカメラで同一時間帯に撮影されたコンテンツをC1〜C4と記し、それぞれのコンテンツが撮影された時刻の順に、右側に行くほど新しいコンテンツが時系列に従って並べて示した図である。なお、「撮影されたコンテンツ」とは、新たにダウンロードなどで追加されたコンテンツも含む概念である。
コンテンツ管理機器100の演算部101は、記憶部103に記録されているそれぞれのコンテンツに付されている撮影又は記録した日時情報から、並べる順番を決定している。
コンテンツ管理機器100には、事前に特定の端末装置を指定すると、演算部101は指定端末装置のコンテンツの日時情報に近いコンテンツをグループ化する。本実施の形態では、指定端末装置をカメラ130に指定する。これはカメラ130が家族共有のデジタルスチルカメラ130なので、デジタルスチルカメラ130で撮影したコンテンツC1を撮影した時間帯と、コンテンツC2〜コンテンツC4を撮影した時間帯とは、何かしら家族全員で共有できるイベントを撮影したものだと考えられ、例えば家族共有のデジタルスチルカメラ130で撮影されたそれぞれのコンテンツC1〜C4の前後1時間を含む時間帯を、それぞれ家族イベントA及び家族イベントBの時間帯として設定する。
その結果、演算部101は、家族イベントAで撮影されたコンテンツとして、コンテンツD2、M2、M3、C1を特定する。同様に、家族イベントBについては、コンテンツD3、D4、D5、M5、M6、C2、C3、C4を特定する。
このようにしてコンテンツ管理機器100は、接続される端末装置から全てのコンテンツを記憶部103に取り込んだ後に、演算部101が指定端末装置のコンテンツから特定時間帯を決定する。そして、コンテンツ管理機器100は、特定時間帯に含まれるコンテンツをこの家族内で共有できるイベントのコンテンツとして管理することが可能なコンテンツと判断する。本実施の形態では、コンテンツ管理機器100は、家族イベントとして共有することができるコンテンツを、家族共有の端末装置が撮影を行ったコンテンツの時刻から導き出すことができる。
コンテンツ管理機器100は、家族イベントAに関わるコンテンツとして特定したコンテンツD2、コンテンツM2、コンテンツM3及びコンテンツC1、並びに、家族イベントBに関わるコンテンツとして特定したコンテンツD3、コンテンツD4、コンテンツD5、コンテンツM5、コンテンツM6、コンテンツC2、コンテンツC3及びコンテンツC4を、入出力部104から出力し、TV180に表示させることが可能である。家族イベントに関するコンテンツであるので、TV180などの表示装置に表示しても、撮影者のプライバシーが守られたコンテンツの表示が行われる。一方、コンテンツ管理機器100は、特定時間帯に撮影されていないコンテンツD1、コンテンツM1及びコンテンツM4を、プライバシー性が高いコンテンツであると判断し、事前に取り込んだ端末装置、またはその所有者に対して確認することなくTV180に表示することを禁止する。
また、コンテンツ管理機器100の演算部101は、端末装置である父のスマートフォン110、母のスマートフォン120のそれぞれに、家族イベントとして特定したコンテンツD2、コンテンツM2、コンテンツM3、コンテンツC1、コンテンツD3、コンテンツD4、コンテンツD5、コンテンツM5、コンテンツM6、コンテンツC2、コンテンツC3及びコンテンツC4をI/F部102から出力することができる。これらの特定されたコンテンツは、家族共有のコンテンツとして個人の各端末装置に送信され得る。
[1−3.効果など]
このようにコンテンツ管理機器100は、記録されている複数のコンテンツのなかで指定端末装置のコンテンツの撮影時間から特定時間帯を決定し、そして特定コンテンツを決定することで、個人のプライバシー性又は機密性を守りながら特定コンテンツを表示し、管理することが可能である。
このようにコンテンツ管理機器100は、記録されている複数のコンテンツのなかで指定端末装置のコンテンツの撮影時間から特定時間帯を決定し、そして特定コンテンツを決定することで、個人のプライバシー性又は機密性を守りながら特定コンテンツを表示し、管理することが可能である。
[1−4.実施の形態1の変形例1]
個人のプライバシー性又は機密性を守りながら複数のコンテンツを管理することが可能な端末装置の変形例を説明する。本変形例では、端末装置としてデジタルカメラ又はスマートフォンのように写真又は動画の撮影時に撮影地点のGPS(Global Positioning System)情報を記録できる撮影機器が含まれる場合に、その端末装置で撮影された映像等のコンテンツに付与された撮影地点のGPS情報から端末装置のユーザー(または撮影者)のイベントを特定することで、個人のプライバシー性又は機密性を守りながらコンテンツ管理を実行する。ここで、撮影地点のGPS情報は、より一般的には撮影地点の位置情報を意味し、例えば緯度情報及び経度情報を示す情報を含む。
個人のプライバシー性又は機密性を守りながら複数のコンテンツを管理することが可能な端末装置の変形例を説明する。本変形例では、端末装置としてデジタルカメラ又はスマートフォンのように写真又は動画の撮影時に撮影地点のGPS(Global Positioning System)情報を記録できる撮影機器が含まれる場合に、その端末装置で撮影された映像等のコンテンツに付与された撮影地点のGPS情報から端末装置のユーザー(または撮影者)のイベントを特定することで、個人のプライバシー性又は機密性を守りながらコンテンツ管理を実行する。ここで、撮影地点のGPS情報は、より一般的には撮影地点の位置情報を意味し、例えば緯度情報及び経度情報を示す情報を含む。
本変形例の構成について、図1のシステムを用いて説明する。図1の端末装置のスマートフォン110、120又はカメラ130から送信される写真などの映像コンテンツには、それぞれ撮影地点の場所情報、例えばGPS情報が付加されており、コンテンツ管理機器100の記憶部103に複数のコンテンツが記録されている。コンテンツ管理機器100の演算部101は、GPS情報を読み取り、コンテンツを管理する。
図3は、紙面の上下方向に示されるGPS情報に応じた撮影位置情報と、紙面の水平方向に示される映像の撮影時刻情報、言い換えれば、撮影したときにGPS情報を測位した時刻とに応じて、父のスマートフォン110と母のスマートフォン120とでそれぞれ撮影したコンテンツを表示している。父のスマートフォン110で撮影されたコンテンツを白丸で記し、母のスマートフォン120で撮影されたコンテンツを黒丸で記している。また、家族共有のカメラ130で撮影したコンテンツを撮影時刻に応じて表示している。カメラ130で撮影したコンテンツは、家族が集まったイベントで撮影された可能性があり、図3ではコンテンツC1の撮影された時間の前後の時間を家族イベントAとし、短期間内に撮影されているコンテンツC2、C3およびC4を含む時間を家族イベントBと称する。
図3からは、父のスマートフォン110で撮影されたコンテンツD1、D2は、GPS情報から父が会社で撮影したことが想定され、母のスマートフォン120で撮影されたコンテンツM1は母が自宅で撮影されたものと想定され得る。
また、父のスマートフォン110と母のスマートフォン120とが比較的近い場所にあったのは、白丸と黒丸とが近接している家族イベントBの時間帯である。これに対し、家族イベントAの時間帯には、ほぼ同じ時刻(例えば1時間内)に撮影されたコンテンツD2とコンテンツM2との撮影地点が大きく異なることから、父のスマートフォン110を日常携帯している父と、母のスマートフォン120を日常携帯している母とが、家族イベントAの時間帯には離れた(例えば1Km以上離れた)場所にいたことが判る。
すなわち、特定時間内に父と母のスマートフォンによる撮影によりコンテンツを生成したとしても、これらのコンテンツが異なる場所で撮影されたことがGPS情報から判定される場合には、父と母が同じイベントに参加していなかったことがわかる。
上記実施の形態では、図2において撮影時間から家族イベントAと家族イベントBとを特定したが、本変形例では、図3におけるイベントBが、父と母とが共に参加した家族イベントであると判定され、イベントAは、父と母とが共に参加したイベントでなく、家族イベントでないと判定される。
従って、GPS情報とGPS測位時刻情報(撮影時刻情報)とから決定される家族イベントBのコンテンツとして認められる父が撮影したコンテンツD3、D4及びD5と母が撮影したコンテンツM5及びM6と家族共有のカメラ130にて撮影されたC2、C3及びC4は、プライバシー性又は秘匿性を考慮したうえで、この家族内で公開(共有)ができるものと判断できる。
また、家族共有のデジタルスチルカメラ130を父か母のどちらが携帯していたのかが分かれば、携帯していた方のスマートフォンで撮影したコンテンツと一緒にして家族コンテンツAを構成することが可能となる。例えば、撮影された映像情報の類似性を利用するなど、確実性の低い情報ではあるものの、それを頼りに判断することも考えられる。例えば、母のスマートフォン120とデジタルスチルカメラに同一の人物が撮影されていることが顔認証技術などで十分な精度で保障できる場合は、母のスマートフォン120とデジタルスチルカメラの映像で家族イベントAを構築することが考えられる。
以上のように、本変形例のコンテンツ管理機器100は、撮影地点を表すGPS情報を時間情報と併用することで、家族イベントであることを高い精度で推定することが可能となる。ここで、GPS情報は、例えば、写真であればEXIFメタデータの1つ、動画であればQuickTimeメタデータの1つ、の形式で該当ファイル内に埋め込まれていることが多い。そのため、コンテンツ管理機器100は、個人のプライバシー性又は機密性を守りながら特定コンテンツを表示し、管理することが可能である。
[1−5.実施の形態1の変形例2]
図4は、蓄積された個人コンテンツからイベントを検出する方法を説明する図である。ここで扱うコンテンツは、予め家族間で共有することに、プライバシー性又は秘匿性において問題がないと判断されているものである。
図4は、蓄積された個人コンテンツからイベントを検出する方法を説明する図である。ここで扱うコンテンツは、予め家族間で共有することに、プライバシー性又は秘匿性において問題がないと判断されているものである。
図4の(a)は、撮影された一連の写真又は動画を、各々に付加された撮影時刻情報に基づき、撮影時刻順に並べたものである。コンテンツ管理機器100の演算部101は、各写真又は動画の撮影時刻の前又は後のT1時間の期間内に別の写真又は動画がある場合、同じイベントにおける撮影であるとして、1つのグループに属するように処理を行う。言い換えれば、演算部101は、各写真又は動画の撮影時刻の間の期間のうち、所定のT1時間を超える期間(無撮影期間ともいう)によって、写真又は動画を複数のグループに区切る。
このようにして、演算部101は、写真又は動画を複数のグループにまとめた結果、1つのグループに属する写真又は動画がN枚を超えた場合に、当該グループに属する写真又は動画をまとめて1つのイベントとして登録する処理を行う。なお、動画は、例えば、再生時間M秒で写真1枚分としてカウントすることができる。
そして、演算部101は、各写真又は動画に付される撮影された場所を示す情報、例えばGPS情報から、1つのイベントに属する写真又は動画の撮影場所が全て、自宅から近距離(例えばXKm以内)である、又は、国内であると判定した場合は、イベント検出処理を完了し、その結果をデータベースとして記憶部103に記録及び登録しておく。
これにより今後、当該イベントを構成するコンテンツへのアクセスが容易となる。
一方、演算部101は、この検出処理で検出されたイベントの中に自宅から遠距離(XKm以上)で撮影された、又は、国外で撮影された写真又は動画が含まれていると判定した場合、T1時間だった無撮影期間の時間長を、T1より長いT2に拡張して、再び写真又は動画を当該グループに属するように処理を行う。
その結果、図4の(b)に表示するように、海外旅行中の比較的長い時間を要する移動などで写真撮影の間隔が比較的長く空いたとしても、無撮影期間の時間長を大きく設定して演算する。例えば、写真撮影の間隔が12時間(T1)以上空いたとしても、無撮影期間の時間長を24時間(T2)として演算をする。これにより、1つのイベントである海外旅行を1つのイベントとし、このイベントにおいて撮影された写真又は動画等のコンテンツをグループとして纏めて管理することが可能となる。
以上のように、演算部101は、複数の端末により生成された複数のコンテンツを取り込んだ場合に、複数のコンテンツの撮影時刻の間隔のうち、所定の時間長を超える無撮影期間が1つもない複数の撮影時刻時間で連続するコンテンツを、それぞれに所定数以上のコンテンツが属する複数のグループとしてグループ化する。ここで、所定の時間長は、コンテンツの撮影場所と、当該コンテンツの端末装置(撮影機器)の所有者の自宅との距離が離れるほど、長くなる。
また、所定の時間長は、コンテンツを撮影した国が、当該コンテンツの端末装置(撮影機器)の所有者の自宅がある国とは異なる場合には、長くなるように良い。
このようにコンテンツ管理機器100は、撮影時刻と撮影場所(自宅からの距離、撮影した国)とに応じてコンテンツの纏め方を変えていくことで、一連の相関があるコンテンツを同一のグループとして纏めることができる。このように相関性の強いコンテンツを纏めることで、1つの家族イベントであるコンテンツを纏めて表示し、管理する際のプライバシー又は秘匿性に配慮することができる。
[1−6.実施の形態1の変形例3]
次に、GPS情報ではなく、ビーコン電波を使って家族イベントであるか否かの判定を行う方法を図面を使って説明する。
次に、GPS情報ではなく、ビーコン電波を使って家族イベントであるか否かの判定を行う方法を図面を使って説明する。
本変形例では、スマートフォンが近接したことを知る手掛かりとして、所定の無線通信規格のビーコン信号(以降、単にビーコンともいう)を利用することが考えられる。例えば、無線通信規格であるBLE(Bluetooth(登録商標) Low Energy)のビーコン(以降、BLEビーコンともいう)が利用され得る。図5に図示したようにBLEビーコンには、ビーコン発信機を特定するための識別情報(UUID)、及び、同一UUID内での更に詳細な識別のための補助識別情報(Major、Minor)などが含まれている。この識別情報がBLEビーコンの発信側機器と受信側機器とで事前に共有されることで、受信側機器が発信側機器と近距離になったか否かを検出する。
図6は、母のスマートフォン120から発信されるビーコンと、息子のスマートフォン190から発信されるビーコンとを、父のスマートフォン110がいつ受信できたか、またその時の距離推定を履歴として記録した表を示している。
ビーコンを受信する側の機器は、特定の識別情報(UUID)を持つビーコンの検出を続け、それが検出できた時のビーコン電波強度により、ビーコンの発信する側の機器との距離を推定する。本変形例では、発信側機器と受信側機器との位置関係が複数段階のレベルに分けて決められているとする。より具体的には、図5に示されるように、発信側機器と受信側機器が数cm内の距離にある場合に得られやすい受信強度であった場合に「Immediate」、約1m内の距離にある場合に得られやすい受信強度であった場合に「Near」、約10m内の距離にある場合に得られやすい受信強度であった場合に「Far」、そしてビーコンを検出できない場合を「Unknown」として位置関係を分類している。
図6の(a)に示されるように、母のスマートフォン120及び息子のスマートフォン190により、例えば毎分0秒にビーコンを発信する。そして、父のスマートフォン110にインストールされたアプリにより、ビーコン発信時間帯(毎分0秒近辺)で、母のスマートフォン120及び息子のスマートフォン190からのビーコンを受信する受信待ち状態をとり、その結果を記録する。図6の(b)は、例として、2016年8月12日19時2分から同日19時8分までに、母のスマートフォン120および息子のスマートフォン190が発信するビーコンを、父のスマートフォン110が検出し、その受信強度を判断して、母のスマートフォン120および息子のスマートフォン190との位置関係を判断した結果を記している。
図6の(b)から、2016年8月12日19時2分から同日19時6分までに、父のスマートフォン110と母のスマートフォン120との距離が「Near」、すなわち約1m内の距離であったことが判る。また、同日19時7分以降は「Unknown」、すなわち検出できていないことから、父のスマートフォン110が、母のスマートフォン120が発信するビーコンが届かない距離まで離れていたことが判る。
同様に、2016年8月12日19時2分から同日19時3分までは、父のスマートフォン110と息子のスマートフォン190が「Far」、つまり約10m内の距離であったことが判る。そして同日19時4分からは、父のスマートフォン110が、息子のスマートフォン190が発信するビーコンが届かない距離まで離れていたことが判る。
それぞれのスマートフォンには、コンテンツ管理機器100へのコンテンツ自動アップロードなどの目的で固有のアプリケーションをインストールすることが想定される。このアプリケーションを利用して、家族が利用する機器のビーコン識別情報を共有しておくことで、特定の時刻に近い場所に居たのか、居なかったのかを、GPSによる場合よりも高精度に判定することができる。
なお、発信側機器がビーコン発信中に、受信側機器がビーコンを受信しなければならないという、発信と受信とのタイミング調整の課題がある。どちらの機器も比較的高精度(例えば秒精度)で時刻が同期されているとすると、それぞれが毎分0秒を中心としてビーコン発信処理とビーコン受信処理とを実行させることで、タイミング調整の課題を解決できる。そして、タイミングの差異によるビーコンの検出失敗、又は、無駄なビーコン発信や受信待ちによる電力消費を抑えることができる。
図7Aは、上記の判定処理を説明する図である。図7Aは、実施の形態1の図2と同様に、父のスマートフォン110と、母のスマートフォン120と、家族共有のカメラ130とのそれぞれが撮影したコンテンツを撮影時刻によって時系列に並べて示したものである。また、図7Aには、実施の形態1における家族イベントの特定方法により特定される家族イベントA及びBが示されている。
コンテンツ管理機器100は、父のスマートフォン110からビーコンの受信履歴を受信し、ビーコンの受信状況とビーコン送信機器との距離判断の結果を入手する。コンテンツ管理機器100の演算部101は、このビーコンの受信履歴から父のスマートフォン110と母のスマートフォン120との距離を算出する。その結果、演算部101は、父と母とが特定の距離(例えば10m以内の距離)に居なかったと判定することで、家族イベントがなかったものと判断し、家族イベントの有無の判断精度を高めることが可能である。
例えば、図7AのイベントAの時間帯のビーコン受信履歴情報から、父のスマートフォン110と母のスマートフォン120との間で、一回もビーコン受信が成功しなかったとする。これは、父のスマートフォン110が発信するビーコンが1回たりともこの時間帯に母のスマートフォン120で受信できなかっただけでなく、逆に母のスマートフォン120が発信するビーコンが1回たりともこの時間帯に父のスマートフォン110で受信できなかったことを意味している。このような場合には、このイベントAの時間帯に父のスマートフォンと母のスマートフォンが10m程度の近接距離にはなかったと判断できるため、このイベントAは少なくとも父と母が同時に参加した家族のイベントではない、と判断することができる。
このように、演算部101は、実施の形態1における特定方法では家族イベントとして特定されたイベントAの時間帯であっても、父のスマートフォン110と母のスマートフォン120とが特定の距離以内に存在しなかったと判定すると、イベントAは、家族イベントではなかったと判定する。
一方、図7AのイベントBの時間帯に、父のスマートフォン110と母のスマートフォン120との間でビーコン受信がどちらか片方向だけでも1回以上成功していた場合、父と母が同じイベントに参加していたと判断して、イベントB(に属するコンテンツ)を父と母、もしくは家族全員を対象とした許容コンテンツとして演算部101は管理する。
このように、本変形例では、演算部101は、複数のグループのそれぞれについて、当該グループに属する所定数以上のコンテンツが撮影された期間内にビーコン信号を上記1以上の端末それぞれが受信したと判定した場合に、当該グループに属する所定数以上のコンテンツを、複数の端末による提示が許容される許容コンテンツとして管理する。
また、本変形例では、端末装置間でビーコンを送受信することでお互いの距離を測り、記録したビーコンデータを各端末装置が蓄積し、そしてコンテンツ管理機器100が端末装置から写真等のコンテンツの更新と共に各端末装置のビーコン受信データを入手する。コンテンツ管理機器100の演算部101は、このビーコン受信データから端末装置の位置関係を知り、端末装置が同じイベントに参加していたかを判断するので、集められたコンテンツの関連性が詳細に判断でき、またコンテンツの纏まりの有無を精度良く判断できる。そのために本変形例では、複数の端末装置から集められたコンテンツを、プライバシー性又は秘匿性を考慮して表示の判断又は管理することを実現する。
以上のように、本変形例に係るコンテンツ管理機器100は、図7Bに示されるように、記憶部103と、管理部101Aとを備える。管理部101Aは、例えば実施の形態1における演算部101が、所定のプログラムをプロセッサを用いて実行することで実現される。
記憶部103は、(a)複数の端末のうちの少なくとも1つである第一端末による撮影により生成されたコンテンツと、(b)コンテンツが撮影された時刻と、(c)上記撮影がなされた時刻を含む期間内に、複数の端末のうちの少なくとも1つである第二端末が電波で送信したビーコン信号を、複数の端末のうちの第二端末を除く1以上の端末それぞれが受信したか否かを示す履歴と、を記憶している。
管理部101Aは、記憶部103を参照して、上記期間内にビーコン信号を1以上の端末それぞれが受信したと判定した場合に、上記コンテンツを、複数の端末による提示が許容される許容コンテンツとして管理する。なお、管理部101Aは、上記コンテンツを許容コンテンツとして管理するための情報を出力してもよい。なお、第一端末と第二端末とは、同一の端末であってもよいし、互いに異なる端末であってもよい。
ここで、第二端末は、繰り返し設定される所定時刻にビーコン信号を送信するようにしてもよい。その場合、1以上の端末それぞれは、所定時刻を含む受信待ち期間内にビーコン信号の受信のための待ち状態をとり、受信待ち期間内にビーコン信号を受信したか否かを示す履歴を生成する。生成された履歴は端末それぞれからコンテンツ管理機器100へ送信され、記憶部103に記録される。
図7Cは、本変形例に係るコンテンツ管理機器100の制御方法を示すフロー図である。
図7Cに示されるように、ステップS101において、管理部101Aは、記憶部103を参照して、上記期間内にビーコン信号を1以上の端末それぞれが受信したか否かを判定する。上記期間内にビーコン信号を1以上の端末それぞれが受信したと管理部101Aが判定した場合に、ステップS102に進み、そうでない場合には、図7Cに示される一連の処理を終了する。
ステップS102において、管理部101Aは、上記コンテンツを、上記複数の端末による提示が許容される許容コンテンツとして管理する。ステップS102を終えたら、図7Cに示される一連の処理を終了する。
例えば、図7Dのようにコンテンツ管理機器に登録されたスマートフォン端末6台が所定の時間帯にそれぞれのビーコンを1回でも受信したか否かを整理できたとする。ここでは、端末1のビーコンは端末2、端末3で受信に成功しており、端末2のビーコンは端末4で受信に成功しており、端末3のビーコンは端末1で受信に成功している。また、その他の端末同士ではビーコンの受信が成功していない。
これは、図7Eに示したような関係である。それぞれの端末からはビーコンが発信されたが、受信できたビーコンだけを矢印で結ぶと図7Eのような関係となる。
ここで上記の管理部101Aは、ビーコンの送受信に成功したペア(図7Eの矢印で結ばれた端末同士)を結び付け、結果として、図7Eの矢印で繋がれた端末群が当該時間帯にビーコンが届くような近くの場所に位置していたと判断する。したがって、この例では、端末1、端末1から近い端末2と端末3、端末1から近い端末2に近い端末4の4台が、当該時間に近くにあったと判断される。また逆に、どの端末ともビーコンの送受信に成功していない端末5、端末6は、端末1などとはビーコンが届かないほど遠くにあったと判断される。したがって、図7Dもしくは図7Eの場合には、端末1、端末2、端末3、端末4の間ではそれぞれが撮影したコンテンツを共有しても同一のイベントに参加していたと判断できるため共有に起因するリスクが少なく、それらのコンテンツは許容コンテンツとして、これらの端末(端末1〜端末4の4台)に対しては管理される。また、それらのコンテンツは端末5、端末6に対しては許容コンテンツとして管理せず、提示を禁止するようにしても良い。
管理部101Aは、コンテンツを撮影した第一の端末と、第一の端末がコンテンツを撮影した時刻を含む所定時間内に、すくなくとも第一の端末を含んでビーコンの送受信が成功した端末同士から成る集合を特定し、前記コンテンツを前記集合に含まれる端末に対してのみ、またはそれら端末の所有者に対してのみ、提示することを許容するように管理する。
また、管理部101Aは、上記のように構成された集合がコンテンツ管理機器100に登録された端末の内、所定の割合を超えた時点で、かつ/または、所定の端末が加わった時点で、全ての登録端末に対して許容コンテンツとして管理するようにしても良い。
これにより、コンテンツ管理機器100は、プライバシー性又は機密性の問題を有効に解決し得る。
以上のように、コンテンツ管理システム1は、複数の端末110等と、複数の端末110等に接続し、複数の端末110等により生成されたコンテンツを管理するコンテンツ管理機器100とを備える。複数の端末110等は、生成するコンテンツと、電波を用いたビーコン信号とを送受信する。
コンテンツ管理機器100は、記憶部と管理部とを備える。なお、記憶部は、上記の記憶部103に相当する。また、管理部は、上記の演算部101に相当する。
記憶部は、(a)複数の端末110等の1つである第一端末により生成されたコンテンツと、(b)上記コンテンツが生成された時刻と、(c)上記時刻を含む期間内に、複数の端末110等のうちの第一端末が送信したビーコン信号を、複数の端末110等のうちの第一端末以外の端末が受信成功もしくは失敗しているのかを示す情報と、を記憶している。
演算部は、上記コンテンツが生成された時刻を含む時間帯において、複数の端末110等のうちの第一端末とは異なる端末であって、第一端末が送信したビーコン信号を受信成功している端末に、第一端末が生成したコンテンツの閲覧を許諾する。これにより、プライバシー性又は機密性、コンテンツの閲覧操作性の問題を有効することができる。
ここで、管理部は、さらに、上記時間帯において、第一端末が受信に成功したビーコンを送信した第二端末に、第一端末が生成したコンテンツの閲覧を許諾してもよい。これにより、コンテンツ管理システムは、ビーコンの受信の成否を用いて、より容易にコンテンツの閲覧を許諾する端末を決定することができる。
また、管理部は、さらに、上記時間帯において、第二端末とのビーコンの送信及び受信の何れかが成功した第三端末に、第一端末が生成したコンテンツの閲覧を許諾してもよい。これにより、コンテンツ管理システムは、ビーコンの送信または受信の成否を用いて、より容易に、コンテンツの閲覧を許諾する端末を決定することができる。
なお、このようにして第一端末がコンテンツを生成した時刻を含む期間内に、第一端末とビーコン送受信が成功した第二端末と、同じ期間内に第二端末とビーコン送受信が成功した第三端末と、同じ期間内に第N端末とビーコン送受信が成功した第(N+1)端末と、を数珠繋ぎのように追加していくことで、第一端末が生成したコンテンツの閲覧許諾先を、第N端末を含むように増やしていっても良い。ここで、Nは2以上の整数を表す。
(実施の形態2)
次に、コンテンツ管理機器が操作者にコンテンツを表示する場合の動作とコンテンツ表示方法について図1、図8A〜図10を使って説明する。なお、上記コンテンツは、実施の形態1におけるコンテンツ管理機器が管理しているコンテンツであってもよいし、その他の任意のコンテンツであってもよい。
次に、コンテンツ管理機器が操作者にコンテンツを表示する場合の動作とコンテンツ表示方法について図1、図8A〜図10を使って説明する。なお、上記コンテンツは、実施の形態1におけるコンテンツ管理機器が管理しているコンテンツであってもよいし、その他の任意のコンテンツであってもよい。
図8Aは、本実施の形態に係るコンテンツ管理機器100の構成の説明図である。
図8Aに示されるように、本実施の形態のコンテンツ管理機器100は、記憶部103と、管理部101Aとを備える。管理部101Aは、例えば実施の形態1における演算部101が、所定のプログラムをプロセッサを用いて実行することで実現される。
記憶部103は、複数のコンテンツと、複数のコンテンツそれぞれの管理情報(撮影時刻、撮影場所や、被写体を特定する情報など)とを記憶している。
管理部101Aは、複数のコンテンツに関連する地域区分を示す文字列を決定する。ここで、管理部101Aは、複数のコンテンツを代表する代表コンテンツの撮影場所と、ユーザの自宅との距離が大きいほど、当該撮影場所を示す地域区分を大きくして、上記文字列を決定する。なお、上記の文字列は、例えば後述のオープニングテロップに用いられる。また、その他、記憶部103内でのコンテンツの格納場所を示すディレクトリ又はフォルダの名称としても用いられ得る。
ここで、管理部101Aは、さらに、複数のコンテンツを代表する代表コンテンツの撮影場所の知名度が高いほど、当該撮影場所を示す地域区分を小さくして、上記文字列を決定し、且つ/又は、複数のコンテンツを代表する代表コンテンツの撮影場所へのユーザの訪問頻度が高いほど、当該撮影場所を示す地域区分を小さくして、上記文字列を決定する。
図8Bは、本実施の形態に係るコンテンツ管理機器100の制御方法を示すフロー図である。
図8Bに示されるように、ステップS201において、管理部101Aは、複数のコンテンツと、複数のコンテンツそれぞれの撮影場所とを記憶している記憶部103から、複数のコンテンツと複数のコンテンツそれぞれの撮影場所とを取得する。
ステップS202において、管理部101Aは、ステップS201において取得した複数のコンテンツと複数のコンテンツそれぞれの撮影場所とを参照して、複数のコンテンツに関連する地域区分を示す文字列を決定する。ここで、決定の際には、管理部101Aは、コンテンツの撮影場所と、ユーザの自宅との距離が大きいほど、当該コンテンツの撮影場所を示す地域区分を大きくして、上記文字列を決定する。
また、決定の際には、管理部101Aは、コンテンツの撮影場所の知名度が高いほど、当該コンテンツの撮影場所を示す地域区分を小さくして、上記文字列を決定しても良い。
これにより、コンテンツ管理機器100は、ユーザが明示的に適切な文字列を設定しなくても、コンテンツの撮影場所に基づいて適切な地名を表現する文字列を設定することができる。
以降において、コンテンツ管理機器100について詳しく説明する。
本実施の形態のコンテンツ管理機器100は、複数の端末装置から送信された複数の写真又は動画等の映像のコンテンツを記録している。コンテンツ管理機器100は、その映像を撮影した場所情報を取得し、実施の形態1に従って、または場所情報から撮影した場所が所定の距離内である映像を判別してグループとし、このグループに属する映像を纏めて表示用コンテンツを作成する。この表示用コンテンツを表示する際に最初の画面にグループに属する映像の場所情報と特定場所との距離に応じて地域区分の大きさを変更し、選択され表示される際に表記される地域名を変えて表示する。
図8Cは、ある人物の旅程を地図上で示した図である。例えば、自宅住所が大阪府大阪市北区中之島XX−YYであるコンテンツ管理機器100の所有者(以下、所有者と記す)が、成田空港(千葉県成田市古込1−1)を経由して、ケアンズにある小学校(オーストラリア クイーンズランド ケアンズ パラマッタパーク モルグレイブロード122パラマッタ州立学校)を訪問したとして説明する。所有者は、端末装置であるスマートフォン110を所持しており、訪問先において写真又は動画を撮影している。
所有者の撮影した写真又は動画等のコンテンツは、コンテンツ管理機器100にも記録される。所有者は、コンテンツ管理機器100を用いて記録されたコンテンツを、表示装置であるTV180に映し出して楽しむことができる。
[2−1.構成]
本実施の形態を説明するのに、図1を用いて説明する。コンテンツ管理機器100は、所有者である父の自宅の大阪府に設置されている。所有者である父と、その家族である母及び息子とが、旅行中に撮影した写真又は動画等のコンテンツは、コンテンツ管理機器100の記憶部103に記録されている。演算部101は、所有者が保持する端末装置のスマートフォン110、母のスマートフォン120、又は、息子のスマートフォン(図示せず)のそれぞれのGPS情報を付加したコンテンツ、またそのGPS情報から住所へ変換するデータベースを用いて、家族旅行で辿った地点の住所を得ることができる。ここで、上記データベースとして、GPS情報から住所へ変換するクラウドサービスへのWebAPIによる問い合わせにて代用することもできる。
本実施の形態を説明するのに、図1を用いて説明する。コンテンツ管理機器100は、所有者である父の自宅の大阪府に設置されている。所有者である父と、その家族である母及び息子とが、旅行中に撮影した写真又は動画等のコンテンツは、コンテンツ管理機器100の記憶部103に記録されている。演算部101は、所有者が保持する端末装置のスマートフォン110、母のスマートフォン120、又は、息子のスマートフォン(図示せず)のそれぞれのGPS情報を付加したコンテンツ、またそのGPS情報から住所へ変換するデータベースを用いて、家族旅行で辿った地点の住所を得ることができる。ここで、上記データベースとして、GPS情報から住所へ変換するクラウドサービスへのWebAPIによる問い合わせにて代用することもできる。
そして、演算部101は、GPS情報を用いてコンテンツを編集し、例えばGPS情報ごとにコンテンツをグループとして纏めて、このグループを紹介する画面とグループに属するコンテンツをTV180に表示し、また時刻情報をもとに時系列順に並べて表示することができる。
[2−2.動作]
ここで、家族旅行においてその旅行先をTV180に表示する場合に、詳細すぎる住所表現は望ましくないケースがある。例えば、この家族旅行に関わるコンテンツを纏めたダイジェスト動画の先頭ページで「パラマッタパークへの旅行」というテロップを表示し、またこの家族旅行の写真を閲覧アプリで表示する場合に、その表示場所の表記に「パラマッタパーク」と記述しても、この地名の知名度が低い場合には理解しにくいと考えられる。
ここで、家族旅行においてその旅行先をTV180に表示する場合に、詳細すぎる住所表現は望ましくないケースがある。例えば、この家族旅行に関わるコンテンツを纏めたダイジェスト動画の先頭ページで「パラマッタパークへの旅行」というテロップを表示し、またこの家族旅行の写真を閲覧アプリで表示する場合に、その表示場所の表記に「パラマッタパーク」と記述しても、この地名の知名度が低い場合には理解しにくいと考えられる。
つまり、個人コンテンツを管理する場合には、訪問先の距離、訪問先の知名度、訪問先への訪問回数などによって、その訪問先を示す、理解されやすい表現が変化する。より具体的には、訪問先であって、あまり行かない場所の住所を如何に表現するかによって、理解し易さ、扱いやすさが変わってくる。
そこで、コンテンツ管理機器100は、コンテンツの内容を紹介する場合に、画面に表示する表現をどのようにするかの判断を、表示するコンテンツに関連する情報、例えばコンテンツに付加された情報を用いて、あらかじめ決められた基準によって決定する。本実施の形態では、コンテンツ管理機器100が設置されている場所を自宅とし、この自宅とコンテンツに付加された場所情報との距離によって表示する内容を変える例を記す。
なお、自宅の位置は、父又は母などのユーザから明示的に設定されてもよいし、ユーザのスマートフォンが自宅のネットワーク(例えば、WiFiやLAN接続)を用いてコンテンツをコンテンツ管理機器100に提供するときの、当該スマートフォンの位置から取得してもよい。なお、ユーザの自宅の位置が引っ越しなどにより変更される場合には、コンテンツ管理機器100が保有している自宅の位置を示す情報も変更されるべきである。自宅の位置の変更は、父又は母などのユーザから明示的に設定されてもよいし、ユーザのスマートフォンがコンテンツをコンテンツ管理機器100に自宅のネットワーク(例えば、WiFiやLAN)を介して提供するときの、当該スマートフォンの位置の変化から取得してもよい。なお、自宅の位置の変更に対応するため、コンテンツ管理機器100は、過去の自宅の位置を時刻情報と紐付けて管理する。例えば、コンテンツ管理機器100は、2000年1月から2002年12月までの自宅の住所は、東京都千代田区AAであり、2003年1月から2013年12月までの自宅の住所は、大阪府大阪市BBであるというように、過去の自宅の位置を時刻情報と紐付けて管理する。
図9の(a)は、第1の基準の例を示している。第1の基準の例では、撮影した場所と自宅との距離を基準にして、コンテンツを紹介する表示を決定する。図9の(a)は、撮影した場所から自宅までの距離が、近距離(例えば10Km以下)、中距離(例えば10Km〜100Km)、遠距離(例えば100Km以上)の3つの範囲に分けて、それぞれの範囲の住所表記のレベルを、「細かく」、「中程度」及び「粗く」のいずれかとする、基準の一例である。これは上述の通り、撮影した写真又は動画に付されるGPS情報を撮影場所として判断しても良い。なお、上記のように、住所表記のレベルを「細かく」、「中程度」及び「粗く」のいずれかとすることは、それぞれ、撮影場所の地域区分を「小さく」、「中程度」及び「大きく」にいずれかとすることに相当する。
この分け方を用いると、図9の(a)の最も右の列に示される例のように、自宅からイベントの撮影場所までの距離に応じて、近距離であれば「区」、中距離であれば「市町村」、遠距離であれば「都道府県」又は「国」のようなレベルで住所表記を用いて、コンテンツの内容を紹介するための表示を行う。
図9の(b)は、第2の基準の例である。第2の基準では、第1の基準である、自宅からイベント撮影地点までの距離、に加え、その訪問都市の知名度、又は、過去の訪問回数を考慮して住所表記レベルを決定する。住所表記レベルは、「1(もっとも細かく)」から「6(もっとも粗く)」までの6段階に設定され得る。例えば、遠距離でかつ知名度が低い都市であれば、都道府県名又は国名をイベント撮影地点として使うことが考えられる。逆に、近距離で何度も訪問している場所であれば、区名、町名、又はランドマーク(公園名など)をイベント撮影地点として使うことが考えらえる。
また、表示の判断の基準は、イベント撮影地点が自宅とは異なる国(国外)であった場合には、自宅からの距離によらず、国名、又は、知名度がある場合には都市名、で表現するようにしてもよい。
コンテンツ管理機器100は、図9の(a)又は(b)の基準表を記憶部103に保持しておき、演算部101がコンテンツを編集するときに、コンテンツの付加情報と図9の(a)または(b)の基準表から、コンテンツを紹介する際の表示を決定する。
図10は、オーストラリアのケアンズへ家族旅行に行った場合に、その家族旅行中に撮影した複数の写真を1つのダイジェスト動画に編集したコンテンツを作成し、そのコンテンツのオープニングテロップの一例を示している。このオープニングテロップは、例えばTV180に表示される。
演算部101は、家族旅行中に所有者がスマートフォン110で撮影した写真又は動画などのコンテンツに付加された撮影場所を示すGPS情報から、コンテンツの撮影場所が自宅から遠距離(100Kmより遠い)であると判断する。そして演算部101は、記憶部103に記録されている図9の(a)の基準の表から、これらのコンテンツを表示する際のオープニングページでの表示に、「都道府県」または「国」を使うことを決定する。その結果、演算部101はGPS情報から撮影場所の表記を「オーストラリア」と決定し、図10の(b)のように表示する。
また、コンテンツに付加された情報だけでなく、他の情報も活用して表記を決定する例もある。ここでは、「自宅からの距離」のほかに「知名度」に応じてコンテンツのオープニングテロップの表記を決定する例を説明する。
コンテンツ管理機器100の演算部101は、記憶部103に記録されているコンテンツおよびその付加情報から、この家族の旅行先の統計を求め、旅行先の訪問回数を計数して記憶部103に保持している。そして訪問回数が特定回数以上と判断された場合は、この旅行先の知名度は高いものと判断する。演算部101は、コンテンツの付加情報による自宅からの距離と知名度とに基づいて、図9の(b)の表から判断してオープニングテロップの表示を決定する。
演算部101は、記憶部103に記録されている複数の写真又は動画のコンテンツに、付加されたGPS情報と撮影日情報とに基づいて、同じ撮影場所であっても撮影年月が異なる撮影の塊が複数あると判定される場合、この撮影場所への訪問回数が多いと判断する。
そして、演算部101は、図9の(b)から、この家族旅行について撮影場所は自宅からの距離が「遠距離」で、「知名度/訪問回数が多い」ものであるから、住所表記レベルを「3(やや細かく)」すなわち「市町村または都道府県または国」のいずれかを表記すると決定し、図10の(a)に示されるオープニングテロップを備えたコンテンツの纏めをTV180へ出力するように制御する。図10の(b)では、国名である「オーストラリア」ではなく、より地域区分が小さく、より地域性が表現されている地名である「ケアンズ」を表示する。
[2−3.効果など]
本実施の形態では、コンテンツ管理機器100の演算部101が、写真又は動画などのコンテンツに付加される情報などから、自宅から遠く離れた場所に関わるコンテンツ、又は、海外に行った場合に関わるコンテンツに関わる表示画面を作るときに、所有者、ユーザーまたは視聴者がそのコンテンツを見るときに分かり易い住所表記(ここでは、有名な都市名又は国名)で表示できるように動作する。つまり、演算部101は、コンテンツの撮影場所に関わる「パラマッタパーク」又は「モルグレイブロード」といった馴染みの少ない地域名、又は、伝わりにくい表現を避けるように処理を行い、理解しやすい地名情報を含んだオープニングテロップを作成し、表示することができる。
本実施の形態では、コンテンツ管理機器100の演算部101が、写真又は動画などのコンテンツに付加される情報などから、自宅から遠く離れた場所に関わるコンテンツ、又は、海外に行った場合に関わるコンテンツに関わる表示画面を作るときに、所有者、ユーザーまたは視聴者がそのコンテンツを見るときに分かり易い住所表記(ここでは、有名な都市名又は国名)で表示できるように動作する。つまり、演算部101は、コンテンツの撮影場所に関わる「パラマッタパーク」又は「モルグレイブロード」といった馴染みの少ない地域名、又は、伝わりにくい表現を避けるように処理を行い、理解しやすい地名情報を含んだオープニングテロップを作成し、表示することができる。
(実施の形態3)
本発明のコンテンツ管理機器は、操作者との音声対話に応じて、操作者に求める発話指示や表示映像を適切に切り替えることで、操作者がコンテンツ管理機器の操作を自然に、また発話内容を迷わずに発音できるものである。具体的には、本実施の形態では、操作者の音声を入力して音声認識して操作信号に変換し、この操作信号に基づき複数のコンテンツである映像を判別してグループとし、このグループに属する映像を纏めて操作するための発話指示をグループに表示した画面を表示し、操作者の入力する音声を使って音声認識して、あらかじめ記録されている操作者の属性情報を特定し、この属性情報から表示する発話指示を選択し、画面に表示するものである。
本発明のコンテンツ管理機器は、操作者との音声対話に応じて、操作者に求める発話指示や表示映像を適切に切り替えることで、操作者がコンテンツ管理機器の操作を自然に、また発話内容を迷わずに発音できるものである。具体的には、本実施の形態では、操作者の音声を入力して音声認識して操作信号に変換し、この操作信号に基づき複数のコンテンツである映像を判別してグループとし、このグループに属する映像を纏めて操作するための発話指示をグループに表示した画面を表示し、操作者の入力する音声を使って音声認識して、あらかじめ記録されている操作者の属性情報を特定し、この属性情報から表示する発話指示を選択し、画面に表示するものである。
なお、上記コンテンツは、実施の形態1又は2におけるコンテンツ管理機器が管理しているコンテンツであってもよいし、その他の任意のコンテンツであってもよい。
以下にその一例について図面を使って説明する。
[3−1.構成]
本実施の形態に係るコンテンツ管理機器100について説明する。
本実施の形態に係るコンテンツ管理機器100について説明する。
図11Aに示されるように、本実施の形態のコンテンツ管理機器100は、記憶部103と、提示制御部101Bと、受付部101Cと、管理部101Aとを備える。管理部101A、提示制御部101B、及び受付部101Cは、例えば実施の形態1における演算部101が、所定のプログラムをプロセッサを用いて実行することで実現される。受付部101Cの実現には、I/F部102も用いられ得る。また、コンテンツ管理機器100は、実施の形態1におけるTV180に相当する提示部180Aに接続されている。なお、提示部180Aは、コンテンツ管理機器100が備えるものであってもよい。
記憶部103は、複数のコンテンツと、複数のコンテンツそれぞれに紐付けられている1以上のタグとを記憶している。タグとは、当該コンテンツに関する付加情報であり、例えば、撮影日時、撮影場所(GPS情報、地名情報)、被写体の識別情報、被写体の表情情報(笑顔度合、目の開閉度、口の開閉度)、近くのランドマーク名称、撮影場所の気温、湿度、天気などを表す情報である。
提示制御部101Bは、複数のコンテンツのうち検索の対象となるコンテンツに紐付けられている1以上のタグを提示部180Aに提示させる。
受付部101Cは、提示制御部101Bが提示させた1以上のタグに対するユーザによる操作を受け付ける。
管理部101Aは、上記操作を受付部101Cが受け付けた場合に、上記操作の対象であるタグの内容を検索条件として複数のコンテンツを検索することで得られる1以上のコンテンツを新たな検索の対象とし、新たな検索の対象である1以上のコンテンツに紐付けられている1以上のタグを提示部180Aに提示させる。
ここで、管理部101Aは、さらに、提示部180Aに提示させる1以上のコンテンツの個数が所定数以下である場合に、コンテンツを再生させる操作を受け付けるための情報を提示部180Aに提示させる。コンテンツを再生させる操作を受け付けるための情報の提示の一例は、コンテンツを再生させる操作を受け付けるためのボタン画像をTV180に表示することである。
また、管理部101Aは、さらに、提示部180Aに提示させる1以上のコンテンツに係る検索条件が所定数以上である場合に、検索条件を減らす操作を受け付けるための情報を提示部180Aに提示させる。検索条件を減らす操作を受け付けるための情報の提示の一例は、検索条件を減らす操作を受け付けるためのボタン画像をTV180に表示することである。
図11Bは、本実施の形態に係るコンテンツ管理機器100の制御方法を示すフロー図である。
図11Bに示されるように、ステップS301において、管理部101Aは、複数のコンテンツと、複数のコンテンツそれぞれに紐付けられている1以上のタグとを記憶している記憶部103を参照して、複数のコンテンツのうち検索の対象となるコンテンツに紐付けられている1以上のタグを提示部180Aに提示させる。
ステップS302において、受付部101Cは、ステップS301で提示させた1以上のタグに対するユーザによる操作を受け付ける。
ステップS303において、上記操作を受け付けた場合に、前記操作の対象であるタグの内容を検索条件として複数のコンテンツを検索することで得られる1以上のコンテンツを新たな検索の対象とし、新たな検索の対象である1以上のコンテンツに紐付けられている1以上のタグを提示部180Aに提示させる。
以降において、コンテンツ管理機器100について詳しく説明する。
本実施の形態の構成を説明するのに、図1を用いて説明する。ここではすでに説明している構成については省略する。
本実施の形態のコンテンツ管理機器100は、実施の形態1及び2のコンテンツ管理機器100に加えて音声認識機能を備える。記憶部103には、父のスマートフォン110、母のスマートフォン120または家族共有のカメラ130からそれぞれが保有する映像、音楽およびドキュメント等のコンテンツを入力して管理するとともに、父又は母の複数の音声データが記録されている。演算部101は、マイク170を介して入力された音声とマッチングすることで音声認識処理を実行する。また、記憶部103には、父、母又は家族に関する属性情報が記録されていて、演算部101は、音声認識処理により発話者(操作者)を特定すると、その発話者の属性情報も特定する。
演算部101は、記憶部103に記録される映像およびそれに付加されたタグを解析し、関連性のある映像をグループとして纏める。そして、演算部101は、グループに映像を選択するために利用する操作画面を作成し、入出力部104を介してTV180へ出力する。選択するために利用する操作画面には、発話者(操作者)が発話するための発話指示をジャンル毎に表示する。
操作画面には、タグ情報に基づき纏められた複数のコンテンツを含むジャンル毎にアイコンが表示される。アイコンには、発話指示のジャンル名とそのジャンルのグループに属するコンテンツの数とが表示されている。
発話者(操作者)はTV180の画面を見ながら、選択するアイコンに表示されるジャンル名を発話すると、そのジャンルに纏められたコンテンツが、さらに複数のジャンルにより細かくグループ分けされ、それぞれのジャンル毎に属するコンテンツの件数とジャンル名が記載されたアイコンが表示される。
[3−2.動作]
コンテンツ管理機器100は音声による指示を受け付けることで、各種操作を制御する音声操作機能を備える。演算部101は、マイク170、I/F部102を通して入力された音声信号を、記憶部103に記録される音声データとマッチングし、音声信号を対応する操作信号に変換する。
コンテンツ管理機器100は音声による指示を受け付けることで、各種操作を制御する音声操作機能を備える。演算部101は、マイク170、I/F部102を通して入力された音声信号を、記憶部103に記録される音声データとマッチングし、音声信号を対応する操作信号に変換する。
図11Cの(a)は、コンテンツ管理機器100が起動したときにTV180に表示する画面であり、音声によりコンテンツ管理機器100を操作するための操作画面の一例である。操作者が、例えば、「パナソニック」とマイク170に呼びかけると、マイク170から音声「パナソニック」が入力され、事前に登録されている起動ワード(この場合「パナソニック」)と認識して、図11Cの(a)にある操作画面をTV180に表示する。このように音声により起動した場合は、音声操作に適したGUI(Graphical User Interface)を表示する操作画面を表示するが、リモコンで起動した場合には、従来のリモコン操作に適したGUIが表示されるようにしてもよい。
また、本実施の形態では記憶部103に音声データを記憶し、演算部101で音声認識を実行する例を説明するが、コンテンツ管理機器100が入力された音声信号を、インターネット160を通して接続されているサーバー(図示せず)へ送信し、サーバーで音声認識を行い、その認識結果をコンテンツ管理機器100へ返すようにしてもよい。
コンテンツ管理機器100には、家族の個人コンテンツを一括して、しかも大量の映像が保管されているため、TV180への表示形式が日付又は撮影場所で階層的かつ網羅的にコンテンツを選択していくGUIでは閲覧性が悪い。本実施の形態では、関連する写真又は動画を所定の条件によってまとめた枝(ジャンル)として、お薦めコンテンツを提示する。コンテンツ管理機器100は、このようにお薦めを提示するために、あらかじめ記憶部103に記録されている映像のタグ又は映像を解析し、その映像のタグ、又は、映像の各シーンが解析結果から関連性が高いと判断されるコンテンツを纏め、それらのコンテンツをグループとして枝の先にアイコンとして表示する形式をとる。
TV180の画面に同時に表示するジャンルの個数は、表示の一覧性を高めるため5〜9種類のジャンルに自動で調整され、それぞれのジャンルごとにアイコンが作られて枝分けして表示される。本実施の形態では、時間で纏められたジャンル(「2017年」、「最近のパパ」)、撮影場所で纏められたジャンル(「枚方パーク」、「大阪市))、撮影された被写体で纏められたジャンル(この家族の長男である「太郎」、複数の人が一緒に写った映像を集めた「集合写真」)などから構成されるように自動的に選択及び決定される。
本実施の形態では、図11Cの(a)に示すとおり、コンテンツ管理機器100は、マイクを模したアイコン(「マイク」アイコンともいう)1101をTV180の画面の中央に配置して、ユーザーに操作を促す指示として「探したいキーワードを喋ってね」というメッセージ1108を表示する。この表示によって、どのような検索ワードでも受け付けることと、ユーザーからの音声操作命令をコンテンツ管理機器100が待っている状態であることとをユーザーに伝えている。
この画面を表示した状態のまま所定時間何も操作がないと、演算部101は、図11Cの(b)のような、「マイク」アイコン1101の周りにお薦めのコンテンツをジャンルごとに分けて、「マイク」アイコン1101から各ジャンルのアイコンへ枝が伸びている様子を示す画面を表示する。
図11Cの(b)は、コンテンツ管理機器100が、TV180の画面において、「マイク」アイコン1101の周囲に「2017年」アイコン1102、「太郎」アイコン1103、「枚方パーク」アイコン1104、「大阪市」アイコン1105、「集合写真」アイコン1106、及び、「最近のパパ」アイコン1107を表示している状態を示している。上記それぞれのアイコンは、ジャンル名(例えば「2017年」又は「太郎」など)とそのジャンルに所属するコンテンツ数を表示する。例えば「2017年」アイコン1102であれば759件の写真又は動画があることを意味する。
このように、コンテンツ管理機器100は、どんなジャンルのコンテンツが、どれくらいの個数あるのか、を分かり易く表示している。また、お薦めのジャンルをこのように自動的に生成して表示することで、音声操作でありがちな、何を話したら良いのか分からない、という課題を避けることができる。このようにコンテンツ管理機器100の演算部101が、記憶部103に記録されているコンテンツを解析し、その結果をユーザーまたは操作者が理解しやすいような画面を作成してTV180に表示する。
図11Cの(b)では、音声入力を促す「マイク」アイコン1101から放射線状に枝が伸び、それぞれの先にはそれぞれジャンル名とそのジャンルに含まれるコンテンツの数を記したアイコンが6つ表示され、さらに画面下方に操作指示を促す「探したいキーワードを喋ってね」というメッセージ1108が表示されている。そのため、操作者は、音声でジャンル名を選択することを理解できる。
次に、図12の(a)は、図11Cの(b)と同じ6つのお薦めのアイコンを表示しているのに加えて、アイコンのジャンル名の読みが難しい漢字にふりがな(ルビ)を追加して表示している例を示している。昨今の音声認識技術では、発話者の声紋から発話者を特定し、性別又は年齢といった話者属性の推定が精度高くできる。例えば、発話者特定に関する技術は、特許文献2及び3に記載されるような技術も存在する。
また、コンテンツ管理機器100の記憶部103に、家族情報として家族全員分の顔照合用「顔写真」、家族の「名前」、家族内での「呼ばれ方」、「生年月日」などを記録しておけば、演算部101は、記録された情報から家庭内に何歳の子供が居るのかが分かり、ジャンル名に子供の年齢に応じた適切なルビを付与することが可能となる。また、例えば演算部101は、発話者がマイク170を通して入力した音声から、音声認識技術を用いて発話者が子供であると推定した場合に限りルビをふるようにすることで、大人にも子供にも適切なジャンル名の表示を行ってもよい。
また演算部101は、発話者の音声から、発話の状態から子供だけで操作、または視聴していると判断できる場合には、ジャンル名の漢字にルビを付すのではなく、図12の(b)に示されるようにジャンル名から漢字を減らして表示することもできる。言い換えれば、演算部101は、上記場合には、漢字がより少ないジャンル名の記載を採用して表示することができる。
これもコンテンツ管理機器100に登録された生年月日情報、又は、発話者の推定結果から、発話者の漢字読解力を推定して、ジャンル名を漢字で表示するか、漢字とルビ(ふりがな)で表示するか、ひらがなで表示するか、を選択するようにしてもよい。また視聴者又は発話者の年齢、海外渡航経験、語学力に応じて、海外旅行の場合などには、「ケアンズ」とカタカナで都市名を表示せずに、「Cairns」と英文字で表示してもよいし、英語表記の上にカタカナで「ケアンズ」と添えてもよい。
次に、所有者の両親がコンテンツ管理機器100を音声操作するときに、TV180に表示する操作画面の一例を図13に示す。図13の(a)は、所有者とその両親とが同居する家庭での表示例を示している。
コンテンツ管理機器100の所有者の両親が写真を見る時には、「パパの写真を見せて」とは言わず息子である所有者の名前(「洋」)を使い、「最近の洋の写真を見せて」と発話をすることが自然である。演算部101は、マイク170から入力される音声から、音声認識技術を用いて発話者を判断し、現在の発話者(操作者)を所有者の父母であることを推定すると、父母が発話し易いようにアイコンのジャンル名を変更する。図13の(a)では、ジャンル名に発話者の息子の名前を使用し、「最近の洋」アイコン1301のように表示する。加えて演算部101は、記憶部103に記録される父母の年齢情報から、発話者の父母が高齢だと判断する場合には、ジャンル名の表記の寸法を、一般に表記するときより大きくすることで、発話者が発話しやすい画面を表示する。
図13の(b)は、他の操作画面の一例であり、発話指示のジャンル名が家族内の呼ばれ方に応じて表示されている。音声認識技術により現在の発話者(操作者)を所有者の子供であると推定し、家族情報から子供が父のことを「ピロ」と呼ぶことがわかると、「最近のパパ」でなく「最近のピロ」と最近の父の映像を収めたジャンル名をアイコンに表記した「最近のピロ」アイコン1311を表示するようにしてもよい。
[3−3.効果など]
以上のようにコンテンツ管理機器100は、入力される音声から発話者を特定し、発話者の情報から発話しやすい表現(または用語)を選択し、発話しやすいように表示するので、発話者は発話しやすく無理がない音声操作を行うことができる。
以上のようにコンテンツ管理機器100は、入力される音声から発話者を特定し、発話者の情報から発話しやすい表現(または用語)を選択し、発話しやすいように表示するので、発話者は発話しやすく無理がない音声操作を行うことができる。
[3−4.実施の形態3の変形例]
図14は、音声操作での選択と共に、どのように画面表示が切り替わるかを説明する図である。
図14は、音声操作での選択と共に、どのように画面表示が切り替わるかを説明する図である。
図11Cの(b)の操作画面の状態で、「大阪市」アイコン1105が選択された場合、図14の(a)のような表示にアニメーションして切り替わる。図14の(a)では、「大阪市」に関するコンテンツが1059件あることを示す「大阪市」アイコン1401を中心に、そのまわりにコンテンツ1059件が6つのジャンルで分類され、もう一段の詳細化されて、それぞれの枝として表現される。例えば、「大阪市」で撮影されたコンテンツ1059件の内、「2017年」に撮影されたコンテンツの総数が251件であることがわかるように、図14の(a)で「2017年」アイコン1402が件数の「251」を含めて表記される。
このようにして、ジャンルごとに一段ずつ検索ワードで絞り込みを行い、目的のコンテンツに簡単に素早く辿り着くようなGUIとなっている。真ん中には既に絞り込まれたジャンルのアイコンが表示され、そこから伸びる枝に、さらなる詳細化のためのジャンルのアイコンが表示される。
図14の(b)は、図14の(a)の状態で、「2017年」アイコン1402が選択された結果のTV180の表示画面を示している。画面中央に現在の絞り込みワードである「大阪市」と「2017年」の表記、更にその総数(251件)が表示されるアイコン1403が配置されている。中央から伸びる枝には、251件をさらに効率的に分割するジャンルのアイコンが自動的に選択され、表示される。図14の(b)では6つのジャンルに分類され、例えば右上の「夏」アイコン1404で表示しているのは、「夏」というジャンルに所属するコンテンツが93件であることを示している。つまり、もともとコンテンツ管理機器100に管理されている全てのコンテンツを、「大阪市」という場所に関するキーワード、「2017年」という撮影時期に関するキーワード、さらに「夏」という時期をさらに詳細化するキーワードでグループ化して絞り込むと、93件のコンテンツが該当するということを示している。
このようにTV180の画面に表示される操作画面に表示されているアイコンに記載されている、表発話指示であるジャンル名を選択すると、選択されたアイコンに所属するアイコンをさらに複数のジャンルに分類し、それぞれジャンルに所属するコンテンツの数を計数し、TV180に各カテゴリのジャンル名とそれに含まれるコンテンツ数を記すアイコンを表記する。演算部101は、コンテンツ又はコンテンツに付加されている情報からが操作画面に表示するアイコン数を適宜決定し、TV180に表示するので、発話者は、アイコンのジャンル名を発話するだけで、選択したいコンテンツをどんどん絞り込むことができる。
次に、音声操作で数回の検索ワードを発話して絞り込みが進み、発話者が見たいコンテンツに絞り込まれたと演算部101が判定した場合の動作を次に説明する。演算部101は、ユーザーが選択したカテゴリに含まれるコンテンツの数が特定数より少ない場合(例えば、コンテンツの総数が300件を下回る場合、またはカテゴリの各枝となるカテゴリが、いずれもその所属するコンテンツ数が100件を下回る、など)、TV180に表示する操作画面に、カテゴリを示すアイコンとは異なるアイコンを表示する。
図15は、図14の(b)のTV180の操作画面から発話者が「夏」アイコン1404を選択して発話した後の操作画面を示している。発話者が「大阪市」、「2017年」および「夏」のカテゴリで絞り込んだコンテンツの数は93件であることが、画面の中心部のアイコンに表記されている。演算部101は、所属するカテゴリの数が特定数(本実施の形態では300件とする)より少ないアイコンを操作者が選択すると、操作画面にはコンテンツに関わるカテゴリのアイコンのほかに、コマンドのアイコンを表示する。そこで操作者が図14の(b)の操作画面からジャンル名「夏」を発話したため、演算部101は音声認識処理により選択されたのが「夏」アイコン1402で、所属するアイコンが300件より少ないことを認識したので、図15に示すように「プール」、「花火」、「城東区および「太郎」の4つのアイコンと、制御コマンドである「再生」アイコン1502と「戻る」アイコン1503を表示する。「再生」アイコン1502、「戻る」アイコン1503は、他のアイコンとは異なり、操作名が二重丸に囲われて表記されているので、操作者は視覚的に認識することができる。
また、ここで表示されるアイコンには、操作者が音声操作を行うための補助的な情報であればよく、必ずしも格納されたコンテンツのグループ分けされたジャンル名ではなく、操作者が次に操作しそうな(潜在的に意図しそうな制御)名称を表示するようにしても良い。図15に示すTV180の表示画面において、発話者が「再生」と言った場合には、現在選択しているアイコン1501に含まれる、「大阪市」、「2017年」および「夏」に関するコンテンツの計93件の再生が始まるように演算部101がコンテンツ管理機器100の各構成を制御し、TV180へ映像等を出力する。
このように、大量の個人コンテンツを一括管理する場合には、既存の階層的又は網羅的な、リモコン、マウス又はタッチベースのGUIではなく、音声による自由なキーワード選択で絞り込んでいけるユーザーインターフェースが、直感的かつ短時間(少ステップ)で所望のコンテンツに到達するように操作できる。また、その視聴者又は操作者を、特定又は推定することで、その人の年齢(知識)又は表現方法(呼び名)などの属性情報に応じて画面表示を更新することで、コンテンツ管理機器100を使う人間にとって自然な使い心地を提供することが可能となる。
なお、上記の実施の形態の一部又は全部は、以下の付記のようにも記載され得るが、以下の記載に限定されない。
[付記1]
複数の撮影機器からの映像を保存するコンテンツ管理方法であって、
前記映像を撮影した時刻情報を取得するステップと、
前記映像を撮影した場所情報を取得するステップと、
前記時刻情報から撮影した時刻差が所定時間内であり、さらに前記場所情報から撮影した場所が所定の距離内である映像を判別してグループとするステップと、を備え、
前記グループに属する映像を管理するコンテンツ管理方法。
複数の撮影機器からの映像を保存するコンテンツ管理方法であって、
前記映像を撮影した時刻情報を取得するステップと、
前記映像を撮影した場所情報を取得するステップと、
前記時刻情報から撮影した時刻差が所定時間内であり、さらに前記場所情報から撮影した場所が所定の距離内である映像を判別してグループとするステップと、を備え、
前記グループに属する映像を管理するコンテンツ管理方法。
[付記2]
複数の撮影機器からの映像を保存するコンテンツ管理方法であって、
前記映像のなかで第1の撮影機器で撮影した第1の映像から撮影した前記第1の時刻情報を取得するステップと、
前記映像のなかで第2の撮影機器で撮影した第2の映像から撮影した前記第2の時刻情報を取得するステップと、
前記第2の映像から取得した前記第2の時刻情報から所定時間内に撮影された前記第1の時刻情報をもつ前記第1の映像を判別し、グループとするステップと、を備え、
前記グループに属する映像を管理するコンテンツ管理方法。
複数の撮影機器からの映像を保存するコンテンツ管理方法であって、
前記映像のなかで第1の撮影機器で撮影した第1の映像から撮影した前記第1の時刻情報を取得するステップと、
前記映像のなかで第2の撮影機器で撮影した第2の映像から撮影した前記第2の時刻情報を取得するステップと、
前記第2の映像から取得した前記第2の時刻情報から所定時間内に撮影された前記第1の時刻情報をもつ前記第1の映像を判別し、グループとするステップと、を備え、
前記グループに属する映像を管理するコンテンツ管理方法。
[付記3]
複数の撮影機器からの映像を保存するコンテンツ管理方法であって、
前記映像のなかで第1の撮影機器で撮影した第1の映像から撮影した第1の場所情報を取得するステップと、
前記映像のなかで第2の撮影機器で撮影した第2の映像から撮影した第2の場所情報を取得するステップと、
前記第2の映像から取得した前記第2の場所情報から所定の距離以内で撮影された前記第1の場所情報をもつ前記第1の映像を判別し、グループとするステップと、を備え、
前記グループに属する映像を管理するコンテンツ管理方法。
複数の撮影機器からの映像を保存するコンテンツ管理方法であって、
前記映像のなかで第1の撮影機器で撮影した第1の映像から撮影した第1の場所情報を取得するステップと、
前記映像のなかで第2の撮影機器で撮影した第2の映像から撮影した第2の場所情報を取得するステップと、
前記第2の映像から取得した前記第2の場所情報から所定の距離以内で撮影された前記第1の場所情報をもつ前記第1の映像を判別し、グループとするステップと、を備え、
前記グループに属する映像を管理するコンテンツ管理方法。
[付記4]
複数の撮影機器からの映像を保存するコンテンツ管理方法であって、
前記映像のなかで第1の撮影機器で撮影した第1の映像から撮影した第1の時刻情報を取得するステップと、
前記映像のなかで第2の撮影機器で撮影した第2の映像から撮影した第2の時刻情報を取
得するステップと、
前記第1の撮影機器と前記第2の撮影機器との距離に関する距離情報を入力するステップと、を備え、
前記距離情報から前記第1の撮影機器と前記第2の撮影機器が所定の距離以内にあって、前記第2の映像から取得した前記第2の時刻情報から所定時間内に撮影された前記第1の時刻情報をもつ前記第1の映像を判別し、グループとするステップと、を備え、
前記グループに属する映像を管理するコンテンツ管理方法。
複数の撮影機器からの映像を保存するコンテンツ管理方法であって、
前記映像のなかで第1の撮影機器で撮影した第1の映像から撮影した第1の時刻情報を取得するステップと、
前記映像のなかで第2の撮影機器で撮影した第2の映像から撮影した第2の時刻情報を取
得するステップと、
前記第1の撮影機器と前記第2の撮影機器との距離に関する距離情報を入力するステップと、を備え、
前記距離情報から前記第1の撮影機器と前記第2の撮影機器が所定の距離以内にあって、前記第2の映像から取得した前記第2の時刻情報から所定時間内に撮影された前記第1の時刻情報をもつ前記第1の映像を判別し、グループとするステップと、を備え、
前記グループに属する映像を管理するコンテンツ管理方法。
[付記5]
複数の撮影機器からの映像を入力する入力部と、
前記映像を記録する記憶部と、
前記記憶部に記憶されている前記映像に関する時刻情報と場所情報から、所定の時間内にあり、かつ所定の距離以内で撮影された映像をグループと判別する演算部と、
前記グループに属する映像を纏めて出力する出力部を備えるコンテンツ管理機器。
複数の撮影機器からの映像を入力する入力部と、
前記映像を記録する記憶部と、
前記記憶部に記憶されている前記映像に関する時刻情報と場所情報から、所定の時間内にあり、かつ所定の距離以内で撮影された映像をグループと判別する演算部と、
前記グループに属する映像を纏めて出力する出力部を備えるコンテンツ管理機器。
[付記6]
第1の撮影機器で撮影した第1の映像と前記第1の映像を撮影した時刻に関する第1の時刻情報と、第2の撮影機器で撮影した第2の映像と前記第2の映像を撮影した時刻に関する第2の時刻情報とを入力する入力部と、
前記第1の映像、前記第1の時刻情報、前記第2の映像および前記第2の時刻情報を記録する記憶部と、
前記第2の時刻情報から所定時間内に撮影された前記第1の時刻情報をもつ前記第1の映像を判別し、グループとする演算部と、
前記グループに属する映像を纏めて出力する出力部を備えるコンテンツ管理機器。
第1の撮影機器で撮影した第1の映像と前記第1の映像を撮影した時刻に関する第1の時刻情報と、第2の撮影機器で撮影した第2の映像と前記第2の映像を撮影した時刻に関する第2の時刻情報とを入力する入力部と、
前記第1の映像、前記第1の時刻情報、前記第2の映像および前記第2の時刻情報を記録する記憶部と、
前記第2の時刻情報から所定時間内に撮影された前記第1の時刻情報をもつ前記第1の映像を判別し、グループとする演算部と、
前記グループに属する映像を纏めて出力する出力部を備えるコンテンツ管理機器。
[付記7]
第1の撮影機器で撮影した第1の映像と前記第1の映像を撮影した場所に関する第1の場所情報と、第2の撮影機器で撮影した第2の映像と前記第2の映像を撮影した場所に関する第2の場所情報とを入力する入力部と、
前記第1の映像、前記第1の場所情報、前記第2の映像および前記第2の場所情報を記録する記憶部と、
前記第2の場所情報から所定距離の範囲内に撮影された前記第1の範囲情報をもつ前記第1の映像を判別し、グループとする演算部と、
前記グループに属する映像を纏めて出力する出力部を備えるコンテンツ管理機器。
第1の撮影機器で撮影した第1の映像と前記第1の映像を撮影した場所に関する第1の場所情報と、第2の撮影機器で撮影した第2の映像と前記第2の映像を撮影した場所に関する第2の場所情報とを入力する入力部と、
前記第1の映像、前記第1の場所情報、前記第2の映像および前記第2の場所情報を記録する記憶部と、
前記第2の場所情報から所定距離の範囲内に撮影された前記第1の範囲情報をもつ前記第1の映像を判別し、グループとする演算部と、
前記グループに属する映像を纏めて出力する出力部を備えるコンテンツ管理機器。
[付記8]
第1の撮影機器で撮影した第1の映像と、前記第1の映像を撮影した時刻に関する第1の時刻情報と、第2の撮影機器で撮影した第2の映像と、前記第2の映像を撮影した時刻に関する第2の時刻情報と、前記第1の撮影機器と前記第2の撮影機器との距離に関する距離情報を入力する
入力部と、
前記第1の映像、前記第1の時刻情報、前記第2の映像、前記第2の時刻情報および前記距離情報を記録する記憶部と、
前記距離情報から前記第1の撮影機器と前記第2の撮影機器が所定の距離以内にあって、前記第2の映像から取得した前記第2の時刻情報から所定時間内に撮影された前記第1の時刻情報をもつ前記第1の映像を判別し、グループとする演算部と、
前記グループに属する映像を纏めて出力する出力部を備えるコンテンツ管理機器。
第1の撮影機器で撮影した第1の映像と、前記第1の映像を撮影した時刻に関する第1の時刻情報と、第2の撮影機器で撮影した第2の映像と、前記第2の映像を撮影した時刻に関する第2の時刻情報と、前記第1の撮影機器と前記第2の撮影機器との距離に関する距離情報を入力する
入力部と、
前記第1の映像、前記第1の時刻情報、前記第2の映像、前記第2の時刻情報および前記距離情報を記録する記憶部と、
前記距離情報から前記第1の撮影機器と前記第2の撮影機器が所定の距離以内にあって、前記第2の映像から取得した前記第2の時刻情報から所定時間内に撮影された前記第1の時刻情報をもつ前記第1の映像を判別し、グループとする演算部と、
前記グループに属する映像を纏めて出力する出力部を備えるコンテンツ管理機器。
[付記9]
複数の撮影機器からの映像から特定の映像を選択して表示するコンテンツ表示方法であって、
前記映像を撮影した場所情報を取得するステップと、
前記場所情報から撮影した場所が所定の距離内である映像を判別してグループとするステップと、
前記グループに属する映像を纏めて表示用コンテンツを作成するステップと、を備え、
前記グループに属する映像の場所情報と特定場所との距離に応じて選択される地域名が記載される画面を前記表示用コンテンツに加えるコンテンツ表示方法。
複数の撮影機器からの映像から特定の映像を選択して表示するコンテンツ表示方法であって、
前記映像を撮影した場所情報を取得するステップと、
前記場所情報から撮影した場所が所定の距離内である映像を判別してグループとするステップと、
前記グループに属する映像を纏めて表示用コンテンツを作成するステップと、を備え、
前記グループに属する映像の場所情報と特定場所との距離に応じて選択される地域名が記載される画面を前記表示用コンテンツに加えるコンテンツ表示方法。
[付記10]
複数の撮影機器からの映像から特定の映像を選択して表示するコンテンツ表示方法であって、
前記映像を撮影した時刻情報を取得するステップと、
前記映像を撮影した場所情報を取得するステップと、
前記時刻情報から撮影した時刻差が所定時間内であり、さらに前記場所情報から撮影した場所が所定の距離内である映像を判別してグループとするステップと、を備え、
前記グループに属する映像の場所情報と特定場所との距離と、前記時刻情報に応じて選択される地域名が記載される画面を前記表示用コンテンツに加えるコンテンツ表示方法。
複数の撮影機器からの映像から特定の映像を選択して表示するコンテンツ表示方法であって、
前記映像を撮影した時刻情報を取得するステップと、
前記映像を撮影した場所情報を取得するステップと、
前記時刻情報から撮影した時刻差が所定時間内であり、さらに前記場所情報から撮影した場所が所定の距離内である映像を判別してグループとするステップと、を備え、
前記グループに属する映像の場所情報と特定場所との距離と、前記時刻情報に応じて選択される地域名が記載される画面を前記表示用コンテンツに加えるコンテンツ表示方法。
[付記11]
複数の映像から特定の映像を選択して表示するコンテンツ表示方法であって、
操作者の音声を入力して音声認識して操作信号に変換するステップと、
前記操作信号に基づき前記複数の前記映像を判別してグループとするステップと、
前記グループに属する映像を纏めて操作するための発話指示であるジャンル名を前記グループに表示する表示用コンテンツを作成するステップと、
前記操作者の音声を入力して音声認識して前記操作者の属性情報を特定するステップと、を備え、
前記ジャンル名は前記属性情報に基づいて決められることを特徴とするコンテンツ表示方法。
複数の映像から特定の映像を選択して表示するコンテンツ表示方法であって、
操作者の音声を入力して音声認識して操作信号に変換するステップと、
前記操作信号に基づき前記複数の前記映像を判別してグループとするステップと、
前記グループに属する映像を纏めて操作するための発話指示であるジャンル名を前記グループに表示する表示用コンテンツを作成するステップと、
前記操作者の音声を入力して音声認識して前記操作者の属性情報を特定するステップと、を備え、
前記ジャンル名は前記属性情報に基づいて決められることを特徴とするコンテンツ表示方法。
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記実装を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
また、上述の実施の形態は、本開示における技術を例示するためのものであるから、請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
本発明にかかるコンテンツ管理機器とそのコンテンツ方法では、記録された複数のコンテンツから、プライバシー性又は秘匿性の観点から個人の過去のイベントを適切に検出すること、または音声操作により入力される音声から操作者(発話者)を特定することで、操作者に分かり易く、発話しやすい発話指示を、グループに纏められたコンテンツ毎に分類したうえで提示できることを活用する機器において有用である。特に個人に関する写真又は動画を記録したものだけではなく、論文、小説または新聞などの複数のドキュメントファイル、又は、ニュース番組のコンテンツを、操作者が選択しやすいように属性情報に基づき分類し表示する機器に活用することができる。
1 コンテンツ管理システム
100 コンテンツ管理機器
101 演算部
101A 管理部
101B 提示制御部
101C 受付部
102 I/F部
103 記憶部
104 入出力部
110、120、190 スマートフォン
111、121、141 コンテンツ
130 カメラ
140 記録用カード
150 ルーター
160 インターネット
170 マイク
180 TV
180A 提示部
1101、1102、1103、1104、1105、1106、1107、1301、1311、1401、1402、1403、1404、1501、1502、1503
アイコン
1108 メッセージ
100 コンテンツ管理機器
101 演算部
101A 管理部
101B 提示制御部
101C 受付部
102 I/F部
103 記憶部
104 入出力部
110、120、190 スマートフォン
111、121、141 コンテンツ
130 カメラ
140 記録用カード
150 ルーター
160 インターネット
170 マイク
180 TV
180A 提示部
1101、1102、1103、1104、1105、1106、1107、1301、1311、1401、1402、1403、1404、1501、1502、1503
アイコン
1108 メッセージ
Claims (7)
- 複数のコンテンツと、前記複数のコンテンツそれぞれの撮影場所とを記憶している記憶部と、
前記複数のコンテンツに関連する地域区分を示す文字列を決定する管理部とを備え、
前記管理部は、
前記複数のコンテンツを代表する代表コンテンツの撮影場所と、ユーザの自宅との距離が大きいほど、当該撮影場所を含む地域区分を大きくして、前記文字列を決定する
コンテンツ管理機器。 - 前記管理部は、さらに、
前記複数のコンテンツを代表する代表コンテンツの撮影場所の知名度が高いほど、当該撮影場所を含む地域区分を小さくして、前記文字列を決定し、又は、
前記複数のコンテンツを代表する代表コンテンツの撮影場所へのユーザの訪問頻度が高いほど、当該撮影場所を含む地域区分を小さくして、前記文字列を決定する
請求項1に記載のコンテンツ管理機器。 - 複数のコンテンツと、前記複数のコンテンツそれぞれに紐付けられている1以上のタグとを記憶している記憶部と、
前記複数のコンテンツのうち検索の対象となるコンテンツに紐付けられている1以上のタグを提示部に提示させる提示制御部と、
前記提示制御部が提示させた前記1以上のタグに対するユーザによる操作を受け付ける受付部と、
前記操作を前記受付部が受け付けた場合に、前記操作の対象であるタグの内容を検索条件として前記複数のコンテンツを検索することで得られる1以上のコンテンツを新たな検索の対象とし、前記新たな検索の対象である前記1以上のコンテンツに紐付けられている1以上のタグを前記提示部に提示させる管理部とを備える
コンテンツ管理機器。 - 前記管理部は、さらに、
前記提示部に提示させる前記1以上のコンテンツの個数が所定数以下である場合に、コンテンツを再生させる操作を受け付けるための情報を前記提示部に提示させる
請求項3に記載のコンテンツ管理機器。 - 前記管理部は、さらに、
前記提示部に提示させる前記1以上のコンテンツに係る検索条件が所定数以上である場合に、検索条件を減らす操作を受け付けるための情報を前記提示部に提示させる
請求項3又は4に記載のコンテンツ管理機器。 - コンテンツ管理機器の制御方法であって、
複数のコンテンツと、前記複数のコンテンツそれぞれの撮影場所とを記憶している記憶部から、前記複数のコンテンツと前記複数のコンテンツそれぞれの撮影場所とを取得し、
取得した前記複数のコンテンツと前記複数のコンテンツそれぞれの撮影場所とを参照して、前記複数のコンテンツに関連する地域区分を示す文字列を決定し、
前記決定の際には、
前記複数のコンテンツを代表する代表コンテンツの撮影場所と、ユーザの自宅との距離が大きいほど、当該撮影場所を含む地域区分を大きくして、前記文字列を決定する
制御方法。 - コンテンツ管理機器の制御方法であって、
複数のコンテンツと、前記複数のコンテンツそれぞれに紐付けられている1以上のタグとを記憶している記憶部を参照して、前記複数のコンテンツのうち検索の対象となるコンテンツに紐付けられている1以上のタグを提示部に提示させ、
提示させた前記1以上のタグに対するユーザによる操作を受け付け、
前記操作を受け付けた場合に、前記操作の対象であるタグの内容を検索条件として前記複数のコンテンツを検索することで得られる1以上のコンテンツを新たな検索の対象とし、前記新たな検索の対象である前記1以上のコンテンツに紐付けられている1以上のタグを前記提示部に提示させる
制御方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017204862 | 2017-10-24 | ||
JP2017204862 | 2017-10-24 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019529674A Division JPWO2019082606A1 (ja) | 2017-10-24 | 2018-10-01 | コンテンツ管理機器、コンテンツ管理システム、および、制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021005390A true JP2021005390A (ja) | 2021-01-14 |
Family
ID=66247367
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019529674A Pending JPWO2019082606A1 (ja) | 2017-10-24 | 2018-10-01 | コンテンツ管理機器、コンテンツ管理システム、および、制御方法 |
JP2020148179A Withdrawn JP2021005390A (ja) | 2017-10-24 | 2020-09-03 | コンテンツ管理機器、および、制御方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019529674A Pending JPWO2019082606A1 (ja) | 2017-10-24 | 2018-10-01 | コンテンツ管理機器、コンテンツ管理システム、および、制御方法 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11301512B2 (ja) |
EP (1) | EP3702929A4 (ja) |
JP (2) | JPWO2019082606A1 (ja) |
CN (2) | CN110383849A (ja) |
WO (1) | WO2019082606A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113609276A (zh) * | 2021-08-26 | 2021-11-05 | 武汉夜莺科技有限公司 | 一种群组中客户的管理方法、装置及介质 |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3633463B2 (ja) | 2000-08-31 | 2005-03-30 | 株式会社デンソー | 車載用表示装置 |
JP3982605B2 (ja) | 2000-09-29 | 2007-09-26 | カシオ計算機株式会社 | 撮影画像管理装置、撮影画像管理方法及び撮影画像管理プログラム |
US7970240B1 (en) * | 2001-12-17 | 2011-06-28 | Google Inc. | Method and apparatus for archiving and visualizing digital images |
JP4457660B2 (ja) | 2003-12-12 | 2010-04-28 | パナソニック株式会社 | 画像分類装置、画像分類システム、画像分類に関するプログラム、およびそのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
US7956905B2 (en) | 2005-02-28 | 2011-06-07 | Fujifilm Corporation | Titling apparatus, a titling method, and a machine readable medium storing thereon a computer program for titling |
EP1899920B1 (en) * | 2005-05-12 | 2020-04-01 | FUJIFILM Corporation | Album creating apparatus, album creating method and program |
US8094974B2 (en) | 2005-07-26 | 2012-01-10 | Panasonic Corporation | Picture data management apparatus and picture data management method |
KR100679049B1 (ko) * | 2005-09-21 | 2007-02-05 | 삼성전자주식회사 | 인물 및 장소정보를 제공하는 썸네일에 의한 사진탐색 방법및 그 장치 |
US7663671B2 (en) * | 2005-11-22 | 2010-02-16 | Eastman Kodak Company | Location based image classification with map segmentation |
US8842197B2 (en) * | 2005-11-30 | 2014-09-23 | Scenera Mobile Technologies, Llc | Automatic generation of metadata for a digital image based on ambient conditions |
US20070185980A1 (en) * | 2006-02-03 | 2007-08-09 | International Business Machines Corporation | Environmentally aware computing devices with automatic policy adjustment features |
US7668867B2 (en) * | 2006-03-17 | 2010-02-23 | Microsoft Corporation | Array-based discovery of media items |
US8676001B2 (en) * | 2008-05-12 | 2014-03-18 | Google Inc. | Automatic discovery of popular landmarks |
JP4290219B1 (ja) * | 2008-11-04 | 2009-07-01 | 株式会社ハンズ | 商品情報検索装置、方法、及びコンピュータプログラム |
JP2010145087A (ja) | 2008-12-16 | 2010-07-01 | Xanavi Informatics Corp | ナビゲーション装置およびナビゲーション方法 |
US8626699B2 (en) * | 2009-09-16 | 2014-01-07 | Microsoft Corporation | Construction of photo trip patterns based on geographical information |
JP5411641B2 (ja) * | 2009-09-29 | 2014-02-12 | 富士フイルム株式会社 | 画像分類装置、画像分類システム、画像分類方法、プログラム、および記録媒体 |
CN102428466B (zh) * | 2010-03-18 | 2015-08-19 | 松下电器(美国)知识产权公司 | 数据处理装置以及数据处理方法 |
US9223461B1 (en) * | 2010-12-08 | 2015-12-29 | Wendell Brown | Graphical user interface |
JP5782918B2 (ja) * | 2011-08-24 | 2015-09-24 | 大日本印刷株式会社 | 通信端末装置、サーバ装置及びプログラム |
JP2013192134A (ja) * | 2012-03-15 | 2013-09-26 | Sony Corp | コンテンツ再生装置およびコンテンツ再生システム |
US9607024B2 (en) * | 2012-06-13 | 2017-03-28 | Google Inc. | Sharing information with other users |
JP6087542B2 (ja) | 2012-08-31 | 2017-03-01 | 綜合警備保障株式会社 | 話者認識装置、話者認識方法及び話者認識プログラム |
JP6239826B2 (ja) | 2013-01-29 | 2017-11-29 | 綜合警備保障株式会社 | 話者認識装置、話者認識方法及び話者認識プログラム |
JP5901697B2 (ja) * | 2014-06-11 | 2016-04-13 | ヤフー株式会社 | 配信装置、配信方法および配信プログラム |
GB2533759A (en) * | 2014-10-01 | 2016-07-06 | Asda Stores Ltd | System and method for surveying display units in a retail store |
KR20170011177A (ko) * | 2015-07-21 | 2017-02-02 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
KR102479495B1 (ko) * | 2015-09-07 | 2022-12-21 | 엘지전자 주식회사 | 이동단말기 및 그의 동작 방법 |
CN105635441B (zh) * | 2015-12-17 | 2019-04-19 | 努比亚技术有限公司 | 移动终端及其显示处理方法 |
WO2018179604A1 (ja) * | 2017-03-27 | 2018-10-04 | 株式会社Nttドコモ | データ共有判断装置 |
-
2018
- 2018-10-01 US US16/489,990 patent/US11301512B2/en active Active
- 2018-10-01 CN CN201880014400.4A patent/CN110383849A/zh active Pending
- 2018-10-01 WO PCT/JP2018/036730 patent/WO2019082606A1/ja unknown
- 2018-10-01 JP JP2019529674A patent/JPWO2019082606A1/ja active Pending
- 2018-10-01 EP EP18871461.2A patent/EP3702929A4/en not_active Withdrawn
- 2018-10-01 CN CN202210053594.7A patent/CN114625900A/zh active Pending
-
2020
- 2020-09-03 JP JP2020148179A patent/JP2021005390A/ja not_active Withdrawn
-
2022
- 2022-03-02 US US17/684,962 patent/US20220188348A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JPWO2019082606A1 (ja) | 2019-11-14 |
EP3702929A1 (en) | 2020-09-02 |
US11301512B2 (en) | 2022-04-12 |
CN110383849A (zh) | 2019-10-25 |
US20200019566A1 (en) | 2020-01-16 |
CN114625900A (zh) | 2022-06-14 |
WO2019082606A1 (ja) | 2019-05-02 |
US20220188348A1 (en) | 2022-06-16 |
EP3702929A4 (en) | 2021-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104077047B (zh) | 用于运行应用的方法和设备 | |
WO2019109245A1 (zh) | 一种故事相册的显示方法及装置 | |
KR102077237B1 (ko) | 영상 재생 장치에 의해 캡쳐된 이미지에 관련된 연관 정보를 휴대용 디바이스에게 제공하는 방법 및 시스템 | |
KR101633824B1 (ko) | 배경 화면 설정 방법 및 이를 이용한 휴대 단말기 | |
CN102473304A (zh) | 元数据标记系统、图像搜索方法和设备、及其用于标记手势的方法 | |
US20160034539A1 (en) | System and method of managing metadata | |
US10997241B2 (en) | Methods, systems, and media for associating scenes depicted in media content with a map of where the media content was produced | |
US20140324858A1 (en) | Information processing apparatus, keyword registration method, and program | |
KR20170011177A (ko) | 디스플레이 장치 및 그 제어 방법 | |
KR20160075126A (ko) | 전자 장치가 콘텐츠를 제공하는 방법 및 그 전자 장치 | |
KR20130033721A (ko) | 휴대용 단말기의 컨텐츠 정보를 기반으로 하는 클립장치 및 방법 | |
EP2835981A1 (en) | Information processing device, information processing method, and program | |
KR20170006203A (ko) | 뉴스 콘텐트와 관련된 정보를 제공하는 전자 장치 및 그 방법 | |
CN103516712A (zh) | 装置、信息处理方法和程序 | |
JP2009156848A (ja) | ナビゲーションシステム、ナビゲーション装置、及び目的地設定方法 | |
US20120072869A1 (en) | Copy supporting device, terminal device, copy support method, and copy supporting program | |
JP6403286B2 (ja) | 情報管理方法及び情報管理装置 | |
KR101850501B1 (ko) | 역사 컨텐츠 제공 시스템 | |
JP2021005390A (ja) | コンテンツ管理機器、および、制御方法 | |
US20180367838A1 (en) | Systems for and methods of browsing and viewing huge and heterogeneous media collections on tv with unified interface | |
JP5342509B2 (ja) | コンテンツ再生装置、コンテンツ再生装置の制御方法、制御プログラム、及び記録媒体 | |
JP2009237867A (ja) | 検索方法、検索システム、プログラム及びコンピュータ | |
KR20170025732A (ko) | 여행 기록을 제공하기 위한 장치, 이를 위한 방법 및 이 방법이 기록된 컴퓨터 판독 가능한 기록매체 | |
KR20150064613A (ko) | 영상 표시 기기 및 그의 동작 방법 | |
WO2023021759A1 (ja) | 情報処理装置、情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210728 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20211209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20220113 |