JP2012095073A - コンテンツ送信装置、コンテンツ送信方法、およびコンテンツ送受信方法 - Google Patents

コンテンツ送信装置、コンテンツ送信方法、およびコンテンツ送受信方法 Download PDF

Info

Publication number
JP2012095073A
JP2012095073A JP2010240434A JP2010240434A JP2012095073A JP 2012095073 A JP2012095073 A JP 2012095073A JP 2010240434 A JP2010240434 A JP 2010240434A JP 2010240434 A JP2010240434 A JP 2010240434A JP 2012095073 A JP2012095073 A JP 2012095073A
Authority
JP
Japan
Prior art keywords
content
eye image
destination terminal
image
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010240434A
Other languages
English (en)
Inventor
Tomonori Nakamoto
友則 中本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2010240434A priority Critical patent/JP2012095073A/ja
Publication of JP2012095073A publication Critical patent/JP2012095073A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】3D表示可能な端末および3D表示不能な端末に適したコンテンツを送信することができる、コンテンツ送信装置を提供する。
【解決手段】コンテンツ送信装置100は、右目用画像と左目用画像とを含む3Dコンテンツを記憶するためのメモリ120と、送信先端末が3D表示可能か否かを示す情報を受信するための通信インターフェイス170と、送信先端末が3D表示可能である場合に、通信インターフェイス170を介して送信先端末に3Dコンテンツを送信し、送信先端末が3D表示不能である場合に、右目用画像と左目用画像とを交互に表示するための動画像を生成し、通信インターフェイスを介して送信先端末に動画像を送信するためのプロセッサ110とを備える。
【選択図】図3

Description

本発明は、静止画像や動画像などの3Dのコンテンツを他の端末へ送信するためのコンテンツ送信装置、コンテンツ送信方法、およびコンテンツ送受信方法に関する。
視聴者の目の錯覚を利用して、静止画像および動画像を3Dで(立体的に)表示させるための様々な方式が知られている。たとえば、メガネを用いる方式として、液晶アクティブシャッターメガネ方式および偏向板方式が挙げられる。一方、メガネを用いない方式として、視差バリア方式およびレンチキュラー方式が挙げられる。
また、特開2008−153805号公報(特許文献1)には、立体映像表示装置及び2次元画像の立体映像化方法が開示されている。特開2008−153805号公報(特許文献1)によると、立体映像表示装置と2次元画像の立体映像化方法は、原画から複数の輪郭で抽出された部分画像をそれぞれ実空間と対応付けた画像空間の各レイヤに配置すると共に、原画を背景となる最も奥のレイヤに配置する部分画像配置手段と、各レイヤの画像を基に右眼画像情報と左眼画像情報をそれぞれ取得する右仮想カメラ画像取得手段及び左仮想カメラ画像取得手段と、右眼画像情報と左眼画像情報を0.033秒〜0.3秒の切り換え時間で交互に切り換えて表示装置に出力する表示映像生成手段と、切り変え時間を計時するタイマとを備える。
特開2008−153805号公報
3Dコンテンツを有する端末が、当該3Dコンテンツを他の通信端末へ送信しても、当該他の通信端末では当該3Dコンテンツを3Dで表示できない虞がある。たとえば、示唆バリア方式で表示するための3Dコンテンツを通常のディスプレイしか有しない他の端末へ送信しても、当該他の端末では当該3Dコンテンツを表示することができない。
本発明は、かかる問題を解決するためになされたものであり、その目的は、3D表示可能な端末および3D表示不能な端末に適したコンテンツを送信することができる、コンテンツ送信装置、コンテンツ送信方法、およびコンテンツ送受信方法を提供することにある。
この発明のある局面に従うと、右目用画像と左目用画像とを含む3Dコンテンツを記憶するためのメモリと、送信先端末が3D表示可能か否かを示す情報を受信するための通信インターフェイスと、送信先端末が3D表示可能である場合に、通信インターフェイスを介して送信先端末に3Dコンテンツを送信し、送信先端末が3D表示不能である場合に、右目用画像と左目用画像とを交互に表示するための動画像を生成し、通信インターフェイスを介して送信先端末に動画像を送信するためのプロセッサとを備える、コンテンツ送信装置が提供される。
好ましくは、コンテンツ送信装置は、右目用画像と左目用画像とを3Dコンテンツとして撮影するための撮影装置と、3Dコンテンツを3Dで表示するための3Dディスプレイとをさらに備える。
好ましくは、撮影装置は、右目用画像を撮影するための右カメラと、左目用画像を撮影するための左カメラとを含む。
好ましくは、撮影装置は、右目用画像および左目用画像の一方としての第1の画像と右目用画像および左目用画像の他方としての第2の画像とを撮影するためのカメラを含む。
好ましくは、通信インターフェイスは、送信先端末または他の端末から3Dコンテンツを受信する。
好ましくは、コンテンツ送信装置は、動画像における右目用画像と左目用画像との切替速度の設定を受け付けるための入力デバイスをさらに備える。
好ましくは、メモリは、設定された切替速度を送信先端末に対応付けて記憶する。プロセッサは、メモリを参照することによって、送信先端末に対応する切替速度で右目用画像と左目用画像とを交互に表示するための動画像を作成する。
好ましくは、プロセッサは、右目用画像と左目用画像とを左右方向にずらして交互に表示するための動画像を作成する。右目用画像と左目用画像とのずらし量の設定を受け付けるための入力デバイスをさらに備える。
好ましくは、メモリは、ずらし量を3Dコンテンツまたは動画像に対応付けて記憶する。プロセッサは、動画像を他の送信先端末に送信する際に、メモリを参照することによって、3Dコンテンツに対応するずらし量で右目用画像と左目用画像と左右方向にずらして交互に表示するための動画像を作成する。
この発明の別の局面に従うと、通信インターフェイスとプロセッサとを備えるコンテンツ送信装置におけるコンテンツ送信方法が提供される。コンテンツ送信方法は、プロセッサが、右目用画像と左目用画像とを含む3Dコンテンツを取得するステップと、プロセッサが、通信インターフェイスを介して、送信先端末が3D表示可能か否かを示す情報を受信するステップと、送信先端末が3D表示可能である場合に、プロセッサが、通信インターフェイスを介して送信先端末に3Dコンテンツを送信するステップと、送信先端末が3D表示不能である場合に、プロセッサが、右目用画像と左目用画像とを交互に表示するための動画像を生成するステップと、送信先端末が3D表示不能である場合に、プロセッサが、通信インターフェイスを介して送信先端末に動画像を送信するステップとを備える。
この発明の別の局面に従うと、コンテンツ送信装置と3D表示可能な第1の送信先端末と3D表示不能な第2の送信先端末とを備えるネットワークシステムにおけるコンテンツ送受信方法が提供される。コンテンツ送受信方法は、コンテンツ送信装置が、右目用画像と左目用画像とを含む3Dコンテンツを取得するステップと、コンテンツ送信装置が、第1の送信先端末が3D表示可能であることを示す情報を受信するステップと、コンテンツ送信装置が、第1の送信先端末に3Dコンテンツを送信するステップと、第1の送信先端末が、3Dコンテンツを3Dで表示するステップと、コンテンツ送信装置が、第2の送信先端末が3D表示不能であることを示す情報を受信するステップと、コンテンツ送信装置が、右目用画像と左目用画像とを交互に表示するための動画像を生成するステップと、コンテンツ送信装置が、第2の送信先端末に動画像を送信するステップと、第2の送信先端末が、動画像を表示するステップとを備える。
以上のように、本発明によって、3D表示可能な端末および3D表示不能な端末に適したコンテンツを送信することができる、コンテンツ送信装置、コンテンツ送信方法、およびコンテンツ送受信方法が提供される。
本実施の形態に係る本実施の形態に係るネットワークシステム1の全体構成および動作概要を示すイメージ図である。 本実施の形態に係るネットワークシステム1の動作概要を示すシーケンス図である。 本実施の形態に係るデジタルカメラ100のハードウェア構成を示すブロック図である。 本実施の形態に係る2D動画像の作成処理を示すイメージ図である。 風景写真に関してずらし量を変更した場合における右目用画像と左目用画像とを重ねたイメージを示す図である。 本実施の形態に係る送信先端末データベース120Aを示す図である。 本実施の形態に係る画像データベース120Bを示す図である。 本実施の形態に係る電子ノート200のハードウェア構成を示すブロック図である。 本実施の形態に係る電子ノート300のハードウェア構成を示すブロック図である。 本実施の形態に係るデジタルカメラ100におけるコンテンツ送信処理の処理手順を示すフローチャートである。
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
<ネットワークシステム1の全体構成>
まずは、本実施の形態に係るネットワークシステム1の全体構成について説明する。図1は、本実施の形態に係る本実施の形態に係るネットワークシステム1の全体構成および動作概要を示すイメージ図である。
なお、以下では、デジタルカメラ100を「コンテンツ送信装置」の代表例として説明を行う。ただし、「コンテンツ送信装置」は、ゲーム機、パーソナルコンピュータ、電子BOOK、PND(Personal Navigation Device)、PDA(Personal Data Assistance)、電子辞書などのような、通信機能を有した他の情報端末であってもよい。たとえば、後述するように、撮影機能を有さない装置であってもよい。
また、電子ノート200,300を「送信先端末」の代表例として説明を行う。ただし、「送信先端末」は、ゲーム機、パーソナルコンピュータ、電子BOOK、PND(Personal Navigation Device)、PDA(Personal Data Assistance)、電子辞書などのような、通信機能とディスプレイとを有した他の情報端末であってもよい。
図1および図2を参照して、ネットワークシステム1は、デジタルカメラ100と、電子ノート200と、電子ノート300とを含む。デジタルカメラ100と、電子ノート200と、電子ノート300とは、インターネットなどのネットワークを介して、互いにデータ通信が可能である。
デジタルカメラ100は、3Dディスプレイ130を有する。すなわち、デジタルカメラ100は、3Dコンテンツデータに基づいて、写真やアニメーションなどを3Dで表示することができる。なお、3Dコンテンツデータとは、右目用画像データと左目用画像データを含むものである。
電子ノート200も、3Dディスプレイ230を有する。すなわち、電子ノート200は、3Dコンテンツデータに基づいて、写真やアニメーションなどを3Dで表示することができる。
電子ノート300も、2Dディスプレイ230を有する。すなわち、電子ノート300は、3Dコンテンツデータを受信しても、写真やアニメーションなどを3Dで表示することはできない。電子ノート300は、写真やアニメーションを2Dで表示することができる。
<ネットワークシステム1の動作概要>
次に、本実施の形態に係るネットワークシステム1の動作概要について説明する。図2は、本実施の形態に係るネットワークシステム1の動作概要を示すシーケンス図である。
図1および図2に示すように、デジタルカメラ100は、3Dコンテンツを取得する(ステップS002)。たとえば、デジタルカメラ100は、3D撮影装置を利用して、右目用画像と左目用画像とを撮影してもよい。あるいは、デジタルカメラ100は、他の端末(たとえば、他のデジタルカメラや電子ノート200,300)から3Dコンテンツを受信してもよい。
本実施の形態に係るデジタルカメラ100は、3Dディスプレイ130を有する。3Dディスプレイ130は、右目用画像と左目用画像とに基づいて、静止画像や動画像を3Dで表示する。すなわち、デジタルカメラ100のユーザは、目の錯覚により、静止画像や動画像が立体的に見える。ただし、デジタルカメラ100は、3Dディスプレイ130を有していなくともよい。
デジタルカメラ100は、デジタルカメラ100のユーザからの命令に応じて、あるいは電子ノート200からの要求に応じて、電子ノート200に端末情報を要求する(ステップS006)。たとえば、デジタルカメラ100は、当該命令として、ユーザから、送信されるべき3Dコンテンツの指定と、送信先端末(閲覧端末)の指定とを受け付ける。
電子ノート200は、デジタルカメラ100に端末情報を送信する(ステップS006)。端末情報は、電子ノート200が3D表示可能なディスプレイを有するか否かを示す情報を含んでもよい。あるいは、端末情報は電子ノート200のメーカ名や型番を示す情報を含んでもよい。この場合には、デジタルカメラ100は、メーカ名や型番を示す情報に基づいて、図示しないサーバに電子ノート200が3D表示可能なディスプレイを有するか否かを示す情報を要求してもよい。
デジタルカメラ100は、電子ノート200が3D表示可能であるか否かを判断する(ステップS008)。電子ノート200が3D表示可能である場合、デジタルカメラ100は、電子ノート200に3Dコンテンツデータを送信する(ステップS010)。
電子ノート200は、3Dコンテンツデータを受信する。電子ノート200は、3Dコンテンツデータに基づいて、3Dディスプレイ230に3Dコンテンツを表示する(ステップS012)。すなわち、3Dディスプレイ230は、右目用画像と左目用画像とに基づいて、静止画像や動画像を立体的に表示する。換言すれば、デジタルカメラ100のユーザには、目の錯覚により、静止画像や動画像が立体的に見える。
デジタルカメラ100は、デジタルカメラ100のユーザからの命令(3Dコンテンツの指定と送信先端末の指定)に応じて、あるいは電子ノート300からの要求に応じて、電子ノート300に端末情報を要求する(ステップS014)。
電子ノート300は、デジタルカメラ100に端末情報を送信する(ステップS016)。端末情報は、電子ノート300が3D表示可能なディスプレイを有するか否かを示す情報を含んでもよい。あるいは、端末情報は電子ノート300のメーカ名や型番を示す情報を含んでもよい。この場合には、デジタルカメラ100は、メーカ名や型番を示す情報に基づいて、外部のサーバに電子ノート300が3D表示可能なディスプレイを有するか否かを示す情報を要求してもよい。
デジタルカメラ100は、電子ノート300が3D表示可能であるか否かを判断する(ステップS018)。電子ノート300が3D表示不能である場合、デジタルカメラ100は、右目用画像と左目用画像とを交互に表示するための動画像データ(切替動画像)を作成する(ステップS020)。デジタルカメラ100は、電子ノート300に動画像データを送信する(ステップS022)。
電子ノート300は、動画像データを受信する。電子ノート300は、動画像データに基づいて、2Dディスプレイ330に2Dの動画像を表示する(ステップS022)。デジタルカメラ100のユーザには、電子ノート200よりも視覚効果は低いが、静止画像や動画像が立体的に見える。
以上のように、本実施の形態に係るネットワークシステム1は、デジタルカメラ100が、送信先端末(電子ノート200,電子ノート300)の表示能力に応じた、適切な形式のコンテンツを送信することができる。以下、このような機能を実現するためのネットワークシステム1の構成について詳述する。
<デジタルカメラ100のハードウェア構成>
本実施の形態に係るデジタルカメラ100のハードウェア構成について説明する。図3は、本実施の形態に係るデジタルカメラ100のハードウェア構成を示すブロック図である。
図3に示すように、本実施の形態に係るデジタルカメラ100は、CPU(Central Processing Unit)110と、メモリ120と、3Dディスプレイ130と、入力デバイス140、メモリインターフェイス160、通信インターフェイス170と、右カメラ181と、左カメラ182とを含む。
メモリ120は、各種のRAM(Random Access Memory)、ROM(Read-Only Memory)および/またはハードディスクなどによって実現される。メモリ120は、CPU110によって実行される制御プログラムと、3Dコンテンツ120Xと、送信先端末データベース120Aと、画像データベース120Bとを記憶する。たとえば、3Dコンテンツ120Xは、右目用の静止画像と左目用の静止画像を含む。または、3Dコンテンツ120Xは、右目用の動画像と左目用の動画像を含む。
3Dディスプレイ130は、CPU110に制御されることによって、様々な情報を表示する。本実施の形態に係る3Dディスプレイ130は、視差バリア方式を採用している。たとえば、CPU110は、3Dコンテンツに基づいて、静止画像や動画像を3Dで表示する。
入力デバイス140は、タブレット、キーボードおよび/またはマウスなどによって実現される。入力デバイス140は、ユーザからの命令を受け付けて、当該命令をCPU110に入力する。入力デバイス140としてのタブレットが、3Dディスプレイ130上に敷設されてもよい。すなわち、3Dディスプレイ130と入力デバイス140とがタッチパネル150を構成してもよい。
メモリインターフェイス160は、外部の記憶媒体161に格納されているデータを読み出す。換言すれば、CPU110は、メモリインターフェイス160を介して外部の記憶媒体161に格納されているデータを読み出して、当該データをメモリ120に格納する。逆に、CPU110は、メモリ120からデータを読み出して、メモリインターフェイス160を介して当該データを外部の記憶媒体161に格納する。
なお、記憶媒体161としては、CD−ROM(Compact Disc - Read Only Memory)、DVD−ROM(Digital Versatile Disk - Read Only Memory)、USB(Universal Serial Bus)メモリ、メモリカード、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、MO(Magnetic Optical Disc)、MD(Mini Disc)、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、マスクROM、EPROM、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの、不揮発的にプログラムを格納する媒体が挙げられる。
通信インターフェイス170は、ネットワークを介して電子ノート200,300、他のサーバ、他の通信端末とデータを送受信する。たとえば、通信インターフェイス170は、CPU110からの命令に基づいて、電子ノート200に3Dコンテンツを送信する。通信インターフェイス170は、CPU110からの命令に基づいて、電子ノート300に2D動画像を送信する。通信インターフェイス170は、電子ノート200,300、他のサーバ、他の通信端末から受信したデータをCPU110に入力する。
右カメラ181と左カメラ182と(撮影装置180)は、所定の距離離れた状態で、デジタルカメラ100に搭載される。CPU110は、右カメラ181から取得した右目用画像と、左カメラ182から取得した左目用画像とを、アーカイブすることによって3Dコンテンツを作成する。CPU110は、3Dコンテンツ120Xをメモリ120に格納する。
ただし、右目用画像と左目用画像とを1つのカメラ(撮影装置180)で撮影してもよい。たとえば、ユーザが、デジタルカメラ100を左右方向に回転させている最中に、当該カメラが連続して複数の画像を撮影する。CPU110は、ジャイロセンサや複数の画像に基づいて、複数の画像から右目用画像に適した画像と左目用画像に適した画像とを選択してもよい。
なお、本実施の形態に係るデジタルカメラ100では、通常、撮影装置180から5,6m先に焦点が位置する状態で右目用画像と左目用画像とを撮影する。
CPU110は、メモリ120に記憶されている各種のプログラムを実行する。デジタルカメラ100における機能および処理(たとえば、図10に示される処理)は、各ハードウェアおよびCPU110により実行されるソフトウェアによって実現される。このようなソフトウェアは、メモリ120に予め記憶されている場合がある。また、ソフトウェアは、上述した記憶媒体161に格納されて、プログラム製品として流通している場合もある。あるいは、ソフトウェアは、いわゆるインターネットに接続されている情報提供事業者によってダウンロード可能なプログラム製品として提供される場合もある。
より詳細には、CPU110は、入力デバイス140を介して、ユーザから3Dコンテンツの指定と3Dコンテンツの送信先端末とを受け付ける。CPU110は、通信インターフェイス170を介して、電子ノート200,300(送信先端末)から直接的に電子ノート200,300が3D表示可能か否かを示す情報を端末情報として取得することができる。
あるいは、CPU110は、通信インターフェイス170を介して、電子ノート200,300(送信先端末)から、電子ノート200,300のメーカ名や型番を示す情報を含む端末情報を受信する。そして、CPU110は、メーカ名や型番を示す情報に基づいて、他のサーバなどから電子ノート200,300が3D表示可能か否かを示す情報を受信する。
CPU110は、電子ノート200が3D表示可能である場合、通信インターフェイス170を介して、電子ノート200に3Dコンテンツを送信する。
CPU110は、電子ノート300が3D表示不能である場合、3Dコンテンツに基づいて、2D動画像を作成する。図4は、本実施の形態に係る2D動画像の作成処理を示すイメージ図である。
図4を参照して、CPU110は、右目用画像データと左目用データとに基づいて、右目用画像と左目用画像とを交互に表示する動画像データを作成する。より詳細には、CPU110は、右目用画像と左目用画像とを所定の距離だけ左右方向にずらした状態で、両者を所定の切替速度で交互に表示する動画像を作成する。
本実施の形態に係るデジタルカメラ100では、通常、撮影装置から5,6m先に焦点が位置する状態で右目用画像と左目用画像とを撮影しているが、右目用画像と左目用画像とのずらし量を変更することによって、撮影装置から焦点までの距離を変更することができる。なお、ずらし量とは、右目用画像と左目用画像とを重ねる場合における、左目用画像に対する右目用画像の相対位置をいう。以下では、右目用画像が左目用画像より右にある場合に、ずらし量を正とする。
本実施の形態においては、CPU110は、作成した2D動画像を3Dディスプレイ130に表示させながら、入力デバイス140を介してユーザが所望するずらし量を受け付ける。これによって、ユーザは、3Dコンテンツ(撮影装置と被写体との距離)に適したずらし量を設定することができる。図5は、風景写真に関してずらし量を変更した場合における右目用画像と左目用画像とを重ねたイメージを示す図である。なお、撮影装置180から住宅までの距離が5,6mであったとする。
図5(A)を参照して、デフォルトのずらし量で右目用画像と左目用画像とが切り替えられる場合、作成される2D動画像に関しては、右目用画像の住宅の位置と左目用画像の住宅の位置とがほとんど同じである。右目用画像の山の位置と左目用画像の山の位置とが異なる。山は、住宅よりも撮影装置180からの距離が遠いからである。右目用画像の太陽の位置と左目用画像の太陽の位置とは大きく異なる。太陽は、山よりも撮影装置180からの距離が遠いからである。
図5(B)を参照して、CPU110が、ユーザからの命令に基づいて、ずらし量を小さくする。作成される2D動画像に関して、右目用画像の住宅の位置と左目用画像の住宅の位置とが異なる。右目用画像の山の位置と左目用画像の山の位置とがほとんど同じである。右目用画像の太陽の位置と左目用画像の太陽の位置とは異なる。
図5(C)を参照して、CPU110が、ユーザからの命令に基づいて、ずらし量をさらに小さくする。作成される2D動画像に関して、右目用画像の住宅の位置と左目用画像の住宅の位置とが大きく異なる。右目用画像の山の位置と左目用画像の山の位置とが異なる。右目用画像の太陽の位置と左目用画像の太陽の位置とがほとんど同じである。
また、本実施の形態に係るメモリ120は、送信先端末データベース120Aを記憶する。図6は、本実施の形態に係る送信先端末データベース120Aを示す図である。
図6を参照して、送信先端末データベース120Aは、送信端末毎に、送信端末のユーザ名、送信端末のメールアドレスまたはIPアドレス、3D表示可能か否かを示す情報、2D動画像の切替速度とを格納する。CPU110は、端末情報に基づいて、初めて3Dコンテンツまたは2D動画像を送信する送信先端末に関する情報を送信先端末データベース120Aに格納する。
具体的には、CPU110は、初めて3Dコンテンツを送信する送信先端末毎に、送信端末のユーザ名、送信端末のメールアドレスまたはIPアドレス、3D表示可能であることを示す情報を、送信先端末データベース120Aに格納する。一方、CPU110は、初めて2D動画像を送信する送信先端末毎に、送信端末のユーザ名、送信端末のメールアドレスまたはIPアドレス、3D表示不能であることを示す情報と、切替速度とを、送信先端末データベース120Aに格納する。
そして、CPU110は、3Dコンテンツを送信する命令をユーザあるいは送信先端末から受け付けた際に、送信先端末のユーザ名あるいはメールアドレスまたはIPアドレスに基づいて、送信先端末データベース120Aを参照することによって、3D表示可能か否かを示す情報と、切替速度とを取得することができる。CPU110は、指定された送信先端末が3D表示可能である場合、通信インターフェイス170を介して、指定された3Dコンテンツを送信先端末に送信する。CPU110は、指定された送信先端末が3D表示不能である場合、読み出した切替速度にて、指定された3Dコンテンツの右目用画像と左目用画像とを交互に表示するための動画像を作成する。
また、本実施の形態に係るメモリ120は、画像データベース120Bを記憶する。図7は、本実施の形態に係る画像データベース120Bを示す図である。
図7を参照して、画像データベース120Bは、3Dコンテンツまたは2D動画像毎に、画像名、画像の撮影日あるいは作成日、2D動画像の切替速度、ずらし量とを格納する。CPU110は、初めて2D動画像に変換する3Dコンテンツに関する情報を画像データベース120Bに格納する。
そして、CPU110は、指定された送信先端末が3D表示不能である場合、画像データベース120Bを参照することによって、画像の撮影日または作成日と、切替速度と、ずらし量とを取得することができる。CPU110は、読み出した切替速度およびずらし量にて、指定された3Dコンテンツの右目用画像と左目用画像とを交互に表示するための動画像を作成する。
なお、CPU110は、指定された送信先端末と指定された3Dコンテンツとに基づいて、送信先端末データベース120Aの切替速度と画像データベース120Bの切替速度とを共に抽出することができる場合がある。この場合、CPU110は、より遅い方の切替速度に基づいて、2D動画像を作成する。
<電子ノート200のハードウェア構成>
本実施の形態に係る電子ノート200のハードウェア構成について説明する。図8は、本実施の形態に係る電子ノート200のハードウェア構成を示すブロック図である。
図8に示すように、本実施の形態に係る電子ノート200は、CPU210と、メモリ220と、3Dディスプレイ230と、入力デバイス240、メモリインターフェイス260、通信インターフェイス270とを含む。電子ノート200は、撮影装置を含んでもよい。
メモリ220は、各種のRAM(Random Access Memory)、ROM(Read-Only Memory)および/またはハードディスクなどによって実現される。メモリ220は、CPU210によって実行される制御プログラムと、3Dコンテンツと、端末情報とを記憶する。
3Dコンテンツは、右目用の静止画像と左目用の静止画像を含む。または、3Dコンテンツは、右目用の動画像と左目用の動画像を含む。端末情報は、電子ノート200が3D表示可能なディスプレイを有するか否かを示す情報や、ディスプレイのサイズを含む。ただし、端末情報は、メーカ名や型番を示す情報を含んでもよい。
3Dディスプレイ230は、CPU210に制御されることによって、様々な情報を表示する。本実施の形態に係る3Dディスプレイ230は、視差バリア方式を採用している。たとえば、CPU210は、デジタルカメラ100から受信した3Dコンテンツに基づいて、静止画像や動画像を3Dで表示する。
入力デバイス240は、タブレット、キーボードおよび/またはマウスなどによって実現される。入力デバイス240は、ユーザからの命令を受け付けて、当該命令をCPU210に入力する。入力デバイス240としてのタブレットが、3Dディスプレイ230上に敷設されてもよい。すなわち、3Dディスプレイ230と入力デバイス240とがタッチパネル250を構成してもよい。
メモリインターフェイス260および記憶媒体261の実現方法は、実施の形態1に係るメモリインターフェイス160および記憶媒体161と同様に実現されるため、ここでは説明を繰り返さない。
通信インターフェイス270は、ネットワークを介してデジタルカメラ100、他のサーバ、他の通信端末とデータを送受信する。たとえば、通信インターフェイス270は、CPU210からの命令に基づいて、デジタルカメラ100に端末情報を送信する。通信インターフェイス270は、デジタルカメラ100からの3Dコンテンツをメモリ220に格納する。
CPU210は、メモリ220に記憶されている各種のプログラムを実行する。電子ノート200における機能および処理は、各ハードウェアおよびCPU110により実行されるソフトウェアによって実現される。このようなソフトウェアは、メモリ220に予め記憶されている場合がある。また、ソフトウェアは、上述した記憶媒体261に格納されて、プログラム製品として流通している場合もある。あるいは、ソフトウェアは、いわゆるインターネットに接続されている情報提供事業者によってダウンロード可能なプログラム製品として提供される場合もある。
CPU210は、デジタルカメラ100からの要求に応じて、あるいはユーザからの命令に基づいて、通信インターフェイス270を介して、電子ノート200の端末情報を送信する。CPU110は、デジタルカメラ100から3Dコンテンツを受信する。CPU110は、3Dコンテンツの右目用画像と左目用画像とに基づいて、3Dディスプレイ230に静止画像や動画像を3Dで表示させる。
<電子ノート300のハードウェア構成>
本実施の形態に係る電子ノート300のハードウェア構成について説明する。図9は、本実施の形態に係る電子ノート300のハードウェア構成を示すブロック図である。
図9に示すように、本実施の形態に係る電子ノート300は、CPU310と、メモリ320と、2Dディスプレイ330と、入力デバイス340、メモリインターフェイス360、通信インターフェイス370とを含む。電子ノート300は、撮影装置を含んでもよい。
メモリ320は、各種のRAM(Random Access Memory)、ROM(Read-Only Memory)および/またはハードディスクなどによって実現される。メモリ320は、CPU310によって実行される制御プログラムと、2D動画像と、端末情報とを記憶する。端末情報は、電子ノート200が3D表示可能なディスプレイを有するか否かを示す情報や、ディスプレイのサイズを含む。ただし、端末情報は、メーカ名や型番を示す情報を含んでもよい。
2Dディスプレイ330は、CPU310に制御されることによって、様々な情報を表示する。たとえば、CPU310は、デジタルカメラ100から受信した2D動画像に基づいて、静止画像や動画像を2Dで交互に表示する。
入力デバイス340は、タブレット、キーボードおよび/またはマウスなどによって実現される。入力デバイス340は、ユーザからの命令を受け付けて、当該命令をCPU310に入力する。入力デバイス340としてのタブレットが、2Dディスプレイ330上に敷設されてもよい。すなわち、2Dディスプレイ330と入力デバイス340とがタッチパネル350を構成してもよい。
メモリインターフェイス360および記憶媒体361の実現方法は、実施の形態1に係るメモリインターフェイス160および記憶媒体161と同様に実現されるため、ここでは説明を繰り返さない。
通信インターフェイス370は、ネットワークを介してデジタルカメラ100、他のサーバ、他の通信端末とデータを送受信する。たとえば、通信インターフェイス370は、CPU310からの命令に基づいて、デジタルカメラ100に端末情報を送信する。通信インターフェイス370は、デジタルカメラ100からの2D動画像をメモリ320に格納する。
CPU310は、メモリ320に記憶されている各種のプログラムを実行する。電子ノート300における機能および処理は、各ハードウェアおよびCPU310により実行されるソフトウェアによって実現される。このようなソフトウェアは、メモリ320に予め記憶されている場合がある。また、ソフトウェアは、上述した記憶媒体361に格納されて、プログラム製品として流通している場合もある。あるいは、ソフトウェアは、いわゆるインターネットに接続されている情報提供事業者によってダウンロード可能なプログラム製品として提供される場合もある。
CPU310は、デジタルカメラ100からの要求に応じて、あるいはユーザからの命令に基づいて、通信インターフェイス370を介して、電子ノート300の端末情報を送信する。CPU310は、デジタルカメラ100から2D動画像を受信する。CPU310は、2D動画像に基づいて、2Dディスプレイ230に静止画像や動画像を表示させる。
<デジタルカメラ100におけるコンテンツ送信処理>
次に、本実施の形態に係るデジタルカメラ100におけるコンテンツ送信処理について説明する。図10は、本実施の形態に係るデジタルカメラ100におけるコンテンツ送信処理の処理手順を示すフローチャートである。
図10を参照して、まず、デジタルカメラ100のCPU110は、3Dコンテンツを取得する(ステップS102)。具体的には、CPU110は、ユーザからの撮影命令に従って、右カメラ181と左カメラ182とを利用することによって、3Dコンテンツとしての右目用画像と左目用画像とを撮影する。あるいは、CPU110は、通信インターフェイス170を介して、他の装置から3Dコンテンツを受信する。
CPU110は、入力デバイス140を介して、ユーザから送信命令を受け付けたか否かを判断する(ステップS104)。ここでは、CPU110は、3Dコンテンツの指定を受け付けたか否かを判断する(ステップS106)。CPU110は、送信命令を受け付けていない場合(ステップS104においてNOである場合)、ステップS104からの処理を繰り返す。
CPU110は、送信命令を受け付けた場合(ステップS104においてYESである場合)、入力デバイス140を介して、ユーザから送信相手の指定を受け付ける(ステップS106)。
CPU110は、送信先端末データベース120Aを参照することによって、送信相手に関する情報を取得する(ステップS108)。CPU110は、送信先端末データベース120Aが送信相手に関する情報を有していない場合(ステップS108においてNOである場合)、通信インターフェイス170を介して送信先端末に端末情報を要求する(ステップS110)。CPU110は、端末情報に基づいて、送信先端末が3D表示可能であるか否かを判断する(ステップS112)。
送信先端末が3D表示可能である場合(ステップS112においてYESである場合)、CPU110は、通信インターフェイス170を介して3Dコンテンツを送信する(ステップS114)。CPU110は、コンテンツ送信処理を終了する。
一方、送信先端末が3D表示不能である場合(ステップS112においてNOである場合)、CPU110は、3Dコンテンツに基づいて2D動画像を作成する(ステップS116)。具体的には、CPU110は、右目用画像と左目用画像を交互に表示するための動画像を作成する。CPU110、既に2D動画像を送信したことがある送信先端末に関しては、送信先端末データベース120Aを参照して、送信先端末に対応する切替速度で右目用画像と左目用画像を交互に表示するための動画像を作成する。CPU110は、既に作成したことがある2D動画像に関しては、画像データベース120Bを参照して、3Dコンテンツに適したずらし量で右目用画像と左目用画像を交互に表示するための動画像を作成する。
本実施の形態においては、CPU110は、3Dディスプレイ130に作成した動画像を表示する。CPU110は、入力デバイス140を介して、ユーザから切替速度の変更命令を受け付ける(ステップS118)。CPU110は、入力デバイス140を介して、ユーザからずらし量の変更命令を受け付ける(ステップS120)。
CPU110は、通信インターフェイス170を介して2D動画像を送信する(ステップS122)。CPU110は、コンテンツ送信処理を終了する。
<本実施の形態に係るデジタルカメラ100のその他の適用例>
本発明は、システム或いは装置にプログラムを供給することによって達成される場合にも適用できることはいうまでもない。そして、本発明を達成するためのソフトウェアによって表されるプログラムを格納した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の効果を享受することが可能となる。
この場合、記憶媒体から読出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1 ネットワークシステム、100 デジタルカメラ、110 CPU、120A 送信先端末データベース、120B 画像データベース、120X 3Dコンテンツ、130 3Dディスプレイ、140 入力デバイス、150 タッチパネル、160 メモリインターフェイス、161 記憶媒体、170 通信インターフェイス、180 撮影装置、181 右カメラ、182 左カメラ、200 電子ノート、210 CPU、220 メモリ、230 3Dディスプレイ、240 入力デバイス、250 タッチパネル、260 メモリインターフェイス、261 記憶媒体、270 通信インターフェイス、300 電子ノート、310 CPU、320 メモリ、330 2Dディスプレイ、340 入力デバイス、350 タッチパネル、360 メモリインターフェイス、361 記憶媒体、370 通信インターフェイス。

Claims (11)

  1. 右目用画像と左目用画像とを含む3Dコンテンツを記憶するためのメモリと、
    送信先端末が3D表示可能か否かを示す情報を受信するための通信インターフェイスと、
    前記送信先端末が3D表示可能である場合に、前記通信インターフェイスを介して前記送信先端末に前記3Dコンテンツを送信し、前記送信先端末が3D表示不能である場合に、前記右目用画像と前記左目用画像とを交互に表示するための動画像を生成し、前記通信インターフェイスを介して前記送信先端末に前記動画像を送信するためのプロセッサとを備える、コンテンツ送信装置。
  2. 前記右目用画像と前記左目用画像とを前記3Dコンテンツとして撮影するための撮影装置と、
    前記3Dコンテンツを3Dで表示するための3Dディスプレイとをさらに備える、請求項1に記載のコンテンツ送信装置。
  3. 前記撮影装置は、
    前記右目用画像を撮影するための右カメラと、
    前記左目用画像を撮影するための左カメラとを含む、請求項2に記載のコンテンツ送信装置。
  4. 前記撮影装置は、前記右目用画像および前記左目用画像の一方としての第1の画像と前記右目用画像および前記左目用画像の他方としての第2の画像とを撮影するためのカメラを含む、請求項2に記載のコンテンツ送信装置。
  5. 前記通信インターフェイスは、前記送信先端末または他の端末から前記3Dコンテンツを受信する、請求項1から4のいずれか1項に記載のコンテンツ送信装置。
  6. 前記動画像における前記右目用画像と前記左目用画像との切替速度の設定を受け付けるための入力デバイスをさらに備える、請求項1から5のいずれか1項に記載のコンテンツ送信装置。
  7. 前記メモリは、設定された前記切替速度を前記送信先端末に対応付けて記憶し、
    前記プロセッサは、前記メモリを参照することによって、前記送信先端末に対応する前記切替速度で右目用画像と左目用画像とを交互に表示するための動画像を作成する、請求項6に記載のコンテンツ送信装置。
  8. 前記プロセッサは、前記右目用画像と前記左目用画像とを左右方向にずらして交互に表示するための動画像を作成し、
    前記右目用画像と前記左目用画像とのずらし量の設定を受け付けるための入力デバイスをさらに備える、請求項1から5のいずれか1項に記載のコンテンツ送信装置。
  9. 前記メモリは、前記ずらし量を前記3Dコンテンツまたは前記動画像に対応付けて記憶し、
    前記プロセッサは、前記動画像を他の送信先端末に送信する際に、前記メモリを参照することによって、前記3Dコンテンツに対応する前記ずらし量で前記右目用画像と前記左目用画像と左右方向にずらして交互に表示するための前記動画像を作成する、請求項8に記載のコンテンツ送信装置。
  10. 通信インターフェイスとプロセッサとを備えるコンテンツ送信装置におけるコンテンツ送信方法であって、
    前記プロセッサが、右目用画像と左目用画像とを含む3Dコンテンツを取得するステップと、
    前記プロセッサが、前記通信インターフェイスを介して、送信先端末が3D表示可能か否かを示す情報を受信するステップと、
    前記送信先端末が3D表示可能である場合に、前記プロセッサが、前記通信インターフェイスを介して前記送信先端末に前記3Dコンテンツを送信するステップと、
    前記送信先端末が3D表示不能である場合に、前記プロセッサが、前記右目用画像と前記左目用画像とを交互に表示するための動画像を生成するステップと、
    前記送信先端末が3D表示不能である場合に、前記プロセッサが、前記通信インターフェイスを介して前記送信先端末に前記動画像を送信するステップとを備える、コンテンツ送信方法。
  11. コンテンツ送信装置と3D表示可能な第1の送信先端末と3D表示不能な第2の送信先端末とを備えるネットワークシステムにおけるコンテンツ送受信方法であって、
    前記コンテンツ送信装置が、右目用画像と左目用画像とを含む3Dコンテンツを取得するステップと、
    前記コンテンツ送信装置が、前記第1の送信先端末が3D表示可能であることを示す情報を受信するステップと、
    前記コンテンツ送信装置が、前記第1の送信先端末に前記3Dコンテンツを送信するステップと、
    前記第1の送信先端末が、前記3Dコンテンツを3Dで表示するステップと、
    前記コンテンツ送信装置が、前記第2の送信先端末が3D表示不能であることを示す情報を受信するステップと、
    前記コンテンツ送信装置が、前記右目用画像と前記左目用画像とを交互に表示するための動画像を生成するステップと、
    前記コンテンツ送信装置が、前記第2の送信先端末に前記動画像を送信するステップと、
    前記第2の送信先端末が、前記動画像を表示するステップとを備える、コンテンツ送受信方法。
JP2010240434A 2010-10-27 2010-10-27 コンテンツ送信装置、コンテンツ送信方法、およびコンテンツ送受信方法 Pending JP2012095073A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010240434A JP2012095073A (ja) 2010-10-27 2010-10-27 コンテンツ送信装置、コンテンツ送信方法、およびコンテンツ送受信方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010240434A JP2012095073A (ja) 2010-10-27 2010-10-27 コンテンツ送信装置、コンテンツ送信方法、およびコンテンツ送受信方法

Publications (1)

Publication Number Publication Date
JP2012095073A true JP2012095073A (ja) 2012-05-17

Family

ID=46387948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010240434A Pending JP2012095073A (ja) 2010-10-27 2010-10-27 コンテンツ送信装置、コンテンツ送信方法、およびコンテンツ送受信方法

Country Status (1)

Country Link
JP (1) JP2012095073A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013157422A1 (ja) 2012-04-18 2013-10-24 新日鐵住金株式会社 電縫溶接操業管理装置、電縫溶接操業管理方法、及びコンピュータプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09298761A (ja) * 1996-03-04 1997-11-18 Sanyo Electric Co Ltd 立体画像表示装置
JPH1188912A (ja) * 1997-09-10 1999-03-30 Canon Inc 複眼カメラ及び複眼カメラにおける表示制御方法
JP2005123729A (ja) * 2003-10-14 2005-05-12 Ntt Docomo Inc 画像データ提供システム
JP2011223260A (ja) * 2010-04-08 2011-11-04 Sony Corp 映像信号処理装置、表示装置、表示方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09298761A (ja) * 1996-03-04 1997-11-18 Sanyo Electric Co Ltd 立体画像表示装置
JPH1188912A (ja) * 1997-09-10 1999-03-30 Canon Inc 複眼カメラ及び複眼カメラにおける表示制御方法
JP2005123729A (ja) * 2003-10-14 2005-05-12 Ntt Docomo Inc 画像データ提供システム
JP2011223260A (ja) * 2010-04-08 2011-11-04 Sony Corp 映像信号処理装置、表示装置、表示方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013157422A1 (ja) 2012-04-18 2013-10-24 新日鐵住金株式会社 電縫溶接操業管理装置、電縫溶接操業管理方法、及びコンピュータプログラム

Similar Documents

Publication Publication Date Title
CN107590771B (zh) 具有用于在建模3d空间中投影观看的选项的2d视频
CN106251403B (zh) 一种虚拟立体场景实现的方法、装置和系统
US10403044B2 (en) Telelocation: location sharing for users in augmented and virtual reality environments
EP2328125B1 (en) Image splicing method and device
US20170039770A1 (en) Mixed reality social interaction
WO2020017134A1 (ja) ファイルの生成装置およびファイルに基づく映像の生成装置
EP3058451B1 (en) Techniques for navigation among multiple images
TW201136295A (en) Method and system for providing three dimensional stereo image
JP2012194642A (ja) 画像処理装置および画像処理方法、ならびに、画像処理システム
JP2004126902A (ja) 立体視画像生成方法および立体視画像生成装置
US11627302B1 (en) Stereoscopic viewer
TW200939738A (en) Processing graphics data for a stereoscopic display
JP6001826B2 (ja) 情報処理システム、情報処理装置、情報処理プログラムおよび情報処理方法
JP2016504828A (ja) 単一のカメラを用いて3d画像を取り込む方法およびシステム
US9942540B2 (en) Method and a device for creating images
JP5766394B2 (ja) 立体画像地図
JP2012095073A (ja) コンテンツ送信装置、コンテンツ送信方法、およびコンテンツ送受信方法
JP3679744B2 (ja) 画像合成方法および装置
US20120262450A1 (en) Image display apparatus and image display method
CN111193919B (zh) 一种3d显示方法、装置、设备及计算机可读介质
KR101315398B1 (ko) 3차원 증강 현실 표시 장치 및 방법
CN112104853A (zh) 3d视频的全景渲染方法、计算机设备和可读存储介质
CN109636895A (zh) 一种全息显示方法和电子沙盘装置
JP2012105054A (ja) コンテンツ処理装置、およびコンテンツ処理方法
JP5200141B2 (ja) 映像提示システム、映像提示方法、プログラム及び記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140701