JP2015052939A - 方法、電子機器、及びプログラム - Google Patents

方法、電子機器、及びプログラム Download PDF

Info

Publication number
JP2015052939A
JP2015052939A JP2013185693A JP2013185693A JP2015052939A JP 2015052939 A JP2015052939 A JP 2015052939A JP 2013185693 A JP2013185693 A JP 2013185693A JP 2013185693 A JP2013185693 A JP 2013185693A JP 2015052939 A JP2015052939 A JP 2015052939A
Authority
JP
Japan
Prior art keywords
content
image data
detected
displayed
displacement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013185693A
Other languages
English (en)
Other versions
JP6223755B2 (ja
Inventor
晃治 齊木
Koji Saiki
晃治 齊木
勇宇次 入本
Yuji Irimoto
勇宇次 入本
孝子 鈴木
Takako Suzuki
孝子 鈴木
大介 平川
Daisuke Hirakawa
大介 平川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2013185693A priority Critical patent/JP6223755B2/ja
Priority to EP14170736.4A priority patent/EP2846246A1/en
Priority to US14/297,465 priority patent/US20150070286A1/en
Publication of JP2015052939A publication Critical patent/JP2015052939A/ja
Application granted granted Critical
Publication of JP6223755B2 publication Critical patent/JP6223755B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

【課題】容易な操作でコンテンツを閲覧できる。
【解決手段】実施形態の方法は、表示画面に対する1つ以上の接触点を検出し、表示画面に第1のコンテンツが表示されているときに、表示画面に対する第1の接触点の変位が検出された場合に、第1の基準に基づいて第1のコンテンツに関連する第2のコンテンツを表示し、表示画面に対する、第1の接触点と検出された数が異なる複数の第2の接触点の変位が検出された場合に、第2の基準に基づいて第1のコンテンツに関連する第3のコンテンツを表示する。
【選択図】図4

Description

本発明の実施形態は、コンテンツを表示するための方法、電子機器、及びプログラムに関する。
従来から、タブレットコンピュータ、パーソナルコンピュータ(PC)といった種々の電子機器が開発されている。これら電子機器は、搭載されているカメラモジュールで撮像された画像データ、外部機器から取り込んだ画像データ、さらにはネットワークを介して接続されるサーバで保存されている画像データを表示することが可能である。
特開2006−202295号公報
しかしながら、従来技術においては、ユーザは所望のコンテンツを見つける際には、多数の画像データから、当該コンテンツを検索して表示するための操作が必要となる。一方、検索対象となるコンテンツを多く保持している場合には、ユーザ自身どのようなコンテンツを有しているのか把握できなくなり、保持しているコンテンツを表示することが難しくなる。
本発明の一形態は、ユーザが容易な操作でコンテンツを閲覧できる方法、電子機器、及びプログラムを提供することを目的とする。
実施形態の方法は、表示画面に対する1つ以上の接触点を検出し、表示画面に第1のコンテンツが表示されているときに、表示画面に対する第1の接触点の変位が検出された場合に、第1の基準に基づいて第1のコンテンツに関連する第2のコンテンツを表示し、表示画面に対する、第1の接触点と検出された数が異なる複数の第2の接触点の変位が検出された場合に、第2の基準に基づいて第1のコンテンツに関連する第3のコンテンツを表示する。
図1は、第1の実施形態にかかるタブレットコンピュータの外観例を示す斜視図である。 図2は、第1の実施形態のシステム構成例を示した図である。 図3は、第1の実施形態のタブレットコンピュータのシステム構成例を示した図である。 図4は、第1の実施形態にかかるタブレットコンピュータで実現されるソフトウェア構成を示した図である。 図5は、第1の実施形態の画像データ管理部のテーブル構造の例を示した図である。 図6は、第1の実施形態の全画面表示制御部により表示された画面例を示した図である。 図7は、第1の実施形態の関連画像表示制御部により表示された関連画像データの第1の例を示した図である。 図8は、第1の実施形態の関連画像表示制御部により表示された関連画像データの第2の例を示した図である。 図9は、タッチスクリーンディスプレイ上に描かれた指の移動軌跡の例を複数示している図である。 図10は、第1の実施形態の関連画像表示制御部により表示された関連画像データの第3の例を示した図である。 図11は、接触点の数と、関連画像データの表示基準と、を関連付けた例を示した図である。 図12は、接触点の数に応じた関連画像データの表示数の違いを示した図である。 図13は、変形例にかかる接触点の数に応じて表示される関連画像データの撮影日時の範囲を示した図である。 図14は、第1の実施形態の関連画像表示制御部により表示された関連画像データの第4の例を示した図である。 図15は、第1の実施形態の関連画像表示制御部により表示された関連画像データの第5の例を示した図である。 図16は、第1の実施形態の関連画像表示制御部により表示された関連画像データの第6の例を示した図である。 図17は、第1の実施形態のタブレットコンピュータの画面遷移例を示した図である。 図18は、第1の実施形態のタブレットコンピュータにおける、画像データの全画面表示から、関連画像データを表示する際の処理の手順を示すフローチャートである。 図19は、第1の実施形態のタブレットコンピュータにおける、一覧画面表示から、関連画像データを表示する際の処理の手順を示すフローチャートである。 図20は、第2の実施形態のタブレットコンピュータにおける、現在の地点からの距離と、カメラモジュールの撮像方向と組み合わせて、関連画像データを表示する例を示した図である。
以下、方法、電子機器、及びプログラムに関する実施形態について、図面を参照して説明する。
(第1の実施形態)
図1は、第1の実施形態にかかるタブレットコンピュータの外観例を示す斜視図である。図1に示される本実施形態は、電子機器としてタブレットコンピュータを用いた例について説明する。なお、本実施形態は、電子機器をタブレットコンピュータに制限するものではなく、タブレットコンピュータ、携帯電話端末、PDA、ノートブック型のパーソナルコンピュータ等を用いても良い。タブレットコンピュータ100は、図1に示されるように、本体部101と、タッチスクリーンディスプレイ110と、カメラモジュール109と、を備えている。
本体部101は、薄い直方体の箱形状とする。タッチスクリーンディスプレイ110は、本体部101の一面に嵌め込まれている。タッチスクリーンディスプレイ110は、例えばLCD(液晶表示装置)にタッチパネルを貼り付けて構成されている。LCDは、文字や画像等を画面に表示する。タッチパネルは、LCDにより表示された画面に対するペン又は指の接触位置を検出することで、ユーザからの操作を受け付ける。本実施形態は、表示部をLCDに制限するものではなく、文字や画像等が表示できれば良い。また、タッチパネルは、どのような手法のものを用いても良いが、例えば静電容量方式のタッチパネル等を用いることが考えられる。
カメラモジュール109は、本体部101において、タッチスクリーンディスプレイ110が設けられた一面と反対側の面(背面)から、タブレットコンピュータ100の周囲を撮像するように設けられたカメラモジュールとする。
図2は、第1の実施形態のシステム構成例を示した図である。図2を参照して、本実施形態のシステム構成について説明する。タブレットコンピュータ100は、インターネット22を介して、オンラインストレージサイト20及びSNSサイト21と接続されている。
タブレットコンピュータ100は、オンラインストレージサイト20とコンテンツを送受信できる。タブレットコンピュータ100は、SNSサイト21に、コンテンツをアップロードできる。タブレットコンピュータ100は、SNSサイト21に投稿されたコンテンツに対するコメント等の送信及び受信を可能とする。タブレットコンピュータ100は、オンラインストレージサイト20及びSNSサイト21に保持されているコンテンツを、タブレットコンピュータ100に保持されているコンテンツと同様に閲覧、検索等を可能としている。
本実施形態では、コンテンツとして、カメラモジュール109等で撮像された画像データを用いた例について説明するが、コンテンツを画像データに制限するものではなく、動画像データや、音楽データ等であっても良い。
図3は、タブレットコンピュータ100のシステム構成例を示した図である。図3に示されるように、タブレットコンピュータ100は、CPU114と、システムコントローラ102と、メインメモリ103と、グラフィックスコントローラ104と、BIOS−ROM105と、不揮発性メモリ106と、無線通信デバイス107と、エンベデットコントローラ(EC)108と、カメラモジュール109と、電話回線通信モジュール111と、スピーカーモジュール112と、GPS受信部113と、センサー115とを備える。
CPU114は、タブレットコンピュータ100の各種モジュールの動作を制御するプロセッサとする。まず、CPU114は、BIOS―ROM105に格納されたBIOS(Basic Input/Output System)を実行する。
その後、CPU114は、ストレージデバイスである不揮発性メモリ106からメインメモリ103にロードされる各種プログラムを実行する。実行されるプログラムには、オペレーティングシステム(OS)201、及び各種アプリケーションプログラムが含まれている。アプリケーションプログラムには、例えばコンテンツ表示プログラム202が含まれている。
コンテンツ表示プログラム202は、画像データを表示する機能を備える。例えば、コンテンツ表示プログラム202は、カメラモジュール109を用いて撮影された画像データ、不揮発性メモリ106に記憶された画像データ、外部記憶媒体やオンラインストレージサイト20やSNSサイト21に格納された画像データ等を管理する機能を有する。また、コンテンツ表示プログラム202は、管理対象の画像データを他のユーザと共有するための機能を有している。また、コンテンツ表示プログラム202は、ユーザが容易に画像データを検索するためのユーザインターフェース(UI)の他に、ユーザにとって思いがけない画像データを提示するためのUIを有している。
システムコントローラ102は、CPU114のローカルバスと各種コンポーネントとの間を接続するデバイスとする。システムコントローラ102は、メインメモリ103にアクセス制御するメモリコントローラを内蔵している。また、システムコントローラ102は、PCI EXPRESS規格のシリアルバスなどを介してグラフィックスコントローラ104と通信する機能を有している。
グラフィックスコントローラ104は、タブレットコンピュータ100のディスプレイモニタとして使用されるLCD110Aを制御する表示コントローラとする。グラフィックスコントローラ104により生成される表示信号は、LCD110Aに送信される。LCD110Aは、表示信号に基づいて画面データを表示する。LCD110Aにはタッチパネル110Bが配置されている。
無線通信デバイス107は、無線LANやBluetooth(登録商標)などの無線通信を実行するように構成されたデバイスとする。EC108は、電源管理のためのエンベデッドコントローラを含むワンチップマイクロコンピュータとする。EC108は、ユーザによるパワーボタンの操作に応じて、タブレットコンピュータ100を電源オン又は電源オフする機能を有している。
カメラモジュール109は、例えば、ユーザがタッチスクリーンディスプレイ110の画面上に表示されたボタン(グラフィカルオブジェクト)をタッチ(タップ)したことに応じて撮影する。スピーカーモジュール112は、音声信号に基づいて音声を出力する。
電話回線通信モジュール111は、例えば3G等の移動通信システムとして提供されるネットワークを中継する基地局を介して、音声データを含んだデータ通信を行うためのモジュールとする。
GPS(Global Positioning System)受信部113は、GPSで計測されたタブレットコンピュータ100の位置情報を受信する。
センサー115は、タブレットコンピュータ100の方向等を検出可能なセンサーであれば良い。センサー115は、例えば、コンパスとする。コンパスは、タブレットコンピュータ100が向いている方位(東、西、南、北など)及び変位を検出できる。
なお、以下に記載される「日時」に関して、特に限定するような記載がない限り、「日時」は、年月、日、時間、または曜日等を意味している。また、コンテンツの日時は、コンテンツを作成した日時等を示す。また、コンテンツが画像データであった場合、コンテンツを作成した日時は、撮影された日時に相当する。
図4は、本実施形態にかかるタブレットコンピュータ100で実現されるソフトウェア構成を示した図である。タブレットコンピュータ100は、CPU114が、コンテンツ表示プログラム202を実行することで、図4に示される構成を実現できる。
図4に示すように、コンテンツ表示プログラム202は、取得制御部411と、特徴抽出部412と、表示制御部413と、検出部414と、を備える。そして、コンテンツ表示プログラム202に含まれる各構成は、不揮発性メモリ106に格納された、画像データ管理部401を参照する。
本実施形態のコンテンツ表示プログラム202は、不揮発性メモリ106に格納された画像データ管理部401で管理されている画像データを、ユーザに対して表示する。画像データ管理部401が管理の対象となる画像データは、不揮発性メモリ106内の画像データの他、オンラインストレージサイト20やSNSサイト21に保持されている画像データも対象となる。
図5は、画像データ管理部401のテーブル構造の例を示した図である。図5に示されるように、画像データ管理部401は、ファイル名と、日時と、緯度と、経度と、特徴情報と、を対応付けて記憶している。緯度及び経度は、画像データの撮影が行われた地点を示している。特徴情報は、画像データから抽出された特徴を示した情報とする。
図4に戻り、取得制御部411は、カメラモジュール109で撮影された画像データの他に、当該画像データが撮影された地点を表す緯度、経度、及び撮影された日時を取得する。取得制御部411は、取得した画像データを、特徴抽出部412に出力する。取得制御部411は、特徴抽出部412により抽出された特徴情報と、画像データと、を受信し、受信した画像データと、緯度、経度、日時、及び特徴情報を画像データ管理部401に格納する。
特徴抽出部412は、入力された画像データから特徴情報を抽出する。特徴抽出部412が抽出する特徴情報は、画像データに含まれる顔、笑顔、または風景を識別可能な情報とする。画像データに被写体が含まれている場合に、顔を検出し、その特徴量を求める。特徴量とは、顔の位置、サイズ、笑顔度、鮮明度、及び正面度等の情報の量とする。このように、特徴抽出部412は、画像データ管理部401で管理されている全ての画像データに対して、顔の検出と特徴量の算出(顔認識)を行ない、類似した特徴の顔が写っている画像データを1つのグループとしてクラスタリング可能な情報を抽出する。これにより、一覧表示を行う際に、任意の人物が写っている画像データの一覧表示を可能とする。さらに、写真の風景(シーン)を抽出する技術では、写真の被写体から顔以外の主要な被写体を認識する(シーン認識)。認識されたシーンと、抽出された顔の特徴量を組み合わせることで、シーンにより分類された画像データの一覧表示を可能とする。認識できるシーンは、例えば、風景、花、建物、料理、及び乗り物等である。顔認識と組み合わせることで、家族写真や集合写真を認識することもできる。特徴抽出部412は、風景に関して、その特徴から、海、紅葉、雪、都市、日本家屋、夜景、及び路上等を含んでいるか否かを表す情報を特徴情報として抽出できる。
検出部414は、タッチパネル110Bを介して、タッチスクリーンディスプレイ110に対する1つ以上の接触点を検出する。本実施形態にかかるタッチパネル110Bは、マルチタッチ対応パネルとする。このため、検出部414は、タッチスクリーンディスプレイ110に接触した指の本数に応じた接触点を検出する。本実施形態のタブレットコンピュータ100では、タッチスクリーンディスプレイ110に対する複数本の指による同時操作を可能とし、指の本数に応じて異なる処理、表示を行う。
表示制御部413は、タッチスクリーンディスプレイ110に情報を表示するための制御を行う。本実施形態の表示制御部413は、一覧表示制御部451と、全画面表示制御部452と、関連画像表示制御部453と、表示態様変更部454と、を備える。
一覧表示制御部451は、画像データ管理部401が管理している画像データを一覧表示する。一覧表示の手法としては、日時や地点毎に分類して複数の画像データを一覧表示することが考えられる。
全画面表示制御部452は、画像データ管理部401が管理している画像データを、タッチスクリーンディスプレイ110の表示領域に合わせて、全画面表示を行う。例えば、一覧表示制御部451が、画像データを一覧表示している際に、検出部414が任意の画像データの選択を検出した場合に、全画面表示制御部452が、当該任意の画像データの全画面表示を行う。
図6は、全画面表示制御部452により表示された画面例を示した図である。図6に示されるように、タッチスクリーンディスプレイ110に画像データ601が全画面表示されている。本実施形態のタブレットコンピュータ100では、全画面表示が行われている時に、関連している画像データの表示を行うことができる。
関連画像表示制御部453は、タッチスクリーンディスプレイ110に画像データが表示されている時に、検出部414によりタッチスクリーンディスプレイ110に対する接触点の変位が検出された場合に、予め設定された基準に基づいて、現在表示されている画像データに関連する画像データ(以下、関連画像データと称す)を表示する。
図7は、関連画像表示制御部453により表示された関連画像データの第1の例を示した図である。図7に示されるように、検出部414が、ユーザの指を接触点として検出した後、当該接触点の変位701を検出した場合に、関連画像表示制御部453が、現在表示している画像データ601に関連する関連画像データ711、712の表示制御を行う。関連画像表示制御部453は、関連画像データ711、712が、タッチスクリーンディスプレイ110上の予め設定された位置まで移動してくるアニメーション表示を行う。
本実施形態では、検出部414による接触点の変位に応じて、関連画像データが追加される。図8は、関連画像表示制御部453により表示された関連画像データの第2の例を示した図である。図8に示されるように、図7の表示制御を行った後、検出部414が、接触点のさらなる変位801を検出した場合に、関連画像表示制御部453が、現在表示している画像データ601に関連する関連画像データ811、812を追加する表示制御を行う。
このように本実施形態では、検出部414が接触点の変位を検出する毎に、関連画像データの追加表示が行われる。本実施形態は、接触点の変位として、タッチスクリーンディスプレイ110上のX軸方向又はY軸方向における、移動方向の反転が検出されるものとする。そして、移動方向の反転が検出された場合に、関連画像データの表示制御が行われる。図9は、検出部414が検出する、接触点の変位を表した図である。図9は、タッチスクリーンディスプレイ110上に描かれた指の移動軌跡の例を複数示している。図9の例では、○印で囲まれた箇所に、X軸方向又はY軸方向における、移動方向の反転が表わされている。
例えば、移動軌跡901上では、X軸方向で移動方向が反転した箇所で、関連画像表示制御部453が、関連画像データを追加する。また、移動方向の反転した際の角度を特に制限するものではなく、移動軌跡902のように、90度以上の角度で移動方向が反転した場合でも、関連画像表示制御部453が、関連画像データを追加する。
また、X軸方向の移動方向の反転に制限するものではなく、移動軌跡903のように、Y軸方向で移動方向が反転した場合でも、関連画像表示制御部453が、関連画像データを追加する。
本実施形態では、移動軌跡が反転する毎に、関連画像データの追加表示が行われる。例えば、移動軌跡904、905の場合、関連画像表示制御部453は、表示される関連画像データを2回追加する。
さらに、本実施形態のタブレットコンピュータ100は、接触点の数に応じて、基準が異なる関連画像データを追加表示する。図10は、関連画像表示制御部453により表示された関連画像データの第3の例を示した図である。図10に示される例では、3個の接触点のそれぞれについて変位1001、1002、1003の検出が行われた例とする。この場合、図8の画面例で示された関連画像データ711、712、811、812と異なる関連画像データ1011、1012、1013、1014が表示されている。図10に示されるように、検出される複数の変位1001、1002、1003は、同じ手の指であることを想定している。つまり、検出部414により検出される、複数の接触点に含まれるそれぞれの接触点の移動軌跡が、互いに対応する形状を有する軌跡であることが必要とされる。
次に、本実施形態における接触点の数に応じた関連画像データの表示基準について説明する。図11は、接触点の数と、関連画像データの表示基準と、を関連付けた例を示した図である。図11に示されるように、接触点の数が“1”、換言すればユーザが指1本でタッチスクリーンディスプレイ110を接触して上下、又は左右に振っている場合には、タッチスクリーンディスプレイ110に表示されている画像データと所定の距離内の地点で撮影された画像データが、関連画像データとして表示される。そして、指2本で上下、又は左右に振っている場合には、類似画像データが関連画像データとして表示され、指3本で上下、又は左右に振っている場合には、同じ日に撮影された画像が類似画像データとして表示され、指4本以上で上下、又は左右に振っている場合には、同一と判定される人物(被写体)が写っている画像が類似画像データとして表示される。このように、本実施形態では、ユーザの指の数に応じて、表示される関連画像データが変化する。また、接触点の数に応じた関連画像データの表示基準の違いは、様々な態様が考えられる。
例えば、接触点の数に応じて、表示される関連画像データの数を異ならせても良い。図12は、接触点の数に応じた関連画像データの表示数の違いを示した図である。図12に示される例では、接触点の変位を検出した際に、接触点の数(例えば、“1”、“2”、“3”、“4〜”)に応じて、変位を検出された場合に表示される関連画像データの数(例えば、“2”、“4”、“6”、“8”)が増加する。また、関連画像データの数(例えば、“2”、“4”、“6”、“8”)の増加に伴って、表示態様変更部454が表示される関連画像データの画像サイズ(例えば“大”、“大”、“中”、“小”)を変更させる。これにより、表示される関連画像データの数が増加すると、タッチスクリーンディスプレイ110に表示される関連画像データの画像サイズが小さくなる。これにより、表示された関連画像データが、他の関連画像データに重畳表示され、すぐに見えにくくなるのを抑止できる。なお、接触点の数に応じて、関連画像データの数を異ならせるか否かは、ユーザが設定可能とする。
このように、表示態様変更部454は、ユーザの操作等に応じて、関連画像データ等の画像データを表示態様の変更を行う。
さらに、本実施形態のタブレットコンピュータ100と異なるが、接触点の数に応じて、表示される関連画像データの撮影日時の範囲を異ならせても良い。図13は、変形例にかかる接触点の数に応じて表示される関連画像データの撮影日時の範囲を示した図である。図13に示される例では、接触点が1つ検出された場合、関連画像表示制御部453は、タッチスクリーンディスプレイ110に全画面表示されている画像データと、同じ日に撮影された画像データを、関連画像データとして表示する。また、接触点が2つ検出された場合、関連画像表示制御部453は、タッチスクリーンディスプレイ110に全画面表示されている画像データが撮影された日から、前後3日以内に撮影された画像データを、関連画像データとして表示する。また、接触点が3つ検出された場合、関連画像表示制御部453は、タッチスクリーンディスプレイ110に全画面表示されている画像データが撮影された日から、前後1週間以内に撮影された画像データを、関連画像データとして表示する。また、接触点が4つ以上検出された場合、関連画像表示制御部453は、タッチスクリーンディスプレイ110に全画面表示されている画像データが撮影された日から、前後一月以内に撮影された画像データを、関連画像データとして表示する。
さらには、本実施形態のタブレットコンピュータ100と異なるが、検出された接触点の数に応じて、撮影された地点の検索範囲を異ならせても良い。例えば、接触点の数が増加するほど、より広い範囲内から、表示される画像データを探すなどが考えられる。
換言すれば、接触点の数に応じた基準は、少なくとも、表示されている画像データ(コンテンツ)の作成時刻と、関連画像データ(コンテンツ)の作成時刻との時間的な関係、表示されている画像データ(コンテンツ)の作成地点と関連画像データ(コンテンツ)の作成地点との地理的な関係、表示されている画像データ(コンテンツ)の被写体と関連画像データ(コンテンツ)の被写体との関係、の少なくともいずれかを定めるものとする。
さらには、本実施形態のタブレットコンピュータ100と異なるが、接触点の数に応じて、関連画像データを表示する際のアニメーションの態様やアニメーションの速度を異ならせても良い。さらには、接触点の数に応じて、画像データのメタデータ(属性)、被写体の種類、ファイルサイズ、解像度、アップロード先、画像データの取得元等を異ならせても良い。
このように、関連画像表示制御部453は、タッチスクリーンディスプレイ110に画像データが表示されている際に、タッチスクリーンディスプレイ110に対して1つの接触点の移動方向の反転が検出された場合に、所定の基準に基づいて、表示されている画像データに関連する関連画像データを表示し、タッチスクリーンディスプレイ110に対して、2つ以上の接触点の移動方向の反転が検出された場合に、所定の基準と異なる基準に基づいて、表示されている画像データに関連する関連画像データを表示する。
また、本実施形態のタブレットコンピュータ100は、全画面表示制御部452が画像データを表示している場合に、関連画像データの表示制御を行うことに制限するものではない。一覧表示制御部451が画像データの一覧表示をしている場合に、関連画像データの表示制御を行っても良い。
図14は、関連画像表示制御部453により表示された関連画像データの第4の例を示した図である。図14に示される画面例では、一覧表示制御部451が、8月7日に撮影された画像データの一覧表示を行っている際に、関連画像データを表示する例とする。例えば、検出部414が、接触点の変位(移動方向の反転)1402を検出した場合、関連画像表示制御部453が、現在表示されている画像一覧に関連する関連画像データ1411、1412を表示する。図14に示される例では、一覧表示されている画像データと同日に撮影された画像データを、関連画像データとして表示する。
図15は、関連画像表示制御部453により表示された関連画像データの第5の例を示した図である。図15に示される画面例では、一覧表示制御部451が、8月12日〜8月14日に撮影された画像データの一覧表示を行っている際に、関連画像データを表示する例とする。例えば、検出部414が、接触点の変位(移動方向の反転)1501を検出した場合、関連画像表示制御部453が、現在表示されている画像一覧に関連する関連画像データ1511、1512を表示する。図15に示される例では、一覧表示されている画像データと同じ日時(8月12日〜8月14日)に撮影された画像データを、関連画像データとして表示する。
また、このように一覧表示されている場合でも、接触点の数に応じて、関連映像データの表示基準を異ならせる。本実施形態では、接触点の数に応じて、検索対象となる撮影日時の範囲を広くする。
図16は、関連画像表示制御部453により表示された関連画像データの第6の例を示した図である。図16に示される画面例では、一覧表示制御部451が、8月12日〜8月14日に撮影された画像データの一覧表示を行っている際に、関連画像データを表示する例とする。例えば、検出部414が、2個の接触点の変位(移動方向の反転)1601、1602を検出した場合、関連画像表示制御部453が、現在表示されている画像一覧に関連する関連画像データ1611、1612を表示する。図16に示される例では、一覧表示されている画像データから前後3日以内に撮影された画像データを、関連画像データとして表示する。このように接触点が2個の場合に、撮影日時範囲が3倍に広がるものとする。接触点がさらに増加した場合に、さらに撮影日時範囲が広がるものとする。
このように、本実施形態のタブレットコンピュータ100は、表示されている画面に拘わらず、接触点の数に応じて、表示する関連画像データの基準を異ならせる。また、関連画像データを表示する際の一覧画面を日時別に制限するものでなく、撮影地点別の一覧画面や、イベント別の一覧画面等であっても良い。
図17は、本実施形態のタブレットコンピュータ100の画面遷移例を示した図である。図17の(A)に示される画面例では、全画面表示制御部452が、画像データ1701を表示しているものとする。
そして、図17の(B)に示されるように、検出部414により接触点の移動軌跡1711の反転が検出された場合に、関連画像表示制御部453が、関連画像データ1712、1713を表示する。
そして、図17の(C)に示されるように、検出部414が、関連画像データ1712に対する接触を検出した場合に、全画面表示制御部452が、関連画像データ1712を全画面表示する。その後、図17の(D)に示されるように、検出部414により接触点の移動軌跡1721の反転が検出された場合に、関連画像表示制御部453が、関連画像データ1712に関連している関連画像データ1722、1723を表示する。
一方、図17の(B)の画面表示が行われた後、さらに、検出部414により接触点の移動軌跡1731の反転が検出された場合、図17の(E)に示されるように、関連画像表示制御部453が、関連画像データ1731、1732を表示する。その後、図17の(F)に示されるように、検出部414により接触点の移動軌跡1741の反転が検出される毎に、表示される関連画像データが追加されていく。
このように、ユーザが指を上下、又は左右に振る毎に、表示される関連画像データが追加されていくため、ユーザは思いがけない画像データに出合うことができる。画像データを検索する場合、ユーザは検索対象となる画像データを予めイメージしておく必要がある。換言すると、検索では、ユーザがイメージできない画像データを閲覧する機会が低減する。これに対して、本実施形態のタブレットコンピュータ100は、簡易な操作で、様々な画像データを表示できるため、ユーザは、意図していない画像データ等も参照できる。これにより、通常のUIと異なる面白味をユーザに対して提供できる。
次に、本実施形態にかかるタブレットコンピュータ100における、画像データの全画面表示から、関連画像データを表示する際の処理について説明する。図18は、本実施形態にかかるタブレットコンピュータ100における上述した処理の手順を示すフローチャートである。
まず、タブレットコンピュータ100の一覧表示制御部451が、画像データの一覧画面を表示する(ステップS1801)。その後、検出部414が、一覧画面から任意の画像データの選択を検出する(ステップS1802)。
その後、全画面表示制御部452が、選択された画像データを全画面表示する(ステップS1803)。そして、検出部414は、タッチスクリーンディスプレイ110に対する接触がなされたか、換言すれば接触点が検出されたか否かを判定する(ステップS1804)。接触点が検出されなかった場合(ステップS1804:No)、再びステップS1804の処理を繰り返す。
一方、検出部414により接触点が検出された場合(ステップS1804:Yes)、検出部414が、接触点の数を取得する(ステップS1805)。さらに、検出部414は、X軸方向又はY軸方向における、接触点の移動軌跡が反転されたか否かを検出する(ステップS1806)。移動方向の反転が検出されなかった場合(ステップS1806:No)、再びステップS1805から処理を行う。
一方、検出部414が、X軸方向又はY軸方向における、接触点の移動方向の反転を検出した場合(ステップS1806:Yes)、関連画像表示制御部453が、接触点の数に応じた基準に基づいて、現在全画面表示されている画像データと関連する関連画像データを読み出す(ステップS1807)。そして、関連画像表示制御部453が、読み出した関連画像データを、所定の位置までアニメーション表示する(ステップS1808)。その後、再びステップS1804から処理を繰り返す。
次に、本実施形態にかかるタブレットコンピュータ100における、一覧画面表示から、関連画像データを表示する際の処理について説明する。図19は、本実施形態にかかるタブレットコンピュータ100における上述した処理の手順を示すフローチャートである。
まず、タブレットコンピュータ100の一覧表示制御部451が、日時別の画像データの一覧画面を表示する(ステップS1901)。そして、検出部414は、タッチスクリーンディスプレイ110上で、接触点が検出されたか否かを判定する(ステップS1902)。接触点が検出されなかった場合(ステップS1902:No)、再びステップS1902の処理を繰り返す。
一方、検出部414により接触点が検出された場合(ステップS1902:Yes)、検出部414が、接触点の数を取得する(ステップS1903)。さらに、検出部414は、X軸方向又はY軸方向における、接触点の移動軌跡が反転されたか否かを検出する(ステップS1904)。移動方向の反転が検出されなかった場合(ステップS1904:No)、再びステップS1903から処理を行う。
一方、検出部414が、X軸方向又はY軸方向における、接触点の移動方向の反転を検出した場合(ステップS1904:Yes)、関連画像表示制御部453が、接触点の数に応じた基準に基づいて、現在一覧表示されている画像データと日時が関連する関連画像データを読み出す(ステップS1905)。そして、関連画像表示制御部453が、読み出した関連画像データを、所定の位置までアニメーション表示する(ステップS1906)。その後、再びステップS1902から処理を繰り返す。
上述した処理手順により、ユーザの簡単な操作に従って、関連画像データを表示することができる。当該操作を繰り返すことで、ユーザは思いがけない関連画像データに出合う可能性が向上する。
(第2の実施形態)
上述した実施形態は、タッチスクリーンディスプレイ110に表示された画像データに基づいて関連画像データを表示する例について説明した。しかしながら、関連画像データを表示するために必要な画像データを、すでに撮影されたものに制限するものではない。そこで第2の実施形態では、現在撮像中の画像データに基づいて、関連画像データを表示する例について説明する。なお、第2の実施形態のタブレットコンピュータ100の構成は、第1の実施形態と同様として説明を省略する。
第2の実施形態のタブレットコンピュータ100は、カメラモジュール109のレンズを介して、人物、景色や風景がタッチスクリーンディスプレイ110に表示されている例とする。そして、第2の実施形態のタブレットコンピュータ100は、カメラモジュール109を介して現在撮影されている画像データに基づいて、関連画像データを表示する。
つまり、カメラモジュール109で撮像されている画像データを、取得制御部411が取得し、特徴抽出部412が、当該取得した画像データから特徴情報を抽出する。そして、全画面表示制御部452が、取得した画像データをタッチスクリーンディスプレイ110に全画面表示する。このような状況で、検出部414が、タッチスクリーンディスプレイ110上の接触点の移動方向の反転を検出した場合、関連画像表示制御部453が、現在表示されている画像データに関連する関連画像データを表示する。表示する際に、現在の日時、地点(緯度、経度)、及び特徴情報等に基づいた関連画像データが読み出される。
関連画像データを表示する際の基準は、第1の実施形態と同様でも良いし、他のセンサー115から検出された情報と組み合わせても良い。本実施形態では、現在の地点からの距離と、検出されたタブレットコンピュータ100の方向と組み合わせて、関連画像データを表示する例について説明する。
図20は、現在の地点からの距離と、カメラモジュール109の撮像方向と組み合わせて、関連画像データを表示する例を示した図である。図20で示されるように、センサー115が、タブレットコンピュータ100のカメラモジュール109の撮影方向を検出し、取得制御部411が、センサー115による検出結果(撮影方向)を取得する。そして、関連画像表示制御部453は、取得制御部411により取得された撮影方向及び現在表示されている画像データに基づいて関連画像データを表示する。例えば、関連画像表示制御部453は、現在表示されている画像データに類似する画像データのうち、撮影方向の任意の地点で撮像された画像データを関連画像データとして表示する。その際に、検出部414が検出した接触点の数に応じて、関連画像データを読み出す範囲が定められる。
例えば、検出部414が接触点を1個検出した場合、関連画像表示制御部453は、撮影方向(且つ撮影画角)上の地点であり且つ現在の地点から1kmの範囲2001以内で撮影された画像データ2011〜2013から、関連画像データが表示される。
他の例としては、検出部414が接触点を2個検出した場合、関連画像表示制御部453は、撮影方向(且つ撮影画角)上の地点であり且つ現在の地点から10kmの範囲2001、2002以内の画像データ2011〜2013、2021〜2025から、関連画像データが表示される。検出点が多くなるにつれて、関連画像データを読み出す範囲が広くなる。接触点が3個以上検出された場合には、関連画像データを読み出す範囲がさらに広くなる。
このように、本実施形態の関連画像表示制御部453は、任意の接触点に対応する第1の表示基準及び撮影方向の双方に応じて関連画像データを表示し、任意の検出点と数が異なる他の接触点の変位が検出された場合に、第1の表示基準と異なる第2の表示基準及び撮影方向の双方に応じて関連画像データを表示する。
なお、本実施形態は、組み合わせるセンサー115がコンパスの場合について説明したが、他のセンサーと組み合わせて、関連画像データの表示を行っても良い。さらに、検出した接触点の数に応じた範囲の全ての関連画像データを表示した後も、検出部414が接触点の移動方向の反転を検出した場合に、関連画像表示制御部453は、表示する関連画像データの検索範囲をさらに広げても良い。これにより、ユーザの操作が行われている限り、次々と関連画像データを表示することができる。
以上説明したとおり、上述した実施形態のタブレットコンピュータ100によれば、ユーザの容易な操作でコンテンツを閲覧できる。さらには、ユーザがタッチスクリーンディスプレイ110を接触させる指の数に応じて、表示される関連画像データの基準を異ならせることができるため、ユーザは容易な操作で、様々な関連画像データを表示できる。さらに、移動方向の反転を検出する毎に、関連画像データを表示するため、ユーザが既に忘れていたため検索もできなかった画像データ等も表示できる。
本実施形態のタブレットコンピュータで実行されるコンテンツ表示プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
また、本実施形態のタブレットコンピュータで実行されるコンテンツ表示プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態のタブレットコンピュータで実行されるコンテンツ表示プログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。
また、本実施形態のコンテンツ表示プログラムを、ROM等に予め組み込んで提供するように構成しても良い。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100…タブレットコンピュータ、101…本体部、102…システムコントローラ、103…メインメモリ、104…グラフィックスコントローラ、105…BIOS―ROM、106…不揮発性メモリ、107…無線通信デバイス、108…EC、109…カメラモジュール、110…タッチスクリーンディスプレイ、110A…LCDE、110B…タッチパネル、111…電話回線通信モジュール、112…スピーカーモジュール、113…GPS受信部、114…CPU、115…センサー、201…OS、202…コンテンツ表示プログラム、401…画像データ管理部、411…取得制御部、412…特徴抽出部、413…表示制御部、414…検出部、451…一覧表示制御部、452…全画面表示制御部、453…関連画像表示制御部、454…表示態様変更部。

Claims (15)

  1. 表示画面に対する1つ以上の接触点を検出し、
    前記表示画面に第1のコンテンツが表示されているときに、前記表示画面に対する第1の接触点の変位が検出された場合に、第1の基準に基づいて前記第1のコンテンツに関連する第2のコンテンツを表示し、前記表示画面に対する、前記第1の接触点と検出された数が異なる複数の第2の接触点の変位が検出された場合に、第2の基準に基づいて前記第1のコンテンツに関連する第3のコンテンツを表示する、
    方法。
  2. 前記変位は、前記表示画面上の第1の軸方向における、接触点の移動方向の反転により検出されるものであって、
    前記複数の第2の接触点に含まれるそれぞれの第2の接触点の移動の軌跡は、互いに対応する形状を有する軌跡である、
    請求項1に記載の方法。
  3. 前記第1の基準と前記第2の基準との少なくとも一方は、前記第1のコンテンツの作成時刻と前記第2のコンテンツ又は前記第3のコンテンツ作成時刻との時間的な関係、前記第1のコンテンツの作成地点と前記第2のコンテンツ又は前記第3のコンテンツの作成地点との地理的な関係、前記第1のコンテンツの被写体と前記第2のコンテンツ又は前記第3のコンテンツの被写体との関係、の少なくともいずれかを定めるものである、
    請求項1又は2に記載の方法。
  4. センサーで検出された第1情報を取得し、
    前記第1の基準及び前記第1情報の双方に応じて前記第2のコンテンツを表示し、前記第2の接触点の変位が検出された場合に、前記第2の基準及び前記第1情報の双方に応じて前記第3のコンテンツを表示する、
    請求項1乃至3のいずれか1つに記載の方法。
  5. 撮像部により撮像された第1の画像データが前記表示画面に表示されているときに、前記第1の接触点の変位が検出された場合に、前記第1の基準に基づいて前記第1の画像データに関連する第2の画像データを表示し、前記複数の第2の接触点の変位が検出された場合に、前記第2の基準に基づいて前記第1の画像データに関連する第3の画像データを表示する、
    請求項1乃至4のいずれか1つに記載の方法。
  6. 表示画面に対する1つ以上の接触点を検出するための検出部と、
    前記表示画面に第1のコンテンツが表示されているときに、前記表示画面に対する第1の接触点の変位が検出された場合に、第1の基準に基づいて前記第1のコンテンツに関連する第2のコンテンツを表示し、前記表示画面に対する、前記第1の接触点と検出された数が異なる複数の第2の接触点の変位が検出された場合に、第2の基準に基づいて前記第1のコンテンツに関連する第3のコンテンツを表示するための表示制御部と、
    を備える電子機器。
  7. 前記変位は、前記表示画面上の第1の軸方向における、前記接触点の移動方向の反転により検出されるものであって、
    前記複数の第2の接触点に含まれるそれぞれの第2の接触点の移動の軌跡は、互いに対応する形状を有する軌跡である、
    請求項6に記載の電子機器。
  8. 前記第1の基準と前記第2の基準との少なくとも一方は、前記第1のコンテンツの作成時刻と前記第2のコンテンツ又は前記第3のコンテンツ作成時刻との時間的な関係、前記第1のコンテンツの作成地点と前記第2のコンテンツ又は前記第3のコンテンツの作成地点との地理的な関係、前記第1のコンテンツの被写体と前記第2のコンテンツ又は前記第3のコンテンツの被写体との関係、の少なくともいずれかを定めるものである、
    請求項6又は7に記載の電子機器。
  9. 前記検出部は、さらに、センサーで検出された第1情報を取得し、
    前記表示部は、さらに、前記第1の基準及び前記第1情報の双方に応じて前記第2のコンテンツを表示し、前記第2の接触点の変位が検出された場合に、前記第2の基準及び前記第1情報の双方に応じて前記第3のコンテンツを表示する、
    請求項6乃至8のいずれか1つに記載の電子機器。
  10. 前記表示部は、さらに、撮像部により撮像された第1の画像データが前記表示画面に表示されているときに、前記第1の接触点の変位が検出された場合に、前記第1の基準に基づいて前記第1の画像データに関連する第2の画像データを表示し、前記複数の第2の接触点の変位が検出された場合に、前記第2の基準に基づいて前記第1の画像データに関連する第3の画像データを表示する、
    請求項6乃至9のいずれか1つに記載の電子機器。
  11. 表示画面に対する1つ以上の接触点を検出する検出ステップと、
    前記表示画面に第1のコンテンツが表示されているときに、前記表示画面に対する第1の接触点の変位が検出された場合に、第1の基準に基づいて前記第1のコンテンツに関連する第2のコンテンツを表示し、前記表示画面に対する、前記第1の接触点と検出された数が異なる複数の第2の接触点の変位が検出された場合に、第2の基準に基づいて前記第1のコンテンツに関連する第3のコンテンツを表示する表示ステップと、
    をコンピュータに実行させるためのプログラム。
  12. 前記変位は、前記表示画面上の第1の軸方向における、前記接触点の移動方向の反転により検出されるものであって、
    前記複数の第2の接触点に含まれるそれぞれの第2の接触点の移動の軌跡は、互いに対応する形状を有する軌跡である、
    請求項11に記載のプログラム。
  13. 前記第1の基準と前記第2の基準との少なくとも一方は、前記第1のコンテンツの作成時刻と前記第2のコンテンツ又は前記第3のコンテンツ作成時刻との時間的な関係、前記第1のコンテンツの作成地点と前記第2のコンテンツ又は前記第3のコンテンツの作成地点との地理的な関係、前記第1のコンテンツの被写体と前記第2のコンテンツ又は前記第3のコンテンツの被写体との関係、の少なくともいずれかを定めるものである、
    請求項11又は12に記載のプログラム。
  14. 前記検出ステップは、さらに、センサーで検出された第1情報を取得し、
    前記表示ステップは、さらに、前記第1の基準及び前記第1情報の双方に応じて前記第2のコンテンツを表示し、前記第2の接触点の変位が検出された場合に、前記第2の基準及び前記第1情報の双方に応じて前記第3のコンテンツを表示する、
    請求項11乃至13のいずれか1つに記載のプログラム。
  15. 前記表示ステップは、さらに、撮像部により撮像された第1の画像データが前記表示画面に表示されているときに、前記第1の接触点の変位が検出された場合に、前記第1の基準に基づいて前記第1の画像データに関連する第2の画像データを表示し、前記複数の第2の接触点の変位が検出された場合に、前記第2の基準に基づいて前記第1の画像データに関連する第3の画像データを表示する、
    請求項11乃至14のいずれか1つに記載のプログラム。
JP2013185693A 2013-09-06 2013-09-06 方法、電子機器、及びプログラム Active JP6223755B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013185693A JP6223755B2 (ja) 2013-09-06 2013-09-06 方法、電子機器、及びプログラム
EP14170736.4A EP2846246A1 (en) 2013-09-06 2014-06-02 A method, an electronic device, and a computer program product for displaying content
US14/297,465 US20150070286A1 (en) 2013-09-06 2014-06-05 Method, electronic device, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013185693A JP6223755B2 (ja) 2013-09-06 2013-09-06 方法、電子機器、及びプログラム

Publications (2)

Publication Number Publication Date
JP2015052939A true JP2015052939A (ja) 2015-03-19
JP6223755B2 JP6223755B2 (ja) 2017-11-01

Family

ID=50980917

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013185693A Active JP6223755B2 (ja) 2013-09-06 2013-09-06 方法、電子機器、及びプログラム

Country Status (3)

Country Link
US (1) US20150070286A1 (ja)
EP (1) EP2846246A1 (ja)
JP (1) JP6223755B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100293500A1 (en) * 2009-05-13 2010-11-18 International Business Machines Corporation Multi-finger touch adaptations for medical imaging systems
JP2013025410A (ja) * 2011-07-15 2013-02-04 Sharp Corp 情報処理装置、操作画面表示方法、制御プログラムおよび記録媒体
US20130150124A1 (en) * 2011-12-08 2013-06-13 Samsung Electronics Co., Ltd. Apparatus and method for content display in a mobile terminal
JP2013117907A (ja) * 2011-12-05 2013-06-13 Casio Comput Co Ltd 表示データ制御装置及び表示データ制御方法並びにプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9292111B2 (en) * 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
WO2007127258A2 (en) * 2006-04-27 2007-11-08 Wms Gaming Inc. Wagering game with multi-point gesture sensing device
US20080208791A1 (en) * 2007-02-27 2008-08-28 Madirakshi Das Retrieving images based on an example image
US8302033B2 (en) * 2007-06-22 2012-10-30 Apple Inc. Touch screen device, method, and graphical user interface for providing maps, directions, and location-based information
EP2615818A3 (en) * 2008-02-28 2013-09-18 BlackBerry Limited Method of automatically geotagging data
US20130169545A1 (en) * 2011-12-29 2013-07-04 Research In Motion Corporation Cooperative displays
US20140132626A1 (en) * 2012-11-09 2014-05-15 Samsung Electronics Co., Ltd. Content delivery system with folding mechanism and method of operation thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100293500A1 (en) * 2009-05-13 2010-11-18 International Business Machines Corporation Multi-finger touch adaptations for medical imaging systems
JP2013025410A (ja) * 2011-07-15 2013-02-04 Sharp Corp 情報処理装置、操作画面表示方法、制御プログラムおよび記録媒体
JP2013117907A (ja) * 2011-12-05 2013-06-13 Casio Comput Co Ltd 表示データ制御装置及び表示データ制御方法並びにプログラム
US20130150124A1 (en) * 2011-12-08 2013-06-13 Samsung Electronics Co., Ltd. Apparatus and method for content display in a mobile terminal

Also Published As

Publication number Publication date
JP6223755B2 (ja) 2017-11-01
EP2846246A1 (en) 2015-03-11
US20150070286A1 (en) 2015-03-12

Similar Documents

Publication Publication Date Title
US9584694B2 (en) Predetermined-area management system, communication method, and computer program product
CA2804096C (en) Methods, apparatuses and computer program products for automatically generating suggested information layers in augmented reality
US9880640B2 (en) Multi-dimensional interface
US8648877B2 (en) Mobile terminal and operation method thereof
EP2536124B1 (en) Imaging device, information acquisition system, and program
KR102106920B1 (ko) 이동 단말기 및 이동 단말기의 제어 방법
ES2753878T3 (es) Aparato electrónico de visualización de información representativa y procedimiento de control del mismo
WO2019109245A1 (zh) 一种故事相册的显示方法及装置
US8761590B2 (en) Mobile terminal capable of providing multiplayer game and operating method thereof
EP3324582A1 (en) Mobile terminal and method for controlling the same
US9262867B2 (en) Mobile terminal and method of operation
US9172879B2 (en) Image display control apparatus, image display apparatus, non-transitory computer readable medium, and image display control method
EP3518101A1 (en) Electronic device and method for using captured image in electronic device
TR201809777T4 (tr) Büyütme komutlarının alındısına yanıt verilmesi.
US10078444B2 (en) Mobile terminal and method for controlling mobile terminal
US20110216165A1 (en) Electronic apparatus, image output method, and program therefor
JP2012044251A (ja) 画像表示装置及びプログラム
US20150062291A1 (en) Mobile terminal and control method therof
US11194538B2 (en) Image management system, image management method, and program
CN106201301B (zh) 移动终端及其控制方法
JP2015148991A (ja) 情報処理装置、情報処理方法及びプログラム
JP6617547B2 (ja) 画像管理システム、画像管理方法、プログラム
EP3024205B1 (en) Mobile terminal and control method thereof
GB2513865A (en) A method for interacting with an augmented reality scene
JP2014146248A (ja) 表示制御装置、表示制御方法およびプログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20151102

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171004

R151 Written notification of patent or utility model registration

Ref document number: 6223755

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313121

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350