JP2015158753A - ウェアラブル機器および制御装置 - Google Patents

ウェアラブル機器および制御装置 Download PDF

Info

Publication number
JP2015158753A
JP2015158753A JP2014032357A JP2014032357A JP2015158753A JP 2015158753 A JP2015158753 A JP 2015158753A JP 2014032357 A JP2014032357 A JP 2014032357A JP 2014032357 A JP2014032357 A JP 2014032357A JP 2015158753 A JP2015158753 A JP 2015158753A
Authority
JP
Japan
Prior art keywords
image
screen
display
unit
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014032357A
Other languages
English (en)
Inventor
博隆 石川
Hirotaka Ishikawa
博隆 石川
千佐子 梶原
Chisako Kajiwara
千佐子 梶原
聰 赤川
Satoshi Akagawa
聰 赤川
翼 塚原
Tsubasa Tsukahara
翼 塚原
岩津 健
Takeshi Iwazu
健 岩津
泰樹 金間
Yasuki KANEMA
泰樹 金間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014032357A priority Critical patent/JP2015158753A/ja
Priority to PCT/JP2014/006447 priority patent/WO2015125200A1/ja
Priority to US15/118,617 priority patent/US11068154B2/en
Priority to CN201480075281.5A priority patent/CN106062692B/zh
Publication of JP2015158753A publication Critical patent/JP2015158753A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/50Secure pairing of devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】操作性の向上を図ることができるウェアラブル機器を提供する。【解決手段】ウェアラブル機器は、表示部と、操作ユニットと、表示制御部とを具備する。表示部は、階層毎に分類された複数の画像を切り替え表示するように構成される。操作ユニットは、第1の階層に属する第1の画像から、第1の画像に関連し第1の階層よりも下の第2の階層に属する第2の画像を表示部に表示させる操作イベントが入力されるように構成される。表示制御部は、第1の表示制御モードと第2の表示制御モードとを選択的に実行するように構成される。第1の表示制御モードは、操作イベントに基づいて、第1の画像に関連しない第3の画像から第2の画像を第1の画像を介して表示部に表示させる。第2の表示制御モードは、第2の画像へのアクセスを促す制御信号を受信したときに、第3の画像から第2の画像を第1の画像を介さずに表示部に表示させることを可能とする。【選択図】図6

Description

本技術は、画像を表示することが可能な表示部を有するウェアラブル機器および制御装置に関する。
表示部に複数の画像を順番に表示することが可能な電子機器が知られている。例えば特許文献1には、所定のグループの代表画像に対するユーザの所定の操作を検出したとき、上記代表画像とともに当該グループに属する複数のサムネイル画像を表示するように構成された電子機器が記載されている。
特開2011−210138号公報
しかしながら、特定の画像を表示させたいときに当該画像に属するグループの代表画像からアクセスする必要があるため、操作性が低いという問題がある。
以上のような事情に鑑み、本技術の目的は、操作性の向上を図ることができるウェアラブル機器および制御装置を提供することにある。
本技術の一形態に係るウェアラブル機器は、表示部と、操作ユニットと、受信部と、表示制御部とを具備する。
上記表示部は、階層毎に分類された複数の画像を切り替え表示するように構成される。
上記操作ユニットは、第1の操作部を有する。上記第1の操作部は、第1の階層に属する第1の画像から、上記第1の画像に関連し上記第1の階層よりも下位の第2の階層に属する第2の画像を上記表示部に表示させる操作イベントが入力されるように構成される。
上記受信部は、上記第2の画像へのアクセスを促す制御信号を受信することが可能に構成される。
上記表示制御部は、第1の表示制御モードと第2の表示制御モードとを選択的に実行するように構成される。上記第1の表示制御モードは、上記操作イベントに基づいて、上記第1の画像に関連しない第3の画像から上記第2の画像を上記第1の画像を介して上記表示部に表示させる。上記第2の表示制御モードは、上記制御信号を受信したときに、上記第3の画像から上記第2の画像を上記第1の画像を介さずに上記表示部に表示させることを可能とする。
上記ウェアラブル機器によれば、特定の画像をシンプルな操作で容易に表示させることができるため、操作性の向上を実現することができる。
上記操作ユニットは、入力操作により上記制御信号を生成する第2の操作部をさらに有してもよい。上記表示制御部は、上記第2の操作部の入力操作時に上記所定の階層に属する画像を上記表示部に表示させるように構成される。
上記ウェアラブル機器は、上記第2の操作部により操作可能な撮像部をさらに具備してもよい。上記表示制御部は、上記第2の操作部の入力操作に基づいて、上記撮像部の操作画面を上記表示部に表示させるように構成される。
上記受信部は、上記制御信号を外部機器から受信することが可能に構成されてもよい。上記表示制御部は、上記制御信号を受信したときに上記表示部に所定の通知画像を表示させるように構成される。
上記表示制御部は、上記所定の通知画像が表示された状態で所定の操作イベントの入力を受けたとき、上記通知画像に関連する画面を上記表示部に表示させるように構成されてもよい。
本技術の一形態に係る制御装置は、階層毎に分類された複数の画像を切り替え表示するように構成された表示部を有するウェアラブル機器を制御するための制御装置であって、操作ユニットと、受信部と、表示制御部とを具備する。
上記操作ユニットは、第1の操作部を有する。上記第1の操作部は、第1の階層に属する第1の画像から、上記第1の画像に関連し上記第1の階層よりも下位の第2の階層に属する第2の画像を上記表示部に表示させる操作イベントが入力されるように構成される。
上記受信部は、上記第2の画像へのアクセスを促す制御信号を受信することが可能に構成される。
上記表示制御部は、第1の表示制御モードと第2の表示制御モードとを選択的に実行するように構成される。上記第1の表示制御モードは、上記操作イベントに基づいて、上記第1の画像に関連しない第3の画像から上記第2の画像を上記第1の画像を介して上記表示部に表示させる。上記第2の表示制御モードは、上記制御信号を受信したときに。上記第3の画像から上記第2の画像を上記第1の画像を介さずに上記表示部に表示させることを可能とする。
上記制御装置において、上記操作ユニットは、入力操作により上記制御信号を生成する第2の操作部をさらに有してもよい。上記表示制御部は、上記第2の操作部の入力操作時に上記所定の階層に属する画像を上記表示部に表示させるように構成される。
上記操作ユニットは、側周面の一部に切欠き部を有する筐体をさらに有してもよい。上記第1の操作部は、上記切欠き部に配置された静電容量センサで構成され、上記第2の操作部は、上記筐体の側周面に配置された複数の入力キーを含む。
以上のように、本技術によれば、操作性の向上を図ることができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術に係る情報処理システムの構成を示す図である。 上記システムにおける各機器の構成を示すブロック図である。 上記システムにおけるコントロールボックスの外観を示す側面図および斜視図である。 上記コントロールボックスの操作入力例を説明する図である。 上記システムにおける携帯端末およびコントロールボックスにそれぞれ搭載されるソフトウェアの構成を示す図である。 上記システムにおけるウェアラブル機器に表示される画面の階層構造を説明する図である。 上記コントロールボックスの機能ブロック図である。 上記コントロールボックスの機能を説明する模式図である。 上記表示部に表示されるカード画面の切り替えの動作を説明する図である。 上記表示部に表示されるカード画面の切り替えの動作を説明する図である。 上記ウェアラブル機器に表示される代表的な画面遷移例を示す図である。 上記ウェアラブル機器に表示される代表的な画面遷移例を示す図である。 上記ウェアラブル機器に表示される代表的な画面遷移例を示す図である。 上記ウェアラブル機器に表示される代表的な画面遷移例を示す図である。 上記ウェアラブル機器に表示される代表的な画面遷移例を示す図である。 上記ウェアラブル機器に表示される代表的な画面遷移例を示す図である。 上記ウェアラブル機器に表示される代表的な画面遷移例を示す図である。 上記ウェアラブル機器に表示される代表的な画面遷移例を示す図である。 上記ウェアラブル機器に表示される代表的な画面遷移例を示す図である。 上記ウェアラブル機器に表示される代表的な画面遷移例を示す図である。 上記ウェアラブル機器に表示される代表的な画面遷移例を示す図である。 上記ウェアラブル機器に表示される代表的な画面遷移例を示す図である。 上記ウェアラブル機器に表示される代表的な画面遷移例を示す図である。 上記ウェアラブル機器に表示される代表的な画面遷移例を示す図である。 上記ウェアラブル機器に表示される代表的な画面遷移例を示す図である。 上記ウェアラブル機器に表示される代表的な画面遷移例を示す図である。 上記ウェアラブル機器に表示される代表的な画面遷移例を示す図である。
以下、本技術に係る実施形態を、図面を参照しながら説明する。
[ウェアラブル機器を用いた情報処理システムの全体構成]
図1は、本技術に係る情報処理システムの構成を示す。
このシステム100は、主に、携帯端末30、電子機器としてのウェアラブル機器(ウェアラブルディスプレイ)70、およびこのウェアラブル機器70を制御する制御装置として機能するコントロールボックス50を含む。
携帯端末30は、情報処理装置として機能し、典型的にはスマートホン等の携帯電話機である。携帯端末30は、タブレット機器、その他PC(Personal Computer)であってもよい。
ウェアラブル機器70は、図に示すようにヘッドマウント型のものであるが、これに限られず、例えばリストバンド型やネックバンド型のものであってもよい。
携帯端末30は、クラウドシステム10に接続可能に構成されている。クラウドシステム10は、例えばインターネット等の電気通信回線網に接続されたサーバコンピュータ等を含む。
コントロールボックス50は、典型的には、ウェアラブル機器70に有線により接続されている。ユーザは、ウェアラブル機器70を頭部に装着し、コントロールボックス50を手指により操作することにより、ウェアラブル機器70を操作することができる。
[各機器の構成]
図2は、本システム100の各機器の構成を示すブロック図である。
(クラウドシステム)
クラウドシステム10内の例えばサーバコンピュータは、CPU11、メモリ12、および携帯端末30と通信可能に構成された広域通信部13を有する。
(携帯端末)
携帯端末30(例えばスマートホン)は、主に、CPU(Central Processing Unit)31、メモリ32、タッチパネル/表示部35、広域通信部33、および局域通信部34を有する。また、携帯端末30は、その他、モーションセンサやカメラ等を含む各種センサ37、GPS(Global Positioning System)受信部36、オーディオデバイス部38、バッテリ39等を有する。少なくとも携帯端末30(または、携帯端末30およびクラウドシステム10)は、ウェアラブル機器70の外部機器として機能する。
広域通信部33は、例えば3G(Third Generation)やLTE(Long Term Evolution)等の通信システムにより通信可能に構成される。局域通信部34は、例えばWiFi等の無線LAN(Local Area Network)通信システム、および/または、Bluetooth(登録商標)、赤外線等の短距離無線通信システムにより通信可能に構成される。局域通信部34は、コントロールボックス50との間の「受信部」や「送信部」として機能する。
携帯端末30は、局域通信部34とは別に、例えばRFID(Radio Frequency IDentification)等の、いわゆる近距離無線通信システム(NFC:Near Field Communication)を利用する個体識別デバイスを有していてもよい。
オーディオデバイス部38は、マイクロフォンおよびスピーカを含む。
(ウェアラブル機器)
ウェアラブル機器70は、ユーザの頭部に装着可能に構成された装着ユニット701を有する。装着ユニット701は、表示部71、各種のセンサ72〜75、カメラ78等を有する。
表示部71は、図1に示すように、例えばヘッドマウント型のウェアラブル機器70のフレーム76の左右に配置される小型のプロジェクタである。このヘッドマウント型のウェアラブル機器70では、各プロジェクタから出射された同一または視差を持つ画像光が導光板77でガイドされ、導光板77の所定領域からユーザの眼球に向けて出射されるようになっている。
なお、ウェアラブル機器70では、左右のうち一方にのみ表示部71が設けられていてもよい。ウェアラブル機器70は、プロジェクタタイプのものに限られず、眼球に直接画像光を照射するタイプの表示部71を備えていてもよい。
ウェアラブル機器70の各種のセンサとしては、例えば、地磁気センサ72、ジャイロセンサ73、加速度センサ74、照度センサ75等がある。ウェアラブル機器70には、視界方向(方位あるいは仰俯角)を検出するセンサ等が搭載されてもよい。
ジャイロセンサ73(角速度センサ)および加速度センサ74は、装着ユニット701の空間内における動きを検出するモーションセンサとして構成される。
カメラ78は、静止画あるいは動画を撮影可能な撮像部を構成する。カメラ78は、装着ユニット701に搭載され、本実施形態では左右の表示部71の間に配置される(図1)。なお、カメラ78の搭載位置は上述の例に限られない。
カメラ78は、静止画および動画を撮影可能であり、ユーザの操作に基づく通常撮影モードのほか、所定時間毎に静止画を自動的に撮影するインターバル撮影モードで駆動されることが可能に構成される。
(コントロールボックス)
コントロールボックス50は、CPU51、メモリ52(記憶部)、局域通信部54、入力キー53、タッチパネル55、オーディオデバイス部58、バッテリ59等を有する。
コントロールボックス50は、ウェアラブル機器70の付属機器(例えば、ウェアラブル機器70の一部)として構成されてもよいし、ウェアラブル機器70とは独立したコントローラとして構成されてもよい。コントロールボックス50は、ウェアラブル機器70の表示部71に表示される画像の表示を切り替えるための「操作ユニット」として機能する。
CPU51は、コントロールボックス50内およびウェアラブル機器70内の各部を統括的に制御する。コントロールボックス50は、CPU51の代わりに、FPGA(Field Programmable Gate Array)等のPLD(Programmable Logic Device)を備えていてもよい。
局域通信部54は、携帯端末30の局域通信部34と、上記した通信システムにより通信可能に構成される。局域通信部54は、携帯端末30との間の「受信部」や「送信部」として機能する。
入力キー53およびタッチパネル55は、ウェアラブル機器70の「操作ユニット」を構成する。
入力キー53は、コントロールボックス50に配置された、ユーザにより操作される1以上の物理キーである。入力キー53は、例えば電源キー、バックキー、表示部71のON/OFFキー、カメラ78のシャッタボタン等を含む。入力キー53は、ウェアラブル機器70の「第2の操作部」として構成される。
タッチパネル55、コントロールボックス50の表面に配置された(図1参照)、ユーザにより操作される操作デバイスである。タッチパネル55は、静電容量センサで構成される。タッチパネル55は、ウェアラブル機器70の「第1の操作部」として構成される。
オーディオデバイス部58は、マイクロフォンおよびスピーカを含む。
コントロールボックス50は、局域通信部54とは別に、例えば上述したRFID等の近距離無線通信システムを利用する通信デバイスを有していてもよい。これにより、ユーザは、携帯端末30内の所定のアプリケーションソフトウェアを起動し、携帯端末30をコントロールボックス50に接近させることにより、ほぼ自動的にこれらの機器をペアリングすることができる。
また例えば、ユーザが携帯端末30をコントロールボックス50に接近させることにより、携帯端末30は、これらをペアリングするためのアプリケーションソフトウェアを、ほぼ自動的にクラウドからダウンロードしてこれがインストールされるようにすることもできる。
もちろん、コントロールボックス50は、このような近距離無線通信用のデバイスを有していない場合でも、局域通信部54を用いて携帯端末30とペアリングが可能である。
図3は、コントロールボックス50の一構成例を示す図であり、図3上段は一方側から見た側面図、図3下段は他方側から見た斜視図である。
コントロールボックス50は、側周部の一部に切欠き部502が形成された所定厚みの円盤形状の筐体501を有する。筐体501の大きさは特に限定されないが、典型的には、ユーザが片手で把持できる大きさとされる。切欠き部502は、筐体501の中心に向かって凸なる円弧形状を有し、その円弧状の曲面部がタッチパネル55として構成される。
この例では円盤形状の一部に切欠き部を形成しているが、ユーザが切欠き部を認識できれば元の形状は円盤形状には限られない。例えば正方形(もしくは長方形)の1つの角に切欠き部を形成してもよいし、1つの辺に筐体の中心に向かって凸なる円弧形状を有する切欠き部を形成したものでもよい。
筐体501の側周部には、カメラボタン(シャッタボタン)503、バックボタン(バックキー)504、トークボタン505が配置されている。これらのボタンは、切欠き部502の近傍の側周部にそれぞれ単列で配置されているが、位置や配列形態は勿論これに限られない。
一方、筐体501の一側面部には、電源ボタン(電源キー)506、ディスプレイボタン(ON/OFFキー)507等が配置されている。これらのボタンは、筐体501の縁部に沿って、カメラボタン503やバックボタン504の近傍に配置されているが、位置や配列形態は勿論これに限られない。電源ボタン506は、戻しバネ付きのスライドスイッチで構成され、一端側へのスライド操作の繰り返しにより電源のON/OFFが可能となるように構成されている。このことにより、ユーザが誤って電源をON/OFFすることを防止することができる。なお電源ボタン506は一端側へのスライド操作で電源ON、他端側へのスライド操作で電源OFFとなるように構成され、両端でホールド機能が得られるように構成されていてもよい。
筐体501の側周部には、筐体501の中心部から放射状に延びる突出片508が設けられている。突出片508は、ユーザが筐体501を把持したときに、人差し指と中指との間に位置する。例えば、これらの指で突出片508を挟持することによっても筐体501を保持することが可能となるため、各種ボタンの操作性が高められる。
また筐体501の側周部以外の面には、ユーザの衣服の胸ポケットなどに装着するためのクリップを設けてもよい。これにより携帯性が向上するとともに、衣服に装着したまま操作することも可能となる。
また、タッチパネル55は、切欠き部502で切り欠かれた筐体501の周面に設けられており、タップ操作、切欠き部502の周方向に沿ったスワイプ操作等を静電的に検出するように構成される。さらにタッチパネル55が上記形状の切欠き部502の形成領域に形成されているため、切欠き部502の両端に2つのエッジ部5021,5022が形成される。これにより、ユーザは、タッチパネル55を目視することなく指触りでタッチパネル55の位置を認識できることになり、操作性をより向上させることができる。
一般的なタッチパネルでは操作面の端部に比較的大きな非検出領域が設けられているが、タッチパネル55は操作面が小さいためエッジ部5021、5022まで全面が検出領域となるように構成することで操作性を向上させている。なおエッジ部5021、5022の近傍領域を除く操作面の例えば90%以上の領域を検出領域とするように構成してもよい。
(タッチパネルを用いた操作例)
図4は、コントロールボックス50の操作例(操作イベントの入力例)を説明する図である。
図4上段は、タッチパネル55に対するタップ操作(あるいはロングタップ操作)を示している。タップ操作は、典型的には、タッチパネル55の中央部(切欠き部502の底部)を所定時間以下だけタッチ操作することで入力される。タップ操作の判定領域は、タッチパネル55の全面であってもよいし、一部の領域(例えばエッジ部5021,5022の近傍領域を除く領域、例えば操作面の80%以下の領域)であってもよい。
例えば、表示部71に表示されている画面(画像)の選択やアプリケーションの起動、上位階層から下位階層への移動に、タップ操作が要求される。
図下段は、タッチパネル55に対するスワイプ操作を示している。スワイプ操作は、典型的には、タッチパネル55の中央部からタッチパネル55に触れた状態でエッジ部5021あるいはエッジ部5022側へ移動させることで入力される。スワイプ操作の判定領域は、典型的には、タッチパネル55の全面とされ、最初のタッチ位置からリリース位置までの距離が所定以上である場合に有効とされる。
スワイプ操作は、例えば、表示部71に表示される画像の切り替えに用いられ、スワイプ方向によって画面の切り替え方向が対応付けられている。また、スワイプ後、リリースすることなく所定時間タッチ操作を継続することにより、画面の切り替えが連続的に切り替えられる(スクロール操作)。このとき、スワイプ距離に応じてスクロールの速さが可変とされる。画面の切り替え方向は特に限定されず、画像の配列方向によって設定され、典型的には左右方向あるいは上下方向とされる。
なお、同一画面内におけるスクロール操作する場合は、タッチパネル55を所定時間タッチした後、リリースすることなくスワイプ操作する。この操作は、画面内に掲載された文字情報やメッセージを読むときに用いられる。
(入力キーを用いた操作例)
カメラボタン503は、カメラ78を用いた画像の撮影時(例えば、シャッタ操作、録画開始/終了操作)に使用される。また所定条件下において、入力操作時にカメラ画面に移行するように構成されてもよい。
バックボタン504は、表示部71に表示されている画面(画像)をより上位の階層に戻すときに使用される。バックボタン504はまた、長押したときに表示画面をホーム画面(例えば最上位階層の最初に表示される画面)に復帰させる。
トークボタン505は、音声入力画面において使用され、入力操作時に、内蔵するオーディオデバイス部58(特にマイクロフォン)が起動するように構成される。
電源ボタン506は、ウェアラブル機器70への電源ONまたはOFF時に操作される。電源ONの操作に連動して、携帯端末30とのペアリング処理を実行させてもよい。
ディスプレイボタン507は、表示部71への画像表示のONまたはOFF時に操作される。
[ソフトウェアの構成]
図5は、携帯端末30およびコントロールボックス50にそれぞれ搭載されるソフトウェアの構成を示す。
携帯端末30は、一般のアプリケーションソフトウェア(以下、単に「アプリ」という。)26およびコンパニオンアプリ25をメモリ32内に格納している。これらのアプリ25、26は、携帯端末30にデフォルトでインストールされたOS(Operating System)上で動作するように構成される。
一般のアプリ26の種類としては、例えば、ミニブログや交流サイト等のSNS(Social Networking Service)アプリ、音声認識アプリ、カメラアプリ、メディア再生、ニュース、天気予報サービス等がある。
コンパニオンアプリ25は、これらのアプリ26上のデフォルトデータやユーザデータを、ウェアラブル機器70の表示部71に表示可能な形式のデータに変換する機能を有する。携帯端末30は、例えば、コンパニオンアプリ25をクラウドシステム10からダウンロードすることにより、コンパニオンアプリ25がこの携帯端末30にインストールされる。
コントロールボックス50は、ペアリング後にコンパニオンアプリ25と協働するファームウェア45をメモリ52内に有する。ファームウェア45には、カメラ78を動作させるカメラアプリや、後述する設定画面での設定アプリ等がデフォルトでインストールされている。
[ウェアラブル機器で表示される画面例および本システムの動作例]
(画面の階層構成)
図6は、表示部71に表示されることが可能な画面(画像)の階層構造を示す概念図である。
画面は階層毎に分類されており、図示の例では、第1の階層LAと、第2の階層LBと、第3の階層LCとを有する。第1の階層LAは最上位の階層であり、第2の階層LBは、第1の階層LAに属する所定の画面の下位の階層である。第1の階層LAは、アプリケーションの選択環境を構成するUI(User Interface)の集合体に相当し、第2および第3の階層LB,LCは、アプリケーションの操作環境を構成するUIの集合体に相当する。
図6に示すように、ウェアラブル機器70の電源が投入されると、電源OFF時の無表示画面L0から第1の階層LAに遷移する。第1の階層LAには、画面(A1)〜(An)のn個(nは自然数、以下同じ。)の画面が属し、画面(A1)が第1の階層LAにおいて最初に表示されるホーム画面を構成する。そして、コントロールボックスに対する上記スワイプ操作によって、画面(A1)から画面(An)まで順次画面が切り替えられるように構成される。
第2の階層LBは、第1の階層LAに属する個々の画面毎に分類された複数の階層で構成される。例えば、画面(A2)は第2の階層LB2を有し、画面(A5)は第2の階層LB5を有する。第2の階層LB2は、画面(A2)に関連した画面(B21)〜(B2n)を有し、LB5は、画面(A5)に関連した画面(B51)〜(B5n)を有している。
第3の階層LCは、第2の階層LBに属する所定の画面毎に分類された単数または複数の階層で構成される。例えば、画面(B51)および画面(B52)はそれぞれ、画面(C51)および画面(C52)が属する第3の階層LC5を有する。
階層の数は特に限定されず、少なくとも2階層あればよい。また、各階層に属する画面の数は特に限定されず、典型的には、複数であるが、第2の階層以降では単一の画像で構成された階層があってもよい。
ファームウェア45は、入力キー53やタッチパネル55からの出力を受信して、表示部71に表示される画面を切り替える。典型的には、ファームウェア45は、タッチパネル55に入力される操作イベント(操作信号)に基づいて、表示部71に表示される画面を階層順に切り替える表示制御を実行するように構成される。
またファームウェア45は、所定条件下におけるタッチパネル55からの出力、あるいは入力キー53のうち所定のボタンからの出力等(以下、制御信号ともいう。)に基づいて、現在の表示画面から所定階層内の所定画面へジャンプする表示制御を実行することが可能に構成される。制御信号は、上記所定画面へのアクセスを促すときに出力される。例えば、ファームウェア45は、所定の入力キー53の入力操作に基づいて生成される制御信号を受信することで、上位階層の画面を介さずに、下位階層の所定画面を表示部71に表示させることが可能に構成される。
図7は、コントロールボックス50の機能ブロック図である。
受信部511は、携帯端末30から送信される種々の通知信号と、カメラボタン503等の入力キー53から出力される操作信号と、タッチパネル55から出力される操作信号とを受信可能に構成される。表示制御部512は、受信部511で受信された操作信号に基づいて、表示部71に表示される画像を切り替え制御する。
コントロールボックス50は、受信部511と、表示制御部512とを有する。受信部511および表示制御部512は、ファームウェア45あるいはCPUの一部の機能を構成する。また受信部511は、局域通信部54(図2)の一部の機能を構成する。
表示制御部512は、第1の表示制御モードと、第2の表示制御モードとを有する。
第1の表示制御モードは、操作イベント(操作信号)に基づいて、第1の画像に関連しない第3の画像から第2の画像を上記第1の画像を介して表示部に表示させる。一方、第2の表示制御モードは、制御信号を受信したときに、上記第3の画像から上記第2の画像を上記第1の画像を介さずに表示部に表示させることを可能とする。
ここで、上記第3の画像は、第1の画像に関連する第2の画像群以外の任意の画像をいう。例えば図6において、第2の画像が画面(B22)、第3の画像が画面(A5)である場合、第1の表示制御モードでは、画面(A5)、画面(A2)および画面(B22)の順で画面が遷移し、第2の表示制御モードでは、画面(A5)および画面(B22)の順で画面が遷移する。第3の画像が画面(C51)である場合には、第1の表示制御モードでは、画面(C51)、画面(B51)、画面(A5)、画面(A2)および画面(B22)の順で画面が遷移し、第2の表示制御モードでは、画面(C51)および画面(B22)の順で画面が遷移する。
上記制御信号の受信時に表示される画面(B22),(B23)としては、例えば、静止画撮影画面や動画撮影画面が対応する。例えば、カメラボタン503の押圧操作により表示画面が静止画撮影操作画面に遷移し、あるいは、カメラボタン503の長押し操作により表示画面が動画撮影操作画面に遷移する。
画面(B22),(B23)の例としては、他にも、音声入力画面、受信メッセージ表示画面、通信設定画面等が該当する。
音声入力画面は、トークボタン505の押圧操作により表示部71に表示される。音声入力画面は、例えば、電子メールや短文投稿サイトにおけるメッセージの入力画面である。この場合、ユーザは、コントロールボックス50に内蔵されたマイクロフォン(オーディオデバイス部58)に向けて音声を入力する。ファームウェア45は、入力された音声をテキスト(文字)に変換して表示部71に表示可能に構成される。
コントロールボックス50は、音声入力機能の精度を高めるため、ノイズキャンセル用のマイクロフォンを備えていてもよい。図8に当該コントロールボックスの概略構成を示す。
図8に示すように、コントロールボックス50は、2つのマイクロフォン581,582と、加速度センサ580とを内蔵する。マイクロフォン581,582は同一の構成を有し、上下対称な位置にそれぞれ配置される。
ユーザUは、例えば、把持しているコントロールボックス50の上部から音声を入力する。このとき、図8上段および下段にそれぞれ示すように、上部に位置するマイクロフォン581あるいは582が音声を取得する主マイクとして機能し、下部に位置するマイクロフォン582あるいは581が周囲のノイズをキャンセルするための副マイクとして機能するように構成される。主マイクおよび副マイクの切り替えは、加速度センサ580によって検出される重力方向に基づいて行われる。
これにより、コントロールボックス50の姿勢に関係なく、適正な音声入力機能を確保することができる。なおノイズキャンセル方式は特に限定されず、アクティブノイズコントロール等の種々の方式が採用可能である。
一方、受信メッセージ表示画面は、携帯端末30で受信したメッセージの閲覧画面である。このとき受信部511は、外部機器である携帯端末30から送信される通知信号を制御信号として受信することが可能に構成される。
ファームウェア45は、当該制御信号を受信したときに上記閲覧画面を表示部71に表示可能に構成される。本実施形態においてファームウェア45は、所定の通知画像が表示されている状態で、所定の操作イベント(例えばタッチパネル55に対するタップ操作)の入力を受けたとき、上記通知画像に関連する画面を表示部71に表示させるように構成される。
さらに、通信設定画面は、ウェアラブル機器70の使用中に局域通信部54の接続不良が生じたときに表示される画面である。このとき受信部511は、局域通信部54から出力される接続不良信号を制御信号として受信するように構成される。
以上のように本実施形態によれば、特定の画像をシンプルな操作で容易に表示させることができるため、操作性の向上を実現することができる。また、当該画像を迅速に表示させることができるため、操作感あるいは操作の利便性をも高めることができる。
(ウェアラブル機器に表示される画面例)
図9は、ウェアラブル機器70の表示部71に表示される画面の例を示す。なお、以降では説明の便宜上、携帯端末30の処理の主体をコンパニオンアプリ25とし、コントロールボックス50の処理の主体をファームウェア45とする。
本実施形態のウェアラブル機器においては、表示部71に表示される画像として、階層毎に分類された複数の画像(画面)が含まれる。典型的には、コントロールボックス50のタッチパネル55に所定のイベント操作を入力することで、同一階層内における画像の切り替えや階層間の画像の切り替え等が実行される。このような画像の切り替え(画面遷移)は、ファームウェア45により実行され、ファームウェア45は、ウェアラブル機器70の「表示制御部」として機能する。
(カード階層の画面例)
図9上段に示す階層を「カード(Card)階層」という。カード階層200は、第1の階層LA(図6)に相当し、例えばデフォルトでホーム画面211、カメラ画面212および設定画面213等を含む、各種のカード画面210を含む。また、カード階層200は、その他、ユーザが登録したアプリ26(図5参照)のカード画面214を含む。
カード画面210は、カード画面全体の領域のうち、例えば概ね下半分の領域に配置されるカード画像215を含む。1つのカード画面210(および後述するアプリ画面310)が占める領域が、表示部71による表示領域(Viewport)である。以降の説明では、カード画面210が占める領域の画像を、「カード画像」という。ここでいうカード画像(ホーム画面211のカード画像を除く)とは、アイコンやウィジェットのようなものであり、アプリにアクセスするためのGUI(Graphical User Interface)である。1つのカード画面210につき1つのカード画像215が備えられる。
ユーザは、登録によりカード画面210(カード画像215)を追加していくことができる。例えばユーザが携帯端末30を用いてその携帯端末30にインストールされたアプリ26に登録操作を行うことにより、コンパニオンアプリ25がそのアプリ26に応じたカード画像215を生成する。
アプリに応じたカード画像215とは、例えばカード画像215内にそのアプリとわかるマークや文字を含む画像である。基本的にはコンパニオンアプリ25が、自身で生成したカード画像215をメモリ32に格納し、また、ファームウェア45もそれらのうち所定枚数のカード画像215をメモリ52に格納する。
コントロールボックス50内のファームウェア45は、これらのカード画面210を1つずつ表示部71に表示するように構成される。同一階層内では、ユーザがタッチパネル55を介して左右スワイプ操作を入力することにより、ファームウェア45は、順にそれらのカード画面210を表示部71に表示させる。
なお、カード画面210のうち設定画面213からアクセス可能な「設定」もアプリケーションソフトウェアの1つであり、このコントロールボックス50内蔵のデフォルトのアプリである。
(アプリ階層の画面例)
図9の下段に示す階層を「アプリ階層300」という。アプリ階層300は、第2の階層LB(図6)に相当し、基本的にはカード階層200を介してアクセスされ得る。アプリ階層300は、各カード画面210のそれぞれのアプリが起動されたアプリ画面(でのアプリ画像)310を含む。
表示部71は、これらのアプリ画面310を1つずつ表示する。ユーザは、カード階層200を介してアプリ階層300にアクセスすることができる。ユーザがアプリ階層300にアクセスする場合、カード階層200内で選択したカード画面210を表示部71に表示させた状態で、タッチパネル55をタップ操作する。そうすると、ファームウェア45は、そのカード画面210に対応するアプリ画面310を表示部71に表示させる。
そのアプリ画面310からカード画面210に戻る場合、ユーザは、コントロールボックス50の入力キー53(図2参照)として設けられたバックボタン504を押す。
また、ユーザは、アプリ階層300内において任意の1つのアプリ画面310が表示されている状態で、タッチパネル55を左右にスワイプ操作することにより、その1つのアプリ内でアプリ画面310を切り替えることができる。例えば、1つのアプリ内の第1の機能と、そのアプリの第1の機能とは異なる機能を有する第2の機能とを切り替えることができる。その機能数(アプリ画像数)は、アプリにより異なる。
アプリがカメラアプリである場合、図9に示すように、カメラアプリは、第1の機能である静止画撮影モードの画面311と、第2の機能であるインターバル撮影モードの画面313と、第3の機能である動画撮影モードの画面313等を有する。
なお、ユーザによる指のスワイプ操作の方向と、画像の移動方向とが一致していてもよいし、逆方向であってもよい。これはユーザの設定により変更可能とされる。
(カード階層内のカード画面の切替処理)
典型的には、携帯端末30のコンパニオンアプリ25が、登録されたすべてのカード画像215をメモリ32内に格納する。一方、ファームウェア45は、それらのうち所定枚数(例えば登録された順に所定枚数に達するまで)のカード画像215をコントロールボックス50内のメモリ52に格納する。そして、ファームウェア45は、ユーザによりタッチパネル55を介して指定されたカード画像215をメモリ52から抽出して表示部71に表示する。また、ファームウェア45は、必要に応じてコンパニオンアプリ25を介して携帯端末30のメモリ32からカード画像215の送信を要求し、これを受信して表示部71に表示する。具体的には、ファームウェア45およびコンパニオンアプリ25は、以下のように動作する。
図10は、カード階層200内でのカード画面210の切り替えの動作を説明するための図である。図10上に示すように、例えば携帯端末30のメモリ32が9枚のカード画像215(a)〜(i)を格納しているとする。そして、これらのうちコントロールボックス50のメモリ52が5枚のカード画像215(c)〜(g)を格納しているとする(破線で囲まれた部分)。5枚のカード画像215(c)〜(g)は連続するカード画像215である。そして、現在、表示部71には太枠で記載したカード画像215(e)が表示されている。なお、カード画像215(c)はホーム画面のカード画像である。
図10上に示す状態から、ユーザにより、カード画面210を左へ移動させるスワイプ操作が入力されたとする。そうすると、ファームウェア45は、図10下に示すように、現在表示されているカード画像215(e)をカード画像215(d)に切り替え、これまで格納していた端部(右端)のカード画像215(g)を破棄する。
また、上記スワイプ操作の入力があった時、ファームウェア45は、入力された操作情報を携帯端末30に通知する。コンパニオンアプリ25は、新たに端部(左端)に位置したカード画像215(b)をメモリ32から抽出してコントロールボックス50に送信する。ファームウェア45はこれを受け取りメモリ52に格納する。
このようにして、ファームウェア45は、所定枚数(5枚)のカード画像215がメモリ52に格納されることを維持する。
このように処理により、コントロールボックス50内の必要なメモリ容量を削減しながら、あるいは、小容量のメモリを使用してコストを低減しながら、カード画面210の切り替えをスムーズに行うことができる。
なお、コントロールボックス50は、ホーム画面211のカード画像215や、カメラアプリ等のデフォルトのアプリの画面のカード画像215については、それらを破棄せずそのまま保持しておいてもよい。この場合、コントロールボックス50は、それらホーム画面211以外およびデフォルトのアプリ以外のカード画像215を、所定枚数以内でメモリ52に格納するようにすればよい。
[ウェアラブル機器で表示される画面の遷移例]
以下、ウェアラブル機器70の代表的な画面の遷移例について説明する。
(画面遷移例1)
図11は、ウェアラブル機器70の起動時に表示部71に表示される画面の遷移例を示している。
電源ボタン506の操作により電源がONになると、起動画面(S001)が表示される。起動画面には、典型的には、メーカー名や機種名等が表示される。
所定時間経過後、携帯端末30とのペアリング情報を有する場合には、携帯端末30とのペアリング画面(S002)が表示される。
一方、上記ペアリング情報がない場合、必要なアプリのインストール画面(S003)が表示され、タッチパネル55へのタップ操作を経てインストールが実行される。インストール完了後、携帯端末30からのレスポンスがあれば、数値比較認証画面(S004)が表示され、接続要の画面でタップ操作を実行することでペアリング画面(S002)へ移行する。
携帯端末30とのペアリングが確立すると、接続成功画面(S005)に移行し、画面に従ってタップ操作を実行することで、バランス調整画面(S006)に移行する。その後、ファームウェア45のバージョン情報を確認した後、ホーム画面(S011)に移行する。当該ホーム画面は、カード階層200のホーム画面211(図9)に相当する。
なお、ウェアラブル機器70と携帯端末30との接続が失敗した場合等は、所定の接続要求画面(S008)が表示される。
(画面遷移例2)
図12は、カード階層における画面の遷移例を示している。
タッチパネル55への順方向へのスワイプ操作により、ホーム画面(S011)からカメラ画面(S012)、SNS画面(S013)、通信設定画面(S014)、設定画面(S015)等に遷移する。詳細は、図9の説明と同様であるので、ここでは省略する。
(画面遷移例3)
図13は、カメラ画面(S012)の階層における画面遷移例を示している。
カメラ画面(S012)でタップ操作を実行すると、起動画面(S021)が表示される。携帯端末30との接続が確認されると、最初に静止画撮影画面(S023)が表示される。接続ができない場合は、接続不良をアナウンスする画面(S022)へ遷移し、所定時間経過後、カメラ画面(S012)へ復帰する。
静止画撮影画面(S023)が表示されると、順方向へのスワイプ操作により、インターバル撮影画面(S024)、動画撮影画面(S025)、ソーシャルライブ画面(S026)が順に表示される。バックボタン504の押圧によりカメラ画面(S012)に遷移し、バックボタン504の長押しによりホーム画面(S011)に遷移する。
(画面遷移例4)
図14は、インターバル撮影画面(S024)における画面遷移例を示している。
インターバル撮影画面(S024)でタップ操作を実行すると、設定画面(S031)が表示される。ここでは、撮影インターバルが設定される。デフォルトでは例えば30秒であり、タップ操作により撮影が開始され、撮影画像のセーブ画面(S032)に遷移する。撮影画像は、携帯端末30のメモリに保存される。設定画面(S031)において所定時間以上操作されない場合、カメラ画面(S012)へ戻る。
撮影画像のセーブが完了すると、撮影枚数や撮影画像を表示画面(S033)へ遷移し、セーブが失敗すると、それをアナウンスする画面(S034)が表示される。
インターバル撮影モードでは、表示部71に所定のカーソル画面(S035)が表示される。ユーザの設定により、当該カーソル画面の消灯時間が経過すると、カーソル画面が消失するが、撮影3秒前になると、当該カーソル画像を含むカウントダウン画面(S036)に遷移する。撮影画像は、撮影毎に、携帯端末30へ保存される。撮影時間が2時間以上となると、設定画面(S031)へ遷移する。
(画面遷移例5)
図15は、ソーシャルライブ画面(S025)における画面遷移例を示している。
ソーシャルライブ画面(S025)でタップ操作を実行すると、スタンバイ画面(S041)に遷移する。そして、カメラボタン503の押圧操作により、ストリーミング画面(S042)へ遷移する。撮影された画像は携帯端末30を介してクラウドシステム10へアップロードされる。このとき、トークボタン505の入力操作により、画像とともに音声もクラウドシステム10へアップロードされる。設定時間が経過すると、リーディング画面(S043)へ遷移し、視聴者からのコメントが表示される。
(画面遷移例6)
図16は、SNS画面(S013)における画面遷移例を示している。
SNS画面(S013)でタップ操作を実行すると、認証を経て、閲覧画面(S052)へ遷移する。認証ができない場合、認証を促す画面(S051)が表示される。
閲覧画面(S052)でスワイプ操作を実行すると、着信順(あるいはそれとは逆)に画面が遷移する。一の閲覧画面でタップ操作を実行すると、当該コメントに対する返信画面S053に遷移する。そこでは、例えばトークボタン505を操作することでテキストの音声入力が可能とされる。メッセージの入力後、タップ操作を実行することでメッセージが投稿される。投稿の登録がされなかった場合、その旨をアナウンスする画面(S054)が表示される。その後、再び閲覧画面(S052)に遷移する。
(画面遷移例7)
図17は、音声入力画面における画面遷移例を示している。
例えば任意の閲覧画面(S052)でトークボタン505を押圧すると、音声入力を促す画面(S061)に遷移する。ユーザは、トークボタン505を押圧した状態でメッセージを音声入力する。トークボタン505をリリースすると、音声入力がないときは、操作方法をアナウンスする画面(S062)が表示される。
入力された音声データは、テキスト画面(S063)に表示される。修正が必要な場合は、スワイプ操作によって編集画面(S064)へ移行し、所定の文字をスワイプ操作で指定する。修正が完了すると、テキスト画面(S063)でタップ操作を実行し、テキストの確認画面(S065)に遷移する。所定時間経過後、投稿が実行される。投稿できなかった場合、その旨をアナウンスする画面(S066)が表示される。その後、元の閲覧画面(S052)へ復帰する。
(画面遷移例8)
図18は、局域通信部(Bluetooth(登録商標))の設定画面における画面遷移例を示している。
通信設定画面(S014)をタップ操作する、あるいは、通信が遮断されると、メニュー画面(S071)に遷移する。設定モードに合わせてタップ操作を実行すると、設定画面(S072)へ遷移する。設定画面においては、アドレス設定モードとペアリング実行モードとがスワイプ操作によって選択可能に構成される。
アドレス設定モードが選択されると、通信局のアドレス入力画面(S073)が表示される。一方、ペアリング設定モードが選択されると、ペアリング実行画面(S074)へ遷移し、レスポンスがあれば、数値比較認証画面(S074)に遷移する。接続後、所定の場合にアプリケーションのバージョンアップが実行される。
(画面遷移例9)
図19は、ワンタッチ起動操作における画面遷移例を示している。
ウェアラブル機器70は、電源OFF時、コントロールボックス50と携帯端末30とのNFC通信により電源が自動的にONとなるように構成される。この起動モードにおいては、起動画面(S001)の表示後、ペアリングが不成立の場合に自動的に数値比較認証画面(S082)へ遷移する。以降の画面遷移は、起動時の画面遷移例(図11)と同様であるため、説明は省略する。
(画面遷移例10)
図20は、携帯端末30のワンタッチ切り替え操作における画面遷移例を示している。
任意の画面(S091)の表示中において、コントロールボックス50を他の携帯端末へ接近させてNFC通信させると、現在接続中の携帯端末30との通信を切断し、その旨をアナウンスする画面(S092)に遷移する。その後、自動的に当該他の携帯端末とのペアリングが実行され、レスポンスがあったときに数値比較認証画面(S093)に遷移する。以降の画面遷移は、起動時の画面遷移例(図11)と同様であるため、説明は省略する。
(画面遷移例11)
図21は、ディスプレイ自動オフ動作における画面遷移例を示している。
ウェアラブル機器70は、無操作時間が予め設定された自動消灯時間を経過し、かつ、カメラモード(静止画撮影、ビデオ撮影)の起動中でないときは、任意の画面(S101)から自動的に無表示画面(S102)へ遷移する。
(画面遷移例12)
図22は、ディスプレイ自動オン動作における画面遷移例を示している。
無表示画面(S102)において、携帯端末30から所定のイベント(制御信号)が入力されると、当該イベントに応じた処理が自動的に実行される。例えば、バージョンアップがホスト側で指示されたときに表示されるアップデート開始画面(S112)、インターバル撮影モードにおけるカウントダウン表示画面(S036)、電話着信時における着信画面(S114)、電話発信時における発信画面(S115)、通信遮断時における接続回復画面(S071)等が、自動的に表示される。
また、ユーザが静止あるいは歩行中のときは、着信した各種メッセージの送信者表示画面(S117)に遷移する。当該画面は、所定時間間隔で次画面に遷移するように構成される。入力キー53のホールド操作していないときは、任意の送信者表示画面でタップ操作を実行することで、内容を表示した閲覧画面S118に遷移し、ホールド操作しているときはホールド中であることをアナウンスする画面(S119)が表示される。
これらの画面遷移例は、上位階層を介さずに目的とする階層の画面へジャンプさせる表示制御機能の一具体例である。
(画面遷移例13)
図23は、ディスプレイ自動オン動作における他の画面遷移例を示している。
無表示画面(S102)において、入力キーがホールド操作されていないとき、ディスプレイボタン507あるいはカメラボタン503が入力されると自動的に対応する画面への遷移処理が実行される。
例えば、ディスプレイボタン507が入力されると、消灯前に表示されていた前回の画面(S121)が表示される。また、カメラボタン503が入力されると、インターバル撮影中である場合には、カメラモードの切り替え画面(S122)に遷移し、ユーザの選択(タップ操作)により、静止画撮影画面(S023)、インターバル撮影画面(S024)あるいは動画撮影画面(S025)に遷移する。
これらの画面遷移例は、上位階層を介さずに目的とする階層の画面へジャンプさせる表示制御機能の一具体例である。
(画面遷移例14)
図24は、携帯端末30からの通知信号受信時における画面遷移例を示している。
任意の画面(S132)の表示中において、バージョンアップ指示、着信あるいは発信イベントが発生した場合、これらイベントに対応した操作画面(S112,S114,S115)に遷移する。これらの画面遷移例は、上位階層を介さずに目的とする階層の画面へジャンプさせる表示制御機能の一具体例である。
(画面遷移例15)
図25は、携帯端末30との通信接続回復動作における画面遷移例を示している。
任意の画面(S142)が非設定画面である場合、携帯端末30との通信との接続が遮断されるとそれをアナウンスする画面(S143)に遷移し、所定時間経過後、再接続画面(S144)へ遷移する。再接続中に接続中断処理を実行すると、接続遮断画面(S144)が表示される。接続が成功すると、接続された携帯端末の機種表示画面(S145)が表示され、所定時間経過後、もとの画面(S142)へ復帰する。
この画面遷移例は、上位階層を介さずに目的とする階層の画面へジャンプさせる表示制御機能の一具体例である。
(画面遷移例16)
図26は、例えば携帯端末30からの通知信号を受信したときにおける画面遷移例を示している。
任意の画面あるいは無表示画面(S151)において携帯端末30から電子メール等の着信通知信号が受信されると、当該画面の所定位置に、所定周期で点滅する通知画像150aが表示される。その後、所定時間だけ連続点灯する通知画像150bに遷移する。ユーザは、当該通知画像150a,150bの表示時に所定の操作を入力することで、メール受信画面(閲覧画面)を表示させることができる。
(画面遷移例17)
図27は、ウェアラブル機器70の電源OFF時における画面遷移例を示している。
任意の画面(S161)が表示されている状態において、電源ボタン506をオフ操作することで、画面が消灯する(S162)。なお、無表示画面において電源ボタン506がオフ操作されると、任意の画面(例えば、消灯前に表示されていた画面)が所定時間表示されたのち、画面が消灯する。
以上、本技術の実施形態について説明したが、本技術は上述の実施形態にのみ限定されるものではなく、本技術の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。
なお、本技術は以下のような構成もとることができる。
(1)階層毎に分類された複数の画像を切り替え表示するように構成された表示部と、
第1の階層に属する第1の画像から、前記第1の画像に関連し前記第1の画像よりも下位の第2の階層に属する第2の画像を前記表示部に表示させる操作イベントが入力されるように構成された第1の操作部を有する操作ユニットと、
前記第2の画像へのアクセスを促す制御信号を受信することが可能に構成された受信部と、
前記操作イベントに基づいて前記第1の画像に関連しない第3の画像から前記第2の画像を前記第1の画像を介して前記表示部に表示させる第1の表示制御モードと、前記制御信号を受信したときに前記第3の画像から前記第2の画像を前記第1の画像を介さずに前記表示部に表示させることを可能とする第2の表示制御モードとを選択的に実行するように構成された表示制御部と
を具備するウェアラブル機器。
(2)上記(1)に記載のウェアラブル機器であって、
前記操作ユニットは、入力操作により前記制御信号を生成する第2の操作部をさらに有し、
前記表示制御部は、前記第2の操作部の入力操作時に前記所定の階層に属する画像を前記表示部に表示させるように構成される
ウェアラブル機器。
(3)上記(2)に記載のウェアラブル機器であって、
前記第2の操作部により操作可能な撮像部をさらに具備し、
前記表示制御部は、前記第2の操作部の入力操作に基づいて、前記撮像部の操作画面を前記表示部に表示させるように構成される
ウェアラブル機器。
(4)上記(1)〜(3)のいずれか1つに記載のウェアラブル機器であって、
前記受信部は、前記制御信号を外部機器から受信することが可能に構成され、
前記表示制御部は、前記制御信号を受信したときに前記表示部に所定の通知画像を表示させるように構成される
ウェアラブル機器。
(5)上記(4)に記載のウェアラブル機器であって、
前記表示制御部は、前記所定の通知画像が表示された状態で所定の操作イベントの入力を受けたとき、前記通知画像に関連する画面を前記表示部に表示させるように構成される
ウェアラブル機器。
(6)階層毎に分類された複数の画像を切り替え表示するように構成された表示部を有するウェアラブル機器を制御するための制御装置であって、
第1の階層に属する第1の画像から、前記第1の画像に関連し前記第1の画像よりも下位の第2の階層に属する第2の画像を前記表示部に表示させる操作イベントが入力されるように構成された第1の操作部を有する操作ユニットと、
前記第2の画像へのアクセスを促す制御信号を受信することが可能に構成された受信部と、
前記操作イベントに基づいて前記第1の画像に関連しない第3の画像から前記第2の画像を前記第1の画像を介して前記表示部に表示させる第1の表示制御モードと、前記制御信号を受信したときに前記第3の画像から前記第2の画像を前記第1の画像を介さずに前記表示部に表示させることを可能とする第2の表示制御モードとを選択的に実行するように構成された表示制御部と
を具備する制御装置。
(7)上記(6)に記載の制御装置であって、
前記操作ユニットは、入力操作により前記制御信号を生成する第2の操作部をさらに有し、
前記表示制御部は、前記第2の操作部の入力操作時に前記所定の階層に属する画像を前記表示部に表示させるように構成される
制御装置。
(8)上記(6)または(7)に記載の制御装置であって、
前記操作ユニットは、側周面の一部に切欠き部を有する筐体をさらに有し、
前記第1の操作部は、前記切欠き部に配置された静電容量センサで構成され、
前記第2の操作部は、前記筐体の側周面に配置された複数の入力キーを含む
制御装置。
(9)上記(8)に記載の制御装置であって、
前記複数の入力キーは、前記ウェアラブル機器に搭載された撮像部を動作させる入力ボタンを含む
制御装置。
30…携帯端末
45…ファームウェア
50…コントロールボックス
55…タッチパネル
52…メモリ
70…ウェアラブル機器
71…表示部
100…情報処理システム
200…カード階層
210…カード画面
300…アプリ階層
310…アプリ画面

Claims (9)

  1. 階層毎に分類された複数の画像を切り替え表示するように構成された表示部と、
    第1の階層に属する第1の画像から、前記第1の画像に関連し前記第1の画像よりも下位の第2の階層に属する第2の画像を前記表示部に表示させる操作イベントが入力されるように構成された第1の操作部を有する操作ユニットと、
    前記第2の画像へのアクセスを促す制御信号を受信することが可能に構成された受信部と、
    前記操作イベントに基づいて前記第1の画像に関連しない第3の画像から前記第2の画像を前記第1の画像を介して前記表示部に表示させる第1の表示制御モードと、前記制御信号を受信したときに前記第3の画像から前記第2の画像を前記第1の画像を介さずに前記表示部に表示させることを可能とする第2の表示制御モードとを選択的に実行するように構成された表示制御部と
    を具備するウェアラブル機器。
  2. 請求項1に記載のウェアラブル機器であって、
    前記操作ユニットは、入力操作により前記制御信号を生成する第2の操作部をさらに有し、
    前記表示制御部は、前記第2の操作部の入力操作時に前記所定の階層に属する画像を前記表示部に表示させるように構成される
    ウェアラブル機器。
  3. 請求項2に記載のウェアラブル機器であって、
    前記第2の操作部により操作可能な撮像部をさらに具備し、
    前記表示制御部は、前記第2の操作部の入力操作に基づいて、前記撮像部の操作画面を前記表示部に表示させるように構成される
    ウェアラブル機器。
  4. 請求項1に記載のウェアラブル機器であって、
    前記受信部は、前記制御信号を外部機器から受信することが可能に構成され、
    前記表示制御部は、前記制御信号を受信したときに前記表示部に所定の通知画像を表示させるように構成される
    ウェアラブル機器。
  5. 請求項4に記載のウェアラブル機器であって、
    前記表示制御部は、前記所定の通知画像が表示された状態で所定の操作イベントの入力を受けたとき、前記通知画像に関連する画面を前記表示部に表示させるように構成される
    ウェアラブル機器。
  6. 階層毎に分類された複数の画像を切り替え表示するように構成された表示部を有するウェアラブル機器を制御するための制御装置であって、
    第1の階層に属する第1の画像から、前記第1の画像に関連し前記第1の画像よりも下位の第2の階層に属する第2の画像を前記表示部に表示させる操作イベントが入力されるように構成された第1の操作部を有する操作ユニットと、
    前記第2の画像へのアクセスを促す制御信号を受信することが可能に構成された受信部と、
    前記操作イベントに基づいて前記第1の画像に関連しない第3の画像から前記第2の画像を前記第1の画像を介して前記表示部に表示させる第1の表示制御モードと、前記制御信号を受信したときに前記第3の画像から前記第2の画像を前記第1の画像を介さずに前記表示部に表示させることを可能とする第2の表示制御モードとを選択的に実行するように構成された表示制御部と
    を具備する制御装置。
  7. 請求項6に記載の制御装置であって、
    前記操作ユニットは、入力操作により前記制御信号を生成する第2の操作部をさらに有し、
    前記表示制御部は、前記第2の操作部の入力操作時に前記所定の階層に属する画像を前記表示部に表示させるように構成される
    制御装置。
  8. 請求項6に記載の制御装置であって、
    前記操作ユニットは、側周面の一部に切欠き部を有する筐体をさらに有し、
    前記第1の操作部は、前記切欠き部に配置された静電容量センサで構成され、
    前記第2の操作部は、前記筐体の側周面に配置された複数の入力キーを含む
    制御装置。
  9. 請求項8に記載の制御装置であって、
    前記複数の入力キーは、前記ウェアラブル機器に搭載された撮像部を動作させる入力ボタンを含む
    制御装置。
JP2014032357A 2014-02-21 2014-02-21 ウェアラブル機器および制御装置 Pending JP2015158753A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014032357A JP2015158753A (ja) 2014-02-21 2014-02-21 ウェアラブル機器および制御装置
PCT/JP2014/006447 WO2015125200A1 (ja) 2014-02-21 2014-12-25 ウェアラブル機器および制御装置
US15/118,617 US11068154B2 (en) 2014-02-21 2014-12-25 Wearable apparatus and control apparatus
CN201480075281.5A CN106062692B (zh) 2014-02-21 2014-12-25 可穿戴装置和控制设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014032357A JP2015158753A (ja) 2014-02-21 2014-02-21 ウェアラブル機器および制御装置

Publications (1)

Publication Number Publication Date
JP2015158753A true JP2015158753A (ja) 2015-09-03

Family

ID=53877741

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014032357A Pending JP2015158753A (ja) 2014-02-21 2014-02-21 ウェアラブル機器および制御装置

Country Status (4)

Country Link
US (1) US11068154B2 (ja)
JP (1) JP2015158753A (ja)
CN (1) CN106062692B (ja)
WO (1) WO2015125200A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018155392A1 (ja) * 2017-02-22 2018-08-30 三井化学株式会社 アイウェア

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10402045B2 (en) * 2015-12-08 2019-09-03 King.Com Ltd. Controlling an image displayed on a user interface of a computer device

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004019315A1 (en) * 2001-07-17 2004-03-04 Nohr Steven P System and method for finger held hardware device
JP4096541B2 (ja) * 2001-10-01 2008-06-04 株式会社日立製作所 画面表示方法
US20070237491A1 (en) * 2006-03-29 2007-10-11 Clifford Kraft Portable personal entertainment video viewing system
KR100776992B1 (ko) * 2006-05-16 2007-11-21 삼성전자주식회사 기능 할당형 다-버튼 사이드 키를 구비한 이동통신 단말기및 그 기능 수행 방법
JP5250834B2 (ja) * 2008-04-03 2013-07-31 コニカミノルタ株式会社 頭部装着式映像表示装置
US8019316B2 (en) * 2008-05-05 2011-09-13 Sony Corporation Lower power wake-up device
KR20100082895A (ko) * 2009-01-12 2010-07-21 삼성전자주식회사 휴대단말기의 단축키를 이용한 메뉴 실행 방법 및 장치
CN101571748A (zh) * 2009-06-04 2009-11-04 浙江大学 一种基于增强现实的脑机交互系统
JP5681854B2 (ja) 2009-11-18 2015-03-11 レノボ・イノベーションズ・リミテッド(香港) 携帯情報端末及びその履歴情報通知方法
US20120242698A1 (en) * 2010-02-28 2012-09-27 Osterhout Group, Inc. See-through near-eye display glasses with a multi-segment processor-controlled optical layer
US9177307B2 (en) * 2010-07-29 2015-11-03 Bank Of America Corporation Wearable financial indicator
JP2012060200A (ja) 2010-09-03 2012-03-22 Fujitsu Toshiba Mobile Communications Ltd 携帯端末
US9558013B2 (en) * 2011-04-12 2017-01-31 Citrix Systems, Inc. Responsive scroller controls in server-hosted applications
JP4818478B1 (ja) * 2011-04-14 2011-11-16 株式会社アイエスピー 携帯端末装置、アプリケーションソフトウェアの起動方法
US8223088B1 (en) * 2011-06-09 2012-07-17 Google Inc. Multimode input field for a head-mounted display
JP2013070346A (ja) 2011-09-26 2013-04-18 Nec Saitama Ltd イベント報知システム、イベント報知装置、イベント報知方法及びプログラム
US9485411B2 (en) * 2011-10-28 2016-11-01 Canon Kabushiki Kaisha Display control apparatus and method for controlling display control apparatus
JP6002012B2 (ja) 2011-11-28 2016-10-05 京セラ株式会社 装置、方法、及びプログラム
KR20130102832A (ko) * 2012-03-08 2013-09-23 삼성전자주식회사 휴대용 전자기기에서 단축서비스를 제공하기 위한 장치 및 방법
US20130254705A1 (en) * 2012-03-20 2013-09-26 Wimm Labs, Inc. Multi-axis user interface for a touch-screen enabled wearable device
US20150193098A1 (en) * 2012-03-23 2015-07-09 Google Inc. Yes or No User-Interface
KR101932086B1 (ko) * 2012-09-28 2019-03-21 삼성전자 주식회사 카메라 제어 방법 및 휴대 장치
US20140101608A1 (en) * 2012-10-05 2014-04-10 Google Inc. User Interfaces for Head-Mountable Devices
US9363010B2 (en) * 2012-12-03 2016-06-07 Samsung Electronics Co., Ltd. Mobile terminal and method of controlling function of the mobile terminal
US9606721B2 (en) * 2013-07-22 2017-03-28 Lg Electronics Inc. Mobile terminal and control method thereof
US9513703B2 (en) * 2013-12-27 2016-12-06 Intel Corporation Gesture-based waking and control system for wearable devices

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018155392A1 (ja) * 2017-02-22 2018-08-30 三井化学株式会社 アイウェア
JPWO2018155392A1 (ja) * 2017-02-22 2019-11-07 三井化学株式会社 アイウェア

Also Published As

Publication number Publication date
CN106062692A (zh) 2016-10-26
WO2015125200A1 (ja) 2015-08-27
US11068154B2 (en) 2021-07-20
US20170052692A1 (en) 2017-02-23
CN106062692B (zh) 2019-12-06

Similar Documents

Publication Publication Date Title
US10567567B2 (en) Electronic device and method for controlling of the same
CN105163366B (zh) 无线网络连接方法和装置
KR102225947B1 (ko) 이동단말기 및 그 제어방법
KR102415870B1 (ko) 적응적으로 작업 수행의 주체를 변경하기 위한 장치 및 방법
KR102241318B1 (ko) 통신 서비스 운용 방법 및 이를 지원하는 전자 장치
KR102251118B1 (ko) 이동단말기 및 그 제어방법
US9413876B2 (en) Mobile terminal and control method for the mobile terminal
CN112394891A (zh) 一种投屏方法及电子设备
EP2704461B1 (en) Mobile terminal and control method thereof
CN102238279A (zh) 移动终端及其控制方法
JP2017529636A (ja) 移動端末機及びその制御方法
US20170168667A1 (en) Mobile terminal and method for controlling the same
CN105515952B (zh) 多媒体消息发送方法及装置
JP2016201090A (ja) 移動端末機及びその制御方法
WO2015024372A1 (zh) 发起通信的方法、装置及移动终端
KR20170120707A (ko) 터치 스크린의 포인트 보고를 처리하는 방법, 장치, 프로그램 및 기록매체
WO2015024393A1 (zh) 发送短信的方法、装置及终端
WO2015125200A1 (ja) ウェアラブル機器および制御装置
CN112118333A (zh) 响应于用户输入改变操作模式的电子设备和相应方法
EP2961141B1 (en) Mobile terminal and method for controlling the same
US20150215465A1 (en) Communication message management method and electronic device supporting the same
KR20170055225A (ko) 이동 단말기 및 그 제어 방법
CN106506318A (zh) 一种群组的资讯订阅方法
JP6497381B2 (ja) ウェアラブル機器、電子機器、画像制御装置および表示制御方法
KR101664423B1 (ko) 이동단말기 및 그 제어방법