JP5845875B2 - 携帯機器、情報処理方法、およびプログラム - Google Patents

携帯機器、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP5845875B2
JP5845875B2 JP2011276679A JP2011276679A JP5845875B2 JP 5845875 B2 JP5845875 B2 JP 5845875B2 JP 2011276679 A JP2011276679 A JP 2011276679A JP 2011276679 A JP2011276679 A JP 2011276679A JP 5845875 B2 JP5845875 B2 JP 5845875B2
Authority
JP
Japan
Prior art keywords
image
display
unit
portable device
mobile device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011276679A
Other languages
English (en)
Other versions
JP2013128195A (ja
Inventor
康之 須木
康之 須木
真由 小坂
真由 小坂
亜弥 鈴木
亜弥 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011276679A priority Critical patent/JP5845875B2/ja
Priority to TW101145616A priority patent/TW201342902A/zh
Priority to CN201280061153.6A priority patent/CN104160691B/zh
Priority to EP12860989.8A priority patent/EP2797306B1/en
Priority to US14/356,277 priority patent/US9350912B2/en
Priority to PCT/JP2012/081754 priority patent/WO2013094429A1/ja
Publication of JP2013128195A publication Critical patent/JP2013128195A/ja
Application granted granted Critical
Publication of JP5845875B2 publication Critical patent/JP5845875B2/ja
Priority to US15/134,754 priority patent/US9998649B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0339Touch strips, e.g. orthogonal touch strips to control cursor movement or scrolling; single touch strip to adjust parameter or to implement a row of soft keys
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus

Description

本技術は、携帯機器、情報処理方法、およびプログラムに関し、特に、撮影した画像を特定の人と容易に共有することができるようにした携帯機器、情報処理方法、およびプログラムに関する。
近年、いわゆるスマートフォンや通信機能を有するデジタルスチルカメラなどの、撮影機能と通信機能を有する携帯機器が普及してきている。
撮影機能と通信機能を用いたアプリケーションとして、例えば、撮影した画像をサーバにアップロードし、友人などの他のユーザに公開するものがある。このようなアプリケーションを利用することにより、ユーザは、自分が撮影した画像を他のユーザとの間で共有することが可能になる。
特表2009−504098号公報
上述したようにして画像を共有する場合、ユーザは、撮影を行った後、ブラウザを起動させて所定のサーバにアクセスし、予め割り当てられたパスワードを入力するなどしてログインを行った後、撮影によって得られた画像の中から画像を選択し、画像をアップロードさせるなどの操作を行う必要がある。
このような操作は、筐体が小さく、小型のディスプレイや小さいボタンしか設けられていない機器において行う場合には特に煩雑になる。
本技術はこのような状況に鑑みてなされたものであり、撮影した画像を特定の人と容易に共有することができるようにするものである。
本技術の一側面の携帯機器は、筐体の背面に設けられた撮影部と、前記撮影部による撮影によって得られた画像である自機撮影画像を他の携帯機器送信するとともに、前記他の携帯機器において撮影が行われ前記他の携帯機器から送信されてきた画像である他機撮影画像を受信する通信部と、前記筐体の正面に設けられ、前記他機撮影画像を表示する表示部と、前記筐体のいずれの側面にユーザが触れているのかを検出する検出部と、前記筐体の側面に前記ユーザが触れたことが検出されたことに応じて、前記通信部により最後に受信された前記他機撮影画像を前記表示部に表示させる表示制御部とを備える。
前記自機撮影画像と前記他機撮影画像を記憶する記憶部をさらに備え前記表示制御部は、前記記憶部に記憶された前記自機撮影画像と前記他機撮影画像の中から所定の画像を選択し、前記表示部に表示させることができる。
前記検出部には、前記筐体の上下の側面と左右の側面のうちのいずれの対向する側面にユーザが触れているのかと、対向する側面に対する前記ユーザの押下操作を検出させることができる。
前記撮影部には、上下の側面と左右の側面のうちの一方の側面に前記ユーザが触れたことが検出された場合、前記一方の側面に対する押下操作が行われたことに応じて撮影を行わせることができる。
前記筐体に加えられた位置の変化を検出する変位検出部をさらに設けることができる。
前記表示制御部には、他方の側面に前記ユーザが触れたことが検出された場合、前記他方の側面に対する押下操作が行われているときに前記位置の変化が検出されたことに応じて、前記表示部に表示させる画像を切り替えさせることができる。
前記通信部には、切り替えて表示された画像の識別情報を前記他の携帯機器に送信させることができる。この場合、前記他の携帯機器においては、前記識別情報により識別される画像が表示される。
前記表示部を、自発光型であり、かつ透過型のディスプレイにより構成することができる。この場合、前記表示制御部には、前記表示部の表示領域全体のうち、背面側に遮光部材が設けられる領域に1枚の画像を表示させ、背面側に前記遮光部材が設けられていない領域に他の画像の一部を表示させることができる。
前記表示制御部には、前記一方の側面または他方の側面に前記ユーザが触れたことが検出された場合、前記位置の変化が検出されたことに応じて、前記表示部に表示させている画像の状態を変化させることができる。
前記通信部には、前記表示部に表示されている画像の識別情報と、検出された前記位置の変化に関する情報を前記他の携帯機器に送信させることができる。この場合、前記他の携帯機器においては、前記識別情報により識別される画像が表示され、前記位置の変化に関する情報に応じて状態を変化させる処理が行われる。
前記表示部を、自発光型であり、かつ透過型のディスプレイにより構成することができる。この場合、前記表示制御部には、前記表示部の表示領域全体のうちの背面側に遮光部材が設けられている領域に表示させている1枚の画像の表示位置を、前記表示領域の範囲内で移動させることができる。
前記表示部を、自発光型であり、かつ透過型のディスプレイにより構成することができる。この場合、前記表示制御部には、前記表示部の表示領域全体のうちの背面側に遮光部材が設けられている領域に1枚の画像を表示させ、背面側に前記遮光部材が設けられていない領域にアイコンを表示させることができる。
前記通信部には、前記携帯機器と前記他の携帯機器の双方とネットワークを介して接続され、前記携帯機器と前記他の携帯機器とを対応付けて管理する管理装置を介して、撮影によって得られた前記自機撮影画像を前記他の携帯機器に送信させ、前記他の機器から送信されてきた前記他機撮影画像を受信させることができる。
ネットワークとは、少なくとも2つの装置が接続され、ある装置から、他の装置に対して、情報の伝達をできるようにした仕組みをいう。ネットワークを介して通信する装置は、独立した装置どうしであっても良いし、1つの装置を構成している内部ブロックどうしであっても良い。
本技術の一側面においては、筐体の背面に設けられた撮影部により撮影が行われ、前記撮影部による撮影によって得られた画像である自機撮影画像が他の携帯機器に通信部から送信される。また、前記他の携帯機器において撮影が行われ前記他の携帯機器から送信されてきた画像である他機撮影画像前記通信部により受信され、前記筐体の正面に設けられた表示部に前記他機撮影画像が表示される。前記筐体のいずれの側面にユーザが触れているのかが検出部により検出され、前記筐体の側面に前記ユーザが触れたことが検出されたことに応じて、前記通信部により最後に受信された前記他機撮影画像が前記表示部に表示される。
本技術によれば、撮影した画像を特定の人と容易に共有することができる。
本技術の一実施形態に係る携帯機器の正面の構成例を示す図である。 携帯機器の背面の構成例を示す図である。 携帯機器の側面を示す図である。 携帯機器の持ち方の例を示す図である。 携帯機器の他の側面を示す図である。 携帯機器の他の持ち方の例を示す図である。 情報処理システムの構成例を示す図である。 携帯機器の動作モードの例を示す図である。 基本ビューモード時のディスプレイの表示例を示す図である。 基本ビューモード時のディスプレイの他の表示例を示す図である。 カメラモード時のディスプレイの表示例を示す図である。 セレクトモード時のディスプレイの表示例を示す図である。 画像の切り替えの例を示す図である。 リアクションモード時のディスプレイの表示例を示す図である。 上下に振るリアクションが付けられたときの表示例を示す図である。 左右に振るリアクションが付けられたときの表示例を示す図である。 動作モードの一連の遷移を示す図である。 携帯機器のハードウェア構成例を示すブロック図である。 制御部の機能構成例を示すブロック図である。 携帯機器の処理について説明するフローチャートである。 図20のステップS6において行われるカメラモード時の処理について説明するフローチャートである。 図20のステップS9において行われるセレクトモード時の処理について説明するフローチャートである。 図20のステップS12において行われるリアクションモード時の処理について説明するフローチャートである。 携帯機器の受信処理について説明するフローチャートである。 コンピュータの構成例を示すブロック図である。
<携帯機器の外観構成>
図1は、本技術の一実施形態に係る携帯機器の正面の構成例を示す図である。
図1に示すように、携帯機器1の正面の形状は、角が丸みを帯びたほぼ正方形の形状を有している。携帯機器1は、基本的に、ディスプレイ11と、縁部材としてディスプレイ11を囲むように設けられたフレーム12から構成される。
後述するように、携帯機器1には加速度センサが内蔵されており、加速度センサの検出結果に基づいて携帯機器1の向きが判断され、上下左右のそれぞれの側面が特定される。すなわち、ユーザが携帯機器1を持つ向きによっては、図1の下側面、左側面、右側面がそれぞれ上側面になることもある。以下、図1の向きを基準として説明する。
上側面と左側面を繋ぐフレーム12の左上の曲面部分にはU字型のホルダ13が設けられる。ユーザは、ホルダ13に形成される孔部13Aにストラップなどを通し、携帯機器1を首からぶら下げて携帯したり、携帯電話機などに繋げて携帯したりすることができる。
携帯機器1の大きさは、フレーム12により形成される上側面と下側面、または左側面と右側面の対向する側面を、親指と人差し指などの片方の手の二本の指で挟むことによって筐体を持つことが可能な大きさとされる。ユーザは、携帯機器1の筐体を片手でつまむようにして持ち、ディスプレイ11の表示を見たりすることができる。
ディスプレイ11は、例えば有機ELディスプレイなどの自発光型のディスプレイであり、かつ透過型のディスプレイである。ディスプレイ11の表示領域全体のうち、領域21は、背面側に遮光部材が設けられている非透過領域であり、領域21を囲むようにして形成される領域22は、背面側に遮光部材が設けられていない透過領域である。
領域21には例えば撮影された1枚の画像が表示される。遮光部材が背面側に設けられているから、領域21の画像は高いコントラストで表示されることになる。一方、領域22に表示されるアイコンなどの画像は、ユーザにとって、携帯機器1の背面側の風景に重ねて見えるように表示されることになる。
図2は、携帯機器1の背面の構成例を示す図である。
ディスプレイ11のほぼ中央には遮光部材31が取り付けられる。遮光部材31の内部に、ディスプレイ11の表示を制御する回路やバッテリなどの電気的な構成が設けられる。
遮光部材31の所定の位置にはカメラ32が設けられる。すなわち、携帯機器1は、カメラとしての機能と、撮影した画像を表示するフォトフレームとしての機能を有する。携帯機器1の筐体の大きさが比較的小さいこともあって、ユーザは、携帯機器1を気軽に持ち運んで撮影を行ったり画像を見たりすることができる。
図3Aは携帯機器1の上側面を示す図であり、図3Bは携帯機器1の下側面を示す図である。図3Aにおいては左側が携帯機器1の正面側となり、右側が携帯機器1の背面側となる。一方、図3Bにおいては右側が携帯機器1の正面側となり、左側が携帯機器1の背面側となる。
図3Aおよび図3Bに示すように携帯機器1の筐体は所定の厚みを有している。上側面12Tにはタッチセンサ41Tが設けられ、下側面12Bにはタッチセンサ41Bが設けられる。図4に示すようにユーザが上側面12Tと下側面12Bを二本の指で挟んで携帯機器1を持ったとき、そのことがタッチセンサ41Tと41Bにより検出される。
図3Aにおいて破線で示すように、タッチセンサ41Tの下(筐体の内側)にはスイッチ42Tが設けられる。また、図3Bにおいて破線で示すように、タッチセンサ41Bの下にはスイッチ42Bが設けられる。ユーザは、上側面12Tと下側面12Bを二本の指で携帯機器1を持った図4の状態から、白抜き矢印で示すように携帯機器1の内部方向に力を入れ、スイッチ42T,42Bの押下操作を行うことができる。
図5Aは携帯機器1の左側面を示す図であり、図5Bは携帯機器1の右側面を示す図である。図5Aにおいては右側が携帯機器1の正面側となり、左側が携帯機器1の背面側となる。一方、図5Bにおいては左側が携帯機器1の正面側となり、右側が携帯機器1の背面側となる。
左側面12Lにはタッチセンサ41Lが設けられ、右側面12Rにはタッチセンサ41Rが設けられる。図6に示すようにユーザが左側面12Lと右側面12Rを二本の指で挟んで携帯機器1を持ったとき、そのことがタッチセンサ41Lと41Rにより検出される。
図5Aと図5Bにおいて破線で示すように、タッチセンサ41Lの下にはスイッチ42Lが設けられ、タッチセンサ41Rの下にはスイッチ42Rが設けられる。ユーザは、左側面12Lと右側面12Rを二本の指で携帯機器1を持った図6の状態から、白抜き矢印で示すように携帯機器1の内部方向に力を入れ、スイッチ42L,42Rの押下操作を行うことができる。
以下、適宜、タッチセンサ41T,41B,41L,41Rをそれぞれ区別する必要がない場合、まとめてタッチセンサ41という。また、スイッチ42T,42B,42L,42Rをそれぞれ区別する必要がない場合、まとめてスイッチ42という。
携帯機器1を用いた撮影機能や画像の閲覧機能が、図4と図6に示すような携帯機器1の持ち方によって、またはスイッチ42の操作に応じて切り替えられる。
携帯機器1には、無線LAN(Local Area Network)などによる無線通信の機能も搭載されている。携帯機器1は、撮影した画像を他の携帯機器に送信したり、他の携帯機器において撮影され、他の携帯機器から送信されてきた画像を受信して表示したりすることができる。
<情報処理システムの構成>
図7は、情報処理システムの構成例を示す図である。
図7の情報処理システムは、携帯機器1と携帯機器101がインターネット102を介して接続されることによって構成される。携帯機器101は、携帯機器1と同じ構成と機能を有し、携帯機器1のユーザとは異なるユーザが携帯する機器である。
インターネット102には管理サーバ103も接続される。管理サーバ103は、携帯機器1と携帯機器101を対応付けて管理する。例えば、管理サーバ103は、IPアドレスなどの携帯機器1の識別情報と携帯機器101の識別情報を紐付けて記憶することによって、携帯機器1と携帯機器101を対応付けて管理する。
携帯機器1と携帯機器101は例えばセットで販売される。携帯機器1と携帯機器101の対応付けは販売前に行われており、携帯機器1と携帯機器101のそれぞれの識別情報は管理サーバ103に予め記憶されている。図示していないが、管理サーバ103においては、携帯機器1と携帯機器101のペア以外の携帯機器のペアも対応付けて管理されている。
このような構成を有する情報処理システムにおいて、例えば携帯機器1のユーザにより携帯機器1を用いて撮影が行われたとき、撮影によって得られた画像が携帯機器1から管理サーバ103に送信される(アップロードされる)。携帯機器1から管理サーバ103に対する画像の送信は、画像の撮影が行われる毎に、例えばユーザの操作によらずに自動的に行われる。
携帯機器1から送信されてきた画像を受信した管理サーバ103は、記憶している識別情報に基づいて、画像の送信元の機器である携帯機器1と対応付けて管理している機器が携帯機器101であることを特定する。また、管理サーバ103は、特定した携帯機器101を送信先とし、携帯機器1から送信されてきた画像を送信する。
携帯機器101は、管理サーバ103から送信されてきた画像を受信し、受信した画像を表示する。携帯機器101のユーザは、携帯機器1のユーザにより撮影され、送信された画像を閲覧することができる。
これにより、携帯機器1のユーザは、撮影を行う毎に、携帯機器101のユーザとの間で画像を共有することができ、自分が見て撮影した対象を携帯機器101のユーザにも見てもらうことで意思を伝達することが可能になる。
また、管理サーバ103が管理するサイトにアクセスしたり、パスワードを入力してログインを行ったりする必要がないから、携帯機器1のユーザは画像の共有を容易に行うことができる。画像の共有のために各種の操作を行う必要があるとした場合、特に小型の機器においてはボタンが小さかったり、ディスプレイが小さかったりして煩雑になってしまうが、そのような煩雑な操作をユーザは行わないで済む。
一方、携帯機器101のユーザにより携帯機器101を用いて撮影が行われたとき、撮影によって得られた画像が携帯機器101から管理サーバ103に送信される。
携帯機器101から送信されてきた画像を受信した管理サーバ103は、記憶している識別情報に基づいて、画像の送信元の機器である携帯機器101と対応付けて管理している機器が携帯機器1であることを特定する。また、管理サーバ103は、特定した携帯機器1を送信先とし、携帯機器101から送信されてきた画像を送信する。
携帯機器1は、管理サーバ103から送信されてきた画像を受信し、受信した画像を表示する。携帯機器1のユーザは、携帯機器101のユーザにより撮影され、送信された画像を閲覧することができる。
携帯機器101のユーザも同様に、撮影を行う毎に携帯機器1のユーザとの間で画像を共有することができ、意思を伝達することが可能になる。
このように、携帯機器1のユーザと携帯機器101のユーザとの間では、文章や音声などによって意思を直接伝える直接的なコミュニケーションとは異なり、自分が撮影した画像を用いたいわば感覚的なコミュニケーションが実現される。
以下、携帯機器1の構成と機能について主に説明するが、同じ構成と機能を携帯機器101も有している。適宜、携帯機器1の構成を携帯機器101の構成として引用して説明する。
<携帯機器の動作モード>
図8は、携帯機器1の動作モードの例を示す図である。
携帯機器1の動作モードには、ディスプレイ11の表示がオフになるスタンバイモードの他に、基本ビューモード、カメラモード、セレクトモード、およびリアクションモードが用意される。
詳細については後述するが、基本ビューモードは、相手(携帯機器101のユーザ)から送信されてきた画像などを閲覧するモードである。カメラモードは、撮影を行い、撮影によって得られた画像を相手に送信するモードである。セレクトモードは、自分が撮影した画像や相手から送信されてきた画像の中から所定の画像を選択するモードである。リアクションモードは、画像を送信してきた相手に対してリアクションを返すモードである。
矢印A1乃至A3に示すように、基本ビューモードから、カメラモード、セレクトモード、リアクションモードのそれぞれの動作モードへの遷移が可能とされる。また、カメラモード、セレクトモード、リアクションモードのそれぞれの動作モードから、基本ビューモードへの遷移が可能とされる。
[基本ビューモード]
図9は、基本ビューモード時のディスプレイ11の表示例を示す図である。
基本ビューモードは、例えばスタンバイモードのときに、筐体が触られたことがタッチセンサ41により検出されたことに応じて設定される。
基本ビューモードが設定されたとき、ディスプレイ11の表示がオンとなり、領域21には、携帯機器101との間で同期が行われた画像である同期画像が表示される。同期画像が複数ある場合、例えば最後の同期画像が表示される。
同期画像は、携帯機器1において、カメラモード時に撮影された画像、セレクトモード時に選択された画像、リアクションモード時にリアクションが付けられた画像である。これらの画像は、後述するように、携帯機器1のディスプレイ11に表示されるとともに、携帯機器101のディスプレイ11にも表示される。
また、携帯機器101において、カメラモード時に撮影された画像、セレクトモード時に選択された画像、リアクションモード時にリアクションが付けられた画像も同期画像となる。これらの画像は、携帯機器101において撮影等が行われることに応じて、携帯機器101のディスプレイ11に表示されるとともに、携帯機器1のディスプレイ11にも表示される。
基本ビューモードは、上下左右のいずれかの側面にユーザが触れたときに設定される。ユーザは携帯機器1をどの向きに持っても画像を見ることができる。
図9に示すようにユーザが上側面と下側面を挟むように携帯機器1を持っている場合、透過領域である領域22の位置のうち、領域21の左側の位置にはカメラアイコン111が表示される。カメラアイコン111は、カメラの画像とカメラを上下から挟む矢印の画像から構成される。カメラアイコン111は、上側面のスイッチ42Tと下側面のスイッチ42Bを同時に押すことによってカメラモードに遷移させることができることを表す。
また、領域21の右側の位置にはリアクションアイコン112が表示される。リアクションアイコン112は、四角の画像と、四角の画像の上下に配置された振動を表す画像から構成される。リアクションアイコン112は、筐体を上下に振ることによってリアクションモードに遷移させることができることを表す。ユーザが筐体を振っていることは、例えば、携帯機器1に内蔵されている加速度センサの検出結果に基づいて特定される。
このように、上側面と下側面を挟むように携帯機器1を持っている場合、ディスプレイ11には、画像の左右にアイコンが表示される。
図10は、基本ビューモード時のディスプレイ11の他の表示例を示す図である。
図10に示すようにユーザが左側面と右側面を挟むように携帯機器1を持っている場合、領域22の位置のうち、領域21の上側の位置にはセレクトアイコン121が表示される。セレクトアイコン121は、3つの四角を重ねた画像と、3つの四角を左右から挟む矢印の画像から構成される。セレクトアイコン121は、左側面のスイッチ42Lと右側面のスイッチ42Rを同時に押すことによってセレクトモードに遷移させることができることを表す。
また、領域21の下側の位置にはリアクションアイコン122が表示される。リアクションアイコン122は、図9のリアクションアイコン112を横向きにしたものである。リアクションアイコン122は、筐体を左右に振ることによってリアクションモードに遷移させることができることを表す。
このように、左側面と右側面を挟むように携帯機器1を持っている場合、ディスプレイ11には、画像の上下にアイコンが表示される。
[カメラモード]
図11は、カメラモード時のディスプレイ11の表示例を示す図である。
カメラモードは、基本ビューモードが設定されている場合において、上側面のスイッチ42Tと下側面のスイッチ42Bが同時に押されたことが検出されたときに設定される。ユーザは、スタンバイモード時、上側面と下側面を挟んで筐体を持つことによって基本ビューモードに遷移させ、その状態から上側面と下側面を同時に押すことによってカメラモードに遷移させることができる。上側面のスイッチ42Tと下側面のスイッチ42Bを同時に押すのではなく、片方を押すことでカメラモードが設定されるようにしてもよい。
カメラモードが設定されたとき、ディスプレイ11の領域21には、カメラ32により取り込まれているライブビューの画像が表示される。ユーザは、領域21に表示される画像を見て、構図を決定することになる。
領域21の左側にはカメラアイコン111が表示される。図11のカメラアイコン111は、上側面のスイッチ42Tと下側面のスイッチ42Bを同時に押すことによって撮影を行うことができることを表す。なお、カメラモードが設定される前の基本ビューモード時に領域21の右側に表示されていた図9のリアクションアイコン112は、カメラモードが設定されたときに消える。
上側面のスイッチ42Tと下側面のスイッチ42Bが同時に押され、撮影が行われた場合、撮影によって得られた画像は、同期画像として、携帯機器1の内部のメモリに記憶されるとともに携帯機器101に送信される。携帯機器101においては、携帯機器1から送信されてきた画像が受信され、基本ビューモードが設定されている場合、携帯機器1のユーザにより撮影された画像が表示される。
[セレクトモード]
図12は、セレクトモード時のディスプレイ11の表示例を示す図である。
セレクトモードは、基本ビューモードが設定されている場合において、左側面のスイッチ42Lと右側面のスイッチ42Rが同時に押されたことが検出されたときに設定される。ユーザは、スタンバイモード時、左側面と右側面を挟んで筐体を持つことによって基本ビューモードに遷移させ、その状態から左側面と右側面を同時に押すことによってセレクトモードに遷移させることができる。左側面のスイッチ42Lと右側面のスイッチ42Rを同時に押すのではなく、片方を押すことでセレクトモードが設定されるようにしてもよい。
セレクトモードが設定されたとき、ディスプレイ11の領域21には、カメラ32により撮影された画像と携帯機器101から送信されてきた画像のうちの所定の画像がメモリから読み出され、表示される。領域21の左右にはメモリから読み出された他の画像の一部が表示される。
領域21の上側にはセレクトアイコン121が表示される。図12のセレクトアイコン121は、左側面のスイッチ42Lと右側面のスイッチ42Rを押したまま筐体を左または右に傾けることによって、領域21の画像を切り替えることができることを表す。なお、セレクトモードが設定される前の基本ビューモード時に領域21の下側に表示されていた図10のリアクションアイコン122は、セレクトモードが設定されることに応じて消える。
左側面のスイッチ42Lと右側面のスイッチ42Rを押したまま筐体が傾けられた場合、傾けられた方向に応じて、領域21の画像が他の画像に切り替えられる。
図13は、画像の切り替えの例を示す図である。
ここでは、図13の中央に示すように、領域21に画像P2が表示され、領域21の左側に画像P1の右側の一部が表示され、領域21の右側に画像P3の左側の一部が表示されている状態を基準の状態として説明する。画像P1と画像P3は透過領域である領域22に表示される画像であるから、領域21に表示されている画像P1より薄く見えることになる。画像P1〜P3は、携帯機器1により撮影され、メモリに記憶された画像、または、携帯機器101から送信され、受信された後にメモリ記憶された画像である。画像P1〜P3の並び順は例えば撮影順である。
基準の状態において、左側面のスイッチ42Lと右側面のスイッチ42Rを押したまま筐体が左に傾けられた場合、白抜き矢印A51の先に示すように、領域21には、画像P2の左隣の画像である画像P1が表示される。また、領域21の表示が切り替えられることに連動して他の画像の位置も移動する。領域21に表示された画像P1の左側には、撮影順で画像P1の1つ前の画像である画像P0の右側の一部が表示され、画像P1の右側には、画像P2の左側の一部が表示される。
図13の左側の状態において、左側面のスイッチ42Lと右側面のスイッチ42Rを押したまま筐体が右に傾けられた場合、白抜き矢印A52の先に示すように、ディスプレイ11の表示は基準の状態に戻る。
反対に、基準の状態において、左側面のスイッチ42Lと右側面のスイッチ42Rを押したまま筐体が右に傾けられた場合、白抜き矢印A53の先に示すように、領域21には、画像P2の右隣の画像である画像P3が表示される。また、領域21に表示された画像P3の左側には、画像P2の右側の一部が表示され、画像P3の右側には、撮影順で画像P3の1つ後の画像である画像P4の左側の一部が表示される。
図13の右側の状態において、左側面のスイッチ42Lと右側面のスイッチ42Rを押したまま筐体が左に傾けられた場合、白抜き矢印A54の先に示すように、ディスプレイ11の表示は基準の状態に戻る。
このように、セレクトモード時、ユーザは、領域21の表示を順次切り替え、相手との画像のやりとりを振り返ることができる。また、画像の一部が領域22に表示されることによって、ユーザは、領域21に表示されている画像以外の画像の存在を直感的に認識することができる。
例えば左側面のスイッチ42Lと右側面のスイッチ42Rを押した状態が解除されたとき、そのとき領域21に表示されている画像が同期画像として選択され、ファイル名などの、選択された画像の識別情報が携帯機器101に送信される。画像の選択の仕方は、左側面のスイッチ42Lと右側面のスイッチ42Rから指を離す操作に限られるものではなく、他の操作であってもよい。
携帯機器101においては、携帯機器1から送信されてきたファイル名が受信され、基本ビューモードが設定されている場合、受信したファイル名により識別される画像がメモリから読み出され、表示される。携帯機器1のユーザにより選択された画像は、携帯機器1のユーザにより撮影された画像か携帯機器101のユーザにより撮影された画像であるから、携帯機器101のメモリにも、携帯機器1のユーザにより選択された画像と同じ画像が記憶されている。
携帯機器1のユーザは、セレクトモードを用いて画像を選択することによって、自分が選択して見ている画像と同じ画像を携帯機器101のユーザにも見せることができる。
[リアクションモード]
図14は、リアクションモード時のディスプレイ11の表示例を示す図である。
リアクションモードは、基本ビューモードが設定されている場合において、筐体が所定の方向に振られたことが検出されたときに設定される。リアクションモード時の領域21の表示は基本ビューモード時の表示のままである。領域21には、例えばスタンバイモード時に携帯機器101から送信されてきた同期画像が表示される。
ユーザが上側面と下側面を挟むように携帯機器1を持っている場合、基本ビューモード時に領域21の左右に表示されていた図9のカメラアイコン111とリアクションアイコン112のうち、リアクションアイコン112のみが表示された状態になる。
図示は省略するが、ユーザが左側面と右側面を挟むように携帯機器1を持っている場合、基本ビューモード時に領域21の上下に表示されていた図10のセレクトアイコン121とリアクションアイコン122のうち、リアクションアイコン122のみが表示された状態になる。
図14の状態で筐体が振られた場合、振られた方向に応じて領域21の画像にリアクションが付けられる。また、ユーザにより付けられたリアクションを表すように領域21の画像の状態が変化する。
図15は、筐体が上下に振られたときの画像の状態の変化、すなわち、上下に振るリアクションが付けられたときの表示の例を示す図である。図15において、斜線を付して示す範囲が画像Pの表示範囲を示す。
図15の最上段に示すディスプレイ11の状態は、画像Pが領域21に表示されている状態である。この状態において筐体が上下に振られたことが検出された場合、矢印A11〜A14の先に示すように、画像Pは、ディスプレイ11の上側、中央(領域21の位置)、下側、中央といったように上下に位置を変えて表示される。このような表示が所定の時間続けられる。
図16は、筐体が左右に振られたときの画像の状態の変化、すなわち、左右に振るリアクションが付けられたときの表示の例を示す図である。図16の表示は、ユーザが左側面と右側面を挟むように携帯機器1を持っている状態でリアクションモードが設定されたときに行われる。
図16の左端に示すディスプレイ11の状態は、画像Pが領域21に表示されている状態である。この状態において筐体が左右に振られたことが検出された場合、矢印A31〜A34の先に示すように、画像Pは、ディスプレイ11の左側、中央、右側、中央といったように左右に位置を変えて表示される。このような表示が所定の時間続けられる。
リアクションモード時に画像に付けることができるリアクションは、図15と図16に示したような表示位置を変えるリアクションに限られない。例えば、振った方向に応じて画像を伸縮して表示させるリアクションであってもよいし、拡大縮小して表示させるリアクションであってもよい。
リアクションモード時にリアクションが付けられた場合、このようにして画像の状態を変化させて表示する処理が行われるとともに、リアクションが付けられた画像のファイル名とリアクション情報が携帯機器101に送信される。リアクション情報には、筐体が振られた方向を表す情報や振られた時間を表す情報などの、ユーザが画像に付けたリアクションの内容を表す情報が含まれる。
携帯機器101においては、携帯機器1から送信されてきたファイル名とリアクション情報が受信され、基本ビューモードが設定されている場合、ファイル名により識別される画像がメモリから読み出され、表示される。また、ディスプレイ11に表示させた画像の状態を、携帯機器1から送信されてきたリアクション情報に応じて変化させる処理が行われる。携帯機器101においても、携帯機器1において表示されていた画像と同じ画像が、同じように状態を変化させて表示されることになる。
これにより、携帯機器1のユーザは、相手から送信されてきた画像に対してリアクションを付けて返すことができる。また、携帯機器101のユーザは、自分が送った画像に対する携帯機器1のユーザのリアクションを確認することができる。携帯機器1のユーザと携帯機器101のユーザは、リアクションを通じてコミュニケーションをとることができることになる。
[動作モードの遷移]
図17は、以上のような動作モードの一連の遷移を示す図である。
図17の左端に示すようにスタンバイモード時に筐体が触られた場合、矢印A51の先に示すように、携帯機器1の動作モードは基本ビューモードに遷移する。ディスプレイ11には、スタンバイモード時に携帯機器101から送信されてきた画像などの同期画像が表示される。
基本ビューモード時にユーザが筐体から手を離した場合、矢印A52の先に示すように、携帯機器1の動作モードはスタンバイモードに遷移する。
矢印A53の先に斜線を付して示すように、ユーザが上側面と下側面を挟むように携帯機器1を持っており、上側面のスイッチ42Tと下側面のスイッチ42Bが同時に押された場合、矢印A54の先に示すように、携帯機器1の動作モードはカメラモードに遷移する。
カメラモード時に上側面のスイッチ42Tと下側面のスイッチ42Bが同時に押された場合、矢印A55の先に示すように撮影が行われ、矢印A56の先に示すように、撮影によって得られた画像の同期が行われる。撮影によって得られた画像が携帯機器101に送信され、例えばスタンバイモードの状態にある携帯機器101により受信される。
携帯機器101のユーザが携帯機器101の筐体を触った場合、携帯機器101の動作モードは矢印A57の先に示すように基本ビューモードに遷移する。携帯機器101のディスプレイ11には、携帯機器1のユーザにより撮影され、携帯機器1から送信されてきた画像が表示される。携帯機器101においても同じ画像が表示されるから、カメラモード時に携帯機器1により撮影された画像は同期画像となる。
一方、矢印A58の先に斜線を付して示すように、ユーザが左側面と右側面を挟むように携帯機器1を持っており、左側面のスイッチ42Lと右側面のスイッチ42Rが同時に押された場合、矢印A59の先に示すように、携帯機器1の動作モードはセレクトモードに遷移する。
セレクトモード時に左側面のスイッチ42Lと右側面のスイッチ42Rを押したまま筐体が傾けられた場合、矢印A60の先に示すように表示画像の切り替えが行われる。
所定の画像が選択されたとき、矢印A61の先に示すように、選択された画像の同期が行われる。携帯機器1のユーザにより選択された画像のファイル名が携帯機器101に送信され、例えばスタンバイモードの状態にある携帯機器101により受信される。
携帯機器101のユーザが携帯機器101の筐体を触った場合、携帯機器101の動作モードは矢印A62の先に示すように基本ビューモードに遷移する。携帯機器101のディスプレイ11には、ファイル名に基づいて識別された、携帯機器1のユーザにより選択された画像と同じ画像が表示される。携帯機器101においても同じ画像が表示されるから、セレクトモード時に携帯機器1のユーザにより選択された画像は同期画像となる。
矢印A53の先に示すようにユーザが上側面と下側面を挟むように携帯機器1を持っており、その状態で筐体が振られた場合、矢印A63の先に示すように、携帯機器1の動作モードは基本ビューモードからリアクションモードに遷移する。
また、矢印A58の先に示すようにユーザが左側面と右側面を挟むように携帯機器1を持っており、その状態で筐体が振られた場合、矢印A64の先に示すように、携帯機器1の動作モードは基本ビューモードからリアクションモードに遷移する。
リアクションモード時に筐体を上下または左右に振ることによってリアクションが付けられた場合、矢印A66の先に示すように同期が行われる。リアクションが付けられた画像のファイル名とリアクション情報が携帯機器101に送信され、例えばスタンバイモードの状態にある携帯機器101により受信される。
携帯機器101のユーザが携帯機器101の筐体を触った場合、携帯機器101の動作モードは矢印A67の先に示すように基本ビューモードに遷移する。携帯機器101のディスプレイ11には、ファイル名に基づいて識別された、携帯機器1のユーザがリアクションを付けた画像と同じ画像が、リアクション情報に応じて状態を変化させるように表示される。携帯機器101においても同じ画像が表示されるから、リアクションモード時に携帯機器1のユーザによりリアクションが付けられた画像は同期画像となる。
以上のようにして動作モードを遷移させ、ユーザの操作に応じて処理を行う携帯機器1の動作についてはフローチャートを参照して後述する。
<携帯機器の構成例>
図18は、携帯機器1のハードウェア構成例を示すブロック図である。
携帯機器1は、上述したディスプレイ11、カメラ32、タッチセンサ41、スイッチ42の他に、制御部151、加速度センサ152、メモリ153、および通信部154から構成される。
制御部151は、所定のプログラムを実行し、携帯機器1の全体の動作を制御する。例えば制御部151は、タッチセンサ41、スイッチ42、加速度センサ152から供給された信号に基づいてユーザの操作を検出し、検出した操作に応じた動作モードを設定して各種の処理を行う。
加速度センサ152は、携帯機器1の筐体に生じた加速度を検出し、検出結果を制御部151に出力する。
メモリ153はフラッシュメモリなどよりなり、制御部151から供給された画像を記憶する。メモリ153には、カメラ32により撮影された画像と、携帯機器101から送信され、通信部154により受信された画像が記憶される。メモリ153に記憶された画像は制御部151により適宜読み出される。
通信部154は、制御部151の制御に従って管理サーバ103と通信を行い、カメラ32により撮影され、制御部151から供給された画像を管理サーバ103に送信する。また、通信部154は、管理サーバ103から送信されてきた画像を受信し、制御部151に出力する。
図19は、制御部151の機能構成例を示すブロック図である。
図19に示す機能部のうちの少なくとも一部は、図18の制御部151により所定のプログラムが実行されることによって実現される。制御部151においては、操作検出部161、変位検出部162、モード管理部163、画像管理部164、および表示制御部165が実現される。
操作検出部161は、4つの側面にそれぞれ設けられたタッチセンサ41とスイッチ42からの出力に基づいて、ユーザが筐体の側面に触れていることと、ユーザによるスイッチ42の押下操作を検出する。操作検出部161は、検出したユーザの操作の内容を表す情報をモード管理部163、画像管理部164、および表示制御部165に出力する。
変位検出部162は、加速度センサ152により検出された加速度に基づいて、携帯機器1の筐体の向きと、筐体に加えられた変位を検出する。例えば、筐体が振られた方向、大きさなどが変位検出部162により検出される。変位検出部162は、筐体の向きを表す情報と筐体に加えられた変位を表す情報をモード管理部163、画像管理部164、および表示制御部165に出力する。
モード管理部163は、操作検出部161により検出されたユーザの操作と、変位検出部162により検出された筐体の向きと筐体に加えられた変位に基づいて、図17を参照して説明したようにして動作モードを遷移させる。モード管理部163は、設定中の動作モードが、スタンバイモード、基本ビューモード、カメラモード、セレクトモード、リアクションモードのうちのいずれのモードであるのかを表す情報を画像管理部164と表示制御部165に出力する。
画像管理部164は、操作検出部161により検出されたユーザの操作と、変位検出部162により検出された筐体の向き、筐体に加えられた変位に基づいて、カメラ32、メモリ153、および通信部154を制御する。
例えば、画像管理部164は、モード管理部163によりカメラモードが設定されている場合、カメラ32により取り込まれた画像を表示制御部165に出力し、ディスプレイ11に表示させる。また、画像管理部164は、上側面のスイッチ42Tと下側面のスイッチ42Bが同時に押された場合、そのときカメラ32により取り込まれた画像をメモリ153に記憶させるとともに、通信部154を制御して携帯機器101に送信する。
画像管理部164は、モード管理部163によりセレクトモードが設定されている場合、通信部154を制御し、ユーザにより選択された画像のファイル名を携帯機器101に送信する。
画像管理部164は、モード管理部163によりリアクションモードが設定されている場合、通信部154を制御し、リアクションが付けられた画像のファイル名とリアクション情報を携帯機器101に送信する。
画像管理部164は、スタンバイモード時、携帯機器101から送信されてきた画像を通信部154を制御して受信し、メモリ153に記憶させる。
表示制御部165は、操作検出部161により検出されたユーザの操作と、変位検出部162により検出された筐体の向き、筐体に加えられた変位に基づいて、ディスプレイ11の表示を制御する。
例えば、表示制御部165は、モード管理部163によりカメラモードが設定されている場合、カメラ32により取り込まれ、画像管理部164から供給された画像をディスプレイ11に表示させる。
表示制御部165は、モード管理部163によりセレクトモードが設定されている場合、左側面のスイッチ42Lと右側面のスイッチ42Rを押したまま筐体が傾けられる毎に、図13を参照して説明したようにしてディスプレイ11の表示を切り替える。
表示制御部165は、モード管理部163によりリアクションモードが設定されている場合、筐体が振られることに応じて、ディスプレイ11に表示させている画像の状態を図15および図16を参照して説明したようにして変化させる。
<携帯機器の動作>
ここで、以上のような構成を有する携帯機器1の動作について説明する。同じ処理が、携帯機器101においても行われる。
[全体の動作]
はじめに、図20のフローチャートを参照して、ユーザの操作に応じて動作モードを設定し、各動作モードの処理を行う携帯機器1の処理について説明する。図20の処理は、例えばスタンバイモードが設定されているときに開始される。
ステップS1において、操作検出部161は、携帯機器1の筐体が触られたか否かをタッチセンサ41による検出結果に基づいて判定し、触られたと判定するまで待機する。
筐体が触られたとステップS1において判定された場合、ステップS2において、モード管理部163は、携帯機器1の動作モードを基本ビューモードに遷移させる。携帯機器1の筐体が触られた場合、そのことを表す情報が操作検出部161からモード管理部163に供給される。
ステップS3において、表示制御部165は、最後に同期画像として選択された画像をディスプレイ11に表示させる。例えば、スタンバイモード時に携帯機器101において撮影され、携帯機器101から送信されてきた画像がメモリ153に記憶されている場合、その画像がメモリ153から読み出され、同期画像として表示される。
ステップS4において、操作検出部161は、上側面のスイッチ42Tと下側面のスイッチ42Bが同時に押されたか否かを判定する。
上側面のスイッチ42Tと下側面のスイッチ42Bが同時に押されたとステップS4において判定された場合、ステップS5において、モード管理部163は、携帯機器1の動作モードをカメラモードに遷移させる。
ステップS6において、カメラモード時の処理が各部により行われる。ステップS6において行われるカメラモード時の処理については図21のフローチャートを参照して後述する。
一方、上側面のスイッチ42Tと下側面のスイッチ42Bが同時に押されていないとステップS4において判定した場合、ステップS7において、モード管理部163は、左側面のスイッチ42Lと右側面のスイッチ42Rが同時に押されたか否かを判定する。
左側面のスイッチ42Lと右側面のスイッチ42Rが同時に押されたとステップS7において判定された場合、ステップS8において、モード管理部163は、携帯機器1の動作モードをセレクトモードに遷移させる。
ステップS9において、セレクトモード時の処理が各部により行われる。ステップS9において行われるセレクトモード時の処理については図22のフローチャートを参照して後述する。
一方、左側面のスイッチ42Lと右側面のスイッチ42Rが同時に押されていないとステップS7において判定した場合、ステップS10において、モード管理部163は、携帯機器1の筐体が振られたか否かを加速度センサ152による検出結果に基づいて判定する。
携帯機器1の筐体が振られたとステップS10において判定した場合、ステップS11において、モード管理部163は、携帯機器1の動作モードをリアクションモードに遷移させる。
ステップS12において、リアクションモード時の処理が各部により行われる。ステップS12において行われるリアクションモード時の処理については図23のフローチャートを参照して後述する。
ステップS10において携帯機器1の筐体が振られていないと判定された場合、ステップS3に戻り、以上の処理が繰り返される。ステップS6においてカメラモード時の処理が行われた後、ステップS9においてセレクトモード時の処理が行われた後、ステップS12においてリアクションモード時の処理が行われた後も同様に、ステップS3以降の処理が行われる。
[カメラモード時の処理]
次に、図21のフローチャートを参照して、図20のステップS6において行われるカメラモード時の処理について説明する。
ステップS21において、表示制御部165は、カメラ32により取り込まれ、画像管理部164から供給された画像をディスプレイ11に表示させる。
ステップS22において、画像管理部164は、上側面のスイッチ42Tと下側面のスイッチ42Bが同時に押されたか否かを判定する。上側面のスイッチ42Tと下側面のスイッチ42Bが同時に押されていないとステップS22において判定された場合、ステップS21に戻り、取り込み画像の表示が続けられる。
一方、上側面のスイッチ42Tと下側面のスイッチ42Bが同時に押されたとステップS22において判定した場合、ステップS23において、画像管理部164は、カメラ32に撮影を行わせる。
ステップS24において、画像管理部164は、撮影によって得られた画像を同期画像としてメモリ153に記憶させる。
ステップS25において、画像管理部164は、通信部154を制御し、撮影によって得られた画像を携帯機器101に送信する。その後、図20のステップS6に戻り、それ以降の処理が行われる。
以上の処理により、携帯機器1のユーザは、カメラ32によって撮影した画像を、撮影を行う毎に、アップロードの操作などを行うことなく自動的に携帯機器101に送信することができる。
[セレクトモード時の処理]
次に、図22のフローチャートを参照して、図20のステップS9において行われるセレクトモード時の処理について説明する。
ステップS41において、表示制御部165は、メモリ153から画像を読み出し、図12に示すようにして並べて表示させる。
ステップS42において、表示制御部165は、左側面のスイッチ42Lと右側面のスイッチ42Rを押したまま筐体が傾けられたか否かを判定し、筐体が傾けられたと判定するまで待機する。
左側面のスイッチ42Lと右側面のスイッチ42Rを押したまま筐体が傾けられたとステップS42において判定した場合、ステップS43において、表示制御部165は、図13を参照して説明したようにして画像の表示を切り替える。これにより、複数の画像が連動して位置をずらして表示される。
ステップS44において、画像管理部164は画像が選択されたか否かを判定する。画像が選択されていないとステップS44において判定された場合、ステップS42に戻り、それ以降の処理が繰り返される。
一方、左側面のスイッチ42Lと右側面のスイッチ42Rから指を離すなどして画像が選択されたとステップS44において判定した場合、ステップS45において、画像管理部164は、選択された画像のファイル名を携帯機器101に送信する。その後、図20のステップS9に戻り、それ以降の処理が行われる。
以上の処理により、携帯機器1のユーザは、相手とやりとりしていた画像の中から所定の画像を見つけて選択するだけで、その画像のファイル名を自動的に携帯機器101に送信することができる。
[リアクションモード時の処理]
次に、図23のフローチャートを参照して、図20のステップS12において行われるリアクションモード時の処理について説明する。
ステップS31において、表示制御部165は、リアクションを付けるために筐体が振られることに応じて、ディスプレイ11の画像の状態を変化させる。リアクションの入力は、数秒などの所定の時間だけ行うことが可能とされる。
ステップS32において、画像管理部164は、リアクション情報とリアクションが付けられた画像のファイル名を携帯機器101に送信する。その後、図20のステップS12に戻り、それ以降の処理が行われる。
以上の処理により、携帯機器1のユーザは、相手から送信されてきた画像に対してリアクションを付け、リアクションの情報を自動的に携帯機器101に送信することができる。
[受信時の処理]
次に、図24のフローチャートを参照して、携帯機器101から送信されてきた情報を受信する携帯機器1の処理について説明する。
ステップS51において、画像管理部164は、カメラモード時に撮影された画像が携帯機器101から送信されてきたか否かを判定する。
携帯機器101から画像が送信されてきたとステップS51において判定した場合、ステップS52において、画像管理部164は、携帯機器101から送信されてきた画像を受信する。受信された画像はメモリ153に供給され、記憶される。
その後、図20の処理が行われ、ステップS2において基本ビューモードが設定された場合、表示制御部165は、携帯機器101から送信されてきた画像を同期画像としてディスプレイ11に表示させる。この同期画像の表示がステップS3において行われる。
一方、携帯機器101から画像が送信されてきていないとステップS51において判定した場合、ステップS53において、画像管理部164は、セレクトモード時に選択された画像のファイル名が携帯機器101から送信されてきたか否かを判定する。
画像のファイル名が送信されてきたとステップS53において判定した場合、ステップS54において、画像管理部164は、携帯機器101から送信されてきた画像のファイル名を受信する。受信されたファイル名はメモリ153に供給され、記憶される。
その後、図20の処理が行われ、ステップS2において基本ビューモードが設定された場合、表示制御部165は、携帯機器101から送信されてきたファイル名により識別される画像をメモリ153から読み出し、同期画像としてディスプレイ11に表示させる。この同期画像の表示がステップS3において行われる。
一方、画像のファイル名が送信されてきていないとステップS53において判定した場合、ステップS55において、画像管理部164は、リアクションモード時に画像に付けられたリアクションを表すリアクション情報とリアクションが付けられた画像のファイル名が携帯機器101から送信されてきたか否かを判定する。
リアクション情報と画像のファイル名が送信されてきたとステップS55において判定した場合、ステップS56において、画像管理部164は、リアクション情報と画像のファイル名を受信する。受信されたリアクション情報とファイル名はメモリ153に供給され、紐付けて記憶される。
その後、図20の処理が行われ、ステップS2において基本ビューモードが設定された場合、表示制御部165は、携帯機器101から送信されてきたファイル名により識別される画像を、同期画像として、リアクション情報により表されるリアクションを付けた形でディスプレイ11に表示させる。この同期画像の表示がステップS3において行われる。
ステップS52,S54,S56において携帯機器101から送信されてきた情報が受信された後、または、ステップS55においてリアクション情報と画像のファイル名が送信されてきていないと判定された場合、ステップS51に戻り、以上の処理が繰り返される。
以上の一連の処理により、携帯機器1のユーザと携帯機器101のユーザは、画像を通してコミュニケーションを図ることができる。
<変形例>
携帯機器1と携帯機器101の間のやりとりが、携帯機器1と携帯機器101を対応付けて管理する管理サーバ103を介して行われるものとしたが、双方の機器の間で直接行われるようにしてもよい。この場合、携帯機器1には、自身に対応付けられている機器が携帯機器101であることを表す情報が登録され、携帯機器101には、自身に対応付けられている機器が携帯機器1であることを表す情報が登録される。機器の対応付けが、一方の携帯機器に他方の携帯機器の識別情報を入力するなどしてユーザにより行われるようにしてもよい。
また、以上においては、2つの携帯機器の間で画像を同期させる場合について説明したが、3つ以上の携帯機器の間で画像を同期させるようにしてもよい。
さらに、上述したような画像の同期が、図1等を参照して説明したような外観を有する携帯機器により行われるものとしたが、スマートフォンなどの携帯端末により行われるようにしてもよい。この場合、画像の同期を実現するためのアプリケーションが携帯端末にインストールされ、携帯端末の対応付けが行われた後、上述したような画像の同期が行われる。
以上においては、上側面のスイッチ42Tと下側面のスイッチ42Bが押されたときにカメラモードが設定されるものとしたが、左側面のスイッチ42Lと右側面のスイッチ42Rが押されたときにカメラモードが設定されるようにしてもよい。また、左側面のスイッチ42Lと右側面のスイッチ42Rが押されたときにセレクトモードが設定されるものとしたが、上側面のスイッチ42Tと下側面のスイッチ42Bが押されたときにセレクトモードが設定されるようにしてもよい。
[コンピュータの構成例]
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図25は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203は、バス204により相互に接続されている。
バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、キーボード、マウスなどよりなる入力部206、ディスプレイ、スピーカなどよりなる出力部207が接続される。また、入出力インタフェース205には、ハードディスクや不揮発性のメモリなどよりなる記憶部208、ネットワークインタフェースなどよりなる通信部209、リムーバブルメディア211を駆動するドライブ210が接続される。
以上のように構成されるコンピュータでは、CPU201が、例えば、記憶部208に記憶されているプログラムを入出力インタフェース205及びバス204を介してRAM203にロードして実行することにより、上述した一連の処理が行われる。
CPU201が実行するプログラムは、例えばリムーバブルメディア211に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供され、記憶部208にインストールされる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
1,101 携帯機器, 11 ディスプレイ, 12 フレーム, 32 カメラ, 41T,41B,41L,41R タッチセンサ, 42T,42B,42L,42R スイッチ, 151 制御部, 152 加速度センサ, 153 メモリ, 154 通信部, 161 操作検出部, 162 変位検出部, 163 モード管理部, 164 画像管理部, 165 表示制御部

Claims (15)

  1. 筐体の背面に設けられた撮影部と、
    前記撮影部による撮影によって得られた画像である自機撮影画像を他の携帯機器送信するとともに、前記他の携帯機器において撮影が行われ前記他の携帯機器から送信されてきた画像である他機撮影画像を受信する通信部と、
    前記筐体の正面に設けられ、前記他機撮影画像を表示する表示部と
    前記筐体のいずれの側面にユーザが触れているのかを検出する検出部と、
    前記筐体の側面に前記ユーザが触れたことが検出されたことに応じて、前記通信部により最後に受信された前記他機撮影画像を前記表示部に表示させる表示制御部と
    を備える携帯機器。
  2. 前記自機撮影画像と前記他機撮影画像を記憶する記憶部をさらに備え
    前記表示制御部は、前記記憶部に記憶された前記自機撮影画像と前記他機撮影画像の中から所定の画像を選択し、前記表示部に表示させる
    請求項1に記載の携帯機器。
  3. 前記検出部は、前記筐体の上下の側面と左右の側面のうちのいずれの対向する側面にユーザが触れているのかと、対向する側面に対する前記ユーザの押下操作を検出する
    請求項1または2に記載の携帯機器。
  4. 前記撮影部は、上下の側面と左右の側面のうちの一方の側面に前記ユーザが触れたことが検出された場合、前記一方の側面に対する押下操作が行われたことに応じて撮影を行う
    請求項3に記載の携帯機器。
  5. 前記筐体に加えられた位置の変化を検出する変位検出部をさらに備える
    請求項4に記載の携帯機器。
  6. 前記表示制御部は、他方の側面に前記ユーザが触れたことが検出された場合、前記他方の側面に対する押下操作が行われているときに前記位置の変化が検出されたことに応じて、前記表示部に表示させる画像を切り替える
    請求項5に記載の携帯機器。
  7. 前記通信部は、切り替えて表示された画像の識別情報を前記他の携帯機器に送信し、
    前記他の携帯機器においては、前記識別情報により識別される画像が表示される
    請求項6に記載の携帯機器。
  8. 前記表示部は、自発光型であり、かつ透過型のディスプレイにより構成され、
    前記表示制御部は、前記表示部の表示領域全体のうち、背面側に遮光部材が設けられる領域に1枚の画像を表示させ、背面側に前記遮光部材が設けられていない領域に他の画像の一部を表示させる
    請求項6または7に記載の携帯機器。
  9. 前記表示制御部は、前記一方の側面または他方の側面に前記ユーザが触れたことが検出された場合、前記位置の変化が検出されたことに応じて、前記表示部に表示させている画像の状態を変化させる
    請求項5に記載の携帯機器。
  10. 前記通信部は、前記表示部に表示されている画像の識別情報と、検出された前記位置の変化に関する情報を前記他の携帯機器に送信し、
    前記他の携帯機器においては、前記識別情報により識別される画像が表示され、前記位置の変化に関する情報に応じて状態を変化させる処理が行われる
    請求項9に記載の携帯機器。
  11. 前記表示部は、自発光型であり、かつ透過型のディスプレイにより構成され、
    前記表示制御部は、前記表示部の表示領域全体のうちの背面側に遮光部材が設けられている領域に表示させている1枚の画像の表示位置を、前記表示領域の範囲内で移動させる
    請求項9または10に記載の携帯機器。
  12. 前記表示部は、自発光型であり、かつ透過型のディスプレイにより構成され、
    前記表示制御部は、前記表示部の表示領域全体のうちの背面側に遮光部材が設けられている領域に1枚の画像を表示させ、背面側に前記遮光部材が設けられていない領域にアイコンを表示させる
    請求項1乃至7のいずれかに記載の携帯機器。
  13. 前記通信部は、前記携帯機器と前記他の携帯機器の双方とネットワークを介して接続され、前記携帯機器と前記他の携帯機器とを対応付けて管理する管理装置を介して、撮影によって得られた前記自機撮影画像を前記他の携帯機器に送信し、前記他の機器から送信されてきた前記他機撮影画像を受信する
    請求項1乃至12のいずれかに記載の携帯機器。
  14. 筐体の背面に設けられた撮影部により撮影し、
    前記撮影部による撮影によって得られた画像である自機撮影画像を他の携帯機器に通信部から送信し、
    前記他の携帯機器において撮影が行われ前記他の携帯機器から送信されてきた画像である他機撮影画像前記通信部により受信し、
    前記筐体の正面に設けられた表示部に前記他機撮影画像を表示し、
    前記筐体のいずれの側面にユーザが触れているのかを検出部により検出し、
    前記筐体の側面に前記ユーザが触れたことが検出されたことに応じて、前記通信部により最後に受信された前記他機撮影画像を前記表示部に表示させる
    ステップを含む携帯機器の情報処理方法。
  15. 筐体の背面に設けられた撮影部により撮影し、
    前記撮影部による撮影によって得られた画像である自機撮影画像を他の携帯機器に通信部から送信し、
    前記他の携帯機器において撮影が行われ前記他の携帯機器から送信されてきた画像である他機撮影画像前記通信部により受信し、
    前記筐体の正面に設けられた表示部に前記他機撮影画像を表示し、
    前記筐体のいずれの側面にユーザが触れているのかを検出部により検出し、
    前記筐体の側面に前記ユーザが触れたことが検出されたことに応じて、前記通信部により最後に受信された前記他機撮影画像を前記表示部に表示させる
    ステップを含む処理を携帯機器のコンピュータに実行させるプログラム。
JP2011276679A 2011-12-19 2011-12-19 携帯機器、情報処理方法、およびプログラム Active JP5845875B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2011276679A JP5845875B2 (ja) 2011-12-19 2011-12-19 携帯機器、情報処理方法、およびプログラム
TW101145616A TW201342902A (zh) 2011-12-19 2012-12-05 攜帶型機器、資訊處理方法、及程式
EP12860989.8A EP2797306B1 (en) 2011-12-19 2012-12-07 Portable device, information processing method, and program
US14/356,277 US9350912B2 (en) 2011-12-19 2012-12-07 Portable device, information processing method, and program
CN201280061153.6A CN104160691B (zh) 2011-12-19 2012-12-07 便携式设备,信息处理方法和程序
PCT/JP2012/081754 WO2013094429A1 (ja) 2011-12-19 2012-12-07 携帯機器、情報処理方法、およびプログラム
US15/134,754 US9998649B2 (en) 2011-12-19 2016-04-21 Portable device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011276679A JP5845875B2 (ja) 2011-12-19 2011-12-19 携帯機器、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2013128195A JP2013128195A (ja) 2013-06-27
JP5845875B2 true JP5845875B2 (ja) 2016-01-20

Family

ID=48668325

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011276679A Active JP5845875B2 (ja) 2011-12-19 2011-12-19 携帯機器、情報処理方法、およびプログラム

Country Status (6)

Country Link
US (2) US9350912B2 (ja)
EP (1) EP2797306B1 (ja)
JP (1) JP5845875B2 (ja)
CN (1) CN104160691B (ja)
TW (1) TW201342902A (ja)
WO (1) WO2013094429A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5845875B2 (ja) * 2011-12-19 2016-01-20 ソニー株式会社 携帯機器、情報処理方法、およびプログラム
US10291847B2 (en) 2015-02-26 2019-05-14 Htc Corporation Portable device and manipulation method
JP2018067885A (ja) 2016-10-21 2018-04-26 ソニー株式会社 撮像装置、および撮像方法、並びにプログラム
US11793488B2 (en) * 2018-02-16 2023-10-24 Koninklijke Philips N.V. Ergonomic display and activation in handheld medical ultrasound imaging device

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4099973B2 (ja) * 2001-10-30 2008-06-11 松下電器産業株式会社 映像データ送信方法及び映像データ受信方法、並びに映像監視システム
JP2003179857A (ja) * 2001-12-12 2003-06-27 Nikon Gijutsu Kobo:Kk デジタルカメラ
US20030107654A1 (en) 2001-12-12 2003-06-12 Nikon Corporation Digital camera
JP2009504098A (ja) 2005-08-01 2009-01-29 ザ ビデオ ワークス, インコーポレイテッド 2−パートのカメラシステム
US20090009667A1 (en) * 2007-03-01 2009-01-08 Dayan Maurice S Key chain display device
JP4561803B2 (ja) 2007-10-03 2010-10-13 ソニー株式会社 撮像装置、画像データの交換方法およびプログラム
JP2009111581A (ja) * 2007-10-29 2009-05-21 Fujifilm Corp 表示装置、表示方法及び撮影装置
AU2009204054A1 (en) * 2008-01-10 2009-07-16 Aria Enterprises, Inc. Customizable modular multi-function communication device
JP5020135B2 (ja) * 2008-03-19 2012-09-05 ソニーモバイルコミュニケーションズ, エービー 携帯端末装置およびコンピュータプログラム
WO2010007813A1 (ja) * 2008-07-16 2010-01-21 株式会社ソニー・コンピュータエンタテインメント 携帯型画像表示装置、その制御方法及び情報記憶媒体
US8400548B2 (en) * 2010-01-05 2013-03-19 Apple Inc. Synchronized, interactive augmented reality displays for multifunction devices
JP5845875B2 (ja) * 2011-12-19 2016-01-20 ソニー株式会社 携帯機器、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
WO2013094429A1 (ja) 2013-06-27
US20140307115A1 (en) 2014-10-16
US9998649B2 (en) 2018-06-12
CN104160691A (zh) 2014-11-19
CN104160691B (zh) 2017-09-26
JP2013128195A (ja) 2013-06-27
EP2797306A4 (en) 2015-08-05
US20160234421A1 (en) 2016-08-11
EP2797306B1 (en) 2020-08-19
EP2797306A1 (en) 2014-10-29
US9350912B2 (en) 2016-05-24
TW201342902A (zh) 2013-10-16

Similar Documents

Publication Publication Date Title
JP7005646B2 (ja) 撮影方法及び端末
EP3640732B1 (en) Method and terminal for acquire panoramic image
WO2019020052A1 (zh) 拍摄方法及移动终端
WO2021104236A1 (zh) 一种共享拍摄参数的方法及电子设备
WO2014133278A1 (en) Apparatus and method for positioning image area using image sensor location
US20170034325A1 (en) Image-based communication method and device
KR20170112491A (ko) 이동 단말기 및 그 제어방법
US20140362257A1 (en) Apparatus for controlling camera modes and associated methods
US9582172B2 (en) Display control apparatus and method, image display apparatus, and non-transitory computer readable medium
WO2016019926A1 (zh) 照片拍摄方法、装置及移动终端
WO2015078336A1 (zh) 一种媒体拍摄方法及终端
JP5845875B2 (ja) 携帯機器、情報処理方法、およびプログラム
RU2606305C2 (ru) Способ и устройство для совместного использования ресурсов
JP2017045091A (ja) 電子機器、制御プログラム及び電子機器の動作方法
US9858351B2 (en) File transmission method, file transmission apparatus and file transmission system
JP5565433B2 (ja) 撮像装置及び撮像処理方法並びにプログラム
JP7413546B2 (ja) 撮影方法及び電子機器
CN110086998A (zh) 一种拍摄方法及终端
JP2010097393A (ja) 画像表示装置及びプログラム
US11016660B2 (en) Method and apparatus for responding to gesture operation and storage medium
CN116112787B (zh) 拍照时显示缩略图的方法和电子设备
KR102086348B1 (ko) 이동 단말기 및 그 제어방법
CN114449134A (zh) 一种拍摄方法和终端设备
CN109298824A (zh) 一种应用程序的启动方法及终端设备
JP5382788B2 (ja) 対象物情報表示装置、対象物情報表示方法、対象物情報表示プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151109

R151 Written notification of patent or utility model registration

Ref document number: 5845875

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250