JP2016091383A - 携帯端末装置、画面制御方法及び画面制御プログラム - Google Patents

携帯端末装置、画面制御方法及び画面制御プログラム Download PDF

Info

Publication number
JP2016091383A
JP2016091383A JP2014226444A JP2014226444A JP2016091383A JP 2016091383 A JP2016091383 A JP 2016091383A JP 2014226444 A JP2014226444 A JP 2014226444A JP 2014226444 A JP2014226444 A JP 2014226444A JP 2016091383 A JP2016091383 A JP 2016091383A
Authority
JP
Japan
Prior art keywords
screen
terminal device
mobile terminal
unit
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014226444A
Other languages
English (en)
Inventor
秋山 勝彦
Katsuhiko Akiyama
勝彦 秋山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014226444A priority Critical patent/JP2016091383A/ja
Priority to US14/855,663 priority patent/US20160132993A1/en
Publication of JP2016091383A publication Critical patent/JP2016091383A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/242Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】利用者の意図する画面方向に表示画面を設定できる携帯端末装置等を提供する。【解決手段】携帯端末装置は、表示部と、撮像部と、認識部と、決定部と、制御部とを有する。表示部は、画面を表示する。撮像部は、被写体の画像を撮像する。認識部は、撮像した撮像画像から利用者の顔方向を認識する。決定部は、顔方向の認識が失敗した場合に、所定操作に基づく指示方向を決定する。制御部は、決定した指示方向に画面の画面方向を設定する。【選択図】図1

Description

本発明は、携帯端末装置、画面制御方法及び画面制御プログラムに関する。
例えば、携帯電話機、PDA(Personal Digital Assistants)、スマートフォン等の携帯端末装置は、持ち易さや使い易さの観点から、例えば、縦長の長方形の平板形状が多い。従って、携帯端末装置の表示画面も縦長画面の仕様とし、内蔵するソフトウェアも縦長画面の仕様で設計されている。しかしながら、近年、携帯端末装置でも、例えば、動画やパソコン向けの横長のウェブサイトを視聴できるように横長画面の仕様が高まっている。
そこで、例えば、スマートフォン用のOS(Operation System)では、縦長画面(ポートレート)モードと、横長画面(ランドスケープ)モードとを所定操作に応じて切替可能にした技術が知られている。更に、表示画面上にQUERTYキーボードをスライドして引き出し可能に表示し、縦画面から横画面に切り替え可能にする技術も知られている。
また、携帯端末装置では、加速度センサを内蔵し、傾き方向に応じて縦画面及び横画面に切替える仕組みを備え、利用者が装置本体を縦に把持した場合、表示画面を縦画面に表示し、装置本体を横に把持した場合、表示画面を横画面に表示する技術も知られている。
しかし、携帯端末装置では、加速度センサの検出結果に応じて表示画面の画面方向を変更したが、例えば、装置本体を把持する利用者の姿勢が仰向けや横向きの場合、利用者の意図せぬ画面方向に表示画面を設定してしまう虞がある。そこで、携帯端末装置では、表示画面と同じ面に備えたカメラで利用者の正面顔を撮像し、その撮像画像から利用者の顔方向を認識し、認識した顔方向に表示画面の画面方向を設定する方式が知られている。利用者は、意図せぬ画面方向への設定を抑制できる。
特開2007−17596号公報 特開2008−177819号公報 特開2009−130816号公報 特開2013−150129号公報 特開2011−138449号公報 特開2009−163659号公報
しかしながら、携帯端末装置では、撮像画像から利用者の顔方向を認識する際に、撮像画像内に利用者の顔の特徴部分がない場合、利用者の顔方向を認識できない。例えば、利用者の顔がカメラのフレーム内に納まっていない場合、カメラのレンズ付近が指で隠れている場合、逆光や暗所等の悪条件で撮像した場合、撮像画像から利用者の顔方向を認識できない。その結果、利用者は、意図せぬ画面方向に表示画面が設定されてしまう。
一つの側面では、利用者の意図する画面方向に表示画面を設定できる携帯端末装置、画面制御方法及び画面制御プログラムを提供することを目的とする。
一つの案では、表示部と、撮像部と、認識部と、決定部と、制御部とを有する。前記表示部は、画面を表示する。前記撮像部は、被写体の画像を撮像する。前記認識部は、前記撮像部で撮像した撮像画像から利用者の顔方向を認識する。前記決定部は、前記認識部にて前記顔方向の認識が失敗した場合に、所定操作に基づく指示方向を決定する。前記制御部は、前記決定部にて決定した前記指示方向に前記画面の画面方向を設定する。
一つの側面では、利用者の意図する画面方向に表示画面を設定できる。
図1は、実施例1の携帯端末装置の一例を示すブロック図である。 図2は、携帯端末装置の正面図である。 図3は、利用者の顔方向を認識する際の携帯端末装置の動作の一例を示す説明図である。 図4は、顔方向認識が失敗した場合の携帯端末装置の動作の一例を示す説明図である。 図5は、画面制御処理に関わるプロセッサの処理動作の一例を示すフローチャートである。 図6は、実施例2の携帯端末装置の一例を示すブロック図である。 図7は、傾き方向から指示方向を特定する特定操作の一例を示す説明図である。 図8は、実施例3の携帯端末装置の一例を示すブロック図である。 図9は、振り方向から指示方向を特定する特定操作の一例を示す説明図である。 図10は、推定した把持位置の一例を示す説明図である。 図11は、画面制御プログラムを実行する携帯端末装置の一例を示す説明図である。
以下、図面に基づいて、本願の開示する携帯端末装置、画面制御方法及び画面制御プログラムの実施例を詳細に説明する。尚、本実施例により、開示技術が限定されるものではない。また、以下に示す各実施例は、矛盾を起こさない範囲で適宜組み合わせても良い。
図1は、実施例1の携帯端末装置1の一例を示すブロック図である。図1に示す携帯端末装置1は、表示部11と、タッチパネル12と、撮像センサ13と、把持センサ14と、ROM(Read Only Memory)15と、RAM(Random Access Memory)16と、プロセッサ17とを有する。携帯端末装置1は、例えば、携帯電話機、スマートフォン、メディアプレイヤー、タブレット型パソコン、携帯型ゲーム機等の携帯型の端末装置である。表示部11は、例えば、液晶や有機EL(Electro Luminescence)等の薄型・低消費電力の表示装置である。タッチパネル12は、表示部11上に配置し、例えば、抵抗膜方式や静電容量方式等で利用者のタッチ操作を検出する。
撮像センサ13は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を用いたセンサである。撮像センサ13は、表示部11の表示画面側に配置し、被写体の画像を撮像する。把持センサ14は、例えば、静電容量センサや光学式センサに相当し、利用者が把持する携帯端末装置1本体(以下、単に装置本体と称する)の辺を検出するセンサである。ROM15及びRAM16は、各種情報を記憶する領域である。プロセッサ17は、携帯端末装置1全体を制御する。
図2は、携帯端末装置1の正面図である。図2に示す携帯端末装置1の正面を基準とし、相対位置として、上辺10A、下辺10B、右辺10C及び左辺10Dとする。更に、携帯端末装置1の表示部11の表示画面も正面を基準とし、相対位置として、表示画面の上辺11A、下辺11B、右辺11C及び左辺11Dとする。
プロセッサ17は、ROM15に格納された画面制御プログラムを読み出し、読み出された画面制御プログラムに基づき各種プロセスを機能として構成する。プロセッサ17は、認識部21と、判定部22と、第1の決定部23と、第2の決定部24と、制御部25とを有する。
図3は、利用者の顔方向を認識する際の携帯端末装置1の動作の一例を示す説明図である。認識部21は、撮像センサ13で取得した被写体の画像から人肌色の領域を抽出し、例えば、目、鼻や口等の特徴パターンを標準パターンで照合し、その照合結果に基づき、人肌色の領域を抽出する。更に、認識部21は、抽出した人肌色の領域から正面顔の領域を抽出し、抽出した正面顔の領域から利用者の頭から顎への顎方向を認識する。そして、認識部21は、抽出した利用者の顎方向から利用者の顔方向を認識する。尚、認識部21は、例えば、目、鼻や口等の特徴パターンを照合する際の顔画像の照合距離値及び位置関係の照合距離値を測定し、その測定結果に基づき、顔方向認識の確度を取得する。
判定部22は、認識部21で取得した確度に基づき、利用者の顔方向の認識が失敗したか否かを判定する。判定部22は、例えば、確度が第1の閾値未満の場合、利用者の顔画像の照合が不充分のため、図3の(B)に示すように顔方向の認識が失敗と判定する。また、判定部22は、確度が第1の閾値以上の場合、図3の(A)に示すように、利用者の顔画像の照合が充分のため、顔方向の認識が失敗でないと判定する。
第1の決定部23は、利用者の顔方向の認識が失敗しなかった、すなわち認識が成功した場合、利用者の顔方向を決定する。第1の決定部23は、頭から顎への顎方向で利用者の顔方向を決定する。第1の決定部23は、例えば、顎方向が左方向の場合、顔方向が左方向とし、顎方向が右方向の場合、顔方向が右方向と決定する。更に、第1の決定部23は、例えば、顎方向が下方向の場合、顔方向が下方向とし、例えば、顎方向が上方向の場合、顔方向が上方向と決定する。
制御部25は、第1の決定部23で決定した顔方向に基づき、表示部11の表示画面の画面方向を設定する。尚、制御部25は、画面方向を設定する場合、画面の座標を制御する。制御部25は、例えば、顔方向が左方向の場合、表示画面の左辺11Dを天、右辺11Cを地とする画面方向に設定する。また、制御部25は、例えば、顔方向が右方向の場合、表示画面の右辺11Cを天、左辺11Dを地とする画面方向に設定する。また、制御部25は、例えば、顔方向が上方向の場合、表示画面の上辺11Aを天、下辺11Bを地とする画面方向に設定する。更に、制御部25は、例えば、顔方向が下方向の場合、表示画面の下辺11Bを天、上辺11Aを地とする画面方向に設定する。
図4は、顔方向認識失敗時の特定操作画面の一例を示す説明図である。第2の決定部24は、図4の(A)に示すように、判定部22にて利用者の顔方向の認識が失敗した場合、指示モードに移行する。尚、指示モードは、顔方向の認識が失敗した場合に特定操作画面で指示方向の特定操作を受付けるモードである。第2の決定部24は、指示モードに移行すると、図4の(B)に示すように特定操作画面30Aを表示画面に画面表示する。更に、制御部25は、認識失敗を利用者に対して、例えば、警告音、ポップアップ表示やバイブレータ等で報知出力する。特定操作画面30Aは、利用者の意図する表示画面の指示方向を特定する矢印への特定操作(例えば、ドラッグ操作)を受付ける画面である。第2の決定部24は、図4の(C)に示すように特定操作画面30A上で指示方向を特定する特定操作を検出すると、特定操作で特定した指示方向を決定する。
制御部25は、特定操作画面30Aの表示後、所定時間タイマの計時動作を開始する。第2の決定部24は、所定時間タイマの計時動作を開始し、所定時間経過後に特定操作画面30Aを表示画面から消去し、その指示モードを解除する。また、第2の決定部24は、特定操作画面30Aの表示後、特定操作画面30以外の操作を検出した場合、その特定操作画面30Aを表示画面から消去し、指示モードを解除する。その結果、利用者は、表示画面の画面方向の切替が不要の場合に、その特定操作画面30Aの消去及び指示モードの解除に要する操作負担を軽減できる。
第2の決定部24は、図4の(C)に示すように特定操作画面30A上で指示方向の特定操作を検出すると、特定操作画面30Aの矢印方向への特定操作で指示方向を特定する。制御部25は、図4の(D)に示すように第2の決定部24で決定した指示方向に表示部11の画面方向を設定する。つまり、制御部25は、決定した指示方向が右方向の場合、表示画面の左辺11Cを天、右辺11Dを地とする画面方向に設定する。また、制御部25は、決定した指示方向が左方向の場合、表示画面の右辺11Dを天、左辺11Cを地とする画面方向に設定する。制御部25は、決定した指示方向が上方向の場合、表示画面の下辺11Bを天、上辺11Aを地とする画面方向に設定する。制御部25は、決定した指示方向が下方向の場合、表示画面の上辺11Aを天、下辺11Bを地とする画面方向に設定する。
把持センサ14は、利用者が把持している装置本体の辺10A,10B,10C及び10Dを認識する。第2の決定部24は、把持センサ14で認識した辺付近にある表示部11の表示領域に特定操作画面30Aを表示する。第2の決定部24は、例えば、装置本体の上辺10Aを把持していると認識された場合、その上辺10A付近の表示領域に特定操作画面30A、装置本体の下辺10Bを把持していると認識された場合、その下辺10B付近の表示領域に特定操作画面30Aを表示する。第2の決定部24は、装置本体の右辺10Cを把持していると認識された場合、その右辺10C付近の表示領域に特定操作画面30A、装置本体の左辺10Dを把持していると認識された場合、その左辺10D付近の表示領域に特定操作画面30Aを表示する。その結果、利用者は、装置本体を把持する把持手近傍に特定操作画面30Aを表示するため、特定操作画面30Aの操作性を確保できる。
次に実施例1の携帯端末装置1の動作について説明する。図5は、画面制御処理に関わる携帯端末装置1のプロセッサ17の処理動作の一例を示すフロー図である。図5に示す画面制御処理は、顔方向の認識が失敗した場合でも特定操作画面を表示し、特定操作画面上の指示方向の特定操作に応じて特定した指示方向に表示画面の画面方向を設定する処理である。
図5においてプロセッサ17内の制御部25は、現在モードが指示モード中であるか否かを判定する(ステップS11)。プロセッサ17内の認識部21は、現在モードが指示モード中でない場合(ステップS11否定)、撮像センサ13を通じて現在の撮像画像を取得する(ステップS12)。認識部21は、取得した撮像画像から利用者の顔方向を認識する(ステップS13)。
プロセッサ17内の判定部22は、認識部21にて顔方向の認識が失敗したか否かを判定する(ステップS14)。プロセッサ17内の第1の決定部23は、顔方向の認識が失敗しなかった場合(ステップS14否定)、すなわち顔方向の認識が成功した場合、利用者の顔方向を決定する(ステップS15)。制御部25は、第1の決定部23で決定した利用者の顔方向に基づき、表示画面の画面方向を設定する(ステップS16)。
第2の決定部24は、顔方向の認識が失敗した場合(ステップS14肯定)、指示モードに移行し(ステップS17)、把持センサ14のセンサ結果である辺付近の表示領域に特定操作画面30Aを表示する(ステップS18)。制御部25は、特定操作画面30Aを表示後、所定時間タイマの計時動作を開始し(ステップS19)、指示モード中であるか否かを判定すべく、ステップS11に移行する。
制御部25は、指示モード中の場合(ステップS11肯定)、所定時間タイマが所定時間を経過したか否かを判定する(ステップS20)。制御部25は、所定時間を経過していない場合(ステップS20否定)、タッチパネル12上の入力があるか否かを判定する(ステップS21)。制御部25は、タッチパネル12上の入力がある場合(ステップS21肯定)、特定操作画面30A上の特定操作を検出したか否かを判定する(ステップS22)。第2の決定部24は、特定操作画面30A上の特定操作を検出した場合(ステップS22肯定)、特定操作の指示方向を決定する(ステップS23)。制御部25は、第2の決定部24で決定した指示方向に基づき、表示画面の画面方向を設定する(ステップS24)。第2の決定部24は、表示画面の画面方向を設定後、特定操作画面30Aを消去し(ステップS25)、指示モードを解除し(ステップS26)、図5に示す処理動作を終了する。第2の決定部24は、所定時間を経過した場合(ステップS20肯定)、特定操作画面30Aを消去すべく、ステップS25に移行する。制御部25は、タッチパネル12上の入力がない場合(ステップS21否定)、所定時間を経過したか否かを判定すべく、ステップS20に移行する。
図5に示す画面制御処理を実行するプロセッサ17は、顔方向の認識が失敗した場合、特定操作画面30Aを画面表示し、特定操作画面30A上で指示方向を特定し、特定した指示方向に表示画面の画面方向を設定する。その結果、利用者は、自分が意図した指示方向に表示画面の画面方向を設定できる。
プロセッサ17は、特定操作画面30Aの表示後、所定時間タイマの計時動作を開始し、所定時間を経過した場合に特定操作画面30Aの消去及び指示モードの解除を実行する。その結果、利用者は、特定操作画面30Aの消去及び指示モードの解除に要する操作負担を軽減できる。
プロセッサ17は、特定操作画面30Aの表示後、特定操作画面30以外のタッチパネル12への操作を検出した場合、所定時間経過前でも特定操作画面30Aの消去及び指示モードの解除を実行する。その結果、利用者は、特定操作画面30Aの消去及び指示モードの解除に要する操作負担を軽減できる。
実施例1の携帯端末装置1は、顔方向の認識が失敗した場合に、所定操作に基づく指示方向を特定し、特定した指示方向に表示画面の画面方向を設定する。その結果、利用者は、意図せぬ画面方向への表示画面への設定を防止し、意図する画面方向に表示画面を設定できる。
携帯端末装置1は、顔方向の認識が失敗した場合に特定操作画面30Aを表示し、特定操作画面30A上で利用者の操作で指示方向を特定する。その結果、利用者は、意図せぬ画面方向への表示画面への設定を防止できる。
携帯端末装置1は、顔方向の認識が失敗した場合に、把持センサ14で検出した把持辺付近の表示領域に特定操作画面30Aを画面表示する。その結果、利用者は、その特定操作画面30Aの操作性を確保できる。
携帯端末装置1は、特定操作画面30Aの表示後、所定時間経過後に特定操作画面30Aを表示画面から消去する。その結果、所定時間経過後に特定操作画面30Aを自動的に消去できるため、利用者は、その消去に要する操作負担を軽減できる。
携帯端末装置1は、特定操作画面30Aの表示中に特定操作画面30A以外の表示領域のタッチ操作を検出した場合、特定操作画面30Aを消去する。その結果、利用者は、画面方向を変える必要のない場合に特定操作画面30Aを消去する際の操作負担を軽減できる。
尚、上記実施例1では、ドラッグ操作で特定操作画面30A上の矢印で指示方向を特定するようにしたが、物理ボタンのボタン操作で指示方向を特定するようにしても良い。
上記実施例1では、把持センサ14で検出した把持位置付近の表示領域に特定操作画面30Aを表示した。しかしながら、把持センサ14を用いることなく、携帯端末装置1の表示画面の長辺、例えば、右辺11C又は左辺11Dの端付近に特定操作画面30Aを表示するようにしても良い。
上記実施例1の表示部11は、表示画面上に特定操作画面30Aを表示するようにしたが、特定操作画面30Aを半透明状態で表示するようにしても良い。その結果、利用者は、特定操作画面30Aの表示で表示内容が隠れることもなく、その表示内容を視認できる。
また、特定操作画面30A上の指示方向を装置本体の傾斜方向で特定するようにしても良い。この場合の実施の形態につき、実施例2として以下に説明する。
図6は、実施例2の携帯端末装置1Aの一例を示す説明図である。尚、実施例1の携帯端末装置1と同一の構成には同一符号を付すことで、その重複する構成及び動作の説明については省略する。
図6に示す携帯端末装置1Aと図1に示す携帯端末装置1とが異なるところは、顔方向の認識が失敗した第1のタイミングでの傾き量を基準にし、その後、検出した装置本体の傾き量との傾き変化量から装置本体の傾き方向を指示方向として特定する点である。尚、第1のタイミングとは、例えば、判定部22にて顔方向の認識が失敗したと判定し、指示モードに移行し、かつ、傾きセンサ18で重力方向の装置本体の傾き量が所定レベル、すなわち静止状態となったタイミングである。
傾きセンサ18は、例えば、加速度センサや方位センサ等に相当し、装置本体の傾き量を検出する。第2の決定部24Aは、指示モード移行後、重力方向の装置本体の傾き量が所定レベル以下の場合に、表示部11の表示画面上に顔方向認識失敗のマークを表示する。
図7は、傾き方向から指示方向を特定する特定操作の一例を示す説明図である。図7の(A)に示す携帯端末装置1Aは、平面の左右方向をx軸、平面の上下方向をy軸、平面の表裏方向をz軸とし、重力方向をベクトル(x、y、z)で表現する。制御部25Aは、傾きセンサ18を通じて第1のタイミングで重力方向のベクトルを取得し、このベクトルを基準ベクトルとしてRAM16に記憶する。
第2の決定部24Aは、基準ベクトルを記憶後、傾きセンサ18を通じて装置本体の傾き量を検出すると、傾きセンサ18で取得した装置本体の現在の傾き量、すなわち重力方向の現在ベクトルを取得する。更に、第2の決定部24Aは、現在ベクトルと基準ベクトルとの内積を算出し、算出した内積に基づき傾き変化量を算出する。そして、第2の決定部24Aは、算出した傾き変化量が所定変化量を超えた場合に、その傾き方向を指示方向として決定する。
制御部25Aは、第2の決定部24Aで決定した指示方向を表示画面の画面方向に設定する。制御部25Aは、図7の(B)に示すように、表示画面の左辺11Cの方向に傾き変化量が所定変化量を超えて傾けた場合、この傾き方向を指示方向とし、左辺11Cが天、右辺11Dが地となる画面方向に表示画面を設定する。制御部25Aは、表示画面の右辺11Dの方向に傾き変化量が所定変化量を超えて傾けた場合、右辺11Dが天、左辺11Cが地となる画面方向に表示画面を設定する。
また、制御部25Aは、図7の(C)に示すように、表示画面の上辺11Aの方向に傾き変化量が所定変化量を超えて傾けた場合、上辺11Aが天、下辺11Bが地となる画面方向に表示画面を設定する。制御部25Aは、表示画面の下辺11Bの方向に傾き変化量が所定変化量を超えて傾けた場合、下辺11Bが天、上辺11Aが地となる画面方向に表示画面を設定する。
実施例2の携帯端末装置1Aでは、顔方向の認識が失敗した場合、装置本体の傾き操作による傾き方向で指示方向を特定し、特定した指示方向に表示画面の画面方向を設定する。その結果、利用者は、装置本体の傾き操作で意図する画面方向に表示画面を設定できる。
尚、上記実施例1の制御部25は、特定操作画面30A上の特定操作で指示方向を特定する場合を例示したが、例えば、装置本体の振り方向で指示方向を特定しても良く、この場合の実施の形態につき、実施例3として以下に説明する。
図8は、実施例3の携帯端末装置1Bの一例を示すブロック図である。尚、実施例1の携帯端末装置1と同一の構成には同一符号を付すことで、その重複する構成及び動作の説明については省略する。
図8に示す携帯端末装置1Bと図1に示す携帯端末装置1とが異なるところは、装置本体の加速度から装置本体の位置と装置本体を振る軸の位置との位置関係を算出し、その算出した位置関係から把持位置を推定し、把持位置から指示方向を特定する点にある。携帯端末装置1Bは、装置本体の加速度を検出する加速度センサ19Aと、ジャイロセンサ19Bとを有する。
図9は、振り方向から指示方向を特定する特定操作の一例を示す説明図である。図9において利用者による指示方向の特定操作は、顔方向の認識を失敗して指示モードに移行後、装置本体を把持している手の手首を軸Lに装置本体を振る操作で把持位置を特定し、その把持位置から指示方向を特定する操作である。制御部25Bは、装置本体を把持する利用者の把持手を認識するものとする。
第2の決定部24Bは、加速度センサ19Aの装置本体の加速度値から重力成分を除去して2回積分し、その値にジャイロセンサ19Bの実測値で補正し、装置本体の移動ベクトルVを算出する。第2の決定部24Bは、算出した装置本体の移動ベクトルVの軌跡が最小二乗法等で円運動に適用し、その円運動から半径及び中心軸Lの位置を推定する。そして、第2の決定部24Bは、推定した中心軸の位置から装置本体の持ち方、すなわち装置本体の把持位置を推定する。
図10は、推定した把持位置の一例を示す説明図である。尚、説明の便宜上、利用者の装置本体の把持手を右手とする。第2の決定部24Bは、図10の(A)に示すように、中心軸Lが装置本体の右下の場合、表示画面の上辺11Aを天、下辺11Bを地にして装置本体を縦に把持した把持位置と推定する。第2の決定部24Bは、図10の(B)に示すように、中心軸Lが装置本体の左下の場合、表示画面の左辺11Dを地、右辺11Cを天にして装置本体を横に把持した把持位置と推定する。第2の決定部24Bは、図10の(C)に示すように、中心軸Lが装置本体の右上の場合、表示画面の右辺11Cを地、左辺11Dを天にして装置本体を横に把持した把持位置と推定する。第2の決定部24Bは、図10の(D)に示すように、中心軸Lが装置本体の左上の場合、表示画面の上辺11Aを地、下辺11Bを天にして装置本体を縦に把持した把持位置と推定する。
制御部25Bは、第2の決定部24Bにて推定した把持位置を表示画面の画面方向として設定する。例えば、制御部25Bは、把持位置が装置本体の右下の場合、上辺11Aが天、下辺11Bが地となる画面方向に表示画面を設定する。制御部25Bは、把持位置が装置本体の左下の場合、右辺11Cが天、左辺11Dが地となる画面方向に表示画面を設定する。更に、制御部25Bは、把持位置が装置本体の右上の場合、左辺11Dが天、右辺11Cが地となる画面方向に表示画面を設定する。更に、制御部25Bは、把持位置が装置本体の左上の場合、下辺11Bが天、上辺11Aが地となる画面方向に表示画面を設定する。
実施例3の携帯端末装置1Bでは、顔方向の認識が失敗した場合、装置本体の振り操作による移動ベクトルで把持位置を推定し、推定した把持位置で指示方向を特定し、特定した指示方向に表示画面の画面方向を設定する。その結果、利用者は、装置本体の振り操作で意図する画面方向に表示画面を設定できる。
また、図示した各部の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。
更に、各装置で行われる各種処理機能は、CPU(Central Processing Unit)(又はMPU(Micro Processing Unit)、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部又は任意の一部を実行するようにしても良い。また、各種処理機能は、CPU(又はMPU、MCU等のマイクロ・コンピュータ)で解析実行するプログラム上、又はワイヤードロジックによるハードウェア上で、その全部又は任意の一部を実行するようにしても良いことは言うまでもない。
ところで、本実施例で説明した各種の処理は、予め用意されたプログラムを携帯端末装置内のCPU等のプロセッサで実行させることによって実現できる。そこで、以下では、上記実施例と同様の機能を有するプログラムを実行する携帯端末装置の一例を説明する。図11は、画面制御プログラムを実行する携帯端末装置の一例を示す説明図である。
図11に示す画面制御プログラムを実行する携帯端末装置100は、撮像センサ110と、表示部120と、ROM130と、RAM140と、CPU150とを有する。撮像センサ110、表示部120、ROM130、RAM140及びCPU150は、バス160を介して接続される。撮像センサ110は、被写体の画像を撮像する。表示部120は、表示画面を表示する。
そして、ROM130には、上記実施例と同様の機能を発揮する画面制御プログラムが予め記憶されている。ROM130は、画面制御プログラムとして認識プログラム130A、決定プログラム130B及び制御プログラム130Cが記憶されている。尚、ROM130ではなく、図示せぬドライブでコンピュータ読取可能な記録媒体に画面制御プログラムが記録されていても良い。また、記録媒体としては、例えば、CD−ROM、DVDディスク、USBメモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ等でも良い。
そして、CPU150は、認識プログラム130AをROM130から読み出して認識プロセス140AとしてRAM140上で機能する。更に、CPU150は、決定プログラム130BをROM130から読み出して決定プロセス140BとしてRAM140上で機能する。CPU150は、制御プログラム130CをROM130から読み出して制御プロセス140CとしてRAM140上で機能する。
携帯端末装置100内のCPU150は、撮像した撮像画像から利用者の顔方向を認識する。CPU150は、顔方向の認識が失敗した場合、所定操作に基づく指示方向を決定する。CPU150は、決定した指示方向に表示画面の画面方向を設定する。その結果、利用者の意図する画面方向に表示画面を設定できる。
以上、本実施例を含む実施の形態に関し、更に以下の付記を開示する。
(付記1)画面を表示する表示部と、
被写体の画像を撮像する撮像部と、
前記撮像部で撮像した撮像画像から利用者の顔方向を認識する認識部と、
前記認識部にて前記顔方向の認識が失敗した場合に、所定操作に基づく指示方向を決定する決定部と、
前記決定部にて決定した前記指示方向に前記画面の画面方向を設定する制御部と
を有することを特徴とする携帯端末装置。
(付記2)前記決定部は、
前記顔方向の認識が失敗した場合に、前記指示方向を指定する操作画面を前記表示部に表示させ、前記操作画面上で前記指示方向を指定する操作に応じて前記指示方向を特定することを特徴とする付記1に記載の携帯端末装置。
(付記3)前記携帯端末装置本体の把持位置を検出する把持検出部を有し、
前記決定部は、
前記顔方向の認識が失敗した場合に、前記指示方向を指定する操作画面を、前記把持検出部にて検出した前記把持位置付近にある前記表示部の表示領域に表示させ、前記操作画面上で前記指示方向を指定する操作に応じて前記指示方向を特定することを特徴とする付記1に記載の携帯端末装置。
(付記4)前記決定部は、
前記操作画面を前記表示部の短辺付近に表示させることを特徴とする付記2又は3に記載の携帯端末装置。
(付記5)前記決定部は、
前記操作画面を前記表示部に半透明状態で表示させることを特徴とする付記2〜4の何れか一つに記載の携帯端末装置。
(付記6)前記決定部は、
前記操作画面を表示した後、所定時間経過後に当該操作画面の表示を消去することを特徴とする付記2〜5の何れか一つに記載の携帯端末装置。
(付記7)前記決定部は、
前記操作画面以外の表示領域の操作を検出した場合、前記操作画面の表示を消去することを特徴とする付記1〜6の何れか一つに記載の携帯端末装置。
(付記8)前記携帯端末装置本体の傾きを検出する傾き検出部を有し、
前記決定部は、
前記顔方向の認識が失敗した時点の傾き量を基準とし、その基準の傾き量と前記傾き検出部で検出した前記携帯端末装置本体の傾き量との変化量から前記携帯端末装置本体の傾き方向を特定し、その特定した傾き方向を前記指示方向として特定することを特徴とする付記1に記載の携帯端末装置。
(付記9)前記携帯端末装置本体の加速度を検出する加速度検出部を有し、
前記決定部は、
前記加速度検出部で検出した前記携帯端末装置本体の移動軌跡から前記携帯端末装置本体の位置と当該携帯端末装置本体を振る軸の位置との位置関係を算出し、その位置関係から前記携帯端末装置の把持位置を推定し、推定した前記把持位置から前記指示方向を特定することを特徴とする付記1に記載の携帯端末装置。
(付記10)表示部を有する携帯端末装置が、
被写体の画像を撮像し、
前記撮像した撮像画像から利用者の顔方向を認識し、
前記顔方向の認識が失敗した場合に、所定操作に基づく指示方向を決定し、
前記決定した前記指示方向に前記画面の画面方向を設定する
処理を実行することを特徴とする画面制御方法。
(付記11)表示部を有する携帯端末装置に、
被写体の画像を撮像し、
前記撮像した撮像画像から利用者の顔方向を認識し、
前記顔方向の認識が失敗した場合に、所定操作に基づく指示方向を決定し、
前記決定した前記指示方向に前記画面の画面方向を設定する
処理を実行させることを特徴とする画面制御プログラム。
1,1A,1B 携帯端末装置
11 表示部
13 撮像センサ
14 把持センサ
18 傾きセンサ
19A 加速度センサ
19B ジャイロセンサ
21 認識部
22 判定部
24,24A,24B 第2の決定部
25,25A,25B 制御部
30A 特定操作画面

Claims (7)

  1. 画面を表示する表示部と、
    被写体の画像を撮像する撮像部と、
    前記撮像部で撮像した撮像画像から利用者の顔方向を認識する認識部と、
    前記認識部にて前記顔方向の認識が失敗した場合に、所定操作に基づく指示方向を決定する決定部と、
    前記決定部にて決定した前記指示方向に前記画面の画面方向を設定する制御部と
    を有することを特徴とする携帯端末装置。
  2. 前記決定部は、
    前記顔方向の認識が失敗した場合に、前記指示方向を指定する操作画面を前記表示部に表示させ、前記操作画面上で前記指示方向を指定する操作に応じて前記指示方向を特定することを特徴とする請求項1に記載の携帯端末装置。
  3. 前記携帯端末装置本体の把持位置を検出する把持検出部を有し、
    前記決定部は、
    前記顔方向の認識が失敗した場合に、前記指示方向を指定する操作画面を、前記把持検出部にて検出した前記把持位置付近にある前記表示部の表示領域に表示させ、前記操作画面上で前記指示方向を指定する操作に応じて前記指示方向を特定することを特徴とする請求項1に記載の携帯端末装置。
  4. 前記携帯端末装置本体の傾きを検出する傾き検出部を有し、
    前記決定部は、
    前記顔方向の認識が失敗した時点の傾き量を基準とし、その基準の傾き量と前記傾き検出部で検出した前記携帯端末装置本体の傾き量との変化量から前記携帯端末装置本体の傾き方向を特定し、その特定した傾き方向を前記指示方向として特定することを特徴とする請求項1に記載の携帯端末装置。
  5. 前記携帯端末装置本体の加速度を検出する加速度検出部を有し、
    前記決定部は、
    前記加速度検出部で検出した前記携帯端末装置本体の移動軌跡から前記携帯端末装置本体の位置と当該携帯端末装置本体を振る軸の位置との位置関係を算出し、その位置関係から前記携帯端末装置の把持位置を推定し、推定した前記把持位置から前記指示方向を特定することを特徴とする請求項1に記載の携帯端末装置。
  6. 表示部を有する携帯端末装置が、
    被写体の画像を撮像し、
    前記撮像した撮像画像から利用者の顔方向を認識し、
    前記顔方向の認識が失敗した場合に、所定操作に基づく指示方向を決定し、
    前記決定した前記指示方向に前記画面の画面方向を設定する
    処理を実行することを特徴とする画面制御方法。
  7. 表示部を有する携帯端末装置に、
    被写体の画像を撮像し、
    前記撮像した撮像画像から利用者の顔方向を認識し、
    前記顔方向の認識が失敗した場合に、所定操作に基づく指示方向を決定し、
    前記決定した前記指示方向に前記画面の画面方向を設定する
    処理を実行させることを特徴とする画面制御プログラム。
JP2014226444A 2014-11-06 2014-11-06 携帯端末装置、画面制御方法及び画面制御プログラム Pending JP2016091383A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014226444A JP2016091383A (ja) 2014-11-06 2014-11-06 携帯端末装置、画面制御方法及び画面制御プログラム
US14/855,663 US20160132993A1 (en) 2014-11-06 2015-09-16 Screen control method and communication device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014226444A JP2016091383A (ja) 2014-11-06 2014-11-06 携帯端末装置、画面制御方法及び画面制御プログラム

Publications (1)

Publication Number Publication Date
JP2016091383A true JP2016091383A (ja) 2016-05-23

Family

ID=55912585

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014226444A Pending JP2016091383A (ja) 2014-11-06 2014-11-06 携帯端末装置、画面制御方法及び画面制御プログラム

Country Status (2)

Country Link
US (1) US20160132993A1 (ja)
JP (1) JP2016091383A (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3392740A4 (en) * 2015-12-18 2018-12-19 Sony Corporation Information processing device, information processing method, and program
CN106648106A (zh) * 2016-12-29 2017-05-10 努比亚技术有限公司 一种显示方法及装置
CN106909334A (zh) * 2017-03-29 2017-06-30 维沃移动通信有限公司 一种调整屏幕色温的方法及移动终端
CN109670470B (zh) * 2018-12-27 2020-12-01 恒睿(重庆)人工智能技术研究院有限公司 行人关系识别方法、装置、系统及电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003345492A (ja) * 2002-05-27 2003-12-05 Sony Corp 携帯電子機器
JP2009163278A (ja) * 2007-12-21 2009-07-23 Toshiba Corp 携帯型機器
JP2010160564A (ja) * 2009-01-06 2010-07-22 Toshiba Corp 携帯端末
JP2011221094A (ja) * 2010-04-05 2011-11-04 Funai Electric Co Ltd 携帯情報表示端末
US20110298829A1 (en) * 2010-06-04 2011-12-08 Sony Computer Entertainment Inc. Selecting View Orientation in Portable Device via Image Analysis
JP2013150129A (ja) * 2012-01-19 2013-08-01 Kyocera Corp 携帯端末

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100697416B1 (ko) * 2003-09-30 2007-03-20 교세라 가부시키가이샤 모바일 통신 단말기, 정보 제공 시스템 및 프로그램을기록한 컴퓨터 판독가능한 기록 매체
JP4906564B2 (ja) * 2007-04-04 2012-03-28 キヤノン株式会社 記録制御装置及びその制御方法
US8508475B2 (en) * 2008-10-24 2013-08-13 Microsoft Corporation User interface elements positioned for display
US9733712B2 (en) * 2011-08-29 2017-08-15 Kyocera Corporation Device, method, and storage medium storing program
US20130132885A1 (en) * 2011-11-17 2013-05-23 Lenovo (Singapore) Pte. Ltd. Systems and methods for using touch input to move objects to an external display and interact with objects on an external display
JP6049448B2 (ja) * 2012-12-27 2016-12-21 キヤノン株式会社 被写体領域追跡装置、その制御方法及びプログラム
JP5801348B2 (ja) * 2013-06-10 2015-10-28 レノボ・シンガポール・プライベート・リミテッド 入力システム、入力方法およびスマートフォン
US10678336B2 (en) * 2013-09-10 2020-06-09 Hewlett-Packard Development Company, L.P. Orient a user interface to a side

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003345492A (ja) * 2002-05-27 2003-12-05 Sony Corp 携帯電子機器
JP2009163278A (ja) * 2007-12-21 2009-07-23 Toshiba Corp 携帯型機器
JP2010160564A (ja) * 2009-01-06 2010-07-22 Toshiba Corp 携帯端末
JP2011221094A (ja) * 2010-04-05 2011-11-04 Funai Electric Co Ltd 携帯情報表示端末
US20110298829A1 (en) * 2010-06-04 2011-12-08 Sony Computer Entertainment Inc. Selecting View Orientation in Portable Device via Image Analysis
JP2013150129A (ja) * 2012-01-19 2013-08-01 Kyocera Corp 携帯端末

Also Published As

Publication number Publication date
US20160132993A1 (en) 2016-05-12

Similar Documents

Publication Publication Date Title
JP5857257B2 (ja) 表示装置及び表示方向切替方法
US10477090B2 (en) Wearable device, control method and non-transitory storage medium
US10191603B2 (en) Information processing device and information processing method
US9589325B2 (en) Method for determining display mode of screen, and terminal device
JP6171615B2 (ja) 情報処理装置及びプログラム
US20130326592A1 (en) Personal authentication apparatus and personal authentication method
US20140300570A1 (en) Mobile information processing terminal
JP2017208638A (ja) 虹彩認証装置、虹彩認証方法、及びプログラム
JP2016091383A (ja) 携帯端末装置、画面制御方法及び画面制御プログラム
US20160291692A1 (en) Information processing system, information processing method, and program
WO2014112273A1 (ja) 表示装置、表示装置の制御方法、および、記録媒体
JP2017083916A (ja) ジェスチャー認識装置、ヘッドマウントディスプレイ、および携帯端末
US11023050B2 (en) Display control device, display control method, and computer program
KR20160027732A (ko) 디스플레이 디바이스 및 그 제어 방법
US10389947B2 (en) Omnidirectional camera display image changing system, omnidirectional camera display image changing method, and program
US9148537B1 (en) Facial cues as commands
JP6409918B2 (ja) 端末装置、モーション認識方法及びプログラム
US9489927B2 (en) Information processing device for controlling direction of display image and control method thereof
JP2014123288A (ja) 電子機器、制御方法およびプログラム
JP6201282B2 (ja) 携帯電子機器、その制御方法及びプログラム
US20170140508A1 (en) Method, apparatus, and terminal for controlling screen auto-rotation
US9646576B2 (en) Terminal device, control method for terminal device, program, and information storage medium
JP6227234B2 (ja) 端末装置
JP2014219812A (ja) 入力装置および入力プログラム
JP2013161331A (ja) 端末装置、画面制御方法、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180418

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180731