JP6265027B2 - 表示装置、位置特定プログラム、および位置特定方法 - Google Patents
表示装置、位置特定プログラム、および位置特定方法 Download PDFInfo
- Publication number
- JP6265027B2 JP6265027B2 JP2014088540A JP2014088540A JP6265027B2 JP 6265027 B2 JP6265027 B2 JP 6265027B2 JP 2014088540 A JP2014088540 A JP 2014088540A JP 2014088540 A JP2014088540 A JP 2014088540A JP 6265027 B2 JP6265027 B2 JP 6265027B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- specific
- content
- straight line
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/225—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/245—Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Description
まず、本実施例に係るARコンテンツのオーサリング処理の説明に先駆けて、本実施例により生成されたARコンテンツを用いたAR表示処理について説明する。なお、AR表示処理とは、カメラが撮影した画像データに特定の物体の画像データが含まれると判断された場合、当該特定の画像データに対応するARコンテンツを、該画像データに重畳表示する処理である。マーカー型ビジョンベースARにおいては、マーカーがこの特定の物体の一例である。
以上説明したとおり、マーカーM相対で配置位置が決定されたARコンテンツCが、現実空間においてマーカーMと特定の位置関係にある物体と対応するかのように、AR表示されるためには、ARコンテンツCの配置位置を正確に指定する必要がある。
図12は、本実施例にかかるシステム構成図である。図12の例では、AR表示処理やオーサリング処理を行う表示装置の例として、通信端末1−1および通信端末1−2を示す。以下、これらを総称して、表示装置1とする。さらに、表示装置1は、ネットワークNを介して、管理装置2と通信する。
図13は、表示装置の機能ブロック図である。表示装置1は、通信部11、撮像部12、表示部13、記憶部14、制御部15を含む。
図17は、本実施例に係るオーサリング処理のフローチャートである。なお、本実施例においては、オーサリング処理の中に、AR表示処理も含まれるとして説明するが、AR表示処理は別で実行されてもよい。また、以下では図10と同様に、仮オーサリング処理はA地点で行われ、本オーサリング処理はB地点で行われるものとする。
撮影位置と、ユーザにより指定された特定位置とを通る直線は、例えば、以下に示す他の方法によって求めることも可能である。図23は、直線を求める他の方法を説明するための図である。AR技術においては、仮想現実空間をスクリーンに投影する際、その投影範囲を設定することがある。例えば、カメラ原点からZc方向にZcnearの位置にXc−Yc平面と平行に設定される第一の平面Snearと、カメラ原点からZc方向にZcfarの位置にXc−Yc平面と平行に設定される第一の平面Sfarとで、定義された空間を、投影範囲とすることができる。なお、ZcnearおよびZcfarは、予め設定される値である。
開示した実施例における他の態様では、透過型ディスプレイにARコンテンツCの投影画像が表示されてもよい。この態様においても、ユーザがディスプレイを透過して得られる現実空間の像と、ARコンテンツCの投影画像とが整合するので、ユーザに提供される視覚的な情報が拡張される。
各実施例に開示の技術は、マーカーレス型ビジョンベースARにも適用可能である。マーカーレス型ビジョンベースARに本実施例に開示の技術を適用する場合には、画像認識処理において、認識対象の物体の特徴を学習させた辞書(物体認識用テンプレート)を予め準備する。そして、当該辞書を用いて、画像データに対して物体認識処理が実行される。認識対象の物体が、マーカーMであるか、マーカーM以外の物体(自然マーカーともいう)であるかが異なるが、同様のアルゴリズムによって、本実施例の開示の技術は実現される。
上記実施例では、2つの地点で各々ユーザによる位置の指定操作を必要とする態様について説明したが、これに限られない。例えば、仮オーサリング処理は先の実施例と同様に実行される。その後、仮オーサリング処理にて指定された点M1を、トラッキング技術を併用する事で、トラッキングする。つまり、トラッキング技術によって、ユーザの移動に応じて、他の撮影位置から撮影された画像データにおける点M1に対応する点を特定する。
各実施例に示した表示装置1のハードウェア構成について説明する。図24は、表示装置のハードウェア構成例である。各実施例における表示装置1は、コンピュータ300によって、実現される。図13に示す機能ブロックは、例えば、図24に示すハードウェア構成により実現される。コンピュータ300は、例えば、プロセッサ301、Random Access Memory(RAM)302、Read Only Memory(ROM)303、ドライブ装置304、記憶媒体305、入力インターフェース(入力I/F)306、入力デバイス307、出力インターフェース(出力I/F)308、出力デバイス309、通信インターフェース(通信I/F)310、カメラモジュール311、加速度センサ312、角速度センサ313、表示インターフェース(表示I/F)314、表示デバイス315およびバス316などを含む。それぞれのハードウェアはバス316を介して接続されている。
11 通信部
12 撮像部
13 表示部
14 記憶部
15 制御部
16 認識部
17 表示制御部
18 第一オーサリング部
19 第二オーサリング部
2 管理装置
Claims (11)
- 撮像装置および表示装置を備えるコンピュータが、
予め決められた特定の画像データを含むように前記撮像装置が撮影した第一の画像データを前記表示装置に表示し、
前記特定の画像データの形状に基づき、前記第一の画像データの撮影位置を特定するとともに、前記第一の画像データ上の任意の特定位置の指定を受付けることで、該撮影位置と指定された該第一の画像データ上の該特定位置とを通る第一の直線情報を生成し、
前記撮影位置とは異なる他の撮影位置で前記特定の画像データおよび前記特定位置が含まれるように前記撮像装置が撮影した第二の画像データ中の前記特定の画像データの形状に基づき、前記第二の画像データの前記他の撮影位置を特定するとともに、該他の撮影位置と前記第二の画像データ上の前記特定位置とを通る第二の直線情報を生成し、
前記第一の直線情報と前記第二の直線情報とに基づき、前記特定位置に対応する3次元空間の位置を特定する処理を実行することを特徴とする位置特定方法。 - 前記特定の画像データは既知の形状を有する物体の画像データであって、
前記コンピュータは、前記第一の画像データまたは前記第二の画像データに含まれる該特定の画像データの前記形状と前記既知の形状との比較によって、前記撮影位置を特定することを特徴とする請求項1記載の位置特定方法。 - 前記3次元空間は、前記特定の画像データを基準として設定される空間であることを特徴とする請求項1または請求項2のいずれか一項に記載の位置特定方法。
- 前記コンピュータは、さらに、
前記特定の画像データを識別する情報と、前記3次元空間の位置と、他の画像データとを含むコンテンツ情報を生成し、
前記コンテンツ情報を記憶装置へ記憶する処理を実行することを特徴とする請求項1乃至請求項3のいずれか一項に記載の位置特定方法。 - 前記コンピュータは、さらに、
前記撮像装置から第三の画像データを取得し、
前記第三の画像データに前記特定の画像データが含まれる場合、前記コンテンツ情報を参照し、該第三の画像データに前記他の画像データを、該特定の画像データと特定の位置関係で、重畳表示する処理を実行することを特徴とする請求項4に記載の位置特定方法。 - 前記コンピュータは、さらに、
前記第一の画像データが取得された後に、前記ユーザに対して、前記撮影位置の変更を促すメッセージを出力することを特徴とする請求項1乃至請求項5のいずれか一項に記載の位置特定方法。 - 前記コンピュータは、さらに、
前記第二の画像データに、前記特定の画像データが含まれる場合に、前記第一の直線情報を示すガイド用画像データを重畳表示することを特徴とする請求項1乃至請求項6のいずれか一項に記載の位置特定方法。 - 前記3次元空間の位置として、前記第一の直線情報が示す直線と前記第二の直線情報が示す直線との交点、または最接近点が特定されることを特徴とする請求項1乃至請求項7のいずれか一項に記載の位置特定方法。
- 撮像装置および表示装置を備えるコンピュータに、
予め決められた特定の画像データを含むように前記撮像装置が撮影した第一の画像データを前記表示装置に表示し、
前記特定の画像データの形状に基づき前記第一の画像データの撮影位置を特定するとともに、前記第一の画像データ上の任意の特定位置の指定を受付けることで、該撮影位置と指定された該第一の画像データ上の該特定位置とを通る第一の直線情報を生成し、
前記撮影位置とは異なる他の撮影位置で前記特定の画像データおよび前記特定位置が含まれるように前記撮像装置が撮影した第二の画像データ中の前記特定の画像データの形状に基づき、前記第二の画像データの前記他の撮影位置を特定するとともに、該他の撮影位置と前記第二の画像データ上の前記特定位置とを通る第二の直線情報を生成し、
前記第一の直線情報と前記第二の直線情報とに基づき、前記特定位置に対応する3次元空間の位置を特定する処理を実行させることを特徴とする位置特定プログラム。 - 第一の画像データおよび第二の画像データを撮影する撮影部と、
前記第一の画像データを表示する表示部と、
前記第一の画像データに特定の画像データが含まれる場合、当該特定の画像データの形状に基づき前記第一の画像データの撮影位置を特定するとともに、前記第一の画像データ上の任意の特定位置の指定を受付けることで、該撮影位置と指定された該第一の画像データ上の該特定位置とを通る第一の直線情報を生成する第一処理部と、
前記第二の画像データに前記特定の画像データが含まれる場合、前記特定の画像データの形状に基づき、前記第二の画像データの前記他の撮影位置を特定するとともに、該他の撮影位置と前記第二の画像データ上の前記特定位置とを通る第二の直線情報を生成し、前記第一の直線情報と前記第二の直線情報とに基づき、前記特定位置に対応する3次元空間の位置を特定する第二処理部とを含むことを特徴とする表示装置。 - 撮像装置および表示装置を備えるコンピュータが、
予め決められた特定の画像データを含むように前記撮像装置が撮影した第一の画像データを前記表示装置に表示し、
前記第一の画像データ上の任意の特定位置の指定を受付け、
前記第一の画像データの撮影位置と該第一の画像データ上の前記特定位置とを通る直線に対応する第一の直線情報を生成し、
前記撮影位置とは異なる他の撮影位置で前記特定の画像データおよび前記特定位置が含まれるように前記撮像装置が撮影した第二の画像データ上の新たな特定位置の指定を受け付け、
前記新たな特定位置と前記他の撮影位置とを通る直線に対応する第二の直線情報を生成し、
前記第一の直線情報と前記第二の直線情報とに基づき、前記特定位置および前記新たな特定位置で指定される3次元空間の位置を特定する処理を実行することを特徴とする位置特定方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014088540A JP6265027B2 (ja) | 2014-04-22 | 2014-04-22 | 表示装置、位置特定プログラム、および位置特定方法 |
US14/665,231 US9495802B2 (en) | 2014-04-22 | 2015-03-23 | Position identification method and system |
US15/292,309 US10074217B2 (en) | 2014-04-22 | 2016-10-13 | Position identification method and system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014088540A JP6265027B2 (ja) | 2014-04-22 | 2014-04-22 | 表示装置、位置特定プログラム、および位置特定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015207219A JP2015207219A (ja) | 2015-11-19 |
JP6265027B2 true JP6265027B2 (ja) | 2018-01-24 |
Family
ID=54322464
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014088540A Active JP6265027B2 (ja) | 2014-04-22 | 2014-04-22 | 表示装置、位置特定プログラム、および位置特定方法 |
Country Status (2)
Country | Link |
---|---|
US (2) | US9495802B2 (ja) |
JP (1) | JP6265027B2 (ja) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017061281A1 (ja) | 2015-10-08 | 2017-04-13 | ソニー株式会社 | 情報処理装置、及び、情報処理方法 |
JP6723018B2 (ja) * | 2016-02-02 | 2020-07-15 | 株式会社パスコ | 対象物記録装置及び対象物記録プログラム |
JP6701930B2 (ja) | 2016-04-28 | 2020-05-27 | 富士通株式会社 | オーサリング装置、オーサリング方法およびオーサリングプログラム |
US10298587B2 (en) * | 2016-06-20 | 2019-05-21 | International Business Machines Corporation | Peer-to-peer augmented reality handlers |
JP2018005091A (ja) * | 2016-07-06 | 2018-01-11 | 富士通株式会社 | 表示制御プログラム、表示制御方法および表示制御装置 |
US20180268614A1 (en) * | 2017-03-16 | 2018-09-20 | General Electric Company | Systems and methods for aligning pmi object on a model |
US10387730B1 (en) * | 2017-04-20 | 2019-08-20 | Snap Inc. | Augmented reality typography personalization system |
JP6744990B2 (ja) * | 2017-04-28 | 2020-08-19 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理装置の制御方法、及びプログラム |
JP6727448B2 (ja) * | 2017-08-28 | 2020-07-22 | 三菱電機株式会社 | 拡張現実コンテンツ生成装置および拡張現実コンテンツ生成方法 |
CN107576731A (zh) * | 2017-08-30 | 2018-01-12 | 天津大学 | 基于混合现实的模型实验结构裂纹扩展过程实时透视方法 |
US11354815B2 (en) * | 2018-05-23 | 2022-06-07 | Samsung Electronics Co., Ltd. | Marker-based augmented reality system and method |
US11087538B2 (en) * | 2018-06-26 | 2021-08-10 | Lenovo (Singapore) Pte. Ltd. | Presentation of augmented reality images at display locations that do not obstruct user's view |
CN110827411B (zh) * | 2018-08-09 | 2023-07-18 | 北京微播视界科技有限公司 | 自适应环境的增强现实模型显示方法、装置、设备及存储介质 |
WO2020030156A1 (zh) | 2018-08-10 | 2020-02-13 | 广东虚拟现实科技有限公司 | 图像处理方法、终端设备及计算机可读介质 |
CN109345573B (zh) * | 2018-08-20 | 2021-04-13 | 联想(北京)有限公司 | 一种位置信息确定方法、电子设备和计算机存储介质 |
US11393170B2 (en) | 2018-08-21 | 2022-07-19 | Lenovo (Singapore) Pte. Ltd. | Presentation of content based on attention center of user |
JP6640294B1 (ja) * | 2018-08-24 | 2020-02-05 | 株式会社Cygames | 複合現実システム、プログラム、携帯端末装置、及び方法 |
US10991139B2 (en) | 2018-08-30 | 2021-04-27 | Lenovo (Singapore) Pte. Ltd. | Presentation of graphical object(s) on display to avoid overlay on another item |
CA3104444A1 (en) * | 2018-11-08 | 2020-05-14 | Rovi Guides, Inc. | Methods and systems for augmenting visual content |
US10997630B2 (en) * | 2018-12-20 | 2021-05-04 | Rovi Guides, Inc. | Systems and methods for inserting contextual advertisements into a virtual environment |
US11972529B2 (en) | 2019-02-01 | 2024-04-30 | Snap Inc. | Augmented reality system |
US11151792B2 (en) | 2019-04-26 | 2021-10-19 | Google Llc | System and method for creating persistent mappings in augmented reality |
US11163997B2 (en) * | 2019-05-05 | 2021-11-02 | Google Llc | Methods and apparatus for venue based augmented reality |
CN112702643B (zh) * | 2019-10-22 | 2023-07-21 | 上海哔哩哔哩科技有限公司 | 弹幕信息显示方法、装置、移动终端 |
JP2021086163A (ja) * | 2019-11-25 | 2021-06-03 | 株式会社NejiLaw | 個体識別システム |
EP3893096A1 (en) * | 2020-04-06 | 2021-10-13 | Siemens Aktiengesellschaft | Aligning and augmenting a partial subspace of a physical infrastructure with at least one information element |
JP6982659B1 (ja) * | 2020-06-26 | 2021-12-17 | 株式会社ドワンゴ | サーバ、端末、配信システム、配信方法、および情報処理方法 |
WO2022172335A1 (ja) * | 2021-02-09 | 2022-08-18 | マクセル株式会社 | 仮想ガイド表示装置、仮想ガイド表示システム、及び仮想ガイド表示方法 |
US11354868B1 (en) * | 2021-02-26 | 2022-06-07 | Zebra Technologies Corporation | Method to map dynamically drawn augmented reality (AR) scribbles using recognition of discrete spatial anchor(s) |
US20230351632A1 (en) * | 2022-04-27 | 2023-11-02 | Htc Corporation | Method for providing visual content, host, and computer readable storage medium |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08212390A (ja) * | 1995-02-08 | 1996-08-20 | Canon Inc | 画像処理方法とその装置 |
JP2000276613A (ja) * | 1999-03-29 | 2000-10-06 | Sony Corp | 情報処理装置および情報処理方法 |
EP1308903B1 (en) * | 2000-06-16 | 2010-04-14 | Imagnosis Inc. | Point inputting device and method for three-dimensional images |
JP4537557B2 (ja) | 2000-09-19 | 2010-09-01 | オリンパス株式会社 | 情報呈示システム |
JP2004048674A (ja) | 2002-05-24 | 2004-02-12 | Olympus Corp | 視野一致型情報呈示システム、並びに、それに用いられる携帯情報端末及びサーバ |
EP2764899A3 (en) * | 2005-08-29 | 2014-12-10 | Nant Holdings IP, LLC | Interactivity via mobile image recognition |
JP4358181B2 (ja) * | 2005-11-11 | 2009-11-04 | 任天堂株式会社 | ゲームプログラムおよびゲーム装置 |
KR101135186B1 (ko) * | 2010-03-03 | 2012-04-16 | 광주과학기술원 | 상호작용형 실시간 증강현실 시스템과 그 방법, 및 상기 방법을 구현하는 프로그램이 기록된 기록매체 |
JP5518677B2 (ja) * | 2010-11-05 | 2014-06-11 | 日本電信電話株式会社 | 仮想情報付与装置及び仮想情報付与プログラム |
JP5799521B2 (ja) * | 2011-02-15 | 2015-10-28 | ソニー株式会社 | 情報処理装置、オーサリング方法及びプログラム |
US9679414B2 (en) * | 2013-03-01 | 2017-06-13 | Apple Inc. | Federated mobile device positioning |
-
2014
- 2014-04-22 JP JP2014088540A patent/JP6265027B2/ja active Active
-
2015
- 2015-03-23 US US14/665,231 patent/US9495802B2/en active Active
-
2016
- 2016-10-13 US US15/292,309 patent/US10074217B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US9495802B2 (en) | 2016-11-15 |
US10074217B2 (en) | 2018-09-11 |
JP2015207219A (ja) | 2015-11-19 |
US20150302649A1 (en) | 2015-10-22 |
US20170032515A1 (en) | 2017-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6265027B2 (ja) | 表示装置、位置特定プログラム、および位置特定方法 | |
JP6264972B2 (ja) | 表示装置、表示制御プログラム、および表示制御方法 | |
JP5991423B2 (ja) | 表示装置、表示方法、表示プログラムおよび位置設定システム | |
US9710971B2 (en) | Information processing device, position designation method and storage medium | |
JP6314394B2 (ja) | 情報処理装置、設定方法、設定プログラム、システムおよび管理装置 | |
JP6299234B2 (ja) | 表示制御方法、情報処理装置、および表示制御プログラム | |
JP6500355B2 (ja) | 表示装置、表示プログラム、および表示方法 | |
JP6264834B2 (ja) | ガイド方法、情報処理装置およびガイドプログラム | |
AU2014203449B2 (en) | Information processing apparatus, and displaying method | |
JP6318542B2 (ja) | 表示制御方法、表示制御プログラムおよび情報処理装置 | |
JP6160290B2 (ja) | 情報処理装置、判定方法および判定プログラム | |
JP6394107B2 (ja) | キャリブレーション装置、キャリブレーション方法、表示制御装置および表示制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20160401 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170110 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171128 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171211 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6265027 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |