RU2013114377A - Автоматизированные элементы управления для интерфейса пользователя с сенсорной поддержкой - Google Patents

Автоматизированные элементы управления для интерфейса пользователя с сенсорной поддержкой Download PDF

Info

Publication number
RU2013114377A
RU2013114377A RU2013114377/08A RU2013114377A RU2013114377A RU 2013114377 A RU2013114377 A RU 2013114377A RU 2013114377/08 A RU2013114377/08 A RU 2013114377/08A RU 2013114377 A RU2013114377 A RU 2013114377A RU 2013114377 A RU2013114377 A RU 2013114377A
Authority
RU
Russia
Prior art keywords
mobile unit
orientation
movement
touch
activated
Prior art date
Application number
RU2013114377/08A
Other languages
English (en)
Other versions
RU2571606C2 (ru
Inventor
Патрик ТИЛЛИ
Джеймс МОРЛИ-СМИТ
Дэн САДЛЕР
Original Assignee
Моторола Солюшнз, Инк.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Моторола Солюшнз, Инк. filed Critical Моторола Солюшнз, Инк.
Publication of RU2013114377A publication Critical patent/RU2013114377A/ru
Application granted granted Critical
Publication of RU2571606C2 publication Critical patent/RU2571606C2/ru

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

1. Мобильный блок для активирования сенсорно активируемой команды, содержащий:процессор;память; идисплей, отображающий интерфейс пользователя, включающий в себя множество команд, при этом каждая сенсорно активируемая команда из множества команд показывается с соответствующей пиктограммой, указывающей, по меньшей мере, одно из движения и ориентации мобильного блока, назначенное сенсорно активируемой команде, при этом, по меньшей мере, одно из указываемого движения и ориентации мобильного блока активирует соответствующую сенсорно активируемую команду.2. Мобильный блок по п. 1, в котором сенсорно активируемые команды по умолчанию связаны, по меньшей мере, с одним из движений и ориентаций мобильного блока и соответствующими установленными по умолчанию пиктограммами.3. Мобильный блок по п. 1, в котором выбор одной из сенсорно активируемых команд связан с персонализированными движениями и персонализированными пиктограммами.4. Мобильный блок по п. 1, дополнительно содержащий:громкоговоритель, воспроизводящий аудиоподсказки, указывающие, по меньшей мере, одно из движения и ориентации мобильного блока.5. Мобильный блок по п. 1, дополнительно содержащий:датчик, определяющий, по меньшей мере, одно из движения и ориентации мобильного устройства.6. Мобильный блок по п. 5, в котором датчик является одним из акселерометра, детектора сенсорного экрана, магнитометра, гироскопа и их комбинации.7. Мобильный блок по п. 5, дополнительно содержащий:по меньшей мере, одно дополнительное устройство приема ввода.8. Мобильный блок по п. 7, в котором датчик и, по меньшей мере, одно дополнительное устройство приема ввода используются для акт�

Claims (20)

1. Мобильный блок для активирования сенсорно активируемой команды, содержащий:
процессор;
память; и
дисплей, отображающий интерфейс пользователя, включающий в себя множество команд, при этом каждая сенсорно активируемая команда из множества команд показывается с соответствующей пиктограммой, указывающей, по меньшей мере, одно из движения и ориентации мобильного блока, назначенное сенсорно активируемой команде, при этом, по меньшей мере, одно из указываемого движения и ориентации мобильного блока активирует соответствующую сенсорно активируемую команду.
2. Мобильный блок по п. 1, в котором сенсорно активируемые команды по умолчанию связаны, по меньшей мере, с одним из движений и ориентаций мобильного блока и соответствующими установленными по умолчанию пиктограммами.
3. Мобильный блок по п. 1, в котором выбор одной из сенсорно активируемых команд связан с персонализированными движениями и персонализированными пиктограммами.
4. Мобильный блок по п. 1, дополнительно содержащий:
громкоговоритель, воспроизводящий аудиоподсказки, указывающие, по меньшей мере, одно из движения и ориентации мобильного блока.
5. Мобильный блок по п. 1, дополнительно содержащий:
датчик, определяющий, по меньшей мере, одно из движения и ориентации мобильного устройства.
6. Мобильный блок по п. 5, в котором датчик является одним из акселерометра, детектора сенсорного экрана, магнитометра, гироскопа и их комбинации.
7. Мобильный блок по п. 5, дополнительно содержащий:
по меньшей мере, одно дополнительное устройство приема ввода.
8. Мобильный блок по п. 7, в котором датчик и, по меньшей мере, одно дополнительное устройство приема ввода используются для активации соответствующей активируемой движением команды.
9. Мобильный блок по п. 3, в котором персонализированные движения являются теми, что выбираются из списка доступных движений и ориентаций мобильного блока и создаются пользователем, и в котором персонализированные пиктограммы являются теми, что выбираются из списка доступных пиктограмм и создаются пользователем.
10. Мобильный блок по п. 1, в котором пиктограмма создается пользователем.
11. Способ активирования сенсорно активируемой команды, содержащий этапы, на которых
принимают выбор команды, которая будет сенсорно активирована;
принимают выбор, по меньшей мере, одного из движения и ориентации мобильного блока для команды и сенсорной пиктограммы, по меньшей мере, для одного из движения и ориентации мобильного блока, при этом, по меньшей мере, одно из выбранного движения и ориентации мобильного блока активирует соответствующую команду; и
создают интерфейс пользователя, включающий в себя команду, при этом пиктограмма команды для команды показывается с сенсорной пиктограммой.
12. Способ по п. 11, в котором, по меньшей мере, одно из движения и ориентации мобильного блока выбирается из списка доступных движений, а сенсорная пиктограмма выбирается из списка доступных пиктограмм.
13. Способ по п. 12, в котором выбор, по меньшей мере, одного из движения и ориентации мобильного блока выбирается из шаблона жестов.
14. Способ по п. 11, дополнительно содержащий этап, на котором
формируют предварительный просмотр сенсорной пиктограммы.
15. Способ по п. 11, в котором выбор, по меньшей мере, одного из движения и ориентации мобильного блока фильтруется в зависимости от дополнительно сенсорно активируемых команд в интерфейсе пользователя.
16. Способ по п. 12, в котором, по меньшей мере, одно из движения и ориентации мобильного блока классифицируется по типам классов.
17. Способ по п. 16, в котором сенсорные пиктограммы связаны с соответствующим одним из типов классов.
18. Способ по п. 17, в котором список доступных движений и список доступных пиктограмм фильтруются в зависимости от типов классов для выбора, по меньшей мере, одного из движения и ориентации мобильного блока и сенсорной пиктограммы.
19. Способ по п. 11, в котором интерфейс пользователя включает в себя, по меньшей мере, одну дополнительную сенсорно активируемую команду, причем каждая из, по меньшей мере, одной дополнительной сенсорно активируемой команды показывается с соответствующей дополнительной пиктограммой.
20. Мобильный блок для активирования сенсорно активируемой команды, содержащий:
процессор;
память; и
средство отображения для показа интерфейса пользователя, включающего в себя множество команд, при этом каждая сенсорно активируемая команда из множества команд показывается с соответствующей пиктограммой, указывающей, по меньшей мере, одно из движения и ориентации мобильного блока, назначенное сенсорно активируемой команде, при этом, по меньшей мере, одно из указываемого движения и ориентации мобильного блока активирует соответствующую сенсорно активируемую команду.
RU2013114377/08A 2010-08-31 2011-08-15 Автоматизированные элементы управления для интерфейса пользователя с сенсорной поддержкой RU2571606C2 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/872,187 2010-08-31
US12/872,187 US9164542B2 (en) 2010-08-31 2010-08-31 Automated controls for sensor enabled user interface
PCT/US2011/047713 WO2012030509A1 (en) 2010-08-31 2011-08-15 Automated controls for sensor enabled user interface

Publications (2)

Publication Number Publication Date
RU2013114377A true RU2013114377A (ru) 2014-10-10
RU2571606C2 RU2571606C2 (ru) 2015-12-20

Family

ID=44513195

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2013114377/08A RU2571606C2 (ru) 2010-08-31 2011-08-15 Автоматизированные элементы управления для интерфейса пользователя с сенсорной поддержкой

Country Status (7)

Country Link
US (1) US9164542B2 (ru)
EP (1) EP2612213A1 (ru)
KR (1) KR101453703B1 (ru)
CN (1) CN103097979B (ru)
CA (1) CA2809297C (ru)
RU (1) RU2571606C2 (ru)
WO (1) WO2012030509A1 (ru)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8791297B2 (en) 2010-06-29 2014-07-29 Basf Se Process for preparing formic acid by reaction of carbon dioxide with hydrogen
JP5768361B2 (ja) * 2010-11-22 2015-08-26 ソニー株式会社 送信装置、受信装置、コンテンツ送受信システム
US8893054B2 (en) * 2010-12-08 2014-11-18 At&T Intellectual Property I, L.P. Devices, systems, and methods for conveying gesture commands
JP5966665B2 (ja) * 2012-06-26 2016-08-10 ソニー株式会社 情報処理装置、情報処理方法および記録媒体
US20140006263A1 (en) * 2012-06-28 2014-01-02 Daniel Ray Townsend System, Software, and Method For Design And Personalization Of Content By Users
KR102028175B1 (ko) * 2012-07-30 2019-10-04 삼성전자주식회사 벤딩 인터렉션 가이드를 제공하는 플렉서블 장치 및 그 제어 방법
CN103777881B (zh) * 2012-10-24 2018-01-09 腾讯科技(深圳)有限公司 一种触控设备页面控制方法及系统
FR2999316A1 (fr) * 2012-12-12 2014-06-13 Sagemcom Broadband Sas Dispositif et procede de reconnaissance de gestes pour un controle d'interface utilisateur
KR101515288B1 (ko) 2013-06-05 2015-04-24 엘지전자 주식회사 이동 단말기 어셈블리
US9307129B2 (en) 2013-05-07 2016-04-05 Lg Electronics Inc. Terminal case, mobile terminal, and mobile terminal assembly including the terminal case and the mobile terminal
TWI511029B (zh) * 2014-01-28 2015-12-01 Acer Inc 觸控顯示裝置及其操作方法
WO2015136671A1 (ja) * 2014-03-13 2015-09-17 富士機械製造株式会社 作業機用表示装置
KR102244856B1 (ko) * 2014-04-22 2021-04-27 삼성전자 주식회사 웨어러블 장치와의 사용자 인터랙션을 제공하는 방법 및 이를 수행하는 웨어러블 장치
MX2016013962A (es) * 2014-04-24 2017-04-27 Idis Tech Ip Ltd Aplicacion de mensajeria privada y metodos asociados.
EP3002669A1 (en) * 2014-09-30 2016-04-06 Advanced Digital Broadcast S.A. System and method for controlling a virtual input interface
CN106095306B (zh) * 2016-05-31 2019-03-26 Oppo广东移动通信有限公司 一种移动终端的传感器控制方法、装置及移动终端

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5252951A (en) * 1989-04-28 1993-10-12 International Business Machines Corporation Graphical user interface with gesture recognition in a multiapplication environment
US6072467A (en) * 1996-05-03 2000-06-06 Mitsubishi Electric Information Technology Center America, Inc. (Ita) Continuously variable control of animated on-screen characters
US6268857B1 (en) * 1997-08-29 2001-07-31 Xerox Corporation Computer user interface using a physical manipulatory grammar
US6057845A (en) * 1997-11-14 2000-05-02 Sensiva, Inc. System, method, and apparatus for generation and recognizing universal commands
US20070177804A1 (en) * 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
US7840912B2 (en) * 2006-01-30 2010-11-23 Apple Inc. Multi-touch gesture dictionary
EP1052849B1 (en) * 1998-11-30 2011-06-15 Sony Corporation Set-top box and method for operating same
US7688306B2 (en) 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US7030861B1 (en) * 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
US6668177B2 (en) * 2001-04-26 2003-12-23 Nokia Corporation Method and apparatus for displaying prioritized icons in a mobile terminal
WO2002088853A1 (en) 2001-04-26 2002-11-07 Caveo Technology, Llc Motion-based input system for handheld devices
FI117488B (fi) * 2001-05-16 2006-10-31 Myorigo Sarl Informaation selaus näytöllä
US7280096B2 (en) 2004-03-23 2007-10-09 Fujitsu Limited Motion sensor engagement for a handheld device
US8021297B2 (en) 2004-07-07 2011-09-20 Koninklijke Philips Electronics N.V. Wearable device
RU2391696C2 (ru) * 2004-09-24 2010-06-10 Нокиа Корпорейшн Способ приема вводов от пользователя электронного устройства
EP1677182B1 (en) * 2004-12-28 2014-04-23 Sony Mobile Communications Japan, Inc. Display method, portable terminal device, and display program
US7389591B2 (en) 2005-05-17 2008-06-24 Gesturetek, Inc. Orientation-sensitive signal output
US8462109B2 (en) * 2007-01-05 2013-06-11 Invensense, Inc. Controlling and accessing content using motion processing on mobile devices
US20090265671A1 (en) * 2008-04-21 2009-10-22 Invensense Mobile devices with motion gesture recognition
US8122384B2 (en) * 2007-09-18 2012-02-21 Palo Alto Research Center Incorporated Method and apparatus for selecting an object within a user interface by performing a gesture
US20090079701A1 (en) * 2007-09-25 2009-03-26 Grosskopf Jr George Device and Method for Displaying Data and Receiving User Input
US20090276730A1 (en) 2008-03-04 2009-11-05 Alexandre Aybes Techniques for navigation of hierarchically-presented data
US8295879B2 (en) * 2008-05-30 2012-10-23 Motorola Mobility Llc Devices and methods for initiating functions based on movement characteristics relative to a reference
US8566717B2 (en) * 2008-06-24 2013-10-22 Microsoft Corporation Rendering teaching animations on a user-interface display
US20100042954A1 (en) * 2008-08-12 2010-02-18 Apple Inc. Motion based input selection
US8191011B2 (en) 2008-09-18 2012-05-29 Microsoft Corporation Motion activated content control for media system
US9248376B2 (en) * 2008-09-30 2016-02-02 Nintendo Co., Ltd. Computer-readable storage medium having stored game program therein, and game apparatus
KR101520689B1 (ko) * 2008-10-22 2015-05-21 엘지전자 주식회사 이동 단말기 및 이를 이용한 화면 스크롤 방법
FR2938097B1 (fr) * 2008-10-30 2010-12-31 Oberthur Technologies Carte a microcircuit, dispositif electronique associe a une telle carte, et procede de commande d'un tel dispositif electronique
KR101737829B1 (ko) * 2008-11-10 2017-05-22 삼성전자주식회사 휴대 단말기의 모션 입력 장치 및 그의 운용 방법
WO2010076772A2 (en) 2008-12-30 2010-07-08 France Telecom User interface to provide enhanced control of an application program
JP5256109B2 (ja) * 2009-04-23 2013-08-07 株式会社日立製作所 表示装置
US8543946B2 (en) * 2009-06-29 2013-09-24 Sharp Laboratories Of America, Inc. Gesture-based interface system and method
US9519417B2 (en) * 2009-08-31 2016-12-13 Twin Harbor Labs, LLC System and method for orientation-based object monitoring and device for the same
US8457651B2 (en) * 2009-10-02 2013-06-04 Qualcomm Incorporated Device movement user interface gestures for file sharing functionality
US8436821B1 (en) * 2009-11-20 2013-05-07 Adobe Systems Incorporated System and method for developing and classifying touch gestures
US20110214082A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Projection triggering through an external marker in an augmented reality eyepiece

Also Published As

Publication number Publication date
RU2571606C2 (ru) 2015-12-20
WO2012030509A1 (en) 2012-03-08
CA2809297A1 (en) 2012-03-08
KR20130065702A (ko) 2013-06-19
CA2809297C (en) 2016-07-05
US20120054620A1 (en) 2012-03-01
KR101453703B1 (ko) 2014-10-22
CN103097979B (zh) 2016-08-03
EP2612213A1 (en) 2013-07-10
CN103097979A (zh) 2013-05-08
WO2012030509A4 (en) 2012-04-26
US9164542B2 (en) 2015-10-20

Similar Documents

Publication Publication Date Title
RU2013114377A (ru) Автоматизированные элементы управления для интерфейса пользователя с сенсорной поддержкой
US10963139B2 (en) Operating method for multiple windows and electronic device supporting the same
AU2011358860B2 (en) Operating method of terminal based on multiple inputs and portable terminal supporting the same
JP5976632B2 (ja) 携帯端末機のgui提供方法及び装置
US20130179840A1 (en) User interface for mobile device
US20130007666A1 (en) Electronic device with touch screen device, method of moving function icon and computer readable storage media comprising computer executable instructions
RU2012142254A (ru) Пользовательский интерфейс
KR20170076357A (ko) 사용자 단말 장치, 이의 스피커 장치의 음량을 조절하기 위한 모드 전환 방법 및 음향 시스템
KR20160123620A (ko) 디스플레이 장치 및 디스플레이 방법
JP2014215737A5 (ja) 情報処理装置、表示制御方法、コンピュータプログラム、及び記憶媒体
JP2013544385A (ja) タッチデバイスでホームスクリーン編集方法及び装置
JP2014215737A (ja) 情報処理装置、表示制御方法、及びコンピュータプログラム
JP5254399B2 (ja) 表示装置、ユーザインタフェース方法及びプログラム
JP2006139615A5 (ru)
KR20150069559A (ko) 화면 제어 방법 및 이를 구현하는 전자 장치
KR101861377B1 (ko) 이동 단말에서 모션 기반의 화면 제어 방법 및 이를 위한 이동 단말
EP2290515A2 (en) Apparatus and method for providing GUI-interacting according to recognized user approach
CN103294392A (zh) 用于在移动装置中编辑内容视图的方法和设备
JP2014508354A5 (ru)
JP5950275B2 (ja) 表示装置上に表示可能な1又は複数の電子データ中に振動部分を設定する方法、並びに、その装置及びコンピュータ・プログラム
JP2014174742A (ja) 携帯型電子機器およびその制御プログラム
KR102138501B1 (ko) 디지털 컨텐츠를 캡쳐하는 디스플레이 디바이스 및 그 제어 방법
JP2014149555A (ja) 情報機器
KR20150135039A (ko) 사용자 단말 장치 및 이의 정보 제공 방법
JP2014149853A (ja) 携帯情報端末、表示制御方法およびプログラム

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20170816