Powiązane publikacje 'lexical-analysis'


Automatyczne wstawianie średnika w Go
Automatyczne wstawianie średnika w Go Gramatyka formalna określa, co stanowi poprawny składniowo program w Go (lub innym języku programowania): Block = "{" StatementList "}" . StatementList = { Statement ";" } . Powyższe definicje pochodzą ze specyfikacji Go. Używają „rozszerzonego formularza Backusa-Naura” (EBNF). Wszystko to oznacza, że ​​blok kodu to jedna lub więcej instrukcji oddzielonych średnikami. Wywołanie funkcji jest przykładem instrukcji...

Powiązane pytania 'lexical-analysis'

Zalecenia dotyczące dobrego analizatora leksykalnego opartego na C#/.NET [zamknięte]
Czy ktoś może polecić dobry analizator leksykalny oparty na .NET, najlepiej napisany w C#?
2718 wyświetlenia
schedule 06.09.2022

Jak mogę wykorzystać analizę tekstu do badania odpowiedzi na pytania zawarte w kwestionariuszu?
Jestem „programistą” zespołu uczniów, którego celem jest badanie satysfakcji i problemów ogólnych w moim gimnazjum. Mamy ankietę zbudowaną w skali od 1 do 6 i interpretujemy te odpowiedzi za pomocą oprogramowania do tworzenia diagramów, które...
1058 wyświetlenia

Porządek pierwszeństwa w leksera
Piszę leksera i parser formuł Excela. W Excelu możemy przypisać komórce nazwę. Na przykład abc jest prawidłową nazwą, natomiast nazwanie komórki B2 jest zabronione, aby uniknąć pomyłki z komórką B2 . Kiedy więc spotkamy formułę =B2 ,...
331 wyświetlenia
schedule 28.07.2022

Pisanie leksykonu ponownego wejścia za pomocą Flex
Jestem nowicjuszem w flexie. Próbuję napisać prosty lekser/skaner wielokrotnego wejścia z flexem. Definicja leksykalna znajduje się poniżej. Utknąłem z błędami kompilacji, jak pokazano poniżej (problem yyg): reentrant.l: /* Definitions */...
7605 wyświetlenia

Znaczenie ^ w flex
Mam pytanie odnośnie flexu. W moich notatkach, w przykładowym fragmencie kodu jest napisane co następuje: [^ \t\n]+ printf("saw a word\n"); Nie rozumiem, co oznacza ten kod i jak odpowiada słowu. Wygląda na to, że \t oznacza spację, a \n...
123 wyświetlenia

Konsumpcja znaków w analizie leksykalnej
Jeśli mam podregulę podobną do poniższej: .. (~']' ~']')* ... czy będzie pasować tylko parzysta liczba znaków?
59 wyświetlenia
schedule 30.10.2023

Jak uzyskać teksty leksykalne dla danego słowa w Pythonie za pomocą nltk [duplikat]
Mam taki tekst my_text="Bill" Chcę teksty leksykalne dla mojego ciągu, moim pożądanym wyjściem jest my_output=["Bill","Billing","Billed"]
56 wyświetlenia
schedule 07.12.2023

RavenDb - Jak korzystać z niestandardowego analizatora (NGram)
uczę się ravenDb i próbuję wykorzystać jego pełną moc z niestandardowymi analizatorami Lucene. zgodnie z dokumentację - Analizator, do którego się odwołujesz, musi być dostępny dla instancji serwera RavenDB. Używając analizatorów, które...
311 wyświetlenia