Registrierung Kalender Mitgliederliste Teammitglieder Suche Häufig gestellte Fragen Zur Startseite

Informatiker Board » Themengebiete » Theoretische Informatik » Lex->RegEx->DEA » Antwort erstellen » Hallo Gast [Anmelden|Registrieren]

Antwort erstellen
Benutzername: (du bist nicht eingeloggt!)
Thema:
Nachricht:

HTML ist nicht erlaubt
BBCode ist erlaubt
Smilies sind erlaubt
Bilder sind erlaubt

Smilies: 21 von 33
smileWinkDaumen hoch
verwirrtAugenzwinkerngeschockt
Mit ZungeGottunglücklich
Forum Kloppebösegroßes Grinsen
TanzentraurigProst
TeufelSpamWillkommen
LehrerLOL HammerZunge raus
Hilfe 
aktuellen Tag schließen
alle Tags schließen
fettgedruckter Textkursiver Textunterstrichener Text zentrierter Text Hyperlink einfügenE-Mail-Adresse einfügenBild einfügen Zitat einfügenListe erstellen CODE einfügenPHP CODE farbig hervorheben
Spamschutz:
Text aus Bild eingeben
Spamschutz

Die letzten 5 Beiträge
Gisa Daumen hoch!

Alles klar.

Mache ich auch gleich.

Danke und Tschüüss

Gisa Daumen hoch
Tobias

Nein, die lexikographische Analyse und die Syntaxanalyse sind zwei Paar Schuhe.

Lies doch mal ein bisschen was über Compilerbau smile
Gisa

Achso ist das! Vielen Dank für die Erklärung :-).

Dann ist es mit CfG und Kellerautomaten genauso?


Danke und Grüße
Gisa
Tobias

Ich glaube du hast du was Grundlegendes nicht verstanden. Dein Scanner *ist* ein Automat (bzw. eine Implementation des theoretischen Modells des Automaten).

Der Scanner wird so gebaut:

1.) Ich habe ganz viele reguläre Ausdrücke. Jedem reg. Ausdruck wird ein Token zugeordnet, das die Symbolklasse des reg. Ausdrucks beschreibt (int, id, ..)

2.) Aus jedem dieser Ausdrücke kann ich einen DEA konstruieren.

3.) Aus allen DEAs kann ich einen DEA konstruieren, der die Vereinigung der Sprachen erkennt. Das ist der sog. Produktautomat.

Der Produktautomat wird nun noch geringfügig erweitert und man hat seinen Automaten, der die Zerlegung des Eingabewortes in Teilwörter vornimmt und die Tokenfolge als Analyse ausgibt.
Gisa Lex->RegEx->DEA

Hallo Board,

habe das hier gefunden:

"Die lexikalische Analyse kann eine reguläre Sprache erkennen und arbeitet auf der Basis eines deterministischen Automaten. Ein solcher Automat ist
ein Modell für einen Programmteil, das durch die Eingabe gesteuert wird. Anhand des ersten Zeichens (oder mehrerer) kann er eindeutig erkennen, was
vorliegt."

Also reguläre Ausdrücke sind für die Spezifikation der Token-Syntax. Wie ist das gemeint bzgl. eines DEA? Wenn mein Scanner erkennt, dass es sich um einen Bezeichner handelt kann er ebenfalls wie bereits im Vorfeld durch einen DEA geregelt und definiert gesteuert werden.

Wie sehe denn Bspw. so ein DEA denn aus, wenn mein Scanner einen Bezeichner erkennen würde?

Danke und Grüße
Gisa