Demostraciones (Teoría de Lenguajes)

De Cuba-Wiki
Saltar a: navegación, buscar

Sumario

Back.png Volver a la página de la materia

Lenguajes Regulares[editar]

Autómatas[editar]

Función de transición extendida[editar]

La función de transición extendida o generalizada se define recursivamente sobre la cadena a la que se aplica. En el caso base (cadena vacía) devuelve el mismo estado (o su clausura lambda en un AFND-λ); en el inductivo, toma la cadena w + a y devuelve el conjunto resultante de aplicar la transición por a al conjunto de estados generado por la transicion sobre w.

  • Caso Base:
  • Caso Recursivo:

Esta naturaleza recursiva permite demostrar propiedades sobre la función de transición generalizada a partir de propiedades de la función de transición común utilizando inducción sobre la longitud de la cadena. Supongamos se tiene una función igual a una , se quiere probar que la igualdad vale tambien para la generalizada:

por definición de generalizada,
por HI,
por igualdad entre delta,
por definicion de generalizada.

Este esquema puede usarse para probar equivalencias o propiedades sobre funciones generalizadas dadas las de las funciones no generalizadas, y eventualmente predicar sobre el lenguaje en lugar de solamente caracteres.

Lenguaje aceptado por un automata[editar]

El lenguaje aceptado por un autómata generalmente se define como el conjunto de cadenas que derivan en un estado final al consumirse partiendo del estado inicial. Es decir, se define en función de la funcion de transicion extendida.

Esto hace que demostrar una propiedad sobre la función de transición extendida permita demostrar propiedades sobre el lenguaje aceptado por un autómata. Al demostrar equivalencia entre autómatas, conviene demostrar equivalencias entre funciones de transición extendidas.

Equivalencias[editar]

AFND en AFD[editar]

Para probar que todo AFND puede representarse con un AFD, se construye uno equivalente tomando como estados todos los posibles conjuntos de estados del AFND original (partes de ). Las transiciones entre los estados de este nuevo AFD se definen como las transiciones entre los conjuntos de estados del AFND. Los estados finales del AFD son aquellos conjuntos de estados del AFND que contenían algún estado final. O sea, por ejemplo, si es la función de transición del AFD, .

Una manera de demostrar que ambos aceptan el mismo lenguaje, es demostrar primero que la función de transición extendida mantiene la misma relación que la ya definida partiendo de (el estado inicial), y luego chequear las condiciones de aceptación de una cadena de ambos autómatas.

Para probar que el conjunto de estados al que se llega en el AFND a partir de una cadena x es el estado definido por ese mismo conjunto en el AFD, se hace inducción en la longitud de x para probar . El caso base (longitud cero) es trivial. El paso inductivo parte la cadena x en y + a, siendo a un caracter, y aplica hipótesis inductiva y la definición de delta del AFD.

Al saber que cualquier cadena lleva a estados análogos en el AFND y en el AFD, basta verificar la aceptación de la cadena. En el AFND es aceptada sii en el conjunto de estados al que se llega hay alguno final, mientras que en el AFD cada estado se marca como final si en el conjunto que representa había alguno final. Por lo tanto, el AFND acepta una cadena sii el AFD la acepta, con lo que representan el mismo lenguaje.

AFND-L en AFND[editar]

Antes de la demostración, es necesario notar que en el caso de los AFND-L la función de transición extendida para un caracter no es equivalente a la función de transición común (pues la primera efectúa la clausura lambda sobre el conjunto de llegada), con lo cual ya no pueden usarse indistintamente.

La demostración nuevamente es constructiva, a partir de un AFND-L se crea un AFND que admite el mismo lenguaje. Para esto se toma el mismo conjunto de estados, alfabeto y los mismo estados finales aunque se les agrega el inicial sii tiene algún final en su clausura lambda. La función de transición en el AFND se define como la función de transición extendida (para un caracter) del AFND-L, es decir, se le agrega la clausura lambda a cada paso.

Intuitivamente, el AFND generado es igual al AFND-L, pero se quitan las transiciones lambda al agregar transiciones a toda la clausura de la transición original. Por ejemplo, si se tenia y , se reemplaza por y . El único detalle es que para el estado inicial se pierden las transiciones lambda, por eso hay que agregarlo (a veces) a los finales.

El lema intermedio a demostrar en este caso es análogo al anterior: para . Se busca probar por inducción que vale la equivalencia (definida entre las funciones de transición de los autómatas) en la función de transición extendida a partir del estado inicial. Nuevamente se demuestra a partir de separar el primer caracter del resto de la cadena, aplicar la definición original y luego hipótesis inductiva.

Sabiendo que partiendo de los estados iniciales y consumiendo las mismas cadenas en ambos autómatas se llegan a los mismos estados, resta probar que los lenguajes son iguales. Recordar que la condición de aceptación del AFND y del AFND-L es que la función de transición extendida aplicada a la cadena desde el estado inicial devuelva un conjunto que contenga algún estado final; la diferencia entre AFND y AFND-L es que la función de este ultimo incluye la clausura lambda a cada paso.

Si la cadena a aceptar es vacía, entonces en el AFNDL la condición de aceptación es que la clausura lambda del estado inicial contenga un final. Como los finales en el AFND equivalente se definieron incluyendo al estado inicial si esto sucedía, entonces lambda es aceptada en uno sii lo es en el otro.

Si la cadena a aceptar es no vacía, entonces ambas funciones de transición llevan al mismo conjunto de estados (por el lema intermedio). Como los estados finales son equivalentes o difieren en , entonces la cadena es aceptada en un autómata sii (hay que separar el análisis según si se agregó a los estados finales o no).

Por lo tanto, el AFND así construido reconoce el mismo lenguaje que el AFNDL original.

Expresiones Regulares en AFND-L[editar]

Dada cualquier expresion regular, se puede construir un AFND-L con un unico estado final y sin transiciones a partir de este, haciendo induccion sobre la estructura de la expresion regular.

REtoAFNDL.png

AFD en Expresiones Regulares[editar]

La demostración de la existencia de una expresión regular que captura el mismo lenguaje que un AFD es constructiva. Se basa en la definición de un sublenguaje (o conjunto de cadenas) , previo numerar los estados del autómata de 1 a n.

La expresión representa a todas las cadenas que se obtienen en el automata yendo desde el estado i al estado j pasando por estados de índice a lo sumo k. Notar que i y j pueden ser mayores a k, pero solamente si aparecen como principio y final del camino. Análogamente, se define como la expresión regular cuyo lenguaje es dicho conjunto de cadenas.

La construcción de los R se hace mediante inducción sobre k´y lo que debemos demostrar constructivamente por inducción es que podemos dar una expresión regular cuyo lenguaje es R. El caso base es cuando se tiene , esto es, todos los caminos que van de i a j sin pasar por ningún estado intermedio (pues están numerados a partir de 1). Esto es el conjunto de terminales que se encuentran en todos los arcos que van de i a j, más lambda si i y j son el mismo estado (el conjunto también puede ser vacío). La expresión regular que lo denota es simplemente la disyunción de todos los terminales así obtenidos, con o sin según corresponda, la expresión regular .

Para el paso inductivo, con , para cada camino se pueden dar dos posibilidades. Una es que el camino no pase por ningun estado de índice k, con lo que .

El caso más elaborado es cuando pasa al menos una vez por el nodo k. Cada camino puede partirse entonces en tres partes: desde i a la primera aparición de k, desde la primera aparición de k hasta la ultima (que a su vez se puede dividir como cero o más caminos que empezaron y terminaron en k), y desde la última aparición de k hasta j.

Caminos de i a j pasando una o mas veces por k

Esto puede escribirse como . Sumado al caso en que no se pasa por el nodo k, y reemplazando cada conjunto de cadena por la ER que la representa, se tiene que la expresión regular final que denota las cadenas de es (se aplicó la hipótesis inductiva en cada ).

En castellano, esto significa que para ir del nodo i al j pasando por nodos de a lo sumo índice k, se puede o bien ir directamente de i a j pasando por nodos de a lo sumo k-1, o bien ir hasta k, hacer cero o varios loops, y luego hacer el ultimo tramo de k a j.

Por lo tanto, se pueden generar expresiones regulares para todos los conjuntos de cadenas , esto es, todas las cadenas que resultan de recorrer los caminos de i a j, sin restricción sobre los nodos intermedios.

Notar que el autómata acepta una cadena si existe un camino que la genera que comience en el estado inicial y termine en un estado final. Por lo tanto, las cadenas aceptadas serán aquellas de la forma , con i estado inicial y j algún estado final.

Entonces, la expresión regular que genera el mismo lenguaje que el autómata es , siendo los estados finales del autómata, y 1 el estado inicial.

Gramaticas Regulares en AFND[editar]

Dada una gramática regular existe un

Se puede definir como:

La idea es que va a ser un AFND donde cada no terminal sea un estado, los terminales son las etiquetas de las transiciones entre estados y se conecta con por si en está la producción . El estado inicial va a ser el del no terminal distinguido () y se agrega otro estado final () para conectar con si está .

Idea de la demostración:

Se demuestra primero el lema por inducción en :

  • El caso base es aútomático, porque si es vacia, tiene que ser (por las producciones que puede tener la gramática) y por definición de también se cumple lo otro.
  • Luego se prueba para . Se ve que si , de se puede llegar a por por hip. inductiva, y que de se puede llegar a por por la regla 4 de la definición de . Entonces de se puede llegar a por .

Después se debe probar que el lenguaje generado por y es el mismo:

  • Se parte de: .
    • Hay dos formas en que de se puede llegar a la forma sentencial de sólo terminales :
      1. Se llega al final usando como último paso . Entonces, (por el lema aplicado a ), de se llegó a , y (por def. 5) se conecta a por .
      2. La otra opción es que como último paso nos deshacemos de un no terminal que le seguía al terminal , y que desapareció usando . Entonces, por el lema (aplicado a ), de se llega a por , y (por def. 6) es final.
    • Llegamos entonces a que de se llega por a o a un estado final , lo cual es equivalente a .
  • Se ve aparte: .

AFD en Gramáticas Regulares[editar]

Dado un AFD existe un gramática regular equivalente. Se demuestra definiendo así y probando luego que y generan el mismo lenguaje.

La idea es casi es la inversa que para pasar de gramática regular a AFND.

Idea de la demostración:

Se demuestra primero el lema por inducción en :

  • El caso base es verdadero por definición en los dos lados del ssi.
  • Se prueba para separando el último paso de y aplicando la hip. inductiva a para llegar a que (donde es el estado anterior para llegar a ) y usando que como de se llega a , por la regla 4 .

Después se debe probar que el lenguaje generado por y es el mismo:

  • Analizamos cadenas no vacias partiendo de . Separamos en el estado al que se llega consumiendo y la última transición por al estado final. Por el lema, al anteúltimo estado se llega con ssi , y por la def. 5 . Esas dos cosas son equivalentes a .
  • Por def. 6 M es final (acepta la cadena vacía) ssi .

Propiedades[editar]

Unión[editar]

El conjunto de lenguajes regulares incluido en es cerrado respecto de la unión. Dados = y , es un lenguaje regular.

  • Esto es inmediato con expresiones regulares, ya que el lenguaje generado por es regular y el más es por definición la unión de los lenguajes y .
  • Si lo queremos probar con autómatas, basta con: pegar al lado de , agregar un estado inicial que tiene transiciones a los mismos estados (y por los mismos símbolos) que los iniciales de y , marcarlo como final si alguno de los lenguajes acepta la cadena vacía y listo (transiciones y finales queda igual).

Complemento[editar]

El complmento de un lenguaje regular es regular

  • Una forma constructiva de probar esto es tomando el AFD del lenguaje y complementando el conjunto de estados finales (poniendo los finales como no finales y vicevera). Es inmediato que esto genera el complemento. Si es el alfabeto del autómata y queremos tomar el complemento respecto a un superconjunto de , basta con encontrar el autómata del complemento y calcular: (notar que es una unión de lenguajes regulares). Recordar que el AFD debe estar completo (tener el estado "trampa").

Intersección[editar]

La intersección de un lenguaje regular es regular

Es inmediata usando la ley de DeMorgan, ya que .

También se puede realizar de forma constructiva a partir de los autómatas. Se arma un gran autómata que tiene como estados el producto cartesiano de los estados de los otros dos de forma tal que un estado es final si y son finales en sus respectivos autómatas.

Unión e Intersección finita[editar]

La unión finita y la intersección finita de lenguajes regulares dan por resultado un leguaje regular. Es trivial de probar con una inducción.

Esto NO VALE para INFINITO. (pensar en la unión infinita de )

Pertenencia[editar]

Saber si una cadena pertenece a un lenguaje regular es decidible (Dado el lenguaje regular, se construye su AFD y se pone a prueba la cadena).

Finitud[editar]

Todo lenguaje finito es regular. Ya que se puede ver como la unión finita de los elementos uno a uno.

Determinar si un lenguaje regular es finito es decidible

Un lenguaje regular es finito si en su AFD ningún estado desde el cual se pueda alcanzar un estado final puede dar lugar a un "ciclo".

Alternativamente, un lenguaje regular es infinito sii su AFD acepta al menos una cadena de longitud tal que , donde es la cantidad de estados del AFD.

Vacuidad[editar]

Determinar si un lenguaje regular es vacío es decidible. Se construye el AFD y se mira si alguno de los estados alcanzables es final.

Equivalencia[editar]

Determinar si dos lenguajes regulares son equivalentes es decidible. Se construyen sus respectivos autómatas. Luego se construye el autómata de . Si es vacío, son equivalentes, sino no lo son.

Lema de Pumping[editar]

Transición para Config Instantánea[editar]

La función de transición entre dos configuraciones instantáneas se define como sii existe una transición de q a p por a. Asimismo se define la función de transición generalizada.

Vale que si , entonces para cualquier . Es decir, si es posible hacer un loop sobre el estado q consumiendo la cadena alfa, entonces es posible realizar ese loop tantas veces como se desee. Se demuestra fácilmente por inducción en la cantidad de repeticiones de alfa.

Pumping[editar]

El lema de pumping expresa que dada una longitud mínima n (que depende del lenguaje), todas las cadenas z de longitud mayor o igual a n pueden escribirse como z = uvw, donde uv no supera a n, v es no vacía y es posible repetir tantas veces v como se desee sin que la cadena deje de pertenecer al lenguaje. Es decir, pertenece al lenguaje.

Intuitivamente, significa que existe una longitud n (para la cual puede tomarse la cantidad de estados del AFD mínimo que captura el lenguaje) tal que toda cadena mayor o igual resulta de haber realizado al menos un ciclo sobre uno de los estados del autómata. Esto es, si se tiene w = xyz, se obtiene un recorrido de la siguiente forma.

Lema de pumping

Notar que la cadena y debe ser no vacía para que el ciclo efectivamente exista, xy es menor que la cantidad de estados del autómata, y la cadena total debe superar la cantidad de estados (o podría ser capturada por el autómata sin efectuar ningún ciclo). Expresado en transiciones de configuraciones instantáneas:

Como y por la propiedad ya demostrada, es posible repetir y tantas veces como se desee y volver siempre al mismo estado, que tras consumir la cadena z se sabe que lleva a un estado final con lo que la cadena resulta aceptada.

El lema de pumping es una manera útil de demostrar que un lenguaje no es regular, viendo que no verifica este lema. Notar que la implicación no vale a la inversa, esto es, un lenguaje no regular puede cumplir pumping de regulares. En estos casos generalmente se recurre a demostrar que el complemento, inverso, unión o alguna combinación a partir de dicho lenguaje no lo verifica.

Minimizacion[editar]

Minimizacion se aplica solamente a AFD, no existe equivalente sobre AFND. Tambien es necesario que el AFD no tenga estados inalcanzables (debe haber un camino orientado desde el estado inicial hacia cualquier otro).

Se basa en el concepto de estados indistinguibles. Dos estados son indistinguibles sii para cualquier cadena, partiendo de esos estados se llega siempre o a finales o a no finales. Vale que los estados a los que se llegan son tambien indistinguibles. Indistinguibilidad es una relacion de equivalencia.

Indistinguibilidad de orden K[editar]

Es analogo a indistinguibilidad pero sujeto a cadenas de longitud a lo sumo K. Es el que se usa en la practica.

Relacion de equivalencia[editar]

Al igual que indistinguibilidad, es una relacion de equivalencia (reflexiva, simetrica y transitiva). La demostracion es trivial.

K+1 implica K[editar]

La relacion de orden K+1 esta contenida no estrictamente en la de orden K. Si dos estados son indistinguibles respecto de cadenas de longitud a lo sumo K+1, entonces, en particular, lo son para cadenas de longitud a lo sumo K.

Cociente por orden 0[editar]

El conjunto de estados de un automata, cocientado por la relacion de indistinguibildad de orden 0, lo separa en dos clases de equivalencia: los finales y los no finales.

K+1 sii K por todo terminal[editar]

Dos estados p y r son indistinguibles de orden K+1 sii para todo terminal a vale que los estados que se alcanzan a partir de consumir a por p y r son indistinguibles de orden K. Esto permite dar una definicion inductiva de indistinguibilidad.

La ida se prueba por absurdo. Si existe un terminal a tal que al consumirlo se llega a dos estados p' y r' distinguibles por alguna cadena alfa de longitud a lo sumo K, entonces la cadena a + alfa distingue K+1 a p y r, lo que contradice la hipotesis.

La vuelta tambien se puede probar por absurdo. Si p y r son distinguibles por alfa de longitud K+1, entonces p' y r' , alcanzados tras consumir el primer caracter de alfa, son distinguibles por el resto de alfa, que tiene longitud a lo sumo K, lo que contradice la hipotesis.

K+1 = K implica K+n = K[editar]

Si para cualquier par de estados q y p vale que la relacion de indistinguibilidad de orden K+1 es igual a la de orden K, entonces cualquier indistinguibilidad de orden superior seguira siendo igual. Esto da un criterio de corte para la definicion inductiva de indistinguibilidad de orden K, y permite generalizar de orden K a indistinguibilidad en general.

Puede demostrarse por induccion en n. El caso base es trivial. Para el paso inductivo, simplemente se usa que si dos estados son indistinguibles orden k+n+1, entonces los estados a los que se llega por cualquier terminal lo son orden k+n, y luego se aplica la hipotesis inductiva.

Intuitivamente, esto sucede pues indistinguibilidad de orden K permite distinguir a todos los estados que estan a "distancia" K de algun estado final. Al pasar a K+1, se agregan todos los estados que están a un paso más. Si no hay cambios, es porque ya se cubrieron todos los estados del automata, y no es necesario tener cadenas mas largas para distinguirlos.

Automata Minimo[editar]

Un automata minimo se logra tomando como estados las clases de equivalencia generadas por la relacion de indistinguibilidad en el automata original. Las transiciones en el nuevo automata se definen como , es decir, el estado alcanzable en el AFDM a partir de la clase [q] por el terminal a, es la clase que se alcanza por a a partir de todos los estados que conforman q en el AFD original.

Transiciones entre clases indistinguibles[editar]

Dada la definicion de funcion de transicion anterior, vale la equivalencia tambien para la funcion de transicion extendida. Esto es, si en el AFD original se llegaba al estado r desde q por la cadena alfa, entonces en el minimo se llega a la clase de equivalencia de r desde q via alfa.

Se demuestra por induccion en la longitud de la cadena. El caso base (longitud cero) es trivial. Para el paso inductivo, se parte la cadena en a + alfa, y se aplica la definicion de la funcion no extendida (sobre a) junto con la hipotesis inductiva (sobre alfa), mas propiedades de la funcion de transicion extendida.

Cantidad de estados[editar]

Dados dos AFDs M y M', si para todo par de cadenas que conducen a estados diferentes en M desde q0 tambien conducen a estados diferentes en M' desde q0', entonces M' debe tener tantos o más estados que M.

Para demostrarlo, se puede obtener una funcion inyectiva de Q en Q', esto es, alguna funcion que para todo estado de Q vaya a un estado de Q' y no repita imagenes. Esto garantiza que .

Dicha funcion f(q) se puede definir como el estado que se alcanza en M' a desde q0' consumiendo la cadena g(q). La funcion g puede definirse como la menor cadena en M tal que al consumirla desde q0 se llegue al estado q; o sea, qué camino hay que seguir en M para llegar a q.

Como todas las cadenas generadas por g llevan a estados diferentes, entonces al consumirlas en M' tambien se llegan a estados diferentes (por hipotesis). Por lo tanto, se tiene la funcion inyectiva buscada.

Minimo[editar]

Se desea probar que el automata minimo construido a partir de las clases de equivalencia de la funcion de indistinguibilidad es efectivamente minimo. Esto es, que no existe ningun automata M' que reconozca el mismo lenguaje que MR (siendo MR el automata reducido) y que tenga menos estados.

Por la demostracion anterior, esto implica que deberia existir un par de cadenas alfa y beta tales que lleven a estados distintos p y r en MR y a estados iguales en M'.

Al ser p y r estados distintos en MR, significa que son distinguibles, esto es, que hay una cadena que lleva a uno a un estado final y a otro a uno no final. Esto significa que al concatenar esta cadena a las dos alfa y beta que habian dado origen a p y r, se obtienen dos cadenas, las cuales una pertenece al lenguaje y la otra no.

Ahora bien, como p y r coinciden en M', cualquier cadena los lleva al mismo estado, sea final o no. Entonces, al realizar la misma concatenacion que antes, se llega a ambas cadenas pertenecen o no. Por lo tanto, M' no reconoce el mismo lenguaje que MR, absurdo que proviene de suponer que MR no era minimo en cantidad de estados.

Lenguajes libres de contexto[editar]

Propiedades[editar]

Union[editar]

Si L1 y L2 son LIC, entonces L1 U L2 tambien lo es.

Dadas dos gramaticas que representen a los dos lenguajes que forman la union, basta con construir una nueva gramatica (suponiendo que la interseccion entre los no terminales es vacia) a partir de la union de los no terminales, terminales y producciones. Basta crear un nuevo simbolo distinguido S y producciones de la forma y .

Concatenacion[editar]

Si L1 y L2 son LIC, entonces L1L2 tambien lo es.

La demostracion es analoga al caso anterior. Se construye una gramatica nueva uniendo los simbolos y producciones de G1 y G2, y se agrega un nuevo simbolo distinguido S con la produccion .

Repeticion[editar]

Si L1 es LIC, entonces L1+ tambien lo es.

Para generar la gramatica que represente a L1+, basta añadir un nuevo simbolo distinguido S con las producciones y . Esto permite repetir el lenguaje tantas veces como se desee.

Interseccion[editar]

Si L1 y L2 son LIC, la interseccion puede no ser un lenguaje libre de contexto.

Un contraejemplo es tomar y , ambos LIC, mientras que su interseccion no lo es.

Si L1 es LIC y L2 es regular, la interseccion es LIC

La demostracion es analoga a la interseccion de lenguajes regulares, con la excepcion de que se añade una pila al automata generado, la cual esta controlada por L1. Notar que una demostracion equivalente no funciona para dos libres de contexto, pues seria necesario mantener dos pilas en simultaneo.

Complemento[editar]

Si L es LIC, su complemento puede no ser un lenguaje libre de contexto

Suponiendo que lo fuera, entonces como la union preserva indepedencia del contexto, podria escribirse la interseccion como composicion de union y complementacion usando De Morgan, y se estaria probando que la interseccion de LICs genera LICs, lo cual ya se demostro que es falso.

Lenguajes {ww}[editar]

El lenguaje de la forma ww no es independiente de contexto

Sea el lenguaje , vale que L no es LIC. Puede demostrarse tomando el lenguaje L1 como la interseccion entre L y el lenguaje regular . Si L fuera LIC, entonces L1 tambien debiera serlo. Pero L1 resulta de la forma , que puede demostrarse por pumping que no es LIC.

Esto tiene como resultado que un lenguaje de programacion en el cual se use declaracion de variables no basta una gramatica independiente de contexto para especificarlo, pues no hay manera de reconocer, dado el uso de una variable, si esta ya fue declarada o no.

Lema de Pumping (LIC)[editar]

Altura del arbol[editar]

La altura del arbol de derivacion es la longitud del camino más largo en el arbol de derivacion tal que comienza en la raiz y el final es una hoja (definicion natural de arbol). Vale que la hoja siempre es un terminal. Notar que en el arbol de derivacion, la base (hojas leidas en preorder) es igual a la cadena derivada.

Sea una gramatica donde a es la longitud del lado derecho más largo entre todas las producciones. Dado un arbol T para una cadena alfa, vale que , donde h es la altura del arbol.

La demostracion se hace por induccion sobre la altura. El caso base con h = 0 es trivial. El paso inductivo se basa que la base correspondiente a la altura h, llamemosla , cumple la HI; y como se deriva a partir de expandiendo a lo sumo simbolos no terminales, entonces .

Pumping (LIC)[editar]

El lema de pumping para LIC es similar al de gramaticas regulares. La idea es que para toda cadena que supere una longitud critica n del lenguaje (puede tomarse ), la cadena pueda descomponerse en 5 partes r,x,y,z,s tal que puedan insertarse tantas repeticiones de x y z como se desee y que la cadena se mantenga en el lenguaje. Se pide ademas que la longitud de x+z sea no nula (para que haya algo a insertar) y que x+y+z no supere a n.

La demostracion parte de una cadena y un arbol de derivacion minimo T (es decir, de altura minima). Usando el lema anterior, puede probarse que , lo que lleva a que .

En otras palabras, si la cadena es lo suficientemente grande, entonces la altura del arbol que la genera sera mayor estricto a la cantidad de simbolos no terminales que tiene la gramatica. Por lo tanto, recorriendo la rama mas larga del arbol, debe haber por lo menos un no terminal repetido (supongamos A).

Se considera entonces que la aparicion mas baja de A genera la cadena y, mientras que la siguiente genera xyz (lease vwx en la figura).

PumpingCFL.PNG

Esto significa que A deriva (en uno o mas pasos) tanto en y como en xyz, y que S deriva en rAs. Haciendo induccion en la cantidad de apariciones de x y z (caso base es cero) es sencillo ver que A termina derivando en xAz o y, con lo que es forma sentencial del lenguaje.

Decidibilidad[editar]

Los siguientes problemas sobre lenguajes libres de contexto no son decidibles:

  • Dada una gramatica libre de contexto, es ambigua?
  • Dado un LIC, existe una gramatica que lo represente que no sea ambigua?
  • Es la interseccion de dos LIC vacia?
  • Son dos LICs iguales?
  • Dado un LIC, es igual a Sigma*, donde Sigma es el alfabeto?

Equivalencias[editar]

Automata a Gramatica[editar]

La conversion de automata a gramatica se hace a partir de un automata por pila vacia. Se basa en la construccion de simbolos no terminales de la forma [q,A,p], tal que cada no terminal asi definido genera las cadenas w tal que implican que en el automata se haga pop de A en el stack (y de todos los demas simbolos que genero A) y se pase al estado p. En otras palabras, .

Las producciones de la gramatica se construyen, entonces, de la siguiente manera:

  • , siendo q todos los estados posibles. Esto significa generar todas las cadenas que comienzan en en el estado inicial, sacan Z0 de la pila (dejandola vacia) y terminan en cualquier estado. Es decir, todas las cadenas q acepta el automata.
  • sii . Los estados q2,q3... distintos del inicial y final son cualquier combinacion de estados del automata. Esto genera, dada una transicion de un estado a otro cambiando A por una secuencia de simbolos B, todos los posibles caminos entre estados que permiten hacer pop de cada uno de los B. Es decir, para ir de un estado q a otro p haciendo pop de A, se hacen todos los caminos posibles de q a p haciendo pop de cada uno de los simbolos que se generaron a partir de A.

Notar que en la segunda regla, a podria ser lambda, y la secuencia de B podria ser vacia si la transicion que consume a A del tope del stack no pushea ningun simbolo. En ese caso se reemplaza la secuencia de no terminales por lambda.

Para demostrar la vuelta de la doble implicacion, es decir, que , se hace induccion sobre i, o sea, la cantidad de pasos que se dan en el automata para vaciar la pila consumiendo la cadena x.

El caso base (i = 1, es decir, la cadena es un terminal o lambda) es trivial a partir de las reglas para construir las producciones. El paso inductivo separa a x en a + y, siendo a un terminal o lambda, y y el resto de la cadena. En un primer paso, se consume A del stack y a de la entrada y se reemplaza A por una sucesion de simbolos B. Cada uno de estos B deriva, en menos de i pasos del automata, en un pedazo de la cadena y.

Entonces, por hipotesis inductiva, se puede hacer el salto a la gramatica, y se llega a que cada uno de los que conforman la produccion con lado izquierdo [q,A,p] genera un pedazo de y. Entonces el lado derecho construido para el [q,A,p] de la tesis deriva efectivamente en a + y, o sea, x.

La ida, , se prueba de manera similar. El caso base, con la cadena x igual a a, siendo a un terminal o lambda, se prueba directo a partir de las reglas.

El paso inductivo requiere partir la cadena x en a + x1 + x2 +...+xn, tal que cada uno de los xi se deriva a partir de cada simbolo que aparece luego de la primera derivacion. Como estos alcanzan cada xi en menos de i pasos, vale la HI, y se puede hacer el salto al automata, en particular, instanciando los qj en los estados que recorre el automata para vaciar la pila.

Gramatica a Automata[editar]

Para pasar de una gramatica a un AP, se genera un AP por pila vacia de un solo estado, que represente las derivaciones mas a la izquierda generadas por la gramatica. Tener en cuenta que cualquier forma sentencial no terminal generada a partir de derivaciones mas a la izquierda puede representarse como , donde x es un string de terminales, y es la cola (de ahora en mas y), con A no terminal y conjunto de terminales y no terminales.

La idea es que el automata comience con el simbolo distinguido S de la gramatica en la pila, y a cada paso tome una decision basado en el tope de la pila exclusivamente (pues hay un solo estado).

  • Si en el tope de la pila hay un no terminal, entonces lo reemplaza no deterministicamente por alguna de sus producciones. Esto es, si en la gramatica, entonces en el automata.
  • Si en el tope de la pila hay un terminal, se matchea con la entrada y se hace pop del stack. Es decir, que para todo terminal, . Así, el automata consume todos los terminales que va apilando (que son parte de x en la forma sentencial) hasta llegar al primer no terminal A de la cola y reemplazarlo por alguna de sus producciones.

Para probar que los lenguajes son equivalentes, es decir, que , se prueba como resultado intermedio más general que .

La ida se prueba por induccion sobre m, es decir, sobre la cantidad de producciones que se aplican para llegar de A a w. El caso base (1) es trivial a partir de las definiciones, pues la unica derivacion posible es A en lambda.

Para el paso inductivo se supone que A se deriva en en un primer paso, y para los m-1 restantes (es decir, cada uno de los X) se puede aplicar hipotesis inductiva y se obtiene el string de terminales correspondientes. El primer paso es el unico que basta probar entonces, y sale directo a partir de la primer regla.

La vuelta, tambien se hace por induccion. El caso base (n = 1) nuevamente es trivial, pues implica que w sea la cadena vacia y la produccion que la genera sea A en lambda.

El paso inductivo es similar al de la ida. Se observa que A genera en un paso por la regla 1, y los X entonces generaran los strings correspondientes para formar w (por hipotesis inductiva). Por lo tanto, A genera w.

Automata por estado final a pila vacia[editar]

La construccion de un automata por pila vacia (PV) a partir de un automata por estado final (EF) es sencilla. Basta con agregar dos estados nuevos al automata, uno inicial y otro que servira de final para vaciar el stack.

Primero se agrega un nuevo simbolo para el comienzo del stack, llamemoslo X0, y se agrega por debajo de la configuracion inicial original (supongamos Z0) mediante una transicion lambda de un nuevo estado al original .

Esto impide que el automata original EF pueda vaciar su pila accidentalmente y terminar, caso en el que deberia rechazar la cadena, y un equivalente por PV entonces la aceptaria.

Para simular la aceptacion, se agregan transiciones lambdas de todos los estados finales del automata original a un nuevo estado qf. Este estado no consume simbolos de la entrada y se limita a vaciar la pila. Asi, cuando el automata original llega a un estado final, puede seguir moviendose por el automata o vaciar la pila y aceptar (si no queda mas input).

Para probar que el lenguaje generado por PV incluye al de EF se debe probar que si una cadena x pertenece a EF, entonces pertenece a PV. Basta usar configuraciones instantaneas y ver que si entonces en PV vale . Esto significa que si en EF se llega a un estado final con cierta configuracion en la pila habiendo consumido toda la entrada, en PV se llega al mismo estado pero con X0 en la base de la pila.

La vuelta se prueba de la misma forma.

Automata por pila vacia a estado final[editar]

La construccion de un automata por EF a partir de uno por PV es similar al caso anterior, en el que se agrega un nuevo estado inicial y un nuevo estado final. Del nuevo estado inicial al inicial del PV se va por una transicion lambda que agrega un nuevo simbolo en la base de la pila (digamos X0) de la misma forma que antes.

Sin embargo, como ahora no hay estados finales (puesto que PV acepta por pila vacia), se generan transiciones lambda desde todos los estados del PV original al nuevo estado final . Estas transiciones requieren que esté el simbolo X0 en el tope de la pila, lo que equivale a decir que el PV original vacio la pila aceptando la cadena de entrada. El X0 entonces se agrega para que la pila no se vacie y sea posible moverse al estado final.

La demostracion es analoga al caso anterior.

Lenguajes deterministicos[editar]

Un lenguaje libre de contexto deterministico es aquel que puede reconocerse mediante un automata de pila deterministico. Un automata de pila deterministico debe cumplir que en cualquier estado, dado un terminal a consumir y un tope de la pila determinados, haya una unica transicion posible a realizar.

Para que se verifique esto, basta con que para cualquier 3-upla (q,a,Z) (estado, terminal, tope de pila) el conjunto determinado por sea de cardinal a lo sumo 1. Tambien debe cumplirse que si un estado tiene una transicion lambda dado un tope de pila Z, entonces no puede tener ninguna otra transicion por ese mismo tope de pila, cualquiera sea el terminal.

Equivalencias[editar]

Los lenguajes libres de contexto deterministicos estan incluidos de manera estricta en los libres de contexto. Un ejemplo es el lenguaje (es decir, una cadena seguida de su reverso). Intuitivamente, no puede parsearse con un APD pues el automata no tiene manera de saber cuando termino w y cuando comienza su reverso. Como nota de color, esto puede salvarse introduciendo un caracter $ en el momento en que termina w y comienza el reverso, haciendo el lenguaje deterministico.

Logicamente, los LICD incluyen a los lenguajes regulares, ya que un APD por estado final no es mas que un AFD en el que no se tiene en cuenta el manejo de la pila.

Ademas, si bien en los automatas de pila estandar un automata por pila vacia es equivalente a uno por estado final, en el caso de los deterministicos la equivalencia no se mantiene. Un APD por pila vacia puede representar un lenguaje L solamente si este lenguaje es libre de prefijos.

Notar que un lenguaje sencillo como ser a* es regular, pero no es libre de prefijos, con lo cual el APD por pila vacia no puede reconocerlo. Esto hace que los APD por pila vacia sean menos poderosos que por estado final. Sin embargo, la propiedad del prefijo es lo unico que los diferencia. Vale que si se tiene un lenguaje L reconocible por un APD por estado final, y L es libre de prefijos, entonces L es reconocible por un APD por pila vacia.

Esta limitacion no es tan grave ya que para cualquier lenguaje se puede generar otro similar que sea libre de prefijos simplemente agregando un caracter terminal $ al final.

Los LICD siempre tienen gramaticas no ambiguas que los representan, aunque la vuelta no siempre es cierta. Es decir, puede haber una gramatica no ambigua libre de contexto que no tiene APD que la represente.

Consumir cadena de entrada[editar]

Vale que para cualquier APD M, existe otro APD M' equivalente (por estado final) tal que M' siempre consume la cadena de entrada. Notar que este problema no existía en los lenguajes regulares. Ahora, un autómata puede no consumir por completo la cadena de entrada pues puede bloquearse al llegar a un estado del que ninguna transición es posible, o entrar en un loop infinito de lambdas, o vaciarse su stack.

Esto no sucedía en los finitos pues no había transiciones lambda, y desde cualquier estado siempre había una transición por cualquier terminal hacia otro estado (aunque fuera un estado trampa). Así, un AFD siempre consumía toda la entrada, y aceptaba sii terminaba en un estado final. En un APD puede suceder que la cadena no se consuma enteramente (caso en el cual es rechazada).

Para construir el APD M' se agregan tres nuevos estados. Primero un nuevo estado inicial q0' con una única transición lambda al original q0, tal que agrega una nueva base X0 en la pila, por debajo de Z0. Esto asegura que en ningún caso el autómata se frena por pila vacía.

El segundo estado que se agrega es un estado trampa d. Dado cualquier estado que para un tope de pila no tenga transiciones lambda, se agrega una transición por cada terminal no contemplado hacia el estado trampa. Esto permite que el autómata no se bloquee por falta de transiciones. La condición de que no haya transiciones lambda es para no romper el determinismo. A su vez, se agregan loops sobre el estado trampa para todos los terminales y símbolos de la pila.

También se agregan transiciones lambda desde todos los estados con tope de pila X0 hacia el estado trampa, para capturar los casos en los que el autómata M hubiera frenado por pila vacía.

Lo último que resta por eliminar son los loops lambda, definidos tal que para todo i existen estados tales que . Si existe algún estado final en el ciclo, entonces se redefine la transición lambda a partir de q por Z tal que vaya a un nuevo estado final f (del cual se construyen transiciones lambda hacia el trampa, por si era necesario consumir más input) haciendo pop del stack. Si ninguno en el ciclo era final, se redefine para que vaya al trampa, también haciendo pop del stack.

Complementacion[editar]

Vale que los LLCD son cerrados respecto de la complementación. Sin embargo, para construir un APD M' que capture el complemento de M, no basta con invertir finales con no finales como sucedía en los regulares. Puede suceder que el autómata M no consuma por completo la cadena de entrada w, por lo tanto ni M ni M' (construido invirtiendo finales y no finales) la reconocerían, pues ambos se bloquearían o entrarían en un loop lambda.

Aún solucionado esto, teniendo un autómata que consuma toda la entrada (lo cual es posible de construir), puede suceder que en M la cadena termine en un estado final q con una transición lambda hacia un no final p; con lo cual M' también reconocería esa cadena pues al terminar en q podría pasar a p y reconocerla.

La construcción de M' se hace entonces a partir de un M que consume toda la entrada, y debe solucionar el problema de quedar en un estado con lambdas hacia estados distintos.

Cada estado de M' es de la foma [q,k], donde q es un estado de M y k es un entero que vale 1, 2 o 3. Los estados finales de M' son todos aquellos con k = 3, y el inicial es [q0,k] con k = 1 si q0 es final o k = 2 si no.

La intuición detrás de k es que detecta si entre transiciones sin consumo de entrada se ha pasado por un estado final. Si se pasó por un final, vale 1, si no, 2.

La función de transición se define de tal forma que si se hace a través de un lambda desde un estado q hacia un estado p, entonces se va a [p,1] si p es final en M o el q de M' tenía k = 1 (es decir, se encontró con un estado final o venía de un final pasando por lambdas), o a [p,2] si no (no hay finales en el camino).

Si la transición se hace de q a p consumiendo un terminal a, entonces primero se permite hacer un salto hacia [q,3] por lambda desde [q,2]. Esto permite finalizar si ya se consume toda la cadena. Luego, desde [q,1] y [q,3] se agregan transiciones a p por a, yendo a [p,1] si p es final, o a [p,2] si no lo es.

Resumiendo, la idea es mantener tres niveles en el autómata, uno de los cuales contiene los estados finales (3), el otro los estados alcanzados a través de una transición lambda que pasaron por un final (2) y el último los no alcanzados por lambda desde un final (1).

Máquinas de Turing[editar]

Las máquinas de Turing se definen como un autómata con una cinta infinita a derecha (es decir, las celdas van de cero a infinito positivo) con la siguiente aridad:

  • conjunto de estados
  • alfabeto de la cinta
  • símbolo blanco, representa una celda vacía
  • alfabeto de entrada, no incluye al blanco
  • acciones
  • estado inicial
  • estados finales

Las acciones de la máquina dependen del estado actual y del símbolo que hay bajo la cabeza lectora/escritora, e implican escribir otro símbolo (puede ser el mismo) y moverse a izquierda o derecha.

La configuración instantánea de una máquina de Turing se define como , donde es el contenido de la cinta (sucesión de caracteres) a la izquierda del cabezal, q es el estado actual de la máquina, y es el contenido de la cinta desde el cabezal hasta el último símbolo distinto de blanco. Así, se puede especificar cuál es el estado actual, el contenido de la cinta y la posición del cabezal.

La cinta inicialmente comienza llena de blancos, excepto al comienzo donde tiene escrito el input a reconocer. Notar que el caracter blanco no puede pertenecer al alfabeto de entrada.

La máquina acepta una cadena si en su ejecución llega a un estado final, notar que la máquina no tiene transiciones desde un estado final. Como la cadena está escrita en la cinta, no existe el concepto de consumir la cadena de entrada.

Máquina de Turing determinística[editar]

Una máquina de Turing es determinística cuando dado un estado y un símbolo bajo el cabezal existe una única acción. Vale que una máquina determinística puede emular a una no determinística.

Para esto se construye una MTD M' que reconoce la cadena cuando esta pertenece al lenguaje y se cuelga cuando no pertenece. La MTD construida tiene tres cintas (se puede demostrar que una máquina con un número finito de cintas equivale a una de una sola cinta). La idea es guardar en la primer cinta la cadena de entrada, en la segunda un número que simboliza una traza a seguir de la máquina M original, y la tercera usarla para emular las operaciones de M.

Para simbolizar una traza, se calcula el máximo grado de salida (r) de los nodos de la máquina M, se numera cada transición a partir de cada estado con un número de 1 a r, y se escribe una secuencia de dígitos entre 1 y r. Esto permite recorrer todas las posibles secuencias de configuraciones instantáneas en BFS.

La MTD M', entonces, en cada iteración copia la entrada de la primer cinta a la tercera, incrementa en 1 el valor de la segunda cinta (número expresado en base r que simboliza la traza) y con esa traza emula a M sobre la tercer cinta. Si termina en estado de aceptación, se acepta la cadena. Si se traba o termina en un estado no final, se itera nuevamente.

Lenguajes Recursivamente Enumerables[editar]

Los LRE (lenguajes tipo 0 en la jerarquía de Chomsky) son lenguajes reconocibles por una máquina de Turing. Son aquellos que pueden especificarse sin restricciones sobre sus producciones.

Gramática a MTND[editar]

Para pasar de una gramática tipo 0 a una MTND, se utilizan dos cintas. En la primera se guarda la cadena; en la segunda se van generando formas sentenciales de manera no determinística a partir del símbolo distinguido S. Cuando se encuentra alguna que matchea la entrada, se acepta; si no, la máquina se cuelga.

MT a Gramática[editar]

Para pasar de una MT a una gramática se establece una equivalencia entre los símbolos de la gramática y las configuraciones instantáneas de la máquina de Turing. Los símbolos generados son de la forma [a,b], donde a representará el caracter original de la cadena de entrada y b el caracter sobre el que opera la máquina.

Se proveen producciones para generar, incialmente, una cadena arbitraria de símbolos [a,a], siendo a cualquier terminal. Esto equivale a tener inicialmente en la cinta cualquier cadena. Seguidos a estos se genera una cantidad libre de simbolos [lambda,Blanco], tantos como necesitaría la cinta para operar.

La gramática genera, al principio de todo, un caracter q que representará el cabezal de la máquina. Las producciones de la gramática permiten "mover" q entre los símbolos [a,b] (modificando solamente los b) en base a las acciones permitidas por la MT original.

Una vez alcanzado un estado final, se generan producciones que eliminan todos los símbolos [a,b] dejando solamente los a correspondientes a la cadena original, y finalmente a q. Así, la cadena final de terminales es la cadena a generar.

Lenguajes Sensitivos al Contexto[editar]

Los lenguajes dependientes del contexto se expresan con gramáticas tipo 1 en la jerarquía de Chomsky, que tienen la restricción de que la longitud del lado derecho de una producción no puede ser menor a la del lado izquierdo.

Autómata Linealmente Acotado[editar]

Los ALA pueden verse como máquinas de Turing con la cinta acotada. En un ALA el alfabeto de entrada incluye dos símbolos, usados como tope de entrada y tope de salida. El autómata no puede moverse más allá de los topes ni sobreescribirlos.

Notar que un ALA tal que en la cinta tenga una cantidad de blancos lineal a la longitud de la entrada es equivalente a un ALA con cero blancos, que opera exclusivamente sobre la cadena de entrada.

A diferencia de lo que sucedía con las MT, no hay equivalencia entre ALA y ALAD. A primera vista puede observarse que el método anterior no funciona pues el número que simboliza la traza a emular (en la segunda cinta) puede crecer arbitrariamente.

Gramática a ALA[editar]

La equivalencia entre una gramática sensitiva al contexto y un ALA se demuestra exactamente igual que para máquinas de Turing en general, excepto que en este caso puede agregarse la restricción de que si la cadena que se está generando excede el tamaño de la que se ha de reconocer se corta esa rama (pues ninguna cadena de terminales y no terminales puede derivar en una de longitud menor). Así la cantidad de posibilidades a explorar es finita.

Lenguajes Recursivos[editar]

Los lenguajes recursivos se encuentran estrictamente entre los sensitivos al contexto y los recursivamente enumerables. Son aquellos reconocibles por una HTM (halting Turing machine). Es decir, existe una máquina de Turing que dada cualquier entrada, siempre para y devuelve si una cadena pertenece o no (no puede colgarse).

Inclusión de Sensitivos al Contexto[editar]

Para demostrar que los LSC están incluidos dentro de los recursivos, se construye una HTM que determine si una cadena pertenece al lenguaje. Dada una gramática GSC y una cadena de entrada w de longitud n, se construye un grafo finito donde cada nodo es un string de terminales y no terminales de longitud menor o igual a n.

Los arcos en este grafo representan si es posible ir de un string a otro mediante derivaciones de la gramática. Notar que este grafo es finito y puede construirse mediante un algoritmo.

Luego, para determinar si una cadena w pertenece al lenguaje, simplemente se verifica mediante un algoritmo si existe un camino desde S hasta el nodo que contiene a w. Como lo anterior es un algoritmo (siempre termina) existe una HTM que lo ejecuta, con lo cual el lenguaje LSC es recursivo.

Lenguaje Recursivo no LSC[editar]

Para demostrar que existe un lenguaje recursivo no sensitivo al contexto se utiliza un argumento diagonal. Primero se prueba un lema que indica que dada cualquier enumeración de HTMs, existe un lenguaje recursivo que no es aceptado por ninguna de ellas (el lenguaje que dada la cadena i, la acepta sii no es reconocida por la iesima HTM de la enumeración).

Eventualmente se llega a una contradicción, pues si existe una HTM de índice i en la enumeración, la cadena i debe ser reconocida por dicha HTM sii no lo es. Notar que este lenguaje es recursivo, pues existe un algoritmo (procedimiento que siempre termina) que puede determinar si una cadena i pertenece al conjunto: simplemente corre la HTM i con esa cadena y devuelve la negación.

A partir de esto, se construye una enumeración de las HTM que reconocen todos los LSC, lo cual es posible ya que se pueden enumerar las GSCs. Pero por el lema anterior existe un lenguaje que no es reconocido por ninguna de estas HTMs, es decir, por ningún LSC. Y este lenguaje es recursivo.

La demostración parece basarse en que el conjunto de HTMs no es Recursivamente Enumerable, mientras que el de GSCs sí lo es. Por lo tanto debe existir alguna HTM que genere un lenguaje no sensitivo al contexto.

Lenguaje Diagonal[editar]

El lenguaje diagonal es un ejemplo de un lenguaje que no es recursivamente enumerable. Requiere enumerar las MT y entradas posibles y llegar a una contradicción similar a la del problema de la parada.

Más formalmente, se basa en construir una tabla infinita de dos entradas. La celda (i,j) entonces vale 1 sii la máquina de Turing de nro j reconoce la cadena i. La MT se encuentra codificada en binario, y la cadena de entrada es de 0s y 1s.

Entonces, puede construirse el lenguaje de las cadenas i tal que no pertenecen a la MT de igual número (lenguaje diagonal). Si este lenguaje es recursivamente enumerable, entonces existe una MT Mk tal que reconce sus cadenas. En otras palabras,

Con lo que se llega a una contradicción. La cadena de igual número que M es reconocida por la máquina sii no es reconocida.

Otra opción (distinta a la del pdf, revisar) es un lenguaje que acepta una cadena sii esta representa una máquina de Turing con una entrada dada, y dicha máquina para. Si dicha máquina existiera, resolvería el halting problem, lo que no es posible.

Lenguaje Universal[editar]

El lenguaje universal es el que se corresponde a la MT que ejecuta cualquier otra MT con cualquier entrada. En otras palabras, toma pares de cadena y MT, y determina si la cadena es reconocida por esa MT.

Recursivamente Enumerable

Este lenguaje es recursivamente enumerable. Puede construirse una MT con 3 cintas, de las cuales la primera contiene el input (la MT M más la cadena de entrada w), la segunda (inicializada con la cadena w) emula la cinta de M, y la tercera permite llevar cuenta del estado en el que se encuentra la M emulada.

No Recursivo

Para demostrar que este lenguaje no es recursivo, se supone inicialmente que lo es y se intenta llegar al absurdo. Para esto, se construye un algoritmo (es decir, un procedimiento que siempre para, emulable por una HTM) que dada una cadena de entrada, genera su MT con igual número. Luego se determina, usando la HTM del lenguaje universal (supusimos que era recursivo) si es aceptado, esto es, si la máquina i acepta la cadena i.

Notar que este es el complemento del lenguaje diagonal. Como es un algoritmo, siempre termina y devuelve verdadero o falso. Con lo que puede generarse fácilmente una HTM que reconozca el lenguaje diagonal directamente. Lo que es absurdo puesto que no es siquiera recursivamente enumerable.

Intuitivamente, el que el lenguaje universal sea recursivo significaría que es posible tener un método que siempre termina que resuelve (por sí o por no) la pertenencia de cualquier cadena a cualquier MT. Es decir, es capaz de decidir el halting problem.

Analizadores Sintácticos Descendentes[editar]

Reescritura[editar]

Simbolos anulables[editar]

Un símbolo es anulable sii deriva en uno o más pasos en lambda. Una gramática no tiene símbolos anulables sii la única producción con lado derecho lambda es del símbolo distinguido, y éste no aparece en ningún lado derecho.

Renombramientos[editar]

Un renombramiento es una producción de la forma .

Simbolos inactivos[editar]

Un símbolo es activo sii deriva en una cadena de terminales.

Simbolos inalcanzables[editar]

Un símbolo es alcanzable sii aparece en alguna derivación a partir del símbolo distinguido, es decir, .

Orden de aplicación[editar]

Todos los casos anteriores son salvables mediante un algoritmo, es decir, hay algoritmos para generar una gramática G' a partir de G tal que G' no tenga símbolos anulables, ni renombramientos, ni símbolos inactivos, ni símbolos inalcanzables. El orden de aplicación de los algoritmos es el aquí expuesto.

Analizador Descendente con Retroceso[editar]

El analizador descendente con retroceso (o backtracking) comienza a partir del simbolo distinguido generando formas sentenciales más a izquierda e intentando matchear con la entrada, haciendo backtracking si no lo logra. Equivale a pensar en un parser no deterministico.

Tiene el problema de que, como todos los parsers descendentes, no soporta gramáticas recursivas a izquierda, pues entra en una expansión infinita. Además, el backtracking (o no determinismo) hace que el tiempo que requiere para parsear una expresión sea inadmisible.

Analizador Descendente Predictivo[editar]

El objetivo de un analizador descendente predictivo es eliminar el no determinismo del anterior sabiendo siempre de alguna manera qué producción expandir para el no terminal más a la izquierda. Para esto se utilizan los símbolos directrices de cada producción.

Gramática LL(1)[editar]

Una gramática es LL(1) sii para toda producción con el mismo lado izquierdo (es decir, para toda expansión de un mismo no terminal) la intersección de los símbolos directrices es vacía. Esto permite decidir siempre, dado un no terminal y un token del input, cuál producción elegir para expandir.

Dada una gramática G, una gramática ampliada G' es una nueva gramática en la que se le añade a cada cadena un terminal de finalización, mediante una nueva producción . Asimismo, una gramática reducida es aquella en la que todos sus no terminales son alcanzables y activos.

Propiedades de LL(1)[editar]

Dada una gramática G ampliada y reducida, vale que siguientes de todo no terminal es un conjunto no vacío.

Esto vale pues, como G es reducida, entonces para cualquier no terminal U vale que es una forma sentencial. Por lo tanto, el conjunto de siguientes de U es igual al de primeros de beta. Si este es vacío, entonces siguientes de U es igual al símbolo #.

Dada una gramática G ampliada y reducida, si G es LL(1) entonces no es recursiva a izquierda.

La intuición detrás de este teorema viene dada por su contrarreciproco. Ningún parser descendente soporta gramáticas recursivas a izquierda, pues como trabaja con derivaciones más a la izquierda, puede entrar en loop al expandir siempre el mismo no terminal.

Se demuestra por el absurdo. Si es recursiva a izquierda, entonces existe un no terminal A tal que , pero como A debe ser activo, entonces también vale que . Por lo tanto, tienen que suceder:

  • , donde A0 y Ak son el símbolo A.
  • , donde A0' es el símbolo A.

En otras palabras, A deriva en dos cadenas distintas de las cuales una comienza nuevamente con A (donde se da la recursividad a izquierda) y otra es una cadena de terminales del lenguaje (pues A debia ser activo).

Luego, se considera el primer valor i tal que pero , es decir, el punto en el que las dos derivaciones anteriores se diferencian, al usar las producciones:

  • (1)
  • (2)

El objetivo de la demostración será probar que ambas cadenas comparten alguno de sus símbolos directrices, con lo que la gramática no sería LL(1) y esto contradice la hipótesis.

Intuitivamente, esto se logra reemplazando el Ak de la primer cadena por beta, con lo los símbolos directrices de ambas producciones (1 y 2) serán o bien primeros de beta o bien siguientes de .

En el caso en que la cadena beta sea no vacía, es posible descomponerla en . Por lo tanto, los símbolos directrices de la cadena (2), es decir, la que deriva en beta, contienen a a. Pero entonces la cadena recursiva a izquierda puede reescribirse reemplazando el último Ak por beta: .

Por lo tanto, los símbolos directrices de la producción (1) también contienen a a, con lo que la intersección de los directrices de ambas producciones es no vacía, con lo que la gramática no es LL(1), lo que es absurdo.

En el caso de que beta sea vacía, esto es, el símbolo A es anulable, vale que cada uno de los y lo son, con lo que los símbolos directrices de la producción (2) incluyen a siguientes de .

Además, vale que puede completarse la primer secuencia de derivaciones de manera similar a como se hizo en el caso anterior, pero este caso cambiando al último Ak por la cadena vacía: .

Suponiendo que la cadena de alfas final sea anulable, eso significa que cada uno de los y también lo son (notar que más arriba habíamos llegado a que también los y eran anulables, esto es, los que derivaban en beta). Por lo tanto, los símbolos directrices de la producción (1) también incluirán a los siguientes de . Como siguientes de es un conjunto no vacío por la propiedad anterior, la intersección de los directrices de ambas producciones también será no vacía, con lo que G debe ser no LL(1) (nuevamente absurdo).

La última posibilidad es que la cadena de alfas sea no anulable, es decir, existe algún terminal a en primeros de dicha cadena. Con lo cual, ese valor a está presente en los directrices de la producción (1). Pero como los , j < i, son anulables, entonces puedo llegar a que .

De eso se deduce que a queda en siguientes de , que está incluido en los símbolos directrices de la producción (2). Entonces, a pertenece a los directrices de ambas producciones y se produce el conflicto para que G no sea LL(1).

Los lenguajes LL(1) estan contenidos de manera propia en los lenguajes libres de contexto determinísticos.

Eliminacion de recursividad a izquierda[editar]

Es posible eliminar la recursividad a izquierda de una gramática mediante un algoritmo. Para eliminar la recursividad a izquierda directa de A, por ejemplo,

Se genera un nuevo símbolo A' y se redefine A tal que


A su vez, para eliminar recursividad a izquierda en general (es decir, también la indirecta) se usa el siguiente algoritmo:

Numerar los no terminales de 1 a N

Para i = 1 to N
  Para j = 1 to i-1
     Sustituir cada Ai -> Aj γ por
     Ai -> δ1 γ | δ2 γ | ... | δk γ
     donde Aj -> δ1 | δ2 | ... | δk

     Eliminar recursividad a izquierda directa de cada Ai

La idea del algoritmo es recorrer cada una de los no terminales y eliminar todas las producciones que tengan como primer símbolo generado algún no terminal anterior, cambiandolas por una producción equivalente que no depende de ese no terminal. Esto solamente puede generar recursividad a izquierda directa, que se elimina con el método anterior.

Al finalizar, cada no terminal podrá derivar en una cadena que tenga, como primer elemento, solamente un terminal o un no terminal de numeración mayor.

Factorizacion[editar]

Dada una producción de la forma , siendo alfa el prefijo común de mayor longitud entre ambas cadenas, se puede factorizar usando:


Notar que a pesar de los algoritmos para eliminar factorización y recursividad a izquierda, puede haber lenguajes para los que no haya una gramática LL(1) que los reconozca (por ejemplo, cualquier lenguaje libre de contexto no determinístico, como ser wwr).

ASDP Recursivo[editar]

Un analizador sintáctico descendente predictivo puede implementarse de manera recursiva definiendo un procedimiento para cada uno de los símbolos no terminales presentes en la gramática. Cada procedimiento contiene un switch dependiendo en el valor del token actual. Si el token pertenece al conjunto de símbolos directrices de una producción del no terminal del procedimiento, entonces se "ejecuta" la producción actual: los terminales son consumidos de la entrada y para los no terminales se ejecuta su procedimiento correspondiente. Por ejemplo:

Producciones
T -> A
T -> ^A;
A -> i | c | n
Proc A()
  if (token in {i,c,n})
     A()
  else if (token in {^})
     match(^)
     A()
     match(;)
  else
     error()

La mayor desventaja es que implica generar código nuevo para cada gramática, además de ser recursivo lo que generalmente es menos performante. La ventaja es que es menos restrictivo: en principio puede capturar cualquier lenguaje libre de contexto no recursivo a izquierda.

ASDP con Tabla[editar]

(Ver definición de la práctica).

El analizador sintáctico descendente predictivo puede implementarse también usando una tabla. La ventaja es que el código es siempre el mismo, sólo varía la tabla que se usa; además de ser más rapido pues no es recursivo. Se construye a partir de la gramática extendida.

La tabla es una matriz M con tantas columnas como símbolos terminales y tantas filas como no terminales, tal que sii .

El algoritmo, dada la cadena de entrada w, el token actual t y un stack auxiliar, es el siguiente. Recordar que el lado derecho de la producción Y1Y2 ... Yk se apila al revés de manera que el primer símbolo quede como tope.

Repetir
  Si tope in Vt
      Si tope === t
         extraigo tope de la pila
         avanzo 1 en w
      Si no
         error
  Si no
      Si M(t, tope) === (tope --> Y1Y2 ... Yk)
         extraigo tope de la pila
         apilo YkYk-1 ... Y1 
      Si no
         error
Hasta que tope === # && t === #

Gramática LL(k)[editar]

Una gramática LL(k) es análoga a una LL(1). La única diferencia radica en que los conjuntos de primeros y siguientes, en lugar de contener terminales, contienen cadenas de terminales de longitud a lo sumo k. Esto reduce las colisiones entre los símbolos directrices de producciones para el mismo no terminal, pero aumenta significativamente el tamaño de la tabla de parseo en memoria.

Decidibilidad[editar]

  • Dado un k y una gramática G, es G LL(k)? Es decidible, se construye el analizador y se evalúa si se producen conflictos.
  • Dada una gramática G, existe un k tal que G sea LL(k)) No es decidible.
  • Dada una gramática G no LL(1), existe una gramática G' LL(1) tal que represente el mismo lenguaje? No es decidible.

Analizadores Sintácticos Ascendentes[editar]

Un estilo de análisis sintáctico de abajo hacia arriba es conocido como "shift-reduce parsing". Shift-Reduce intenta construir un árbol de parseo para una cadena de entrada empezando en las hojas y trabajando hacia arriba en dirección a la raiz. Es como el proceso de reducir un string w al símbolo distinguido inicial de la gramática. En cada reducción un substring particular de w que coincide con el lado derecho de una producción se reemplaza por el no terminal de la izq. de la misma, y si el substring se elige correctamente en cada paso, se reconstruye en reversa una derivación más a la derecha.

Definicion: Pivote: Dada y una forma sentencial derecha : es pivote si y sólo si

Informalmente el pivote es una subcadena que matchea con el lado deerecho de una producción y cuya reducción representa un paso "en reversa" de la derivación más a la derecha de la cadena. Es importante notar que en muchos casos el substring más a la derecha que matchea con alguna producción no es un pivote, ya que una reducción de llevaría a una cadena que no se puede seguir reduciendo al símbolo distinguido. Si la gramática no es ambigua, existe un único pivote en una forma sentencial derecha.


Algoritmo: Shift reduce (algoritmo general)

Sea w = a1 ... an la cadena de entrada
pc el símbolo apuntado en w
La pila inicializada en vacio, tope es el tope de la pila

elFin := F
error := F
Repetir hasta elFin
     Según
         tope es pivote
             Desapilar pivote
             Apilar A donde (A->tope) es una prod. de G
         pila == S y fin de w
             aceptar w
             elFin := T
         no es fin de w
             apilar pc
             Si pc != a_n
                 pc++
                 desplazar
         otro caso
             error := T
             elFin := T

Precedencia Simple[editar]

Definicion: Relaciones de precedencia de Wirth-Weber. Permiten definir el pivote dada una forma sentencial derecha; el mismo queda encerrado entre <> al evaluar todas las relaciones de precedencia entre símbolos consecutivos. Notar que no son relaciones de equivalencia u orden.

Sea , y una forma sentencial derecha tal que ,

    • Implica que tanto X como Y están en el pivote de .
    • Implica que Y está en el pivote de y X no.
    • Implica que X está en el pivote de y Y no, notar que Y debe ser un terminal pues alfa es una forma sentencial derecha, esto es, no puede haber no terminales no expandidos a la derecha del pivote.

Gramática de Precedencia Simple[editar]

Definicion: Gramatica propia

  • Si no hay símbolos inútiles (símbolos inalcanzables o inactivos)
  • Si no hay producciones excepto (y S no aparece en la parte derecha de ninguna producción)

Definicion: Gramaticas de precedencia

  • Si es propia y en , a lo sumo sostienen una relación de precedencia; es decir, no hay conflictos.

Definicion: Una gramatica es de precedencia simple si:

  • Es de precedencia y unívocamente inversible (no hay dos lados derechos iguales) [Si ]

Algoritmo de Parseo por Precedencia Simple[editar]

Completar tabla de PS

Puede hacerse algorítmicamente utilizando las definiciones de P+, U+ y P*, o calculando las relaciones de precedencia entre símbolos consecutivos de la gramática "a ojo".




para cada produccion A -> alfa
   para cada XY in subCadenas(alfa)
      definir X = Y
   IF Y in VN 
      definir X < P+(Y)
   IF X in VN
      definir U+(X) > P*(Y)

para cada X in VN Union VT
   definir # < S Union P+(S)
   definir S Union U+(S) > #

Algoritmo de parsing

Tabla de precedencia sin conflictos y w cadena de entrada. (TC es donde apunta en w).

apilar #
repetir
   IF TOPE < TC o TOPE = TC
        apilar TC
        avanzar w
   ELSE
        IF TOPE > TC
           OBTENER alfa pivote en la pila
           BUSCAR la produccion A -> alfa
           IF no encuentra produccion A -> alfa 
                ERROR
           ELSE  
                reemplazar alfa en la pila por A
        ELSE
           ERROR
hasta TC = # y en la pila hay #S
Aceptar w

Analizador LR[editar]

Definiciones[editar]

Prefijo viable: Sea una fsd (forma sentencial derecha) donde es pivote, es prefijo viable si es prefijo de . Son los prefijos de una fsd que pueden aparecer en el stack de un parser shift-reduce. Intuitivamente, son los prefijos de cualquier cadena que termine en el pivote. Vale que el conjunto de los prefijos viables de un lenguaje libre de contexto genera un lenguaje regular.

Item: Un item LR(0) de una gramática G es una producción de G con un punto en alguna posición del lado derecho (definición del dragón). Notar que el conjunto de items de una gramática es finito.

Item válido: Dado un prefijo viable , es un ítem válido para ssi , con . Notar que acá es un pivote.

En general un item puede ser válido para muchos prefijos viables. El hecho de que un item sea válido para da mucha información acerca de si conviene hacer un shift o un reduce teniendo en el stack. Si no es vacío, nos dice que todavía no leimos y escribimos todo el pivote en el stack, por lo que hay que hacer shift. Si fuera nulo, nos diría que es el pivote y que habría que reducir por esa producción. Lo que es cierto es que dos items válidos puede sugerir acciones distintas, con lo cual surgen conflictos. Algunos de estos conflictos se pueden solucionar mirando a los próximos símbolos en el input, pero no todos se van a poder solucionar para un gramática arbitraria.

Item completo: Es un item que el punto lo tiene al final de la parte derecha de la producción.

Construccion del Automata[editar]

La idea principal es que el conjunto de los prefijos viables de un (¿lenguaje libre de contexto o LR?) es regular. Entonces existe un AFND-L cuyo lenguaje son ellos. Sea con . Todos los estados van a ser finales.

Definimos de la siguiente forma:

  1. ,

Teorema: Dadas GLC y M el AFND-L construido, se cumple que es item válido para prefijo viable. Idea de la demostración:

  • Ida (=>): Se prueba por Inducción en la longitud del camino para consumir .
    • El caso base es long=1, con lo cual la única transición posible (por 1) y tiene que ser la cadena vacía. Como y y es además un item válido para el prefijo viable , el caso base se cumple.
    • Para el paso inductivo asumimos verdadera la HI para long de camino menores a . Las reglas para las transiciones 2) y 3) implican dos formas posibles para la última transición en el camino. Nuestra hipótesis es en transiciones:
      1. Está etiquetada con : Por hipótesis y como además sabemos que en la última transición consumimos , si tomamos y , el estado anterior tienen que ser , al que se llegó de por en pasos, es decir, . Pero al ser transiciones, vale la hipótesis inductiva, o sea, vale que es un item válido para el prefijo viable . Qué significa esto? Que es un pivote, también que y que (todo por la definición de prefijo viable e item válido para el mismo). Pero entonces notemos que también cumple la definición de prefijo viable (por quién es el pivote) y que es un item válido para . Como , llegamos a lo que queríamos: implica es un item válido para prefijo viable.
      2. Está etiquetada con : Como la última transición fue tiene que haber sido usando la definición 2 de . Primero, esto implica que para que el item tenga la forma debe pasar que . Segundo, el estado previo tiene que haber sido de la forma , y a él se tiene que haber llegado del estado inicial por el mismo (ya que no se consumió entrada), o sea, tiene que pertenecer a . Nuevamente vale la hipótesis inductiva, entonces podemos deducir que es item válido del prefijo viable . O sea, (el último paso por hipótesis y porque concluimos que ). Pero entonces es también prefijo viable para el pivote , para el cual es un item válido, llegando así a lo que queríamos probar.
  • Vuelta (<=)
    • Probamos primero el Lema: Si es item válido para prefijo viable, entonces . Demostración por inducción sobre en (esto es aplicar las definiciones de p.v. e i.v. ).
      • Caso base i = 0: Debe pasar que . En este caso el item es en realidad y . Por construcción de sabemos que .
      • Paso inductivo: (supongamos HI cierta para ). Por hipotesis del lemma y def. de p.v. e i.v., . Como el tiene que haber surgido en alguna derivación anterior o igual a , . Notar que ya que ningún no terminal a la derecha de puede expandirse antes que esta (por ser derivación más a la derecha). Ahora, como es una f.s.d, es un ítem válido para el prefijo viable . Por H.I., entonces . Pero aplicando la definición (3) de por cada símbolo de se ve que podemos llegar del estado a consumiendo . Entonces, . Para terminar, por la def. (2), , como queríamos probar.
    • Ahora, con el lema probado si es item válido para , entonces debe pasar que es item válido para prefijo viable (con )- Por el lema anterior , (usando la definición 3 de )

Construccion de conjuntos de items[editar]

Funcion Clausura[editar]

Closure encuentra todos los items en el mismo estado.

closure(I):

  1. Todo item en I es también un item en closure(I)
  2. Si está en closure(I) y es un item, entonces agregamos a closure(I)
  3. Repetimos hasta que no se pueden agregar más items a closure(I)

Funcion Goto[editar]

Goto encuentra el nuevo estado después de consumir un símbolo de la gramática mientras estamos en el estado actual.

goto(I, X): closure( { } )

donde I es un conjunto de items y X es un símbolo de la gramática.

Procedimiento para conjuntos de items[editar]

 <- clausura( {  } )
K <- {} sin marcar
mientras hay I  sin marcar
   marcar I
   para cada x  V
      j <-- goto[i,x]
      si j  K entonces agregar j a K sin marcar

Algoritmo de parseo LR[editar]

Todos los analizadores LR se comportan de la misma forma, lo que cambia es la construcción de la tabla de parsing y/o el autómata, que son específicos a cada clase.

Entrada. Una cadena w y una tabla de parsing LR con funciones acción y goto para una gramática G.

Salida. Si w pertenece a L(G), un parseo ascendente de w; si no, error.

Método. Inicialmente, el parser tiene en el stack, donde es el estado inicial, y w$ en el buffer the entrada. El parser ejecuta el siguiente algoritmo hasta que acepta la cadena o encuentra en la tabla una entrada de error.

apuntar ip al primer símbolo de w$
repetir siempre 
  sea s el estado en el tope de la pila y 
      a el símbolo apuntado por ip
  si action[s, a] = shift s' entonces
      apilar a y luego s'
      avanzar ip
  si no, si action[s, a] = reducir A -> beta
      desapilar 2 * |beta| símbolos
      sea s' el nuevo estado en el tope de la pila
      apilar A y luego goto[s', A]
      imprimir A -> beta
  si no, si action[s, a] = aceptar
      terminar
  si no
      error       

Analizador LR(0)[editar]

Un analizador LR(0) parsea una cadena utilizando el algoritmo anteriormente mencionado y una tabla. Las tablas de parseo tienen las mismas filas y columnas para todos los analizadores, en las filas ponemos todos los estados que obtuvimos del autómata y en las columnas todos los terminales y no terminales.

Algoritmo para crear una tabla de parseo LR(0):

 Para cada estado
     1. Transición a otro estado usando un símbolo terminal
        es un shift a ese estado 
     2. Transición a otro estado usando un no-terminal
        es un goto a ese estado 
     3. Si hay un ítem  en el estado
        hacemos una reducción con esa producción para todos los terminales
        (, donde k es la k-ésima producción)

Analizador SLR[editar]

El problema de los analizadores LR(0) es que hay muchos conflictos shift/reduce ya que al reducir lo hacemos sea cual sea el siguiente caracter. Los analizadores SLR, mejoran este aspecto mirando el siguiente token y reduciendo solo sí el mismo se encuentra dentro de los siguientes del no terminal a la izquierda de la producción del ítem. El algoritmo para crear la tabla de parseo es idéntico al LR(0) excepto en el tercer paso:

 3. Si hay un ítem   en el estado,
    para todos los terminales  hacer una
    reducción con la producción 

Analizador LR(1)[editar]

Necesitamos definir nuevas funciones Closure y Goto para crear un analizador LR(1).

 Closure(I):
   repetir
     para todos los ítems  en I
       para cualquier producción 
         para cualquier  
           
   hasta que I no cambie
 retornar I
 Goto(I, X):
   J = {}
   para todos los ítems  en I
   

Nuevamente la construcción de la tabla de parseo es idéntica salvo en el último paso:

 3. Si hay un ítem   en el estado, hacemos una
    reducción para el símbolo de entrada "a" con la producción 


Los parsers LR(1) reducen los conflictos reduce/reduce que eran más frecuentes en los parsers SLR.

Analizador LALR[editar]

Los analizadores LR(1) tienen un gran número de estados, lo que los hace poco eficientes. La idea de los analizadores LALR es: si dos estados son idénticos, excepto por el símbolo de look ahead de los ítems, los colapsamos en uno solo.

Esta forma de colapsar estados no puede producir un conflicto shift/reduce que no estuviera presente en el autómata LR(1), dado que las acciones the shift no dependen del lookahead, si no tan sólo del core del item. Sin embargo, sí puede generar conflictos reduce/reduce, como mostramos en el siguiente ejemplo:

S' -> S
S  -> aAd | bBd | aBe | bAe
A  -> c
B  -> c

Que genera el lenguaje {acd, ace, bcd, bce}. Esta gramática es LR(1). Si construímos el autómata LR(1), obtenemos el conjunto de items {} para el prefijo ac y {} para bc. Si los unimos:

A -> c., d/e
B -> c., d/e

Vemos que introdujimos un conflicto reduce/reduce, dado que tanto como pueden ser utilizadas para reducir para los caracteres d y e.

Propiedades LR[editar]

Propiedad: Si L es LLCD (Lenguaje Libre de Contexto Determinístico) y libre de prefijos, entonces existe una gramatica LR(0) que lo captura.

Propiedad: Para todo lenguaje LLCD existe una gramatica LR(k) que lo representa.

Propiedad: Para toda gramatica LR(k) existe una LR(1) equivalente.

Propiedad: Toda gramática analizable con un parser predictivo descendente es analizable con un LR(1).

Compiladores[editar]

La parte de compiladores se encuentra fuertemente vinculada con el uso de gramáticas de atributos, DDS y TDS, depende de ésta para realizar los análisis y generación de código.

Los pasos que realiza el compilador son los siguientes, partiendo del programa fuente:

  • Análisis lexicografico (genera cadena de tokens)
  • Análisis sintáctico (parseo, genera árbol de derivación)
  • Análisis estático (genera árbol decorado usando DDS)
  • Generación de código intermedio (con DDS, optimizaciones generales)
  • Generación de código objeto (con DDS, optimizaciones específicas según arquitectura)

Análisis estático[editar]

El análisis estático se realiza sobre el árbol de derivación del programa generado tras el parseo, e incluye los siguientes items:

  • Chequeo de tipos
  • Chequeo de flujo del programa (break, continue, etc)
  • Chequeo de unicidad (ej en switches)
  • Apareamiento de etiquetas (linking)

Chequeo de Tipos[editar]

El chequeo de tipos se hace manteniendo una tabla global de tipos que relaciona una variable con un tipo de datos. Luego a medida que se va parseando el programa se verifican los tipos correctos de las expresiones usando dicha tabla.

Expresión de Tipo: Una expresión de tipo es un tipo básico o el resultado de aplicar un constructor de tipo a una expresión de tipo.

Tipos básicos: Los tipos básicos del lenguaje, deben incluir a los tipos vacío y error_tipo.

Constructores de tipo: Arreglos, registros (conjuntos de tuplas nombre:tipo), punteros y funciones.

Sistema de tipos: Conjunto de reglas que permiten asignar expresiones de tipo a fragmentos del programa.

Sistema de tipos seguro: Un sistema de tipos es seguro cuando el chequeo de tipos estático (en tiempo de compilacion) asegura que no surjan errores de tipo en runtime.

Lenguaje fuertemente tipado: Lenguaje que cuenta con un sistema de tipos seguro. Notar que las excepciones de tipo InvalidCast no cuentan como errores de tipo.

Equivalencia de tipos: La equivalencia de tipos puede definirse por nombre o por estructura. La equivalencia por estructura consiste en verificar si ambos son básicos y matchean sus tipos, o si el último constructor aplicado es el mismo y sus tipos contenidos matchean (ej puntero a int con puntero a int, primero se chequea puntero y luego int). La equivalencia por nombre es por strings.

Sobrecarga de operadores[editar]

La sobrecarga de operadores permite que un mismo operador pueda tomar distintos tipos como operandos y devolver un tipo distinto según estos últimos. Tomemos por ejemplo el operador suma, y los tipos básicos int y float.

Si se efectúa una suma entre dos enteros, el resultado de esa expresión será también un int. Ahora bien, si se realiza una suma entre dos float, el resultado también será float. Por lo tanto, dada una producción del tipo:

E1 -> E2 + E3

el atributo sintetizado tipo de E1 dependerá de los tipos de E2 y E3:

E1.tipo <- if (E2.tipo = int && E3.tipo = int) int
           else if (E2.tipo = float && E3.tipo = float) float
           else if (E2.tipo = int && E3.tipo = float) float
           ...
           else error_tipo

Notar que si E2 es de tipo int y E3 de tipo float, se aplica la suma de floats. Para esto se debe coercionar de manera implítica el tipo de E2 a float. En otras palabras, se hace un casteo implícito.

Generación de código intermedio[editar]

La generación de código intermedio involucra el uso de alguna de las siguientes estructuras de representación para las expresiones:

  • Árboles sintácticos: Tienen como nodos intermedios los operadores, y los hijos de cada nodo son las subexpresiones que actúan de operandos. Las hojas son las variables. No confundir con árboles de análisis sintáctico, que son los generados por el parser.
  • Grafos dirigidos acíclicos: Similares a los anteriores, pero pueden tener ciclos no dirigidos (no ciclos dirigidos) para reutilizar subexpresiones y no generarlas más veces que las necesarias.
  • Notación postfija: La notación postfija emula un lenguaje de pila, y es no ambigua y fácil de manejar. Ejemplo, a+b*c se traduce a abc*+.

Código de tres direcciones[editar]

El código de tres direcciones es un tipo de código intermedio que se puede utilizar donde cada instrucción consiste en una asignación de una operación de dos operandos, así como estructuras de control.

  • Expresiones binarias: X = Y op Z
  • Expresiones unarias: X = op Z
  • Asignaciones: X = Z
  • Saltos: goto E (donde E es una etiqueta)
  • Saltos condicionales: E Y op Z (si Y op Z entonces goto E)
  • Calls: x1 param; x2 param; ... xn param; n call p (call a P con n parametros)
  • Indexacion: X = Y[i]
  • Referencias: X = &Y